JP2017009554A - Vehicle location determination device and vehicle location determination method - Google Patents

Vehicle location determination device and vehicle location determination method Download PDF

Info

Publication number
JP2017009554A
JP2017009554A JP2015128428A JP2015128428A JP2017009554A JP 2017009554 A JP2017009554 A JP 2017009554A JP 2015128428 A JP2015128428 A JP 2015128428A JP 2015128428 A JP2015128428 A JP 2015128428A JP 2017009554 A JP2017009554 A JP 2017009554A
Authority
JP
Japan
Prior art keywords
vehicle
feature
unit
region
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015128428A
Other languages
Japanese (ja)
Other versions
JP6488913B2 (en
Inventor
豪志 奧山
Takeshi Okuyama
豪志 奧山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2015128428A priority Critical patent/JP6488913B2/en
Publication of JP2017009554A publication Critical patent/JP2017009554A/en
Application granted granted Critical
Publication of JP6488913B2 publication Critical patent/JP6488913B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle location determination device that can accurately correct a current location of a vehicle in various travelling environments.SOLUTION: A vehicle location determination device comprises: a storage device 5 that stores map information 51 including locations of features existing around roads; a vehicle location estimation unit 61 that estimates a current location of a vehicle in the map information 51; a camera 1 that captures images surrounding the vehicle; an area specification unit 64 that, in the image, specifies an area Q in which a feature being a recognition object exists on the basis of a prescribed condition; a feature recognition unit 65 that recognizes the feature from the area Q; a relative location calculation unit 66 that calculates a relative location of the vehicle with respect to a location of the recognized feature in the map information 51; and a location correction unit 67 that corrects the current location of the vehicle P on the basis of the relative location calculated by the relative location calculation unit 66.SELECTED DRAWING: Figure 1

Description

本発明は、車両の位置を判定する車両位置判定装置及び車両位置判定方法に関する。   The present invention relates to a vehicle position determination device and a vehicle position determination method for determining the position of a vehicle.

測位装置により検出された車両の現在位置を補正する技術として、車両に搭載されたカメラを用いて車両から交差点までの距離を求め、地図情報における、交差点に対する車両の位置を特定することにより、車両の現在位置を補正する技術が提案されている(特許文献1参照)。   As a technique for correcting the current position of the vehicle detected by the positioning device, the distance from the vehicle to the intersection is obtained using a camera mounted on the vehicle, and the position of the vehicle with respect to the intersection in the map information is specified. Has been proposed (see Patent Document 1).

特開平9−243389号公報JP-A-9-243389

しかしながら、特許文献1に記載の技術は、高速道路走行時等、交差点の検出が困難な状況において車両の現在位置を補正できない場合がある。   However, the technique described in Patent Document 1 may not be able to correct the current position of the vehicle in situations where it is difficult to detect an intersection such as when traveling on an expressway.

本発明は、上記問題点を鑑み、様々な走行環境において精度良く車両の現在位置を補正することができる車両位置判定装置及び車両位置判定方法を提供することを目的とする。   In view of the above problems, an object of the present invention is to provide a vehicle position determination device and a vehicle position determination method that can accurately correct the current position of a vehicle in various traveling environments.

車両位置判定装置は、撮影する画像において、認識対象とする地物が存在する領域を所定の条件に基づいて特定し、画像において特定された領域から地物を認識することにより、地物の位置に対する車両の相対位置を算出し、車両の現在位置を補正する。   The vehicle position determination device identifies a region where a feature to be recognized exists in a captured image based on a predetermined condition, and recognizes the feature from the region identified in the image, thereby detecting the position of the feature. The relative position of the vehicle with respect to is calculated, and the current position of the vehicle is corrected.

本発明によれば、所定の条件に応じて、認識対象とする地物を含む画像の領域を特定することにより、様々な走行環境において精度良く車両の現在位置を補正することができる車両位置判定装置及び車両位置判定方法を提供することができる。   According to the present invention, a vehicle position determination that can accurately correct the current position of a vehicle in various driving environments by specifying an image area including a feature to be recognized according to a predetermined condition. An apparatus and a vehicle position determination method can be provided.

図1は、本発明の実施の形態に係る車両位置判定装置の構成の一例を説明するブロック図である。FIG. 1 is a block diagram illustrating an example of a configuration of a vehicle position determination device according to an embodiment of the present invention. 図2は、本発明の実施の形態に係る車両位置判定装置が雨又は雪の場合に画像において特定する領域を図示した一例である。FIG. 2 is an example illustrating a region specified in an image when the vehicle position determination device according to the embodiment of the present invention is raining or snowing. 図3は、本発明の実施の形態に係る車両位置判定装置が晴れ又は曇の場合に画像において特定する領域を図示した一例である。FIG. 3 is an example illustrating an area specified in an image when the vehicle position determination device according to the embodiment of the present invention is clear or cloudy. 図4は、本発明の実施の形態に係る車両位置判定装置が渋滞時に画像において特定する領域を図示した一例である。FIG. 4 is an example illustrating an area specified in an image by the vehicle position determination device according to the embodiment of the present invention in a traffic jam. 図5は、本発明の実施の形態に係る車両位置判定装置の処理フローを説明するフローチャートである。FIG. 5 is a flowchart illustrating a processing flow of the vehicle position determination device according to the embodiment of the present invention.

図面を参照して、本発明の実施の形態を説明する。図面の記載において、同一又は類似の部分には同一又は類似の符号を付し、重複する説明を省略する。   Embodiments of the present invention will be described with reference to the drawings. In the description of the drawings, the same or similar parts are denoted by the same or similar reference numerals, and redundant description is omitted.

(車両位置判定装置)
本実施の形態に係る車両位置判定装置は、図1に示すように、カメラ1と、測位装置2と、通信インターフェース(I/F)3と、センサ群4と、記憶装置5と、処理部6と、ディスプレイ7と、入力I/F8と、スピーカ9とを備える。本発明の実施の形態に係る車両位置判定装置は、車両に搭載され、車両の現在位置を判定する。
(Vehicle position determination device)
As shown in FIG. 1, the vehicle position determination device according to the present embodiment includes a camera 1, a positioning device 2, a communication interface (I / F) 3, a sensor group 4, a storage device 5, and a processing unit. 6, a display 7, an input I / F 8, and a speaker 9. A vehicle position determination device according to an embodiment of the present invention is mounted on a vehicle and determines a current position of the vehicle.

カメラ1は、車両の周囲の画像を撮影する。カメラ1は、例えば、CCD、CMOS等の固体撮像素子により、画像処理可能なデジタル画像を生成する。カメラ1は、撮影した画像を処理部6に逐次出力する。カメラ1は、車両の前方の画像を撮影する固定カメラであってもよく、車両の周囲の全方位の画像を撮影する全方位カメラであってもよい。或いは、カメラ1は、処理部6による制御に応じて、パン、チルト、ロールのうち少なくとも1方向の回転や、ズームイン、アウトを行うようにしてもよい。   The camera 1 captures an image around the vehicle. The camera 1 generates a digital image that can be processed by a solid-state imaging device such as a CCD or CMOS. The camera 1 sequentially outputs captured images to the processing unit 6. The camera 1 may be a fixed camera that captures an image in front of the vehicle, or may be an omnidirectional camera that captures images in all directions around the vehicle. Alternatively, the camera 1 may perform rotation in at least one of pan, tilt, and roll, zoom in, and out in accordance with control by the processing unit 6.

測位装置2は、全地球測位システム(GPS)等の測位システムにより、現在位置を測定する。測位装置2は、例えばGPS受信機からなる。測位装置2は、測定した現在位置を処理部6に逐次出力する。   The positioning device 2 measures the current position by a positioning system such as a global positioning system (GPS). The positioning device 2 is composed of a GPS receiver, for example. The positioning device 2 sequentially outputs the measured current position to the processing unit 6.

通信I/F3は、例えば、無線で外部と信号を送受信する通信機である。通信I/F3は、例えば、渋滞情報、交通規制等の交通情報や、天気情報等をリアルタイムに送信する高度道路交通システム(ITS)により、外部から種々の情報を受信する。ITSは、VICS(Vehicle Information and Communication System:登録商標)、テレマティクス等を含む。通信I/F3は、受信した情報を処理部6に逐次出力する。   The communication I / F 3 is, for example, a communication device that transmits and receives signals to and from the outside wirelessly. The communication I / F 3 receives various information from the outside by an intelligent road traffic system (ITS) that transmits traffic information such as traffic jam information and traffic regulations, weather information, and the like in real time. ITS includes VICS (Vehicle Information and Communication System: registered trademark), telematics, and the like. The communication I / F 3 sequentially outputs the received information to the processing unit 6.

センサ群4は、速度センサ、加速度センサ、角速度センサ、操舵角センサ等から構成可能である。センサ群4は、各センサにより車両の速度、3次元直交座標系における3軸の加速度及び角速度等を検出し、検出結果を処理部6に逐次出力する。センサ群4は、車両から対象までの距離及び方向を検出するレーザーレンジファインダー(LRF)等の距離センサ、車両の方位を検出する方位センサ等を備えるようにしてもよい。   The sensor group 4 can be composed of a speed sensor, an acceleration sensor, an angular velocity sensor, a steering angle sensor, and the like. The sensor group 4 detects the vehicle speed, three-axis acceleration, angular velocity, and the like in the three-dimensional orthogonal coordinate system by each sensor, and sequentially outputs the detection results to the processing unit 6. The sensor group 4 may include a distance sensor such as a laser range finder (LRF) that detects the distance and direction from the vehicle to the target, an orientation sensor that detects the direction of the vehicle, and the like.

記憶装置5は、道路周辺に存在する地物の位置及び種類を含む地図情報51を記憶する。記憶装置5は、半導体メモリ、磁気ディスク等から構成可能である。記憶装置5は、その他、処理部6において行われる処理に必要なプログラムを記憶するようにしてもよい。記憶装置5は、1つのハードウェアから構成されてもよく、複数のハードウェアから構成されてもよい。   The storage device 5 stores map information 51 including the positions and types of features existing around the road. The storage device 5 can be composed of a semiconductor memory, a magnetic disk, or the like. In addition, the storage device 5 may store a program necessary for processing performed in the processing unit 6. The storage device 5 may be composed of a single piece of hardware or a plurality of pieces of hardware.

地図情報51は、道路情報、施設情報等が記録される。地図情報51は、道路周辺に存在する様々な地物の位置、大きさ、種類等を含む地物情報が記録される。道路周辺の地物は、速度制限、一時停止、一方通行、横断歩道、駐車禁止等を知らせる道路標識と、停止線、横断歩道、横断歩道予告、区画線等を示す道路標示と、方面、サービスエリア、パーキングエリア、分岐、各種施設等を案内する案内標識とを含む。その他、地物は、距離標、信号機、電信柱、トンネル、橋梁、橋脚、非常駐車帯、非常電話、料金所、ガントリークレーン、鉄道等の道路構造物や設備を含む。   The map information 51 records road information, facility information, and the like. The map information 51 records feature information including the position, size, type, and the like of various features existing around the road. Features around roads include road signs indicating speed limits, temporary stops, one-way streets, pedestrian crossings, parking prohibitions, road markings indicating stop lines, pedestrian crossings, pedestrian crossings, lane markings, directions, services Information signs indicating areas, parking areas, branches, various facilities, and the like. In addition, the features include road structures and facilities such as distance markers, traffic lights, telephone poles, tunnels, bridges, piers, emergency parking zones, emergency telephones, toll gates, gantry cranes, and railways.

処理部6は、車両位置推定部61と、環境情報取得部62と、条件判断部63と、領域特定部64と、地物認識部65と、相対位置算出部66と、位置補正部67と、経路設定部68とを有する。経路設定部68は、地図情報51において車両の現在位置から目的地までの車両の走行経路を設定経路として設定する。   The processing unit 6 includes a vehicle position estimation unit 61, an environment information acquisition unit 62, a condition determination unit 63, a region specifying unit 64, a feature recognition unit 65, a relative position calculation unit 66, and a position correction unit 67. And a route setting unit 68. The route setting unit 68 sets the travel route of the vehicle from the current position of the vehicle to the destination in the map information 51 as the set route.

処理部6は、例えば、中央演算処理装置(CPU)、メモリ、及び入出力I/F等を備える集積回路であるマイクロコントローラにより構成可能である。この場合、マイクロコントローラに予めインストールされたコンピュータプログラムをCPUが実行することにより、処理部6を構成する複数の情報処理部(61〜68)が実現される。処理部6を構成する各部は、一体のハードウェアから構成されてもよく、別個のハードウェアから構成されてもよい。マイクロコントローラは、例えば自動運転制御等の車両に関わる他の制御に用いる電子制御ユニット(ECU)と兼用されてもよい。   The processing unit 6 can be configured by, for example, a microcontroller that is an integrated circuit including a central processing unit (CPU), a memory, an input / output I / F, and the like. In this case, a plurality of information processing units (61 to 68) constituting the processing unit 6 are realized by the CPU executing a computer program preinstalled in the microcontroller. Each unit constituting the processing unit 6 may be configured by integral hardware or may be configured by separate hardware. The microcontroller may also be used as an electronic control unit (ECU) used for other control related to the vehicle such as automatic driving control.

車両位置推定部61は、測位装置2により測定された現在位置と、センサ群4の検出結果から算出される車両の運動量とに基づいて、地図情報51における車両の現在位置を推定する。   The vehicle position estimation unit 61 estimates the current position of the vehicle in the map information 51 based on the current position measured by the positioning device 2 and the momentum of the vehicle calculated from the detection result of the sensor group 4.

環境情報取得部62は、車両が現在走行している地域の交通情報、天気情報等を通信I/F3から取得する。   The environment information acquisition unit 62 acquires traffic information, weather information, and the like of a region where the vehicle is currently traveling from the communication I / F 3.

条件判断部63は、カメラ1により撮影された画像、センサ群4の検出結果、車両位置推定部61により推定された車両の現在位置、環境情報取得部62により取得された情報、経路設定部68により設定された走行経路の少なくともいずれかに基づいて、車両の走行条件を判断する。条件判断部63が判断する走行条件は、天候、時間帯、路面状態、走行場所等の周囲環境と、走行状況、走行車線等の走行状態と、車両の走行経路とのうち、少なくともいずれかを含む。   The condition determination unit 63 includes an image captured by the camera 1, a detection result of the sensor group 4, a current position of the vehicle estimated by the vehicle position estimation unit 61, information acquired by the environment information acquisition unit 62, and a route setting unit 68. Based on at least one of the travel routes set by (1), the travel condition of the vehicle is determined. The travel condition determined by the condition determination unit 63 is at least one of the surrounding environment such as weather, time zone, road surface condition, and travel location, the travel state, the travel state such as the travel lane, and the travel route of the vehicle. Including.

条件判断部63は、環境情報取得部62により取得された天気情報等に基づいて、天候について、例えば、晴れ、雨、雪、霧等を判断する。条件判断部63は、センサ群4が備える雨滴センサの検出結果、車両が備えるワイパーの駆動状態等に基づいて、天候を判断するようにしてもよい。条件判断部63は、日の出及び日の入り時刻に対する現在時刻、又は、センサ群4が備える照度センサの検出結果等に基づいて、時間帯について昼間か夜間かを判断する。   The condition determination unit 63 determines, for example, sunny, rain, snow, fog, etc., regarding the weather based on the weather information acquired by the environment information acquisition unit 62. The condition determination unit 63 may determine the weather based on the detection result of the raindrop sensor included in the sensor group 4, the driving state of the wiper included in the vehicle, and the like. The condition determination unit 63 determines whether the time zone is daytime or nighttime based on the current time with respect to the sunrise and sunset times or the detection result of the illuminance sensor included in the sensor group 4.

条件判断部63は、環境情報取得部62により取得された天気情報、又はカメラ1により撮影された画像等に基づいて、車両が走行する路面状態として、ウェット、積雪、凍結、適正に舗装された状態で表面が露出されていない道路である悪路等を判断する。条件判断部63は、センサ群4が備える、車両の車輪のスリップを検出するスリップセンサの検出結果に基づいて、路面状態を判断するようにしてもよい。また、条件判断部63は、車両位置推定部61により推定された現在位置に基づいて、車両の走行場所について、都市部、郊外、高速道路、一般道、山道等を判断する。   The condition determination unit 63 is wet, snowy, frozen, or appropriately paved as the road surface state on which the vehicle travels based on the weather information acquired by the environment information acquisition unit 62, the image taken by the camera 1, or the like. A bad road or the like which is a road whose surface is not exposed in the state is determined. The condition determination unit 63 may determine the road surface state based on a detection result of a slip sensor that is included in the sensor group 4 and detects a slip of a vehicle wheel. In addition, the condition determination unit 63 determines an urban area, a suburb, an expressway, a general road, a mountain road, and the like as the travel location of the vehicle based on the current position estimated by the vehicle position estimation unit 61.

条件判断部63は、環境情報取得部62により取得された交通情報に基づいて、走行状況として、高速道路(又は自動車専用道路)走行時、渋滞時等を判断する。条件判断部63は、センサ群4が備える速度センサの検出結果に基づいて高速走行時、低速走行時等の走行状況を判断するようにしてもよい。或いは、条件判断部63は、カメラ1により撮影された画像に基づいて、前後の他の車両との距離を算出し、距離が短い状態が所定時間維持される場合において、渋滞時と判断するようにしてもよい。   Based on the traffic information acquired by the environment information acquisition unit 62, the condition determination unit 63 determines, for example, when driving on an expressway (or a car road) or when there is a traffic jam. The condition determination unit 63 may determine a traveling state such as during high-speed traveling or low-speed traveling based on the detection result of the speed sensor provided in the sensor group 4. Alternatively, the condition determination unit 63 calculates the distance to the other vehicles on the front and rear sides based on the image taken by the camera 1, and determines that the traffic is congested when the short distance is maintained for a predetermined time. It may be.

条件判断部63は、カメラ1により撮影された画像、車両位置推定部61により推定された現在位置、センサ群4の検出結果に基づいて算出された車両の運動等に基づいて、走行車線として、右車線、左車線、右車線及び左車線に挟まれた中央車線等を判断する。   The condition determination unit 63 uses the image taken by the camera 1, the current position estimated by the vehicle position estimation unit 61, the movement of the vehicle calculated based on the detection result of the sensor group 4, and the like as a traveling lane. The right lane, the left lane, the right lane, and the center lane between the left lane and the like are determined.

領域特定部64は、条件判断部63により判断される各走行条件に基づいて、カメラ1により撮影された画像において、認識対象とする地物が存在する範囲として領域Q(図2−4参照)を特定する。領域特定部64は、例えば、車両の進行方向の画像において、領域Qを特定する。   The region specifying unit 64 is a region Q (see FIG. 2-4) as a range in which the feature to be recognized exists in the image taken by the camera 1 based on each traveling condition determined by the condition determining unit 63. Is identified. For example, the area specifying unit 64 specifies the area Q in the image in the traveling direction of the vehicle.

地物認識部65は、カメラ1により撮影された画像のうち、領域特定部64により特定された領域Qから地物を認識する。地物認識部65は、画像の領域Qに対して、エッジ検出や、予め記憶するテンプレートとの類似度を算出するパターンマッチング等の所定の画像処理を施すことにより、地図情報51における地物に対応する地物を領域Qから認識する。地物認識部65は、地図情報51における地物と、認識した地物とを関連付ける。また、地物認識部65は、カメラ1により撮影された画像に基づいて、認識した地物の車両に対する方向及び車両からの距離を算出する。地物認識部65は、センサ群4が備えるLRF等により、認識した地物までの距離及び方向を取得するようにしてもよい。   The feature recognizing unit 65 recognizes the feature from the region Q specified by the region specifying unit 64 among the images taken by the camera 1. The feature recognizing unit 65 applies predetermined image processing such as edge detection and pattern matching for calculating the similarity to a template stored in advance to the region Q of the image, thereby applying the predetermined feature to the feature in the map information 51. Recognize corresponding feature from region Q. The feature recognition unit 65 associates the feature in the map information 51 with the recognized feature. Further, the feature recognition unit 65 calculates the direction of the recognized feature with respect to the vehicle and the distance from the vehicle based on the image taken by the camera 1. The feature recognition unit 65 may acquire the distance and direction to the recognized feature using the LRF or the like provided in the sensor group 4.

領域特定部64は、例えば、図2に示すように、条件判断部63により周囲環境として天候が雪と判断される場合、積雪により道路標示を正確に認識することが難しくなるので、道路の上方に存在する案内標識、道路標識等を認識するため、画像の上半分を領域Q1として特定する。領域特定部64は、認識の見込みが低い地物が位置する画像上の範囲を除いて、認識可能と見込まれる地物が位置すると考えられる範囲に領域Qを特定することにより、画像処理が施される画像の範囲が限定され、地物認識部65の処理負荷を低減することができる。   For example, as shown in FIG. 2, when the condition determination unit 63 determines that the weather is snow as the surrounding environment, the region specifying unit 64 becomes difficult to accurately recognize the road marking due to snow. The upper half of the image is specified as a region Q1 in order to recognize information signs, road signs, etc. The area specifying unit 64 performs image processing by specifying the area Q in a range where a feature that is expected to be recognizable is located, except for a range on the image where a feature with low likelihood of recognition is located. The range of images to be processed is limited, and the processing load on the feature recognition unit 65 can be reduced.

図2に示す例では、画像上に存在する道路標識M1、案内標識M2及び案内標識M3のうち、道路標識M1及び案内標識M2のみが領域Qに含まれる。領域特定部64は、認識可能な距離に存在する地物である案内標識M3も領域Qに含まれるように、画像の下部を除く範囲を領域Qとして特定するようにしてもよい。領域特定部64は、天候が雨の場合、濡れた路面の反射等により、ペイントされた道路標示等の地物を正確に認識することが難しくなるため、雪の場合と同様に処理するようにしてもよい。   In the example shown in FIG. 2, only the road sign M1 and the guide sign M2 are included in the region Q among the road sign M1, the guide sign M2, and the guide sign M3 existing on the image. The area specifying unit 64 may specify the area excluding the lower part of the image as the area Q so that the guide sign M3 that is a feature existing at a recognizable distance is also included in the area Q. When the weather is raining, the area specifying unit 64 makes it difficult to accurately recognize a feature such as a painted road sign due to reflection of a wet road surface. May be.

また、領域特定部64は、図3に示すように、天候が晴れや曇の場合等、画像上の地物が概ね認識可能と見込まれる場合において、画像の全範囲に領域Q2を特定するようにしてもよい。或いは、領域特定部64は、例えば天候が晴れの場合、認識精度を向上するために、比較的車両から近距離に位置する道路標示、距離標等が位置すると考えられる画像の下部、又は上部を除く範囲に領域Qを特定するようにしてもよい。また、領域特定部64は、天候が霧の場合、車両から離れた地物を認識することが難しくなるため、同様に、画像の下部、又は上部を除く範囲に領域Qを特定するようにしてもよい。また、領域特定部64は、条件判断部63により判断される路面状態に基づいて、領域Qを同様に特定するようにしてもよい。   In addition, as shown in FIG. 3, the region specifying unit 64 specifies the region Q2 in the entire range of the image when the feature on the image is expected to be generally recognizable, such as when the weather is sunny or cloudy. It may be. Alternatively, for example, when the weather is fine, the region specifying unit 64 may display a lower part or an upper part of an image where a road sign, a distance sign, etc., which are located at a relatively short distance from the vehicle, in order to improve recognition accuracy. The region Q may be specified in the excluded range. In addition, when the weather is foggy, it becomes difficult for the area specifying unit 64 to recognize a feature away from the vehicle. Similarly, the area specifying unit 64 specifies the area Q in the range excluding the lower part or the upper part of the image. Also good. Further, the area specifying unit 64 may similarly specify the area Q based on the road surface state determined by the condition determining unit 63.

図4に示すように、渋滞している一般道路の場合、道路標示は、他の車両に隠れて認識されにくい。この場合、領域特定部64は、道路の上方に存在する地物が位置すると考えられる画像の上半分に領域Q3を特定する。領域Q3は、画像の上部であっても下部を除く範囲に特定されてもよい。図4に示す例では、領域Q3に、信号機M4、道路標識M5及び電信柱M6が含まれる。このように、領域特定部64は、認識可能と見込まれる地物が位置すると考えられる範囲に領域Qを設定する。   As shown in FIG. 4, in the case of a general road that is congested, the road marking is not easily recognized because it is hidden behind other vehicles. In this case, the area specifying unit 64 specifies the area Q3 in the upper half of the image in which the feature existing above the road is considered to be located. The region Q3 may be specified in the range excluding the lower portion or the upper portion of the image. In the example shown in FIG. 4, the area Q3 includes a traffic light M4, a road sign M5, and a telephone pole M6. As described above, the region specifying unit 64 sets the region Q in a range where a feature that is expected to be recognizable is located.

その他、領域特定部64は、走行状態が、所定の閾値以上の速度の高速走行時の場合、側方に位置する地物が認識困難となるため、画像の水平方向における両端部を除く範囲に領域Qを特定するようにしてもよい。また、領域特定部64は、走行車線が複数車線(例えば3車線)あって車両が右車線を走行している場合、画像の左部を除く範囲に領域Qを特定するようにしてもよい。同様に、領域特定部64は、左車線走行時に画像の右部を除く範囲に領域Qを特定するようにしてもよく中央車線走行時に画像の水平方向における両端部を除く範囲に領域Qを特定するようにしてもよい。   In addition, when the traveling state is high-speed traveling at a speed equal to or higher than a predetermined threshold, it is difficult to recognize the feature located on the side, so that the region specifying unit 64 is in a range excluding both ends in the horizontal direction of the image. The region Q may be specified. In addition, the region specifying unit 64 may specify the region Q in a range excluding the left portion of the image when there are a plurality of lanes (for example, three lanes) and the vehicle is driving in the right lane. Similarly, the area specifying unit 64 may specify the area Q in the range excluding the right part of the image when traveling in the left lane, and specify the area Q in the range excluding both ends in the horizontal direction of the image when driving in the center lane. You may make it do.

或いは、領域特定部64は、条件判断部63により判断された各走行条件の組み合わせから統合的に領域Qに特定する画像の範囲を選択するようにしてもよい。以上のように、領域特定部64は、高速道路のように交差点がほとんどない環境や、認識されにくい地物の存在が見込まれる環境であっても、効果的に認識可能な地物が存在し得る領域Qを特定することができ、地物認識部65の処理負荷を低減することができる。   Alternatively, the area specifying unit 64 may select an image range to be specified as the area Q in an integrated manner from the combination of the traveling conditions determined by the condition determining unit 63. As described above, the region specifying unit 64 has features that can be recognized effectively even in environments where there are almost no intersections such as expressways or in environments where features that are difficult to recognize are expected. The area Q to be obtained can be specified, and the processing load on the feature recognition unit 65 can be reduced.

相対位置算出部66は、地物認識部65により認識された地物の位置に対する車両の相対位置を算出する。相対位置算出部66は、地物認識部65により認識された地物に関連付けられた、地図情報51における地物の位置を特定する。更に、相対位置算出部66は、地物認識部65によって算出された地物の方向及び地物までの距離から、地図情報51における車両の相対位置を算出する。   The relative position calculation unit 66 calculates the relative position of the vehicle with respect to the position of the feature recognized by the feature recognition unit 65. The relative position calculation unit 66 specifies the position of the feature in the map information 51 associated with the feature recognized by the feature recognition unit 65. Further, the relative position calculation unit 66 calculates the relative position of the vehicle in the map information 51 from the direction of the feature calculated by the feature recognition unit 65 and the distance to the feature.

位置補正部67は、相対位置算出部66により算出された車両の相対位置に基づいて、車両位置推定部61により推定された車両の現在位置を補正する。すなわち、位置補正部67は、相対位置算出部66により算出された車両の相対位置を、車両位置推定部61により推定された車両の現在位置として、車両の現在位置を判定する。   The position correction unit 67 corrects the current position of the vehicle estimated by the vehicle position estimation unit 61 based on the relative position of the vehicle calculated by the relative position calculation unit 66. That is, the position correction unit 67 determines the current position of the vehicle using the relative position of the vehicle calculated by the relative position calculation unit 66 as the current position of the vehicle estimated by the vehicle position estimation unit 61.

ディスプレイ7は、処理部6による制御に応じて、画像や文字を表示することにより、車両の乗員に種々の情報を提示する。ディスプレイ7は、例えば液晶ディスプレイ等の表示装置からなる。ディスプレイ7は、処理部6による制御に応じて、地図情報51に記録される道路、施設を含む地図を表示し、表示された地図上に、位置補正部67により補正された車両の現在位置を表示することができる。   The display 7 presents various information to the vehicle occupant by displaying images and characters in accordance with control by the processing unit 6. The display 7 includes a display device such as a liquid crystal display. The display 7 displays a map including roads and facilities recorded in the map information 51 according to control by the processing unit 6, and displays the current position of the vehicle corrected by the position correction unit 67 on the displayed map. Can be displayed.

入力I/F8は、例えば、乗員の操作を受け付け、操作に応じた信号を処理部6に出力する。ディスプレイ7及び入力I/F8は、タッチパネルディスプレイとして一体に構成されてもよい。スピーカ9は、処理部6による制御に応じて、音声を再生することにより、車両の乗員に種々の情報を提示する。   For example, the input I / F 8 accepts an occupant's operation and outputs a signal corresponding to the operation to the processing unit 6. The display 7 and the input I / F 8 may be integrally configured as a touch panel display. The speaker 9 presents various kinds of information to the vehicle occupant by playing back sound according to control by the processing unit 6.

(車両位置判定方法)
図15のフローチャートを参照して、本実施の形態に係る車両位置判定装置の動作の一例を説明する。
(Vehicle position determination method)
With reference to the flowchart of FIG. 15, an example of operation | movement of the vehicle position determination apparatus which concerns on this Embodiment is demonstrated.

ステップS1において、車両位置推定部61は、測位装置2により測定された現在位置を、センサ群4の検出結果から算出される車両の運動量に基づいて、補正することにより、地図情報51における車両の現在位置を推定する。   In step S <b> 1, the vehicle position estimation unit 61 corrects the current position measured by the positioning device 2 based on the vehicle momentum calculated from the detection result of the sensor group 4. Estimate the current position.

ステップS2において、条件判断部63は、天候、時間帯、路面状態、走行場所の少なくともいずれか周囲環境を判断する。ステップS3において、条件判断部63は、走行状況、走行車線の少なくともいずれかを含む走行状態を判断する。ステップS4において、条件判断部63は、車両の走行経路を判断する。   In step S <b> 2, the condition determination unit 63 determines the surrounding environment of at least one of weather, time zone, road surface condition, and travel location. In step S <b> 3, the condition determination unit 63 determines a traveling state including at least one of a traveling state and a traveling lane. In step S4, the condition determination unit 63 determines the travel route of the vehicle.

ステップS5において、領域特定部64は、ステップS2〜S4において判断された走行条件に基づいて、認識対象が存在する範囲として、カメラ1により撮影された画像にいて領域Qを特定する。   In step S5, the area specifying unit 64 specifies the area Q in the image photographed by the camera 1 as a range where the recognition target exists based on the running conditions determined in steps S2 to S4.

ステップS6において、地物認識部65は、領域特定部64により特定された領域Q内の画像から認識する。また、地物認識部65は、カメラ1により撮影された画像に基づいて、認識した地物の車両に対する方向及び車両からの距離を算出する。   In step S <b> 6, the feature recognition unit 65 recognizes from the image in the region Q specified by the region specifying unit 64. Further, the feature recognition unit 65 calculates the direction of the recognized feature with respect to the vehicle and the distance from the vehicle based on the image taken by the camera 1.

ステップS7において、相対位置算出部66は、地物認識部65により認識された地物の地図情報51における位置に対する車両の相対位置を算出する。ステップS8において、位置補正部67は、相対位置算出部66により算出された車両の相対位置に基づいて、車両位置推定部61により推定された車両の現在位置を補正する。   In step S <b> 7, the relative position calculation unit 66 calculates the relative position of the vehicle with respect to the position in the map information 51 of the feature recognized by the feature recognition unit 65. In step S <b> 8, the position correction unit 67 corrects the current position of the vehicle estimated by the vehicle position estimation unit 61 based on the relative position of the vehicle calculated by the relative position calculation unit 66.

以上のように、本実施の形態に係る車両位置判定装置によれば、車両の走行条件に基づいて領域Qを画像において特定し、領域Qに存在する様々な地物を認識することにより、車両の現在位置を補正する。これにより、本実施の形態に係る車両位置判定装置は、補正の頻度が増加し、様々な走行環境において、車両の現在位置の精度を高く維持することができる。また、本実施の形態に係る車両位置判定装置は、領域Qを特定することにより画像処理が施される画像の範囲を効率的に限定することができ、認識のための処理負荷を低減することができる。   As described above, according to the vehicle position determination device according to the present embodiment, the vehicle is identified by identifying the region Q in the image based on the traveling condition of the vehicle and recognizing various features existing in the region Q. Correct the current position of. As a result, the vehicle position determination apparatus according to the present embodiment increases the frequency of correction, and can maintain high accuracy of the current position of the vehicle in various traveling environments. In addition, the vehicle position determination device according to the present embodiment can efficiently limit the range of the image to be subjected to image processing by specifying the region Q, thereby reducing the processing load for recognition. Can do.

また、本実施の形態に係る車両位置判定装置によれば、天候、時間帯、路面状態、走行場所等、車両の周囲環境に適した領域Qを特定することにより、道路周辺の地物を効率的に認識することができ、精度良く車両の現在位置を補正することができる。また、本実施の形態に係る車両位置判定装置は、周囲環境に応じて、認識可能と見込まれる地物を含む領域Qを効率的に特定することができるため、認識のための処理負荷を低減することができる。   In addition, according to the vehicle position determination device according to the present embodiment, by identifying the region Q suitable for the surrounding environment of the vehicle, such as weather, time zone, road surface condition, traveling location, etc., the features around the road can be efficiently used. The vehicle's current position can be corrected with high accuracy. Moreover, since the vehicle position determination apparatus according to the present embodiment can efficiently specify the region Q including the feature that is expected to be recognizable according to the surrounding environment, the processing load for recognition is reduced. can do.

また、本実施の形態に係る車両位置判定装置によれば、走行状況、走行車線等、車両の走行状態に適した領域Qを特定することにより、道路周辺の地物を効率的に認識することができ、精度良く車両の現在位置を補正することができる。また、本実施の形態に係る車両位置判定装置は、走行状態に応じて、認識可能と見込まれる地物を含む領域Qを効率的に特定することができるため、認識のための処理負荷を低減することができる。   In addition, according to the vehicle position determination device according to the present embodiment, it is possible to efficiently recognize the features around the road by specifying the region Q suitable for the traveling state of the vehicle such as the traveling state and the traveling lane. The current position of the vehicle can be corrected with high accuracy. Moreover, since the vehicle position determination apparatus according to the present embodiment can efficiently specify the region Q including the features that are expected to be recognizable according to the traveling state, the processing load for recognition is reduced. can do.

(その他の実施の形態)
上記のように、本発明を上記の実施の形態によって記載したが、この開示の一部をなす論述及び図面は本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
(Other embodiments)
As described above, the present invention has been described according to the above-described embodiments. However, it should not be understood that the description and drawings constituting a part of this disclosure limit the present invention. From this disclosure, various alternative embodiments, examples and operational techniques will be apparent to those skilled in the art.

例えば、上述の実施の形態において、地物認識部65は、領域Qから最も認識されやすい1つの地物を選択的に認識するようにしてもよい。図2に示す例では、車両は高速で走行しているため、大きな地物ほど認識されやすい。この場合、地物認識部65は、最も大きな案内標識M2を認識対象とする地物として選択することができる。よって、地物認識部65は、認識対象の数を低減することにより、処理負荷を更に低減することができる。   For example, in the above-described embodiment, the feature recognition unit 65 may selectively recognize one feature that is most easily recognized from the region Q. In the example shown in FIG. 2, the vehicle is traveling at high speed, so that larger features are more easily recognized. In this case, the feature recognizing unit 65 can select the largest guide sign M2 as a feature to be recognized. Therefore, the feature recognition unit 65 can further reduce the processing load by reducing the number of recognition objects.

同様に、図4に示す例では、形状に特徴があって発光する信号機M4が認識されやすい。この場合、地物認識部65は、最も認識されやすい信号機M4を認識対象とする地物として選択する。また、地物認識部65は、時間帯が夜間の場合、発光する地物以外の地物を認識することが難しくなるため、認識対象とする地物の種類として発光する非常電話、案内標識及び信号機等を選択するようにしてもよい。このように、地物認識部65は、領域Qに存在すると考えられる地物の位置、大きさ、種類や、走行条件等に基づいて、領域Qから認識対象とする地物を更に限定するようにしてもよい。   Similarly, in the example shown in FIG. 4, the traffic light M4 that has a characteristic shape and emits light is easily recognized. In this case, the feature recognizing unit 65 selects the traffic signal M4 that is most easily recognized as a feature to be recognized. In addition, since it is difficult for the feature recognition unit 65 to recognize features other than the feature that emits light when the time zone is nighttime, an emergency call that emits light, a guidance sign, A traffic light or the like may be selected. As described above, the feature recognition unit 65 further restricts the features to be recognized from the region Q based on the position, size, type, traveling condition, and the like of the features considered to exist in the region Q. It may be.

また、上述の実施の形態において、カメラ1は、特定された領域Q内の地物を撮影するために、カメラ1が、処理部6による制御に応じて、撮影方向や倍率を変更するようにしてもよい。また、領域特定部64は、認識対象の地物の大きさが所定の閾値より大きい場合等、1つの地物を1つの領域Qとして特定するようにしてもよい。   Further, in the above-described embodiment, the camera 1 changes the shooting direction and magnification according to the control by the processing unit 6 in order to capture the feature in the specified area Q. May be. Further, the region specifying unit 64 may specify one feature as one region Q, such as when the size of the feature to be recognized is larger than a predetermined threshold.

上記の他、上記の各構成を相互に応用した構成等、本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。   In addition to the above, of course, the present invention includes various embodiments and the like that are not described here, such as configurations in which the above-described configurations are mutually applied. Therefore, the technical scope of the present invention is defined only by the invention specifying matters according to the scope of claims reasonable from the above description.

Q,Q1〜Q3 領域
1 カメラ
5 記憶装置
51 地図情報
61 車両位置推定部
64 領域特定部
65 地物認識部
66 相対位置算出部
67 位置補正部
Q, Q1 to Q3 Region 1 Camera 5 Storage device 51 Map information 61 Vehicle position estimation unit 64 Region identification unit 65 Feature recognition unit 66 Relative position calculation unit 67 Position correction unit

Claims (5)

道路周辺に存在する地物の位置を含む地図情報を記憶する記憶装置と、
前記地図情報における車両の現在位置を推定する車両位置推定部と、
前記車両の周囲の画像を撮影するカメラと、
前記画像において、認識対象とする地物が存在する領域を所定の条件に基づいて特定する領域特定部と、
前記領域特定部により特定された領域から地物を認識する地物認識部と、
前記地物認識部により認識された地物の前記地図情報における位置に対する前記車両の相対位置を算出する相対位置算出部と、
前記相対位置算出部により算出された相対位置に基づいて、前記車両の現在位置を補正する位置補正部と
を備えることを特徴とする車両位置判定装置。
A storage device for storing map information including the positions of features existing around the road;
A vehicle position estimation unit for estimating a current position of the vehicle in the map information;
A camera that captures an image of the surroundings of the vehicle;
In the image, an area specifying unit that specifies an area where a feature to be recognized exists based on a predetermined condition;
A feature recognition unit that recognizes a feature from the region specified by the region specification unit;
A relative position calculation unit that calculates a relative position of the vehicle with respect to a position in the map information of the feature recognized by the feature recognition unit;
A vehicle position determination device comprising: a position correction unit that corrects a current position of the vehicle based on the relative position calculated by the relative position calculation unit.
前記領域特定部は、前記車両の周囲環境に基づいて前記領域を特定することを特徴とする請求項1に記載の車両位置判定装置。   The vehicle position determination apparatus according to claim 1, wherein the area specifying unit specifies the area based on a surrounding environment of the vehicle. 前記領域特定部は、前記車両の走行状態に基づいて前記領域を特定することを特徴とする請求項1または2に記載の車両位置判定装置。   The vehicle area determination device according to claim 1, wherein the area specifying unit specifies the area based on a running state of the vehicle. 前記地物認識部は、前記領域内に存在すると考えられる地物の位置、大きさ、種類の少なくともいずれかに基づいて、前記領域から選択的に地物を認識することを特徴とする請求項1〜3のいずれか1項に記載の車両位置判定装置。   The feature recognition unit selectively recognizes a feature from the region based on at least one of a position, a size, and a type of the feature that is considered to exist in the region. The vehicle position determination apparatus of any one of 1-3. 道路周辺に存在する地物の位置を含む地図情報における車両の現在位置を推定することと、
前記車両の周囲の画像を撮影することと、
前記地図情報において、認識対象とする地物が存在する領域を所定の条件に基づいて特定することと、
特定された前記領域内の地物を前記画像から認識することと、
認識された前記地物の前記地図情報における位置に対する前記車両の相対位置を算出することと、
算出された前記相対位置に基づいて、前記車両の現在位置を補正することと
を含むことを特徴とする車両位置判定方法。
Estimating the current position of the vehicle in map information including the position of features present around the road;
Taking an image of the surroundings of the vehicle;
In the map information, specifying a region where a feature to be recognized exists based on a predetermined condition;
Recognizing features in the identified region from the image;
Calculating a relative position of the vehicle with respect to a position of the recognized feature in the map information;
Correcting the current position of the vehicle based on the calculated relative position. A vehicle position determination method comprising:
JP2015128428A 2015-06-26 2015-06-26 Vehicle position determination device and vehicle position determination method Active JP6488913B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015128428A JP6488913B2 (en) 2015-06-26 2015-06-26 Vehicle position determination device and vehicle position determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015128428A JP6488913B2 (en) 2015-06-26 2015-06-26 Vehicle position determination device and vehicle position determination method

Publications (2)

Publication Number Publication Date
JP2017009554A true JP2017009554A (en) 2017-01-12
JP6488913B2 JP6488913B2 (en) 2019-03-27

Family

ID=57764402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015128428A Active JP6488913B2 (en) 2015-06-26 2015-06-26 Vehicle position determination device and vehicle position determination method

Country Status (1)

Country Link
JP (1) JP6488913B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018212290A1 (en) * 2017-05-19 2018-11-22 パイオニア株式会社 Information processing device, control method, program and storage medium
KR20190051786A (en) * 2017-11-06 2019-05-15 도요타지도샤가부시키가이샤 Vehicle localization device
US11176719B2 (en) 2018-10-24 2021-11-16 Samsung Electronics Co., Ltd. Method and apparatus for localization based on images and map data
JP7127328B2 (en) 2017-08-23 2022-08-30 富士通株式会社 Method, device and electronic device for updating map information
JP7481933B2 (en) 2020-07-15 2024-05-13 株式会社Soken Self-location estimation device and map generation system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007147564A (en) * 2005-11-30 2007-06-14 Aisin Aw Co Ltd Image recognition device and method thereof, and own vehicle position recognition device and method
JP2008305042A (en) * 2007-06-06 2008-12-18 Hitachi Ltd Car navigation device, road sign recognition method and program
JP2009009225A (en) * 2007-06-26 2009-01-15 Alpine Electronics Inc Information display device
JP2014153167A (en) * 2013-02-07 2014-08-25 Nidec Elesys Corp Object recognition device, object recognition method, and object recognition program
JP2014203115A (en) * 2013-04-01 2014-10-27 パイオニア株式会社 Detection device, control method, program and storage medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007147564A (en) * 2005-11-30 2007-06-14 Aisin Aw Co Ltd Image recognition device and method thereof, and own vehicle position recognition device and method
JP2008305042A (en) * 2007-06-06 2008-12-18 Hitachi Ltd Car navigation device, road sign recognition method and program
JP2009009225A (en) * 2007-06-26 2009-01-15 Alpine Electronics Inc Information display device
JP2014153167A (en) * 2013-02-07 2014-08-25 Nidec Elesys Corp Object recognition device, object recognition method, and object recognition program
JP2014203115A (en) * 2013-04-01 2014-10-27 パイオニア株式会社 Detection device, control method, program and storage medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018212290A1 (en) * 2017-05-19 2018-11-22 パイオニア株式会社 Information processing device, control method, program and storage medium
JP7127328B2 (en) 2017-08-23 2022-08-30 富士通株式会社 Method, device and electronic device for updating map information
KR20190051786A (en) * 2017-11-06 2019-05-15 도요타지도샤가부시키가이샤 Vehicle localization device
KR102090512B1 (en) * 2017-11-06 2020-03-18 도요타지도샤가부시키가이샤 Vehicle localization device
US10890453B2 (en) 2017-11-06 2021-01-12 Toyota Jidosha Kabushiki Kaisha Vehicle localization device
US11176719B2 (en) 2018-10-24 2021-11-16 Samsung Electronics Co., Ltd. Method and apparatus for localization based on images and map data
JP7481933B2 (en) 2020-07-15 2024-05-13 株式会社Soken Self-location estimation device and map generation system

Also Published As

Publication number Publication date
JP6488913B2 (en) 2019-03-27

Similar Documents

Publication Publication Date Title
JP6451844B2 (en) Vehicle position determination device and vehicle position determination method
KR102541561B1 (en) Method of providing information for driving vehicle and apparatus thereof
JP7251394B2 (en) VEHICLE-SIDE DEVICE, METHOD AND STORAGE MEDIUM
WO2020045317A1 (en) Map system, method, and storage medium
JP6566132B2 (en) Object detection method and object detection apparatus
JP2020038361A (en) Map generation system, server, vehicle-side device, method, and storage medium
JP2020038200A (en) Vehicle control device, method, and storage medium
JP6520463B2 (en) Vehicle position determination device and vehicle position determination method
JP2020038359A (en) Map system, vehicle-side device, method, and storage medium
JP6280409B2 (en) Self-vehicle position correction method, landmark data update method, in-vehicle device, server, and self-vehicle position data correction system
WO2020045323A1 (en) Map generation system, server, vehicle-side device, method, and storage medium
JP6488913B2 (en) Vehicle position determination device and vehicle position determination method
JP2020038362A (en) Vehicle-side device, server, method, and storage medium
CN102208035A (en) Image processing system and position measurement system
WO2020045324A1 (en) Vehicle-side device, method and storage medium
WO2020045318A1 (en) Vehicle-side device, server, method, and storage medium
WO2020045322A1 (en) Map system, vehicle-side device, method, and storage medium
WO2020045319A1 (en) Vehicle control device, method and storage medium
JP2012215442A (en) Own position determination system, own position determination program, own position determination method
CN114348015A (en) Vehicle control device and vehicle control method
JP6500607B2 (en) Vehicle position determination device and vehicle position determination method
JP6790951B2 (en) Map information learning method and map information learning device
JP6500606B2 (en) Vehicle position determination device and vehicle position determination method
JP2019144066A (en) Method and device for estimating road structure
JP2012032366A (en) Car navigation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190211

R151 Written notification of patent or utility model registration

Ref document number: 6488913

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151