JP2021124633A - 地図生成システム及び地図生成プログラム - Google Patents

地図生成システム及び地図生成プログラム Download PDF

Info

Publication number
JP2021124633A
JP2021124633A JP2020018739A JP2020018739A JP2021124633A JP 2021124633 A JP2021124633 A JP 2021124633A JP 2020018739 A JP2020018739 A JP 2020018739A JP 2020018739 A JP2020018739 A JP 2020018739A JP 2021124633 A JP2021124633 A JP 2021124633A
Authority
JP
Japan
Prior art keywords
unit
information
objects
vehicle
map generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020018739A
Other languages
English (en)
Other versions
JP7238821B2 (ja
Inventor
千尋 因幡
Chihiro Inaba
千尋 因幡
亮恵 崎山
Akie Sakiyama
亮恵 崎山
誠 田村
Makoto Tamura
誠 田村
俊幸 萩谷
Toshiyuki Hagiya
俊幸 萩谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020018739A priority Critical patent/JP7238821B2/ja
Priority to CN202011482810.7A priority patent/CN113220805B/zh
Priority to US17/125,154 priority patent/US11488390B2/en
Publication of JP2021124633A publication Critical patent/JP2021124633A/ja
Application granted granted Critical
Publication of JP7238821B2 publication Critical patent/JP7238821B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Educational Administration (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

【課題】所望の対象物を既存の地図上に追加及び更新することが可能な地図生成システム及び地図生成プログラムを提供することを目的とする。
【解決手段】地図生成システムは、複数の車両の各々から撮影することによって得られる画像情報に基づいて、予め定めた対象物を検出する対象物検出部54と、対象物検出部54によって検出された対象物と、当該対象物が検出された画像情報を撮影した車両との相対位置、及び当該対象物の撮影時の車両の位置情報に基づいて、対象物の位置情報を推定する推定部62と、推定部62によって推定された対象物の位置情報と、対象物が含まれる画像の特徴量とに基づいて、対象物の数と位置とを特定する同一対象物集約部64と、を含む。
【選択図】図4

Description

本発明は、車両から撮影された画像データを使って、道路周辺設置物の地図を生成する地図生成システム及び地図生成プログラムに関する。
特許文献1には、道路地図データをより有用な内容に逐次更新することができる道路地図更新システムが提案されている。詳細には、特許文献1の技術では、新規道路判定手段により、走行中の道路が新規道路であるか否かを判定し、新規道路である場合の走行軌跡と、新規道路を走行中に車載カメラによって撮像した車両周囲の画像とを地図管理装置へ送信する。そして、地図管理装置は、走行軌跡から新規道路の形状を決定し、画像を解析することにより、新規道路のより詳細な情報及び新規道路の周辺にどのような施設が存在するかを決定する。
特開2008−039687号公報
しかしながら、特許文献1の技術では、新規道路の形状や、周辺施設を追加及び更新することができるが、既存の地図において、道路周辺設置物等の任意の対象物を追加及び更新するためには改善の余地がある。
本発明は、上記事実を考慮して成されたもので、所望の対象物を既存の地図上に追加及び更新することが可能な地図生成システム及び地図生成プログラムを提供することを目的とする。
上記目的を達成するために請求項1に記載の地図生成システムは、複数の車両の各々から撮影することによって得られる画像情報に基づいて、予め定めた対象物を検出する検出部と、前記検出部によって検出された前記対象物と、当該対象物が検出された前記画像情報を撮影した車両との相対位置、及び当該対象物の撮影時の前記車両の絶対位置としての位置情報に基づいて、前記検出部によって検出された前記対象物の絶対位置としての位置情報を推定する推定部と、前記推定部によって推定された複数の対象物について、当該各々の対象物の位置情報と、当該各々の対象物が含まれる画像の画像情報とに基づいて、前記複数の対象物に含まれている同一の対象物を集約することで、前記対象物の数と位置とを特定する特定部と、を含む。
請求項1に記載の発明によれば、検出部では、複数の車両の各々から撮影することによって得られる画像情報に基づいて、予め定めた対象物が検出される。例えば、物体検出系のディープラーニング技術を利用して、画像情報から対象物を検出する。
推定部では、検出部によって検出された対象物と、当該対象物が検出された画像情報を撮影した車両との相対位置、及び当該対象物の撮影時の車両の絶対位置としての位置情報に基づいて、検出部によって検出された対象物の絶対位置としての位置情報が推定される。
そして、特定部では、推定部によって推定された複数の対象物について、当該各々の対象物の位置情報と、当該各々の対象物が含まれる画像の画像情報とに基づいて、複数の対象物に含まれている同一の対象物を集約することで、対象物の数と位置とが特定される。これにより、所望の対象物を既存の地図上に追加及び更新することが可能となる。
なお、請求項2に記載の発明のように、特定部は、推定部によって推定された対象物の推定位置でクラスタリングした各クラスタ内に存在する対象物の特徴量間の距離に基づいて、対象物の数と位置とを特定してもよい。これにより、同一の対象物を一つに集約して対象物の数と位置を特定することが可能となる。
或いは、請求項3に記載の発明のように、特定部は、推定部によって推定された対象物の推定位置、及び対象物の画像の特徴量に基づきクラスタリングした各クラスタ内に存在する対象物の特徴量距離に基づいて、対象物の数と位置とを特定してもよい。これにより、推定部の推定が失敗しても同一の対象物を一つに集約することが可能となる。
また、請求項4に記載の発明のように、特定部は、推定部によって推定された対象物の位置情報に基づいて、対象物の数と位置とを特定し、画像情報が表す画像内に複数の対象物が検出部によって検出された場合に、相対位置が予め定めた距離未満かつ検出部によって検出された対象物の画像上の重複が予め定めた閾値以上の対象物、または相対位置が予め定めた距離以上かつ対象物同士の距離が予め定めた閾値未満の対象物を同一の対象物として、対象物の数と位置とを特定してもよい。これにより、所望の対象物を既存の地図上に追加及び更新することが可能となる。
また、請求項5に記載の発明のように、検出部によって検出された対象物の種類を分類する分類部を更に含み、特定部は、分類部によって分類された種類毎の対象物の数と位置とを特定してもよい。これにより、所望の対象物を種類毎に既存の地図上に追加及び更新することが可能となる。
また、請求項6に記載の発明のように、予め定めた閾値以上の数の画像情報から対象物の数と位置が特定された場合に、既存の地図に対して対象物の情報を追加または削除して更新する地図更新部を更に含んでもよい。これにより、1回の対象物の検出で地図を更新する場合に比べて対象物の地図精度を向上できる。
なお、本発明は、請求項7に記載の発明のように、コンピュータを、請求項1〜6の何れか1項に記載の地図生成システムの各部として機能させるための地図生成プログラムとしてもよい。
以上説明したように本発明によれば、所望の対象物を既存の地図上に追加及び更新することが可能な地図生成システム及び地図生成プログラムを提供できる、という効果がある。
本実施形態に係る地図生成システムの概略構成を示す図である。 検出対象物を検出して、既存の地図に検出した検出対象物の情報を追加する様子を示す図である。 本実施形態に係る地図生成システムにおける車載器及び地図生成サーバの構成を示すブロック図である。 本実施形態に係る地図生成システムにおける地図生成サーバの中央処理部の詳細な機能を示す機能ブロック図である。 検出対象物の位置の推定を説明するための図である。 検出した検出対象物の種類毎の分類結果と、推定位置の一例を示す図である。 本実施形態に係る地図生成システムにおける車載器の制御部で行われる処理の流れの一例を示すフローチャートである。 本実施形態に係る地図生成システムの地図生成サーバにおいて、画像情報及び車両情報を車載器から送信された場合に中央処理部(映像データ蓄積部)で行われる処理の流れの一例を示すフローチャートである。 本実施形態に係る地図生成システムの地図生成サーバにおいて、画像情報及び車両情報を車載器から受信してDBに蓄積後に中央処理部(画像認識部)で行われる処理の流れの一例を示すフローチャートである。 本実施形態に係る地図生成システムの地図生成サーバにおいて、対象物の検出及び分類が終了した後に中央処理部(提示情報生成部)で行われる処理の流れの一例を示すフローチャートである。 検出対象物が地図上に追加された検出対象物地図の一例を示す図である。 同一対象物集約部で行われる同一対象物集約処理の流れの第1例を示すフローチャートである。 推定位置でクラスタリングを行って、画像の特徴量を導出して、特徴量距離で同一の対象物を判定して集約する例を説明するための図である。 位置検出誤差が大きく、異なる位置に同一の対象物が検出され場合に、同一の対象物を判定して集約する例を説明するための図である。 同一対象物集約部で行われる同一対象物集約処理の流れの第2例を示すフローチャートである。
以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。図1は、本実施形態に係る地図生成システムの概略構成を示す図である。
本実施形態に係る地図生成システム10は、図1に示すように、車両14に搭載された車載器16と、地図生成サーバ12とが通信ネットワーク18を介して接続されている。本実施形態に係る地図生成システム10では、複数の車両14からの撮影によって得られる画像情報を地図生成サーバ12に送信する。そして、地図生成サーバ12が、車両14から撮影された画像情報から道路周辺設置物等の任意の対象物を検出し、既存の地図に追加及び更新する処理を行う。例えば、図2に示すように、対象物として検出対象物を検出し、既存の地図に検出した検出対象物の情報を追加する処理を行う。なお、以下の説明では、具体例を挙げて説明する場合、対象物をスタンド看板として説明する場合があるが、対象物はスタンド看板に限るものではない。例えば、コンビニエンスストアののぼりや、道路上のゴミ箱、スクールゾーン、充電スタンドの場所、工事・道路障害場所等のスタンド看板以外の対象を検知して地図に位置や数を追加してもよい。
図3は、本実施形態に係る地図生成システム10における車載器16及び地図生成サーバ12の構成を示すブロック図である。
車載器16は、制御部20、車両情報検出部22、撮影部24、通信部26、及び表示部28を備えている。
車両情報検出部22は、車両14の位置情報を少なくとも含む車両14に関する車両情報を検出する。車両情報としては、位置情報の他に、例えば、車速、加速度、舵角、アクセル開度、経路等の車両情報を検出してもよい。車両情報検出部22は、具体的には、車両14の周辺環境がどのような状況かを表す情報を取得する複数種のセンサや装置を適用できる。センサや装置の一例としては、車速センサ、及び加速度センサなどの車両14に搭載されるセンサや、GNSS(Global Navigation Satellite System)装置、車載通信機、ナビゲーションシステム、及びレーダ装置などが挙げられる。GNSS装置は、複数のGNSS衛星からGNSS信号を受信して自車両14の位置を測位する。GNSS装置は受信可能なGNSS信号の数が多くなるに従って測位の精度が向上する。車載通信機は、通信部26を介して他の車両14との間の車車間通信及び路側機との間の路車間通信の少なくとも一方を行う通信装置である。ナビゲーションシステムは、地図情報を記憶する地図情報記憶部を含み、GNSS装置から得られる位置情報と地図情報記憶部に記憶された地図情報とに基づいて、自車両14の位置を地図上で表示したり、目的地迄の経路を案内する処理を行う。また、レーダ装置は、検出範囲が互いに異なる複数のレーダを含み、自車両14の周辺に存在する歩行者や他車両14等の物体を検出し、検出した物体と自車両14の相対距離及び相対速度を取得する。また、レーダ装置は周辺の物体の探知結果を処理する処理装置を内蔵している。当該処理装置は、直近の複数回の探知結果に含まれる個々の物体との相対位置や相対速度の変化等に基づき、ノイズやガードレール等の路側物等を監視対象から除外し、歩行者や他車両14等を監視対象物体として追従監視する。そしてレーダ装置は、個々の監視対象物体との相対位置や相対速度等の情報を出力する。
撮影部24は、車室内に設けられ、車両14の周辺を撮影し、撮影画像を表す画像情報を得る。例えば、撮影部24は、車両14に設けられて車両14の前方、側方、及び後方の少なくとも1つの車両周辺を撮影する。また、撮影部24は、車室内を更に撮影してもよい。
通信部26は、通信ネットワーク18を介して地図生成サーバ12と通信を確立して、撮影部24の撮影によって得られる画像情報や車両情報検出部22によって検出された車両情報等の情報の送受信を行う。
表示部28は、各種情報を表示することにより、乗員に各種情報を提供する。例えば、ナビゲーションシステムから提供される地図情報等を表示する。
制御部20は、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)等を含む一般的なマイクロコンピュータで構成されている。また、制御部20は、HDD(Hard Disk Drive)等の記憶部を含み、撮影部24によって撮影された撮影画像を表す画像情報、及び画像の撮影時に車両情報検出部22によって検出された車両情報を保存し、地図生成サーバ12にアップロードする処理等を行う。
一方、地図生成サーバ12は、中央処理部30、中央通信部36、及びDB(データベース)38を備えている。
中央処理部30は、CPU、ROM、及びRAM等を含む一般的なマイクロコンピュータで構成され、映像データ蓄積部40、画像認識部50、及び提示情報生成部60の機能を備えている。中央処理部30は、車載器16から送信される画像情報及び車両情報をDB38に蓄積してデータベース化する処理を行うと共に、画像情報に基づいて、道路周辺設置物等の任意の対象物を検出し、既存の地図に対して対象物を追加及び更新する処理を行う。なお、中央処理部30の各機能は、ROM等に記憶されたプログラムを実行することにより実現される。
映像データ蓄積部40は、車載器16から送信される画像情報及び車両情報を集約してDB38に蓄積する処理を行う。
画像認識部50は、DB38に蓄積された画像情報及び車両情報に基づいて、道路周辺設置物等の任意の対象物を検出する処理を行う。
提示情報生成部60は、画像認識部50によって検出された対象物の位置を推定して、同一の対象物であるか等を判断しながら対象物の位置と数を検知して、既存の地図情報に対して対象物を追加または削除して更新する処理を行う。
中央通信部36は、通信ネットワーク18を介して車載器16と通信を確立して、画像情報や車両情報等の各種情報の送受信を行う。
DB38は、車載器16から画像情報及び車両情報を受信し、受信した画像情報及び車両情報のそれぞれを蓄積する。
上述のように構成された地図生成システム10では、車載器16の撮影部24によって撮影された画像情報が、位置情報を少なくとも含む車両情報と共に地図生成サーバ12に送信されてDB38に蓄積される。
続いて、上述の中央処理部30の映像データ蓄積部40、画像認識部50、及び提示情報生成部60の機能の詳細について説明する。図4は、本実施形態に係る地図生成システム10における地図生成サーバ12の中央処理部30の詳細な機能構成を示す機能ブロック図である。
映像データ蓄積部40は、車両情報管理部42、メタ情報付与部44、及びプライバシー保護部46の機能を有する。
車両情報管理部42は、車載器16から受信した画像情報及び車両情報を中央通信部36から取得し、車載器16から受信した画像情報と、位置情報やその他の情報を含む車両情報を紐付ける。
メタ情報付与部44は、車両から得られる車両情報(例えば、車速や加速度等)もしくは画像そのものの鮮明度、照度などから撮影コンディションを判定し、画像情報と共に蓄積する。
プライバシー保護部46は、プライバシーを侵害するような情報(例えば、顔や、個人を特定可能な情報等)を削除または視認不能な状態とする処理(例えば、モザイク処理等)を行う。
また、画像認識部50は、キャリブレーション部52、検出部としての対象物検出部54、及び分類部としての対象物分類部56の機能を有する。
キャリブレーション部52は、撮影部24のキャリブレーション情報(例えば、カメラの取り付け位置、角度、光学系のひずみ情報等の撮影部24のパラメータ等)が得られない場合に、既知の対象物を使って、自動的にキャリブレーションを行う。既知の対象物の一例としては、横断歩道等の路上ペイントの他に、既知の道路幅、検知した白線等を用いてキャリブレーションを行う。なお、撮影部24の設置時などに事前にキャリブレーションが行われ、その情報が得られる場合はキャリブレーション部52によるキャリブレーションは省略され、車両情報管理部42からキャリブレーション情報を取得する。
対象物検出部54は、DB38に蓄積された画像情報から予め定めた対象物(例えば、道路周辺設置物等の任意の対象物)を検出する。例えば、Yolo(You only look once)やSSD(Single Shot MultiBox Detector)等の物体検出系のディープラーニング技術を利用して、画像情報から対象物を検出する。例えば、対象物としてスタンド看板を検出する場合には、作業者が撮影部24によって撮影された動画からスタンド看板が写っているフレームを抜き出し、スタンド看板が写っている部分を枠で囲うことによりアノテーション情報を生成する。そして、生成したアノテーション情報を用いてスタンド看板を検出するモデルを構築して、モデルを用いて対象物を検出する。
対象物分類部56は、対象物検出部54によって検出された対象物の種別を分類する。本実施形態では、スタンド看板がどのようなメッセージのスタンド看板であるかを分類する。例えば、VGG19畳み込みニューラルネットワークやInception等の画像認識系のディープラーニング技術を利用して対象物の種別を分類する。なお、対象物分類部56は対象物検出部54と一体としてもよい。例えば、作業者が動画からスタンド看板が写っているフレームを抜き出し、スタンド看板が写っている部分を枠で囲ってどのメッセージかを選択することによりアノテーション情報を生成する。そして、生成したアノテーション情報を用いてスタンド看板を検出するモデルを構築して、モデルを用いて対象物を検出し、メッセージの種別を分類する。
また、提示情報生成部60は、推定部62、特定部としての同一対象物集約部64、及び地図更新部としての対象物地図更新部66の機能を有する。
推定部62は、撮影部24のキャリブレーション情報、画像上での対象物の検出位置、及び車両情報に含まれる車両の位置情報から、対象物の位置情報を緯度経度として推定する。具体的には、図5に示すように、画像情報を鳥瞰図に変換して対象物のスタンド看板の位置情報を推定する。すなわち、変換した鳥瞰図から、横断歩道の四角の長さ等の既知の長さに基づいて、車両14の位置から検出された対象物までの相対距離を推定し、車両情報に含まれる車両14の位置情報を用いて、スタンド看板の位置を経度緯度として推定する。なお、車両のロール、ピッチ、及びヨーなどの姿勢情報を考慮することで、更に精度よく、相対位置を推定できる。
同一対象物集約部64は、画像認識部50による過去の対象物の認識結果を集約して地図上に提示するために、検出した対象物のどれとどれが同一の対象物であるかを認識して同一の対象物を集約することにより対象物の数と位置を特定する処理を行う。例えば、検出したスタンド看板の種類毎の分類結果と、推定位置の一例が図6の場合には、推定位置が同じ位置或いは予め定めた誤差範囲内のスタンド看板を同一のスタンド看板として一つの対象物として集約する。詳細には、画像の特徴量(例えば、局所特徴量等の特徴量)を導出して、クラスタリングを行い、特徴量距離で集約するスタンド看板を判断する。或いは、同一フレーム画像内に同一の種類のスタンド看板が存在する場合に、車両14の位置から検出された対象物までの相対距離が予め定めた距離未満かつ検出された対象物の画像上の重複が予め定めた閾値以上の対象物、または上記相対距離が予め定めた距離以上かつ対象物同士の距離が予め定めた閾値未満の対象物を同一のスタンド看板として一つに集約する。
対象物地図更新部66は、道路周辺設置物等の対象物が撤去されるなどして、対象物が予め定めた期間や回数検出されない場合に、DB38から削除し、連続して検出が続けば新たに設置されたと判断して、地図の更新を行う。すなわち、対象物地図更新部66は、周辺車両や歩行者等に隠れて対象物が検出されない可能性や、照明条件によって対象物が検出されない可能性があるため、1回の対象物の検出または1回の対象物の未検出では更新しない。
続いて、上述のように構成された本実施形態に係る地図生成システム10で行われる具体的な処理について説明する。
まず、本実施形態に係る地図生成システム10における車載器16で行われる処理について説明する。図7は、本実施形態に係る地図生成システム10における車載器16の制御部20で行われる処理の流れの一例を示すフローチャートである。なお、図7の処理は、例えば、図示しないイグニッションスイッチ等がオンされた場合に開始し、オフされた場合に終了する。
ステップ100では、制御部20が、撮影部24を制御し、撮影部24による車両14の周辺の撮影を開始してステップ102へ移行する。
ステップ102では、制御部20が、画像情報及び車両情報を取得してステップ104へ移行する。すなわち、制御部20は、撮影部24の撮影によって得られる画像情報を撮影部24から取得すると共に、車両情報検出部22によって検出された位置情報を含む車両情報を取得する。
ステップ104では、制御部20が、取得した画像情報と車両情報とを対応付けて保存してステップ106へ移行する。
ステップ106では、制御部20が、画像情報及び車両情報を地図生成サーバ12に送信するか否かを判定する。該判定は、例えば、予め定めた時間になったか否かを判定する。或いは、画像情報及び車両情報の情報量が予め定めた閾値以上保存されたか否かを判定する。或いは、制御部20の記憶容量の残量が予め定めた容量以下になったか否かを判定する。該判定が肯定された場合にはステップ108へ移行し、否定された場合にはステップ102に戻って上述の処理を繰り返す。
ステップ108では、制御部20が、画像情報及び車両情報を地図生成サーバ12に送信してステップ102に戻って上述の処理を繰り返す。
次に、本実施形態に係る地図生成システム10における地図生成サーバ12で行われる処理について説明する。
まず、車載器16から画像情報及び車両情報が地図生成サーバ12に送信された場合に行われる処理について説明する。図8は、本実施形態に係る地図生成システム10の地図生成サーバ12において、画像情報及び車両情報を車載器16から送信された場合に中央処理部30(映像データ蓄積部40)で行われる処理の流れの一例を示すフローチャートである。なお、図8の処理は、複数の車両14の車載器16のうち何れかの車両14から画像情報及び車両情報が地図生成サーバ12に送信された場合に開始する。
ステップ200では、車両情報管理部42が、車載器16から受信した画像情報及び車両情報を中央通信部36から取得してステップ202へ移行する。
ステップ202では、車両情報管理部42が、車載器16から受信した画像情報及び車両情報を対応付けてステップ204へ移行する。すなわち、画像情報と、位置情報やその他の情報を含む車両情報とを紐付ける。
ステップ204では、メタ情報付与部44が、画像情報及び車両情報をDB38に蓄積してステップ206へ移行する。詳細には、メタ情報付与部は、車両から得られる車両情報(例えば、車速や加速度等)もしくは画像そのものの鮮明度、照度などから撮影コンディションを判定し、画像情報と共に蓄積する。
ステップ206では、プライバシー保護部46が、DB38に蓄積した画像情報に対してプライバシー保護処理を行ってステップ208へ移行する。すなわち、プライバシー保護部46が、プライバシーを侵害するような情報(例えば、顔や、個人を特定可能な情報等)を削除または視認不能な状態とする処理(例えば、モザイク処理等)を行う。
ステップ208では、映像データ蓄積部40が、車載器16から送信された車両情報及び車両情報を全て受信して上記処理を終了したか否かを判定する。該判定が、否定された場合にはステップ200に戻って上述の処理を繰り返し、判定が肯定されたところで一連の処理を終了する。
続いて、地図生成サーバ12が、車載器16から画像情報及び車両情報を受信してDB38に蓄積後に行われる処理について説明する。図9は、本実施形態に係る地図生成システム10の地図生成サーバ12において、画像情報及び車両情報を車載器16から受信してDB38に蓄積後に中央処理部30(画像認識部50)で行われる処理の流れの一例を示すフローチャートである。なお、図9の処理は、例えば、図8の処理が終了後に開始する。
ステップ300では、キャリブレーション部52が、撮影部24のキャリブレーション情報(例えば、撮影位置、角度、光学系のひずみ情報等の撮影部24のパラメータ等)が得られない場合に、既知の対象物を使ってキャリブレーションを行ってステップ302へ移行する。例えば、横断歩道等の路上ペイントの他に、既知の道路幅、検知した白線等を用いてキャリブレーションを行う。なお、撮影部24の設置時などに事前にキャリブレーションが行われ、その情報が得られる場合はキャリブレーション部52によるキャリブレーションは省略され、車両情報管理部42からキャリブレーション情報を取得する。
ステップ302では、対象物検出部54が、DB38に蓄積された画像情報から対象物を検出してステップ304へ移行する。すなわち、対象物検出部54が、DB38に蓄積された画像情報からスタンド看板を対象物として検出する。例えば、YoloやSSD等の物体検出系のディープラーニング技術を利用して、画像情報から対象物を検出する。
ステップ304では、対象物分類部56が、対象物の種別を分類してステップ306へ移行する。すなわち、対象物分類部56が、対象物検出部54によって検出された対象物の種別を分類する。具体的には、スタンド看板がどのようなメッセージのスタンド看板であるかを分類する。例えば、VGG19畳み込みニューラルネットワークやInception等の画像認識系のディープラーニング技術を利用してスタンド看板の種別を分類する。
ステップ306では、画像認識部50が、DB38に蓄積された全ての画像情報について上記処理が終了したか否かを判定する。該判定が否定された場合にはステップ300に戻って上述の処理を繰り返し、判定が肯定されたところで一連の処理を終了する。
続いて、地図生成サーバ12において、対象物の検出及び分類が終了した後に行われる処理について説明する。図10は、本実施形態に係る地図生成システム10の地図生成サーバ12において、対象物の検出及び分類が終了した後に中央処理部30(提示情報生成部60)で行われる処理の流れの一例を示すフローチャートである。なお、図10の処理は、例えば、予め定めた期間毎(例えば、1ヶ月毎や1年毎等)に行われる。
ステップ400では、推定部62が、対象物の位置座標を推定してステップ402へ移行する。例えば、推定部62が、図5に示すように、画像情報を鳥瞰図に変換して対象物のスタンド看板の位置を推定する。すなわち、変換した鳥瞰図から、横断歩道の四角の長さ等の既知の長さに基づいて、車両14の位置から検出された対象物までの距離を推定し、車両情報に含まれる車両14の位置情報を用いて、スタンド看板の位置を経度緯度として推定する。
ステップ402では、推定部62が、全ての検出した対象物について位置座標の推定が終了したか否かを判定する。該判定が否定された場合にはステップ400に戻って上述の処理を繰り返し、判定が肯定されたところでステップ404へ移行する。
ステップ404では、同一対象物集約部64が、同一対象物集約処理を行ってステップ406へ移行する。すなわち、画像認識部50による過去の対象物の認識結果を集約して地図上に提示するために、検出した対象物のどれとどれが同一の対象物であるかを認識して同一の対象物を集約する処理を行うことにより、スタンド看板等の対象物の数と位置を特定する。なお、同一対象物集約処理の詳細については後述する。
ステップ406では、対象物地図更新部66が、検出回数が閾値以上の対象物について地図更新を行って一連の処理を終了する。すなわち、対象物地図更新部66が、道路周辺設置物等の対象物が撤去される場合、対象物が予め定めた期間や回数検出されないので、DB38から削除し、連続して検出が続けば新たに設置されたと判断して、地図の更新を行う。1回の対象物の検出で地図を更新した場合には、誤検出が含まれる場合があるため、複数回の検出で地図を更新することで、対象物の地図の精度を向上できる。これにより、アプリケーション等によって地図上にスタンド看板の位置を追加して表示することが可能となる。例えば、ユーザのコンピュータや携帯端末等にインストールされたアプリケーションによって地図を表示することで、図11に示すように、スタンド看板が地図上に追加されたスタンド看板地図を表示することが可能となる。
次に、上述の同一対象物集約部64で行われる同一対象物集約処理の詳細について説明する。図12は、同一対象物集約部64で行われる同一対象物集約処理の流れの第1例を示すフローチャートである。なお、第1例は、画像マッチング技術を適用して同一の対象物であるか否かを判定する例である。
ステップ500では、同一対象物集約部64が、推定部62による推定位置を用いてクラスタリングを行ってステップ502へ移行する。例えば、図13に示すように、推定位置で対象物をクラスタリングする。なお、クラスタリングの手法は、各種周知の手法を適用できる。
ステップ502では、同一対象物集約部64が、最も大きいクラスタに注目してステップ504へ移行する。例えば、図13では、最も多い、4つの対象物を含むクラスタに注目する。
ステップ504では、同一対象物集約部64が、注目クラスタ内の対象物の特徴量を導出してステップ506へ移行する。例えば、図13では、4つの対象物のそれぞれについて画像の局所特徴量を導出する。
ステップ506では、同一対象物集約部64が、特徴量距離を導出してステップ508へ移行する。例えば、図13に示すように、各対象物間の特徴量距離を導出する。
ステップ508では、同一対象物集約部64が、特徴量距離が予め定めた閾値以下の対象物を同一と判定して集約してステップ510へ移行する。これにより、位置検出誤差が大きい場合、異なる位置に同一の対象物が検出されることがあるが、図14に示すように丸で囲われた対象物は同一と判定して集約することができる。
ステップ510では、同一対象物集約部64が、全てのクラスタについて処理が終了したか否かを判定する。該判定が否定された場合にはステップ512へ移行し、肯定された場合には一連の処理を終了する。
ステップ512では、同一対象物集約部64が、注目するクラスタを次に大きいクラスタに注目してステップ504に戻って上述の処理を繰り返す。
すなわち、図12の処理では、推定部62によって推定された推定位置でクラスタリング(例えば、数10m程度)を行い、クラスタリングによって分割された各集合内の対象物に対して、画像の局所特徴量を導出する。そして、特徴量距離(類似度)を導出し、特徴量距離が近いものを同一の対象物と判定し、同一の対象物と判定されたものを、一つの対象物として集約する。これにより、対象物の数と位置を特定することが可能となる。
なお、図12では、ステップ500において推定位置でクラスタリングを行う形態を説明したが、これに限定されるものではない。例えば、ステップ500は、地図の次元(2次元)と特徴量距離(例えば、256次元)をまとめてクラスタリングしてもよい。これにより、対象物の位置の推定が失敗しても同一の対象物を集約することが可能となる。この場合、地図の次元と特徴量距離の次元に対して重み付けを付与してクラスタリングしてもよい。また、対象物の推定位置としては、推定した対象物の緯度経度の2次元を適用してもよいし、自車位置の緯度経度と自車位置からの相対位置の4次元を適用してもよい。
次に、同一対象物集約処理の第2例について説明する。図15は、同一対象物集約部64で行われる同一対象物集約処理の流れの第2例を示すフローチャートである。なお、第2例は、第1例に比べてヒューリスティックな方法である。
ステップ600では、同一対象物集約部64が、同フレーム内に複数の対象物が存在するか否かを判定する。該判定が否定された場合にはステップ602へ移行し、肯定された場合にはステップ604へ移行する。
ステップ602では、同一対象物集約部64が、同フレーム内の複数の対象物を異なる対象物と判定して一連の処理を終了する。
一方、ステップ604では、同一対象物集約部64が、予測ラベルが同一であるか否かを判定する。該判定は、画像認識部50の認識結果に基づいて、対象物の種別が同一であるか否かを判定する。例えば、同じメッセージのスタンド看板か否かを判定する。該判定が否定された場合にはステップ602へ移行し、肯定された場合にはステップ606へ移行する。
ステップ606では、同一対象物集約部64が、車の距離が3m未満か否かを判定する。該判定は、車両と検出された対象物との距離が3m未満か否かを判定する。該判定が否定された場合にはステップ608へ移行し、肯定された場合にはステップ610へ移行する。なお、ステップ606では、一例として3m未満か否かを判定するが、距離は3mに限るものではなく、予め定めた距離が適用される。
ステップ608では、同一対象物集約部64が、推定位置の距離が2m未満か否かを判定する。該判定は、検出された対象物と対象物の距離が2m未満であるか否かを判定する。該判定が否定された場合にはステップ602へ移行し、肯定された場合はステップ612へ移行する。なお、ステップ608では、一例として2m未満か否かを判定するが、距離は2mに限るものではなく、予め定めた距離が適用される。
ステップ610では、同一対象物集約部64が、矩形の重複が60%以上であるか否かを判定する。該判定が否定された場合にはステップ602へ移行し、肯定された場合にはステップ612へ移行する。
ステップ612では、同一対象物集約部64が、同フレーム内の複数の対象物を同一対象物と判定して一連の処理を終了する。これにより、位置検出誤差が大きい場合、異なる位置に同一の対象物が検出されるが、図14に示すように、丸で囲われた対象物は同一と判定して集約することができる。
なお、上記の実施形態では、同一対象物集約処理の第1例と第2例を別々の処理として説明したが、第1例と第2例の処理を共に行う形態としてもよい。例えば、第2例の処理を行って後に、第1例の処理を続けて行ってもよい。
また、上記の実施形態では、映像データ蓄積部40、画像認識部50、及び提示情報生成部60の機能を単一の地図生成サーバ12に備える例を説明したが、これに限るものではない。例えば、複数のサーバに各機能を分散してもよい。
また、上記の実施形態では、推定部62が、対象物の位置を推定する際に、車両14の位置から対象物までの相対距離を推定して、車両14の位置情報を用いて、スタンド看板の位置を経度緯度として推定したが、相対距離の推定方法はこれに限るものではない。例えば、レーダ装置等の周辺監視装置の情報が車両情報に含まれる場合には、周辺監視装置によって検出された相対距離を用いてもよい。具体的には、車両の走行方向に対する対象物の方向を画像情報から導出し、導出した方向の物体までの相対距離を検出することにより車両と対象物の相対距離を推定する。
また、上記の各実施形態における車載器16及び地図生成サーバ12のそれぞれで行われる処理は、プログラムを実行することにより行われるソフトウエア処理として説明したが、これに限るものではない。例えば、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、及びFPGA(Field-Programmable Gate Array)等のハードウエアで行う処理としてもよい。或いは、ソフトウエア及びハードウエアの双方を組み合わせた処理としてもよい。また、ソフトウエアの処理とした場合には、プログラムを各種記憶媒体に記憶して流通させるようにしてもよい。
さらに、本発明は、上記に限定されるものでなく、上記以外にも、その主旨を逸脱しない範囲内において種々変形して実施可能であることは勿論である。
10 地図生成システム
12 地図生成サーバ
14 車両
16 車載器
22 車両情報検出部
24 撮影部
54 対象物検出部(検出部)
56 対象物分類部(分類部)
62 推定部
64 同一対象物集約部(特定部)
66 対象物地図更新部(地図更新部)

Claims (7)

  1. 複数の車両の各々から撮影することによって得られる画像情報に基づいて、予め定めた対象物を検出する検出部と、
    前記検出部によって検出された前記対象物と、当該対象物が検出された前記画像情報を撮影した車両との相対位置、及び当該対象物の撮影時の前記車両の絶対位置としての位置情報に基づいて、前記検出部によって検出された前記対象物の絶対位置としての位置情報を推定する推定部と、
    前記推定部によって推定された複数の対象物について、当該各々の対象物の位置情報と、当該各々の対象物が含まれる画像の画像情報とに基づいて、前記複数の対象物に含まれている同一の対象物を集約することで、前記対象物の数と位置とを特定する特定部と、
    を含む地図生成システム。
  2. 前記特定部は、前記推定部によって推定された前記対象物の推定位置でクラスタリングした各クラスタ内に存在する前記対象物の特徴量間の距離に基づいて、前記対象物の数と位置とを特定する請求項1に記載の地図生成システム。
  3. 前記特定部は、前記推定部によって推定された前記対象物の推定位置、及び前記対象物の画像の特徴量に基づきクラスタリングした各クラスタ内に存在する前記対象物の特徴量距離に基づいて、前記対象物の数と位置とを特定する請求項1に記載の地図生成システム。
  4. 前記特定部は、前記推定部によって推定された前記対象物の位置情報に基づいて、前記対象物の数と位置とを特定し、前記画像情報が表す画像内に複数の前記対象物が前記検出部によって検出された場合に、前記相対位置が予め定めた距離未満かつ前記検出部によって検出された前記対象物の画像上の重複が予め定めた閾値以上の前記対象物、または前記相対位置が予め定めた距離以上かつ前記対象物同士の距離が予め定めた閾値未満の前記対象物を同一の前記対象物として、前記対象物の数と位置とを特定する請求項1に記載の地図生成システム。
  5. 前記検出部によって検出された前記対象物の種類を分類する分類部を更に含み、前記特定部は、前記分類部によって分類された種類毎の前記対象物の数と位置とを特定する請求項1〜4の何れか1項に記載の地図生成システム。
  6. 予め定めた閾値以上の数の前記画像情報から前記対象物の数と位置が特定された場合に、既存の地図に対して前記対象物の情報を追加または削除して更新する地図更新部を更に含む請求項1〜5の何れか1項に記載の地図生成システム。
  7. コンピュータを、請求項1〜6の何れか1項に記載の地図生成システムの各部として機能させるための地図生成プログラム。
JP2020018739A 2020-02-06 2020-02-06 地図生成システム及び地図生成プログラム Active JP7238821B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020018739A JP7238821B2 (ja) 2020-02-06 2020-02-06 地図生成システム及び地図生成プログラム
CN202011482810.7A CN113220805B (zh) 2020-02-06 2020-12-16 地图生成装置、记录介质以及地图生成方法
US17/125,154 US11488390B2 (en) 2020-02-06 2020-12-17 Map generation device, recording medium and map generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020018739A JP7238821B2 (ja) 2020-02-06 2020-02-06 地図生成システム及び地図生成プログラム

Publications (2)

Publication Number Publication Date
JP2021124633A true JP2021124633A (ja) 2021-08-30
JP7238821B2 JP7238821B2 (ja) 2023-03-14

Family

ID=77085885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020018739A Active JP7238821B2 (ja) 2020-02-06 2020-02-06 地図生成システム及び地図生成プログラム

Country Status (3)

Country Link
US (1) US11488390B2 (ja)
JP (1) JP7238821B2 (ja)
CN (1) CN113220805B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023127364A1 (ja) * 2021-12-27 2023-07-06 株式会社デンソー 情報管理システム、センター、情報管理方法、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006119591A (ja) * 2004-09-22 2006-05-11 Mitsubishi Electric Corp 地図情報生成方法、地図情報生成プログラム及び地図情報収集装置
JP2010176645A (ja) * 2009-02-02 2010-08-12 Panasonic Corp 画像認識方法および画像認識装置
JP2018116692A (ja) * 2017-01-13 2018-07-26 キヤノン株式会社 人流解析装置およびシステム
JP2019101664A (ja) * 2017-11-30 2019-06-24 富士通株式会社 推定プログラム、推定システム、及び推定方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213238A (ja) 2002-12-27 2004-07-29 Japan Tobacco Inc 広告調査システム
JP4882289B2 (ja) 2005-06-21 2012-02-22 日産自動車株式会社 地図情報生成システム
JP4670770B2 (ja) 2006-08-09 2011-04-13 株式会社デンソー 道路地図更新システムおよびその道路地図更新システムに用いる車両側装置
CN102132557B (zh) * 2008-09-03 2013-07-24 三菱电机株式会社 车用拍摄系统
JP5353199B2 (ja) * 2008-11-20 2013-11-27 富士通株式会社 地図情報収集システム
JP2015052548A (ja) * 2013-09-09 2015-03-19 富士重工業株式会社 車外環境認識装置
JP6299651B2 (ja) * 2015-04-02 2018-03-28 株式会社デンソー 画像処理装置
JP6984379B2 (ja) 2017-12-14 2021-12-17 株式会社豊田中央研究所 道路構造データ生成装置
US10970878B2 (en) * 2018-12-13 2021-04-06 Lyft, Inc. Camera calibration using reference map

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006119591A (ja) * 2004-09-22 2006-05-11 Mitsubishi Electric Corp 地図情報生成方法、地図情報生成プログラム及び地図情報収集装置
JP2010176645A (ja) * 2009-02-02 2010-08-12 Panasonic Corp 画像認識方法および画像認識装置
JP2018116692A (ja) * 2017-01-13 2018-07-26 キヤノン株式会社 人流解析装置およびシステム
JP2019101664A (ja) * 2017-11-30 2019-06-24 富士通株式会社 推定プログラム、推定システム、及び推定方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023127364A1 (ja) * 2021-12-27 2023-07-06 株式会社デンソー 情報管理システム、センター、情報管理方法、及びプログラム
JP7568142B2 (ja) 2021-12-27 2024-10-16 株式会社デンソー 情報管理システム

Also Published As

Publication number Publication date
US11488390B2 (en) 2022-11-01
JP7238821B2 (ja) 2023-03-14
CN113220805B (zh) 2023-12-29
US20210248387A1 (en) 2021-08-12
CN113220805A (zh) 2021-08-06

Similar Documents

Publication Publication Date Title
US11060882B2 (en) Travel data collection and publication
JP6494719B2 (ja) 交通信号マップ作成及び検出
JP7499256B2 (ja) ドライバの挙動を分類するためのシステムおよび方法
US9940530B2 (en) Platform for acquiring driver behavior data
WO2017193933A1 (zh) 交通事故预警方法及交通事故预警装置
US9188447B2 (en) Physical object search
US8688369B2 (en) Data mining in a digital map database to identify blind intersections along roads and enabling precautionary actions in a vehicle
US20150377634A1 (en) Automatic content analysis method and system
EP3188150A2 (en) Platform for acquiring driver behavior data
JP2020024655A (ja) 情報提供システム、情報提供装置、情報提供方法、及びプログラム
JP7238821B2 (ja) 地図生成システム及び地図生成プログラム
CN110770540A (zh) 用于构建环境模型的方法和装置
JP2022056153A (ja) 一時停止検出装置、一時停止検出システム、及び一時停止検出プログラム
CN116958915B (zh) 目标检测方法、装置、电子设备及存储介质
CN115982306B (zh) 一种目标对象的逆行行为识别方法、装置
KR102145409B1 (ko) 차량속도 측정이 가능한 시정거리 측정 시스템
WO2020073272A1 (en) Snapshot image to train an event detector
WO2020073270A1 (en) Snapshot image of traffic scenario
WO2020073268A1 (en) Snapshot image to train roadmodel
WO2020073271A1 (en) Snapshot image of traffic scenario
WO2019043726A1 (en) METHOD AND SYSTEM FOR GEOMARKING ROAD IRREGULARITIES AND ALERTING VEHICLE USERS OF POTENTIAL IRREGULARITIES ON THE PATH

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220414

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230127

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230213

R151 Written notification of patent or utility model registration

Ref document number: 7238821

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151