JP2023146690A - 管理システム、地図生成システム、及び3次元地図データ - Google Patents

管理システム、地図生成システム、及び3次元地図データ Download PDF

Info

Publication number
JP2023146690A
JP2023146690A JP2022054014A JP2022054014A JP2023146690A JP 2023146690 A JP2023146690 A JP 2023146690A JP 2022054014 A JP2022054014 A JP 2022054014A JP 2022054014 A JP2022054014 A JP 2022054014A JP 2023146690 A JP2023146690 A JP 2023146690A
Authority
JP
Japan
Prior art keywords
specific
recognition
space
information
map data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022054014A
Other languages
English (en)
Inventor
智子 東福寺
Tomoko Tofukuji
大輔 秋久
Daisuke Akihisa
健 篠崎
Takeshi Shinozaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2022054014A priority Critical patent/JP2023146690A/ja
Priority to US18/174,845 priority patent/US20230316774A1/en
Priority to CN202310277729.2A priority patent/CN116895063A/zh
Publication of JP2023146690A publication Critical patent/JP2023146690A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3844Data obtained from position sensors only, e.g. from inertial navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3811Point data, e.g. Point of Interest [POI]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3837Data obtained from a single source
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3859Differential updating map data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Computational Linguistics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】認識センサを用いた認識処理にとって良好な環境を効率的に確保する。【解決手段】管理システムは、所定エリアの環境を管理する。所定エリアには、周囲の状況を認識する認識センサと、特定位置に存在する認識センサによって認識されるべき認識対象とが存在する。所定エリアの3次元地図データは、特定位置と認識対象との間の空間である特定空間を示す特定空間情報を含む。管理システムは、特定位置に存在する認識センサによる認識結果を示す認識結果情報を取得する。更に、管理システムは、3次元地図データにおける特定空間には含まれない物体が認識結果情報における特定空間に含まれているか否かを判定する。そして、管理システムは、3次元地図データにおける特定空間には含まれないが認識結果情報における特定空間に含まれている物体を除去対象として検知する。【選択図】図7

Description

本開示は、所定エリアの環境を管理するために有用な技術に関する。また、本開示は、所定エリアの3次元地図データ、及びその3次元地図データを生成する技術に関する。
特許文献1は、3次元デジタル地図を作成する方法を開示している。物体配置データ保持手段は、物体の絶対的な配置形態を表す物体配置データを保持する。3次元デジタル地図作成手段は、仮想的な視野を設定し、仮想的な視野に対応する物体配置データを物体配置データ保持手段から検索する。そして、3次元デジタル地図作成手段は、検索された物体配置データにより表される物体を3次元形状にモデリングして3次元デジタル地図を作成する。
特許文献2は、ナビゲーション装置における三次元地図表示方法を開示している。当該方法は、三次元地図に表示すると共に、誘導経路上の交通標識の詳細をズームアップして表示する。
特許文献3は、移動体から撮影された画像に基づき情報を表示する技術を開示している。信号機等の対象物が障害物によって隠されている場合、障害物を透過して対象物が見えるように画像が加工される。
特開2005-044224号公報 特開2003-337040号公報 特開2012-208111号公報
周囲の状況を認識する認識センサ(例:カメラ)を用いることによって認識対象を認識する認識処理について考える。例えば、自動運転車両は、車載の認識センサを用いて、信号機、標識、横断歩道、等の認識対象を認識する。このような認識処理では、周囲の環境が重要である。例えば、認識対象と認識センサとの間の空間に障害物(例:伸びた枝葉)が存在する場合、認識処理が阻害され、認識対象の認識精度が低下するおそれがある。認識処理にとって良好な環境を確保するためには、そのような障害物を検知し除去(排除)することが必要である。
但し、どの物体が認識処理を実際に阻害している障害物であるかを判断することは、一般的に容易ではない。実際には認識処理に影響を与えていない無関係な物体まで除去(排除)することは非効率的である。認識処理にとって良好な環境をより効率的に確保することが望まれる。
本開示の1つの目的は、認識センサを用いた認識処理にとって良好な環境を効率的に確保することができる技術を提供することにある。
第1の観点は、所定エリアの環境を管理する管理システムに関連する。
管理システムは、
1又は複数のプロセッサと、
所定エリアの3次元地図データを格納する1又は複数の記憶装置と
を備える。
所定エリアには、周囲の状況を認識する認識センサと、特定位置に存在する認識センサによって認識されるべき認識対象とが存在する。
3次元地図データは、特定位置と認識対象との間の空間である特定空間を示す特定空間情報を含む。
1又は複数のプロセッサは、特定位置に存在する認識センサによる認識結果を示す認識結果情報を取得する。
1又は複数のプロセッサは、3次元地図データにおける特定空間には含まれない物体が認識結果情報における特定空間に含まれているか否かを判定する。
1又は複数のプロセッサは、3次元地図データにおける特定空間には含まれないが認識結果情報における特定空間に含まれている物体を除去対象として検知する。
第2の観点は、所定エリアの3次元地図データを生成する地図生成システムに関連する。
地図生成システムは、
1又は複数のプロセッサと、
所定エリアを構成する構成要素毎に属性情報を示すセマンティックモデル情報を格納する1又は複数の記憶装置と
を備える。
所定エリアには、周囲の状況を認識する認識センサと、特定位置に存在する認識センサによって認識されるべき認識対象とが存在する。
1又は複数のプロセッサは、認識対象をセマンティックモデル情報における構成要素の一つとして定義する。
1又は複数のプロセッサは、特定位置をセマンティックモデル情報における構成要素の一つとして定義する。
1又は複数のプロセッサは、認識対象と特定位置に基づいて、特定位置と認識対象との間の空間である特定空間をセマンティックモデル情報における構成要素の一つとして定義する。
1又は複数のプロセッサは、特定空間が定義されたセマンティックモデル情報に基づいて、特定空間を示す特定空間情報を含む3次元地図データを生成する。
第3の観点は、所定エリアの3次元地図データに関連する。
所定エリアには、周囲の状況を認識する認識センサと、特定位置に存在する認識センサによって認識されるべき認識対象とが存在する。
3次元地図データは、特定位置と認識対象との間の空間である特定空間を示す特定空間情報を含むデータ構造を有する。
認識結果情報は、特定位置に存在する認識センサによる認識結果を示す。
3次元地図データは、所定エリアの環境を管理する管理システムによって読み出される。
3次元地図データにおける特定空間には含まれない物体が認識結果情報における特定空間に含まれているか否かが、管理システムによって判定される。
3次元地図データにおける特定空間には含まれないが認識結果情報における特定空間に含まれている物体は、管理システムによって除去対象として検知される。
第1の観点によれば、特定空間を示す特定空間情報を含む3次元地図データが利用される。特定空間は、認識対象とその認識対象を認識すべき特定位置との間の空間として定義されている。そのような特定空間を示す特定空間情報を含む3次元地図データを利用することによって、認識処理を阻害する障害物を除去対象として精度良く検知することが可能となる。その結果、認識処理にとって良好な環境を効率的に確保することが可能となる。すなわち、所定エリアの環境を効率的に管理することが可能となる。
第2の観点によれば、所定エリアのセマンティックモデル情報を利用することによって、特定空間を示す特定空間情報を含む3次元地図データを効率的に生成することが可能となる。その3次元地図データを利用することによって、認識処理にとって良好な環境を効率的に確保することが可能となる。
第3の観点によれば、認識処理を阻害する障害物を除去対象として精度良く検知するために有用な3次元地図データが提供される。その3次元地図データを利用することによって、認識処理にとって良好な環境を効率的に確保することが可能となる。
所定エリアを説明するための概念図である。 認識センサを用いた認識処理の一例を説明するための概念図である。 認識センサを用いた認識処理に関する課題の一例を説明するための概念図である。 本開示の実施の形態に係る認識センサを用いた認識処理及びその課題を説明するための概念図である。 本開示の実施の形態に係る特定空間を説明するための概念図である。 本開示の実施の形態に係る特定周辺空間を説明するための概念図である。 本開示の実施の形態に係る3次元地図データ、地図生成システム、及び管理システムの概要を説明するためのブロック図である。 本開示の実施の形態に係る地図生成システムの構成例を示すブロック図である。 本開示の実施の形態に係る地図生成システムによる地図生成処理の第1の例を示すフローチャートである。 本開示の実施の形態に係る地図生成システムによる地図生成処理の第2の例を示すフローチャートである。 本開示の実施の形態に係る地図生成システムによるセンサ視野チェック処理を説明するための概念図である。 本開示の実施の形態に係る地図生成システムによるセンサ視野チェック処理に関連する処理を示すフローチャートである。 本開示の実施の形態に係る管理システムの構成例を示すブロック図である。 本開示の実施の形態に係る管理システムによる管理処理の第1の例を示すフローチャートである。 本開示の実施の形態に係る管理システムによる管理処理の第2の例を示すフローチャートである。 本開示の実施の形態に係る移動体への情報提供を説明するためのブロック図である。
添付図面を参照して、本開示の実施の形態を説明する。
1.概要
1-1.所定エリア
図1は、所定エリアARを説明するための概念図である。例えば、所定エリアARは、1つの街(例:スマートシティ)である。他の例として、所定エリアARは、施設の敷地であってもよい。更に他の例として、所定エリアARは、建物内のエリアであってもよい。
所定エリアARの中には様々な物体が存在する。典型的には、所定エリアAR内を移動する移動体1(モビリティ)が存在する。移動体1としては、車両、ロボット、飛翔体、等が例示される。車両は、自動運転車両であってもよいし、ドライバが運転する車両であってもよい。ロボットとしては、物流ロボット、清掃ロボット、プランターロボット、等が例示される。飛翔体としては、飛行機、ドローン、等が例示される。
1-2.認識センサを用いた認識処理
移動体1は、周囲の状況を認識する認識機能を少なくとも備えている。より詳細には、移動体1は、周囲の状況を認識する認識センサを備えている。認識センサとしては、カメラ、LIDAR(Laser Imaging Detection and Ranging)、レーダ、等が例示される。移動体1は、認識センサを用いて周囲の状況を認識する認識処理を行う。特に、移動体1は、認識センサを用いて、移動体1の周囲の物体を認識する。移動体1の周囲の物体としては、歩行者、他車両(先行車両、駐車車両、等)、信号機、白線、横断歩道、標識、等が例示される。例えば、カメラによって得られる画像IMGを解析することによって、物体を識別し、その物体の相対位置を算出することができる。また、LIDARによって得られる点群情報に基づいて、物体を識別し、その物体の相対位置と相対速度を取得することもできる。
移動体1は、認識センサによる認識結果に基づいて所定の処理を行う。例えば、移動体1は、認識センサによる認識結果に基づいて、自律的に移動する。他の例として、移動体1は、認識センサによる認識結果に基づいて、オペレータによる移動体1の操作を支援してもよい。更に他の例として、移動体1は、認識センサによる認識結果をオペレータに提示してもよい。
図2は、認識センサを用いた認識処理の一例を説明するための概念図である。図2に示される例では、移動体1は、自動運転車両である。自動運転車両には、カメラ等の認識センサが搭載されている。カメラは、自動運転車両の周囲の画像IMGを取得する。自動運転車両は、カメラにより得られる画像IMGに基づいて、前方の信号機及びその信号表示(青、黄、赤、等)を認識する。特に、自動運転車両は、信号機の手前の一定範囲において信号機及び信号表示を認識する必要がある。そして、自動運転車両は、信号機及び信号表示の認識結果に基づいて自動運転制御を行う。
但し、図3に示されるように、街路樹の枝葉が伸びてくると、信号機の手前の一定範囲から見たとき、伸びた枝葉によって信号機の少なくとも一部が隠される可能性がある。つまり、信号機を認識すべき位置から信号機の少なくとも一部が見えなくなる可能性がある。このことは、信号機及びその信号表示の認識精度の低下を招く。信号機及び信号表示の認識精度の低下は、自動運転制御の精度の低下の原因となる。信号認識にとって良好な環境を確保するためには、街路樹の伸びた枝葉を剪定する必要がある。
比較例として、所定エリアAR内の街路樹を一律且つ定期的に剪定の対象とすることを考える。しかしながら、その場合、信号認識に全く影響を与えない位置の街路樹の枝葉も不必要に剪定されてしまう可能性がある。また、信号認識に影響を与える可能性のある位置の街路樹であっても、信号認識を阻害する程度まで枝葉がまだ伸びていない場合には、やはり不必要な剪定が行われてしまう。逆に、定期的な剪定時期が到来していないために、信号認識を実際に阻害している枝葉がそのまま放置される可能性もある。このように、所定エリアAR内の街路樹を一律且つ定期的に剪定の対象とする比較例は、“非効率的”である。信号認識にとって良好な環境を効率的に確保するためには、本当に必要な空間の枝葉だけを適切なタイミングで剪定することが必要である。
図4を参照して、認識センサを用いた認識処理及びその課題をより一般化して説明する。所定エリアAR内には、第1物体10及び第2物体20が存在する。
第1物体10は、周囲の状況を認識する認識センサ15を備えている。認識センサ15としては、カメラ、LIDAR、レーダ、等が例示される。例えば、第1物体10は上述の移動体1であり、認識センサ15は移動体1に搭載されている。他の例として、第1物体10は、所定エリア内の状況を監視する監視装置であり、認識センサ15は監視装置に含まれていてもよい。
第2物体20は、認識センサ15によって認識される「認識対象」である。特に、第2物体20は、所定エリアAR内の特定位置PXに存在する認識センサ15によって認識されるべき認識対象である。例えば、第2物体20は、信号機である(図2、図3参照)。信号機はその手前の一定範囲において認識センサ15によって認識される必要があり、その一定範囲が特定位置PXに相当する。第2物体20は信号機に限られない。第2物体20の他の例として、横断歩道、標識、歩行者、等が挙げられる。尚、第2物体20は、特定位置PX以外に存在する認識センサ15によって認識される必要はない。
障害物30は、認識センサ15による認識処理を阻害する物体である。つまり、障害物30は、特定位置PXに存在する認識センサ15と第2物体20との間の空間に存在する物体である。障害物30としては、樹木の枝葉、落下物、飛来物、ごみ、違法駐車車両、等が例示される。
このような障害物30が存在すると、認識センサ15を用いた認識処理が阻害され、第2物体20の認識精度が低下するおそれがある。認識処理にとって良好な環境を確保するためには、障害物30を検知し除去(排除)することが必要である。但し、どの物体が認識処理を実際に阻害している障害物30であるかを判断することは、一般的に容易ではない。実際には認識処理に影響を与えていない無関係な物体まで除去(排除)することは非効率的である。認識処理にとって良好な環境をより効率的に確保することが望まれる。
そこで、本実施の形態は、認識センサ15による認識処理を阻害する障害物30(すなわち、本当の除去対象)を精度良く検知することができる技術を提案する。本当の除去対象を精度良く検知することによって、認識処理にとって良好な環境をより効率的に確保することが可能となる。
1-3.特定空間
図5は、本実施の形態の一つの特徴を説明するための概念図である。本実施の形態によれば、認識センサ15による認識処理を阻害する障害物30精度良く検知するために、「特定空間SX」という概念が導入される。上述の通り、第2物体20は、特定位置PXに存在する認識センサ15によって認識されるべき認識対象である。特定空間SXとは、特定位置PXと第2物体20(認識対象)との間の空間である。
認識センサ15によって第2物体20を精度良く認識するためには、特定空間SXの見通しが良い必要がある。もし、この特定空間SXに物体が存在している場合、その物体は認識センサ15による認識処理を阻害する障害物30となる。よって、特定空間SXに含まれている物体が、除去対象である障害物30として検知される。一方、特定空間SXの外に存在する物体は、認識処理に影響を与えないため、除去する必要はない。すなわち、特定空間SXの外に存在する物体は除去対象として検知されず、特定空間SXに含まれる物体だけが除去対象として検知される。
このように、特定位置PXと第2物体20(認識対象)との位置関係を考慮して特定空間SXを定義することによって、認識処理を阻害する障害物30(すなわち、本当の除去対象)を精度良く検知することが可能となる。その結果、認識処理にとって良好な環境を効率的に確保することが可能となる。すなわち、所定エリアARの環境を効率的に管理することが可能となる。
街路樹の枝葉が特定空間SXにはまだ侵入していないが、特定空間SXの近傍まで伸びている状況も考えられる。そのような枝葉を予め「除去対象候補」として検知しておくことも、所定エリアARの環境を管理する観点から有用である。例えば、複数箇所の除去対象候補をどの順番で除去するか予め計画しておくことができる。これにより、認識処理にとって良好な環境を効率的に確保することが可能となる。
図6は、除去対象候補を検知するための「特定周辺空間SY」を説明するための概念図である。特定周辺空間SYは、特定空間SXの周囲の有限の空間である。例えば、特定周辺空間SYは、特定空間SXの外表面から一定距離以内の空間である。この特定周辺空間SYに含まれる物体が除去対象候補として検知される。除去対象候補は、近い将来に除去対象となり得る。
以上に説明された特定空間SX及び特定周辺空間SYに関する情報は、3次元地図データとして提供される。
1-4.3次元地図データ、地図生成システム、及び管理システム
図7は、本実施の形態に係る3次元地図データ100、地図生成システム200、及び管理システム300の概要を説明するためのブロック図である。
3次元地図データ100は、所定エリアARの3次元地図データである。つまり、3次元地図データ100は、所定エリアAR内の構造物(道路、道路構造物、建物、等)の3次元配置を示す。
3次元地図データ100は、更に、上述の特定空間SXを示す特定空間情報110を含んでいる。特定空間情報110は、所定エリアAR内の特定空間SXの位置を示す。また、特定空間情報110は、「この特定空間SXに存在する物体は除去対象であること」を示すメタデータを含んでいてもよい。
3次元地図データ100は、更に、上述の特定周辺空間SYを示す特定周辺空間情報120を含んでいてもよい。特定周辺空間情報120は、所定エリアAR内の特定周辺空間SYの位置を示す。また、特定周辺空間情報120は、「この特定周辺空間SYに存在する物体は除去対象候補であること」を示すメタデータを含んでいてもよい。
地図生成システム200は、3次元地図データ100を生成する。特に、地図生成システム200は、特定空間情報110を含む3次元地図データ100を効率的に生成する。地図生成システム200は、例えば、クラウド上の管理サーバにより実現される。管理サーバは、分散処理を行う複数のサーバにより構成されていてもよい。他の例として、地図生成システム200の少なくとも一部の機能が第1物体10(移動体1)に含まれていてもよい。地図生成システム200の詳細は、下記のセクション2において詳しく説明する。
管理システム300は、所定エリアARの環境を管理する。特に、管理システム300は、所定エリアARの3次元地図データ100を利用することによって、所定エリアARの環境を効率的に管理する。管理システム300は、例えば、クラウド上の管理サーバにより実現される。管理サーバは、分散処理を行う複数のサーバにより構成されていてもよい。他の例として、管理システム300の少なくとも一部の機能が、第1物体10(移動体1)に含まれていてもよい。管理システム300の詳細は、下記のセクション3において詳しく説明する。
地図生成システム200と管理システム300は、別々であってもよいし、少なくとも部分的に共通であってもよい。管理システム300が地図生成システム200の機能を備えていてもよい。地図生成システム200が管理システム300の機能を備えていてもよい。
以下、本実施の形態に係る地図生成システム200及び管理システム300について詳しく説明する。
2.地図生成システム
2-1.構成例
図8は、本実施の形態に係る地図生成システム200の構成例を示すブロック図である。地図生成システム200は、ユーザインタフェース210、通信装置220、1又は複数のプロセッサ230(以下、単にプロセッサ230と呼ぶ)、及び1又は複数の記憶装置240(以下、単に記憶装置240と呼ぶ)を含んでいる。
ユーザインタフェース210は、ユーザ(管理者)から情報入力を受け付け、また、ユーザに各種情報を提供する。ユーザインタフェース210は、入力装置と出力装置を含んでいる。入力装置としては、キーボード、マウス、タッチパネル、等が例示される。出力装置としては、表示装置、タッチパネル、スピーカ、等が例示される。ユーザインタフェース210は、GUI(Graphical User Interface)であってもよい。
通信装置220は、通信ネットワークを介して外部と通信を行う。
プロセッサ230は、各種処理を実行する。例えば、プロセッサ230は、CPU(Central Processing Unit)を含んでいる。記憶装置240は、各種情報を格納する。記憶装置240としては、揮発性メモリ、不揮発性メモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、等が例示される。
地図生成プログラム250は、プロセッサ230によって実行されるコンピュータプログラムである。プロセッサ230が地図生成プログラム250を実行することにより、地図生成システム200の機能が実現される。地図生成プログラム250は、記憶装置240に格納される。あるいは、地図生成プログラム250は、コンピュータ読み取り可能な記録媒体に記録されてもよい。地図生成プログラム250は、ネットワーク経由で提供されてもよい。
セマンティックモデル情報260は、所定エリアARの「セマンティックモデル」の情報である。セマンティックモデルは、BIM(Building Information Modeling)やCIM(Construction Information Modeling)といった思想に基づく3Dモデルである。但し、セマンティックモデルは、単なる3Dモデルではなく、所定エリアARを構成する構成要素(オブジェクト)毎の「属性情報」も含んでいる。構成要素の属性情報としては、構成要素の種類、位置、形状、サイズ、材質、等が例示される。セマンティックモデル情報260は、記憶装置240に格納される。
プロセッサ230は、セマンティックモデル情報260を利用することによって、3次元地図データ100を効率的に生成する。生成された3次元地図データ100は、記憶装置240に格納される。以下、プロセッサ230による地図生成処理について説明する。
2-2.地図生成処理
2-2-1.第1の例
図9は、本実施の形態に係る地図生成処理の第1の例を示すフローチャートである。
ステップS210において、プロセッサ230は、認識センサ15によって認識されるべき認識対象をセマンティックモデル情報260における構成要素(オブジェクト)の一つとして定義する。例えば、既存のセマンティックモデル情報260に第2物体20が含まれている場合、ユーザは、ユーザインタフェース210を用いて、その第2物体20を認識対象として指定する。あるいは、ユーザは、ユーザインタフェース210を用いて、新たな認識対象とその属性情報を入力してもよい。認識対象に関する属性情報は、認識対象の範囲(位置と形状)を含む。プロセッサ230は、ユーザによる指定あるいは入力に従って、認識対象をセマンティックモデル情報260における構成要素の一つとして定義する。
また、プロセッサ230は、認識対象を認識すべき認識センサ15の位置、すなわち、特定位置PXをセマンティックモデル情報260における構成要素(オブジェクト)の一つとして定義する。例えば、認識対象が信号機である場合、特定位置PXは信号機の手前の一定範囲である。特定位置PXは、認識対象を認識すべき第1物体10の位置と、第1物体10における認識センサ15の設置位置との組み合わせにより算出されてもよい。例えば、ユーザは、ユーザインタフェース210を用いて、各認識対象毎に特定位置PXの属性情報を入力する。特定位置PXに関する属性情報は、特定位置PXの範囲(位置と形状)を含む。他の例として、プロセッサ230は、各認識対象の種類に基づいて、各認識対象毎に特定位置PXの属性情報を自動的に計算してもよい。このようにして、プロセッサ230は、認識対象毎の特定位置PXをセマンティックモデル情報260における構成要素の一つとして定義する。
ステップS220において、プロセッサ230は、特定空間SXをセマンティックモデル情報260における構成要素(オブジェクト)の一つとして定義する。特定空間SXは、特定位置PXと認識対象との間の空間である。よって、プロセッサ230は、セマンティックモデル情報260における特定位置PXと認識対象に基づいて、特定空間SXを自動的に計算することができる。そして、プロセッサ230は、計算した特定空間SXをセマンティックモデル情報260における構成要素の一つとして追加する。特定空間SXに関する属性情報は、特定空間SXの範囲(位置と形状)を含む。特定空間SXに関する属性情報は、「この特定空間SXに存在する物体は除去対象であること」を示すメタデータを含んでいてもよい。
ステップS240において、プロセッサ230は、特定空間SXが定義されたセマンティックモデル情報260に基づいて、3次元地図データ100を生成する。より詳細には、プロセッサ230は、特定空間SXが定義されたセマンティックモデル情報260に基づいて、特定空間SXを示す特定空間情報110を生成する。特定空間情報110は、所定エリアAR内の特定空間SXの位置を示す。また、特定空間情報110は、「この特定空間SXに存在する物体は除去対象であること」を示すメタデータを含んでいてもよい。プロセッサ230は、生成した特定空間情報110を既存の3次元地図データ100に追加してもよい。
このようにして、特定空間SXを示す特定空間情報110を含む3次元地図データ100が生成される。セマンティックモデル情報260を利用して特定空間SXを定義することによって、特定空間情報110を含む3次元地図データ100を効率的に生成することが可能である。
2-2-2.第2の例
図10は、本実施の形態に係る地図生成処理の第2の例を示すフローチャートである。図9で示された第1の例と重複する説明は適宜省略する。ステップS210及びS220は、第1の例の場合と同様である。
ステップS230において、プロセッサ230は、特定周辺空間SYをセマンティックモデル情報260における構成要素(オブジェクト)の一つとして定義する。特定周辺空間SYは、特定空間SXの周囲の有限の空間である(図6参照)。例えば、特定周辺空間SYは、特定空間SXの外表面から一定距離以内の空間である。プロセッサ230は、セマンティックモデル情報260における特定空間SXに基づいて、特定周辺空間SYを自動的に計算することができる。あるいは、ユーザが、ユーザインタフェース210を用いて、特定周辺空間SYを指定してもよい。そして、プロセッサ230は、特定周辺空間SYをセマンティックモデル情報260における構成要素の一つとして追加する。特定周辺空間SYに関する属性情報は、特定周辺空間SYの範囲(位置と形状)を含む。特定周辺空間SYに関する属性情報は、「この特定周辺空間SYに存在する物体は除去対象候補であること」を示すメタデータを含んでいてもよい。
ステップS240Aにおいて、プロセッサ230は、特定空間情報110及び特定周辺空間情報120を含む3次元地図データ100を生成する。特定空間情報110については、上記の第1の例の場合と同様である。プロセッサ230は、特定周辺空間SYが定義されたセマンティックモデル情報260に基づいて、特定周辺空間SYを示す特定周辺空間情報120を生成する。特定周辺空間情報120は、所定エリアAR内の特定周辺空間SYの位置を示す。また、特定周辺空間情報120は、「この特定周辺空間SYに存在する物体は除去対象候補であること」を示すメタデータを含んでいてもよい。プロセッサ230は、生成した特定周辺空間情報120を既存の3次元地図データ100に追加してもよい。
このようにして、特定空間情報110及び特定周辺空間情報120を含む3次元地図データ100が生成される。セマンティックモデル情報260を利用して特定空間SX及び特定周辺空間SYを定義することによって、特定空間情報110及び特定周辺空間情報120を含む3次元地図データ100を効率的に生成することが可能である。
2-3.地図更新処理
所定エリアARにおける認識対象(第2物体20)の配置が変更される場合がある。例えば、信号機が新たに設置される。他の例として、既存の信号機の位置が変更される。所定エリアARにおける認識対象の配置が変更された場合、プロセッサ230は、3次元地図データ100を更新する地図更新処理を実行する。具体的には、プロセッサ230は、変更後の認識対象の配置に基づいて、セマンティックモデル情報260における認識対象、特定位置PX、特定空間SX、及び特定周辺空間SYの定義を更新する。そして、更新されたセマンティックモデル情報260に基づいて、3次元地図データ100を更新する。
このように、セマンティックモデル情報260を利用することによって、3次元地図データ100の更新も容易に可能となる。
2-4.センサ視野チェック処理
図11は、特定位置PXに存在する認識センサ15の視野FOVと特定空間SXの一例を示している。特定空間SXの少なくとも一部が視野FOVから逸脱している場合、認識対象(第2物体20)を十分に認識することができず、認識精度が低下する。このような視野不足を予め検知することができれば、認識対象の設置位置を変更したり、認識センサ15の設計を変更したりすることができる。つまり、所定エリアARの設計を改善することができる。従って、特定位置PXに存在する認識センサ15の視野FOVと特定空間SXとを対比することは有用である。この処理を、以下、「センサ視野チェック処理」と呼ぶ。
図12は、センサ視野チェック処理に関連する処理を示すフローチャートである。ステップS210及びS220は、上述の通りである。
ステップS250において、プロセッサ230は、特定位置PXに存在する認識センサ15の視野FOVをセマンティックモデル情報260における構成要素(オブジェクト)の一つとして定義する。例えば、ユーザは、ユーザインタフェース210を用いて、認識センサ15の設置情報と性能情報を入力する。プロセッサ230は、セマンティックモデル情報260における特定位置PX、認識センサ15の設置情報及び性能情報に基づいて、特定位置PXに存在する認識センサ15の視野FOVを算出する。そして、プロセッサ230は、算出された視野FOVをセマンティックモデル情報260における構成要素の一つとして定義する。視野FOVに関する属性情報は、視野FOVの範囲(位置と形状)を含む。
ステップS260において、プロセッサ230は、セマンティックモデル情報260において定義されている特定空間SXと視野FOVとの比較を行う。特定空間SXの少なくとも一部が視野FOVから逸脱している場合(ステップS260;Yes)、処理は、ステップS270に進む。
ステップS270において、プロセッサ230は、視野不足を示す警告情報を特定空間情報110に追加する。プロセッサ230は、視野不足を示す警告情報をユーザインタフェース210を介してユーザ(管理者)に通知してもよい。ユーザ(管理者)は、認識対象の設置位置を変更したり、認識センサ15の設計を変更したりすることができる。つまり、ユーザ(管理者)は、所定エリアARの設計を改善することができる。
3.管理システム
3-1.構成例
図13は、本実施の形態に係る管理システム300の構成例を示すブロック図である。管理システム300は、ユーザインタフェース310、通信装置320、1又は複数のプロセッサ330(以下、単にプロセッサ330と呼ぶ)、及び1又は複数の記憶装置340(以下、単に記憶装置340と呼ぶ)を含んでいる。
ユーザインタフェース310は、ユーザ(管理者)から情報入力を受け付け、また、ユーザに各種情報を提供する。ユーザインタフェース310は、入力装置と出力装置を含んでいる。入力装置としては、キーボード、マウス、タッチパネル、等が例示される。出力装置としては、表示装置、タッチパネル、スピーカ、等が例示される。ユーザインタフェース310は、GUI(Graphical User Interface)であってもよい。
通信装置320は、通信ネットワークを介して外部と通信を行う。
プロセッサ330は、各種処理を実行する。例えば、プロセッサ330は、CPU(Central Processing Unit)を含んでいる。記憶装置340は、各種情報を格納する。記憶装置340としては、揮発性メモリ、不揮発性メモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、等が例示される。プロセッサ330及び記憶装置340の少なくとも一部が、第1物体10(移動体1)に含まれていてもよい。つまり、管理システム300の少なくとも一部の機能が、第1物体10(移動体1)に含まれていてもよい。
管理プログラム350は、プロセッサ330によって実行されるコンピュータプログラムである。プロセッサ330が管理プログラム350を実行することにより、管理システム300の機能が実現される。管理プログラム350は、記憶装置340に格納される。あるいは、管理プログラム350は、コンピュータ読み取り可能な記録媒体に記録されてもよい。管理プログラム350は、ネットワーク経由で提供されてもよい。
管理情報360は、所定エリアARの管理に用いられる情報である。例えば、管理情報360は、所定エリアAR内の障害物30の位置と障害物30の除去履歴との対応関係を示す「除去履歴データベース」を含んでいる。他の例として、管理情報360は、所定エリアAR内の障害物30の位置と障害物30の除去スケジュールとの対応関係を示す「除去スケジュールデータベース」を含んでいてもよい。管理情報360は、記憶装置340に格納される。
認識結果情報370は、特定位置PXに存在する認識センサ15による認識処理の結果を示す情報である。特に、認識結果情報370は、特定位置PXに存在する認識センサ15によって認識される物体の位置を示す。
尚、物体の位置は、絶対座標系における絶対位置であってもよいし、認識センサ15に対する相対位置であってもよい。認識センサ15によって、認識センサ15に対する物体の相対位置を算出することができる。例えば、カメラによって得られる画像IMGを解析することによって、物体を識別し、その物体の相対位置を算出することができる。また、LIDARによって得られる点群情報に基づいて、物体を識別し、その物体の相対位置を取得することができる。その一方で、第1物体10(移動体1)は、自己位置を特定する位置特定機能を備えている。例えば、第1物体10は、GPS(Global Positioning System)センサを備えており、GPSセンサを用いて自己位置を特定する。第1物体10は、認識結果と地図情報に基づくローカライズ処理(Localization)により、自己位置を高精度に特定してもよい。第1物体10における認識センサ15の設置位置は既知情報である。よって、物体の相対位置と絶対位置との間の変換が可能である。以下の説明においては、物体の相対位置と絶対位置を等価なものとして扱う。特定空間SXについても同様である。
3次元地図データ100は、上述の地図生成システム200から提供される。例えば、プロセッサ330は、通信装置320を介して、地図生成システム200から3次元地図データ100を取得する。他の例として、地図生成システム200の機能が管理システム300に含まれる場合、プロセッサ330は、3次元地図データ100を生成する。得られた3次元地図データ100は、記憶装置340に格納される。更に、プロセッサ330は、3次元地図データ100を記憶装置340から読み出し、以下に説明される「管理処理」を実行する。
3-2.管理処理
3-2-1.第1の例
図14は、本実施の形態に係る管理処理の第1の例を示すフローチャートである。
ステップS310において、プロセッサ330は、特定位置PXに存在する認識センサ15による認識処理の結果を示す認識結果情報370を取得する。
ステップS320において、プロセッサ330は、3次元地図データ100を記憶装置340から読み出す。3次元地図データ100は、特定空間SXを示す特定空間情報110を含んでいる。プロセッサ330は、3次元地図データ100と認識結果情報370とを対比し、3次元地図データ100における特定空間SXに含まれない物体が認識結果情報370における特定空間SXに含まれているか否かを判定する。3次元地図データ100における特定空間SXに含まれない物体が認識結果情報370における特定空間SXに含まれている場合(ステップS320;Yes)、処理は、ステップS330に進む。それ以外の場合(ステップS320:No)、図14に示される処理は終了する。
ステップS330において、プロセッサ330は、3次元地図データ100における特定空間SXには含まれないが認識結果情報370における特定空間SXに含まれている当該物体を、除去対象(障害物30)として検知する。
ステップS340において、プロセッサ330は、ユーザインタフェース310を介して推奨情報を管理者に通知する。推奨情報は、ステップS330において検知された除去対象(障害物30)を除去することを推奨する。推奨情報は、カメラによって得られた画像IMGを含んでいてもよい。画像IMGは、認識結果情報370に含まれている。推奨情報は、画像IMG中の除去対象(障害物30)を指し示していてもよい。推奨情報は、画像IMG中の除去対象(障害物30)を強調して示していてもよい。推奨情報を見た管理者は、障害物30を即座に除去することを検討することができる。
ステップS350において、プロセッサ330は、障害物30を即座に除去するスケジュールを作成してもよい。プロセッサ330は、作成したスケジュールに基づいて、管理情報360(除去スケジュールデータベース)を更新する。管理者は、除去スケジュールデータベースで示されるスケジュールに従って、障害物30を除去する。障害物30の除去が完了すると、プロセッサ330は、管理情報360(除去履歴データベース)を更新する。
以上に説明されたように、特定空間SXを示す特定空間情報110を含む3次元地図データ100を利用することによって、認識処理を阻害する障害物30を検知することが可能となる。特に、特定空間SXは、認識対象とその認識対象を認識すべき特定位置PXとの位置関係を考慮して定義されている。従って、認識処理を実際に阻害する障害物30が除去対象として検知される。逆に、特定空間SXの外に存在し認識処理に影響を与えない物体は、除去対象として検知されない。言い換えれば、特定空間SXの外に存在する物体が除去対象として検知されることが禁止される。これにより、除去対象の誤検知が抑制される。
また、認識センサ15により得られる実際の認識結果情報370と3次元地図データ100との対比に基づいて障害物30が検知される。従って、認識処理を阻害する障害物30を適切なタイミングで検知することが可能となる。このことも、除去対象の誤検知の抑制に寄与する。また、予知が難しい障害物30(例:飛来物)の発生をほぼリアルタイムで検知することが可能となる。
このように、本実施の形態によれば、認識処理を阻害する障害物30(すなわち、本当の除去対象)を精度良く検知することが可能となる。その結果、認識処理にとって良好な環境を効率的に確保することが可能となる。すなわち、所定エリアARの環境を効率的に管理することが可能となる。
3-2-2.第2の例
図15は、本実施の形態に係る管理処理の第2の例を示すフローチャートである。
ステップS310において、プロセッサ330は、特定位置PXに存在する認識センサ15による認識処理の結果を示す認識結果情報370を取得する。
ステップS360において、プロセッサ330は、3次元地図データ100を記憶装置340から読み出す。3次元地図データ100は、特定周辺空間SYを示す特定周辺空間情報120を含んでいる。プロセッサ330は、3次元地図データ100と認識結果情報370とを対比し、3次元地図データ100における特定周辺空間SYに含まれない物体が認識結果情報370における特定周辺空間SYに含まれているか否かを判定する。3次元地図データ100における特定周辺空間SYに含まれない物体が認識結果情報370における特定周辺空間SYに含まれている場合(ステップS360;Yes)、処理は、ステップS370に進む。それ以外の場合(ステップS360:No)、図15に示される処理は終了する。
ステップS370において、プロセッサ330は、3次元地図データ100における特定周辺空間SYには含まれないが認識結果情報370における特定周辺空間SYに含まれている当該物体を、除去対象候補として検知する。除去対象候補は、近い将来に除去対象となり得る。
ステップS380において、プロセッサ330は、ユーザインタフェース310を介して注意情報を管理者に通知する。注意情報は、除去対象候補の存在を知らせる。注意情報は、カメラによって得られた画像IMGを含んでいてもよい。画像IMGは、認識結果情報370に含まれている。注意情報は、画像IMG中の除去対象候補を指し示していてもよい。注意情報は、画像IMG中の除去対象候補を強調して示していてもよい。注意情報は、除去対象候補を除去するスケジュールの作成を管理者に提案してもよい。注意情報を見た管理者は、除去対象候補を除去するスケジュールを検討することができる。
ステップS390において、プロセッサ330は、除去対象候補を除去するスケジュールを作成してもよい。例えば、プロセッサ330は、所定エリアARを複数のゾーンに分割し、ゾーン毎に除去対象候補の数をカウントする。そして、プロセッサ330は、除去対象候補がより多いゾーンに対して除去作業がより優先的に実施されるようにスケジュールを作成する。他の例として、プロセッサ330は、管理情報360(除去履歴データベース)を参照して、前回の除去作業のタイミングを把握する。そして、プロセッサ330は、前回の除去作業からの経過時間がより長いゾーンに対して除去作業がより優先的に実施されるようにスケジュールを作成してもよい。プロセッサ330は、作成したスケジュールに基づいて、管理情報360(除去スケジュールデータベース)を更新する。管理者は、除去スケジュールデータベースで示されるスケジュールに従って、障害物30を除去する。障害物30の除去が完了すると、プロセッサ330は、管理情報360(除去履歴データベース)を更新する。
以上に説明されたように、特定周辺空間SYを示す特定周辺空間情報120を含む3次元地図データ100を利用することによって、除去対象候補を精度良く検知することが可能となる。また、除去対象候補を検知することにより、除去作業のスケジューリングを効率的に行うことが可能となる。よって、認識処理にとって良好な環境を効率的に確保することが可能となる。すなわち、所定エリアARの環境を効率的に管理することが可能となる。
3-2-3.第3の例
図14で示された第1の例と図15で示された第2の例の組み合わせも可能である。
4.移動体への情報提供
図16は、移動体1への情報提供を説明するためのブロック図である。管理システム300は、移動体1に通知情報INFを提供する。例えば、通知情報INFは、認識処理を阻害する障害物30の位置を含む。その障害物30が除去されるまでの期間、移動体1は、障害物30を避けるように目標ルートを作成することができる。これにより、移動体1が認識対象を正確に認識できずにスタックすることを未然に防ぐことが可能となる。
1 移動体
10 第1物体
15 認識センサ
20 第2物体
30 障害物
100 3次元地図データ
110 特定空間情報
120 特定周辺空間情報
200 地図生成システム
210 ユーザインタフェース
220 通信装置
230 プロセッサ
240 記憶装置
250 地図生成プログラム
260 セマンティックモデル情報
300 管理システム
310 ユーザインタフェース
320 通信装置
330 プロセッサ
340 記憶装置
350 管理プログラム
360 管理情報
370 認識結果情報
AR 所定エリア
PX 特定位置
SX 特定空間
SY 特定周辺空間

Claims (12)

  1. 所定エリアの環境を管理する管理システムであって、
    1又は複数のプロセッサと、
    前記所定エリアの3次元地図データを格納する1又は複数の記憶装置と
    を備え、
    前記所定エリアには、周囲の状況を認識する認識センサと、特定位置に存在する前記認識センサによって認識されるべき認識対象とが存在し、
    前記3次元地図データは、前記特定位置と前記認識対象との間の空間である特定空間を示す特定空間情報を含み、
    前記1又は複数のプロセッサは、
    前記特定位置に存在する前記認識センサによる認識結果を示す認識結果情報を取得し、
    前記3次元地図データにおける前記特定空間には含まれない物体が前記認識結果情報における前記特定空間に含まれているか否かを判定し、
    前記3次元地図データにおける前記特定空間には含まれないが前記認識結果情報における前記特定空間に含まれている前記物体を除去対象として検知する
    ように構成されている
    管理システム。
  2. 請求項1に記載の管理システムであって、
    前記1又は複数のプロセッサは、更に、前記特定空間の外に存在する物体を前記除去対象として検知することを禁止する
    管理システム。
  3. 請求項1又は2に記載の管理システムであって、
    前記1又は複数のプロセッサは、更に、検知された前記除去対象を除去することを推奨する推奨情報を管理者に通知する
    管理システム。
  4. 請求項3に記載の管理システムであって、
    前記認識センサは、カメラを含み、
    前記認識結果情報は、前記カメラにより得られる画像を含み、
    前記推奨情報は、前記画像を含む
    管理システム。
  5. 請求項1乃至4のいずれか一項に記載の管理システムであって、
    前記3次元地図データは、更に、前記特定空間の周囲の特定周辺空間を示す特定周辺空間情報を含み、
    前記1又は複数のプロセッサは、更に、
    前記3次元地図データにおける前記特定周辺空間には含まれない物体が前記認識結果情報における前記特定周辺空間に含まれているか否かを判定し、
    前記3次元地図データにおける前記特定周辺空間には含まれないが前記認識結果情報における前記特定周辺空間に含まれている前記物体を、除去対象候補として検知する
    ように構成されている
    管理システム。
  6. 請求項5に記載の管理システムであって、
    前記1又は複数のプロセッサは、更に、検知された前記除去対象候補を除去するスケジュールを作成する、あるいは、前記スケジュールの作成を管理者に提案する
    管理システム。
  7. 請求項1乃至6のいずれか一項に記載の管理システムであって、
    前記1又は複数の記憶装置は、更に、前記所定エリアを構成する構成要素毎に属性情報を示すセマンティックモデル情報を格納し、
    前記1又は複数のプロセッサは、更に、
    前記認識対象を前記セマンティックモデル情報における前記構成要素の一つとして定義し、
    前記特定位置を前記セマンティックモデル情報における前記構成要素の一つとして定義し、
    前記認識対象と前記特定位置に基づいて、前記特定空間を前記セマンティックモデル情報における前記構成要素の一つとして定義し、
    前記特定空間が定義された前記セマンティックモデル情報に基づいて、前記特定空間情報を含む前記3次元地図データを生成する
    ように構成されている
    管理システム。
  8. 請求項1乃至7のいずれか一項に記載の管理システムであって、
    前記認識センサは、前記所定エリア内を移動する移動体に搭載されている
    管理システム。
  9. 所定エリアの3次元地図データを生成する地図生成システムであって、
    1又は複数のプロセッサと、
    前記所定エリアを構成する構成要素毎に属性情報を示すセマンティックモデル情報を格納する1又は複数の記憶装置と
    を備え、
    前記所定エリアには、周囲の状況を認識する認識センサと、特定位置に存在する前記認識センサによって認識されるべき認識対象とが存在し、
    前記1又は複数のプロセッサは、
    前記認識対象を前記セマンティックモデル情報における前記構成要素の一つとして定義し、
    前記特定位置を前記セマンティックモデル情報における前記構成要素の一つとして定義し、
    前記認識対象と前記特定位置に基づいて、前記特定位置と前記認識対象との間の空間である特定空間を前記セマンティックモデル情報における前記構成要素の一つとして定義し、
    前記特定空間が定義された前記セマンティックモデル情報に基づいて、前記特定空間を示す特定空間情報を含む前記3次元地図データを生成する
    ように構成されている
    地図生成システム。
  10. 請求項9に記載の地図生成システムであって、
    前記所定エリアにおける前記認識対象の配置が変更された場合、前記1又は複数のプロセッサは、前記セマンティックモデル情報における前記認識対象、前記特定位置、及び前記特定空間の定義を更新し、それにより前記3次元地図データを更新する
    地図生成システム。
  11. 請求項9又は10に記載の地図生成システムであって、
    前記1又は複数のプロセッサは、更に、
    前記特定位置に存在する前記認識センサの視野を前記セマンティックモデル情報における前記構成要素の一つとして定義し、
    前記特定位置に存在する前記認識センサの前記視野から前記特定空間の少なくとも一部が逸脱している場合、視野不足を示す警告情報を前記特定空間情報に追加する、あるいは、前記警告情報を管理者に通知する
    ように構成されている
    地図生成システム。
  12. 所定エリアの3次元地図データであって、
    前記所定エリアには、周囲の状況を認識する認識センサと、特定位置に存在する前記認識センサによって認識されるべき認識対象とが存在し、
    前記3次元地図データは、前記特定位置と前記認識対象との間の空間である特定空間を示す特定空間情報を含むデータ構造を有し、
    認識結果情報は、前記特定位置に存在する前記認識センサによる認識結果を示し、
    前記3次元地図データは、前記所定エリアの環境を管理する管理システムによって読み出され、
    前記3次元地図データにおける前記特定空間には含まれない物体が前記認識結果情報における前記特定空間に含まれているか否かが前記管理システムによって判定され、
    前記3次元地図データにおける前記特定空間には含まれないが前記認識結果情報における前記特定空間に含まれている前記物体は、前記管理システムによって除去対象として検知される
    3次元地図データ。
JP2022054014A 2022-03-29 2022-03-29 管理システム、地図生成システム、及び3次元地図データ Pending JP2023146690A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022054014A JP2023146690A (ja) 2022-03-29 2022-03-29 管理システム、地図生成システム、及び3次元地図データ
US18/174,845 US20230316774A1 (en) 2022-03-29 2023-02-27 Management system, map generation system, and non-transitory computer-readable recording medium
CN202310277729.2A CN116895063A (zh) 2022-03-29 2023-03-21 管理系统和地图生成系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022054014A JP2023146690A (ja) 2022-03-29 2022-03-29 管理システム、地図生成システム、及び3次元地図データ

Publications (1)

Publication Number Publication Date
JP2023146690A true JP2023146690A (ja) 2023-10-12

Family

ID=88193240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022054014A Pending JP2023146690A (ja) 2022-03-29 2022-03-29 管理システム、地図生成システム、及び3次元地図データ

Country Status (3)

Country Link
US (1) US20230316774A1 (ja)
JP (1) JP2023146690A (ja)
CN (1) CN116895063A (ja)

Also Published As

Publication number Publication date
CN116895063A (zh) 2023-10-17
US20230316774A1 (en) 2023-10-05

Similar Documents

Publication Publication Date Title
US20210364319A1 (en) Infrastructure mapping and layered output
CN110832474B (zh) 更新高清地图的方法
US9915951B2 (en) Detection of overhanging objects
JP6974630B2 (ja) レーン妨害物を推測するシステム及び方法
US20150316387A1 (en) Detailed map format for autonomous driving
US20210001891A1 (en) Training data generation for dynamic objects using high definition map data
US20230102802A1 (en) Map change detection
US20220026220A1 (en) Map updates based on data captured by an autonomous vehicle
US20160180171A1 (en) Background map format for autonomous driving
JP2023106536A (ja) 画像分析に基づく車両ナビゲーションのためのシステム
KR102241584B1 (ko) 응급 차량을 실시간으로 검출하고, 응급 차량으로 인해 발생될 것으로 예상되는 상황에 대처하기 위한 주행 경로를 플래닝하는 방법 및 장치
JP2022016460A (ja) 劣化地物特定装置、劣化地物特定システム、劣化地物特定方法、劣化地物特定プログラム及び劣化地物特定プログラムを記録したコンピュータ読み取り可能な記録媒体
JPWO2018221454A1 (ja) 地図作成装置、制御方法、プログラム及び記憶媒体
US11913791B2 (en) Crosswalk detection
JP2018105967A (ja) 地図データ構造及び障害物判定装置
US20200086857A1 (en) Information processing device, vehicle control device, and mobile object control method
US11970185B2 (en) Data structure for storing information relating to an environment of an autonomous vehicle and methods of use thereof
KR101394425B1 (ko) 지도 데이터 유지보수 장치 및 방법
JP2023146690A (ja) 管理システム、地図生成システム、及び3次元地図データ
JP7488219B2 (ja) 地図情報判定装置、地図情報判定用コンピュータプログラム及び地図情報判定方法
JP2019168607A (ja) 地図データ構造、情報処理装置及び地図データ生成装置
CN109901589B (zh) 移动机器人控制方法和装置
EP3791241B1 (en) Method for control of an autonomous vehicle with internal delays
JP2019168985A (ja) 制御装置、制御方法、プログラム及び記憶媒体
JP7261892B2 (ja) 占有格子地図管理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231130