JP2020087445A - 交通環境を感知する方法および装置 - Google Patents

交通環境を感知する方法および装置 Download PDF

Info

Publication number
JP2020087445A
JP2020087445A JP2019196037A JP2019196037A JP2020087445A JP 2020087445 A JP2020087445 A JP 2020087445A JP 2019196037 A JP2019196037 A JP 2019196037A JP 2019196037 A JP2019196037 A JP 2019196037A JP 2020087445 A JP2020087445 A JP 2020087445A
Authority
JP
Japan
Prior art keywords
information
local
object information
position data
external
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019196037A
Other languages
English (en)
Inventor
明達 塗
Ming-Ta Tu
明達 塗
秉達 蔡
Ping-Ta Tsai
秉達 蔡
宗賢 楊
Chung-Hsien Yang
宗賢 楊
安凱 鄭
An-Kai Jeng
安凱 鄭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Technology Research Institute ITRI
Original Assignee
Industrial Technology Research Institute ITRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from TW108116665A external-priority patent/TWI717734B/zh
Application filed by Industrial Technology Research Institute ITRI filed Critical Industrial Technology Research Institute ITRI
Publication of JP2020087445A publication Critical patent/JP2020087445A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096783Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a roadside individual element

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】欠点を最小限に抑え、運転の安全性を改善する交通環境を感知する方法および装置を提供する。【解決手段】車両の運転安全性を向上させることができる電子装置に用いられる交通環境を感知する方法は、電子装置の第1の感知範囲内の環境を感知することにより、第1の感知範囲内のローカルオブジェクトの第1の地理的分布情報を少なくとも含むローカルオブジェクト情報を生成するステップ、少なくとも1つのノードによって送信された、ノードの第2の感知範囲内の外部オブジェクトの少なくとも第2の地理的分布情報を含む外部オブジェクト情報を受信するステップ、およびローカルオブジェクト情報と外部オブジェクト情報に従ってオブジェクト統合情報を生成するステップを含む。【選択図】図3

Description

本発明は、交通環境を感知する方法および装置に関するものであり、特に、路側機(RSU)を用いて交通環境を検知する方法および装置に関するものである。
如何にして運転の安全性を改善するかが、自動車産業にとって常に関心を集めてきたことである。多くのメーカーが、車両の周囲の障害物を検出して道路状況をドライバーに知らせるためのビデオカメラ、レーダーイメージング、LIDAR、および超音波センサを開発している。
しかしながら、車両に搭載されたカメラまたはレーダーは、1つまたは複数の特定の方向のエリアのみを監視することができる。車両が方向転換しているとき、または死角にあるとき、カメラは他の車両の位置を撮像することができず、且つレーダー監視では、障害物による障害により、未知の死角領域にある車両の位置に関する情報を取得することができない。このように、カメラまたはレーダーが感知できない空白の領域は、車両の安全性を脅かすか、または衝突のリスクをもたらすため、車両の安全性を低下させる可能性がある。
これに鑑み、欠点を最小限に抑え、運転の安全性を改善する交通環境を感知する方法および装置を提供する。
従って、本開示の主な目的は、欠点を最小限に抑え、運転の安全性を改善する交通環境を感知する方法および装置を提供する。
例示的な実施形態において、交通環境を感知する本発明に係る方法が開示される。前記方法は、電子装置の第1の感知範囲内の環境を感知することにより、第1の感知範囲内のローカルオブジェクトの第1の地理的分布情報を少なくとも含むローカルオブジェクト情報を生成するステップ、少なくとも1つのノードによって送信された、ノードの第2の感知範囲内の外部オブジェクトの少なくとも第2の地理的分布情報を含む外部オブジェクト情報を受信するステップ、およびローカルオブジェクト情報と外部オブジェクト情報に従ってオブジェクト統合情報を生成するステップを含む。
いくつかの例示的な実施形態では、ローカルオブジェクト情報は、電子装置の識別子および電子装置の第1の絶対位置データを更に含み、外部オブジェクト情報は、ノードの識別子とノードの第2の絶対位置データを更に含む。
いくつかの例示的な実施形態では、第1の地理的分布情報は、電子装置に対するローカルオブジェクトの相対位置データを含み、第2の地理的分布情報は、ノードに対する外部オブジェクトの相対位置データを含む。
いくつかの例示的な実施形態では、ローカルオブジェクト情報と外部オブジェクト情報に従ってオブジェクト統合情報を生成するステップは、第1の絶対位置データ、第2の絶対位置データ、第1の地理的分布情報、および第2の地理的分布情報に従って、ローカルオブジェクトの絶対位置データと外部オブジェクトの絶対位置データを取得するステップ、ローカルオブジェクトの絶対位置データが外部オブジェクトの絶対位置データと同じであるかどうかを判定するステップ、およびローカルオブジェクトの絶対位置データが外部オブジェクトの絶対位置データと同じでないとき、ローカルオブジェクト情報と外部オブジェクト情報を統合してオブジェクト統合情報を生成するステップを含む。
いくつかの例示的な実施形態では、ローカルオブジェクト情報は、ローカルタイムスタンプを更に含み、外部オブジェクト情報は、外部タイムスタンプを更に含む。
いくつかの例示的な実施形態では、ローカルオブジェクト情報と外部オブジェクト情報に従ってオブジェクト統合情報を生成するステップは、ローカルタイムスタンプと外部タイムスタンプの差が更新期間より大きいかどうかを判定するステップ、および差が更新期間より大きいとき、外部オブジェクト情報を削除するステップを含む。
いくつかの例示的な実施形態では、更新期間は、電子装置によってローカルオブジェクト情報を再生成する時間間隔である。
いくつかの例示的な実施形態では、前記電子装置は車両装置である。
いくつかの例示的な実施形態では、電子装置は、路側機(RSU)であり、前記方法は、オブジェクト統合情報をブロードキャストするステップを更に含む。
いくつかの例示的な実施形態では、前記ノードは、路側機(RSU)、または車両装置である。
いくつかの例示的な実施形態では、交通環境を感知する装置が提供される。交通環境を感知する装置は、1つ以上のプロセッサと、1つ以上のコンピュータ可読命令を記憶する1つ以上のコンピュータ記憶媒体と、を含む。プロセッサは、コンピュータ記憶媒体を駆動して次のタスクを実行するように構成され、装置の第1の感知範囲内の環境を感知することによってローカルオブジェクト情報を生成し、ローカルオブジェクト情報は、第1の感知範囲内のローカルオブジェクトの第1の地理的分布情報を少なくとも含み、少なくとも1つのノードによって送信された外部オブジェクト情報を受信し、外部オブジェクト情報は、ノードの第2の感知範囲内の外部オブジェクトの少なくとも第2の地理的分布情報を含み、且つローカルオブジェクト情報と外部オブジェクト情報に従ってオブジェクト統合情報を生成する。
本開示で提供された交通環境を感知する方法および装置を介して、車両装置は、RSUでつなぎ合わされたオブジェクト統合情報を取得して、複数の方向の死角領域を取得し、車両の運転安全性を向上させることができる。
図1Aは、本発明の例示的な実施形態による交通環境を感知するシステムを示す概略図である。 図1Bは、本発明の例示的な実施形態による交通環境を感知するシステムを示す概略図である。 図2は、本発明の例示的な実施形態による交通環境を感知する方法を示すフローチャートである。 図3は、本発明の例示的な実施形態による、電子装置がローカルオブジェクト(local object)情報および外部オブジェクト(external object)情報に従ってオブジェクト統合(object integration)情報を生成することを示す方法のフローチャートである。 図4Aは、本発明の例示的な実施形態による、オブジェクトを感知する車両装置を示す概略図である。 図4Bは、本発明の例示的な実施形態による、車両装置がオブジェクト統合情報を用いてオブジェクトを感知することを示す概略図である。 図5は、本発明の例示的な実施形態を実施する例示的な動作環境を示す図である。
本発明の様々な態様は、添付図面を参照して、以下において十分に説明される。しかしながら、本発明は、多くの異なる形態で実施することができ、本開示を通して提示される任意の特定の構造又は機能に限定されるものと解釈されるべきではない。むしろ、これらの態様は、本開示が十分且つ完全であり、本発明の範囲を当業者に十分に伝えるように提供されている。本明細書の教示に基づいて、当業者は、本発明の範囲が、本開示を通して提示される態様が独立して実施されるか又は他の態様と組み合わせて実施されるかに関わらず、本明細書に開示された任意の態様をカバーするものであることを認識するべきである。例えば、本明細書で説明された任意の数の態様を用いて、装置を実装してもよいし、方法を実施してもよい。更に、本発明の範囲は、本明細書で説明された開示の様々な態様に加えて、又は、これ以外の他の構造、機能、若しくは、構造及び機能を用いて実施される装置又は方法を包含することを意図している。本明細書に開示された本発明の任意の態様は、請求項の1つ以上の構成要素によって実現され得ることを理解されたい。
「例示的(exemplary)」という用語は、本明細書では、「例(example)、事例(instance)又は例示(illustration)としての役割を果たす」ことを意味するために用いられる。本明細書で「例示的」と記載されている任意の態様は、必ずしも他の態様よりも好ましい又は有利であると解釈されるべきではない。更に、いくつかの図面を通して同様の参照番号は同様の構成要素を表し、説明において特に断らない限り、「或る」及び「この」という用語は複数の参照を含む。
ある構成要素が他の構成要素に「接続されている(connected)」又は「結合されている(coupled)」と言及されている場合、それは他の要素に直接接続又は結合されてもよいし、介在要素が存在してもよいことを理解されたい。これに対し、構成要素が他の構成要素に「直接接続されている」又は「直接結合されている」と言及されている場合、介在要素は存在しない。構成要素間の関係を説明するために用いられる他の単語は、同様の態様(例えば、「〜の間に(between)」に対する「直接〜の間に(directly between)」、「隣接して(adjacent)」に対する「直接隣接して(directly adjacent)」等)で解釈されるべきである。
図1A〜図1Bは、本開示の例示的な実施形態による交通環境を感知するシステム100を示す概略図である。詳細には、交通環境を感知するシステム100は、車両−路側間(V2R)通信に基づくシステムである。図1Aに示されるように、交通環境を感知するシステム100は、少なくとも1つの路側機(RSU)RSU110A、110B、110C、および車両装置120を含むことができる。RSU110A、110B、および110Cは、交差点または道路端などの固定位置に配置され、1つまたは複数のモビリティ機能を有する車両装置120と通信し、他の路側機と相互に通信する。例えば、いくつかの例示的な実施形態では、RSU110A、110B、および110Cは、車両装置120とV2R通信ネットワークを形成して互いに通信することができる。車両装置120は、道路を走行する車両であることができ、車両は、車載装置(OBU)を備えているか、通信機能を有する。
図1Bに示されるように、RSU110A、110B、および110Cのそれぞれは、センサ(例えば、カメラ、レーダー、または光センサ)によって各RSUの特定の感知範囲内の環境を定期的に感知し、ローカルオブジェクト情報を生成することができ、車両装置120もセンサ(例えば、カメラ、レーダー、または光センサ)を用いて、車両装置120の特定の感知範囲内の環境を定期的に感知し、ローカルオブジェクト情報を生成することができる。
RSU110Aを例にとると、RSU110Aは、RSU110Aの第1の感知範囲110a内の環境を感知し、第1のローカルオブジェクト情報を生成することができる。第1のローカルオブジェクト情報は、RSU110Aの識別子と絶対位置データ、ローカルタイムスタンプ、および第1の感知範囲110a内のローカルオブジェクトA1、A2、A3および130の第1の地理的分布情報を含む。ローカルタイムスタンプは、第1のローカルオブジェクト情報が生成される時間である。図1Bに示されるように、RSU110Aのローカルタイムスタンプは、$GPGGA055730.367である。第1の地理的分布情報は、RSU110Aに対するローカルオブジェクトA1、A2、A3および130の相対位置データを含む。また、第1のローカルオブジェクト情報は、感知された全てのオブジェクト(非クリティカル、不完全、完全なオブジェクトを含む)の3D情報を更に含むことができる。例えば、各オブジェクトは直方体であり、直方体は8つの頂点、例えばP1、P2、...、P8がある。各オブジェクトの3D情報は、8つの頂点(P1、P2、...、P8)の3次元座標で構成される。図1Bに示されるように、オブジェクト130はRSU110Aに対して不完全なオブジェクトである。そのため、図1Bに示されるように、オブジェクト130は、第1のローカルオブジェクト情報では部分的にだけ示される。
RSU110Bを例にとると、RSU110Bは、RSU110Bの第2の感知範囲110b内の環境を感知し、第2のローカルオブジェクト情報を生成することができる。第2のローカルオブジェクト情報は、RSU110Bの識別子と絶対位置データ、ローカルタイムスタンプ、および第2の感知範囲110b内のローカルオブジェクトB1、B2、B3および130の第2の地理的分布情報を含む。ローカルタイムスタンプは、第1のローカルオブジェクト情報が生成される時間である。図1Bに示されるように、RSU110Bのローカルタイムスタンプは、$GPGGA055730.368である。第2の地理的分布情報は、RSU110Bに対するローカルオブジェクトB1、B2、B3および130の相対位置データを含む。図1Bに示されるように、オブジェクト130はRSU110Bに対して不完全なオブジェクトである。そのため、図1Bに示されるように、オブジェクト130は、第2のローカルオブジェクト情報では部分的にだけ示される。
RSU110Cを例にとると、RSU110Cは、RSU110Cの第3の感知範囲110c内の環境を感知し、第3のローカルオブジェクト情報を生成することができる。第3のローカルオブジェクト情報は、RSU110Cの識別子と絶対位置データ、ローカルタイムスタンプ、および第3の感知範囲110c内のローカルオブジェクト130、133、および134の第1の地理的分布情報を含む。ローカルタイムスタンプは、第1のローカルオブジェクト情報が生成される時間である。図1Bに示されるように、RSU110Cのローカルタイムスタンプは、$GPGGA055730.369である。第3の地理的分布情報は、RSU110Cに対するローカルオブジェクト130、133、および134の相対位置データを含む。図1Bに示されるように、オブジェクト130はRSU110Cに対して不完全なオブジェクトである。そのため、図1Bに示されるように、オブジェクト130は、第3のローカルオブジェクト情報では部分的にだけ示される。
車両装置120を例にとると、車両装置120は、車両装置120の第4の感知範囲120a内の環境を感知し、第4のローカルオブジェクト情報を生成することができる。第4のローカルオブジェクト情報は、車両装置120の識別子と絶対位置データ、ローカルタイムスタンプ、および第4の感知範囲120a内のローカルオブジェクト131および132の第4の地理的分布情報を含む。ローカルタイムスタンプは、第1のローカルオブジェクト情報が生成される時間である。図1Bに示されるように、車両装置120のローカルタイムスタンプは、$GPGGA055730.369である。第3の地理的分布情報は、車両装置120に対するローカルオブジェクト131および132の相対位置データを含む。
各装置(RSU110A、110B、110C、または車両装置120)が各自のローカルオブジェクト情報を生成したとき、各装置はローカルオブジェクト情報をブロードキャストする。例示的には、各装置(RSU110A、110B、110Cまたは車両装置120)によって生成されたそれぞれのオブジェクト情報は、ローカルオブジェクト情報と呼ばれる。装置がオブジェクト情報をブロードキャストしている他の装置から受信したオブジェクト情報は、外部オブジェクト情報と呼ばれる。例えば、RSU110Aは、第1の最初のローカルオブジェクト情報を生成してブロードキャストする。RSU110Bは、RSU110Aによってブロードキャストされた第1のローカルオブジェクト情報を受信する。RSU110Bでは、第1のローカルオブジェクト情報は、外部オブジェクト情報とみなされる。RSU110Bによって生成されたオブジェクト情報は、ローカルオブジェクト情報と呼ばれる。
装置(RSU110A、110B、110C、または車両装置120の中の1つ)が、他の装置によってブロードキャストされた外部オブジェクト情報を受信したとき、装置は、ローカルオブジェクト情報と外部オブジェクト情報に従ってオブジェクト統合情報を生成し、オブジェクト統合情報をブロードキャストすることができる。例示的な実施形態では、オブジェクト統合情報は、フィールドを更に含むことができ、フィールドは、オブジェクト統合情報がどの装置のオブジェクト情報によって統合されるかを記録する。
例示的な実施形態では、車両装置は、車両装置の進行方向をブロードキャストすることができる。RSUが進行方向を受信した後、RSUは、ローカルオブジェクトが車両装置の進行方向に沿った空きスペースにあるかどうかを判定することができる。ローカルオブジェクトの一部が空きスペース内にないとき、RSUは空きスペース内にないオブジェクトを非クリティカルオブジェクトとしてマークすることができる。例えば、図1A〜図1Bに示されるように、RSU110Aは、ローカルオブジェクトA1、A2、およびA3を非クリティカルオブジェクトとしてマークすることができる。ローカルオブジェクトの一部が空きスペース内にあるとき、RSUは空きスペース内のオブジェクトを完全なオブジェクトまたは不完全なオブジェクトとしてマークすることができる。例えば、図1A〜図1Bに示されるように、RSU110Cは、RSU110Cは、ローカルオブジェクト130を不完全なオブジェクトとしてマークし、ローカルオブジェクト133および134を完全なオブジェクトとしてマークすることができる。
図1A〜図1Bに示されるRSU110A、110B、110C、および車両装置120は、交通環境を感知する1つの適切なシステム100のアーキテクチャの一例であることを理解されたい。図1A〜1Bに示される各コンポーネントは、任意のタイプの電子装置、例えば、図5に示されるように説明された電子装置500などを介して実現される。
図2は、本開示の例示的な実施形態による交通環境を感知する方法200を示すフローチャートである。この方法は、図1A〜図1Bに示された交通環境を検知するシステム100内の電子装置(RSU110A、110B、110C、および車両装置120の中の1つ)に実施されることができる。
ステップS205では、電子装置は、電子装置の第1の感知範囲内の環境を感知することによって、ローカルオブジェクト情報を生成する。ローカルオブジェクト情報は、第1の感知範囲内のローカルオブジェクトの第1の地理的分布情報を少なくとも含む。例示的な実施形態では、ローカルオブジェクト情報は、電子装置の識別子、電子装置の第1の絶対位置データ、およびローカルタイムスタンプを更に含み、第1の地理的分布情報は、電子装置に対するローカルオブジェクトの相対位置データを含む。
次いで、ステップS210では、電子装置は、少なくとも1つのノードによって送信された外部オブジェクト情報を受信する。外部オブジェクト情報は、ノードの第2の感知範囲内の外部オブジェクトの少なくとも第2の地理的分布情報を含む。例示的な実施形態では、外部オブジェクト情報は、ノードの識別子、ノードの第2の絶対位置データ、および外部タイムスタンプを更に含み、また、第2の位置分布情報は、ノードに対する外部オブジェクトの相対位置データを含む。
ステップS215では、電子装置は、ローカルオブジェクト情報および外部オブジェクト情報に従ってオブジェクト統合情報を生成する。例示的な実施形態では、電子装置およびノードは、RSUまたは車両装置である。もう1つの例示的な実施形態では、電子装置がRSUであるとき、電子装置は、ステップS215が実行された後、オブジェクト統合情報を更にブロードキャストする。
以下、ステップS215では、電子装置が、如何にしてローカルオブジェクト情報および外部オブジェクト情報に従ってオブジェクト統合情報を生成するかを詳細に説明する。図3は、本開示の例示的な実施形態による、電子装置がローカルオブジェクト情報および外部オブジェクト情報に従ってオブジェクト統合情報を生成することを示す方法300のフローチャートである。
ステップS305では、電子装置は、ローカルタイムスタンプと外部タイムスタンプとの差が更新期間より大きいかどうかを判定する。更新期間は、電子装置によってローカルオブジェクト情報を再生成する時間間隔である。上述の差が更新期間より大きくないとき(ステップS305で「No」)、ステップS310において、電子装置は、第1の絶対位置データ、第2の絶対位置データ、第1の地理的分布情報、および第1の地理的分布情報に従って、ローカルオブジェクトの絶対位置データと外部オブジェクトの絶対位置データとを取得する。具体的には、電子装置は、GPS信号の搬送波位相情報のリアルタイム運動学(RTK)を用いて、電子装置とノード間の座標系を統一し、ローカルオブジェクトの絶対位置データと外部オブジェクトの絶対位置データを取得することができる。
次いで、ステップS315では、電子装置は、ローカルオブジェクトの絶対位置データが外部オブジェクトの絶対位置データと同じであるかどうかを判定する。例示的な実施形態では、ローカルオブジェクトの位置の中心と外部オブジェクトの位置の中心との間の距離が第1の所定値(例えば、0.5メートル)より小さく、且つローカルオブジェクトの高さと外部オブジェクトの高さとの間の高さの差が、第2の所定値(例えば、0.1メートル)より小さいとき、電子装置は、ローカルオブジェクトの絶対位置データが外部オブジェクトの絶対位置データと同じであると判定する。言い換えると、電子装置は、ローカルオブジェクトと外部オブジェクトが同じオブジェクトであると判定する。もう1つの例示的な実施形態では、電子装置も3Dアルゴリズムを用いて、ローカルオブジェクトの絶対位置データが外部オブジェクトの絶対位置データと同じかどうかを判定することができる。例示的な3Dアルゴリズムは、面頂点特徴(surface vertex features)を用いて、ローカルオブジェクトと外部オブジェクト間の継ぎ目(seam)が滑らかかどうかを判定し、分布ヒストグラムの特徴を用いてローカルオブジェクトと外部オブジェクトを比較して、ローカルオブジェクトと外部オブジェクトのデータを2D平面に投影し、凸包(convex hull)を用いてシェルを取得し、継ぎ目が適切かどうかを判定し、ニューラルネットワークにより学習し、クラスタリングを用いて、ローカルオブジェクトと外部オブジェクトが同じグループに属しているかどうかを判定することにより、ローカルオブジェクトと外部オブジェクトが同じオブジェクトであるかどうかを判定することができる。
電子装置が、ローカルオブジェクトの絶対位置データが外部オブジェクトの絶対位置データと同じでないと判定したとき(ステップS315で「NO」)、ステップS320では、電子装置は、ローカルオブジェクト情報と外部オブジェクト情報を統合して、オブジェクト統合情報を生成する。具体的には、電子装置は、ローカルオブジェクト情報と外部オブジェクト情報をつなぎ合わせてオブジェクト統合情報を生成する。オブジェクト統合情報は、電子装置とノードによって感知されたシーンを組み合わせることにより生成された最終情報であり、最終情報は広範囲の最終画像である。
ステップS305に戻り、差が更新期間より大きいとき(ステップS305で「Yes」)、ステップS325では、電子装置は外部オブジェクト情報を削除する。言い換えれば、外部オブジェクト情報は現在の状況に適合しない可能性があるため、電子装置はこの外部オブジェクト情報を用いない。
ステップS315に戻り、電子装置が、ローカルオブジェクトの絶対位置データが外部オブジェクトの絶対位置データと同じであると判定したとき(ステップS315で「Yes」)、ステップS330では、電子装置は、ローカルオブジェクト情報と外部オブジェクト情報を統合しない。言い換えれば、ノードによって感知された外部オブジェクト情報は、電子装置によって感知されたローカルオブジェクト情報と同じである可能性があるため、電子装置は何もしない。
図4Aは、本開示の例示的な実施形態による、オブジェクトを感知する車両装置410を示す概略図である。図4Aに示されるように、車両装置410に搭載されたカメラまたはレーダーは、特定の方向からのみ領域420を監視することができるため、車両装置410は、オブジェクトAとオブジェクトBを同じオブジェクト430として見なしやすい。図4Bは、本開示の例示的な実施形態による、車両装置がオブジェクト統合情報を用いてオブジェクトを感知することを示す概略図である。図4Bに示されるように、RSU401およびRSU402によってブロードキャストされたオブジェクト統合情報を介して、車両装置410は、オブジェクト統合情報に従って異なる方向から領域420を監視して、オブジェクトAをオブジェクトBから区別することができる。
上述のように、本開示で提供された交通環境を感知する方法および装置を介して、車両装置は、RSUでつなぎ合わされたオブジェクト統合情報を取得して、複数の方向の死角領域を取得し、車両の運転安全性を向上させることができる。
以上で本発明の例示的な実施形態を説明したが、以下に、本発明の例示的な実施形態が実装され得る例示的な動作環境を説明する。図5に示すように、図5は、一般に電子装置500として知られている装置の構成であり、本開示の例示的な実施形態を実施する例示的な動作環境が示されているものである。電子装置500は、適切なコンピューティング環境の一例に過ぎず、本発明の使用または機能の範囲を制限することを意図したものではない。電子装置500は、図示された要素のいずれか1つまたは組み合わせに関する依存性または要件を有すると解釈されるべきではない。
本開示はコンピュータコードまたは機械使用可能命令によって実現され、前記命令は、プログラムモジュールなどのコンピュータで実行可能な命令を含む。プログラムモジュールは、パーソナルデータアシスタント(PDA)またはその他のハンドヘルドデバイスなどのコンピュータまたは他の機械によって実行されることができる。一般に、プログラムモジュールは、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含み、特定のタスクを実行するか、または特定の抽象データ型を実現するコードを指すことができる。本発明は、ハンドヘルドデバイス、家庭用電化製品、汎用コンピュータ、より専門的なコンピューティングデバイスなどを含む、さまざまなシステム構成で実現することができる。本発明は、通信ネットワークにより連結されたリモート処理装置により、タスクが実行される分散コンピューティング環境においても実現することができる。
図5に示すように、電子装置500は、以下の装置、すなわち、1つ以上のメモリ512、1つ以上のプロセッサ514、1つ以上のディスプレイコンポーネント516、1つ以上の入出力(I/O)ポート518、1つ以上の入出力コンポーネント520、および例示的な電源522に直接または間接的に結合されるバス510を含むことができる。バス510は、1つ以上の種類のバス(例えば、アドレスバス、データバス、またはそれらの任意の組み合わせ)を表す。図5において、各ブロックは明確にするために線で区別されて示されているが、実際には、様々な構成要素の境界は特定されていない。例えば、表示装置などの表示素子は、I/Oコンポーネントとみなされることができ、プロセッサはメモリを含むことができる。
電子装置500は、通常、さまざまなコンピュータ可読媒体を含む。コンピュータ可読媒体は、電子装置500によってアクセスされることができる任意の利用可能な媒体であることができ、揮発性および不揮発性媒体、リムーバブルおよびノンリムーバブル媒体の両方を含む。これに限定されるものではないが、コンピュータ可読媒体は、コンピュータ記憶媒体および通信媒体を含むことができる。また、コンピュータ記憶媒体は、コンピュータ可読命令、データ構造体、プログラムモジュールまたは他のデータなどの情報を記憶する任意の方法または技術で実現される揮発性および不揮発性、リムーバブルおよびノンリムーバブル媒体を含むことができる。コンピュータ記憶媒体は、限定的でない例として、RAM、ROM、EEPROM、フラッシュメモリ、または他のメモリ技術、CD−ROM、デジタル汎用ディスク(DVD)、または他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ、または他の磁気ストレージデバイス、または、所望の情報を記憶するのに用いられ電子装置500によってアクセス可能な任意の他の媒体を含む。コンピュータ記憶媒体は、それ自体は信号処理を行わない。
通信媒体は、通常、搬送波などの変調データ信号または他の移送機構内に、コンピュータ可読命令、データ構造体、プログラムモジュール、または他のデータを具現化した任意の情報受渡し媒体を含む。「変調データ信号」という用語は、信号内の情報を符号化するような方式で、その1つ以上の特性が設定または変更される信号を意味する。限定的でない例として、通信媒体は、有線ネットワークまたは直接有線接続などの有線媒体、並びに、音波、無線周波数、赤外線、および他の無線媒体などの無線媒体を含む。
メモリ512は、揮発性および/または不揮発性メモリの形態のコンピュータ記憶媒体を含むことができる。メモリは、リムーバブル、ノンリムーバブル、またはそれらの組み合わせであることができる。例示的なハードウェアデバイスは、ソリッドステートメモリ、ハードドライブ、光ディスクドライブなどを含む。電子装置500は、メモリ512またはI/Oコンポーネント520などの様々なエンティティからデータを読み取る1つ以上のプロセッサを含む。プレゼンテーションコンポーネント516は、データ表示をユーザーまたは他のデバイスに表示する。例示的なプレゼンテーションコンポーネントは、ディスプレイ装置、スピーカー、印刷コンポーネント、振動コンポーネントなどを含む。例示的なディスプレイ要素には、ディスプレイ装置、スピーカー、印刷要素、振動要素などが含まれる。
I/Oポート518は、電子装置500がI/Oコンポーネント520を含む他の装置に論理的に結合されるための構成であり、そのいくつかは内蔵されることができる。例示的なコンポーネントは、マイク、ジョイスティック、ゲームパッド、衛星放送受信用アンテナ、スキャナー、プリンタ、無線装置などを含む。I/Oコンポーネント520は、ジェスチャ、音声、またはユーザーによって生成された他の生理学的入力を処理する自然なユーザインターフェース(NUI)を提供することができる。例えば、これらの入力は、適切なネットワーク要素に送信されて、更なる処理をすることができる。電子装置500は、立体カメラシステム、赤外線カメラシステム、RGBカメラシステム、およびこれらの任意の組み合わせなどの深度カメラが備えられ、物体の検出および認識を実現することができる。また、電子装置500は、感知範囲内の周囲環境を定期的に感知するセンサー(例えば、レーダーまたはライダー)に備えられることができ、電子装置自体が周囲環境に関連付けられていることを示すセンサ情報を生成する。電子装置500は、動きを検出することができる加速度計またはジャイロスコープを備えることができる。加速度計またはジャイロスコープの出力は、電子装置500のディスプレイに提供されて表示させることができる。
また、電子装置500内のプロセッサ514は、メモリ512内のプログラムコードを実行して、上述の動作およびステップ、または本明細書の他の説明を行うことができる。
任意の開示されたプロセスにおける任意の特定の順序またはステップの階層が、サンプルアプローチの例であることは理解される。設計選択に基づいて、プロセスにおける任意の特定の順序またはステップの階層が、本開示の範囲内にありつつ再整理されてもよいことは理解される。伴う方法は、サンプル順序での種々のステップの現在の要素を請求し、現在の特定の順序またはステップの階層に限定することを意味しない。
明細書における「第1の」、「第2の」、「第3の」等の序数詞の使用は、それ自体が優先度、序列、又は順序を示唆するものではなく、むしろ、単に2つ以上の特徴、要素、項目等を区別するためのラベルとして使用している。クレーム要素を変えるための、請求項における「第1の」、「第2の」、「第3の」等の序数詞の使用は、それ自体が、1つのクレーム要素を他のクレーム要素と比較して優先度、序列、又は順序、もしくは方法を実施する行為の時間的順序を示唆するものではなく、むしろ、単にクレーム要素を区別するために、特定の名前を有する1つのクレーム要素を同じ名前を有する他の要素から区別するためのラベルとして(だけ、序数詞を)使用している。
本発明は、例として及び望ましい実施の形態によって記述されているが、本発明は開示された実施形態に限定されるものではない。逆に、当業者には自明の種々の変更及び同様の配置をカバーするものである。よって、添付の特許請求の範囲は、最も広義な解釈が与えられ、全てのこのような変更及び同様の配置を含むべきである。
100 交通環境を感知するシステム
110A、110B、110C 路側機(RSU)
110a、110b、110c 感知範囲
120 車両装置
120a 感知範囲 車両装置
A1、A2、A3、B1、B2、B3 非クリティカルオブジェクト
130 不完全なオブジェクト
131、132、133、134 完全なオブジェクト
200 方法
S205、S210、S215 ステップ
300 方法
S305、S310、S315、S320、S325、S330 ステップ
401、402 路側機(RSU)
410 車両装置
420 領域
430 オブジェクト
A、B オブジェクト
500 電子装置
510 バス
512 メモリ
514 プロセッサ
516 ディスプレイコンポーネント
518 入出力(I/O)ポート
520 入出力コンポーネント
522 電源522


Claims (20)

  1. 電子装置に用いられる交通環境を感知する方法は、
    前記電子装置の第1の感知範囲内の環境を感知することにより、前記第1の感知範囲内のローカルオブジェクトの第1の地理的分布情報を少なくとも含むローカルオブジェクト情報を生成するステップ、
    少なくとも1つのノードによって送信された、前記ノードの第2の感知範囲内の外部オブジェクトの少なくとも第2の地理的分布情報を含む外部オブジェクト情報を受信するステップ、および
    前記ローカルオブジェクト情報と前記外部オブジェクト情報に従ってオブジェクト統合情報を生成するステップを含む交通環境を感知する方法。
  2. 前記ローカルオブジェクト情報は、前記電子装置の識別子および前記電子装置の第1の絶対位置データを更に含み、前記外部オブジェクト情報は、前記ノードの識別子と前記ノードの第2の絶対位置データを更に含む請求項1に記載の交通環境を感知する方法。
  3. 前記第1の地理的分布情報は、前記電子装置に対する前記ローカルオブジェクトの相対位置データを含み、前記第2の地理的分布情報は、前記ノードに対する前記外部オブジェクトの相対位置データを含む請求項2に記載の交通環境を感知する方法。
  4. 前記ローカルオブジェクト情報と前記外部オブジェクト情報に従ってオブジェクト統合情報を生成するステップは、
    前記第1の絶対位置データ、前記第2の絶対位置データ、前記第1の地理的分布情報、および前記第2の地理的分布情報に従って、前記ローカルオブジェクトの絶対位置データと前記外部オブジェクトの絶対位置データを取得するステップ、
    前記ローカルオブジェクトの前記絶対位置データが前記外部オブジェクトの前記絶対位置データと同じであるかどうかを判定するステップ、および
    前記ローカルオブジェクトの前記絶対位置データが前記外部オブジェクトの前記絶対位置データと同じでないとき、前記ローカルオブジェクト情報と前記外部オブジェクト情報を統合してオブジェクト統合情報を生成するステップを含む請求項3に記載の交通環境を感知する方法。
  5. 前記ローカルオブジェクト情報は、ローカルタイムスタンプを更に含み、前記外部オブジェクト情報は、外部タイムスタンプを更に含む請求項1に記載の交通環境を感知する方法。
  6. 前記ローカルオブジェクト情報と前記外部オブジェクト情報に従ってオブジェクト統合情報を生成するステップは、
    前記ローカルタイムスタンプと前記外部タイムスタンプの差が更新期間より大きいかどうかを判定するステップ、および
    前記差が前記更新期間より大きいとき、前記外部オブジェクト情報を削除するステップを含む請求項5に記載の交通環境を感知する方法。
  7. 前記更新期間は、前記電子装置によって前記ローカルオブジェクト情報を再生成する時間間隔である請求項6に記載の交通環境を感知する方法。
  8. 前記電子装置は車両装置である請求項1〜7のいずれかに記載の交通環境を感知する方法。
  9. 前記電子装置は、路側機(RSU)であり、前記方法は、
    前記オブジェクト統合情報をブロードキャストするステップを更に含む請求項1〜7のいずれかに記載の交通環境を感知する方法。
  10. 前記ノードは、路側機(RSU)または車両装置である請求項1〜7のいずれかに記載の交通環境を感知する方法。
  11. 交通環境を感知する装置であって、
    1つ以上のプロセッサと、
    1つ以上のコンピュータ可読命令を記憶する1つ以上のコンピュータ記憶媒体と、を含み、
    前記プロセッサは、前記コンピュータ記憶媒体を駆動して次のタスクを実行するように構成され、
    前記装置の第1の感知範囲内の環境を感知することによってローカルオブジェクト情報を生成し、前記ローカルオブジェクト情報は、前記第1の感知範囲内のローカルオブジェクトの第1の地理的分布情報を少なくとも含み、
    少なくとも1つのノードによって送信された外部オブジェクト情報を受信し、前記外部オブジェクト情報は、前記ノードの第2の感知範囲内の外部オブジェクトの少なくとも第2の地理的分布情報を含み、且つ
    前記ローカルオブジェクト情報と前記外部オブジェクト情報に従ってオブジェクト統合情報を生成する交通環境を感知する装置。
  12. 前記ローカルオブジェクト情報は、前記装置の識別子および前記電子装置の第1の絶対位置データを更に含み、前記外部オブジェクト情報は、前記ノードの識別子と前記ノードの第2の絶対位置データを更に含む請求項11に記載の交通環境を感知する装置。
  13. 前記第1の地理的分布情報は、前記装置に対する前記ローカルオブジェクトの相対位置データを含み、前記第2の地理的分布情報は、前記ノードに対する前記外部オブジェクトの相対位置データを含む請求項12に記載の交通環境を感知する装置。
  14. 前記プロセッサによって、前記ローカルオブジェクト情報と前記外部オブジェクト情報に従ってオブジェクト統合情報を生成する装置は、
    前記第1の絶対位置データ、前記第2の絶対位置データ、前記第1の地理的分布情報、および前記第2の地理的分布情報に従って、前記ローカルオブジェクトの絶対位置データと前記外部オブジェクトの絶対位置データを取得し、
    前記ローカルオブジェクトの前記絶対位置データが前記外部オブジェクトの前記絶対位置データと同じであるかどうかを判定し、且つ
    前記ローカルオブジェクトの前記絶対位置データが前記外部オブジェクトの前記絶対位置データと同じでないとき、前記ローカルオブジェクト情報と前記外部オブジェクト情報を統合してオブジェクト統合情報を生成することを含む請求項13に記載の交通環境を感知する装置。
  15. 前記ローカルオブジェクト情報は、ローカルタイムスタンプを更に含み、前記外部オブジェクト情報は、外部タイムスタンプを更に含む請求項11に記載の交通環境を感知する装置。
  16. 前記プロセッサによる、前記ローカルオブジェクト情報と前記外部オブジェクト情報に従ってオブジェクト統合情報を生成するステップは、
    前記ローカルタイムスタンプと前記外部タイムスタンプの差が更新期間より大きいかどうかを判定するステップ、および
    前記差が前記更新期間より大きいとき、前記外部オブジェクト情報を削除するステップを含む請求項15に記載の交通環境を感知する装置。
  17. 前記更新期間は、前記電子装置によって前記ローカルオブジェクト情報を再生成する時間間隔である請求項16に記載の交通環境を感知する装置。
  18. 前記電子装置は車両装置である請求項11〜17のいずれかに記載の交通環境を感知する装置。
  19. 前記装置は、路側機(RSU)であり、前記プロセッサは、
    前記オブジェクト統合情報のブロードキャストを更に実行する請求項11〜17のいずれかに記載の交通環境を感知する装置。
  20. 前記ノードは、路側機(RSU)または車両装置である請求項11〜17のいずれかに記載の交通環境を感知する装置。
JP2019196037A 2018-11-21 2019-10-29 交通環境を感知する方法および装置 Pending JP2020087445A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862770369P 2018-11-21 2018-11-21
US62/770,369 2018-11-21
TW108116665 2019-05-15
TW108116665A TWI717734B (zh) 2018-11-21 2019-05-15 交通環境感知的方法及裝置

Publications (1)

Publication Number Publication Date
JP2020087445A true JP2020087445A (ja) 2020-06-04

Family

ID=70726669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019196037A Pending JP2020087445A (ja) 2018-11-21 2019-10-29 交通環境を感知する方法および装置

Country Status (3)

Country Link
US (1) US11373520B2 (ja)
JP (1) JP2020087445A (ja)
CN (1) CN111210619A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024035118A1 (ko) * 2022-08-09 2024-02-15 엘지전자 주식회사 센서 정보를 변환 및 전송하는 방법 및 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006195641A (ja) * 2005-01-12 2006-07-27 Nissan Motor Co Ltd 車両用情報提供装置
JP2011242846A (ja) * 2010-05-14 2011-12-01 Hitachi Ltd 車載通信装置、周辺車両情報処理方法およびプログラム

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6734807B2 (en) 1999-04-01 2004-05-11 Lear Automotive Dearborn, Inc. Polarametric blind spot detector with steerable beam
US6502033B1 (en) 2000-10-05 2002-12-31 Navigation Technologies Corp. Turn detection algorithm for vehicle positioning
WO2003093857A2 (en) 2002-05-03 2003-11-13 Donnelly Corporation Object detection system for vehicle
US7447592B2 (en) 2004-10-18 2008-11-04 Ford Global Technologies Llc Path estimation and confidence level determination system for a vehicle
CN100561540C (zh) 2008-05-14 2009-11-18 西安交通大学 一种基于车载无线传感器网络的交通路况信息处理方法
TW201020140A (en) 2008-11-28 2010-06-01 Automotive Res & Testing Ct Vehicle traveling safety assistant network management system and method
US8315756B2 (en) 2009-08-24 2012-11-20 Toyota Motor Engineering and Manufacturing N.A. (TEMA) Systems and methods of vehicular path prediction for cooperative driving applications through digital map and dynamic vehicle model fusion
TWM403461U (en) 2010-11-09 2011-05-11 dong-lin Lv Automobile turning alarm device
EP2574958B1 (en) 2011-09-28 2017-02-22 Honda Research Institute Europe GmbH Road-terrain detection method and system for driver assistance systems
US20130289824A1 (en) 2012-04-30 2013-10-31 GM Global Technology Operations LLC Vehicle turn assist system and method
US9383753B1 (en) 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention
US20140307087A1 (en) 2013-04-10 2014-10-16 Xerox Corporation Methods and systems for preventing traffic accidents
JP5796597B2 (ja) * 2013-04-26 2015-10-21 株式会社デンソー 車両判定方法及び車両判定装置
TWI522258B (zh) 2013-07-08 2016-02-21 Kang Li Based on electronic map, global navigation satellite system and vehicle motion detection technology Lane identification method
TWM485173U (zh) 2014-01-03 2014-09-01 you-zheng Xu 車體轉向感應輔助攝影裝置
US20160077166A1 (en) 2014-09-12 2016-03-17 InvenSense, Incorporated Systems and methods for orientation prediction
CN104376735B (zh) 2014-11-21 2016-10-12 中国科学院合肥物质科学研究院 一种盲区路口车辆行驶安全预警系统及其预警方法
US9607509B2 (en) * 2015-04-08 2017-03-28 Sap Se Identification of vehicle parking using data from vehicle sensor network
SE539098C2 (en) 2015-08-20 2017-04-11 Scania Cv Ab Method, control unit and system for path prediction
US9767687B2 (en) 2015-09-11 2017-09-19 Sony Corporation System and method for driving assistance along a path
JP2017068335A (ja) 2015-09-28 2017-04-06 ルネサスエレクトロニクス株式会社 データ処理装置および車載通信装置
JP6332287B2 (ja) 2016-01-13 2018-05-30 トヨタ自動車株式会社 経路予測装置および経路予測方法
US10091733B2 (en) * 2016-02-16 2018-10-02 Veniam, Inc. Systems and methods for power management in a network of moving things, for example including a network of autonomous vehicles
US9666067B1 (en) 2016-08-30 2017-05-30 Allstate Insurance Company Vehicle turn detection
JP6693368B2 (ja) * 2016-09-21 2020-05-13 株式会社オートネットワーク技術研究所 通信システム、中継装置及び通信方法
JP6735659B2 (ja) 2016-12-09 2020-08-05 株式会社日立製作所 運転支援情報収集装置
US10916129B2 (en) 2017-01-30 2021-02-09 International Business Machines Corporation Roadway condition predictive models
WO2018235154A1 (ja) * 2017-06-20 2018-12-27 株式会社日立製作所 走行制御システム
JP6808595B2 (ja) * 2017-09-01 2021-01-06 クラリオン株式会社 車載装置、インシデント監視方法
US10748426B2 (en) 2017-10-18 2020-08-18 Toyota Research Institute, Inc. Systems and methods for detection and presentation of occluded objects
CN108010360A (zh) 2017-12-27 2018-05-08 中电海康集团有限公司 一种基于车路协同的自动驾驶环境感知系统
CN108284838A (zh) 2018-03-27 2018-07-17 杭州欧镭激光技术有限公司 一种用于检测车辆外部环境信息的检测系统及检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006195641A (ja) * 2005-01-12 2006-07-27 Nissan Motor Co Ltd 車両用情報提供装置
JP2011242846A (ja) * 2010-05-14 2011-12-01 Hitachi Ltd 車載通信装置、周辺車両情報処理方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024035118A1 (ko) * 2022-08-09 2024-02-15 엘지전자 주식회사 센서 정보를 변환 및 전송하는 방법 및 장치

Also Published As

Publication number Publication date
US20200160692A1 (en) 2020-05-21
US11373520B2 (en) 2022-06-28
CN111210619A (zh) 2020-05-29

Similar Documents

Publication Publication Date Title
Jeong et al. Complex urban dataset with multi-level sensors from highly diverse urban environments
CN107731001B (zh) 通信方法以及服务器
JP7082545B2 (ja) 情報処理方法、情報処理装置およびプログラム
US11054265B2 (en) Methods and systems for improving maps
US11720992B2 (en) Method, apparatus, and computer program product for generating an overhead view of an environment from a perspective image
DE102017101466A1 (de) Verfolgen von objekten in einer dynamischen umgebung zur verbesserten lokalisierung
US10782411B2 (en) Vehicle pose system
JP2019200781A (ja) サラウンドビューシステム、そのシステムを備える車両、サラウンドビュー生成方法、およびその方法を実行するためのプログラム製品
US11290326B2 (en) Method and apparatus for regulating resource consumption by one or more sensors of a sensor array
US10964048B2 (en) Method and device for generating image for indicating object on periphery of vehicle
CN109031205B (zh) 机器人定位装置、方法以及机器人
JP2020087445A (ja) 交通環境を感知する方法および装置
JP2019079453A (ja) 情報生成システム、情報生成装置、情報生成方法およびコンピュータプログラム
JP2023111921A (ja) 情報処理装置
US10916141B1 (en) System and method for generating a parking space directory
TWI717734B (zh) 交通環境感知的方法及裝置
JP2017138710A (ja) 走行困難区間判定システム、走行困難区間判定方法、及び走行困難区間判定プログラム
JP2021124633A (ja) 地図生成システム及び地図生成プログラム
Feller et al. Investigation of Lidar Data for Autonomous Driving with an Electric Bus
US20230037900A1 (en) Device and Method for Determining Objects Around a Vehicle
JP6835793B2 (ja) 軌跡管理システム
JP2007155528A (ja) 表示制御装置
Pordel et al. dmap: A low-cost distributed mapping concept for future road asset management
CN117470258A (zh) 一种地图构建方法、装置、设备及介质
Tusuubira Design and Implementation of a Blind Spot Detection and Monitoring System for the Kayoola Buses

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210922

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220419