JP6741107B2 - 交通状況のリアルタイム検出 - Google Patents
交通状況のリアルタイム検出 Download PDFInfo
- Publication number
- JP6741107B2 JP6741107B2 JP2019056828A JP2019056828A JP6741107B2 JP 6741107 B2 JP6741107 B2 JP 6741107B2 JP 2019056828 A JP2019056828 A JP 2019056828A JP 2019056828 A JP2019056828 A JP 2019056828A JP 6741107 B2 JP6741107 B2 JP 6741107B2
- Authority
- JP
- Japan
- Prior art keywords
- situation
- roi
- image
- category
- traffic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000011897 real-time detection Methods 0.000 title description 2
- 238000001514 detection method Methods 0.000 claims description 175
- 238000000034 method Methods 0.000 claims description 61
- 238000011156 evaluation Methods 0.000 claims description 3
- 230000008685 targeting Effects 0.000 claims 1
- 238000010276 construction Methods 0.000 description 95
- 230000015654 memory Effects 0.000 description 22
- 238000012545 processing Methods 0.000 description 21
- 238000012549 training Methods 0.000 description 19
- 238000004891 communication Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 15
- 230000005540 biological transmission Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 8
- 238000012546 transfer Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本出願は、「REAL-TIME DETECTION OF TRAFFIC SITUATION」と題し、2018年3月29日に出願された米国特許出願第15/939,308号の優先権を主張する。これらの特許出願は、その全体が参照によって本願明細書に援用される。
交通に影響を与えるイベントを指す)を検出することに関する。より具体的な例では、本開示は、道路情景画像に描写されている交通状況を、画像処理を使用して検出するための技術に関する。
道路を描写している画像から注目領域(Region of interest:ROI)を抽出することと、
ROIにおいて第1の状況物体の物体特徴に基づいて第1の物体種別と一致する第1の状況物体を検出する、第1の物体検出器の役割を実行することであって、第1の状況物体は、ROIにおいて描写されている第1の物理道路物体を表すことと、
第1の状況物体と第1の物体種別との間の類似度に基づいて、第1の状況物体についての第1の物体信頼度スコアを生成することと、
第1の物体検出器と並行に、ROIにおいて、第2の状況物体の物体特徴に基づいて、第1の物体種別と異なった第2の物体種別と一致する第2の状況物体を検出する、第2の物体検出器の役割を実行することであって、第2の状況物体は、ROIにおいて描写されている第2の物理道路物体を表すことと、
第2の状況物体と第2の物体種別との間の類似度に基づいて、第2の状況物体についての第2の物体信頼度スコアを生成することと、
第1の物体検出器によって検出された第1の物体種別および第2の物体検出器によって検出された第2の物体種別が第1の予測される状況カテゴリと関連付けられることを決定
することと、
第1の物体信頼度スコアおよび第2の物体信頼度スコアを、第1の予測される状況カテゴリに対応する第1の状況信頼度スコアに統合することと、
第1の予測される状況カテゴリが、ROIに適用されること、および
第1の予測される状況カテゴリによって定義された第1の交通状況がROIにおいて描写されていること、を決定するために第1の状況信頼度スコアを評価することと、を含む。
道路を描写している第1の画像から第1の注目領域(Region of interest:ROI)を抽出することと、
第1のROIにおいて第1の物体種別と一致する第1の状況物体を検出する第1の物体検出器、および第1のROIにおいて第2の物体種別と一致する第2の状況物体を検出する第2の物体検出器、の役割を並行に実行することであって、第1の物体種別は第2の物体種別と異なることと、
第1の状況物体についての第1の物体信頼度スコア、および第2の状況物体についての第2の物体信頼度スコアを生成することと、
第1の物体検出器によって検出された第1の物体種別および第2の物体検出器によって検出された第2の物体種別が第1の予測される状況カテゴリと関連付けられることを決定することと、
第1の物体信頼度スコアおよび第2の物体信頼度スコアを、第1の予測される状況カテゴリに対応する第1の状況信頼度スコアに統合することと、
第1の予測される状況カテゴリが、第1の画像の第1のROIに適用されないこと、および第1の予測される状況カテゴリによって定義された第1の交通状況が第1の画像の第1のROIにおいて描写されていないことを決定するために、第1の状況信頼度スコアを評価することと、
道路を描写している第2の画像から第2のROIを抽出することと、
第2のROIにおいて第1の物体種別と一致する第3の状況物体を検出する第1の物体検出器、および第2のROIにおいて第2の物体種別と一致する第4の状況物体を検出する第2の物体検出器、の役割を並行に実行することと、
第3の状況物体についての第3の物体信頼度スコア、および第4の状況物体についての第4の物体信頼度スコアを生成することと、
第3の物体信頼度スコアおよび第4の物体信頼度スコアを、第1の予測される状況カテゴリに対応する第2の状況信頼度スコアに統合することと、
第1の予測される状況カテゴリが、第2の画像の第2のROIに適用されること、および
第1の予測される状況カテゴリによって定義された第1の交通状況が第2の画像の第2のROIにおいて描写されていること、を決定するために、第2の状況信頼度スコアを評価することと、を含むコンピュータ実装方法で具現化され得る。
道路を描写している画像から注目領域(Region of interest:ROI)を抽出させ、
ROIにおいて第1の状況物体の物体特徴に基づいて第1の物体種別と一致する第1の状況物体を検出する、第1の物体検出器の役割を実行させ、第1の状況物体は、ROIにおいて描写されている第1の物理道路物体を表しており、
第1の状況物体と第1の物体種別との間の類似度に基づいて、第1の状況物体についての第1の物体信頼度スコアを生成させ、
第1の物体検出器と並行に、ROIにおいて第2の状況物体の物体特徴に基づいて、第
1の物体種別と異なった第2の物体種別と一致する第2の状況物体を検出する、第2の物体検出器の役割を実行させ、第2の状況物体は、ROIにおいて描写されている第2の物理道路物体を表しており、
第2の状況物体と第2の物体種別との間の類似度に基づいて、第2の状況物体についての第2の物体信頼度スコアを生成させ、
第1の物体検出器によって検出された第1の物体種別および第2の物体検出器によって検出された第2の物体種別が第1の予測される状況カテゴリと関連付けられることを決定させ、
第1の物体信頼度スコアと第2の物体信頼度スコアとを統合して、第1の予測される状況カテゴリに対応する第1の状況信頼度スコアにさせ、
第1の予測される状況カテゴリが、ROIに適用されること、および第1の予測される状況カテゴリによって定義された第1の交通状況がROIにおいて描写されていること、を決定するために第1の状況信頼度スコアを評価させる、
命令を記憶する1つまたは複数のメモリと、を備えるシステムにおいて具現化され得る。
・ROIにおいて第1の状況物体を示す第1のバウンディングボックスを決定することと、ROIにおいて第2の状況物体を示す第2のバウンディングボックスを決定することと、ROIにおいて描写されている第1の交通状況の状況領域を生成するために、第1の状況物体を示す第1のバウンディングボックスと第2の状況物体を示す第2のバウンディングボックスとを統合することという特徴
・画像からROIを抽出することは、画像から、目立つ色と関連付けられたROIを抽出することを含むという特徴
・第1の予測される状況カテゴリは、データストア内の第1の一式の物体種別と関連付けられ、第1の一式の物体種別は、第1の物体検出器によって検出された第1の物体種別と第2の物体検出器によって検出された第2の物体種別とを含み、第2の予測される状況カテゴリは、データストア内の第2の一式の物体種別と関連付けられ、第2の一式の物体種別は第3の物体検出器によって検出された第3の物体種別と第4の物体検出器によって検出された第4の物体種別とを含み、第3の物体種別は第4の物体種別と異なるという特徴・第1の物体検出器と並行に、ROIにおいて、第3の状況物体の物体特徴に基づいて、第3の物体種別と一致する第3の状況物体を検出する第3の物体検出器の役割を実行することであって、第3の状況物体は、ROIにおいて描写されている第3の物理道路物体を表すことと、第3の状況物体と第3の物体種別との間の類似度に基づいて、第3の状況物体についての第3の物体信頼度スコアを生成することと、第1の物体検出器と並行に、ROIにおいて、第4の状況物体の物体特徴に基づいて、第4の物体種別と一致する第4の状況物体を検出する第4の物体検出器の役割を実行することであって、第4の状況物体は、ROIにおいて描写されている第4の物理道路物体を表すことと、第4の状況物体と第4の物体種別との間の類似度に基づいて、第4の状況物体についての第4の物体信頼度スコアを生成することと、第3の物体検出器によって検出された第3の物体種別および第4の物体検出器によって検出された第4の物体種別が、第2の予測される状況カテゴリと関連付けられることを決定することと、第3の物体信頼度スコアと第4の物体信頼度スコアとを統合して、第2の予測される状況カテゴリに対応する第2の状況信頼度スコアにすることと、第1の予測される状況カテゴリがROIに適用され、第2の予測される状況カテゴリがROIに適用されること、および第1の予測される状況カテゴリによって定義された第1の交通状況と第2の予測される状況カテゴリによって定義された第2の交通状況とがROIにおいて描写されていること、を決定するために、第1の状況信頼度スコアおよび第2の状況信頼度スコアを評価することという特徴
・第1の物体検出器と並行に、ROIにおいて、第3の状況物体の物体特徴に基づいて、第3の物体種別と一致する第3の状況物体を検出する第3の物体検出器の役割を実行する
ことであって、第3の状況物体は、ROIにおいて描写されている第3の物理道路物体を表すことと、第3の状況物体と第3の物体種別との間の類似度に基づいて、第3の状況物体についての第3の物体信頼度スコアを生成することと、第1の物体検出器と並行に、ROIにおいて、第4の状況物体の物体特徴に基づいて、第4の物体種別と一致する第4の状況物体を検出する第4の物体検出器の役割を実行することであって、第4の状況物体は、ROIにおいて描写されている第4の物理道路物体を表すことと、第4の状況物体と第4の物体種別との間の類似度に基づいて、第4の状況物体についての第4の物体信頼度スコアを生成することと、第3の物体検出器によって検出された第3の物体種別および第4の物体検出器によって検出された第4の物体種別が、第2の予測される状況カテゴリと関連付けられることを決定することと、第3の物体信頼度スコアと第4の物体信頼度スコアとを統合して、第2の予測される状況カテゴリに対応する第2の状況信頼度スコアにすることと、第1の予測される状況カテゴリがROIに適用され、第2の予測される状況カテゴリがROIに適用されないこと、および第1の予測される状況カテゴリによって定義された第1の交通状況がROIにおいて描写されていること、を決定するために、第1の状況信頼度スコアおよび第2の状況信頼度スコアを評価することという特徴
・第1の物体検出器と並行に、ROIにおいて、第3の状況物体の物体特徴に基づいて、第3の物体種別と一致する第3の状況物体を検出する第3の物体検出器の役割を実行することであって、第3の状況物体は、ROIにおいて描写されている第3の物理道路物体を表すことと、第3の状況物体と第3の物体種別との間の類似度に基づいて、第3の状況物体についての第3の物体信頼度スコアを生成することと、第1の物体検出器によって検出された第1の物体種別および第3の物体検出器によって検出された第3の物体種別が、第2の予測される状況カテゴリと関連付けられることを決定することと、第1の物体信頼度スコアと第3の物体信頼度スコアとを統合して、第2の予測される状況カテゴリに対応する第2の状況信頼度スコアにすることと、第1の予測される状況カテゴリがROIに適用され、第2の予測される状況カテゴリがROIに適用されないこと、および第1の予測される状況カテゴリによって定義された第1の交通状況がROIにおいて描写されていること、を決定するために、第1の状況信頼度スコアおよび第2の状況信頼度スコアを評価することという特徴
・第1の物体信頼度スコアと第2の物体信頼度スコアとを統合して、第1の予測される状況カテゴリに対応する第1の状況信頼度スコアにすることは、第1の予測される状況カテゴリによって定義された交通状況を検出することにおける第1の物体種別の第1の状況検出重みを取得することと、第1の予測される状況カテゴリによって定義された交通状況を検出することにおける第2の物体種別の第2の状況検出重みを取得することと、第1の状況物体の第1の物体信頼度スコア、第1の物体種別の第1の状況検出重み、第2の状況物体の第2の物体信頼度スコア、および第2の物体種別の第2の状況検出重み、に基づいて、第1の状況信頼度スコアを計算すること、とを含むという特徴
・第1の予測される状況カテゴリによって定義された第2の交通状況が、トレーニング画像において描写されていることを決定することと、トレーニング画像において検出された第2の交通状況の、トレーニング画像と関連付けられたあらかじめ決定された目標出力との比較に基づいて、第1の予測される状況カテゴリによって定義された交通状況を検出することにおける、第1の物体種別の第1の状況検出重み、および第1の予測される状況カテゴリによって定義された交通状況を検出することにおける第2の物体種別の第2の状況検出重みの、1つまたは複数を調節すること、という特徴の、1つまたは複数を随意に含み得る。
道路を含む画像から、所定の物体種別に対応する状況物体を検出し、前記物体種別に対応するテンプレートとの間の類似度に基づいて、前記状況物体に対する物体信頼度スコアを生成する物体検出器を含むコンピュータによって実行される方法であって、複数の前記物体検出器によって、前記画像に含まれる状況物体に対応する物体種別と、対応する物体
信頼度スコアをそれぞれ生成する生成ステップと、複数の前記状況物体に対応する物体種別に基づいて、前記画像中において発生しているイベントのカテゴリを予測する予測ステップと、複数の前記物体信頼度スコアを統合して、前記イベントのカテゴリに対応する状況信頼度スコアを生成する統合ステップと、前記状況信頼度スコアに基づいて、前記予測した状況カテゴリに対応するイベントが前記画像中において発生しているか否かを評価する評価ステップと、を含む。
また、前記予測ステップでは、複数の異なる物体種別と状況カテゴリとを関連付けたカテゴリデータを参照して、前記画像中において発生しているイベントのカテゴリを予測することを特徴としてもよい。
また、前記生成ステップで利用される複数の物体検出器は、それぞれ異なる状況物体をターゲットとして設定されたものであることを特徴としてもよい。
また、前記テンプレートは、第一のテンプレートと、前記第一のテンプレートよりも粒度の高い第二のテンプレートを含み、前記物体検出器は、前記状況物体と前記第一のテンプレートとの類似度が所定値以上である場合にのみ、前記第二のテンプレートを利用した前記物体信頼度スコアの算出を行うことを特徴としてもよい。
また、前記予測ステップでは、前記画像中において発生しているイベントのカテゴリを複数個予測し、前記評価ステップでは、前記カテゴリにそれぞれ対応する複数の前記状況信頼度スコアに基づいて、前記画像中において発生しているイベントのカテゴリを絞り込むことを特徴としてもよい。
また、複数の前記状況物体に外接する複数の枠を決定し、前記複数の枠を統合して、前記イベントに対応する領域を生成するステップをさらに含むことを特徴としてもよい。
また、所定のイベントが含まれる学習画像を取得するステップと、前記学習画像から得られる出力と、所定の目標出力との比較に基づいて、前記物体種別ごとの重みを調整するステップと、をさらに含むことを特徴としてもよい。
道路を含む画像から、所定の物体種別に対応する状況物体を検出し、前記物体種別に対応するテンプレートとの間の類似度に基づいて、前記状況物体に対する物体信頼度スコアを生成する物体検出手段と、複数の前記物体検出手段によって、前記画像に含まれる状況物体に対応する物体種別と、対応する物体信頼度スコアをそれぞれ生成し、複数の前記状況物体に対応する物体種別に基づいて、前記画像中において発生しているイベントのカテゴリを予測し、複数の前記物体信頼度スコアを統合して、前記イベントのカテゴリに対応する状況信頼度スコアを生成し、前記状況信頼度スコアに基づいて、前記予測した状況カテゴリに対応するイベントが前記画像中において発生しているか否かを評価する制御手段と、を含む。
を向上させることができる。さらなる例として、本技術は、状況物体を検出することにおいて、物体部分の検出に優先順位をつけることができ、複数の物体種別の状況物体を並行に検出することができる。その結果、本明細書に記載の技術は、処理時間を大幅に減らすことができ、そのため、交通状況を検出およびカテゴリ分けするためのリアルタイム実装に有利に適用することができる。
network:WAN)(例えばインターネット)、パーソナル・エリア・ネットワ
ーク(Personal area network:PAN)、パブリックネットワーク、プライベートネットワーク、仮想ネットワーク、仮想プライベートネットワーク、ピア・ツー・ピア・ネットワーク、近距離ネットワーク(例えばBluetooth(登録商標)、NFCなど)、車両用ネットワーク、複数のデバイスが通信し得るその他の相互接続されたデータ経路、を含みうる。
U)であり得るが、他のタイプのプラットフォームも可能かつ想定される。ECUは、状況検出アプリケーション120によるアクセスや検索のために、車両運行データとしてセンサデータを受信し、車両データストア121に記憶する。いくつかの実施態様では、プロセッサ115は、電子表示信号を生成、および入力/出力デバイスへ供給すること、画像の表示をサポートすること、画像を取り込み、送信すること、さまざまな種別の物体認識および状況検出を含む複雑なタスクを実行すること、などが可能である。いくつかの実施態様では、プロセッサ115は、そこからデータおよび命令にアクセスするため、およびそこへデータを記憶するために、バス154を介してメモリ117に連結される。バス154は、プロセッサ115を、例えばセンサ113、メモリ117、通信ユニット119、車両データストア121を含む、プラットフォーム103の他のコンポーネントに連結される。
グラマブル・ゲート・アレイ(FPGA)、特定用途向け集積回路(ASIC)などではあるがそれには限定されないハードウェア、ハードウェアとソフトウェアの組合せなどを使用して実装される。いくつかの実施形態では、ナビゲーションアプリケーション124は、状況位置特定アプリケーション122によって決定された1つまたは複数の交通状況のカバレッジ領域に基づいて、ナビゲーション経路を決定または更新するために経路計画を実行し、道路を占有している交通状況のカバレッジ領域に適合するナビゲーション経路に対応するナビゲーション命令(例えば、車線変更操作を提案する)を生成し、車両プラットフォーム103の1つまたは複数の出力デバイスを介してユーザにナビゲーション命令を提供する。
な任意のフレームレートを使用して映像ストリームのフレームを記録し、適用可能な任意の方法を使用して、取り込まれた動画および静止画をエンコードまたは処理する。いくつかの実施形態では、画像センサ113は、それらのセンサ範囲内において周囲環境の画像を取り込むことができる。例えば、車両プラットフォームの観点から、画像センサ113は、道路、建物、路側構造物、静的道路物体(例えば、カラーコーン(登録商標)、バリケード、交通標識、車線、道路標示など)、動的道路物体(例えば、周囲の車両プラットフォーム103、道路作業者、警察官、工事車両、緊急車両など)などを含む、車両プラットフォーム103の周囲環境を取り込むことができる。いくつかの実施形態では、画像センサ113は、車両プラットフォーム103の移動方向に対していかなる方向(前方向き、後方向き、側方向き、上方向き、下方向きなど)でも感知するために、車両ルーフや車両プラットフォーム103内部に取り付けられ得る。いくつかの実施形態では、画像センサ113は、多方向であり得る(例えば、LIDAR)。いくつかの実施形態では、異なった車両プラットフォーム103に取り付けられた画像センサ113は、異なったカメラパラメータを有し、異なった設定、インストール、または構成で構成される。
だ交通状況データベースを記憶する。例えば、交通状況データベースは、状況カテゴリ「工事現場」、状況カテゴリ「事故現場」、状況カテゴリ「天候に関連するイベント」、状況カテゴリ「コミュニティイベント」などを含む。いくつかの実施形態では、各状況カテゴリは、一式のさまざまな物体種別と関連付けられ、各物体種別は、対応する交通状況に存在する可能性のある物理道路物体の一種を示す。一例として、状況カテゴリ「工事現場」は、物体種別「カラーコーン」、物体種別「バリケード」、物体種別「工事標識」、物体種別「工事車両」などを含む第1の一式の物体種別と関連付けられる。状況カテゴリ「事故現場」は、物体種別「バリケード」、物体種別「警察官」、物体種別「通行止め標識」、物体種別「緊急車両」(例えば、救急車、消防車、パトカーなど)などを含む、第2の一式の物体種別と関連付けられる。この実施態様は、複雑な交通状況全体をまとめて考慮するのではなく、検出のために、いかなる交通状況もさまざまな物体種別の状況物体にブレークダウンすることを可能にするため、特に有利である。結果として、交通状況の検出を、状況コンポーネント、道路レイアウト、照明条件などにおけるバリエーションにかかわらず、容易かつ迅速なものとすることができる。
致する状況物体の一部分だけが部分テンプレートに記述されるので、交通状況データベースは、物体テンプレートと相対的な部分テンプレートの空間的位置も記憶する。上述の例では、警察官の頭部を記述している部分テンプレートは、物体テンプレートの一番上の領域に対応し、一方、警察官の脚部を記述している部分テンプレートは、物体テンプレートの一番下の領域に対応する。
車両プラットフォーム103が走行する道路セグメントおよび周辺環境を含む。いくつかの実施形態では、これらの道路情景画像は、所定のレート/インターバル(例えば、5秒ごと、10秒ごとなど)で取り込まれ得る。ブロック304において、ROIプロセッサ202は、道路情景画像から1つまたは複数のROIを抽出し、その抽出したROIを処理する。
同時に検出されることを可能にし、それによって処理時間を大幅に低減することを可能にするため、特に有利である。また、この実施態様は、状況物体の網羅的な検出も提供する。ROIは、複数の物体検出器204によって実行される物体検出の対象となるため、さまざまなタイプの交通状況に存在している可能性のある、さまざまな物体種別の状況物体を、ROIにおいて検出することができる。
いくつかの実施形態では、第2の物体検出器204bが第1の物体検出器204aと並行に役割を実行し、ROIにおいて、第2の状況物体の物体特徴に基づいて、第2の物体種別と一致する第2の状況物体を検出する。第2の状況物体は、ROIにおいて描写されている第2の物理道路物体を表す。
同様に、他の物体検出器204も、第1の物体検出器204aと並行に役割を実行し、ROIにおいて、これらの状況物体の物体特徴に基づいて、他の物体検出器204と関連付けられた他の物体種別と一致する状況物体を検出する。これらの状況物体は、ROIにおいて描写されている他の物理道路物体を表す。
上述の例を続けると、ROIにおいて描写されている複数の物理道路物体のなかで、第1の物体検出器204aは、第1の物体種別「カラーコーン」と一致する第1の状況物体として第1の物理道路物体を検出し、第2の物体検出器204bは、第2の物体種別「工事標識」と一致する第2の状況物体として第2の物理道路物体を検出する。
で、所定の物体検出重み閾値を満たす物体検出重みを有する第1の部分テンプレートを決定する。他の実施形態では、物体検出器204は、対応する部分テンプレートのうちで、最も大きな物体検出重みを有する第1の部分テンプレートを決定する。いくつかの実施形態では、部分テンプレートの物体検出重みは、トレーニングプロセスをとおして決定される。トレーニングプロセスの間、物体検出器204は、その物体検出器204に関連する物体種別と一致する状況物体をさまざまなトレーニング画像のなかで検出する。物体検出器204は、各トレーニング画像において検出された状況物体の、トレーニング画像と関連付けられた所定の目標出力との比較に基づいて、部分テンプレートの物体検出重みを調整する。例えば、既知の交通状況を含むトレーニング画像から得られる出力と、当該交通状況に対応する所定の目標出力の差が閾値以下となるように、機械学習によって、当該交通状況に対応する、状況物体の物体検出重みを調整する。
の空間的位置が正しくないため、物体検出マネージャ254は、候補の第1の物体が、第1の物体種別「カラーコーン」と一致する状況物体ではないと決定する。それに応じて、物体検出マネージャ254は、候補の第1の物体についての物体信頼度スコアを0%と生成する。
物体検出器204aが、第1の道路情景画像のROIにおいて、物体信頼度スコア45%、70%、および95%をそれぞれ有する3つの第1の状況物体(例えば、カラーコーン1、カラーコーン2、カラーコーン3)を検出すると仮定する。この例では、また第2の物体種別「工事標識」と一致する状況物体を検出するように構成された第2の物体検出器204bが、ROIにおいて、物体信頼度スコア75%を有する1つの第2の状況物体(例えば、工事標識1)を検出すると仮定する。他の物体検出器204は、それらの物体検出器204の関連する物体種別と一致する状況物体が、第1の道路情景画像のROIにおいて存在していないと決定する。この例では、状況検出マネージャ206は、第1の物体種別「カラーコーン」および第2の物体種別「工事標識」が、交通状況データベース内の状況カテゴリ「工事現場」と関連付けられると決定する。それに応じて、状況検出マネージャ206は、ROIにおいて描写されている可能性のある交通状況についての予測される状況カテゴリを、状況カテゴリ「工事現場」であると決定する。
状況領域を生成するために、ROIにおいて検出された状況物体のバウンディングボックスを統合する。交通状況の状況領域は、道路情景画像のROIにおいて交通状況によって占有された画像領域を示す。上述の例を続けると、状況検出マネージャ206は、第1の道路情景画像のROIにおいて検出された、カラーコーン1、カラーコーン2、カラーコーン3、および工事標識1のバウンディングボックスを、ROIにおいて状況カテゴリ「工事現場」によって定義された交通状況の状況領域を生成するために統合する。いくつかの実施形態では、状況検出マネージャ206は、予測される状況カテゴリに対応する、ROIの状況領域、およびROIの状況信頼度スコアを出力する。いくつかの実施形態では、状況検出マネージャ206は、予測される状況カテゴリに対応する、ROIの状況領域およびROIの状況信頼度スコアを、車両データストア121に記憶する。
Iの第1の状況信頼度スコア(例えば、75%)にする。状況検出マネージャ206は、第3の物体種別「警察官」と一致する第3の状況物体(例えば、警察官1、警察官2)の第3の物体信頼度スコアと、第4の物体種別「緊急車両」と一致する第4の状況物体(例えば、緊急車両1)の第4の物体信頼度スコアとを統合して、第2の予測される状況カテゴリ「事故現場」に対応する、第1のROIの第2の状況信頼度スコア(例えば、70%)にもする。
いての第2の予測される状況カテゴリを状況カテゴリ「事故現場」であると決定する。
6が交通状況データベースを参照し、第1の物体種別「カラーコーン」および第5の物体種別「バリケード」は交通状況データベース内で状況カテゴリ「工事現場」と関連付けられており、一方、第5の物体種別「バリケード」および第3の物体種別「警察官」は交通状況データベース内で状況カテゴリ「事故現場」と関連付けられていると決定する。それに応じて、状況検出マネージャ206は、第3のROIにおいて描写されている可能性のある第1の交通状況についての第1の予測される状況カテゴリを、状況カテゴリ「工事現場」であると決定し、第3のROIにおいて描写されている可能性のある第2の交通状況についての第2の予測される状況カテゴリを状況カテゴリ「事故現場」であると決定する。この第3の例では、第5の物体種別「バリケード」は、状況カテゴリ「工事現場」および状況カテゴリ「事故現場」の両方と関連付けられ得る。本明細書の他の部分で論じるように、状況カテゴリ「事故現場」によって定義された交通状況を検出することにおける物体種別「バリケード」の状況検出重み(例えば、0.7)は、状況カテゴリ「工事現場」によって定義された交通状況を検出することにおける物体種別「バリケード」の状況検出重み(例えば、0.6)よりも相対的に大きく、それはバリケードが、工事の状況下よりも事故の状況下において存在する可能性が高いためである。
に構成された第1の物体検出器204aが、役割を実行し、第4の道路情景画像の第4のROIにおいて、第1の物体信頼度スコア35%および40%をそれぞれ有する、第1の物体種別「カラーコーン」と一致する2つの第1の状況物体(例えば、カラーコーン1、カラーコーン2)を検出する。第2の物体種別「工事標識」と一致する状況物体を検出するように構成された第2の物体検出器204bが、第1の物体検出器204aと並行に役割を実行し、第4のROIにおいて、第2の物体信頼度スコア50%を有する1つの第2の状況物体(例えば、工事標識1)を検出する。この第4の例では、2つの異なった物体種別の3つの状況物体が、第4の道路情景画像の第4のROIにおいて検出される。いくつかの実施形態では、状況検出マネージャ206は、交通状況データベースを参照し、第1の物体種別「カラーコーン」および第2の物体種別「工事標識」が、交通状況データベース内で状況カテゴリ「工事現場」と関連付けられていると決定する。それに応じて、状況検出マネージャ206は、第4のROIにおいて描写されている可能性のある第1の交通状況についての第1の予測される状況カテゴリを、状況カテゴリ「工事現場」であると決定する。
事標識2、工事標識3)の第2の物体信頼度スコアとを統合して、予測される状況カテゴリ「工事現場」に対応する、第5のROIの第2の状況信頼度スコア(例えば、85%)にする。この第4の例では、状況検出マネージャ206は、第5のROIの第2の状況信頼度スコアが、所定の状況信頼度スコア閾値(例えば、60%超)を満たしていると決定する。それに応じて、状況検出マネージャ206は、予測される状況カテゴリ「工事現場」は第5のROIに適用されると決定し、したがって状況検出マネージャ206は、予測される状況カテゴリ「工事現場」によって定義された第1の交通状況は第5の道路情景画像の第5のROIにおいて描写されていると決定する。
フォーム103を、ターゲット車両として選択する。このように、ターゲットのカメラ座標系は、第1の車両プラットフォーム103と関連付けられた第1の画像センサの第1のカメラ座標系(X1,Y1,Z1)であり得る。
、拡大、縮小など)を記述している動的交通状況マップを生成および維持する。いくつかの実施形態では、状況位置特定アプリケーション122は、動的交通状況マップをデータストア126に記憶する。いくつかの実施形態では、各車両プラットフォーム103に含まれるナビゲーションアプリケーション124は、データストア126から動的交通状況マップを取得し、さまざま道路セグメントで発生した1つまたは複数の交通状況のカバレッジ領域を求めるために動的交通状況マップを処理し、それに応じて車両プラットフォーム103が自身の目的地へ到着するための最適な車両経路を計算する。
ある。以下の説明から明らかなように、特に断らない限りは、本明細書において「処理」「計算」「コンピュータ計算(処理)」「判断」「表示」等の用語を用いた説明は、コンピュータシステムや類似の電子的計算装置の動作および処理であって、コンピュータシステムのレジスタやメモリ内の物理的(電子的)量を、他のメモリやレジスタまたは同様の情報ストレージや通信装置、表示装置内の物理量として表される他のデータへ操作および変形する動作および処理を意味する。
さらに、ある実施形態は、コンピュータが利用あるいは読み込み可能な記憶媒体からアクセス可能なコンピュータプログラムプロダクトの形態を取る。この記憶媒体は、コンピュータや任意の命令実行システムによってあるいはそれらと共に利用されるプログラムコードを提供する。コンピュータが利用あるいは読み込み可能な記憶媒体とは、命令実行システムや装置によってあるいはそれらと共に利用されるプログラムを、保持、格納、通信、伝搬および転送可能な任意の装置を指す。
ストリーミングプロトコル(RTSP)、リアルタイムトランスポートプロトコル(RTP)およびリアルタイムトランスポート制御プロトコル(RTCP)、ボイスオーバーインターネットプロトコル(VOIP)、ファイル転送プロトコル(FTP)、ウェブソケット(WS)、ワイヤレスアクセスプロトコル(WAP)、様々なメッセージングプロトコル(SMS、MMS、XMS、IMAP、SMTP、POP、WebDAVなど)、または他の既知のプロトコルを使用して、ネットワークを介して送信されうる。
103 車両プラットフォーム
105 ネットワーク
113 画像センサ
115 プロセッサ
117 メモリ
119 通信ユニット
120 状況検出アプリケーション、コンポーネント
121 車両データストア
122 状況位置特定アプリケーション
124 ナビゲーションアプリケーション
126 データストア
Claims (9)
- 道路を含む画像から、所定の物体種別に対応する状況物体を検出し、前記物体種別に対応するテンプレートとの間の類似度に基づいて、前記状況物体に対する物体信頼度スコアを生成する物体検出器を含むコンピュータによって実行される方法であって、
複数の前記物体検出器によって、前記画像に含まれる複数の状況物体に対して、物体種別と、前記物体種別の確からしさを表す物体信頼度スコアをそれぞれ生成する生成ステップと、
各々が前記状況物体に対応する物体種別の集合に基づいて、前記画像中において発生しているイベントのカテゴリを予測する予測ステップと、
複数の前記物体信頼度スコアを統合して、前記イベントのカテゴリに対応する状況信頼度スコアを生成する統合ステップと、
前記状況信頼度スコアに基づいて、前記予測した状況カテゴリに対応するイベントが前記画像中において発生しているか否かを評価する評価ステップと、
を含む方法。 - 前記イベントのカテゴリごとに、当該イベントに含まれる物体種別ごとの重みを定義したイベントデータを取得する取得ステップをさらに含み、
前記統合ステップでは、複数の前記物体信頼度スコアに、前記物体種別に対応する前記重みをそれぞれ乗算することで前記状況信頼度スコアを生成する、
請求項1に記載の方法。 - 前記予測ステップでは、複数の異なる物体種別と状況カテゴリとを関連付けたカテゴリデータを参照して、前記画像中において発生しているイベントのカテゴリを予測する、
請求項1または2に記載の方法。 - 前記生成ステップで利用される複数の物体検出器は、それぞれ異なる状況物体をターゲットとして設定されたものである、
請求項1から3のいずれかに記載の方法。 - 前記テンプレートは、第一のテンプレートと、前記第一のテンプレートよりも粒度の高い第二のテンプレートを含み、
前記物体検出器は、前記状況物体と前記第一のテンプレートとの類似度が所定値以上である場合にのみ、前記第二のテンプレートを利用した前記物体信頼度スコアの算出を行う、
請求項1から4のいずれかに記載の方法。 - 前記予測ステップでは、前記画像中において発生しているイベントのカテゴリを複数個予測し、
前記評価ステップでは、前記カテゴリにそれぞれ対応する複数の前記状況信頼度スコアに基づいて、前記画像中において発生しているイベントのカテゴリを絞り込む、
請求項1から5のいずれかに記載の方法。 - 複数の前記状況物体に外接する複数の枠を決定し、前記複数の枠を統合して、前記イベントに対応する領域を生成するステップをさらに含む、
請求項1から6のいずれかに記載の方法。 - 所定のイベントが含まれる学習画像を取得するステップと、
前記学習画像から得られる出力と、所定の目標出力との比較に基づいて、前記物体種別ごとの重みを調整するステップと、をさらに含む、
請求項2に記載の方法。 - 道路を含む画像から、所定の物体種別に対応する状況物体を検出し、前記物体種別に対応するテンプレートとの間の類似度に基づいて、前記状況物体に対する物体信頼度スコアを生成する物体検出手段と、
複数の前記物体検出手段によって、前記画像に含まれる複数の状況物体に対して、物体種別と、前記物体種別の確からしさを表す物体信頼度スコアをそれぞれ生成し、
各々が前記状況物体に対応する物体種別の集合に基づいて、前記画像中において発生しているイベントのカテゴリを予測し、
複数の前記物体信頼度スコアを統合して、前記イベントのカテゴリに対応する状況信頼度スコアを生成し、
前記状況信頼度スコアに基づいて、前記予測した状況カテゴリに対応するイベントが前記画像中において発生しているか否かを評価する制御手段と、
を含むシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/939,308 | 2018-03-29 | ||
US15/939,308 US10540554B2 (en) | 2018-03-29 | 2018-03-29 | Real-time detection of traffic situation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019175451A JP2019175451A (ja) | 2019-10-10 |
JP6741107B2 true JP6741107B2 (ja) | 2020-08-19 |
Family
ID=68056354
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019056828A Expired - Fee Related JP6741107B2 (ja) | 2018-03-29 | 2019-03-25 | 交通状況のリアルタイム検出 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10540554B2 (ja) |
JP (1) | JP6741107B2 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10908614B2 (en) * | 2017-12-19 | 2021-02-02 | Here Global B.V. | Method and apparatus for providing unknown moving object detection |
GB201804082D0 (en) * | 2018-03-14 | 2018-04-25 | Five Ai Ltd | Image annotation |
DE102018206743A1 (de) * | 2018-05-02 | 2019-11-07 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Betreiben eines Fahrerassistenzsystems eines Egofahrzeugs mit wenigstens einem Umfeldsensor zum Erfassen eines Umfelds des Egofahrzeugs, Computer-lesbares Medium, System, und Fahrzeug |
US11164015B2 (en) * | 2018-05-08 | 2021-11-02 | Ford Global Technologies, Llc | Simultaneous diagnosis and shape estimation from a perceptual system derived from range sensors |
US11734962B2 (en) * | 2018-05-16 | 2023-08-22 | Christopher Straley | Vehicle messaging system and method of operation thereof |
US11391819B2 (en) * | 2018-07-18 | 2022-07-19 | Qualcomm Incorporate | Object verification using radar images |
US10884131B1 (en) | 2018-08-03 | 2021-01-05 | GM Global Technology Operations LLC | Conflict resolver for a lidar data segmentation system of an autonomous vehicle |
CN110570389B (zh) * | 2018-09-18 | 2020-07-17 | 阿里巴巴集团控股有限公司 | 车辆损伤识别方法及装置 |
US11210335B2 (en) * | 2018-09-27 | 2021-12-28 | Optim Corporation | System and method for judging situation of object |
JP6683280B1 (ja) | 2018-10-19 | 2020-04-15 | ソニー株式会社 | センサ装置、信号処理方法 |
US10818386B2 (en) | 2018-11-21 | 2020-10-27 | Enlitic, Inc. | Multi-label heat map generating system |
US11068718B2 (en) * | 2019-01-09 | 2021-07-20 | International Business Machines Corporation | Attribute classifiers for image classification |
US10817777B2 (en) * | 2019-01-31 | 2020-10-27 | StradVision, Inc. | Learning method and learning device for integrating object detection information acquired through V2V communication from other autonomous vehicle with object detection information generated by present autonomous vehicle, and testing method and testing device using the same |
GB2607172B (en) * | 2019-04-25 | 2023-11-01 | Motional Ad Llc | Graphical user interface for display of autonomous vehicle behaviors |
DE102019210801A1 (de) * | 2019-07-22 | 2021-01-28 | Robert Bosch Gmbh | Verfahren, Vorrichtung, Computerprogramm und maschinenlesbares Speichermedium zur Detektion eines Objekts |
US11100801B2 (en) * | 2019-08-12 | 2021-08-24 | Toyota Motor North America, Inc. | Utilizing sensors to detect hazard from other vehicle while driving |
JP7460882B2 (ja) * | 2019-11-22 | 2024-04-03 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、情報処理システム、制御方法、及びプログラム |
CN111083358A (zh) * | 2019-12-05 | 2020-04-28 | 浙江大华技术股份有限公司 | 一种目标抓拍方法、装置及系统 |
US11281209B2 (en) * | 2019-12-19 | 2022-03-22 | Zf Friedrichshafen Ag | Vehicle vision system |
US11928789B2 (en) | 2019-12-19 | 2024-03-12 | Zf Friedrichshafen Ag | Vehicle vision system |
US11407432B2 (en) * | 2020-04-30 | 2022-08-09 | Toyota Motor Engineering & Manufacturing North America, Inc. | Connectivity-enabled traffic-aware supplemental sensor control for informed driving |
KR20220046731A (ko) * | 2020-10-07 | 2022-04-15 | 현대자동차주식회사 | 자율주행장치 및 정밀지도 생성방법 |
CN112183485B (zh) * | 2020-11-02 | 2024-03-05 | 北京信息科技大学 | 基于深度学习的交通锥桶检测定位方法、系统及存储介质 |
US11893769B2 (en) | 2021-06-04 | 2024-02-06 | Vade Usa, Incorporated | Data collection for object detectors |
CN114926753B (zh) * | 2022-06-16 | 2023-10-13 | 无锡慧眼人工智能科技有限公司 | 一种海量图像条件下的快速目标场景信息提取方法 |
CN117641278A (zh) * | 2022-08-12 | 2024-03-01 | 通用汽车环球科技运作有限责任公司 | 用于交通状况洞察的系统和方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004362186A (ja) * | 2003-06-04 | 2004-12-24 | Juki Corp | テンプレートマッチング方法及び装置 |
US8924078B2 (en) * | 2004-11-18 | 2014-12-30 | Gentex Corporation | Image acquisition and processing system for vehicle equipment control |
JP2006186808A (ja) * | 2004-12-28 | 2006-07-13 | Mitsubishi Electric Corp | 映像記録装置 |
JP4614826B2 (ja) | 2005-06-14 | 2011-01-19 | トヨタ自動車株式会社 | 道路区画線検出装置 |
US8605947B2 (en) * | 2008-04-24 | 2013-12-10 | GM Global Technology Operations LLC | Method for detecting a clear path of travel for a vehicle enhanced by object detection |
JP2011158346A (ja) * | 2010-02-01 | 2011-08-18 | Furuno Electric Co Ltd | 画像処理装置、レーダ装置、画像処理方法および画像処理プログラム |
TWI408625B (zh) * | 2010-04-15 | 2013-09-11 | Univ Nat Chiao Tung | 車輛追蹤系統及其方法 |
US9195914B2 (en) * | 2012-09-05 | 2015-11-24 | Google Inc. | Construction zone sign detection |
US9221461B2 (en) | 2012-09-05 | 2015-12-29 | Google Inc. | Construction zone detection using a plurality of information sources |
US9141107B2 (en) * | 2013-04-10 | 2015-09-22 | Google Inc. | Mapping active and inactive construction zones for autonomous driving |
JP6046666B2 (ja) * | 2014-06-24 | 2016-12-21 | トヨタ自動車株式会社 | 走路境界推定装置及び走路境界推定方法 |
CN104200236B (zh) | 2014-08-22 | 2018-10-26 | 浙江生辉照明有限公司 | 基于dpm的快速目标检测方法 |
US9424475B1 (en) | 2014-09-17 | 2016-08-23 | Google Inc. | Construction object detection |
JP6554900B2 (ja) * | 2015-04-28 | 2019-08-07 | オムロン株式会社 | テンプレート作成装置及びテンプレート作成方法 |
-
2018
- 2018-03-29 US US15/939,308 patent/US10540554B2/en not_active Expired - Fee Related
-
2019
- 2019-03-25 JP JP2019056828A patent/JP6741107B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2019175451A (ja) | 2019-10-10 |
US10540554B2 (en) | 2020-01-21 |
US20190303686A1 (en) | 2019-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6741107B2 (ja) | 交通状況のリアルタイム検出 | |
JP6729673B2 (ja) | 複数車両の協力による交通イベントの位置特定 | |
US10916135B2 (en) | Similarity learning and association between observations of multiple connected vehicles | |
EP3511863B1 (en) | Distributable representation learning for associating observations from multiple vehicles | |
JP7211307B2 (ja) | 機械学習を使用した距離推定 | |
JP6693587B2 (ja) | 情報処理方法および情報処理システム | |
US10600251B2 (en) | Method of ground adjustment for in-vehicle augmented reality systems | |
US11521371B2 (en) | Systems and methods for semantic map-based adaptive auto-exposure | |
JP2020115322A (ja) | 車両位置推定のためのシステムおよび方法 | |
US20190094858A1 (en) | Parking Location Prediction | |
US11238370B2 (en) | Approaches for determining sensor calibration | |
JP2019028861A (ja) | 信号処理装置、および信号処理方法、プログラム、並びに移動体 | |
JP6678605B2 (ja) | 情報処理装置、情報処理方法、および情報処理プログラム | |
US11676393B2 (en) | Method and system for training machine learning algorithm to detect objects at distance | |
US20210389133A1 (en) | Systems and methods for deriving path-prior data using collected trajectories | |
US20160059783A1 (en) | Generating spatial information for a heads-up display | |
EP3842760B1 (en) | Methods of and system for generating trajectory for self-driving car (sdc) | |
JP7376992B2 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
WO2020031812A1 (ja) | 情報処理装置、情報処理方法、情報処理プログラム、及び移動体 | |
CN117015792A (zh) | 有凹图像放大用于自动驾驶生成物体检测标签的系统和方法 | |
JP7505596B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
US20240062349A1 (en) | Enhanced high dynamic range pipeline for three-dimensional image signal processing | |
EP4361961A1 (en) | Method of determining information related to road user | |
US20240157959A1 (en) | Vehicle electronic device and method for providing notification related to parking environment based on image reading |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190325 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200605 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200623 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200706 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6741107 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |