JP6741107B2 - 交通状況のリアルタイム検出 - Google Patents

交通状況のリアルタイム検出 Download PDF

Info

Publication number
JP6741107B2
JP6741107B2 JP2019056828A JP2019056828A JP6741107B2 JP 6741107 B2 JP6741107 B2 JP 6741107B2 JP 2019056828 A JP2019056828 A JP 2019056828A JP 2019056828 A JP2019056828 A JP 2019056828A JP 6741107 B2 JP6741107 B2 JP 6741107B2
Authority
JP
Japan
Prior art keywords
situation
roi
image
category
traffic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2019056828A
Other languages
English (en)
Other versions
JP2019175451A (ja
Inventor
ゴ,レイ
尾口 健太郎
健太郎 尾口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of JP2019175451A publication Critical patent/JP2019175451A/ja
Application granted granted Critical
Publication of JP6741107B2 publication Critical patent/JP6741107B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

(関連出願への相互参照)
本出願は、「REAL-TIME DETECTION OF TRAFFIC SITUATION」と題し、2018年3月29日に出願された米国特許出願第15/939,308号の優先権を主張する。これらの特許出願は、その全体が参照によって本願明細書に援用される。
本開示は、交通状況(Traffic situation, 例えば道路工事といった道路上に存在する
交通に影響を与えるイベントを指す)を検出することに関する。より具体的な例では、本開示は、道路情景画像に描写されている交通状況を、画像処理を使用して検出するための技術に関する。
適応型経路計画は、多くの場合、交通状況の検出を必要とする。ただし、車両が道路に沿って走行しながら、リアルタイムに交通状況を検出および解析することは困難である。今日では、最新車両には、それらが取り込んだ画像に依拠して、それらの周囲環境における交通状況を検出するものもある。ただし、これらの車両は、一般に、複数の物体を伴った複雑な交通状況を検出および解析する能力はなく、または、それらがこれらの交通状況を検出および解析することができる限りにおいては、こうした検出および解析は、画像に対して行われる画像処理の限界に起因して、多くの場合、不完全かつ不正確である。そうでなければ、要求される計算が大量であることから、既存の技術は、一般に、リアルタイムに実行することが、実際的でなくまたは不可能である。
特開2006−350571号公報
本開示に記載のこの主題事項は、道路情景画像において描写されている交通状況を検出するための新技術を提供することによって、既存ソリューションの欠点および限界を克服する。
本開示に記載の主題事項の革新的な一態様によれば、コンピュータ実装方法は、
道路を描写している画像から注目領域(Region of interest:ROI)を抽出することと、
ROIにおいて第1の状況物体の物体特徴に基づいて第1の物体種別と一致する第1の状況物体を検出する、第1の物体検出器の役割を実行することであって、第1の状況物体は、ROIにおいて描写されている第1の物理道路物体を表すことと、
第1の状況物体と第1の物体種別との間の類似度に基づいて、第1の状況物体についての第1の物体信頼度スコアを生成することと、
第1の物体検出器と並行に、ROIにおいて、第2の状況物体の物体特徴に基づいて、第1の物体種別と異なった第2の物体種別と一致する第2の状況物体を検出する、第2の物体検出器の役割を実行することであって、第2の状況物体は、ROIにおいて描写されている第2の物理道路物体を表すことと、
第2の状況物体と第2の物体種別との間の類似度に基づいて、第2の状況物体についての第2の物体信頼度スコアを生成することと、
第1の物体検出器によって検出された第1の物体種別および第2の物体検出器によって検出された第2の物体種別が第1の予測される状況カテゴリと関連付けられることを決定
することと、
第1の物体信頼度スコアおよび第2の物体信頼度スコアを、第1の予測される状況カテゴリに対応する第1の状況信頼度スコアに統合することと、
第1の予測される状況カテゴリが、ROIに適用されること、および
第1の予測される状況カテゴリによって定義された第1の交通状況がROIにおいて描写されていること、を決定するために第1の状況信頼度スコアを評価することと、を含む。
一般に、本開示に記載の主題事項の別の革新的な態様は、
道路を描写している第1の画像から第1の注目領域(Region of interest:ROI)を抽出することと、
第1のROIにおいて第1の物体種別と一致する第1の状況物体を検出する第1の物体検出器、および第1のROIにおいて第2の物体種別と一致する第2の状況物体を検出する第2の物体検出器、の役割を並行に実行することであって、第1の物体種別は第2の物体種別と異なることと、
第1の状況物体についての第1の物体信頼度スコア、および第2の状況物体についての第2の物体信頼度スコアを生成することと、
第1の物体検出器によって検出された第1の物体種別および第2の物体検出器によって検出された第2の物体種別が第1の予測される状況カテゴリと関連付けられることを決定することと、
第1の物体信頼度スコアおよび第2の物体信頼度スコアを、第1の予測される状況カテゴリに対応する第1の状況信頼度スコアに統合することと、
第1の予測される状況カテゴリが、第1の画像の第1のROIに適用されないこと、および第1の予測される状況カテゴリによって定義された第1の交通状況が第1の画像の第1のROIにおいて描写されていないことを決定するために、第1の状況信頼度スコアを評価することと、
道路を描写している第2の画像から第2のROIを抽出することと、
第2のROIにおいて第1の物体種別と一致する第3の状況物体を検出する第1の物体検出器、および第2のROIにおいて第2の物体種別と一致する第4の状況物体を検出する第2の物体検出器、の役割を並行に実行することと、
第3の状況物体についての第3の物体信頼度スコア、および第4の状況物体についての第4の物体信頼度スコアを生成することと、
第3の物体信頼度スコアおよび第4の物体信頼度スコアを、第1の予測される状況カテゴリに対応する第2の状況信頼度スコアに統合することと、
第1の予測される状況カテゴリが、第2の画像の第2のROIに適用されること、および
第1の予測される状況カテゴリによって定義された第1の交通状況が第2の画像の第2のROIにおいて描写されていること、を決定するために、第2の状況信頼度スコアを評価することと、を含むコンピュータ実装方法で具現化され得る。
一般に、本開示に記載の主題事項の別の革新的な態様は、1つまたは複数のプロセッサと、1つまたは複数のプロセッサによって実行されたときにシステムに、
道路を描写している画像から注目領域(Region of interest:ROI)を抽出させ、
ROIにおいて第1の状況物体の物体特徴に基づいて第1の物体種別と一致する第1の状況物体を検出する、第1の物体検出器の役割を実行させ、第1の状況物体は、ROIにおいて描写されている第1の物理道路物体を表しており、
第1の状況物体と第1の物体種別との間の類似度に基づいて、第1の状況物体についての第1の物体信頼度スコアを生成させ、
第1の物体検出器と並行に、ROIにおいて第2の状況物体の物体特徴に基づいて、第
1の物体種別と異なった第2の物体種別と一致する第2の状況物体を検出する、第2の物体検出器の役割を実行させ、第2の状況物体は、ROIにおいて描写されている第2の物理道路物体を表しており、
第2の状況物体と第2の物体種別との間の類似度に基づいて、第2の状況物体についての第2の物体信頼度スコアを生成させ、
第1の物体検出器によって検出された第1の物体種別および第2の物体検出器によって検出された第2の物体種別が第1の予測される状況カテゴリと関連付けられることを決定させ、
第1の物体信頼度スコアと第2の物体信頼度スコアとを統合して、第1の予測される状況カテゴリに対応する第1の状況信頼度スコアにさせ、
第1の予測される状況カテゴリが、ROIに適用されること、および第1の予測される状況カテゴリによって定義された第1の交通状況がROIにおいて描写されていること、を決定するために第1の状況信頼度スコアを評価させる、
命令を記憶する1つまたは複数のメモリと、を備えるシステムにおいて具現化され得る。
これらおよび他の実施態様は、それぞれ以下の特徴、すなわち、
・ROIにおいて第1の状況物体を示す第1のバウンディングボックスを決定することと、ROIにおいて第2の状況物体を示す第2のバウンディングボックスを決定することと、ROIにおいて描写されている第1の交通状況の状況領域を生成するために、第1の状況物体を示す第1のバウンディングボックスと第2の状況物体を示す第2のバウンディングボックスとを統合することという特徴
・画像からROIを抽出することは、画像から、目立つ色と関連付けられたROIを抽出することを含むという特徴
・第1の予測される状況カテゴリは、データストア内の第1の一式の物体種別と関連付けられ、第1の一式の物体種別は、第1の物体検出器によって検出された第1の物体種別と第2の物体検出器によって検出された第2の物体種別とを含み、第2の予測される状況カテゴリは、データストア内の第2の一式の物体種別と関連付けられ、第2の一式の物体種別は第3の物体検出器によって検出された第3の物体種別と第4の物体検出器によって検出された第4の物体種別とを含み、第3の物体種別は第4の物体種別と異なるという特徴・第1の物体検出器と並行に、ROIにおいて、第3の状況物体の物体特徴に基づいて、第3の物体種別と一致する第3の状況物体を検出する第3の物体検出器の役割を実行することであって、第3の状況物体は、ROIにおいて描写されている第3の物理道路物体を表すことと、第3の状況物体と第3の物体種別との間の類似度に基づいて、第3の状況物体についての第3の物体信頼度スコアを生成することと、第1の物体検出器と並行に、ROIにおいて、第4の状況物体の物体特徴に基づいて、第4の物体種別と一致する第4の状況物体を検出する第4の物体検出器の役割を実行することであって、第4の状況物体は、ROIにおいて描写されている第4の物理道路物体を表すことと、第4の状況物体と第4の物体種別との間の類似度に基づいて、第4の状況物体についての第4の物体信頼度スコアを生成することと、第3の物体検出器によって検出された第3の物体種別および第4の物体検出器によって検出された第4の物体種別が、第2の予測される状況カテゴリと関連付けられることを決定することと、第3の物体信頼度スコアと第4の物体信頼度スコアとを統合して、第2の予測される状況カテゴリに対応する第2の状況信頼度スコアにすることと、第1の予測される状況カテゴリがROIに適用され、第2の予測される状況カテゴリがROIに適用されること、および第1の予測される状況カテゴリによって定義された第1の交通状況と第2の予測される状況カテゴリによって定義された第2の交通状況とがROIにおいて描写されていること、を決定するために、第1の状況信頼度スコアおよび第2の状況信頼度スコアを評価することという特徴
・第1の物体検出器と並行に、ROIにおいて、第3の状況物体の物体特徴に基づいて、第3の物体種別と一致する第3の状況物体を検出する第3の物体検出器の役割を実行する
ことであって、第3の状況物体は、ROIにおいて描写されている第3の物理道路物体を表すことと、第3の状況物体と第3の物体種別との間の類似度に基づいて、第3の状況物体についての第3の物体信頼度スコアを生成することと、第1の物体検出器と並行に、ROIにおいて、第4の状況物体の物体特徴に基づいて、第4の物体種別と一致する第4の状況物体を検出する第4の物体検出器の役割を実行することであって、第4の状況物体は、ROIにおいて描写されている第4の物理道路物体を表すことと、第4の状況物体と第4の物体種別との間の類似度に基づいて、第4の状況物体についての第4の物体信頼度スコアを生成することと、第3の物体検出器によって検出された第3の物体種別および第4の物体検出器によって検出された第4の物体種別が、第2の予測される状況カテゴリと関連付けられることを決定することと、第3の物体信頼度スコアと第4の物体信頼度スコアとを統合して、第2の予測される状況カテゴリに対応する第2の状況信頼度スコアにすることと、第1の予測される状況カテゴリがROIに適用され、第2の予測される状況カテゴリがROIに適用されないこと、および第1の予測される状況カテゴリによって定義された第1の交通状況がROIにおいて描写されていること、を決定するために、第1の状況信頼度スコアおよび第2の状況信頼度スコアを評価することという特徴
・第1の物体検出器と並行に、ROIにおいて、第3の状況物体の物体特徴に基づいて、第3の物体種別と一致する第3の状況物体を検出する第3の物体検出器の役割を実行することであって、第3の状況物体は、ROIにおいて描写されている第3の物理道路物体を表すことと、第3の状況物体と第3の物体種別との間の類似度に基づいて、第3の状況物体についての第3の物体信頼度スコアを生成することと、第1の物体検出器によって検出された第1の物体種別および第3の物体検出器によって検出された第3の物体種別が、第2の予測される状況カテゴリと関連付けられることを決定することと、第1の物体信頼度スコアと第3の物体信頼度スコアとを統合して、第2の予測される状況カテゴリに対応する第2の状況信頼度スコアにすることと、第1の予測される状況カテゴリがROIに適用され、第2の予測される状況カテゴリがROIに適用されないこと、および第1の予測される状況カテゴリによって定義された第1の交通状況がROIにおいて描写されていること、を決定するために、第1の状況信頼度スコアおよび第2の状況信頼度スコアを評価することという特徴
・第1の物体信頼度スコアと第2の物体信頼度スコアとを統合して、第1の予測される状況カテゴリに対応する第1の状況信頼度スコアにすることは、第1の予測される状況カテゴリによって定義された交通状況を検出することにおける第1の物体種別の第1の状況検出重みを取得することと、第1の予測される状況カテゴリによって定義された交通状況を検出することにおける第2の物体種別の第2の状況検出重みを取得することと、第1の状況物体の第1の物体信頼度スコア、第1の物体種別の第1の状況検出重み、第2の状況物体の第2の物体信頼度スコア、および第2の物体種別の第2の状況検出重み、に基づいて、第1の状況信頼度スコアを計算すること、とを含むという特徴
・第1の予測される状況カテゴリによって定義された第2の交通状況が、トレーニング画像において描写されていることを決定することと、トレーニング画像において検出された第2の交通状況の、トレーニング画像と関連付けられたあらかじめ決定された目標出力との比較に基づいて、第1の予測される状況カテゴリによって定義された交通状況を検出することにおける、第1の物体種別の第1の状況検出重み、および第1の予測される状況カテゴリによって定義された交通状況を検出することにおける第2の物体種別の第2の状況検出重みの、1つまたは複数を調節すること、という特徴の、1つまたは複数を随意に含み得る。
本発明における方法は、
道路を含む画像から、所定の物体種別に対応する状況物体を検出し、前記物体種別に対応するテンプレートとの間の類似度に基づいて、前記状況物体に対する物体信頼度スコアを生成する物体検出器を含むコンピュータによって実行される方法であって、複数の前記物体検出器によって、前記画像に含まれる状況物体に対応する物体種別と、対応する物体
信頼度スコアをそれぞれ生成する生成ステップと、複数の前記状況物体に対応する物体種別に基づいて、前記画像中において発生しているイベントのカテゴリを予測する予測ステップと、複数の前記物体信頼度スコアを統合して、前記イベントのカテゴリに対応する状況信頼度スコアを生成する統合ステップと、前記状況信頼度スコアに基づいて、前記予測した状況カテゴリに対応するイベントが前記画像中において発生しているか否かを評価する評価ステップと、を含む。
なお、前記イベントのカテゴリごとに、当該イベントに含まれる物体種別ごとの重みを定義したイベントデータを取得する取得ステップをさらに含み、前記統合ステップでは、複数の前記物体信頼度スコアに、前記物体種別に対応する前記重みをそれぞれ乗算することで前記状況信頼度スコアを生成することを特徴としてもよい。
また、前記予測ステップでは、複数の異なる物体種別と状況カテゴリとを関連付けたカテゴリデータを参照して、前記画像中において発生しているイベントのカテゴリを予測することを特徴としてもよい。
また、前記生成ステップで利用される複数の物体検出器は、それぞれ異なる状況物体をターゲットとして設定されたものであることを特徴としてもよい。
また、前記テンプレートは、第一のテンプレートと、前記第一のテンプレートよりも粒度の高い第二のテンプレートを含み、前記物体検出器は、前記状況物体と前記第一のテンプレートとの類似度が所定値以上である場合にのみ、前記第二のテンプレートを利用した前記物体信頼度スコアの算出を行うことを特徴としてもよい。
また、前記予測ステップでは、前記画像中において発生しているイベントのカテゴリを複数個予測し、前記評価ステップでは、前記カテゴリにそれぞれ対応する複数の前記状況信頼度スコアに基づいて、前記画像中において発生しているイベントのカテゴリを絞り込むことを特徴としてもよい。
また、複数の前記状況物体に外接する複数の枠を決定し、前記複数の枠を統合して、前記イベントに対応する領域を生成するステップをさらに含むことを特徴としてもよい。
また、所定のイベントが含まれる学習画像を取得するステップと、前記学習画像から得られる出力と、所定の目標出力との比較に基づいて、前記物体種別ごとの重みを調整するステップと、をさらに含むことを特徴としてもよい。
また、本発明におけるシステムは、
道路を含む画像から、所定の物体種別に対応する状況物体を検出し、前記物体種別に対応するテンプレートとの間の類似度に基づいて、前記状況物体に対する物体信頼度スコアを生成する物体検出手段と、複数の前記物体検出手段によって、前記画像に含まれる状況物体に対応する物体種別と、対応する物体信頼度スコアをそれぞれ生成し、複数の前記状況物体に対応する物体種別に基づいて、前記画像中において発生しているイベントのカテゴリを予測し、複数の前記物体信頼度スコアを統合して、前記イベントのカテゴリに対応する状況信頼度スコアを生成し、前記状況信頼度スコアに基づいて、前記予測した状況カテゴリに対応するイベントが前記画像中において発生しているか否かを評価する制御手段と、を含む。
これらおよび他の態様の1つまたは複数の他の実施態様は、非一時的なコンピュータ記憶デバイス上でエンコードされた、方法の動作を実行するように構成された、対応するシステム、装置、およびコンピュータプログラムを含む。
本開示に提示する、交通状況を検出するための新技術は、いくつかの点において特に有利である。例えば、本明細書に記載の技術は、道路情景画像におけるさまざまな状況物体を検出すること、および道路情景画像が、特定の状況カテゴリによって定義された交通状況を描写しているかどうかを決定するために複数の状況物体の検出の評価をすることが可能である。したがって、複雑な交通状況を検出およびカテゴリ分けすることにおける精度
を向上させることができる。さらなる例として、本技術は、状況物体を検出することにおいて、物体部分の検出に優先順位をつけることができ、複数の物体種別の状況物体を並行に検出することができる。その結果、本明細書に記載の技術は、処理時間を大幅に減らすことができ、そのため、交通状況を検出およびカテゴリ分けするためのリアルタイム実装に有利に適用することができる。
前述の利点は、例として提示されていること、および技術には、多くの他の利点および利益があり得ることが理解されるべきである。
本開示は、添付図面の各図に、限定の目的ではなく、例として示されており、類似の要素を参照するために同様の符号が使用されている。
交通状況を検出するための一例のシステムのブロック図である。 一例の状況検出アプリケーションのブロック図である。 交通状況を検出するための一例の方法のフローチャートである。 注目領域を抽出および処理するための一例の方法のフローチャートである。 注目領域と関連付けられた状況信頼度スコアを計算するための一例の方法のフローチャートである。 物体種別と関連付けられた状況物体を検出するための一例の方法のフローチャートである。
本明細書に記載の技術は、道路情景画像に描写された交通状況を正確かつ効率的に検出することができる。以下でさらに詳細に記載するように、本技術は、道路情景画像から注目領域(Region of interest:ROI)を抽出すること、ROIにおいてさまざまな物体種別の状況物体を検出すること、および特定の状況カテゴリによって定義された交通状況をROIが描写しているかどうかを決定するために、状況物体の検出を評価することができる。道路情景画像のROIが、特定の状況カテゴリによって定義された交通状況を描写している場合、その道路情景画像は、適応型経路計画を実行するために交通状況を位置特定するために使用される。
図1は、道路情景画像に描写されている交通状況を検出するための一例のシステム100のブロック図である。示されているように、システム100は、ネットワーク105を介して電子通信のために連結された、サーバ101、および1つまたは複数の車両プラットフォーム103a〜103nを備えている。図1および残りの図において、符号後の文字、例えば「103a」は、当該の特定の符号を有する要素への参照を表す。後に続く文字を伴わないテキスト、例えば符号「103」は、当該の符号を付した要素のインスタンスへの全般的な参照を表す。図1に記載のシステム100は、例として提示されていること、ならびにシステム100や、本開示によって想定されるさらなるシステムは、追加の、または、より少ないコンポーネントを含み、コンポーネントを結合し、または、コンポーネントの1つまたは複数を追加のコンポーネントなどに分割し得ることが理解されるべきである。例えば、システム100は、任意の数の車両プラットフォーム103、ネットワーク105、またはサーバ101を備えうる。
ネットワーク105は、従来タイプ、有線や無線でありえ、スター構成、トークンリング構成、またはその他の構成を含む、多数の異なった構成を有しうる。例えば、ネットワーク105は、1つまたは複数の、ローカル・エリア・ネットワーク(Local area network:LAN)、ワイド・エリア・ネットワーク(Wide area
network:WAN)(例えばインターネット)、パーソナル・エリア・ネットワ
ーク(Personal area network:PAN)、パブリックネットワーク、プライベートネットワーク、仮想ネットワーク、仮想プライベートネットワーク、ピア・ツー・ピア・ネットワーク、近距離ネットワーク(例えばBluetooth(登録商標)、NFCなど)、車両用ネットワーク、複数のデバイスが通信し得るその他の相互接続されたデータ経路、を含みうる。
ネットワーク105は、さまざまな異なった通信プロトコルでデータを送信するための電気通信ネットワークの部分にも連結されるかまたはそれも含みうる。例のプロトコルは、伝送制御プロトコル/インターネットプロトコル(TCP/IP)、ユーザ・データグラム・プロトコル(UDP)、伝送制御プロトコル(TCP)、ハイパーテキスト転送プロトコル(HTTP)、セキュアハイパーテキスト転送プロトコル(HTTPS)、動的適応ストリーミング・オーバ・ハイパーテキスト転送プロトコル(DASH)、リアルタイム・ストリーミング・プロトコル(RTSP)、リアルタイム伝送プロトコル(RTP)およびリアルタイム伝送制御プロトコル(RTCP)、ボイス・オーバ・インターネット・プロトコル(VOIP)、ファイル転送プロトコル(FTP)、WebSocket(WS)、無線アクセスプロコル(WAP)、さまざまなメッセージプロトコル(SMS、MMS、XMS、IMAP、SMTP、POP、WebDAVなど)、または他の適切なプロトコルを含むが、これには限定されない。いくつかの実施形態では、ネットワーク105は、DSRC(専用短距離通信:Dedicated Short Range Communication)、WAVE、802.11p、3G,4G,5G+ネットワーク、WiFi(登録商標)、衛星ネットワーク、車車間(vehicle−to−vehicle:V2V)ネットワーク、路車間(vehicle−to−infrastructure/infrastructure−to−vehicle:V2I/I2V)、またはその他の任意の無線ネットワークなどの接続を使用する無線ネットワークである。図1は、サーバ101および車両プラットフォーム103に連結するネットワーク105について単一のブロックを示しているが、上述のとおり、ネットワーク105は、実際には任意の数の、ネットワークの組合せを含み得ることが理解されるべきである。
車両プラットフォーム103は、センサ113、プロセッサ115、メモリ117、通信ユニット119、車両データストア121、状況検出アプリケーション120、状況位置特定アプリケーション122、およびナビゲーションアプリケーション124を有する計算デバイス152を含んでいる。計算デバイス152の例は、仮想的または物理的なコンピュータプロセッサ、制御ユニット、マイクロコントローラなどを含み、それらは、1つまたは複数のセンサ113、アクチュエータ、モチベータなど、車両プラットフォーム103の他のコンポーネントに連結されている。車両プラットフォーム103は、信号路141を介してネットワーク105に連結され、他の車両プラットフォーム103やサーバ101へデータを送信、およびそれらからデータを受信する。いくつかの実施形態では、車両プラットフォーム103は、あるポイントから別のポイントへ伝送することが可能である。車両プラットフォーム103の非限定的な例には、車両、自動車、バス、ボート、飛行機、生体工学インプラント、ロボット、または、非一時的なコンピュータエレクトロニクス(例えば、プロセッサ、メモリ、または、任意の組合せの非一時的なコンピュータエレクトロニクス)を有するその他の任意のプラットフォームが含まれる。車両プラットフォーム103は、本明細書では車両と称される。
プロセッサ115は、さまざまな入力/出力、論理、数学的演算を実行することによって、ソフトウェア命令(例えばタスク)を実行する。プロセッサ115は、データ信号を処理するためのさまざまな計算アーキテクチャを有しうる。プロセッサ115は、物理的または仮想的でありえ、単一のコア、または複数の処理ユニットやコアを含みうる。プラットフォーム103の観点から、プロセッサは、乗用車などのプラットフォーム103に実装される電子制御ユニット(Electronic control unit:EC
U)であり得るが、他のタイプのプラットフォームも可能かつ想定される。ECUは、状況検出アプリケーション120によるアクセスや検索のために、車両運行データとしてセンサデータを受信し、車両データストア121に記憶する。いくつかの実施態様では、プロセッサ115は、電子表示信号を生成、および入力/出力デバイスへ供給すること、画像の表示をサポートすること、画像を取り込み、送信すること、さまざまな種別の物体認識および状況検出を含む複雑なタスクを実行すること、などが可能である。いくつかの実施態様では、プロセッサ115は、そこからデータおよび命令にアクセスするため、およびそこへデータを記憶するために、バス154を介してメモリ117に連結される。バス154は、プロセッサ115を、例えばセンサ113、メモリ117、通信ユニット119、車両データストア121を含む、プラットフォーム103の他のコンポーネントに連結される。
状況検出アプリケーション120は、道路情景画像に描写されている交通状況を検出するために実行可能なコンピュータロジックである。図1に示すように、サーバ101および車両プラットフォーム103a〜103nは、状況検出アプリケーション120のインスタンス120aおよび120b〜120nを含む。いくつかの実施形態では、各インスタンス120aおよび120b〜120nは、図2に記載の状況検出アプリケーション120の1つまたは複数のコンポーネントを含み、インスタンスがどこに存在しているかに応じて、本明細書に記載の機能性を完全にまたは部分的に実行するように構成される。いくつかの実施形態では、状況検出アプリケーション120は、1つまたは複数のコンピュータデバイスの1つまたは複数のプロセッサによって実行可能なソフトウェアを使用して、フィールドプログラマブル・ゲート・アレイ(FPGA)、特定用途向け集積回路(ASIC)などではあるがそれには限定されないハードウェア、ハードウェアとソフトウェアの組合せなどを使用して実装される。状況検出アプリケーション120は、センサデータや車両データを受信および処理し、バス154を介して、メモリ117、通信ユニット119、車両データストア121などの、車両プラットフォーム103の他の要素と通信する。状況検出アプリケーション120は、少なくとも図2〜図6を参照しつつ、以下で詳細に記載する。
状況位置特定アプリケーション122は、交通状況を位置特定するために実行可能なコンピュータロジックである。図1に示すように、サーバ101および車両プラットフォーム103a〜103nは、状況位置特定アプリケーション122のインスタンス122aおよび122b〜122nを含む。いくつかの実施形態では、状況位置特定アプリケーション122は、1つまたは複数のコンピュータデバイスの1つまたは複数のプロセッサによって実行可能なソフトウェアを使用して、フィールドプログラマブル・ゲート・アレイ(FPGA)、特定用途向け集積回路(ASIC)などではあるがそれには限定されないハードウェア、ハードウェアとソフトウェアの組合せなどを使用して実装される。いくつかの実施形態では、状況位置特定アプリケーション122は、交通状況を描写しているとして状況検出アプリケーション120が決定する道路情景画像を使用して、交通状況内に存在する状況物体の地理位置座標を計算する。いくつかの実施形態では、状況位置特定アプリケーション122は、状況物体の地理位置座標に基づいて、地理的なマップ上での交通状況のカバレッジ領域を決定し、地理的なマップ上での交通状況のカバレッジ領域をナビゲーションアプリケーション124に提供する。
ナビゲーションアプリケーション124は、ナビゲーションガイダンスをユーザに提供するために実行可能なコンピュータロジックである。図1に示すように、サーバ101および車両プラットフォーム103a〜103nは、ナビゲーションアプリケーション124のインスタンス124aおよび124b〜124nを含む。いくつかの実施形態では、ナビゲーションアプリケーション124は、1つまたは複数のコンピュータデバイスの1つまたは複数のプロセッサによって実行可能なソフトウェアを使用して、フィールドプロ
グラマブル・ゲート・アレイ(FPGA)、特定用途向け集積回路(ASIC)などではあるがそれには限定されないハードウェア、ハードウェアとソフトウェアの組合せなどを使用して実装される。いくつかの実施形態では、ナビゲーションアプリケーション124は、状況位置特定アプリケーション122によって決定された1つまたは複数の交通状況のカバレッジ領域に基づいて、ナビゲーション経路を決定または更新するために経路計画を実行し、道路を占有している交通状況のカバレッジ領域に適合するナビゲーション経路に対応するナビゲーション命令(例えば、車線変更操作を提案する)を生成し、車両プラットフォーム103の1つまたは複数の出力デバイスを介してユーザにナビゲーション命令を提供する。
メモリ117には、非一時的なコンピュータ使用可能(例えば、読み取り可能、書き込み可能など)媒体が含まれ、それは、プロセッサ115によって、またはそれと接続して処理するための、命令、データ、コンピュータプログラム、ソフトウェア、コード、ルーチンなどを、包含、記憶、通信、伝搬または伝送することができる、任意の有形非一時的な装置またはデバイスとすることができる。例えば、メモリ117は、状況検出アプリケーション120、状況位置特定アプリケーション122、またはナビゲーションアプリケーション124を記憶する。いくつかの実施形態では、メモリ117は、揮発性メモリまたは不揮発性メモリのうちの1つまたは複数を含む。例えば、メモリ117は、ダイナミック・ランダム・アクセス・メモリ(DRAM)デバイス、スタティック・ランダム・アクセス・メモリ(SRAM)デバイス、ディスクリートのメモリデバイス(例えばPROM、FPROM、ROM)、ハード・ディスク・ドライブ、光ディスクドライブ(CD、DVD、Blu−ray(登録商標)など)のうちの1つまたは複数を含み得るが、それには限定されない。メモリ117は、単一のデバイスであり得るか、または複数のタイプのデバイスおよび構成を含み得ることが理解されるべきである。
通信ユニット119は、無線や有線接続を使用して(例えば、ネットワーク105を介して)通信可能に連結されている他の計算デバイスへデータを送信、およびそこからデータを受信する。通信ユニット119は、データを送信および受信するために、1つまたは複数の有線インタフェースや無線トランシーバを含む。通信ユニット119は、ネットワーク105に連結し、他の車両プラットフォーム103やサーバ101などの他の計算ノードと通信する。通信ユニット119は、上に議論したものなど、標準的な通信方法を使用して、他の計算ノードとデータを交換する。
センサ113は、車両プラットフォーム103に適した任意のタイプのセンサを含む。センサ113は、車両プラットフォーム103の特徴やその車両プラットフォーム103の内部および外部環境を決定するために適切ないかなるタイプの信号データも収集するように構成される。センサ113の非限定的な例には、さまざまな光学センサ(CCD、CMOS、2D、3D、光検出および測距(LIDAR)、カメラなど)、オーディオセンサ、動き検出センサ、気圧計、高度計、熱電対、水分センサ、赤外線(IR)センサ、レーダセンサ、他のフォトセンサ、ジャイロスコープ、加速度計、速度計、ステアリングセンサ、ブレーキセンサ、スイッチ、車両インジケータセンサ、ワイパーセンサ、地理位置センサ、オリエンテーションセンサ、無線トランシーバ(例えば、セルラ、WiFi(登録商標)、近距離通信など)、ソナーセンサ、超音波センサ、タッチセンサ、近接センサ、距離センサなどが含まれる。いくつかの実施形態では、1つまたは複数のセンサ113は、車両プラットフォーム103を取り囲む状況コンテキストを取り込むために、車両プラットフォーム103のフロントサイド、リアサイド、右サイド、左サイドに備えられた外側に向いたセンサを含み得る。
いくつかの実施形態では、センサ113は、動画および静止画を含む、画像を記録するように構成された1つまたは複数の画像センサ(例えば、光学センサ)を含み、適用可能
な任意のフレームレートを使用して映像ストリームのフレームを記録し、適用可能な任意の方法を使用して、取り込まれた動画および静止画をエンコードまたは処理する。いくつかの実施形態では、画像センサ113は、それらのセンサ範囲内において周囲環境の画像を取り込むことができる。例えば、車両プラットフォームの観点から、画像センサ113は、道路、建物、路側構造物、静的道路物体(例えば、カラーコーン(登録商標)、バリケード、交通標識、車線、道路標示など)、動的道路物体(例えば、周囲の車両プラットフォーム103、道路作業者、警察官、工事車両、緊急車両など)などを含む、車両プラットフォーム103の周囲環境を取り込むことができる。いくつかの実施形態では、画像センサ113は、車両プラットフォーム103の移動方向に対していかなる方向(前方向き、後方向き、側方向き、上方向き、下方向きなど)でも感知するために、車両ルーフや車両プラットフォーム103内部に取り付けられ得る。いくつかの実施形態では、画像センサ113は、多方向であり得る(例えば、LIDAR)。いくつかの実施形態では、異なった車両プラットフォーム103に取り付けられた画像センサ113は、異なったカメラパラメータを有し、異なった設定、インストール、または構成で構成される。
車両データストア121は、さまざまなタイプのデータを記憶する非一時的な記憶媒体を含む。例えば、車両データストア121は、所与の車両プラットフォーム103の異なったコンポーネント間で、コントローラ・エリア・ネットワーク(CAN)バスなどのバスを使用して通信されている車両データを記憶する。いくつかの実施形態では、車両データは、例えば、変速機、速度、加速、減速、ホイル速度(回転数(RPM))、ステアリング角度、ブレーキ力など、コンポーネントの動作状態をモニタするため、車両プラットフォーム103のこれら異なったコンポーネントに接続された複数のセンサ113から収集された車両運行データを含む。いくつかの実施形態では、車両データは、移動方向、車両プラットフォーム103の地理的位置を示す車両地理位置(例えば、GPS座標)などを含む。いくつかの実施形態では、車両データは、車両プラットフォーム103の1つまたは複数の画像センサ113によって取り込まれた道路情景画像、およびこれらの画像と関連付けられた画像データも含む。いくつかの実施形態では、画像データは、道路情景画像のデータサイズを示す画像データサイズ、道路情景画像が取り込まれた日付と時刻を示す画像タイムスタンプなどを含む。
いくつかの実施形態では、車両データは、センサ113のセンサ構成も含む。一例として、車両プラットフォーム103の各画像センサ113と関連付けられたセンサ構成は、画像センサの外部カメラパラメータおよび内部カメラパラメータを含む。いくつかの実施形態では、外部カメラパラメータは、世界座標系(例えば、GPS座標系)での画像センサのセンサ位置およびセンサ方向を示す。外部カメラパラメータの非限定的な例は、視野(例えば画角)、カメラ高さ(例えば、画像センサから地面までの距離)を含み得るが、それには限定されない。いくつかの実施形態では、画像センサの外部カメラパラメータは、回転行列および並進ベクトルによって表される。
いくつかの実施形態では、内部カメラパラメータは、画像センサの内部特性を示し、カメラ構成によって規定される。内部カメラパラメータの非限定的な例は、焦点距離、解像度、歪みメトリック、スキュー係数などを含み得るが、それには限定されない。いくつかの実施形態では、画像センサの内部カメラパラメータは、カメラ内部行列によって表される。いくつかの実施形態では、外部カメラパラメータ(例えば、回転行列および並進ベクトル)および内部カメラパラメータ(例えば、カメラ内部行列)は、さまざまな変換を実行するために使用され、それによって、世界座標系における状況物体の物理的特徴点を、画像センサによって取り込まれた道路情景画像の画像座標系における対応する画像特徴点に投影する。
いくつかの実施形態では、車両データストア121は、さまざまな状況カテゴリを含ん
だ交通状況データベースを記憶する。例えば、交通状況データベースは、状況カテゴリ「工事現場」、状況カテゴリ「事故現場」、状況カテゴリ「天候に関連するイベント」、状況カテゴリ「コミュニティイベント」などを含む。いくつかの実施形態では、各状況カテゴリは、一式のさまざまな物体種別と関連付けられ、各物体種別は、対応する交通状況に存在する可能性のある物理道路物体の一種を示す。一例として、状況カテゴリ「工事現場」は、物体種別「カラーコーン」、物体種別「バリケード」、物体種別「工事標識」、物体種別「工事車両」などを含む第1の一式の物体種別と関連付けられる。状況カテゴリ「事故現場」は、物体種別「バリケード」、物体種別「警察官」、物体種別「通行止め標識」、物体種別「緊急車両」(例えば、救急車、消防車、パトカーなど)などを含む、第2の一式の物体種別と関連付けられる。この実施態様は、複雑な交通状況全体をまとめて考慮するのではなく、検出のために、いかなる交通状況もさまざまな物体種別の状況物体にブレークダウンすることを可能にするため、特に有利である。結果として、交通状況の検出を、状況コンポーネント、道路レイアウト、照明条件などにおけるバリエーションにかかわらず、容易かつ迅速なものとすることができる。
いくつかの実施形態では、交通状況データベースは、状況カテゴリと関連付けられた物体種別ごとに、状況カテゴリによって定義された交通状況を検出することにおける、物体種別の状況検出重みを記憶する。当該状況検出重みは、「物体種別を有する状況物体が、状況カテゴリによって定義された交通状況に存在する可能性」を示す。いくつかの実施形態では、1つの物体種別は、複数の状況カテゴリと関連付けられ、異なった状況カテゴリに対応する異なった状況検出重みを有しうる。上述の例では、物体種別「バリケード」は、状況カテゴリ「工事現場」および状況カテゴリ「事故現場」と関連付けられる。この例では、状況カテゴリ「事故現場」によって定義された交通状況を検出することにおける物体種別「バリケード」の状況検出重み(例えば、0.7)は、状況カテゴリ「工事現場」によって定義された交通状況を検出することにおける物体種別「バリケード」の状況検出重み(例えば、0.6)よりも相対的に大きい。それは、バリケードが、工事の状況下よりも事故の状況下において存在する可能性が高いためである。
いくつかの実施形態では、物体種別ごとに、交通状況データベースは、物体種別と一致する状況物体の物体特徴を記述している1つまたは複数の特徴テンプレートを記憶する。いくつかの実施形態では、これらの物体特徴は、物体種別と一致する、状況物体の視覚的外観(例えば、幾何学的形状、エッジおよび角、物体構造、テクスチャパターンなど)を記述し、特徴テンプレート内で勾配方向ヒストグラム(Histogram of Oriented Gradients:HOG)の形式で表される。いくつかの実施形態では、特徴テンプレートは、1つまたは複数の物体テンプレートを含み、各物体テンプレートは、複数の部分テンプレートに対応する。いくつかの実施形態では、各物体テンプレートは、物体種別と一致する状況物体全体を記述し、一方で、対応する部分テンプレートは、同じ状況物体の物体部分を記述する。一例として、物体種別「警察官」と一致する状況物体を記述(例えば、交通を止めるために手信号を出している警察官)するために、交通状況データベースは、警察官の体全体を記述している1つの物体テンプレート、および当該の特定の姿勢における警察官の6つの体の部分を記述している6つ(例えば、頭部が1つ、胴部が1つ、腕部が2つ、および脚部が2つ)の対応する部分テンプレートを記憶する。
いくつかの実施形態では、物体テンプレートは、物体種別と一致する状況物体を、第1のレベルの粒度(例えば、粗いスケール)での物体特徴で記述し、対応する部分テンプレートは、物体テンプレートの第1のレベルの粒度よりも高い第2のレベルの粒度での物体特徴で、同じ状況物体を記述する。したがって、部分テンプレートは、物体テンプレートと比べると、さらに詳細に、または、より高い解像度(例えば、微細スケール)で、物体種別と一致する状況物体の物体特徴を記述する。いくつかの実施形態では、物体種別と一
致する状況物体の一部分だけが部分テンプレートに記述されるので、交通状況データベースは、物体テンプレートと相対的な部分テンプレートの空間的位置も記憶する。上述の例では、警察官の頭部を記述している部分テンプレートは、物体テンプレートの一番上の領域に対応し、一方、警察官の脚部を記述している部分テンプレートは、物体テンプレートの一番下の領域に対応する。
いくつかの実施形態では、交通状況データベースは、物体種別と一致する状況物体を決定することにおける部分テンプレートの物体検出重みを記憶する。こうした物体検出重みは、道路情景画像内で部分テンプレートが検出された場合に、道路情景画像が、物体種別と一致する状況物体を描写している可能性を示す。上述の例を続けると、警察官の頭部を記述している部分テンプレートは、物体検出重み0.7を有し、一方、警察官の脚部を記述している部分テンプレートは、物体検出重み0.3を有しうる。この例では、頭部を記述している部分テンプレートの物体検出重みは、脚部を記述している部分テンプレートの物体検出重みよりも大きいものであり、これは、道路情景画像において頭部が検出される場合、道路情景画像が、特定の姿勢をとっている警察官の状況物体を描写している場合が多いためである。
いくつかの実施形態では、車両データストア121は、データを記憶またはデータへのアクセスを提供するためのデータ記憶システム(例えば、標準データまたはデータベース管理システム)の一部であり得る。車両データストア121に記憶された、他のタイプのデータも可能かつ想定される。
サーバ101には、プロセッサ、メモリ、およびネットワーク通信能力(例えば、通信ユニット)を備えた、ハードウェアや仮想的なサーバが含まれる。サーバ101は、信号路145によって表されるように、ネットワーク105と通信可能に連結される。いくつかの実施形態では、サーバは、システム100の他のエンティティ、例えば、1つまたは複数の車両プラットフォーム103へデータを送信またはそこからデータを受信する。描かれているように、サーバ101は、状況検出アプリケーション120、状況位置特定アプリケーション122、ナビゲーションアプリケーション124のインスタンスを含む。サーバ101は、これらのアプリケーションによるアクセスや検索のために、さまざまなタイプのデータを記憶するデータストア126も含む。例えば、データストア126は、マップデータベース、車両プラットフォーム103から受信した状況データなどを記憶する。いくつかの実施形態では、マップデータベースは、地理的なマップに含まれた1つまたは複数の地理的領域を記述するマップデータを含む。例えば、マップデータは、特定の道路を複数の地理的領域に分割し、各地理的領域は、その特定の道路の所定の道路セグメントに対応する。いくつかの実施形態では、マップデータベースは、動的交通状況マップを含む。動的交通状況マップは、状況位置特定アプリケーション122によって生成され、さまざまな時点においてさまざまな道路セグメント上で発生する複数の交通状況のカバレッジ領域(例えば、地理位置、幾何学的境界(例えば、幾何学的形状、占有された車線)、交通状況に存在している状況物体など)を記述する。
他のバリエーションや組合せも可能かつ想定される。図1に示すシステム100は、一例のシステムを代表するものであること、およびさまざまな異なったシステム環境および構成が想定され、本開示の範囲に入ることが理解されるべきである。例えば、さまざまな動作や機能性は、サーバからクライアントへ、またはその逆へ移動され、データは単一のデータストアへ統合されるかまたは追加のデータストアにさらにセグメント化され、いくつかの実施態様は、追加のまたはさらに少ない計算デバイス、サービス、ネットワークを含み、クライアント側もしくはサーバ側においてさまざまな機能性を実装する。さらに、システムのさまざまなエンティティは、単一の計算デバイスもしくはシステムに統合され、または追加の計算デバイスもしくはシステムに分割される、などである。
図2は、一例の状況検出アプリケーション120のブロック図である。記載のように、状況検出アプリケーション120は、ROIプロセッサ202、1つまたは複数の物体検出器204、および状況検出マネージャ206を含む。物体検出器204は、物体フィルタ250、部分フィルタ252、および物体検出マネージャ254を含む。状況検出アプリケーション120や物体検出器204は、構成エンジン、他のトレーニングエンジン、暗号化/復号化エンジンなどではあるがそれには限定されない追加のコンポーネントを含み、またはこれらのさまざまなコンポーネントは単一のエンジンに組み合わされるかもしくは追加のエンジンに分割されることが理解されるべきである。
ROIプロセッサ202、1つまたは複数の物体検出器204、および状況検出マネージャ206は、ソフトウェア、ハードウェア、または前述のものの組合せとして実装される。いくつかの実施形態では、ROIプロセッサ202、1つまたは複数の物体検出器204、および状況検出マネージャ206は、バス154やプロセッサ115によって、互いに、計算デバイス152の他のコンポーネントに通信可能に連結される。同様に、物体検出器204に含まれている物体フィルタ250、部分フィルタ252、および物体検出マネージャ254も、ソフトウェア、ハードウェア、または前述のものの組合せとして実装される。いくつかの実施形態では、物体フィルタ250、部分フィルタ252、および物体検出マネージャ254は、バス154やプロセッサ115によって、互いに、状況検出アプリケーション120の他のコンポーネントに、計算デバイス152の他のコンポーネントに通信可能に連結される。いくつかの実施形態では、コンポーネント120、202、204、206、250、252、254のうちの1つまたは複数は、それらの機能性を提供するためにプロセッサ115によって実行可能な一式の命令である。さらなる実施形態では、コンポーネント120、202、204、206、250、252、254のうちの1つまたは複数は、メモリ117に記憶可能であり、それらの機能性を提供するためにプロセッサ115によってアクセス可能かつ実行可能である。前述の実施形態のいずれにおいても、これらのコンポーネント120、202、204、206、250、252、254は、計算デバイス152のプロセッサ115および他のコンポーネントとの協働および通信のために適合される。
状況検出アプリケーション120、およびその状況検出アプリケーション120のコンポーネント202、204、および206、ならびに物体検出器204のコンポーネント250、252、および254は、少なくとも図3〜図6を参照しつつ以下でより詳細に記載する。
本明細書の他の部分で論じるように、状況検出アプリケーション120は、道路情景画像において描写されている交通状況を検出するために実行可能なコンピュータロジックである。交通状況は、道路情景画像に存在している状況物体に基づいて検出され、特定の状況カテゴリにカテゴライズされる。したがって、いくつかの実施形態では、交通状況は、道路情景画像からROIを抽出すること、ROIにおいて状況物体を検出すること、検出された状況物体の物体種別に基づいて、予測される状況カテゴリを決定すること、および予測される状況カテゴリによって定義された交通状況がROIにおいて描写されているかどうかを決定するために、関連する信頼度スコアを評価することによって検出される。道路情景画像のROIが、予測される状況カテゴリの交通状況を描写していると決定された場合、その道路情景画像は交通状況の地理位置を計算するのに使用される。
図3は、道路情景画像において描写されている交通状況を検出するための一例の方法300のフローチャートである。ブロック302において、車両プラットフォーム103の画像センサ113は、車両プラットフォーム103がその車両プラットフォーム103の車両経路に沿って走行する際に、道路を描写している道路情景画像を取り込む。道路は、
車両プラットフォーム103が走行する道路セグメントおよび周辺環境を含む。いくつかの実施形態では、これらの道路情景画像は、所定のレート/インターバル(例えば、5秒ごと、10秒ごとなど)で取り込まれ得る。ブロック304において、ROIプロセッサ202は、道路情景画像から1つまたは複数のROIを抽出し、その抽出したROIを処理する。
さらなる例示のために、図4は、ROIを抽出および処理するための一例の方法400のフローチャートである。ブロック402において、ROIプロセッサ202は、道路情景画像からROIを抽出する。いくつかの実施形態では、ROIプロセッサ202は、1つまたは複数の目立つ色と関連付けられたROIを抽出するために、道路情景画像の色パターンを解析する。交通状況に存在する状況物体は、それらの存在に注意を引き付けるために、目立つ色をしている場合が多い。例えば、工事の状況に存在している状況物体は、通常、橙色、赤橙色、黄色をしている(例えば、カラーコーン、工事標識、バリケードなど)。別の例では、事故の状況に存在している状況物体は、通常、赤色、青色、黒色、白色をしている(救急車、警察車両、非常灯など)。このように、目立つ色を含んだ道路情景画像の部分を特定することによって、ROIプロセッサ202は、交通状況を描写している可能性のある画像領域(Region of image:ROI)を道路情景画像から抽出する。
ブロック404において、ROIプロセッサ202は、随意に、抽出されたROIの特徴コントラストを強調させる。具体的には、ROIプロセッサ202は、照明調整を実行するために、ROIに含まれるピクセルのグレー強度を調整する。いくつかの実施形態では、ROIプロセッサ202は、線形照明機能を使用して、調整されるべきグレー強度の量を計算する。いくつかの実施形態では、線形照明機能は、1つまたは複数の照明調整パラメータを含み、トレーニングプロセスの対象となり得る。トレーニングプロセスの間、線形照明機能は、最適な照明調整パラメータを学習するため、さまざまな照明条件の複数のトレーニング画像に適応される。道路情景画像のROI上で照明調整を実行することは、特に道路情景画像が、制限された照明条件下で取り込まれた場合に、ROIにおいて描写されている物体特徴のコントラストを強調して、状況物体を検出することにおける精度を向上させるので、特に有利である。
ブロック406において、ROIプロセッサ202は、ROIの特徴マップを生成する。具体的には、ROIプロセッサ202は、ROIにおいて描写されている物理道路物体の物体特徴を記述する特徴マップを生成するために、ROIを処理する。いくつかの実施形態では、これらの物体特徴マップは、物理道路物体の視覚的外観(例えば、幾何学的形状、エッジおよび角、物体構造、テクスチャパターンなど)を記述し、ROIの特徴マップ内にHOG特徴の形式で表される。
図3に戻って参照すると、ブロック306a〜306nにおいて、複数の物体検出器204が、ROIにおいて状況物体を検出するための役割を実行する。いくつかの実施形態では、各物体検出器204は、特定の物体種別と一致する状況物体を検出するように構成される。各物体検出器204によって検出されるべき、状況物体の特定の物体種別は、本明細書において、物体検出器204と関連付けられた物体種別として参照される。いくつかの実施形態では、異なった物体検出器204と関連付けられた物体種別は互いに異なり得る。例えば、第1の物体検出器204aは、第1の物体種別「カラーコーン」と一致する状況物体を検出するように構成され、第2の物体検出器204bは、第2の物体種別「工事標識」と一致する状況物体を検出するように構成され、第3の物体検出器204cは、第3の物体種別「緊急車両」と一致する状況物体を検出するように構成される、などである。いくつかの実施形態では、複数の検出器204は、並行に役割を実行する。複数の物体検出器204の並行の役割実行は、さまざまな物体種別の状況物体がROIにおいて
同時に検出されることを可能にし、それによって処理時間を大幅に低減することを可能にするため、特に有利である。また、この実施態様は、状況物体の網羅的な検出も提供する。ROIは、複数の物体検出器204によって実行される物体検出の対象となるため、さまざまなタイプの交通状況に存在している可能性のある、さまざまな物体種別の状況物体を、ROIにおいて検出することができる。
いくつかの実施形態では、第1の物体検出器204aが役割を実行し、ROIにおいて、第1の状況物体の物体特徴に基づいて、第1の物体種別と一致する第1の状況物体を検出する。第1の状況物体は、ROIにおいて描写されている第1の物理道路物体を表す。
いくつかの実施形態では、第2の物体検出器204bが第1の物体検出器204aと並行に役割を実行し、ROIにおいて、第2の状況物体の物体特徴に基づいて、第2の物体種別と一致する第2の状況物体を検出する。第2の状況物体は、ROIにおいて描写されている第2の物理道路物体を表す。
同様に、他の物体検出器204も、第1の物体検出器204aと並行に役割を実行し、ROIにおいて、これらの状況物体の物体特徴に基づいて、他の物体検出器204と関連付けられた他の物体種別と一致する状況物体を検出する。これらの状況物体は、ROIにおいて描写されている他の物理道路物体を表す。
上述の例を続けると、ROIにおいて描写されている複数の物理道路物体のなかで、第1の物体検出器204aは、第1の物体種別「カラーコーン」と一致する第1の状況物体として第1の物理道路物体を検出し、第2の物体検出器204bは、第2の物体種別「工事標識」と一致する第2の状況物体として第2の物理道路物体を検出する。
さらなる例示のために、図6は、ROIにおいて、物体種別と一致する状況物体を検出するための一例の方法600のフローチャートである。いくつかの実施形態では、方法600は、各物体検出器204によって、その物体検出器204と関連付けられた特定の物体種別と一致する状況物体を検出するために実行する。例えば、第1の物体検出器204aは、ROIにおいて第1の物体種別「カラーコーン」と一致する第1の状況物体を検出するために方法600を実行する。ブロック602において、物体検出器204は、物体検出器204と関連付けられた物体種別と一致する状況物体を記述している特徴テンプレートを取得する。上述の例を続けると、第1の物体検出器204aにおいて、物体フィルタ250および部分フィルタ252は、第1の物体種別「カラーコーン」と関連付けられた、物体テンプレートおよび対応する部分テンプレートを、車両データストア121からそれぞれ取得する。この例では、物体テンプレートは、第1の物体種別「カラーコーン」と一致する状況物体全体を記述する。対応する部分テンプレートは、同じ状況物体の一番上の部分を記述している第1の部分テンプレート、および同じ状況物体の残りの部分(例えば、一番下の部分)を記述している第2の部分テンプレートを含む。
ブロック604では、物体検出器204は、物体検出器204と関連付けられた物体種別と一致する可能性のある、候補の状況物体を決定するために、ROIの特徴マップに物体テンプレートを適用する。上述の例を続けると、第1の物体検出器204aにおいて、物体フィルタ250は、第1の物体種別「カラーコーン」と一致する可能性のある、候補の第1の物体を決定するために、ROIの特徴マップにわたってスライドするウィンドウとして、物体テンプレートを適用する。いくつかの実施形態では、物体フィルタ250は、候補の第1の物体と物体テンプレートとの間の類似度(例えば、60%)を示す物体一致スコアも計算する。
ブロック606において、物体検出器204は、所定の物体検出重み閾値を満たす物体検出重みを有する第1の部分テンプレートを決定する。いくつかの実施形態では、物体検出器204は、物体テンプレートに対応する複数の部分テンプレートの物体検出重みを車両データストア121から取得する。検出器204は、対応する部分テンプレートのうち
で、所定の物体検出重み閾値を満たす物体検出重みを有する第1の部分テンプレートを決定する。他の実施形態では、物体検出器204は、対応する部分テンプレートのうちで、最も大きな物体検出重みを有する第1の部分テンプレートを決定する。いくつかの実施形態では、部分テンプレートの物体検出重みは、トレーニングプロセスをとおして決定される。トレーニングプロセスの間、物体検出器204は、その物体検出器204に関連する物体種別と一致する状況物体をさまざまなトレーニング画像のなかで検出する。物体検出器204は、各トレーニング画像において検出された状況物体の、トレーニング画像と関連付けられた所定の目標出力との比較に基づいて、部分テンプレートの物体検出重みを調整する。例えば、既知の交通状況を含むトレーニング画像から得られる出力と、当該交通状況に対応する所定の目標出力の差が閾値以下となるように、機械学習によって、当該交通状況に対応する、状況物体の物体検出重みを調整する。
上述の例を続けると、第1の物体検出器204aにおいて、部分フィルタ252は、第1の物体種別「カラーコーン」と一致する状況物体を記述している、第1の部分テンプレートおよび第2の部分テンプレートの物体検出重みを、車両データストア121から取得する。この例では、部分フィルタ252は、状況物体の一番上の部分を記述している第1の部分テンプレートは、物体検出重み0.75を有し、状況物体の一番下の部分を記述している第2の部分テンプレートは、物体検出重み0.25を有していると決定する。したがって、部分フィルタ252は、第1の部分テンプレートは、所定の物体検出重み閾値(例えば、0.6超)を満たす物体検出重みを有していると決定する。
ブロック608において、物体検出器204は、第1の部分テンプレートに対応する、候補の状況物体の第1の部分一致スコアを決定するために、第1の部分テンプレートを候補の状況物体に適用する。いくつかの実施形態では、第1の部分一致スコアは、候補の状況物体と第1の部分テンプレートとの間の類似度を示す。ブロック610において、物体検出器204は、第1の部分テンプレートに対応する、候補の状況物体の第1の部分一致スコアが、所定の部分一致スコア閾値を満たしているかどうかを決定する。ブロック610において、物体検出器204が、第1の部分テンプレートに対応する、候補の状況物体の第1の部分一致スコアが、所定の部分一致スコア閾値を満たしていないと決定する場合、方法600は、ブロック620へ進む。ブロック620において、物体検出器204は、候補の状況物体が、物体検出器204と関連付けられた物体種別と一致する状況物体ではないと決定する。このように、これらの実施形態では、相対的に大きな物体検出重みを有する物体部分が、候補の状況物体において検出されない場合、物体検出器204は、他の部分テンプレートを候補の状況物体に適用することを回避することができ、候補の状況物体が、その物体検出器204に関連する物体種別と一致する状況物体ではないと即座に決定することができる。この実施態様は、ROIにおいて状況物体を検出するための処理時間を大幅に低減することができるので、特に有利である。
上述の例を続けると、第1の物体検出器204aにおいて、第1の部分テンプレートが、所定の物体検出重み閾値を満たす物体検出重みを有しているので、部分フィルタ252は、先ず、第1の部分テンプレートを候補の第1の物体に適用する。第1の部分テンプレートは、第1の物体種別「カラーコーン」と一致する状況物体の一番上の部分を記述する。この例では、部分フィルタ252は、第1の部分テンプレートに対応する、候補の第1の物体の第1の部分一致スコアが10%であると決定すると仮定する。それに応じて、部分フィルタ252は、候補の第1の物体の第1の部分一致スコアが、所定の部分一致スコア閾値(例えば、70%超)を満たしておらず、したがって、第1の物体種別「カラーコーン」と一致する状況物体の一番上の部分は、候補の第1の物体内に存在していないと決定する。結果として、物体検出マネージャ254は、部分フィルタ252が第2の部分テンプレートを候補の第1の物体に適用することなく、候補の第1の物体が、第1の物体種別「カラーコーン」と一致する状況物体ではないと決定する。
ブロック610において、物体検出器204が、第1の部分テンプレートに対応する、候補の状況物体の第1の部分一致スコアが、所定の部分一致スコア閾値を満たしていると決定する場合、方法600は、ブロック612へ進む。ブロック612において、物体検出器204は、第2の部分テンプレートに対応する、候補の状況物体の第2の部分一致スコアを決定するために、第2の部分テンプレートを候補の状況物体に適用する。いくつかの実施形態では、第2の部分テンプレートは、物体テンプレートに対応する複数の部分テンプレートのなかの残りのテンプレートであり得る。上述の例を続けると、第1の物体検出器204aにおいて、部分フィルタ252は、第1の部分テンプレートに対応する、候補の第1の物体の第1の部分一致スコアが80%であると決定すると仮定する。それに応じて、部分フィルタ252は、候補の第1の物体の第1の部分一致スコアが、所定の部分一致スコア閾値(例えば、70%超)を満たしており、したがって、第1の物体種別「カラーコーン」と一致する状況物体の一番上の部分は、候補の第1の物体内に存在していると決定する。次いで、部分フィルタ252は、第1の物体種別「カラーコーン」と一致する状況物体の一番下の部分を記述している第2の部分テンプレートを候補の第1の物体に適用する。この例では、部分フィルタ252は、第2の部分テンプレートに対応する、候補の第1の物体の第2の部分一致スコアが45%であると決定する。
ブロック614において、物体検出器204は、物体検出器204と関連付けられた物体種別に対する、候補の状況物体の類似度に基づいて、候補の状況物体についての物体信頼度スコアを生成する。いくつかの実施形態では、物体検出器204は、物体テンプレートに対する、候補の状況物体の物体一致スコア、および物体テンプレートに対応する部分テンプレートに対する、候補の状況物体の部分一致スコアを使用して、候補の状況物体についての物体信頼度スコアを計算する。例えば、いくつかの実施形態では、候補の状況物体の物体信頼度スコアは、候補の状況物体の物体一致スコアに正比例する。いくつかの実施形態では、物体検出器204は、候補の状況物体についての重み付け平均部分一致スコアを計算し、候補の状況物体の物体信頼度スコアは、重み付け平均部分一致スコアに正比例する。いくつかの実施形態では、候補の状況物体についての重み付け平均部分一致スコアは、各部分テンプレートに対応する、候補の状況物体の部分一致スコア、および部分テンプレートと関連付けられた物体検出重みを使用して計算される。上述の例を続けると、第1の物体検出器204aにおいて、物体検出マネージャ254は、候補の第1の物体についての重み付け平均部分一致スコア=Σ(部分一致スコア×物体検出重み)/部分テンプレート数=(80%×0.75+45%×0.25)/2=35.63%を計算する。
いくつかの実施形態では、物体検出器204はまた、対応する物体テンプレートに対する部分テンプレートの相対的な空間的位置に基づいて、候補の状況物体についての物体信頼度スコアを計算する。上述の例を続けると、第1の物体検出器204aにおいて、物体検出マネージャ254は、第1の部分テンプレートと一致する第1の画像部分、および第2の部分テンプレートと一致する第2の画像部分を候補の第1の物体にマッピングする。次いで、物体検出マネージャ254は、候補の第1の物体に対する第1の画像部分および第2の画像部分の相対的な空間的位置が、第1の物体種別「カラーコーン」と一致する状況物体に対する第1の部分テンプレートおよび第2の部分テンプレートの相対的な空間的位置に準じているかどうかを決定する。この例では、第1の部分テンプレートは、第1の物体種別「カラーコーン」と一致する状況物体の一番上の部分を記述し、第2の部分テンプレートは、同じ状況物体の一番下の部分を記述する。したがって、第1の部分テンプレートは、第2の部分テンプレートの上方に位置する。この例では、第1の部分テンプレートと一致する第1の画像部分が、第2の部分テンプレートと一致する第2の画像部分の下方に位置していると仮定する。したがって、物体検出マネージャ254は、第1の画像部分および第2の画像部分の空間的位置が、第1の部分テンプレートおよび第2の部分テンプレートの空間的位置に準拠していないと決定する。結果として、一致している物体部分
の空間的位置が正しくないため、物体検出マネージャ254は、候補の第1の物体が、第1の物体種別「カラーコーン」と一致する状況物体ではないと決定する。それに応じて、物体検出マネージャ254は、候補の第1の物体についての物体信頼度スコアを0%と生成する。
ブロック616において、物体検出器204は、候補の状況物体の物体信頼度スコアが、所定の物体信頼度スコア閾値(例えば、20%未満)を満たしているかどうかを決定する。ブロック616において、物体検出器204は、候補の状況物体の物体信頼度スコアが、所定の物体信頼度スコア閾値を満たしていると決定する場合、方法600は、ブロック618へ進む。ブロック618において、物体検出器204は、候補の状況物体が、物体検出器204と関連付けられた物体種別と一致する状況物体であると決定する。ブロック616において、物体検出器204が、候補の状況物体の物体信頼度スコアが、所定の物体信頼度スコア閾値を満たしていないと決定する場合、方法600は、ブロック620へ進む。ブロック620において、物体検出器204は、候補の状況物体が、物体検出器204と関連付けられた物体種別と一致する状況物体ではないと決定する。
いくつかの実施形態では、候補の状況物体が、物体検出器204と関連付けられた物体種別と一致する状況物体であると決定される場合、物体検出器204は、ROIにおいて状況物体を示すバウンディングボックスを決定する。ROIにおいて状況物体を示すバウンディングボックスは、候補の状況物体によって占有されている、ROIの画像領域を包含する。いくつかの実施形態では、物体検出器204は、ROIにおいて状況物体を示すバウンディングボックス、および状況物体の物体信頼度スコアを出力する。いくつかの実施形態では、物体検出器204は、候補の状況物体すべてのバウンディングボックスおよび物体信頼度スコアを、これらの候補の状況物体の物体信頼度スコアが所定の物体信頼度スコア閾値を満たしているかどうかにかかわらず、出力する。いくつかの実施形態では、物体検出器204は、ROIにおいて検出された状況物体のバウンディングボックスおよび物体信頼度スコアを、車両データストア121に記憶する。
物体検出器204によって実行される物体検出は、特に有利である。上述のように、各物体検出器204は、ROIにおいてその物体検出器204と関連する物体種別と一致する状況物体を、複数の要因(例えば、物体テンプレートに対応する物体一致スコア、部分テンプレートに対応する部分一致スコア、部分テンプレートの物体検出重み、物体テンプレートに対する部分テンプレートの相対的な空間的位置など)に基づいて検出する。したがって、物体検出の精度を向上させることができる。また、物体検出が、物体テンプレートの適用に続いて部分テンプレートを適用することによって2つのレベルで階層的に実行されるので、ROIにおいて状況物体の一部分だけが描写されている場合でも、状況物体を検出することができる。各物体検出器204は、ROIにおいて、その物体検出器204と関連付けられた物体種別と一致する任意の数の状況物体を検出することが理解されるべきである。上述の例では、第1の物体検出器204aは、ROIにおいて、第1の物体種別「カラーコーン」と一致する1つまたは複数の状況物体を検出するか、または、ROIにおいて、第1の物体種別「カラーコーン」と一致する状況物体を一切検出し得ない。
図3に戻って参照すると、ブロック308において、状況検出マネージャ206は、物体検出器204によってROIにおいて検出された状況物体に基づいて、特定の状況カテゴリによって定義された交通状況をROIが描写しているかどうかを決定する。いくつかの実施形態では、状況検出マネージャ206は、ROIにおいて検出された状況物体の物体種別と関連付けられた予測される状況カテゴリを決定する。状況検出マネージャ206は、交通状況データベースを参照し、物体検出器204によってROIにおいて検出された物体種別が、予測される状況カテゴリと関連付けられていると決定する。一例として、第1の物体種別「カラーコーン」と一致する状況物体を検出するように構成された第1の
物体検出器204aが、第1の道路情景画像のROIにおいて、物体信頼度スコア45%、70%、および95%をそれぞれ有する3つの第1の状況物体(例えば、カラーコーン1、カラーコーン2、カラーコーン3)を検出すると仮定する。この例では、また第2の物体種別「工事標識」と一致する状況物体を検出するように構成された第2の物体検出器204bが、ROIにおいて、物体信頼度スコア75%を有する1つの第2の状況物体(例えば、工事標識1)を検出すると仮定する。他の物体検出器204は、それらの物体検出器204の関連する物体種別と一致する状況物体が、第1の道路情景画像のROIにおいて存在していないと決定する。この例では、状況検出マネージャ206は、第1の物体種別「カラーコーン」および第2の物体種別「工事標識」が、交通状況データベース内の状況カテゴリ「工事現場」と関連付けられると決定する。それに応じて、状況検出マネージャ206は、ROIにおいて描写されている可能性のある交通状況についての予測される状況カテゴリを、状況カテゴリ「工事現場」であると決定する。
いくつかの実施形態では、状況検出マネージャ206は、物体検出器204によってROIにおいて検出された状況物体の物体信頼度スコアを統合して、予測される状況カテゴリに対応する状況信頼度スコアにする。こうした状況信頼度スコアは、予測される状況カテゴリによって定義された交通状況がROIにおいて描写されている信頼度のレベルを示す。さらなる例示のために、図5は、状況信頼度スコアを計算するための一例の方法500のフローチャートである。ブロック502において、ROIにおいて検出された、第1の物体種別の状況物体について、状況検出マネージャ206は、予測される状況カテゴリによって定義された交通状況を検出することにおける第1の物体種別の第1の状況検出重みを、車両データストア121から取得する。ブロック504において、ROIにおいて検出された、第2の物体種別の状況物体について、状況検出マネージャ206は、予測される状況カテゴリによって定義された交通状況を検出することにおける第2の物体種別の第2の状況検出重みを、車両データストア121から取得する。ROIにおいて検出された、他の物体種別の他の状況物体について、状況検出マネージャ206は、車両データストア121から、予測される状況カテゴリによって定義された交通状況を検出することにおける他の物体種別の状況検出重みも取得する。
上述の例を続けると、第1の物体検出器204aが、ROIにおいて、第1の物体種別「カラーコーン」と一致する第1の状況物体(例えば、カラーコーン1、カラーコーン2、カラーコーン3)を検出するので、状況検出マネージャ206は、予測される状況カテゴリ「工事現場」によって定義された交通状況を検出することにおける第1の物体種別「カラーコーン」の第1の状況検出重みを、車両データストア121から取得する(例えば、0.7)。第2の物体検出器204bが、ROIにおいて、第2の物体種別「工事標識」と一致する第2の状況物体(例えば、工事標識1)を検出するので、状況検出マネージャ206は、予測される状況カテゴリ「工事現場」によって定義された交通状況を検出することにおける第2の物体種別「工事標識」の第2の状況検出重みを、車両データストア121から取得する(例えば、1.0)。いくつかの実施形態では、特定の状況カテゴリによって定義された交通状況を検出することにおけるさまざまな物体種別の状況検出重みは、トレーニングプロセスをとおして決定される。トレーニングプロセスでは、状況検出マネージャ206が、特定の状況カテゴリによって定義された交通状況が、さまざまなトレーニング画像において描写されているかどうかを決定する。状況検出マネージャ206は、各トレーニング画像において検出された交通状況の、トレーニング画像と関連付けられた所定の目標出力との比較に基づいて、特定の状況カテゴリによって定義された交通状況を検出することにおける物体種別の状況検出重みを調整する。例えば、既知の交通状況を含むトレーニング画像から得られる出力と、当該交通状況に対応する所定の目標出力の差が閾値以下となるように、機械学習によって、当該交通状況に対応する、状況物体の物体検出重みを調整する。
ブロック506において、状況検出マネージャ206は、予測される状況カテゴリに対応する、ROIの状況信頼度スコアを、ROIにおいて検出された第1の状況物体の第1の物体信頼度スコア、予測される状況カテゴリによって定義された交通状況を検出することにおけるそれらの第1の物体種別の第1の状況検出重み、ROIにおいて検出された第2の状況物体の第2の物体信頼度スコア、および予測される状況カテゴリによって定義された交通状況を検出することにおけるそれらの第2の物体種別の第2の状況検出重みに基づいて、計算する。ROIにおいて検出された他の状況物体の物体信頼度スコア、および予測される状況カテゴリによって定義された交通状況を検出することにおけるそれらの物体種別の状況検出重みも、道路情景画像のROIについての予測される状況カテゴリに対応する状況信頼度スコアを計算するのに使用される。
いくつかの実施形態では、状況検出マネージャ206は、予測される状況カテゴリに対応する、ROIの重み付け平均物体信頼度スコアを計算し、予測される状況カテゴリに対応する、ROIの状況信頼度スコアは、重み付け平均物体信頼度スコアに正比例する。いくつかの実施形態では、予測される状況カテゴリに対応する、ROIの重み付け平均物体信頼度スコアは、物体検出器204によってROIにおいて検出された状況物体の物体信頼度スコア、および予測される状況カテゴリによって定義された交通状況を検出することにおけるそれらの物体種別の状況検出重みを使用して計算される。上述の例を続けると、状況検出マネージャ206は、第1の道路情景画像におけるROIについて、予測される状況カテゴリ「工事現場」に対応する重み付け平均物体信頼度スコア=Σ(物体信頼度スコア×状況検出重み)/状況物体の数=(45%×0.7+70%×0.7+90%×0.7+75%×1.0)/4=54.63%を計算する。
いくつかの実施形態では、予測される状況カテゴリに対応する、ROIの状況信頼度スコアは、予測される状況カテゴリと関連付けられている、ROIにおいて検出された物体種別数と正比例する。上述の例では、状況検出マネージャ206は、ROIが、予測される状況カテゴリ「工事現場」と関連付けられた2つの物体種別(例えば、第1の物体種別「カラーコーン」および第2の物体種別「工事標識」)を描写していると決定する。いくつかの実施形態では、予測される状況カテゴリに対応する、ROIの状況信頼度スコアは、予測される状況カテゴリと関連付けられた物体種別と一致する、ROIにおいて検出された状況物体の数と正比例する。上述の例では、状況検出マネージャ206は、ROIが、予測される状況カテゴリ「工事現場」と関連付けられた物体種別の4つの状況物体(例えば、第1の物体種別「カラーコーン」と一致する3つの第1の状況物体、および第2の物体種別「工事標識」と一致する1つの第2の状況物体)を描写していると決定する。
いくつかの実施形態では、状況検出マネージャ206は、予測される状況カテゴリが道路情景画像のROIに適用されるかどうか、および予測される状況カテゴリによって定義された交通状況がROIにおいて描写されていることを決定するために、ROIの状況信頼度スコアを評価する。上述の例を続けると、状況検出マネージャ206は、第1の道路情景画像においてROIについての予測される状況カテゴリ「工事現場」に対応する状況信頼度スコアが75%であると決定すると仮定する。この例では、状況検出マネージャ206は、予測される状況カテゴリ「工事現場」に対応する、ROIの状況信頼度スコアが、所定の状況信頼度スコア閾値(例えば、60%超)を満たしていると決定する。それに応じて、状況検出マネージャ206は、予測される状況カテゴリ「工事現場」が第1の道路情景画像のROIに適用されること、および予測される状況カテゴリ「工事現場」によって定義された交通状況がROIにおいて描写されていることを決定する。
いくつかの実施形態では、予測される状況カテゴリが道路情景画像のROIに適用されること、および予測される状況カテゴリによって定義された交通状況がROIにおいて描写されていることを決定することに応答して、状況検出マネージャ206は、交通状況の
状況領域を生成するために、ROIにおいて検出された状況物体のバウンディングボックスを統合する。交通状況の状況領域は、道路情景画像のROIにおいて交通状況によって占有された画像領域を示す。上述の例を続けると、状況検出マネージャ206は、第1の道路情景画像のROIにおいて検出された、カラーコーン1、カラーコーン2、カラーコーン3、および工事標識1のバウンディングボックスを、ROIにおいて状況カテゴリ「工事現場」によって定義された交通状況の状況領域を生成するために統合する。いくつかの実施形態では、状況検出マネージャ206は、予測される状況カテゴリに対応する、ROIの状況領域、およびROIの状況信頼度スコアを出力する。いくつかの実施形態では、状況検出マネージャ206は、予測される状況カテゴリに対応する、ROIの状況領域およびROIの状況信頼度スコアを、車両データストア121に記憶する。
上述のように、物体検出器204は、道路情景画像のROIに存在しているさまざまな物体種別の状況物体を検出し、状況検出マネージャ206は、特定の状況カテゴリによって定義された交通状況をROIが描写しているかどうかを決定するために、ROIにおいて検出された複数の状況物体を評価する。それに応じて、以下の例で示すように、道路情景画像のROIに複数の状況カテゴリと関連付けられたさまざまな物体種別が存在している場合でも、交通状況を正確に検出およびカテゴライズすることができる。
第1の例として、第1の物体種別「カラーコーン」と一致する状況物体を検出するように構成された第1の物体検出器204aが、役割を実行し、第1の道路情景画像の第1のROIにおいて、第1の物体信頼度スコア45%、70%、および95%をそれぞれ有する、第1の物体種別「カラーコーン」と一致する3つの第1の状況物体(例えば、カラーコーン1、カラーコーン2、カラーコーン3)を検出する。第2の物体種別「工事標識」と一致する状況物体を検出するように構成された第2の物体検出器204bが、第1の物体検出器204aと並行に役割を実行し、第1のROIにおいて、第2の物体信頼度スコア75%を有する1つの第2の状況物体(例えば、工事標識1)を検出する。この第1の例を続けると、第3の物体種別「警察官」と一致する状況物体を検出するように構成された第3の物体検出器204cが、第1の物体検出器204aと並行に役割を実行し、第1のROIにおいて、第3の物体信頼度スコア60%および65%をそれぞれ有する2つの第3の状況物体(例えば、警察官1、警察官2)を検出する。第4の物体種別「緊急車両」と一致する状況物体を検出するように構成された第4の物体検出器204dが、第1の物体検出器204aと並行に役割を実行し、第1のROIにおいて、第4の物体信頼度スコア85%を有する1つの第4の状況物体(例えば、緊急車両1)を検出する。
この第1の例では、4つの異なった物体種別の7つの状況物体が、第1の道路情景画像の第1のROIにおいて検出される。いくつかの実施形態では、状況検出マネージャ206が交通状況データベースを参照し、第1の物体種別「カラーコーン」および第2の物体種別「工事標識」は交通状況データベース内で状況カテゴリ「工事現場」と関連付けられており、一方、第3の物体種別「警察官」および第4の物体種別「緊急車両」は交通状況データベース内で状況カテゴリ「事故現場」と関連付けられていると決定する。それに応じて、状況検出マネージャ206は、第1のROIにおいて描写されている可能性のある第1の交通状況についての第1の予測される状況カテゴリを、状況カテゴリ「工事現場」であると決定し、第1のROIにおいて描写されている可能性のある第2の交通状況についての第2の予測される状況カテゴリを状況カテゴリ「事故現場」であると決定する。
いくつかの実施形態では、本明細書の他の部分で論じるように、状況検出マネージャ206は、第1の物体種別「カラーコーン」と一致する第1の状況物体(例えば、カラーコーン1、カラーコーン2、カラーコーン3)の第1の物体信頼度スコアと、第2の物体種別「工事標識」と一致する第2の状況物体(例えば、工事標識1)の第2の物体信頼度スコアとを統合して、第1の予測される状況カテゴリ「工事現場」に対応する、第1のRO
Iの第1の状況信頼度スコア(例えば、75%)にする。状況検出マネージャ206は、第3の物体種別「警察官」と一致する第3の状況物体(例えば、警察官1、警察官2)の第3の物体信頼度スコアと、第4の物体種別「緊急車両」と一致する第4の状況物体(例えば、緊急車両1)の第4の物体信頼度スコアとを統合して、第2の予測される状況カテゴリ「事故現場」に対応する、第1のROIの第2の状況信頼度スコア(例えば、70%)にもする。
いくつかの実施形態では、本明細書の他の部分で論じるように、状況検出マネージャ206は、第1の予測される状況カテゴリ「工事現場」に対応する、第1のROIの第1の状況信頼度スコア(例えば、75%)、および、第2の予測される状況カテゴリ「事故現場」に対応する、第1のROIの第2の状況信頼度スコア(例えば、70%)を評価する。例えば、状況検出マネージャ206は、第1のROIの第1の状況信頼度スコア、および第1のROIの第2の状況信頼度スコアが両方とも、所定の状況信頼度スコア閾値(例えば、60%超)を満たしていると決定する。それに応じて、状況検出マネージャ206は、第1の予測される状況カテゴリ「工事現場」が第1のROIに適用され、第2の予測される状況カテゴリ「事故現場」も第1のROIに適用されると決定する。このように、状況検出マネージャ206は、第1の予測される状況カテゴリ「工事現場」によって定義された第1の交通状況、および第2の予測される状況カテゴリ「事故現場」によって定義された第2の交通状況が、第1のROIにおいて描写されている(例えば、道路工事と交通事故とが同じ地理的位置で発生している)と決定する。この第1の例では、異なった状況カテゴリによって定義された複数の交通状況が、第1の道路情景画像の同じ第1のROIにおいて検出される。
第2の例として、第1の物体検出器204aが、役割を実行し、第2の道路情景画像の第2のROIにおいて、第1の物体信頼度スコア45%、70%、および95%をそれぞれ有する、第1の物体種別「カラーコーン」と一致する3つの第1の状況物体(例えば、カラーコーン1、カラーコーン2、カラーコーン3)を検出する。第2の物体検出器204bが、第1の物体検出器204aと並行に役割を実行し、第2のROIにおいて、第2の物体信頼度スコア75%を有する1つの第2の状況物体(例えば、工事標識1)を検出する。この第2の例を続けると、第3の物体検出器204cが、第1の物体検出器204aと並行に役割を実行し、第2のROIにおいて、第3の物体信頼度スコア35%および30%をそれぞれ有する2つの第3の状況物体(例えば、警察官1、警察官2)を検出すると仮定する。第4の物体検出器204dが、第1の物体検出器204aと並行に役割を実行し、第2のROIにおいて、第4の物体信頼度スコア30%を有する1つの第4の状況物体(例えば、緊急車両1)を検出する。この第2の例では、第2のROIにおいて描写されている第3の状況物体は、実際には警察官ではなく道路作業者であり、第2のROIにおいて描写されている第4の状況物体は、実際には緊急車両ではなくてバンであると仮定する。したがって、第3の物体検出器204cによって計算された第3の状況物体の第3の物体信頼度スコア、および第4の物体検出器204dによって計算された第4の状況物体の第4の物体信頼度スコアは、相対的に小さいものであり得る。
この第2の例では、4つの異なった物体種別の7つの状況物体が、第2の道路情景画像の第2のROIにおいて検出される。いくつかの実施形態では、状況検出マネージャ206が交通状況データベースを参照し、第1の物体種別「カラーコーン」および第2の物体種別「工事標識」は交通状況データベース内で状況カテゴリ「工事現場」と関連付けられており、一方、第3の物体種別「警察官」および第4の物体種別「緊急車両」は交通状況データベース内で状況カテゴリ「事故現場」と関連付けられていると決定する。それに応じて、状況検出マネージャ206は、第2のROIにおいて描写されている可能性のある第1の交通状況についての第1の予測される状況カテゴリを、状況カテゴリ「工事現場」であると決定し、第2のROIにおいて描写されている可能性のある第2の交通状況につ
いての第2の予測される状況カテゴリを状況カテゴリ「事故現場」であると決定する。
いくつかの実施形態では、状況検出マネージャ206は、第1の物体種別「カラーコーン」と一致する第1の状況物体(例えば、カラーコーン1、カラーコーン2、カラーコーン3)の第1の物体信頼度スコアと、第2の物体種別「工事標識」と一致する第2の状況物体(例えば、工事標識1)の第2の物体信頼度スコアとを統合して、第1の予測される状況カテゴリ「工事現場」に対応する、第2のROIの第1の状況信頼度スコア(例えば、75%)にする。状況検出マネージャ206は、第3の物体種別「警察官」と一致する第3の状況物体(例えば、警察官1、警察官2)の第3の物体信頼度スコアと、第4の物体種別「緊急車両」と一致する第4の状況物体(例えば、緊急車両1)の第4の物体信頼度スコアとを統合して、第2の予測される状況カテゴリ「事故現場」に対応する、第2のROIの第2の状況信頼度スコア(例えば、30%)にもする。
いくつかの実施形態では、本明細書の他の部分で論じるように、状況検出マネージャ206は、第1の予測される状況カテゴリ「工事現場」に対応する、第2のROIの第1の状況信頼度スコア(例えば、75%)、および、第2の予測される状況カテゴリ「事故現場」に対応する、第2のROIの第2の状況信頼度スコア(例えば、30%)を評価する。例えば、状況検出マネージャ206は、第2のROIの第1の状況信頼度スコアは、所定の状況信頼度スコア閾値(例えば、60%超)を満たしており、一方、第2のROIの第2の状況信頼度スコアは満たしていないと決定する。それに応じて、状況検出マネージャ206は、第1の予測される状況カテゴリ「工事現場」は第2のROIに適用され、第2の予測される状況カテゴリ「事故現場」は第2のROIに適用されないと決定する。したがって、状況検出マネージャ206は、第1の予測される状況カテゴリ「工事現場」によって定義された第1の交通状況は、第2のROIにおいて描写されており、第2の予測される状況カテゴリ「事故現場」によって定義された交通状況は、第2のROIにおいて描写されていないと決定する。この第2の例では、状況検出マネージャ206は、第2のROIに存在しているさまざまな物体種別の状況物体に基づいて、複数の予測される状況カテゴリを決定するが、状況検出マネージャ206は、第1の予測される状況カテゴリ「工事現場」によって定義された交通状況だけが、第2の道路情景画像の第2のROIにおいて描写されていると決定する。
第3の例として、第1の物体種別「カラーコーン」と一致する状況物体を検出するように構成された第1の物体検出器204aが、役割を実行し、第3の道路情景画像の第3のROIにおいて、第1の物体信頼度スコア45%、70%、および95%をそれぞれ有する、第1の物体種別「カラーコーン」と一致する3つの第1の状況物体(例えば、カラーコーン1、カラーコーン2、カラーコーン3)を検出する。第5の物体種別「バリケード」と一致する状況物体を検出するように構成された第5の物体検出器204eが、第1の物体検出器204aと並行に役割を実行し、第3のROIにおいて、第2の物体信頼度スコア65%および75%をそれぞれ有する2つの第2の状況物体(例えば、バリケード1、バリケード2)を検出する。この第3の例を続けると、第3の物体種別「警察官」と一致する状況物体を検出するように構成された第3の物体検出器204cが、第1の物体検出器204aと並行に役割を実行し、第3のROIにおいて、第3の物体信頼度スコア35%および30%をそれぞれ有する2つの第3の状況物体(例えば、警察官1、警察官2)を検出する。この第3の例では、第3のROIにおいて描写されている第3の状況物体は、実際には警察官ではなく道路作業者であり、したがって第3の物体検出器204cによって計算された第3の状況物体の第3の物体信頼度スコアは、相対的に小さいものであり得る。
この第3の例では、3つの異なった物体種別の7つの状況物体が、第3の道路情景画像の第3のROIにおいて検出される。いくつかの実施形態では、状況検出マネージャ20
6が交通状況データベースを参照し、第1の物体種別「カラーコーン」および第5の物体種別「バリケード」は交通状況データベース内で状況カテゴリ「工事現場」と関連付けられており、一方、第5の物体種別「バリケード」および第3の物体種別「警察官」は交通状況データベース内で状況カテゴリ「事故現場」と関連付けられていると決定する。それに応じて、状況検出マネージャ206は、第3のROIにおいて描写されている可能性のある第1の交通状況についての第1の予測される状況カテゴリを、状況カテゴリ「工事現場」であると決定し、第3のROIにおいて描写されている可能性のある第2の交通状況についての第2の予測される状況カテゴリを状況カテゴリ「事故現場」であると決定する。この第3の例では、第5の物体種別「バリケード」は、状況カテゴリ「工事現場」および状況カテゴリ「事故現場」の両方と関連付けられ得る。本明細書の他の部分で論じるように、状況カテゴリ「事故現場」によって定義された交通状況を検出することにおける物体種別「バリケード」の状況検出重み(例えば、0.7)は、状況カテゴリ「工事現場」によって定義された交通状況を検出することにおける物体種別「バリケード」の状況検出重み(例えば、0.6)よりも相対的に大きく、それはバリケードが、工事の状況下よりも事故の状況下において存在する可能性が高いためである。
いくつかの実施形態では、状況検出マネージャ206は、第1の物体種別「カラーコーン」と一致する第1の状況物体(例えば、カラーコーン1、カラーコーン2、カラーコーン3)の第1の物体信頼度スコアと、第5の物体種別「バリケード」と一致する第2の状況物体(例えば、バリケード1、バリケード2)の第2の物体信頼度スコアとを統合して、第1の予測される状況カテゴリ「工事現場」に対応する、第3のROIの第1の状況信頼度スコア(例えば、70%)にする。状況検出マネージャ206は、第5の物体種別「バリケード」と一致する第2の状況物体(例えば、バリケード1、バリケード2)の第2の物体信頼度スコアと、第3の物体種別「警察官」と一致する第3の状況物体(例えば、警察官1、警察官2)の第3の物体信頼度スコアとを統合して、第2の予測される状況カテゴリ「事故現場」に対応する、第3のROIの第2の状況信頼度スコア(例えば、40%)にもする。
いくつかの実施形態では、状況検出マネージャ206は、第1の予測される状況カテゴリ「工事現場」に対応する、第3のROIの第1の状況信頼度スコア(例えば、70%)、および、第2の予測される状況カテゴリ「事故現場」に対応する、第3のROIの第2の状況信頼度スコア(例えば、40%)を評価する。例えば、状況検出マネージャ206は、第3のROIの第1の状況信頼度スコアは、所定の状況信頼度スコア閾値(例えば、60%超)を満たしており、一方、第3のROIの第2の状況信頼度スコアは満たしていないと決定する。それに応じて、状況検出マネージャ206は、第1の予測される状況カテゴリ「工事現場」は第3のROIに適用され、第2の予測される状況カテゴリ「事故現場」は第3のROIに適用されないと決定する。したがって、状況検出マネージャ206は、第1の予測される状況カテゴリ「工事現場」によって定義された第1の交通状況は、第3のROIにおいて描写されており、第2の予測される状況カテゴリ「事故現場」によって定義された交通状況は、第3のROIにおいて描写されていないと決定する。この第3の例では、第3のROIにおいて検出された第2の交通状況の第5の物体種別「バリケード」は、状況カテゴリ「工事現場」および状況カテゴリ「事故現場」両方と関連付けられ、状況カテゴリ「事故現場」によって定義された交通状況を検出することにおいて、より大きな物体検出重みを有しうる。しかしながら、第3のROIについて複数の要因から生成された第1の状況信頼度スコアおよび第2の状況信頼度スコアに基づいて、状況検出マネージャ206は、第1の予測される状況カテゴリ「工事現場」によって定義された第1の交通状況だけが、第3の道路情景画像の第3のROIにおいて描写されていると決定する。
第4の例として、第1の物体種別「カラーコーン」と一致する状況物体を検出するよう
に構成された第1の物体検出器204aが、役割を実行し、第4の道路情景画像の第4のROIにおいて、第1の物体信頼度スコア35%および40%をそれぞれ有する、第1の物体種別「カラーコーン」と一致する2つの第1の状況物体(例えば、カラーコーン1、カラーコーン2)を検出する。第2の物体種別「工事標識」と一致する状況物体を検出するように構成された第2の物体検出器204bが、第1の物体検出器204aと並行に役割を実行し、第4のROIにおいて、第2の物体信頼度スコア50%を有する1つの第2の状況物体(例えば、工事標識1)を検出する。この第4の例では、2つの異なった物体種別の3つの状況物体が、第4の道路情景画像の第4のROIにおいて検出される。いくつかの実施形態では、状況検出マネージャ206は、交通状況データベースを参照し、第1の物体種別「カラーコーン」および第2の物体種別「工事標識」が、交通状況データベース内で状況カテゴリ「工事現場」と関連付けられていると決定する。それに応じて、状況検出マネージャ206は、第4のROIにおいて描写されている可能性のある第1の交通状況についての第1の予測される状況カテゴリを、状況カテゴリ「工事現場」であると決定する。
いくつかの実施形態では、状況検出マネージャ206は、第1の物体種別「カラーコーン」と一致する第1の状況物体(例えば、カラーコーン1、カラーコーン2)の第1の物体信頼度スコアと、第2の物体種別「工事標識」と一致する第2の状況物体(例えば、工事標識1)の第2の物体信頼度スコアとを統合して、第1の予測される状況カテゴリ「工事現場」に対応する、第4のROIの第1の状況信頼度スコア(例えば、40%)にする。この第4の例では、状況検出マネージャ206は、第4のROIの第1の状況信頼度スコアが、所定の状況信頼度スコア閾値(例えば、60%超)を満たしていないと決定する。それに応じて、状況検出マネージャ206は、予測される状況カテゴリ「工事現場」は第4のROIに適用されないと決定し、したがって状況検出マネージャ206は、第1の予測される状況カテゴリ「工事現場」によって定義された第1の交通状況は第4の道路情景画像の第4のROIにおいて描写されていないと決定する。
第4の例を続けると、車両プラットフォーム103の画像センサは、第4の道路情景画像に続いて第5の道路情景画像を取り込み得(例えば、1秒後)、したがって第5の道路情景画像は、実質的に同じ道路を描写する。ROIプロセッサ202は、第5の道路情景画像から第5のROIを抽出する。いくつかの実施形態では、第1の物体種別「カラーコーン」と一致する状況物体を検出するように構成された第1の物体検出器204aが、役割を実行し、第5の道路情景画像の第5のROIにおいて、第1の物体信頼度スコア75%、85%、および80%をそれぞれ有する、第1の物体種別「カラーコーン」と一致する3つの第1の状況物体(例えば、カラーコーン3、カラーコーン4、カラーコーン5)を検出する。第2の物体種別「工事標識」と一致する状況物体を検出するように構成された第2の物体検出器204bが、第1の物体検出器204aと並行に役割を実行し、第5のROIにおいて、第2の物体信頼度スコア90%および80%をそれぞれ有する2つの第2の状況物体(例えば、工事標識2、工事標識3)を検出する。
この第4の例では、2つの異なった物体種別の5つの状況物体が、第5の画像の第5のROIにおいて検出される。第5の画像の第5のROIにおいて検出された状況物体の物体種別は、第4の画像の第4のROIにおいて検出された状況物体の物体種別と同じである(例えば、第1の物体種別「カラーコーン」および第2の物体種別「工事標識」)。第4の道路情景画像の第4のROIを処理することと同様に、状況検出マネージャ206は、第5のROIにおいて描写されている可能性のある第1の交通状況についての第1の予測される状況カテゴリを、状況カテゴリ「工事現場」であると決定する。いくつかの実施形態では、状況検出マネージャ206は、第1の物体種別「カラーコーン」と一致する第1の状況物体(例えば、カラーコーン3、カラーコーン4、カラーコーン5)の第1の物体信頼度スコアと、第2の物体種別「工事標識」と一致する第2の状況物体(例えば、工
事標識2、工事標識3)の第2の物体信頼度スコアとを統合して、予測される状況カテゴリ「工事現場」に対応する、第5のROIの第2の状況信頼度スコア(例えば、85%)にする。この第4の例では、状況検出マネージャ206は、第5のROIの第2の状況信頼度スコアが、所定の状況信頼度スコア閾値(例えば、60%超)を満たしていると決定する。それに応じて、状況検出マネージャ206は、予測される状況カテゴリ「工事現場」は第5のROIに適用されると決定し、したがって状況検出マネージャ206は、予測される状況カテゴリ「工事現場」によって定義された第1の交通状況は第5の道路情景画像の第5のROIにおいて描写されていると決定する。
この第4の例では、車両プラットフォーム103は、第1の交通状況に対して距離d(例えば、100m)から第4の道路情景画像を取り込む。したがって、第4の道路情景画像の第4のROIは、限られたサイズを有する、第1の交通状況に存在している限られた数の状況物体(例えば、カラーコーン1、カラーコーン2、工事標識1)だけを描写する。結果として、第4のROIについて計算された物体信頼度スコアおよび状況信頼度スコアは、相対的に小さいものであり、したがって状況検出マネージャ206は、第1の予測される状況カテゴリ「工事現場」によって定義された第1の交通状況は第4の道路情景画像の第4のROIにおいて描写されていないと決定する。車両プラットフォーム103が第1の交通状況に近づくにつれ、車両プラットフォーム103は、距離dよりも短い距離d(例えば、25m)から第5の道路情景画像を取り込む。したがって、第5の道路情景画像の第5のROIは、第1の交通状況に存在している、より多くの状況物体(カラーコーン3、カラーコーン4、カラーコーン5、工事標識2)を取り込み、およびより高い画像解像度(例えば、よりボケが少ない、より大きな物体サイズ)で状況物体を描写する。結果として、第5のROIについて計算された物体信頼度スコアおよび状況信頼度スコアは、相対的に大きいものであり、したがって状況検出マネージャ206は、第1の予測される状況カテゴリ「工事現場」によって定義された第1の交通状況が第5の道路情景画像の第5のROIにおいて描写されていると決定する。
図3に戻って参照すると、ブロック308において、状況検出マネージャ206が、道路情景画像のROIが、特定の状況カテゴリによって定義された交通状況を描写していると決定する場合、その道路情景画像は、交通状況を位置特定するために使用される。ブロック310において、状況検出マネージャ206は、道路情景画像のROIにおいて描写されている交通状況を記述する状況データを生成する。道路情景画像は車両プラットフォーム103の画像センサによって取り込まれるので、状況データは、車両プラットフォーム103の観点から認識されるような交通状況を記述する。いくつかの実施形態では、状況検出マネージャ206は、道路情景画像と関連付けられたさまざまなタイプのデータを車両データストア121から取得し、状況データを生成するために、車両データストア121から取得したデータを所定のフォーマットに統合する。
いくつかの実施形態では、状況データは、道路情景画像、道路情景画像と関連付けられた画像データ(例えば、画像タイムスタンプ、画像データサイズなど)、道路情景画像を取り込んでいる画像センサ113のセンサ構成(例えば、外部カメラパラメータ、内部カメラパラメータなど)、および道路情景画像と関連付けられた、車両プラットフォーム103の地理位置データを含む。道路情景画像と関連付けられた地理位置データは、道路情景画像が取り込まれたときの車両プラットフォーム103の車両地理位置(例えば、GPS座標)を示し、画像タイムスタンプを使用して取得される。いくつかの実施形態では、状況データは、道路情景画像のROIにおいて検出された1つまたは複数の状況物体のバウンディングボックスおよび物体信頼度スコアも含む。いくつかの実施形態では、状況データは、予測される状況カテゴリに対応する、ROIの状況領域およびROIの状況信頼度スコアを含む。他のタイプの状況データも可能かつ想定される。
いくつかの実施形態では、状況データが状況検出マネージャ206によって生成されたときに、状況検出アプリケーション120は、状況データを状況位置特定アプリケーション122に送信する。いくつかの実施形態では、状況位置特定アプリケーション122は、システム100の処理エンティティ(例えば、サーバ101)に含まれ、複数の車両プラットフォーム103から状況データを受信する。具体的には、各車両プラットフォーム103は、車両プラットフォーム103がその車両プラットフォーム103の車両経路に沿って走行するときに、道路情景画像を取り込む。車両プラットフォーム103に含まれる状況検出アプリケーション120は、車両プラットフォーム103によって取り込まれた道路情景画像が、上記で議論したように、予測される状況カテゴリ(例えば、状況カテゴリ「工事現場」)によって定義された交通状況を描写しているかどうかを決定する。道路情景画像が交通状況を描写していると決定された場合、状況検出アプリケーション120は、車両プラットフォーム103の個々の観点からローカルに認識されるように、道路情景画像において描写されている交通状況を記述する状況データを生成し、その状況データを、サーバ101に含まれる状況位置特定アプリケーション122に送信する。いくつかの実施形態では、状況位置特定アプリケーション122は、複数の車両プラットフォーム103から受信した状況データをデータストア126に記憶する。
いくつかの実施形態では、状況位置特定アプリケーション122は、車両プラットフォーム103から受信した道路情景画像を使用して、交通状況を位置特定する。具体的には、状況位置特定アプリケーション122は、道路情景画像の状況データを使用して、地理的なマップ上で交通状況のカバレッジ領域を決定する。いくつかの実施形態では、状況位置特定アプリケーション122は、車両プラットフォーム103の画像センサによって取り込まれた道路情景画像、道路情景画像と関連付けられた画像データ、道路情景画像と関連付けられた、車両プラットフォーム103の車両地理位置、および道路情景画像を取り込んでいる画像センサ113のセンサ構成を抽出するために、各車両プラットフォーム103から受信した状況データを処理する。いくつかの実施形態では、状況位置特定アプリケーション122は、状況データから、道路情景画像のROIにおいて検出された1つまたは複数の状況物体の、物体バウンディングボックスおよび物体信頼度スコアも抽出する。いくつかの実施形態では、状況位置特定アプリケーション122は、状況データから、予測される状況カテゴリに対応する、ROIの状況領域およびROIの状況信頼度スコアも抽出する。
いくつかの実施形態では、状況位置特定アプリケーション122は、車両プラットフォーム103のなかから、ある地理的領域に位置している1つまたは複数の車両プラットフォーム103の状況データに含まれる道路情景画像をクラスタ化する。具体的には、状況位置特定アプリケーション122は、データストア126内のマップデータベースから、地理的領域(例えば、所定の道路セグメント)を記述しているマップデータを、および車両プラットフォーム103の状況データから抽出された車両地理位置(例えば、GPS座標)を取得する。状況位置特定アプリケーション122は、車両プラットフォーム103の車両地理位置を地理的領域にマッピングし、車両プラットフォーム103のなかから、同じ地理的領域に位置している1つまたは複数の車両プラットフォーム103を決定する。同じ地理的領域に位置している車両プラットフォーム103の状況データから抽出された道路情景画像は、1つの画像クラスタにクラスタ化される。結果として、同じ画像クラスタ内の道路情景画像は、地理的領域内の同じ交通状況を描写し得るが、地理的領域内に位置している複数の車両プラットフォーム103に対応するさまざまな観点から、およびさまざまなカメラ構成によるものである。いくつかの実施形態では、状況位置特定アプリケーション122はまた、状況データから抽出された道路情景画像を、道路情景画像の画像タイムスタンプに基づいてクラスタ化する。結果として、画像クラスタは、同じ地理的領域に位置している車両プラットフォーム103の画像センサによって同じ時間窓の範囲内で取り込まれた道路情景画像を含む。
いくつかの実施形態では、状況位置特定アプリケーション122は、画像クラスタ内で異なった車両プラットフォーム103からの道路情景画像を一致させ得る。一致した道路情景画像は、1つまたは複数の状況物体の1つまたは複数の対応する特徴を有しうる。例えば、状況位置特定アプリケーション122は、第1の車両プラットフォーム103の第1の画像センサによって取り込まれた第1の画像を、第2の車両プラットフォーム103の第2の画像センサによって取り込まれた第2の画像と一致させ得る。第1の画像および第2の画像は、同じ画像クラスタに含まれ、第1の画像を取り込んでいる第1の画像センサは、第2の画像を取り込んでいる第2の画像センタと異なったセンサ構成(例えば、異なった外部カメラパラメータや異なった内部カメラパラメータ)を有しうる。
具体的には、状況位置特定アプリケーション122は、第1の画像内の第1の物体バウンディングボックスによって示された第1の状況物体を記述している1つまたは複数の特徴を決定する。いくつかの実施形態では、特徴は、第1の画像内の第1の状況物体の物体外観(例えば、物体目印、境界、構造、形状、サイズなど)を記述している1つまたは複数の第1の画像特徴点を含む。いくつかの実施形態では、状況位置特定アプリケーション122は、第1の画像内の第1の画像特徴点と一致する、第2の画像内の第2の画像特徴点を決定する。例えば、状況位置特定アプリケーション122は、類似度スコアを生成するために、第1の画像特徴点および第2の画像特徴点(ピクセルカラー、明度値、形状等)のさまざまな側面を比較する。第1の画像特徴点と第2の画像特徴点との間の類似度を示す類似度スコアが、所定の類似度閾値を満たしている場合、状況位置特定アプリケーション122は、第2の画像内の第2の画像特徴点が第1の画像内の第1の画像特徴点に対応していると決定し、したがって画像クラスタ内において第2の画像を第1の画像と一致させ得る。いくつかの実施形態では、第1の画像および第2の画像内の対応する特徴は、深層学習アルゴリズムを使用して特定される。
いくつかの実施形態では、第1の画像内の第1の画像特徴点P、および第1の画像特徴点Pと一致する、第2の画像内の第2の画像特徴点Pは、第1の画像および第2画像それぞれへの、第1の状況物体の同じ物理特徴点Pの投影であり得る。いくつかの実施形態では、第1の画像は、第1のセンサ構成を有する、第1の車両プラットフォーム103の第1の画像センサによって取り込まれ、第2の画像は、第2のセンサ構成を有する、第2の車両プラットフォーム103の第2の画像センサによって取り込まれ得る。したがって、第1の画像特徴点Pを含んだ第1の画像は、第1の画像センサの第1のカメラ座標系(X,Y,Z)と関連付けられ、第2の画像特徴点Pを含んだ第2の画像は、第2の画像センサの第2のカメラ座標系(X,Y,Z)と関連付けられ得る。いくつかの実施形態では、第1の画像センサの第1のカメラ座標系(X,Y,Z)は、第1の画像が取り込まれるときの第1の画像センサの第1のセンサ位置を示す第1の原点Cを有する3次元(3D)座標系であり得る。いくつかの実施形態では、第1の原点Cの地理位置座標(例えば、GPS座標)は、第1の画像を取り込むときの第1の車両プラットフォーム103の地理位置座標であり得る。同様に、第2の画像センサの第2のカメラ座標系(X,Y,Z)は、第2の画像が取り込まれるときの第2の画像センサの第2のセンサ位置を示す第2の原点Cを有する3次元座標系であり得る。第2の原点Cの地理位置座標(例えば、GPS座標)は、第2の画像を取り込むときの第2の車両プラットフォーム103の地理位置座標であり得る。
いくつかの実施形態では、状況位置特定アプリケーション122は、少なくとも1つの一致する画像と関連付けられた、車両プラットフォーム103から、ターゲットの車両プラットフォームをランダムに選択し、ターゲットの車両プラットフォームと関連付けられた画像センサのカメラ座標系を、ターゲットのカメラ座標系として使用する。例えば、状況位置特定アプリケーション122は、第1の画像と関連付けられた第1の車両プラット
フォーム103を、ターゲット車両として選択する。このように、ターゲットのカメラ座標系は、第1の車両プラットフォーム103と関連付けられた第1の画像センサの第1のカメラ座標系(X,Y,Z)であり得る。
いくつかの実施形態では、状況位置特定アプリケーション122は、第1の画像特徴点Pの座標や第2の画像特徴点Pの座標を、同じカメラ座標系、例えばターゲットのカメラ座標系(X,Y,Z)に変換するために、座標変換を実行する。いくつかの実施形態では、状況位置特定アプリケーション122によって実行される座標変換は、画像の画像座標系における画像特徴点の2D画像座標を、画像を取り込んでいる対応する画像センサのカメラ座標系における画像特徴点の3Dカメラ座標へ変換することを含む。カメラ座標プロセッサ206によって実行される座標変換は、対応する画像センサのカメラ座標系における画像特徴点の3Dカメラ座標を、ターゲットのカメラ座標系における画像特徴点の3Dカメラ座標へ変換することも含む。いくつかの実施形態では、これらの座標変換は、第1の画像センサおよび第2の画像センサのセンサ構成(例えば、外部カメラパラメータおよび内部カメラパラメータ)を使用して実行する。
座標変換の結果として、第1の画像特徴点P、第2の画像特徴点P、第1の原点C、および第2の原点Cは、同じカメラ座標系(X,Y,Z)と関連付けられる。いくつかの実施形態では、状況位置特定アプリケーション122は、第1の画像特徴点Pおよび第2の画像特徴点Pに基づいて、ターゲットのカメラ座標系(X,Y,Z)における物理特徴点Pの3Dカメラ座標を決定する。それに応じて、物理特徴点P、第1の原点C、および第2の原点Cは、同じターゲットのカメラ座標系(例えば、第1のカメラ座標系(X,Y,Z))と関連付けられ、第1のカメラ座標系(X,Y,Z)におけるそれらの3Dカメラ座標が決定される。したがって、物理特徴点P、第1の原点C、および第2の原点Cは、第1のカメラ座標系(X,Y,Z)におけるそれらの3Dカメラ座標に基づいて三角形を形成する。このように、状況位置特定アプリケーション122は、第1の原点Cの地理位置座標および第2の原点Cの地理位置座標に基づいて、三角測量演算を用いて、物理特徴点Pの地理位置座標(例えば、GPS座標)を計算する。
いくつかの実施形態では、状況位置特定アプリケーション122は、第1の関連する状況物体の物理特徴点Pを、物理特徴点Pの地理位置座標(例えば、GPS座標)を使用して地理的マップ上で位置付けする。第1の状況物体の複数の特徴点が地理的マップ上に配置されるので、第1の状況物体は、その正確な地理的位置で地理的マップ上に投影される。いくつかの実施形態では、状況位置特定アプリケーション122は、状況物体の地理位置座標に基づいて、交通状況のカバレッジ領域を決定する。例えば、状況地理位置計算器208は、地理的マップ上で状況物体を含む凸状の地域を、交通状況のカバレッジ領域であると決定する。交通状況のカバレッジ領域は、交通状況の地理的位置、交通状況の幾何学的境界(例えば、幾何学的形状、占有された車線)、状況コンポーネント(例えば、交通状況に存在している状況物体)、これらの状況物体の分布、などを示す。
いくつかの実施形態では、ナビゲーションアプリケーション124は、経路計画を実行するために、状況位置特定アプリケーション122によって計算された、交通状況のカバレッジ領域を使用する。例えば、ナビゲーションアプリケーション124は、道路を占有している交通状況のカバレッジ領域を回避するために車線変更操作をする、ナビゲーションに関する提案を、自身のユーザに提供する。いくつかの実施形態では、状況位置特定アプリケーション122は、交通状況をモニタし、地理的マップにおいて交通状況を表すカバレッジ領域を、交通状況が時間とともに動的に変化するにつれて更新する。いくつかの実施形態では、状況位置特定アプリケーション122は、さまざまな道路セグメント上で発生した複数の交通状況およびそれらの時間的な展開状況(カバレッジ領域の開始、終了
、拡大、縮小など)を記述している動的交通状況マップを生成および維持する。いくつかの実施形態では、状況位置特定アプリケーション122は、動的交通状況マップをデータストア126に記憶する。いくつかの実施形態では、各車両プラットフォーム103に含まれるナビゲーションアプリケーション124は、データストア126から動的交通状況マップを取得し、さまざま道路セグメントで発生した1つまたは複数の交通状況のカバレッジ領域を求めるために動的交通状況マップを処理し、それに応じて車両プラットフォーム103が自身の目的地へ到着するための最適な車両経路を計算する。
いくつかの実施形態では、交通状況のカバレッジ領域が第1のカバレッジ領域から第2のカバレッジ領域に変化するとき、状況位置特定アプリケーション122は、交通状況の第2のカバレッジ領域を含む状況更新の通知をナビゲーションアプリケーション124に提供する。いくつかの実施形態では、状況更新の通知は、交通状況に対して現在最も近い車両プラットフォーム103(例えば、交通状況の地理位置から半径2マイル範囲内を走行している車両プラットフォーム103)に含まれるナビゲーションアプリケーション124に送信される。いくつかの実施形態では、最も近い車両プラットフォーム103に含まれるナビゲーションアプリケーション124は、現在の車両経路を、交通状況の第2のカバレッジ領域に適応させるために経路再計算を自動的に実行する。いくつかの実施形態では、ナビゲーションアプリケーション124は、交通状況の第2のカバレッジ領域に対応する通知、アラート、ナビゲーションガイダンス、記述情報などを生成もし、最も近い車両プラットフォーム103の1つまたは複数の出力デバイスを介してドライバに対して表示もする。例えば、ナビゲーションアプリケーション124は、交通状況の第1のカバレッジ領域および第2のカバレッジ領域を区別して表している動的グラフィカルマップを、交通状況を迂回するための複数の経路選択肢と共にタッチスクリーン上に表示する。ドライバが、複数の経路選択肢から1つの経路選択肢を選択するためにユーザ入力を提供(例えば、音声コマンドを発する、タッチスクリーンと対話する、など)したとき、ナビゲーションアプリケーション124は、ドライバが、交通状況が占有している道路セグメントに従ってそこを通って進むために、選択された経路選択肢に対応するナビゲーションガイダンスを提供する。
以上の説明では、本発明を十分に理解できるように、多くの詳細について説明した。しかしながら、各実施形態はこれらの具体的な詳細無しでも実施できることは当業者にとって明らかであろう。また、説明が不明瞭になることを避けるために、構造や装置をブロック図の形式で表すこともある。たとえば、一実施形態は、ユーザインタフェースおよび特定のハードウェアとともに説明される。しかし、本実施形態は、データおよびコマンドを受信する任意のタイプのコンピュータシステム、および、サービスを提供する任意の周辺機器について適用できる。
以上の詳細な説明の一部は、非一時的(non-transitory)なコンピュータ可読記憶媒体に記憶されたデータビットに対する動作のアルゴリズムおよび記号的表現として提供される。これらのアルゴリズム的な説明および表現は、データ処理技術分野の当業者によって、他の当業者に対して自らの成果の本質を最も効果的に説明するために用いられるものである。なお、本明細書において(また一般に)アルゴリズムとは、所望の結果を得るための論理的な手順を意味する。処理のステップは、物理量を物理的に操作するものである。必ずしも必須ではないが、通常は、これらの量は記憶・伝送・結合・比較およびその他の処理が可能な電気的または磁気的信号の形式を取る。通例にしたがって、これらの信号をビット・値・要素・エレメント・シンボル・キャラクタ・項・数値などとして称することが簡便である。
なお、これらの用語および類似する用語はいずれも、適切な物理量と関連付いているものであり、これら物理量に対する簡易的なラベルに過ぎないということに留意する必要が
ある。以下の説明から明らかなように、特に断らない限りは、本明細書において「処理」「計算」「コンピュータ計算(処理)」「判断」「表示」等の用語を用いた説明は、コンピュータシステムや類似の電子的計算装置の動作および処理であって、コンピュータシステムのレジスタやメモリ内の物理的(電子的)量を、他のメモリやレジスタまたは同様の情報ストレージや通信装置、表示装置内の物理量として表される他のデータへ操作および変形する動作および処理を意味する。
本発明は、本明細書で説明される動作を実行する装置にも関する。この装置は要求される目的のために特別に製造されるものであっても良いし、汎用コンピュータを用いて構成しコンピュータ内に格納されるプログラムによって選択的に実行されたり再構成されたりするものであっても良い。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な、例えばフロッピー(登録商標)ディスク・光ディスク・CD−ROM・磁気ディスクなど任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気または光学式カード、USBキーを含む不揮発性フラッシュメモリ、電子的命令を格納するために適した任意のタイプの媒体などの、非一時的なコンピュータ可読記憶媒体に記憶される。
発明の具体的な実施形態は、完全にハードウェアによって実現されるものでも良いし、完全にソフトウェアによって実現されるものでも良いし、ハードウェアとソフトウェアの両方によって実現されるものでも良い。好ましい実施形態は、ソフトウェアによって実現される。ここでソフトウェアとは、ファームウェア、常駐ソフトウェア、マイクロコードやその他のソフトウェアを含むものである。
さらに、ある実施形態は、コンピュータが利用あるいは読み込み可能な記憶媒体からアクセス可能なコンピュータプログラムプロダクトの形態を取る。この記憶媒体は、コンピュータや任意の命令実行システムによってあるいはそれらと共に利用されるプログラムコードを提供する。コンピュータが利用あるいは読み込み可能な記憶媒体とは、命令実行システムや装置によってあるいはそれらと共に利用されるプログラムを、保持、格納、通信、伝搬および転送可能な任意の装置を指す。
プログラムコードを格納・実行するために適したデータ処理システムは、システムバスを介して記憶素子に直接または間接的に接続された少なくとも1つのプロセッサを有する。記憶素子は、プログラムコードの実際の実行に際して使われるローカルメモリや、大容量記憶装置や、実行中に大容量記憶装置からデータを取得する回数を減らすためにいくつかのプログラムコードを一時的に記憶するキャッシュメモリなどを含む。入力/出力(I/O)装置は、例えばキーボード、ディスプレイ、ポインティング装置などであるが、これらはI/Oコントローラを介して直接あるいは間接的にシステムに接続される。
データ処理システムが、介在するプライベートネットワークおよび/またはパブリックネットワークを介して、他のデータ処理システム、ストレージデバイス、リモートプリンタなどに結合されるようになることを可能にするために、ネットワークアダプタもシステムに結合されうる。ワイヤレス(たとえば、Wi−Fi(登録商標))トランシーバ、イーサネット(登録商標)アダプタ、およびモデムは、ネットワークアダプタのほんの数例に過ぎない。プライベートネットワークおよびパブリックネットワークは、任意の数の構成および/またはトポロジを有しうる。データは、たとえば、様々なインターネットレイヤ、トランスポートレイヤ、またはアプリケーションレイヤのプロトコルを含む、様々な異なる通信プロトコルを使用して、ネットワークを介してこれらのデバイス間で送信されうる。たとえば、データは、伝送制御プロトコル/インターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、伝送制御プロトコル(TCP)、ハイパーテキスト転送プロトコル(HTTP)、セキュアハイパーテキスト転送プロトコル(HTTPS)、動的適応ストリーミングオーバーHTTP(DASH)、リアルタイム
ストリーミングプロトコル(RTSP)、リアルタイムトランスポートプロトコル(RTP)およびリアルタイムトランスポート制御プロトコル(RTCP)、ボイスオーバーインターネットプロトコル(VOIP)、ファイル転送プロトコル(FTP)、ウェブソケット(WS)、ワイヤレスアクセスプロトコル(WAP)、様々なメッセージングプロトコル(SMS、MMS、XMS、IMAP、SMTP、POP、WebDAVなど)、または他の既知のプロトコルを使用して、ネットワークを介して送信されうる。
最後に、本明細書において提示されるアルゴリズムおよび表示は特定のコンピュータや他の装置と本来的に関連するものではない。本明細書における説明にしたがったプログラムを有する種々の汎用システムを用いることができるし、また要求された処理ステップを実行するための特定用途の装置を製作することが適した場合もある。これら種々のシステムに要求される構成は、以上の説明において明らかにされる。さらに、本発明は、特定のプログラミング言語と関連づけられるものではない。本明細書で説明される本発明の内容を実装するために種々のプログラミング言語を利用できることは明らかであろう。
実施形態の前述の説明は、例示と説明を目的として行われたものである。したがって、開示された実施形態が本発明の全てではないし、本発明を上記の実施形態に限定するものでもない。本発明は、上記の開示にしたがって、種々の変形が可能である。本発明の範囲は上述の実施形態に限定解釈されるべきではなく、特許請求の範囲にしたがって解釈されるべきである。本発明の技術に詳しい者であれば、本発明はその思想や本質的特徴から離れることなくその他の種々の形態で実現できることを理解できるであろう。同様に、モジュール・処理・特徴・属性・方法およびその他の本発明の態様に関する名前付けや分割方法は必須なものでものないし重要でもない。また、本発明やその特徴を実装する機構は異なる名前や分割方法や構成を備えていても構わない。
さらに、モジュール・処理・特徴・属性・方法およびその他の本発明の態様は、ソフトウェア、ハードウェア、ファームウェアもしくはこれらの組合せとして実装できる。また、本発明をソフトウェアとして実装する場合には、モジュールなどの各要素は、どのような様式で実装されても良い。例えば、スタンドアローンのプログラム、大きなプログラムの一部、異なる複数のプログラム、静的あるいは動的なリンクライブラリー、カーネルローダブルモジュール、デバイスドライバー、その他コンピュータプログラミングの当業者にとって既知な方式として実装することができる。さらに、本発明の実装は特定のプログラミング言語に限定されるものではないし、特定のオペレーティングシステムや環境に限定されるものでもない。
101 サーバ
103 車両プラットフォーム
105 ネットワーク
113 画像センサ
115 プロセッサ
117 メモリ
119 通信ユニット
120 状況検出アプリケーション、コンポーネント
121 車両データストア
122 状況位置特定アプリケーション
124 ナビゲーションアプリケーション
126 データストア

Claims (9)

  1. 道路を含む画像から、所定の物体種別に対応する状況物体を検出し、前記物体種別に対応するテンプレートとの間の類似度に基づいて、前記状況物体に対する物体信頼度スコアを生成する物体検出器を含むコンピュータによって実行される方法であって、
    複数の前記物体検出器によって、前記画像に含まれる複数の状況物体に対して、物体種別と、前記物体種別の確からしさを表す物体信頼度スコアをそれぞれ生成する生成ステップと、
    各々が前記状況物体に対応する物体種別の集合に基づいて、前記画像中において発生しているイベントのカテゴリを予測する予測ステップと、
    複数の前記物体信頼度スコアを統合して、前記イベントのカテゴリに対応する状況信頼度スコアを生成する統合ステップと、
    前記状況信頼度スコアに基づいて、前記予測した状況カテゴリに対応するイベントが前記画像中において発生しているか否かを評価する評価ステップと、
    を含む方法。
  2. 前記イベントのカテゴリごとに、当該イベントに含まれる物体種別ごとの重みを定義したイベントデータを取得する取得ステップをさらに含み、
    前記統合ステップでは、複数の前記物体信頼度スコアに、前記物体種別に対応する前記重みをそれぞれ乗算することで前記状況信頼度スコアを生成する、
    請求項1に記載の方法。
  3. 前記予測ステップでは、複数の異なる物体種別と状況カテゴリとを関連付けたカテゴリデータを参照して、前記画像中において発生しているイベントのカテゴリを予測する、
    請求項1または2に記載の方法。
  4. 前記生成ステップで利用される複数の物体検出器は、それぞれ異なる状況物体をターゲットとして設定されたものである、
    請求項1から3のいずれかに記載の方法。
  5. 前記テンプレートは、第一のテンプレートと、前記第一のテンプレートよりも粒度の高い第二のテンプレートを含み、
    前記物体検出器は、前記状況物体と前記第一のテンプレートとの類似度が所定値以上である場合にのみ、前記第二のテンプレートを利用した前記物体信頼度スコアの算出を行う、
    請求項1から4のいずれかに記載の方法。
  6. 前記予測ステップでは、前記画像中において発生しているイベントのカテゴリを複数個予測し、
    前記評価ステップでは、前記カテゴリにそれぞれ対応する複数の前記状況信頼度スコアに基づいて、前記画像中において発生しているイベントのカテゴリを絞り込む、
    請求項1から5のいずれかに記載の方法。
  7. 複数の前記状況物体に外接する複数の枠を決定し、前記複数の枠を統合して、前記イベントに対応する領域を生成するステップをさらに含む、
    請求項1から6のいずれかに記載の方法。
  8. 所定のイベントが含まれる学習画像を取得するステップと、
    前記学習画像から得られる出力と、所定の目標出力との比較に基づいて、前記物体種別ごとの重みを調整するステップと、をさらに含む、
    請求項2に記載の方法。
  9. 道路を含む画像から、所定の物体種別に対応する状況物体を検出し、前記物体種別に対応するテンプレートとの間の類似度に基づいて、前記状況物体に対する物体信頼度スコアを生成する物体検出手段と、
    複数の前記物体検出手段によって、前記画像に含まれる複数の状況物体に対して、物体種別と、前記物体種別の確からしさを表す物体信頼度スコアをそれぞれ生成し、
    各々が前記状況物体に対応する物体種別の集合に基づいて、前記画像中において発生しているイベントのカテゴリを予測し、
    複数の前記物体信頼度スコアを統合して、前記イベントのカテゴリに対応する状況信頼度スコアを生成し、
    前記状況信頼度スコアに基づいて、前記予測した状況カテゴリに対応するイベントが前記画像中において発生しているか否かを評価する制御手段と、
    を含むシステム。
JP2019056828A 2018-03-29 2019-03-25 交通状況のリアルタイム検出 Expired - Fee Related JP6741107B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/939,308 2018-03-29
US15/939,308 US10540554B2 (en) 2018-03-29 2018-03-29 Real-time detection of traffic situation

Publications (2)

Publication Number Publication Date
JP2019175451A JP2019175451A (ja) 2019-10-10
JP6741107B2 true JP6741107B2 (ja) 2020-08-19

Family

ID=68056354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019056828A Expired - Fee Related JP6741107B2 (ja) 2018-03-29 2019-03-25 交通状況のリアルタイム検出

Country Status (2)

Country Link
US (1) US10540554B2 (ja)
JP (1) JP6741107B2 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10908614B2 (en) * 2017-12-19 2021-02-02 Here Global B.V. Method and apparatus for providing unknown moving object detection
GB201804082D0 (en) * 2018-03-14 2018-04-25 Five Ai Ltd Image annotation
DE102018206743A1 (de) * 2018-05-02 2019-11-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Fahrerassistenzsystems eines Egofahrzeugs mit wenigstens einem Umfeldsensor zum Erfassen eines Umfelds des Egofahrzeugs, Computer-lesbares Medium, System, und Fahrzeug
US11164015B2 (en) * 2018-05-08 2021-11-02 Ford Global Technologies, Llc Simultaneous diagnosis and shape estimation from a perceptual system derived from range sensors
US11734962B2 (en) * 2018-05-16 2023-08-22 Christopher Straley Vehicle messaging system and method of operation thereof
US11391819B2 (en) * 2018-07-18 2022-07-19 Qualcomm Incorporate Object verification using radar images
US10884131B1 (en) 2018-08-03 2021-01-05 GM Global Technology Operations LLC Conflict resolver for a lidar data segmentation system of an autonomous vehicle
CN110570389B (zh) * 2018-09-18 2020-07-17 阿里巴巴集团控股有限公司 车辆损伤识别方法及装置
US11210335B2 (en) * 2018-09-27 2021-12-28 Optim Corporation System and method for judging situation of object
JP6683280B1 (ja) 2018-10-19 2020-04-15 ソニー株式会社 センサ装置、信号処理方法
US10818386B2 (en) 2018-11-21 2020-10-27 Enlitic, Inc. Multi-label heat map generating system
US11068718B2 (en) * 2019-01-09 2021-07-20 International Business Machines Corporation Attribute classifiers for image classification
US10817777B2 (en) * 2019-01-31 2020-10-27 StradVision, Inc. Learning method and learning device for integrating object detection information acquired through V2V communication from other autonomous vehicle with object detection information generated by present autonomous vehicle, and testing method and testing device using the same
GB2607172B (en) * 2019-04-25 2023-11-01 Motional Ad Llc Graphical user interface for display of autonomous vehicle behaviors
DE102019210801A1 (de) * 2019-07-22 2021-01-28 Robert Bosch Gmbh Verfahren, Vorrichtung, Computerprogramm und maschinenlesbares Speichermedium zur Detektion eines Objekts
US11100801B2 (en) * 2019-08-12 2021-08-24 Toyota Motor North America, Inc. Utilizing sensors to detect hazard from other vehicle while driving
JP7460882B2 (ja) * 2019-11-22 2024-04-03 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、制御方法、及びプログラム
CN111083358A (zh) * 2019-12-05 2020-04-28 浙江大华技术股份有限公司 一种目标抓拍方法、装置及系统
US11281209B2 (en) * 2019-12-19 2022-03-22 Zf Friedrichshafen Ag Vehicle vision system
US11928789B2 (en) 2019-12-19 2024-03-12 Zf Friedrichshafen Ag Vehicle vision system
US11407432B2 (en) * 2020-04-30 2022-08-09 Toyota Motor Engineering & Manufacturing North America, Inc. Connectivity-enabled traffic-aware supplemental sensor control for informed driving
KR20220046731A (ko) * 2020-10-07 2022-04-15 현대자동차주식회사 자율주행장치 및 정밀지도 생성방법
CN112183485B (zh) * 2020-11-02 2024-03-05 北京信息科技大学 基于深度学习的交通锥桶检测定位方法、系统及存储介质
US11893769B2 (en) 2021-06-04 2024-02-06 Vade Usa, Incorporated Data collection for object detectors
CN114926753B (zh) * 2022-06-16 2023-10-13 无锡慧眼人工智能科技有限公司 一种海量图像条件下的快速目标场景信息提取方法
CN117641278A (zh) * 2022-08-12 2024-03-01 通用汽车环球科技运作有限责任公司 用于交通状况洞察的系统和方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004362186A (ja) * 2003-06-04 2004-12-24 Juki Corp テンプレートマッチング方法及び装置
US8924078B2 (en) * 2004-11-18 2014-12-30 Gentex Corporation Image acquisition and processing system for vehicle equipment control
JP2006186808A (ja) * 2004-12-28 2006-07-13 Mitsubishi Electric Corp 映像記録装置
JP4614826B2 (ja) 2005-06-14 2011-01-19 トヨタ自動車株式会社 道路区画線検出装置
US8605947B2 (en) * 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
JP2011158346A (ja) * 2010-02-01 2011-08-18 Furuno Electric Co Ltd 画像処理装置、レーダ装置、画像処理方法および画像処理プログラム
TWI408625B (zh) * 2010-04-15 2013-09-11 Univ Nat Chiao Tung 車輛追蹤系統及其方法
US9195914B2 (en) * 2012-09-05 2015-11-24 Google Inc. Construction zone sign detection
US9221461B2 (en) 2012-09-05 2015-12-29 Google Inc. Construction zone detection using a plurality of information sources
US9141107B2 (en) * 2013-04-10 2015-09-22 Google Inc. Mapping active and inactive construction zones for autonomous driving
JP6046666B2 (ja) * 2014-06-24 2016-12-21 トヨタ自動車株式会社 走路境界推定装置及び走路境界推定方法
CN104200236B (zh) 2014-08-22 2018-10-26 浙江生辉照明有限公司 基于dpm的快速目标检测方法
US9424475B1 (en) 2014-09-17 2016-08-23 Google Inc. Construction object detection
JP6554900B2 (ja) * 2015-04-28 2019-08-07 オムロン株式会社 テンプレート作成装置及びテンプレート作成方法

Also Published As

Publication number Publication date
JP2019175451A (ja) 2019-10-10
US10540554B2 (en) 2020-01-21
US20190303686A1 (en) 2019-10-03

Similar Documents

Publication Publication Date Title
JP6741107B2 (ja) 交通状況のリアルタイム検出
JP6729673B2 (ja) 複数車両の協力による交通イベントの位置特定
US10916135B2 (en) Similarity learning and association between observations of multiple connected vehicles
EP3511863B1 (en) Distributable representation learning for associating observations from multiple vehicles
JP7211307B2 (ja) 機械学習を使用した距離推定
JP6693587B2 (ja) 情報処理方法および情報処理システム
US10600251B2 (en) Method of ground adjustment for in-vehicle augmented reality systems
US11521371B2 (en) Systems and methods for semantic map-based adaptive auto-exposure
JP2020115322A (ja) 車両位置推定のためのシステムおよび方法
US20190094858A1 (en) Parking Location Prediction
US11238370B2 (en) Approaches for determining sensor calibration
JP2019028861A (ja) 信号処理装置、および信号処理方法、プログラム、並びに移動体
JP6678605B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
US11676393B2 (en) Method and system for training machine learning algorithm to detect objects at distance
US20210389133A1 (en) Systems and methods for deriving path-prior data using collected trajectories
US20160059783A1 (en) Generating spatial information for a heads-up display
EP3842760B1 (en) Methods of and system for generating trajectory for self-driving car (sdc)
JP7376992B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2020031812A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム、及び移動体
CN117015792A (zh) 有凹图像放大用于自动驾驶生成物体检测标签的系统和方法
JP7505596B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
US20240062349A1 (en) Enhanced high dynamic range pipeline for three-dimensional image signal processing
EP4361961A1 (en) Method of determining information related to road user
US20240157959A1 (en) Vehicle electronic device and method for providing notification related to parking environment based on image reading

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200706

R151 Written notification of patent or utility model registration

Ref document number: 6741107

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees