JP7248797B2 - 未知の標識の検出 - Google Patents

未知の標識の検出 Download PDF

Info

Publication number
JP7248797B2
JP7248797B2 JP2021531096A JP2021531096A JP7248797B2 JP 7248797 B2 JP7248797 B2 JP 7248797B2 JP 2021531096 A JP2021531096 A JP 2021531096A JP 2021531096 A JP2021531096 A JP 2021531096A JP 7248797 B2 JP7248797 B2 JP 7248797B2
Authority
JP
Japan
Prior art keywords
sign
traffic
vehicle
attributes
traffic sign
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021531096A
Other languages
English (en)
Other versions
JP2022510312A (ja
Inventor
シュー,ジューナン
カブカブ,マヤ
ウー,チェン
コウ,ウージョン
Original Assignee
ウェイモ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウェイモ エルエルシー filed Critical ウェイモ エルエルシー
Publication of JP2022510312A publication Critical patent/JP2022510312A/ja
Application granted granted Critical
Publication of JP7248797B2 publication Critical patent/JP7248797B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096716Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Electromagnetism (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

関連出願の相互参照
本出願は、2018年12月14日に出願された出願番号第16/220,225号の利点を主張し、その開示は参照により本明細書に組み込まれている。
ある位置から別の位置への乗客または物品の輸送を支援するために、自律運転モードで動作させるとき、人間の運転手を必要としない車両などの自律車両を使用することができる。自律車両の重要な構成要素は、カメラ、レーダー、LIDARセンサなどのセンサ、および他の同様のデバイスを使用して車両がその周囲を認知し、解釈することを可能にする認知システムである。例えば、認知システムおよび/または車両のコンピューティングデバイスは、これらのセンサからのデータを処理して、物体、ならびに位置、形状、サイズ、方位、加速または減速、速度、タイプなどのようなそれらの特性を識別することができる。この情報は、車両のコンピューティングシステムが車両の適切な運転決定を行うために重要である。
本開示の態様は、未知の標識の標識タイプを判定するための方法を証明する。この方法は、1つ以上のプロセッサによって、車両の認知システムによって生成された画像を受信することと、1つ以上のプロセッサによって、画像内の交通標識に対応する画像データを識別することと、1つ以上のプロセッサによって、交通標識に対応する画像データを標識タイプモデルに入力することと、1つ以上のプロセッサによって、標識タイプモデルが交通標識のタイプを識別できなかったことを判定することと、1つ以上のプロセッサによって、交通標識の1つ以上の属性を判定することと、1つ以上のプロセッサによって、交通標識の1つ以上の属性を他の交通標識の既知の属性と比較することと、1つ以上のプロセッサによって、交通標識の1つ以上の属性の比較に基づいて、交通標識の標識タイプを判定することと、1つ以上のプロセッサによって、交通標識の標識タイプに基づいて自律運転モードで車両を制御することと、を含み得る。
場合によっては、他の交通標識の既知の属性が、1対多のデータ構造に格納され得る。
場合によっては、標識タイプモデルが交通標識のタイプを識別できないことが、モデルが交通標識の標識タイプを最低信頼レベルまで識別できないことを含む。
場合によっては、交通標識の1つ以上の属性が、画像処理技術を使用して判定される。
場合によっては、属性は、標識タイプ、色、形状、反射係数、配置、テキスト、図形、または付属品のうちの1つ以上を含み得る。
場合によっては、この方法は、交通標識の1つ以上の属性を他の交通標識の既知の属性と比較することによって、交通標識の内容を判定することをさらに含み得る。いくつかの例では、交通標識の内容は、情報提供的または指示的なものであり得る。いくつかの例では、交通標識の標識タイプに基づいて自律運転モードで車両を制御することは、交通標識の標識タイプに基づいて何の行動も取らないことを含み得る。
場合によっては、交通標識の標識タイプは、規制、警告、誘導、サービス、レクリエーション、工事、または学校区域のうちの1つ以上を含み得る。
場合によっては、交通標識の標識タイプに基づいて自律運転モードで車両を制御することは、交通標識の内容が行動を指示するものであると判定することと、行動を実行することと、を含み得る。
本開示の態様は、未知の標識の標識タイプを判定するためのシステムを提供し得る。システムは、1つ以上のプロセッサであって、1つ以上のプロセッサは、車両の認知システムによって生成された画像を受信することと、画像内の交通標識に対応する画像データを識別することと、交通標識に対応する画像データを標識タイプモデルに入力することと、標識タイプモデルが、交通標識の1つ以上の属性を判定する交通標識のタイプを識別できなかったことを判定することと、交通標識の1つ以上の属性を他の交通標識の既知の属性と比較することと、交通標識の1つ以上の属性の比較に基づいて、交通標識の標識タイプを判定することと、交通標識の標識タイプに基づいて、自律運転モードで車両を制御することと、を行うように構成された、1つ以上のプロセッサを含み得る。
場合によっては、他の交通標識の既知の属性が、1対多のデータ構造に格納され得る。
場合によっては、他の交通標識の既知の属性は、オペレータによって、および/または画像処理技術を使用することによって、手動でラベル付けされ得る。
場合によっては、交通標識の1つ以上の属性は、画像処理技術を使用して判定され得る。
場合によっては、属性は、標識タイプ、色、形状、反射係数、配置、テキスト、図形、または付属品のうちの1つ以上を含み得る。
場合によっては、1つ以上のプロセッサは、交通標識の1つ以上の属性を他の交通標識の既知の属性と比較することによって、交通標識の内容を判定するようにさらに構成され得る。いくつかの例では、交通標識の内容は、情報提供的または指示的なものである。いくつかの例では、交通標識の標識タイプに基づいて自律運転モードで車両を制御することは、標識タイプに基づいて何の行動も取らないことを含み得る。いくつかの例では、交通標識の標識タイプに基づいて自律運転モードで車両を制御することは、交通標識の内容が行動を指示するものであると判定することと、行動を実行することと、を含み得る。
場合によっては、システムは、車両を含み得る。
例示的な実施形態による例示的な車両の機能図である。 本開示の態様による地図情報の一例である。 本開示の態様による車両の例示的な外観図である。 本開示の態様による例示的なシステムのイラスト図である。 本開示の態様による図4のシステムの機能図である。 本開示の態様による例示的なカメラ画像である。 本開示の態様による例示的な画像および対応するラベルである。 本開示の態様による例示的な画像、および対応するラベルならびに属性である。 本開示の態様による例示的な画像である。 本開示の態様による例示的な画像である。 本開示の態様による例示的なフロー図である。 本開示の態様による地図情報の例示的なフロー図である。
概要
この技術は、自律車両が行動を実行する必要があるかどうかを判定するために交通標識の特性を使用することに関する。人間の運転者は、旅行中に定期的に交通標識に遭遇し、それに反応する。この点において、人間の運転者は、交通標識を観察すると、交通標識に呼応して特定の行動を起こすか、または何の行動も起こさない場合がある。例えば、人間の運転者は一時停止標識を観察して、運転している車両を停止させる可能性がある。別の例では、人間の運転者が休憩所の交通標識を観察し、交通標識の観察に呼応して何の行動も起こさない可能性がある。
自律車両は、人間と同じように交通標識を判断する能力を有さないため、交通標識に呼応して行動を起こすときおよび起こさないときも判定する必要がある。この点において、自律車両が使用する地図情報は、特定の交通標識が位置するあるかを示すことができる。例えば、すべての一時停止標識の位置は地図情報内で見つけることができ、自律車両はそれらの位置で停止できる。ただし、交通標識は移動、削除、または異なる標識に置き換えられる可能性があり、それによって地図情報が不正確になる可能性がある。このように、交通標識が検出されない場合、または新しい標識が検出された場合、車両は人間のオペレータに遠隔支援の要求を送信して指示を受信することができ、それによって走行の遅延が発生する。さらに、すべての交通標識をマッピングし、そのような地図情報を最新の状態に保つには、多くのリソースが必要である。
これらの問題に対処するために、自律車両は交通標識をリアルタイムで検出し、交通標識とその内容との検出に呼応して取るべき適切な行動を判定することができる。例えば、自律車両の1つ以上のセンサが、車両の近傍の交通標識を検出し得る。自律車両の1つ以上のコンピューティングデバイス、およびそのタイプ、ならびに色、形状、反射係数、配置、テキスト、図形、付属品などのような他の属性などの交通標識の特性によって分析され得る交通標識に対応するセンサデータは、判定され得る。場合によっては、機械学習モデルを使用して、標識タイプの判定を支援し得る。交通標識タイプ、および場合によっては交通標識の他の属性のいくつかに応じて、標識の内容(例えば、指示的な内容、情報提供的な内容など)の判定が行われ得る。標識のタイプおよび内容に基づいて、車両が行動を実行する必要があるかどうかを判定し得る。
本明細書に記載の特徴は、自律車両が、交通標識を事前に識別することを必要とせず、またはむしろ、車両の地図情報にすでに格納されていなくても、リアルタイムで交通標識を検出して応答することを可能にし得る。これは、マッピングされていないエリアや、地図が正しくないか最新でないエリアで特に有用であり得る。さらに、本明細書に記載の特徴により、自律車両は、機械学習モデルでは識別することができない、または一時的な標識もしくは手作りの標識など、地図情報内で見つけられない交通標識を識別することができるようになる。このように、自律車両は、未知の標識に対しても行動を起こすべきかどうかを判定できる可能性がある。加えて、標識の内容の検出および識別は、特に新しく識別された標識がマッピングデータに典型的に追加されるタイプのものである場合、未知の標識をマッピングデータに追加するのに役立ち得る。
加えて、本明細書に記載の特徴により、車両が標識タイプを検出(すなわち、正常に判定)したが、その内容を判定することができない場合に、人間のオペレータに対して支援の要求を優先することができる。この点において、規制標識など、車両の安全な動作に影響を与える可能性のある未知の標識に車両が遭遇した場合、レクリエーション標識などの車両の安全な動作に影響を与えない未知の標識による支援の要求よりも、人間のオペレータに対する車両の支援の要求が優先され得る。場合によっては、車両が特定の標識タイプを有する未知の標識を検出した場合、支援の要求を行わないことも可能であり、および/または人間のオペレータがそのような要求を無視してもよい。
例示的なシステム
図1に示されるように、本開示の一態様による車両100は、様々な構成要素を含む。本開示のいくつかの態様は、特定のタイプの車両に関連して特に有用であるが、車両は、自動車、トラック、オートバイ、バス、レクリエーション車両などを含むがこれらに限定されない任意のタイプの車両であってもよい。車両は、1つ以上のコンピューティングデバイス、例えば、1つ以上のプロセッサ120、メモリ130、および汎用コンピューティングデバイスに典型的に存在する他の構成要素を含むコンピューティングデバイス110を有し得る。
メモリ130は、1つ以上のプロセッサ120によってアクセス可能である情報を記憶し、その情報には、プロセッサ120によって実行または別様に使用され得る命令134およびデータ132が含まれる。メモリ130は、プロセッサによってアクセス可能である情報を記憶することができる任意のタイプのメモリであってもよく、それには、コンピューティングデバイス可読媒体、またはハードドライブ、メモリカード、ROM、RAM、DVD、もしくは他の光ディスク、ならびに他の書き込み可能および読出し専用メモリなどの電子デバイスを用いて読み取ることができるデータを記憶する他の媒体が含まれる。システムおよび方法は、上記の異なる組み合わせを含んでもよく、それによって、命令およびデータの様々な部分が、様々なタイプの媒体に記憶される。
命令134は、プロセッサにより直接的に(マシンコードなど)または間接的に(スクリプトなど)実行される任意の一連の命令であってもよい。例えば、命令は、コンピューティングデバイス可読媒体上のコンピューティングデバイスコードとして記憶されてもよい。その点において、「命令」および「プログラム」という用語は、本明細書では、区別なく使用され得る。命令は、プロセッサによる直接的な処理のためのオブジェクトコード形式で、または要求に応じて解釈されるか、もしくは予めコンパイルされるスクリプトもしくは独立したソースコードモジュールの集合を含む、任意の他のコンピューティングデバイス言語で記憶されてもよい。命令の機能、方法、およびルーチンについては、以下でさらに詳細に説明される。
データ132は、命令134に従ってプロセッサ120によって検索、記憶、または修正されてもよい。例えば、特許請求された主題は、いかなる特定のデータ構造にも限定されないが、データは、コンピューティングデバイスレジスタ内、複数の異なるフィールドおよびレコードを有する表、XMLドキュメント、またはフラットファイルとしてリレーショナルデータベース内に記憶されてもよい。データはまた、任意のコンピューティングデバイス可読形式でフォーマットされてもよい。
1つ以上のプロセッサ120は、市販されているCPUまたはGPUなどの任意の従来のプロセッサであってもよい。代替的に、1つ以上のプロセッサは、ASICまたは他のハードウェアベースプロセッサなどの専用デバイスであり得る。図1は、プロセッサ、メモリ、およびコンピューティングデバイス110の他の要素を同じブロック内にあるものとして機能的に例示しているが、プロセッサ、コンピューティングデバイス、またはメモリは、実際には、同じ物理的な筐体内に格納されていてもいなくてもよい複数のプロセッサ、コンピューティングデバイス、またはメモリを含むことができることは、当業者により、理解されるであろう。例えば、メモリは、ハードドライブ、またはコンピューティングデバイス110の筐体とは異なる筐体内に配置された他のストレージ媒体であってもよい。したがって、プロセッサまたはコンピューティングデバイスへの言及は、並行に動作してもしなくてもよいプロセッサまたはコンピューティングデバイスまたはメモリの集合体への言及を含むことが理解されよう。
コンピューティングデバイス110は、上述したプロセッサおよびメモリ、ならびにユーザ入力150(例えば、マウス、キーボード、タッチスクリーンおよび/またはマイクロフォン)、および様々な電子ディスプレイ(例えば、スクリーン、または情報を表示するように動作可能である任意の他の電気デバイスを有するモニタ)などのコンピューティングデバイスと接続して通常使用されるすべての構成要素を含み得る。この例では、車両は、内部電子ディスプレイ152、ならびに1つ以上のスピーカ154を含み、情報または視聴覚体験を提供する。この点について、内部電子ディスプレイ152は、車両100の車室内に位置し得、コンピューティングデバイス110によって使用されて、車両100内の乗員に情報を提供し得る。
コンピューティングデバイス110はまた、1つ以上の無線ネットワーク接続156も含み、以下に詳細に説明するクライアントコンピューティングデバイスおよびサーバコンピューティングデバイスなどの他のコンピューティングデバイスとの通信を容易にすることができる。無線ネットワーク接続には、Bluetooth、Bluetoothローエネルギー(LE)、携帯電話接続などの短距離通信プロトコル、ならびにインターネット、World Wide Web、イントラネット、仮想プライベートネットワーク、ワイドエリアネットワーク、ローカルネットワーク、1つ以上の企業に専用の通信プロトコルを使用するプライベートネットワーク、イーサネット、WiFi、およびHTTPを含む様々な構成およびプロトコル、ならびに上記の様々な組み合わせが含まれ得る。
一例では、コンピューティングデバイス110は、車両100に組み込まれた自律運転コンピューティングシステムであってもよい。自律運転コンピューティングシステムは、自律運転モードにおいて車両を制御するために車両の様々な構成要素と通信することが可能であり得る。例えば、図1に戻ると、コンピューティングデバイス110は、自律運転モードにおいて、メモリ130の命令134に従って車両100の動き、速度などを制御するために、減速システム160、加速システム162、ステアリングシステム164、シグナリングシステム166、プランナシステム168、測位システム170、および認知システム172など、車両100の様々なシステムと通信し得る。また、これらのシステムは、コンピューティングデバイス110の外部にあるものとして示されているが、実際には、これらのシステムもまた、車両100を制御するための自律運転計算システムとして再度、コンピューティングデバイス110の中に組み込まれ得る。
一例として、コンピューティングデバイス110は、車両の速度を制御するために、減速システム160および加速システム162と情報をやり取りし得る。同様に、ステアリングシステム164は、車両100の方向を制御するために、コンピューティングデバイス110によって使用されてもよい。例えば、車両100が自動車またはトラックのように道路で使用するように構成されている場合、ステアリングシステムは、車両を旋回させるための車輪の角度を制御する構成要素を含んでいてもよい。シグナリングシステム166は、例えば、必要に応じて方向指示器またはブレーキライトを点灯させることによって、他の運転手または車両に車両の意図を伝えるために、コンピューティングデバイス110によって使用され得る。
プランニングシステム168は、ある位置までのルートを決定して、辿るために、コンピューティングデバイス110によって使用され得る。この点において、プランニングシステム168および/またはデータ132は、詳細な地図情報、例えば、車道の形状および高度、車線境界線、交差点、横断歩道、制限速度、交通信号、建物、標識、リアルタイムの交通情報、停車スポット、植物、または他のそのような物体および情報を識別する非常に詳細な地図を格納し得る。
図2は、交差点202および204を含む、車道の区分に関する地図情報200の実施例である。地図情報200は、コンピューティングデバイス110のメモリ130に格納された地図情報のローカルバージョンでもよい。地図情報の他のバージョンもまた、以下でさらに考察される記憶システム450に記憶し得る。この例では、地図情報200は、車線境界線210、212、214、信号機220、222、停止線224、横断歩道230、232、歩道240、および交通標識250、252の形状、位置、ならびに他の特性を識別する情報を含む。本明細書では、地図情報は、画像ベースの地図として図示されているが、地図情報は、完全に画像ベースである必要はない。例えば、地図情報は、1つ以上の道路グラフ、または道路、車線、交差点、および道路区分で表し得るこれらの特徴間の接続などの情報のグラフネットワークを含み得る。各特徴は、グラフデータとして記憶され得、地理的位置などの情報と関連付けられ得、いずれにせよ、他の関連する特徴にリンクされ、例えば、一時停止標識は、道路および交差点などにリンクされ得る。いくつかの実施例では、関連付けられたデータは、道路グラフのグリッドベースのインデックスを含んで、特定の道路グラフの特徴の効率的な検索を可能にし得る。
測位システム170は、地図上または地球上での車両の相対または絶対位置を判定するコンピューティングデバイス110によって使用され得る。例えば、測位システム170は、デバイスの緯度、経度、および/または高度の位置を判定するためのGPS受信機を含んでいてもよい。レーザを利用した位置特定システム、慣性支援GPS、またはカメラを利用した位置特定などの他の位置特定システムも、車両の位置を識別するために使用することができる。車両の位置には、緯度、経度、高度などの絶対的な地理的位置情報の他に、すぐ周りの他の車両に対する位置などの相対的な位置情報が含まれてもよく、これは、多くの場合、絶対的な地理的位置よりも少ないノイズで判定することができる。
測位システム170はまた、車両の方向および速度、またはそれらの変化を判定するための加速度計、ジャイロスコープ、または別の方向/速度検出デバイスなどの、コンピューティングデバイス110と通信する他のデバイスも含むことができる。例示に過ぎないが、加速デバイスは、重力の方向、または重力に対して垂直な平面に対する車両の縦揺れ、偏揺れ、または横揺れ(またはそれらの変化)を判定してもよい。このデバイスはまた、速度の増減、およびそのような変化の方向を追跡することもできる。本明細書で説明したようなデバイスの位置および方位データの提供は、コンピューティングデバイス110、他のコンピューティングデバイス、および上記の組み合わせに自動的に提供され得る。
知覚システム172はまた、他の車両、道路内の障害物、交通信号、標識、樹木などの車両の外部にある対象物を検出するために1つ以上の構成要素を含む。例えば、知覚システム172は、レーザ、ソナー、レーダー、カメラ、および/またはコンピューティングデバイス110が処理することができるデータを記録する任意の他の検出デバイスを含んでもよい。車両がミニバンなどの搭乗者車両である場合には、ミニバンは、屋根または他の都合の良い位置に搭載されるレーザまたは他のセンサを含んでもよい。例えば、図3は、車両100の例示的な外観図である。この例では、ルーフ上部筐体310およびドーム状筐体312は、LIDARセンサ、ならびに様々なカメラおよびレーダーユニットを含み得る。加えて、車両100の前端部に位置する筐体320、ならびに車両の運転者側および助手席側の筐体330、332は、各々、LIDARセンサを記憶し得る。例えば、筐体330は、運転者ドア360の前部に位置している。車両100はまた、車両100のルーフ上にまた位置するレーダーユニットおよび/またはカメラのための筐体340、342を含む。追加のレーダーユニットおよびカメラ(図示せず)は、車両100の前端および後端に、および/または屋根もしくは屋根上にある筐体310に沿った他の位置に位置し得る。
一例では、コンピューティングデバイス110は、自律運転コンピューティングシステムの制御コンピューティングデバイスであり得るか、または車両100に組み込まれ得る。自律運転コンピューティングシステムは、メモリ130のプライマリ車両制御コードに従って車両100の動きを制御するために、車両の様々な構成要素と通信することが可能であり得る。例えば、図1に戻ると、コンピューティングデバイス110は、メモリ130の命令134に従って車両100の動き、速度などを制御するために、減速システム160、加速システム162、ステアリングシステム164、シグナリングシステム166、プランニングシステム168、測位システム170、認知システム172、およびパワーシステム174(すなわち、車両のエンジンまたはモータ)など、車両100の様々なシステムと通信し得る。また、これらのシステムは、コンピューティングデバイス110の外部にあるものとして示されるが、実際には、これらのシステムもまた、車両100を制御するための自律運転コンピューティングシステムとして再度、コンピューティングデバイス110の中に組み込まれ得る。
車両の様々なシステムは、どのように車両を制御するかを判定するため、および車両を制御するために、自律車両制御ソフトウェアを使用して機能し得る。一例として、認知システム172の認知システムソフトウェアモジュールは、カメラ、LIDARセンサ、レーダーユニット、ソナーユニットなどの自律車両の1つ以上のセンサによって生成されたセンサデータを使用して、物体およびその特徴を検出および識別することができる。これらの特性には、位置、タイプ、進行方向、方位、速度、加速度、加速度の変化、サイズ、形状などを含み得る。場合によっては、物体タイプに基づいて様々な動作モデルを使用する動作予測システムソフトウェアモジュールに特性を入力して、検出された物体の予測された将来の行動を出力する。他の例では、特徴は、既知の交通信号の状態を検出するように構成された信号機検出システムソフトウェアモジュール、車両の1つ以上のセンサによって生成されたセンサデータから建設ゾーンを検出するように構成された建設ゾーン検出システムソフトウェアモジュール、ならびに車両のセンサによって生成されたセンサデータから緊急車両を検出するように構成された緊急車両検出システムなどの1つ以上の検出システムソフトウェアモジュールに入れることができる。これらの検出システムソフトウェアモジュールの各々は、様々なモデルを使用して、工事ゾーンまたは物体が緊急車両である可能性を出力し得る。検出された物体、予測された将来の行動、検出システムソフトウェアモジュールからの様々な可能性、車両の環境を識別する地図情報、車両の位置および方位を識別する測位システム170からの位置情報、車両の目的地、ならびに車両の様々な他のシステムからのフィードバックをプランニングシステム168のプランニングシステムソフトウェアモジュールに入力し得る。プランニングシステムおよび/またはコンピューティングデバイス110は、この入力を使用して、車両が将来のある短い期間にわたってたどるルートおよび軌道を生成し得る。コンピューティングデバイス110の制御システムソフトウェアモジュールは、例えば、軌道をたどるために、車両の制動、加速、およびステアリングを制御することによって、車両の動きを制御するように構成し得る。
コンピューティングデバイス110は、様々な構成要素を制御することによって、車両を制御し得る。例として、例えば、コンピューティングデバイス110は、詳細な地図情報およびプランニングシステム168からのデータを使用して、車両を目的地の位置に完全に自律的にナビゲートすることができる。コンピューティングデバイス110は、測位システム170を使用して車両の位置を判定し、その位置に安全に到着する必要がある場合には、知覚システム172を使用して対象物を検出して応答することができる。ここでも、そのために、コンピューティングデバイス110は、軌道を生成し、車両にこれらの軌道を追従させ、(例えば、加速システム162により、エンジンまたは動力系174に燃料または他のエネルギーを供給することによって)車両を加速させ、(例えば、エンジンまたは動力系174に供給される燃料を減少させ、ギヤを変更し、および/または減速システム160によりブレーキをかけることによって)減速させ、(例えば、ステアリングシステム164により、車両100の前輪または後輪の向きを変えることによって)方向変換させ、(例えば、シグナリングシステム166の方向指示器を点灯することによって)そのような変更を信号通知することができる。このため、加速システム162および減速システム160は、車両のエンジンと車両の車輪との間に様々な構成要素を含む、動力伝達装置の一部であり得る。再び、これらのシステムを制御することによって、コンピューティングデバイス110はまた、車両を自律的に操縦するために、車両のドライブトレインを制御することもできる。
車両100のコンピューティングデバイス110はまた、輸送サービスの一部であるコンピューティングデバイスならびに他のコンピューティングデバイスのような他のコンピューティングデバイスとの間で情報を受信または転送することもできる。図4および図5は、それぞれ、例示的なシステム400のイラスト図および機能図であり、システムは、ネットワーク460を介して接続された複数のコンピューティングデバイス410、420、430、440、および記憶システム450を含む。システム400は、車両100、および車両100と同じまたは同様に構成され得る車両100A、100Bも含む。簡潔にするため、いくつかの車両およびコンピューティングデバイスのみを図示しているが、典型的なシステムは、これよりもはるかに多くのものを含み得る。
図4に示されるように、コンピューティングデバイス410、420、430、440の各々は、1つ以上のプロセッサ、メモリ、データ、および命令を含み得る。そのようなプロセッサ、メモリ、データ、および命令は、コンピューティングデバイス110の1つ以上のプロセッサ120、メモリ130、データ132、および命令134と同様に構成されてもよい。
ネットワーク460および仲介ノードは、Bluetooth、Bluetooth LE、インターネット、World Wide Web、イントラネット、仮想プライベートネットワーク、ワイドエリアネットワーク、ローカルネットワーク、1つ以上の企業に専用の通信プロトコルを使用するプライベートネットワーク、イーサネット、WiFi、およびHTTP、ならびに上記の様々な組み合わせなどの短距離通信プロトコルを含む様々な構成およびプロトコルを含んでもよい。そのような通信は、モデムおよび無線インターフェースなどの、他のコンピューティングデバイスとの間でデータを送信することができるいずれかのデバイスによって容易に行われ得る。
一例では、1つ以上のコンピューティングデバイス110は、他のコンピューティングデバイスとの間でデータを受信、処理、および送信する目的で、ネットワークの異なるノードと情報を交換する、例えば、負荷分散サーバファームなど、複数のコンピューティングデバイスを有する1つ以上のサーバコンピューティングデバイスを含んでもよい。例えば、1つ以上のコンピューティングデバイス410は、ネットワーク460を介して、車両100のコンピューティングデバイス110、または車両100A、100Bの同様のコンピューティングデバイス、ならびにコンピューティングデバイス420、430、440と通信可能な1つ以上のサーバコンピューティングデバイスを含み得る。例えば、車両100、100A、100Bは、サーバコンピューティングデバイス410からの情報を送信および受信することができる車両隊の一部でもよい。加えて、サーバコンピューティングデバイス410は、ネットワーク460を使用して、コンピューティングデバイス420、430、440のディスプレイ424、434、444のうちの1つ以上のようなディスプレイ上に、ユーザ422、432、442のうちの1人以上などのユーザに情報を送信および提示し得る。この点について、コンピューティングデバイス420、430、440は、クライアントコンピューティングデバイスとみなされ得る。
図4に示されるように、各クライアントコンピューティングデバイス420、430、440は、ユーザ422、432、442のうちの1人以上が使用することを意図されたパーソナルコンピューティングデバイスであってもよく、1つ以上のプロセッサ(例えば、中央処理装置(CPU))、データおよび命令を記憶するメモリ(例えば、RAMおよび内蔵ハードドライブ)、ディスプレイ424、434、444などのディスプレイ(例えば、スクリーンを有するモニタ、タッチスクリーン、プロジェクタ、テレビ、または情報を表示するように動作可能である他のデバイス)、およびユーザ入力デバイス426、436、446(例えば、マウス、キーボード、タッチスクリーン、またはマイクロフォン)を含む、パーソナルコンピューティングデバイスと接続して通常使用されるすべての構成要素を有し得る。クライアントコンピューティングデバイスはまた、ビデオストリームを記録するためのカメラ、スピーカ、マイク、ネットワークインターフェースデバイス、およびこれらの要素を互いに接続するために使用されるすべての構成要素を含んでもよい。
クライアントコンピューティングデバイス420、430、および440は、各々、フルサイズのパーソナルコンピューティングデバイスを含んでもよいが、代替的に、インターネットなどのネットワークを介してサーバとデータを無線で交換することが可能であるモバイルコンピューティングデバイスを含んでもよい。ほんの一例として、クライアントコンピューティングデバイス420は、携帯電話、または無線対応PDA、タブレットPC、ウェアラブルコンピューティングデバイスもしくはシステムなどのデバイス、またはインターネットもしくは他のネットワークを介して情報を取得することができるネットブックであってもよい。別の例では、クライアントコンピューティングデバイス430は、図4に示されるように、腕時計として示されるウェアラブルコンピューティングシステムであってもよい。一例として、ユーザは、小型キーボード、キーパッド、マイクロフォンを使用して、カメラを用いる映像信号、またはタッチスクリーンを使用して、情報を入力し得る。
メモリ130と同様に、記憶システム450は、ハードドライブ、メモリカード、ROM、RAM、DVD、CD-ROM、書き込み可能メモリ、および読み出し専用メモリなどの、サーバコンピューティングデバイス410によりアクセス可能である情報を記憶することができる、任意のタイプのコンピュータ化された記憶装置であり得る。加えて、記憶システム450は、データが、同じまたは異なる地理的位置に物理的に位置し得る複数の異なる記憶デバイス上に記憶される分散型記憶システムを含んでもよい。記憶システム450は、図4および図5に示すように、ネットワーク460を介してコンピューティングデバイスに接続され得、かつ/またはコンピューティングデバイス110、410、420、430、440などのいずれかに直接接続されるか、もしくは組み込まれ得る。
記憶システム450は、以下でより詳細に説明されるように、様々なタイプの情報を記憶することができる。この情報は、本明細書で記載する特徴のうちのいくつかまたはすべてを実行するために、1つ以上のサーバコンピューティングデバイス410などのサーバコンピューティングデバイスによって検索または別様にアクセスされ得る。
例えば、記憶システム450は、車両100の認知システム172などのような車両の認知システムによってキャプチャされたセンサデータを記憶し得る。このセンサデータは、複数の画像472を含み得る。この複数の画像は、これらの画像に現れる可能性のある標識のタイプを提供するために、自律車両の認知システムによってキャプチャされた画像を含み得る。例えば、複数の画像は、静止カメラおよび/またはビデオカメラによって、または車両100または100Aなどの1つ以上の車両に取り付けられ、ネットワーク460を介してアップロードされるか、さもなければ記憶のために記憶システム450に送られる他のセンサでキャプチャされた画像またはフレームでもよい。したがって、画像は、カメラまたは車両の認知システムの視野から、道路および様々な物体の認知を正確に反映し得る。これらの画像の少なくとも一部は、以下でさらに説明するように、ラベルおよび他の情報に関連付けられ得る。記憶システム450はまた、本明細書で論じられるように、交通標識タイプおよびそれらのそれぞれの属性を格納し得る。
各画像は、画像がキャプチャされた位置および方位を識別する位置情報、および/または他の画像との比較および/または画像と同時に認知システム172のLIDARセンサによってキャプチャされたLIDARセンサデータから判定された画像内の様々な表面の地理情報など、より詳細な位置情報に関連付けられ得る。例えば、LIDARセンサデータは、LIDARセンサによって生成された光が反射されてLIDARセンサに戻る表面の位置および強度(または反射率)に対応するデータポイントを含み得る。この情報は、カメラ画像内のこれらの表面の対応を判定するために使用され得る。
記憶システム450および車両100のデータ132には、1つ以上のモデル470ならびにそのような各モデルのモデルパラメータ値474を記憶し得る。例えば、記憶システムは、交通標識タイプおよび状況を判定するための1つ以上のモデルを格納し得る。モデル470は、ニューラルネットワーク、ディープニューラルネットワーク、決定木、ブースティングツリーなどのような識別子を含み得る。加えて、記憶システム450は、さらに下に考察されるように、モデルをトレーニングするために使用することができるトレーニングサブシステム476を含み得る。場合によっては、記憶システムは、本明細書で説明するように階層データ構造478を格納することができる。
メモリ130と同様に、記憶システム450は、ハードドライブ、メモリカード、ROM、RAM、DVD、CD-ROM、書き込み可能メモリ、および読み取り専用メモリなどの、サーバコンピューティングデバイス410によりアクセス可能である情報を記憶することができる、任意のタイプのコンピュータ記憶装置であり得る。加えて、記憶システム450は、データが、同じまたは異なる地理的位置に物理的に位置し得る複数の異なる記憶デバイス上に記憶される分散型記憶システムを含んでもよい。記憶システム450は、図4に示されるようにネットワーク460を介してコンピューティングデバイスに接続され得、および/またはコンピューティングデバイス110、410、420、430、440などのいずれかに直接接続または組み込まれ得る。
例示的な方法
上述し、図に示した動作に加えて、様々な動作を、ここで説明する。以下の動作は、以下に説明する正確な順序で実行される必要がないことを理解されたい。むしろ、様々なステップが、異なる順序で、または同時に処理されてもよく、ステップもまた、追加または省略されてもよい。
上記のように、モデル470は、交通標識の特性を取り入れて、交通標識タイプを出力することができる。この点において、交通標識タイプは、規制、警告、誘導、サービス、レクリエーション、工事、学校区域などを含み得る。場合によっては、一時停止標識または踏切標識などの特定の標識が標識タイプと見なされ得る。
モデル470を使用して交通標識タイプを識別することができるようにするために、モデルは、最初に「オフライン」で、すなわち、事前におよび/またはリモートコンピューティングデバイスでトレーニングされ、その後、ネットワーク460および無線ネットワーク接続156を介して車両100に送られ得る。例えば、1つ以上のサーバコンピューティングデバイス410は、最初に記憶システム450からトレーニングデータを検索することによって、モデルパラメータ値474を生成することができる。
例えば、1つ以上のサーバコンピューティングデバイス410は、画像のセットを検索し得る。上述したように、これらの画像は、既知の交通標識から所定の距離にあり、既知の交通標識に向けられた画像など、交通標識が見える可能性が高い位置に対応する記憶システム450の複数の画像472を含み得る。例えば、車両100などの車両に搭載されたカメラまたは他のセンサによってキャプチャされた画像で、カメラが交通標識から特定の距離内にあり、交通標識の方を向いているものが検索され、および/またはセットに含まれ得る。図6は、車両が地図情報の交差点204に接近するときに、車両100の認知システム172のカメラによってキャプチャされた例示的なカメラ画像600である。この例では、交通標識253および車線216の一部がカメラ画像600にキャプチャされている。このカメラ画像をモデルの初期トレーニングデータを生成するために処理して使用できる。上記のように、記憶システムの画像は、画像がキャプチャされた位置および方位を識別する情報に関連付けられ得る。
モデル470の初期トレーニングデータは、様々な方法で画像のセットから生成することができる。例えば、人間のオペレータは、画像を確認し、交通標識の周囲に境界ボックスを描画し、交通標識のタイプを識別することにより、交通標識の画像ならびに交通標識のタイプにラベルを付けることができる。加えて、または代替的に、既存のモデルまたは画像処理技術を使用して、交通標識の画像ならびに交通標識のタイプにラベル付けし得る。
トレーニング入力とみなすことができる交通標識の画像と、トレーニング出力とみなすことができる交通標識タイプを示すラベルが与えられた場合、モデルは、キャプチャされた画像で発見された交通標識のタイプを出力するようにトレーニングされ得る。言い換えれば、トレーニング入力およびトレーニング出力は、モデルが取得する入力および生成する出力についてモデルをトレーニングするために使用される。一例として、モデルは、図7に示すように、画像753、754、および253を受信し得る。モデルはまた、「規制標識」、「警告標識」、および「レクリエーション標識」を含む、各画像が示す標識のタイプを示すラベル763、764、および764を受信し得る。場合によっては、図7のラベル763および764にさらに示されているように、標識のタイプは、「譲れの標識」および「前方に踏切」などの特定のものである場合がある。このトレーニングデータに基づいて、モデルは類似の交通標識を識別することを学習し得る。この点において、トレーニングはモデルのトレーニングに使用されるトレーニングデータ(入力および出力)が多いほど、標識タイプの識別におけるモデルの精度が高くなるように、モデルの精度を高め得る。
場合によっては、標識の内容を示す追加のラベルを提供するようにモデルを構成し得る。この点において、機械学習モデルのトレーニング中、トレーニングデータは、交通標識の属性に対応するラベルを含み得る。例えば、図8に示すように、「長方形状」、「青色」、および「休憩所は右隣」を示す「テキスト」を含むサービス標識の属性を示すラベル863を、サービス標識として標識タイプを示すラベルと一緒に機械学習モデルに入力し得る。したがって、トレーニングモデルがサービス標識853およびラベル863の画像に対して実行されるとき、モデルは、標識853が前方の休憩エリアを示すサービス標識であることを学習し得る。この判定に基づいて、モデルは、「長方形の形状」、「青色」、および「右隣の休憩所」を示す「テキスト」などの属性を含む他の標識もサービス標識である可能性があることを学習することができる。
モデル470がトレーニングされると、車両100のメモリ150などのコンピューティングシステムのメモリに送信または別様にロードして使用し得る。例えば、車両100のような車両が運転するとき、車両の認知システム172は、その周囲のセンサデータをキャプチャすることができる。交通標識の任意の画像を含むこのセンサデータは、コンピューティングデバイス110によって定期的または継続的にモデル470に入力され得る。その後、モデル470は、画像内の各交通標識に対応する標識タイプを提供することができる。例えば、車両100などの車両は、図9に示すように、標識953を含む画像900などの画像をキャプチャし得る。モデルは、標識タイプが「警告標識」であることを示すラベルを出力し得る。場合によっては、モデルが標識の特定のタイプも提供し得る。例えば、モデルは、標識953の「警告標識」および「前方に踏切」標識タイプを出力し得る。次に、提供された標識タイプおよび属性を使用して、本明細書で説明するように、検出された標識に適切に応答するために、車両を制御する方法を判定し得る。
モデルによって出力される特定の標識タイプを示す各ラベルについて、モデルは、出力ラベルが正しい確率を示す信頼度を判定し、割り当てることができる。場合によっては、モデルに入力された交通標識画像の交通標識タイプを示すラベルをモデルが判定できない場合がある。この場合、モデルは交通標識画像を「識別不能」または「不明」に分類し得る。また、特定の閾値レベルを満たさない信頼度を有する特定の標識タイプを示すラベルは、識別不能または不明として分類し得る。状況によっては、車両100などの自律車両は、モデル470によって、または地図情報内で識別できない、または特定の信頼性で識別できない交通標識に遭遇し得る(例えば、モデルは、特定の信頼閾値を満たすために交通標識タイプを判定できない)。ただし、交通標識は一般的に、連邦道路管理局などの政府機関による規制に従ってタイプ別に分類されるが、規制は地域/国によって異なる場合がある。このように、ほとんどの交通標識は、色および形状などの特定の属性が、特定の標識タイプに対応する規制を満たしているかどうかによって分類することができる。交通標識の各タイプに割り当てられる属性は、色または形状に基づき得る。例えば、赤の標識は規制でもよく(例えば、一時停止の標識および譲れの標識)、黄色の標識は警告標識でもよく(例えば、鉄道または前方合流ありの標識)、誘導標識は緑でもよく(例えば、車道の出口標識)、一時的な交通規制標識はオレンジ色でもよく(例えば、道路工事の標識)、レクリエーション標識は茶色でもよく(ピクニックエリアの標識など)、サービス標識は青色でもよい、(例えば、休憩エリアの標識)などである。
ただし、多くの交通標識は独特または比較的わかりにくいもの(総称して「未知の標識」)であり、これらの未知の標識は標識タイプに応じた規制に従い得るが、特に学習モデルに未知の標識のタイプと内容に対応するトレーニングデータが設けられていない場合には、その内容は機械学習モデルによって識別されない場合がある。さらに、いくつかの交通標識は、規制に従っていないか、または別様に典型的な交通標識のカテゴリに適合しない可能性がある。例えば、LEDボードまたは手作りの標識は、典型的な交通標識のカテゴリに適合しないか、または規制に従っていない場合がある。例えば、「前方工事中」というメッセージ、または車に曲がるように指示する手作りの一時的な標識を含むLEDボードは、「臨時交通管制」標識の規制に適合しない可能性があり、識別できないか、モデル470などのモデルによって、十分に高い信頼性で識別できない可能性がある。
未知の標識のタイプおよび内容を判定するために、未知の標識の属性を既知の標識の属性と比較し得る。この点において、既知の交通標識の属性は、人間のオペレータによって、および/または本明細書に記載の画像処理技術を使用することによってラベル付けされ得る。次に、ラベル付けされた属性は、データ構造478などのデータ構造に配置され得、データ構造は、リレーショナルデータベースまたは1対多のマッピングをサポートする別の連想構造とすることができる。例えば、タイプ、色、形状、反射係数、配置、テキスト、図形、付属品などのような既知の標識の属性にラベル付けすることができ、これらのラベルをデータ構造に格納され得る。例えば、交通標識853の属性のラベル863は、格納装置450など、交通標識853に関連するデータ構造に格納され得る。車両100内のコンピューティングデバイス110などのコンピューティングデバイスは、未知の標識の属性をデータ構造内の属性と比較して、未知の標識のタイプおよび内容を判定し得る。ここでの例では、モデル470などの機械学習モデルを実装した後に、未知の記号の属性をデータ構造内の属性と比較して、未知の標識のタイプと内容を判定することを説明したが、属性の比較は、機械学習モデルの実装をせずに、またはする前に起き得る。
一例では、認知システム172内のセンサなどの自律車両のセンサは、図6に示すように、走行中に道路216上の未知の交通標識253を含む画像600をキャプチャし得る。コンピューティングデバイス110は、交通標識の属性をデータ構造内の属性と比較することにより、未知の交通標識253のタイプおよび内容を判定することを試み得る。例えば、コンピューティングデバイス110は、未知の交通標識が長方形状、茶色、および書かれたテキストの属性を有すると判定し得る。これらの属性は、データ構造内の標識の属性と比較し得、比較に基づいて、未知の交通標識がレクリエーション標識と一致すると判定し得る。別の例では、キャプチャされた交通標識は、八角形状、赤色、およびテキストの属性を有すると判定され得る。コンピューティングデバイス110は、これらの属性をデータ構造内の標識の属性と比較し、キャプチャされた交通標識が規制標識と「停止」するための指示内容とが一致すると判定し得る。
標識の追加の属性は、標識の内容を判定するために、コンピューティングデバイス110によって使用され得る。この点において、標識の内容を判定するために標識のテキストまたは図を分析し得る。例えば、図10の未知の標識1053は、テキスト1054を有する「レクリエーション標識」であると判定され得る。コンピューティングデバイス110などの車両のコンピューティングデバイスは、光学文字認識(OCR)を使用するなどして、テキスト1054を分析して、「ヨセミテ国立公園、次を右」というテキスト1054を判定することができる。このテキストに基づいて、コンピューティングデバイス110は、標識1053の内容がヨセミテ国立公園について情報提供的であり、指示的であると判定し得る。この点において、車両のコンピューティングデバイスは、近くのランドマークの名前/位置、方向用語、および/または番地など、テキスト内の1つ以上のキーワードを識別し得る。これらのキーワードに基づいて、車両のコンピューティングデバイスは標識の内容を判定し得る。例えば、コンピューティングデバイス110は、テキスト1054からキーワード「ヨセミテ国立公園」、および「次」、および「右」を判定し得、これらのキーワードに基づいて、標識1053の内容が、ヨセミテ国立公園への道順を提供するための情報提供的なものであると判定し得る。図形に基づいて同様の判定を行うこともできる。例えば、右を指す矢印により、コンピューティングデバイスは、標識の内容が右への迂回を指示するものであると判定し得る。
標識タイプおよび/または内容に基づいて、自律車両の様々なシステムは、行動を実行するかどうかを判定し得る。この点において、規制、警告、誘導標識、工事標識などのようないくつかの標識は、車両による行動を自動的に引き起こし得る。例えば、車両のプランニングシステム168は、一時停止標識、迂回標識、または制限速度標識にそれぞれ遭遇したときに、車両100に対して停止、迂回、または速度変更を指示し得る。レクリエーションまたは休憩エリアの標識などの他の標識は、車両100がそれらのエリアへの走行を試みていない限り、車両のプランニングシステム168によって無視され得る。
図11は、標識タイプを判定するために機械学習モデルをトレーニングするために、コンピューティングデバイス110のプロセッサ120など、1つ以上のコンピューティングデバイスの1つ以上のプロセッサによって実行され得る、本開示の態様による例示的なフロー図1100である。ブロック1110において、画像および画像内の少なくとも1つの交通標識に対応する関連するラベル(複数可)を含む画像データが受信される。ブロック1120に示すように、交通標識の画像の受信に呼応して、交通標識の標識タイプおよび/または内容を出力するようにモデルが構成されるように、モデルを画像データを使用してトレーニングし得る。
図12は、標識タイプを判定し、判定された標識タイプに基づいて車両を制御するために、コンピューティングデバイス110のプロセッサ120など、1つ以上のコンピューティングデバイスの1つ以上のプロセッサによって実行され得る、本開示の態様による例示的なフロー図1200である。ブロック1210で、車両の認知システムによって生成された画像を、1つ以上のプロセッサによって受信し得る。ブロック1220で、1つ以上のプロセッサが画像内の交通標識に対応する画像データを識別し、ブロック1230で、交通標識に対応する画像データをモデルに入力して、交通標識の標識タイプを生成し得る。1つ以上のプロセッサは、ブロック1240で標識タイプモデルが交通標識のタイプを識別できなかったことを判定し、ブロック1250で交通標識の1つ以上の属性を判定し得る。ブロック1260に示すように、1つ以上のプロセッサは、交通標識を他の交通標識の既知の属性と比較し得る。ブロック1270に示すように、交通標識の1つ以上の属性の比較に基づいて、交通標識の標識タイプを判定し得る。自律運転モードの車両は、ブロック1280に示すように、交通標識の標識タイプに基づいて、1つ以上のプロセッサによって制御し得る。
特段の記述がない限り、前述の代替例は、相互に排他的ではないが、独自の利点を達成するために様々な組み合わせで実装することができる。上で考察される特徴のこれらおよび他の変形および組み合わせは、特許請求の範囲によって定義される主題から逸脱することなく利用することができるので、実施形態の前述の説明は、特許請求の範囲によって定義される主題の限定としてではなく、例示としてみなされるべきである。加えて、本明細書に記載された実施例、ならびに「など」、「含む」などと表現された語句の提供は、特許請求の範囲の主題を特定の実施例に限定するものと解釈されるべきではなく、むしろ、実施例は、多くの可能な実施形態のうちの1つだけを例示することが意図される。さらに、異なる図面中の同じ参照番号は、同じまたは類似の要素を識別することができる。

Claims (20)

  1. 未知の標識を検出および分析して車両を制御する方法であって、
    1つ以上のプロセッサによって、前記車両の認知システムによって生成された画像を受信することと、
    前記1つ以上のプロセッサによって、前記画像内の交通標識に対応する画像データを識別することと、
    前記1つ以上のプロセッサによって、前記交通標識に対応する前記画像データを標識タイプモデルに入力することと、
    前記1つ以上のプロセッサによって、前記標識タイプモデルが前記交通標識のタイプを識別できなかったことを判定することと、
    前記1つ以上のプロセッサによって、前記タイプを識別できなかった前記交通標識の1つ以上の属性を判定することと、
    前記1つ以上のプロセッサによって、前記交通標識の前記1つ以上の属性を他の交通標識の既知の属性と比較することと、
    前記1つ以上のプロセッサによって、前記交通標識の前記1つ以上の属性の前記比較に基づいて、前記交通標識の標識カテゴリを判定することと、
    前記1つ以上のプロセッサによって、前記交通標識の前記標識カテゴリに基づいて自律運転モードで前記車両を制御することと、を含む、方法。
  2. 他の交通標識の前記既知の属性が、1対多のデータ構造に格納される、請求項1に記載の方法。
  3. 前記標識タイプモデルが前記交通標識のタイプを識別できないことが、前記標識タイプモデルが前記交通標識タイプを最低信頼レベルまで識別できないことを含む、請求項1に記載の方法。
  4. 前記交通標識の前記1つ以上の属性が、画像処理技術を使用して判定される、請求項1に記載の方法。
  5. 前記属性が色、形状、反射係数、配置、テキスト、図形、または付属品のうちの1つ以上を含む、請求項1に記載の方法。
  6. 前記交通標識の前記1つ以上の属性を他の交通標識の既知の属性と比較することによって、前記交通標識の内容を判定することをさらに含む、請求項1に記載の方法。
  7. 前記交通標識の前記内容が、情報提供的または指示的なものである、請求項6に記載の方法。
  8. 前記交通標識の前記標識カテゴリが、規制、警告、誘導、サービス、レクリエーション、工事、または学校区域のうちの1つ以上を含む、請求項1に記載の方法。
  9. 前記交通標識の前記標識カテゴリに基づいて自律運転モードで前記車両を制御することが、前記交通標識の前記標識カテゴリに基づいて何の行動も取らないことを含む、請求項7に記載の方法。
  10. 前記交通標識の前記標識カテゴリに基づいて自律運転モードで前記車両を制御することが、
    前記交通標識の内容が行動を指示するものであると判定することと、
    前記行動を実行することと、を含む、請求項1に記載の方法。
  11. 未知の標識を検出および分析して車両を制御するためのシステムであって、前記システムが、
    1つ以上のプロセッサを含み、前記1つ以上のプロセッサが、
    前記車両の認知システムによって生成された画像を受信することと、
    前記画像内の交通標識に対応する画像データを識別することと、
    前記交通標識に対応する前記画像データを標識タイプモデルに入力することと、
    前記標識タイプモデルが、前記交通標識1つ以上の属性を判定する前記交通標識のタイプを識別できなかったことを判定することと、
    前記タイプを識別できなかった前記交通標識の前記1つ以上の属性を他の交通標識の既知の属性と比較することと、
    前記交通標識の前記1つ以上の属性の前記比較に基づいて、前記交通標識の標識カテゴリを判定することと、
    前記交通標識の前記標識カテゴリに基づいて、自律運転モードで前記車両を制御することと、を行うように構成される、システム。
  12. 他の交通標識の前記既知の属性が、1対多のデータ構造に格納される、請求項11に記載のシステム。
  13. 他の交通標識の前記既知の属性が、オペレータによって、および/または画像処理技術を使用することによって、手動でラベル付けされる、請求項11に記載のシステム。
  14. 前記交通標識の前記1つ以上の属性が、画像処理技術を使用して判定される、請求項11に記載のシステム。
  15. 前記属性が色、形状、反射係数、配置、テキスト、図形、または付属品のうちの1つ以上を含む、請求項11に記載のシステム。
  16. 前記1つ以上のプロセッサが、前記交通標識の前記1つ以上の属性を他の交通標識の既知の属性と比較することによって、前記交通標識の内容を判定するようにさらに構成されている、請求項11に記載のシステム。
  17. 前記交通標識の前記内容が、情報提供的または指示的なものである、請求項16に記載のシステム。
  18. 前記交通標識の前記標識カテゴリに基づいて自律運転モードで前記車両を制御することが、前記標識カテゴリに基づいて何の行動も取らないことを含む、請求項17に記載のシステム。
  19. 前記交通標識の前記標識カテゴリに基づいて自律運転モードで前記車両を制御することが、
    前記交通標識の内容が行動を指示するものであると判定することと、
    前記行動を実行することと、を含む、請求項18に記載のシステム。
  20. 前記システムが、前記車両を含む、請求項11に記載のシステム。
JP2021531096A 2018-12-14 2019-12-09 未知の標識の検出 Active JP7248797B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/220,225 2018-12-14
US16/220,225 US10928828B2 (en) 2018-12-14 2018-12-14 Detecting unfamiliar signs
PCT/US2019/065189 WO2020123360A1 (en) 2018-12-14 2019-12-09 Detecting unfamiliar signs

Publications (2)

Publication Number Publication Date
JP2022510312A JP2022510312A (ja) 2022-01-26
JP7248797B2 true JP7248797B2 (ja) 2023-03-29

Family

ID=71073622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021531096A Active JP7248797B2 (ja) 2018-12-14 2019-12-09 未知の標識の検出

Country Status (6)

Country Link
US (3) US10928828B2 (ja)
EP (1) EP3877965A4 (ja)
JP (1) JP7248797B2 (ja)
KR (1) KR102592474B1 (ja)
CN (2) CN115050202A (ja)
WO (1) WO2020123360A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10908614B2 (en) * 2017-12-19 2021-02-02 Here Global B.V. Method and apparatus for providing unknown moving object detection
US11720094B2 (en) * 2018-12-28 2023-08-08 Beijing Voyager Technology Co., Ltd. System and method for remote intervention of vehicles
WO2020139714A1 (en) 2018-12-28 2020-07-02 Didi Research America, Llc System and method for updating vehicle operation based on remote intervention
US11347231B2 (en) * 2019-08-07 2022-05-31 Waymo Llc Object localization for autonomous driving by visual tracking and image reprojection
JP2021105795A (ja) * 2019-12-26 2021-07-26 パナソニックIpマネジメント株式会社 退避制御装置、車両、および退避制御方法
US11829150B2 (en) * 2020-06-10 2023-11-28 Toyota Research Institute, Inc. Systems and methods for using a joint feature space to identify driving behaviors
US11681780B2 (en) * 2020-09-30 2023-06-20 Nissan North America, Inc. Annotation and mapping for vehicle operation in low-confidence object detection conditions
US11380110B1 (en) * 2020-12-17 2022-07-05 GM Global Technology Operations LLC Three dimensional traffic sign detection
CN113286055B (zh) * 2021-05-25 2022-03-15 郑州信大捷安信息技术股份有限公司 一种基于安全交通标志的车辆安全驾驶方法和系统
US11887379B2 (en) 2021-08-17 2024-01-30 Robert Bosch Gmbh Road sign content prediction and search in smart data management for training machine learning model
US11978264B2 (en) 2021-08-17 2024-05-07 Robert Bosch Gmbh Scalable road sign knowledge graph construction with machine learning and human in the loop
US11861915B2 (en) 2021-09-03 2024-01-02 Waymo Llc Pipeline architecture for road sign detection and evaluation
DE102022104930A1 (de) 2022-03-02 2023-09-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren und vorrichtung zur geschwindigkeitssteuerung eines automatisierten kraftfahrzeugs
US20230326048A1 (en) * 2022-03-24 2023-10-12 Honda Motor Co., Ltd. System, information processing apparatus, vehicle, and method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080137908A1 (en) 2006-12-06 2008-06-12 Mobileye Technologies Ltd. Detecting and recognizing traffic signs
US20090074249A1 (en) 2007-09-13 2009-03-19 Cognex Corporation System and method for traffic sign recognition
JP2009217832A (ja) 2009-04-27 2009-09-24 Asia Air Survey Co Ltd ビデオ画像の道路標識自動認識方法及び道路標識自動認識装置並びに道路標識自動認識のプログラムを記憶した記憶媒体
WO2016002276A1 (ja) 2014-06-30 2016-01-07 エイディシーテクノロジー株式会社 車両制御装置
US20160117562A1 (en) 2014-10-23 2016-04-28 Hyundai Mobis Co., Ltd. Traffic sign recognizing apparatus and operating method thereof

Family Cites Families (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6266442B1 (en) 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream
JP4380838B2 (ja) * 1999-04-08 2009-12-09 アジア航測株式会社 ビデオ画像の道路標識自動認識方法及び道路標識自動認識装置並びに道路標識自動認識プログラム
US7068844B1 (en) 2001-11-15 2006-06-27 The University Of Connecticut Method and system for image processing for automatic road sign recognition
ES2391556T3 (es) * 2002-05-03 2012-11-27 Donnelly Corporation Sistema de detección de objetos para vehículo
ATE326748T1 (de) 2002-07-09 2006-06-15 Accenture Global Services Gmbh Vorrichtung zur automatischen erkennung von verkehrszeichen
US7100270B2 (en) * 2003-09-25 2006-09-05 Tong Hsing Electric Industries Ltd. Method of fabricating a thin film integrated circuit with thick film resistors
US7526103B2 (en) * 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
US7466841B2 (en) 2004-08-16 2008-12-16 Siemens Corporate Research, Inc. Method for traffic sign detection
DE102006008656A1 (de) * 2006-02-24 2007-08-30 Audi Ag Kraftfahrzeug mit einer Einrichtung zur Verkehrszeichenerkennung
WO2008024639A2 (en) * 2006-08-11 2008-02-28 Donnelly Corporation Automatic headlamp control system
DE102008022064A1 (de) * 2008-05-03 2009-11-05 Adc Automotive Distance Control Systems Gmbh Verfahren zur Belichtungssteuerung für eine Kamera in einem Kraftfahrzeug
US20090285445A1 (en) 2008-05-15 2009-11-19 Sony Ericsson Mobile Communications Ab System and Method of Translating Road Signs
EP2172873B1 (en) * 2008-10-06 2018-08-15 Mobileye Vision Technologies Ltd. Bundling of driver assistance systems
US9459515B2 (en) * 2008-12-05 2016-10-04 Mobileye Vision Technologies Ltd. Adjustable camera mount for a vehicle windshield
US8675122B2 (en) * 2009-01-16 2014-03-18 Microsoft Corporation Determining exposure time in a digital camera
US8041080B2 (en) * 2009-03-31 2011-10-18 Mitsubi Electric Research Laboratories, Inc. Method for recognizing traffic signs
WO2011028686A1 (en) 2009-09-01 2011-03-10 Magna Mirrors Of America, Inc. Imaging and display system for vehicle
DE102009048066A1 (de) * 2009-10-01 2011-04-07 Conti Temic Microelectronic Gmbh Verfahren zur Verkehrszeichenerkennung
JP5401344B2 (ja) * 2010-01-28 2014-01-29 日立オートモティブシステムズ株式会社 車両用外界認識装置
EP2363827B1 (en) * 2010-03-04 2012-10-10 Harman Becker Automotive Systems GmbH Method and device for classifying a traffic sign
US8538205B2 (en) * 2010-05-14 2013-09-17 Mobileye Technologies Ltd. Multi-function summing machine
EP2580740A4 (en) * 2010-06-10 2016-05-25 Tata Consultancy Services Ltd INVARIABLE AND ROBUST LIGHTING APPARATUS AND METHOD FOR DETECTING AND RECOGNIZING MULTIPLE SIGNALING PANELS
US9280711B2 (en) * 2010-09-21 2016-03-08 Mobileye Vision Technologies Ltd. Barrier and guardrail detection using a single camera
US9959595B2 (en) * 2010-09-21 2018-05-01 Mobileye Vision Technologies Ltd. Dense structure from motion
JP5423696B2 (ja) * 2011-02-09 2014-02-19 株式会社デンソー 標識認識装置
DE102011109387A1 (de) * 2011-08-04 2013-02-07 Conti Temic Microelectronic Gmbh Verfahren zur Erkennung von Verkehrszeichen
CN103020623B (zh) * 2011-09-23 2016-04-06 株式会社理光 交通标志检测方法和交通标志检测设备
US9056395B1 (en) * 2012-09-05 2015-06-16 Google Inc. Construction zone sign detection using light detection and ranging
US9195914B2 (en) * 2012-09-05 2015-11-24 Google Inc. Construction zone sign detection
US8996228B1 (en) * 2012-09-05 2015-03-31 Google Inc. Construction zone object detection using light detection and ranging
US9092696B2 (en) * 2013-03-26 2015-07-28 Hewlett-Packard Development Company, L.P. Image sign classifier
DE102013219909A1 (de) * 2013-10-01 2015-04-02 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Erkennung von Verkehrszeichen
KR101596299B1 (ko) * 2014-01-06 2016-02-22 현대모비스 주식회사 교통 표지판 인식 방법 및 장치
KR101912914B1 (ko) 2014-01-17 2018-10-29 주식회사 만도 전방 카메라를 이용한 속도제한 표지판 인식 시스템 및 방법
JP6348747B2 (ja) 2014-03-28 2018-06-27 株式会社Subaru 車外環境認識装置
US20160034769A1 (en) * 2014-07-29 2016-02-04 Magna Electronics Inc. Vehicle vision system with traffic sign recognition
US9442487B1 (en) * 2014-08-15 2016-09-13 Google Inc. Classifier hierarchies for traffic light and traffic indicator detection
US9424475B1 (en) * 2014-09-17 2016-08-23 Google Inc. Construction object detection
SG11201704076YA (en) * 2014-11-18 2017-06-29 Agency Science Tech & Res Method and device for traffic sign recognition
KR102323393B1 (ko) * 2015-01-12 2021-11-09 삼성전자주식회사 디바이스 및 상기 디바이스의 제어 방법
US20160217336A1 (en) 2015-01-23 2016-07-28 Papago Inc. Traffic sign identification system and method
EP3845427A1 (en) * 2015-02-10 2021-07-07 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
DE102015205524B4 (de) * 2015-03-26 2020-11-05 Mando Corporation Verfahren und Vorrichtung zum Klassifizieren eines Objekts, beispielsweise eines Verkehrsschildes, in einem Bild
DE102015207902A1 (de) * 2015-04-29 2016-11-03 Mando Corporation Verfahren und Vorrichtung zur Bestätigung des relevanten inneren weißen Kreises bei der Erkennung des Umfelds eines kreisförmigen Verkehrszeichens
JP6412464B2 (ja) * 2015-05-29 2018-10-24 株式会社デンソー 単位設定装置、単位設定方法
JP6776513B2 (ja) * 2015-08-19 2020-10-28 ソニー株式会社 車両制御装置と車両制御方法と情報処理装置および交通情報提供システム
CN105335708A (zh) * 2015-10-22 2016-02-17 四川膨旭科技有限公司 车辆行驶过程中对路标、路牌进行识别的系统
US9607513B1 (en) * 2015-12-03 2017-03-28 Denso International America, Inc. Systems and methods for informing driver of lane passing regulations
EP3182371B1 (en) * 2015-12-17 2018-09-26 Stmicroelectronics Sa Threshold determination in for example a type ransac algorithm
EP3182373B1 (en) * 2015-12-17 2019-06-19 STMicroelectronics S.A. Improvements in determination of an ego-motion of a video apparatus in a slam type algorithm
EP3182370B1 (en) * 2015-12-17 2020-07-29 STmicroelectronics SA Method and device for generating binary descriptors in video frames
EP3185212B1 (en) * 2015-12-17 2019-07-03 STmicroelectronics SA Dynamic particle filter parameterization
DE102015225900B3 (de) * 2015-12-18 2017-04-06 Continental Automotive Gmbh Verfahren und Vorrichtung zur kamerabasierten Verkehrszeichenerkennung in einem Kraftfahrzeug
US10255511B2 (en) * 2016-01-04 2019-04-09 Texas Instruments Incorporated Real time traffic sign recognition
JP6552979B2 (ja) * 2016-02-16 2019-07-31 株式会社日立製作所 画像処理装置、警告装置、画像処理システム、画像処理方法
US10332401B2 (en) * 2016-03-06 2019-06-25 Foresight Automotive Ltd. Running vehicle alerting system and method
CN106022300B (zh) * 2016-06-02 2019-07-05 中国科学院信息工程研究所 基于级联深度学习的交通标志识别方法和系统
US11086334B2 (en) * 2016-07-21 2021-08-10 Mobileye Vision Technologies Ltd. Crowdsourcing a sparse map for autonomous vehicle navigation
US10670416B2 (en) * 2016-12-30 2020-06-02 DeepMap Inc. Traffic sign feature creation for high definition maps used for navigating autonomous vehicles
KR101834778B1 (ko) 2017-05-30 2018-03-07 만도헬라일렉트로닉스(주) 교통 표지판 인식장치 및 방법
DE102017218192A1 (de) * 2017-10-12 2019-04-18 Robert Bosch Gmbh Verfahren und Vorrichtung zur Verkehrsschilderkennung
CN108090459B (zh) * 2017-12-29 2020-07-17 北京华航无线电测量研究所 一种适用于车载视觉系统的交通标志检测识别方法
CN108509900A (zh) * 2018-03-29 2018-09-07 深圳前向启创数码技术有限公司 交通标志检测和识别方法、系统及存储介质
CN108918532B (zh) * 2018-06-15 2021-06-11 长安大学 一种快速道路交通标志破损检测系统及其检测方法
US11127162B2 (en) * 2018-11-26 2021-09-21 Ford Global Technologies, Llc Method and apparatus for improved location decisions based on surroundings
US11175156B2 (en) * 2018-12-12 2021-11-16 Ford Global Technologies, Llc Method and apparatus for improved location decisions based on surroundings
US11380110B1 (en) * 2020-12-17 2022-07-05 GM Global Technology Operations LLC Three dimensional traffic sign detection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080137908A1 (en) 2006-12-06 2008-06-12 Mobileye Technologies Ltd. Detecting and recognizing traffic signs
US20090074249A1 (en) 2007-09-13 2009-03-19 Cognex Corporation System and method for traffic sign recognition
JP2009217832A (ja) 2009-04-27 2009-09-24 Asia Air Survey Co Ltd ビデオ画像の道路標識自動認識方法及び道路標識自動認識装置並びに道路標識自動認識のプログラムを記憶した記憶媒体
WO2016002276A1 (ja) 2014-06-30 2016-01-07 エイディシーテクノロジー株式会社 車両制御装置
US20160117562A1 (en) 2014-10-23 2016-04-28 Hyundai Mobis Co., Ltd. Traffic sign recognizing apparatus and operating method thereof

Also Published As

Publication number Publication date
EP3877965A1 (en) 2021-09-15
US20200192398A1 (en) 2020-06-18
US20240054772A1 (en) 2024-02-15
US11836955B2 (en) 2023-12-05
KR20210083372A (ko) 2021-07-06
US20210191419A1 (en) 2021-06-24
CN113196357B (zh) 2022-06-14
US10928828B2 (en) 2021-02-23
WO2020123360A1 (en) 2020-06-18
KR102592474B1 (ko) 2023-10-25
CN115050202A (zh) 2022-09-13
EP3877965A4 (en) 2022-07-27
JP2022510312A (ja) 2022-01-26
CN113196357A (zh) 2021-07-30

Similar Documents

Publication Publication Date Title
JP7248797B2 (ja) 未知の標識の検出
JP7150159B2 (ja) 自律車両の信号機検知および車線状態認識
US10902272B2 (en) Phrase recognition model for autonomous vehicles
CN113196103A (zh) 用于自主车辆的对象动作分类
US11860631B2 (en) Detecting and responding to processions for autonomous vehicles
US11774259B2 (en) Mapping off-road entries for autonomous vehicles
US20240017741A1 (en) Validation of trajectory planning for autonomous vehicles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230316

R150 Certificate of patent or registration of utility model

Ref document number: 7248797

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150