JP2021534472A - スマート運転機器の走行状態を認識する方法及び装置、機器 - Google Patents
スマート運転機器の走行状態を認識する方法及び装置、機器 Download PDFInfo
- Publication number
- JP2021534472A JP2021534472A JP2020567963A JP2020567963A JP2021534472A JP 2021534472 A JP2021534472 A JP 2021534472A JP 2020567963 A JP2020567963 A JP 2020567963A JP 2020567963 A JP2020567963 A JP 2020567963A JP 2021534472 A JP2021534472 A JP 2021534472A
- Authority
- JP
- Japan
- Prior art keywords
- state
- driving device
- smart driving
- smart
- indicating lamp
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
Abstract
Description
本願は、2019年7月31日に提出された、出願番号が201910702893.7である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
本願の実施例は、スマート運転機器の走行状態を認識する方法を提供する。スマート運転機器が車両であることを例として、まず、深層学習フレームワークを利用して、ランプの属性を認識し、続いて、大量の訓練データにより、訓練されたニューラルネットワークに、より高いロバスト性を持たせ、種々の適用シーンに好適に適用可能にする。関連技術において、ランプ属性認識により、全てのカテゴリのピクチャに対して大まかに分類し、ブレーキランプ認識とターンランプ認識に分ける。本願の実施例は、タスクを細分化し、サブタスクを処理する。まず、スマート運転機器の属性を認識し、異なる分岐により、訓練を行うことで、ランプ属性の細かいカテゴリの認識を実現させることができる。なお、キーポイントにより、ランプの位置を判定し、キーポイントの可視性情報を利用して、正確なランプ位置を得て、ランプ属性の判定の正確率をより高くする。
例えば、本願は以下の項目を提供する。
(項目1)
スマート運転機器の走行状態を認識する方法であって、前記方法は、
スマート運転機器を含む処理待ち画像に基づいて、前記スマート運転機器の本体の向きを決定することと、
前記処理待ち画像に基づいて、前記スマート運転機器に含まれる第1走行状態指示ランプの状態を決定することと、
前記本体の向き及び前記第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することと、を含む、スマート運転機器の走行状態を認識する方法。
(項目2)
前記本体の向き及び前記第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することは、
前記本体の向きが、前記処理待ち画像を取得する装置に向かう方向であることに応答して、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することを含むことを特徴とする
項目1に記載の方法。
(項目3)
前記本体の向き及び前記第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することは、
前記本体の向きが、前記処理待ち画像を取得する装置に背を向ける方向であることに応答して、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することを含むことを特徴とする
項目1又は2に記載の方法。
(項目4)
前記スマート運転機器は、第2走行状態指示ランプを更に含み、前記第2走行状態指示ランプは、前記スマート運転機器が制動状態にあるかどうかを示すことに用いられ、
前記処理待ち画像に基づいて、前記スマート運転機器に含まれる第1走行状態指示ランプの状態を決定する前に、前記方法は、
前記処理待ち画像に基づいて、前記第2走行状態指示ランプの状態を決定することとを更に含み、
前記処理待ち画像に基づいて、前記スマート運転機器に含まれる第1走行状態指示ランプの状態を決定することは、
前記第2走行状態指示ランプの状態が滅灯であることに応答して、前記処理待ち画像に基づいて、前記スマート運転機器に含まれる第1走行状態指示ランプの状態を決定することを含むことを特徴とする
項目1から3のうちいずれか一項に記載の方法。
(項目5)
前記処理待ち画像に基づいて、前記第2走行状態指示ランプの状態を決定した後、前記方法は、
前記第2走行状態指示ランプの状態が点灯であることに応答して、前記スマート運転機器が制動状態にあると決定することを更に含むことを特徴とする
項目4に記載の方法。
(項目6)
前記処理待ち画像は、連続する複数フレームの処理待ち画像であり、
前記処理待ち画像に基づいて、前記スマート運転機器の本体の向きを決定することは、
前記連続する複数フレームの処理待ち画像のうちの各フレームの処理待ち画像に基づいて、前記スマート運転機器の本体の向きを決定することと、
各フレームの処理待ち画像により決定された前記スマート運転機器の本体の向きに基づいて、前記スマート運転機器の本体の向きを決定することと、を含み、
前記処理待ち画像に基づいて、前記スマート運転機器に含まれる第1走行状態指示ランプの状態を決定することは、
前記連続する複数フレームの処理待ち画像のうちの各フレームの処理待ち画像に基づいて、前記第1走行状態指示ランプの状態を決定することと、
各フレームの処理待ち画像により決定された前記第1走行状態指示ランプの状態に基づいて、前記第1走行状態指示ランプの状態を決定することと、を含むことを特徴とする
項目1から5のうちいずれか一項に記載の方法。
(項目7)
前記処理待ち画像に基づいて、前記スマート運転機器の本体の向きを決定することは、
前記処理待ち画像における、前記スマート運転機器の本体により占められる第1画像領域を決定することと、
前記第1画像領域における画像に基づいて、前記スマート運転機器の本体の向きを決定することと、を含むことを特徴とする
項目1から6のうちいずれか一項に記載の方法。
(項目8)
前記処理待ち画像に基づいて、前記スマート運転機器に含まれる第1走行状態指示ランプの状態を決定することは、
前記処理待ち画像における、前記スマート運転機器の第1走行状態指示ランプにより占められる第2画像領域を決定することと、
前記第2画像領域における画像に基づいて、前記第1走行状態指示ランプの状態を決定することと、を含むことを特徴とする
項目1から7のうちいずれか一項に記載の方法。
(項目9)
前記処理待ち画像に基づいて、前記第2走行状態指示ランプの状態を決定することは、
前記処理待ち画像における、前記スマート運転機器の第2走行状態指示ランプにより占められる第3画像領域を決定することと、
前記第3画像領域における画像に基づいて、前記第2走行状態指示ランプの状態を決定することと、を含むことを特徴とする
項目4から8のうちいずれか一項に記載の方法。
(項目10)
前記スマート運転機器の走行状態を認識する方法は、ニューラルネットワークにより実現され、スマート運転機器を含む処理待ち画像に基づいて、前記スマート運転機器の本体の向きを決定することは、
前記ニューラルネットワークを利用して、前記処理待ち画像から、特徴マップを抽出することと、
前記ニューラルネットワークが抽出した特徴マップに基づいて、前記スマート運転機器の本体の向きを決定することと、を含み
前記本体の向き及び前記第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することは、
前記本体の向きが前記処理待ち画像を取得する装置に向かう方向であることに応答して、前記ニューラルネットワークの第1分岐を利用して、前記特徴マップに基づいて、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することと、
前記本体の向きが前記処理待ち画像を取得する装置に背を向ける方向であることに応答して、前記ニューラルネットワークの第2分岐を利用して、前記特徴マップに基づいて、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することと、を含むことを特徴とする
項目5に記載の装置。
(項目11)
前記処理待ち画像に基づいて、前記第2走行状態指示ランプの状態を決定することは、
前記ニューラルネットワークが抽出した特徴マップに基づいて、前記第2走行状態指示ランプの状態を決定することと、
前記第2走行状態指示ランプの状態が点灯であることに応答して、前記スマート運転機器が制動状態にあると決定することと、を含み、
前記本体の向きが前記処理待ち画像を取得する装置に向かう方向であることに応答して、前記ニューラルネットワークの第1分岐を利用して、前記特徴マップに基づいて、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することは、
前記本体の向きが前記処理待ち画像を取得する装置に向かう方向であって、且つ、前記第2走行状態指示ランプの状態が滅灯であることに応答して、前記ニューラルネットワークの第1分岐を利用して、前記特徴マップに基づいて、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することを含み、
前記本体の向きが前記処理待ち画像を取得する装置に背を向ける方向であることに応答して、前記ニューラルネットワークの第2分岐を利用して、前記特徴マップに基づいて、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することは、
前記本体の向きが前記処理待ち画像を取得する装置に背を向ける方向であって、且つ、前記第2走行状態指示ランプの状態が滅灯であることに応答して、前記ニューラルネットワークの第2分岐を利用して、前記特徴マップに基づいて、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することを含むことを特徴とする
項目10に記載の方法。
(項目12)
前記ニューラルネットワークは、
スマート運転機器を含むサンプル画像に基づいて、前記スマート運転機器の本体の向きを決定することと、
前記本体の向きが前記サンプル画像を取得する装置に向かう方向であることに応答して、前記ニューラルネットワークの第1分岐を利用して、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することと、
前記本体の向きが前記サンプル画像を取得する装置に背を向ける方向であることに応答して、前記ニューラルネットワークの第2分岐を利用して、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することと、
決定された前記本体の向き、ラベル付けられた前記本体の向き、決定された第1走行状態指示ランプの状態、ラベル付けられた第1走行状態指示ランプの状態に基づいて、ニューラルネットワークのネットワークパラメータを調整することと、を実行することで訓練されたものであることを特徴とする
項目10又は11に記載の方法。
(項目13)
スマート運転機器の走行状態を認識する装置であって、前記装置は、
スマート運転機器を含む処理待ち画像に基づいて、前記スマート運転機器の本体の向きを決定するように構成される第1決定モジュールと、
前記処理待ち画像に基づいて、前記スマート運転機器に含まれる第1走行状態指示ランプの状態を決定するように構成される第2決定モジュールと、
前記本体の向き及び前記第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定するように構成される第3決定モジュールと、を備える、スマート運転機器の走行状態を認識する装置。
(項目14)
前記第3決定モジュールは、
前記本体の向きが、前記処理待ち画像を取得する装置に向かう方向であることに応答して、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定するように構成される第1決定サブモジュールを備えることを特徴とする
項目13に記載の装置。
(項目15)
前記第3決定モジュールは、
前記本体の向きが、前記処理待ち画像を取得する装置に背を向ける方向であることに応答して、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定するように構成される第2決定サブモジュールを備えることを特徴とする
項目13又は14に記載の装置。
(項目16)
前記スマート運転機器は、第2走行状態指示ランプを更に含み、前記第2走行状態指示ランプは、前記スマート運転機器が制動状態にあるかどうかを示すことに用いられ、
前記装置は、
前記処理待ち画像に基づいて、前記スマート運転機器に含まれる第1走行状態指示ランプの状態を決定する前に、前記処理待ち画像に基づいて、前記第2走行状態指示ランプの状態を決定するように構成される第4決定モジュールを更に備え、
前記第2決定モジュールは、
前記第2走行状態指示ランプの状態が滅灯であることに応答して、前記処理待ち画像に基づいて、前記スマート運転機器に含まれる第1走行状態指示ランプの状態を決定するように構成される第3決定サブモジュールを備えることを特徴とする
項目13から15のうちいずれか一項に記載の装置。
(項目17)
前記装置は、
前記処理待ち画像に基づいて、前記第2走行状態指示ランプの状態を決定した後、前記第2走行状態指示ランプの状態が点灯であることに応答して、前記スマート運転機器が制動状態にあると決定するように構成される第5決定モジュールを更に備えることを特徴とする
項目16に記載の装置。
(項目18)
前記処理待ち画像は、連続する複数フレームの処理待ち画像であり、
第1決定モジュールは、
前記連続する複数フレームの処理待ち画像のうちの各フレームの処理待ち画像に基づいて、前記スマート運転機器の本体の向きを決定するように構成される第4決定サブモジュールと、
各フレームの処理待ち画像により決定された前記スマート運転機器の本体の向きに基づいて、前記スマート運転機器の本体の向きを決定するように構成される第5決定サブモジュールと、を備え、
第2決定モジュールは、
前記連続する複数フレームの処理待ち画像のうちの各フレームの処理待ち画像に基づいて、前記第1走行状態指示ランプの状態を決定するように構成される第6決定サブモジュールと、
各フレームの処理待ち画像により決定された前記第1走行状態指示ランプの状態に基づいて、前記第1走行状態指示ランプの状態を決定するように構成される第7決定サブモジュールと、を備えることを特徴とする
項目13から17のうちいずれか一項に記載の装置。
(項目19)
前記第1決定モジュールは、
前記処理待ち画像における、前記スマート運転機器の本体により占められる第1画像領域を決定するように構成される第8決定サブモジュールと、
前記第1画像領域における画像に基づいて、前記スマート運転機器の本体の向きを決定するように構成される第9決定サブモジュールと、を備えることを特徴とする
項目13から18のうちいずれか一項に記載の装置。
(項目20)
前記第2決定モジュールは、
前記処理待ち画像における、前記スマート運転機器の第1走行状態指示ランプにより占められる第2画像領域を決定するように構成される第10決定サブモジュールと、
前記第2画像領域における画像に基づいて、前記第1走行状態指示ランプの状態を決定するように構成される第11決定サブモジュールと、を備えることを特徴とする
項目13から19のうちいずれか一項に記載の装置。
(項目21)
前記第4決定モジュールは、
前記処理待ち画像における、前記スマート運転機器の第2走行状態指示ランプにより占められる第3画像領域を決定するように構成される第12決定サブモジュールと、
前記第3画像領域における画像に基づいて、前記第2走行状態指示ランプの状態を決定するように構成される第13決定サブモジュールと、を備えることを特徴とする
項目16から20のうちいずれか一項に記載の装置。
(項目22)
前記スマート運転機器の走行状態を認識する方法は、ニューラルネットワークにより実現され、前記第1決定モジュールは、
前記ニューラルネットワークを利用して、前記処理待ち画像から、特徴マップを抽出するように構成される第1抽出サブモジュールと、
前記ニューラルネットワークを利用して、抽出された特徴マップに基づいて、前記スマート運転機器の本体の向きを決定するように構成される第14決定サブモジュールと、を備え、
第3決定モジュールは、
前記本体の向きが前記処理待ち画像を取得する装置に向かう方向であることに応答して、前記ニューラルネットワークの第1分岐を利用して、前記特徴マップに基づいて、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定するように構成される第15決定サブモジュールと、
前記本体の向きが前記処理待ち画像を取得する装置に背を向ける方向であることに応答して、前記ニューラルネットワークの第2分岐を利用して、前記特徴マップに基づいて、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定するように構成される第16決定サブモジュールと、を備えることを特徴とする
項目17に記載の装置。
(項目23)
第4決定モジュールは、
前記ニューラルネットワークを採用して、抽出された特徴マップに基づいて、前記第2走行状態指示ランプの状態を決定するように構成される第17決定サブモジュールと、
前記第2走行状態指示ランプの状態が点灯であることに応答して、前記スマート運転機器が制動状態にあると決定するように構成される第18決定サブモジュールと、を備え、
前記第15決定サブモジュールは、
前記本体の向きが前記処理待ち画像を取得する装置に向かう方向であって、且つ、前記第2走行状態指示ランプの状態が滅灯であることに応答して、前記ニューラルネットワークの第1分岐を利用して、前記特徴マップに基づいて、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定するように構成される第1決定ユニットを備え、
前記第16決定サブモジュールは、
前記本体の向きが前記処理待ち画像を取得する装置に背を向ける方向であって、且つ、前記第2走行状態指示ランプの状態が滅灯であることに応答して、前記ニューラルネットワークの第2分岐を利用して、前記特徴マップに基づいて、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定するように構成される第2決定ユニットを備えることを特徴とする
項目22に記載の装置。
(項目24)
前記装置は、前記ニューラルネットワークを訓練するように構成される訓練モジュールを更に備え、前記訓練モジュールは、
スマート運転機器を含むサンプル画像に基づいて、前記スマート運転機器の本体の向きを決定するように構成される第19決定サブモジュールと、
前記本体の向きが前記サンプル画像を取得する装置に向かう方向であることに応答して、前記ニューラルネットワークの第1分岐を利用して、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定するように構成される第20決定サブモジュールと、
前記本体の向きが前記サンプル画像を取得する装置に背を向ける方向であることに応答して、前記ニューラルネットワークの第2分岐を利用して、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定するように構成される第21決定サブモジュールと、
決定された前記本体の向き、ラベル付けられた前記本体の向き、決定された第1走行状態指示ランプの状態、ラベル付けられた第1走行状態指示ランプの状態に基づいて、ニューラルネットワークのネットワークパラメータを調整するように構成される第1調整サブモジュールと、を備えることを特徴とする
項目22又は23に記載の装置。
(項目25)
コンピュータ記憶媒体であって、前記コンピュータ記憶媒体にコンピュータによる実行可能な命令が記憶されており、該コンピュータによる実行可能な命令が実行された後、項目1から12のうちいずれか一項に記載の方法の工程を実現させることができる、コンピュータ記憶媒体。
(項目26)
コンピュータ機器であって、前記コンピュータ機器は、メモリと、プロセッサと、を備え、前記メモリに、コンピュータによる実行可能な命令が記憶されており、前記プロセッサが前記メモリにおけるコンピュータによる実行可能な命令を実行する時、項目1から12のうちいずれか一項に記載の方法の工程を実現することができる、コンピュータ機器。
(項目27)
コンピュータプログラム製品であって、前記コンピュータプログラム製品は、コンピュータによる実行可能な命令を含み、該コンピュータによる実行可能な命令が実行された後、項目1から12のうちいずれか一項に記載の方法の工程を実現することができる、コンピュータプログラム製品。
Claims (27)
- スマート運転機器の走行状態を認識する方法であって、前記方法は、
スマート運転機器を含む処理待ち画像に基づいて、前記スマート運転機器の本体の向きを決定することと、
前記処理待ち画像に基づいて、前記スマート運転機器に含まれる第1走行状態指示ランプの状態を決定することと、
前記本体の向き及び前記第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することと、を含む、スマート運転機器の走行状態を認識する方法。 - 前記本体の向き及び前記第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することは、
前記本体の向きが、前記処理待ち画像を取得する装置に向かう方向であることに応答して、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することを含むことを特徴とする
請求項1に記載の方法。 - 前記本体の向き及び前記第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することは、
前記本体の向きが、前記処理待ち画像を取得する装置に背を向ける方向であることに応答して、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することを含むことを特徴とする
請求項1又は2に記載の方法。 - 前記スマート運転機器は、第2走行状態指示ランプを更に含み、前記第2走行状態指示ランプは、前記スマート運転機器が制動状態にあるかどうかを示すことに用いられ、
前記処理待ち画像に基づいて、前記スマート運転機器に含まれる第1走行状態指示ランプの状態を決定する前に、前記方法は、
前記処理待ち画像に基づいて、前記第2走行状態指示ランプの状態を決定することとを更に含み、
前記処理待ち画像に基づいて、前記スマート運転機器に含まれる第1走行状態指示ランプの状態を決定することは、
前記第2走行状態指示ランプの状態が滅灯であることに応答して、前記処理待ち画像に基づいて、前記スマート運転機器に含まれる第1走行状態指示ランプの状態を決定することを含むことを特徴とする
請求項1から3のうちいずれか一項に記載の方法。 - 前記処理待ち画像に基づいて、前記第2走行状態指示ランプの状態を決定した後、前記方法は、
前記第2走行状態指示ランプの状態が点灯であることに応答して、前記スマート運転機器が制動状態にあると決定することを更に含むことを特徴とする
請求項4に記載の方法。 - 前記処理待ち画像は、連続する複数フレームの処理待ち画像であり、
前記処理待ち画像に基づいて、前記スマート運転機器の本体の向きを決定することは、
前記連続する複数フレームの処理待ち画像のうちの各フレームの処理待ち画像に基づいて、前記スマート運転機器の本体の向きを決定することと、
各フレームの処理待ち画像により決定された前記スマート運転機器の本体の向きに基づいて、前記スマート運転機器の本体の向きを決定することと、を含み、
前記処理待ち画像に基づいて、前記スマート運転機器に含まれる第1走行状態指示ランプの状態を決定することは、
前記連続する複数フレームの処理待ち画像のうちの各フレームの処理待ち画像に基づいて、前記第1走行状態指示ランプの状態を決定することと、
各フレームの処理待ち画像により決定された前記第1走行状態指示ランプの状態に基づいて、前記第1走行状態指示ランプの状態を決定することと、を含むことを特徴とする
請求項1から5のうちいずれか一項に記載の方法。 - 前記処理待ち画像に基づいて、前記スマート運転機器の本体の向きを決定することは、
前記処理待ち画像における、前記スマート運転機器の本体により占められる第1画像領域を決定することと、
前記第1画像領域における画像に基づいて、前記スマート運転機器の本体の向きを決定することと、を含むことを特徴とする
請求項1から6のうちいずれか一項に記載の方法。 - 前記処理待ち画像に基づいて、前記スマート運転機器に含まれる第1走行状態指示ランプの状態を決定することは、
前記処理待ち画像における、前記スマート運転機器の第1走行状態指示ランプにより占められる第2画像領域を決定することと、
前記第2画像領域における画像に基づいて、前記第1走行状態指示ランプの状態を決定することと、を含むことを特徴とする
請求項1から7のうちいずれか一項に記載の方法。 - 前記処理待ち画像に基づいて、前記第2走行状態指示ランプの状態を決定することは、
前記処理待ち画像における、前記スマート運転機器の第2走行状態指示ランプにより占められる第3画像領域を決定することと、
前記第3画像領域における画像に基づいて、前記第2走行状態指示ランプの状態を決定することと、を含むことを特徴とする
請求項4から8のうちいずれか一項に記載の方法。 - 前記スマート運転機器の走行状態を認識する方法は、ニューラルネットワークにより実現され、スマート運転機器を含む処理待ち画像に基づいて、前記スマート運転機器の本体の向きを決定することは、
前記ニューラルネットワークを利用して、前記処理待ち画像から、特徴マップを抽出することと、
前記ニューラルネットワークが抽出した特徴マップに基づいて、前記スマート運転機器の本体の向きを決定することと、を含み
前記本体の向き及び前記第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することは、
前記本体の向きが前記処理待ち画像を取得する装置に向かう方向であることに応答して、前記ニューラルネットワークの第1分岐を利用して、前記特徴マップに基づいて、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することと、
前記本体の向きが前記処理待ち画像を取得する装置に背を向ける方向であることに応答して、前記ニューラルネットワークの第2分岐を利用して、前記特徴マップに基づいて、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することと、を含むことを特徴とする
請求項5に記載の装置。 - 前記処理待ち画像に基づいて、前記第2走行状態指示ランプの状態を決定することは、
前記ニューラルネットワークが抽出した特徴マップに基づいて、前記第2走行状態指示ランプの状態を決定することと、
前記第2走行状態指示ランプの状態が点灯であることに応答して、前記スマート運転機器が制動状態にあると決定することと、を含み、
前記本体の向きが前記処理待ち画像を取得する装置に向かう方向であることに応答して、前記ニューラルネットワークの第1分岐を利用して、前記特徴マップに基づいて、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することは、
前記本体の向きが前記処理待ち画像を取得する装置に向かう方向であって、且つ、前記第2走行状態指示ランプの状態が滅灯であることに応答して、前記ニューラルネットワークの第1分岐を利用して、前記特徴マップに基づいて、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することを含み、
前記本体の向きが前記処理待ち画像を取得する装置に背を向ける方向であることに応答して、前記ニューラルネットワークの第2分岐を利用して、前記特徴マップに基づいて、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することは、
前記本体の向きが前記処理待ち画像を取得する装置に背を向ける方向であって、且つ、前記第2走行状態指示ランプの状態が滅灯であることに応答して、前記ニューラルネットワークの第2分岐を利用して、前記特徴マップに基づいて、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することを含むことを特徴とする
請求項10に記載の方法。 - 前記ニューラルネットワークは、
スマート運転機器を含むサンプル画像に基づいて、前記スマート運転機器の本体の向きを決定することと、
前記本体の向きが前記サンプル画像を取得する装置に向かう方向であることに応答して、前記ニューラルネットワークの第1分岐を利用して、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することと、
前記本体の向きが前記サンプル画像を取得する装置に背を向ける方向であることに応答して、前記ニューラルネットワークの第2分岐を利用して、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定することと、
決定された前記本体の向き、ラベル付けられた前記本体の向き、決定された第1走行状態指示ランプの状態、ラベル付けられた第1走行状態指示ランプの状態に基づいて、ニューラルネットワークのネットワークパラメータを調整することと、を実行することで訓練されたものであることを特徴とする
請求項10又は11に記載の方法。 - スマート運転機器の走行状態を認識する装置であって、前記装置は、
スマート運転機器を含む処理待ち画像に基づいて、前記スマート運転機器の本体の向きを決定するように構成される第1決定モジュールと、
前記処理待ち画像に基づいて、前記スマート運転機器に含まれる第1走行状態指示ランプの状態を決定するように構成される第2決定モジュールと、
前記本体の向き及び前記第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定するように構成される第3決定モジュールと、を備える、スマート運転機器の走行状態を認識する装置。 - 前記第3決定モジュールは、
前記本体の向きが、前記処理待ち画像を取得する装置に向かう方向であることに応答して、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定するように構成される第1決定サブモジュールを備えることを特徴とする
請求項13に記載の装置。 - 前記第3決定モジュールは、
前記本体の向きが、前記処理待ち画像を取得する装置に背を向ける方向であることに応答して、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定するように構成される第2決定サブモジュールを備えることを特徴とする
請求項13又は14に記載の装置。 - 前記スマート運転機器は、第2走行状態指示ランプを更に含み、前記第2走行状態指示ランプは、前記スマート運転機器が制動状態にあるかどうかを示すことに用いられ、
前記装置は、
前記処理待ち画像に基づいて、前記スマート運転機器に含まれる第1走行状態指示ランプの状態を決定する前に、前記処理待ち画像に基づいて、前記第2走行状態指示ランプの状態を決定するように構成される第4決定モジュールを更に備え、
前記第2決定モジュールは、
前記第2走行状態指示ランプの状態が滅灯であることに応答して、前記処理待ち画像に基づいて、前記スマート運転機器に含まれる第1走行状態指示ランプの状態を決定するように構成される第3決定サブモジュールを備えることを特徴とする
請求項13から15のうちいずれか一項に記載の装置。 - 前記装置は、
前記処理待ち画像に基づいて、前記第2走行状態指示ランプの状態を決定した後、前記第2走行状態指示ランプの状態が点灯であることに応答して、前記スマート運転機器が制動状態にあると決定するように構成される第5決定モジュールを更に備えることを特徴とする
請求項16に記載の装置。 - 前記処理待ち画像は、連続する複数フレームの処理待ち画像であり、
第1決定モジュールは、
前記連続する複数フレームの処理待ち画像のうちの各フレームの処理待ち画像に基づいて、前記スマート運転機器の本体の向きを決定するように構成される第4決定サブモジュールと、
各フレームの処理待ち画像により決定された前記スマート運転機器の本体の向きに基づいて、前記スマート運転機器の本体の向きを決定するように構成される第5決定サブモジュールと、を備え、
第2決定モジュールは、
前記連続する複数フレームの処理待ち画像のうちの各フレームの処理待ち画像に基づいて、前記第1走行状態指示ランプの状態を決定するように構成される第6決定サブモジュールと、
各フレームの処理待ち画像により決定された前記第1走行状態指示ランプの状態に基づいて、前記第1走行状態指示ランプの状態を決定するように構成される第7決定サブモジュールと、を備えることを特徴とする
請求項13から17のうちいずれか一項に記載の装置。 - 前記第1決定モジュールは、
前記処理待ち画像における、前記スマート運転機器の本体により占められる第1画像領域を決定するように構成される第8決定サブモジュールと、
前記第1画像領域における画像に基づいて、前記スマート運転機器の本体の向きを決定するように構成される第9決定サブモジュールと、を備えることを特徴とする
請求項13から18のうちいずれか一項に記載の装置。 - 前記第2決定モジュールは、
前記処理待ち画像における、前記スマート運転機器の第1走行状態指示ランプにより占められる第2画像領域を決定するように構成される第10決定サブモジュールと、
前記第2画像領域における画像に基づいて、前記第1走行状態指示ランプの状態を決定するように構成される第11決定サブモジュールと、を備えることを特徴とする
請求項13から19のうちいずれか一項に記載の装置。 - 前記第4決定モジュールは、
前記処理待ち画像における、前記スマート運転機器の第2走行状態指示ランプにより占められる第3画像領域を決定するように構成される第12決定サブモジュールと、
前記第3画像領域における画像に基づいて、前記第2走行状態指示ランプの状態を決定するように構成される第13決定サブモジュールと、を備えることを特徴とする
請求項16から20のうちいずれか一項に記載の装置。 - 前記スマート運転機器の走行状態を認識する方法は、ニューラルネットワークにより実現され、前記第1決定モジュールは、
前記ニューラルネットワークを利用して、前記処理待ち画像から、特徴マップを抽出するように構成される第1抽出サブモジュールと、
前記ニューラルネットワークを利用して、抽出された特徴マップに基づいて、前記スマート運転機器の本体の向きを決定するように構成される第14決定サブモジュールと、を備え、
第3決定モジュールは、
前記本体の向きが前記処理待ち画像を取得する装置に向かう方向であることに応答して、前記ニューラルネットワークの第1分岐を利用して、前記特徴マップに基づいて、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定するように構成される第15決定サブモジュールと、
前記本体の向きが前記処理待ち画像を取得する装置に背を向ける方向であることに応答して、前記ニューラルネットワークの第2分岐を利用して、前記特徴マップに基づいて、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定するように構成される第16決定サブモジュールと、を備えることを特徴とする
請求項17に記載の装置。 - 第4決定モジュールは、
前記ニューラルネットワークを採用して、抽出された特徴マップに基づいて、前記第2走行状態指示ランプの状態を決定するように構成される第17決定サブモジュールと、
前記第2走行状態指示ランプの状態が点灯であることに応答して、前記スマート運転機器が制動状態にあると決定するように構成される第18決定サブモジュールと、を備え、
前記第15決定サブモジュールは、
前記本体の向きが前記処理待ち画像を取得する装置に向かう方向であって、且つ、前記第2走行状態指示ランプの状態が滅灯であることに応答して、前記ニューラルネットワークの第1分岐を利用して、前記特徴マップに基づいて、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定するように構成される第1決定ユニットを備え、
前記第16決定サブモジュールは、
前記本体の向きが前記処理待ち画像を取得する装置に背を向ける方向であって、且つ、前記第2走行状態指示ランプの状態が滅灯であることに応答して、前記ニューラルネットワークの第2分岐を利用して、前記特徴マップに基づいて、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定するように構成される第2決定ユニットを備えることを特徴とする
請求項22に記載の装置。 - 前記装置は、前記ニューラルネットワークを訓練するように構成される訓練モジュールを更に備え、前記訓練モジュールは、
スマート運転機器を含むサンプル画像に基づいて、前記スマート運転機器の本体の向きを決定するように構成される第19決定サブモジュールと、
前記本体の向きが前記サンプル画像を取得する装置に向かう方向であることに応答して、前記ニューラルネットワークの第1分岐を利用して、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の前部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定するように構成される第20決定サブモジュールと、
前記本体の向きが前記サンプル画像を取得する装置に背を向ける方向であることに応答して、前記ニューラルネットワークの第2分岐を利用して、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態を決定し、決定された、前記スマート運転機器の後部に設けられる第1走行状態指示ランプの状態に基づいて、前記スマート運転機器の走行状態を決定するように構成される第21決定サブモジュールと、
決定された前記本体の向き、ラベル付けられた前記本体の向き、決定された第1走行状態指示ランプの状態、ラベル付けられた第1走行状態指示ランプの状態に基づいて、ニューラルネットワークのネットワークパラメータを調整するように構成される第1調整サブモジュールと、を備えることを特徴とする
請求項22又は23に記載の装置。 - コンピュータ記憶媒体であって、前記コンピュータ記憶媒体にコンピュータによる実行可能な命令が記憶されており、該コンピュータによる実行可能な命令が実行された後、請求項1から12のうちいずれか一項に記載の方法の工程を実現させることができる、コンピュータ記憶媒体。
- コンピュータ機器であって、前記コンピュータ機器は、メモリと、プロセッサと、を備え、前記メモリに、コンピュータによる実行可能な命令が記憶されており、前記プロセッサが前記メモリにおけるコンピュータによる実行可能な命令を実行する時、請求項1から12のうちいずれか一項に記載の方法の工程を実現することができる、コンピュータ機器。
- コンピュータプログラム製品であって、前記コンピュータプログラム製品は、コンピュータによる実行可能な命令を含み、該コンピュータによる実行可能な命令が実行された後、請求項1から12のうちいずれか一項に記載の方法の工程を実現することができる、コンピュータプログラム製品。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022077972A JP2022105569A (ja) | 2019-07-31 | 2022-05-11 | スマート運転機器の走行状態を認識する方法及び装置、機器 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910702893.7 | 2019-07-31 | ||
CN201910702893.7A CN112307833A (zh) | 2019-07-31 | 2019-07-31 | 识别智能行驶设备的行驶状态的方法及装置、设备 |
PCT/CN2019/121057 WO2021017341A1 (zh) | 2019-07-31 | 2019-11-26 | 识别智能行驶设备的行驶状态的方法及装置、设备 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022077972A Division JP2022105569A (ja) | 2019-07-31 | 2022-05-11 | スマート運転機器の走行状態を認識する方法及び装置、機器 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021534472A true JP2021534472A (ja) | 2021-12-09 |
JP7074896B2 JP7074896B2 (ja) | 2022-05-24 |
Family
ID=74229679
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020567963A Active JP7074896B2 (ja) | 2019-07-31 | 2019-11-26 | スマート運転機器の走行状態を認識する方法及び装置、機器 |
JP2022077972A Withdrawn JP2022105569A (ja) | 2019-07-31 | 2022-05-11 | スマート運転機器の走行状態を認識する方法及び装置、機器 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022077972A Withdrawn JP2022105569A (ja) | 2019-07-31 | 2022-05-11 | スマート運転機器の走行状態を認識する方法及び装置、機器 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210103746A1 (ja) |
JP (2) | JP7074896B2 (ja) |
KR (1) | KR20210015861A (ja) |
CN (1) | CN112307833A (ja) |
SG (1) | SG11202013001RA (ja) |
WO (1) | WO2021017341A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7115502B2 (ja) | 2020-03-23 | 2022-08-09 | トヨタ自動車株式会社 | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 |
JP7388971B2 (ja) | 2020-04-06 | 2023-11-29 | トヨタ自動車株式会社 | 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム |
JP7359735B2 (ja) * | 2020-04-06 | 2023-10-11 | トヨタ自動車株式会社 | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 |
CN114519848A (zh) * | 2022-02-09 | 2022-05-20 | 商汤集团有限公司 | 一种运动意图确定方法、装置、设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004173195A (ja) * | 2002-11-22 | 2004-06-17 | Fuji Heavy Ind Ltd | 車両監視装置および車両監視方法 |
JP2004341801A (ja) * | 2003-05-15 | 2004-12-02 | Nissan Motor Co Ltd | 追跡車両ランプ検出システムおよび追跡車両ランプ検出方法 |
JP2007304992A (ja) * | 2006-05-12 | 2007-11-22 | Nissan Motor Co Ltd | 合流支援装置及び合流支援方法 |
JP2010249768A (ja) * | 2009-04-20 | 2010-11-04 | Toyota Motor Corp | 車両検出装置 |
JP2013109391A (ja) * | 2011-11-17 | 2013-06-06 | Fuji Heavy Ind Ltd | 車外環境認識装置および車外環境認識方法 |
JP2015232846A (ja) * | 2014-06-10 | 2015-12-24 | 株式会社デンソー | 前方状況判定装置 |
JP2016004503A (ja) * | 2014-06-19 | 2016-01-12 | 富士重工業株式会社 | 車外環境認識装置 |
JP2017211761A (ja) * | 2016-05-24 | 2017-11-30 | 株式会社東芝 | 情報処理装置、および、情報処理方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102897086B (zh) * | 2012-10-12 | 2017-04-12 | 福尔达车联网(深圳)有限公司 | 一种后车行驶信息检测及提示方法及系统 |
KR101663511B1 (ko) * | 2015-04-30 | 2016-10-14 | 엘지전자 주식회사 | 차량 운전 보조 장치, 차량 운전 보조 장치의 제어 방법 및 차량 |
US9701239B2 (en) * | 2015-11-04 | 2017-07-11 | Zoox, Inc. | System of configuring active lighting to indicate directionality of an autonomous vehicle |
CN105975915B (zh) * | 2016-04-28 | 2019-05-21 | 大连理工大学 | 一种基于多任务卷积神经网络的前方车辆参数识别方法 |
US10248874B2 (en) * | 2016-11-22 | 2019-04-02 | Ford Global Technologies, Llc | Brake light detection |
CN106874858A (zh) * | 2017-01-19 | 2017-06-20 | 博康智能信息技术有限公司北京海淀分公司 | 一种车辆信息识别方法及装置和一种车辆 |
US10614326B2 (en) * | 2017-03-06 | 2020-04-07 | Honda Motor Co., Ltd. | System and method for vehicle control based on object and color detection |
US10061322B1 (en) * | 2017-04-06 | 2018-08-28 | GM Global Technology Operations LLC | Systems and methods for determining the lighting state of a vehicle |
CN107316010A (zh) * | 2017-06-13 | 2017-11-03 | 武汉理工大学 | 一种识别前方车辆尾灯及判断其状态的方法 |
CN108229468B (zh) * | 2017-06-28 | 2020-02-21 | 北京市商汤科技开发有限公司 | 车辆外观特征识别及车辆检索方法、装置、存储介质、电子设备 |
US10474908B2 (en) * | 2017-07-06 | 2019-11-12 | GM Global Technology Operations LLC | Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation |
US10691962B2 (en) * | 2017-09-22 | 2020-06-23 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for rear signal identification using machine learning |
CN108357418B (zh) * | 2018-01-26 | 2021-04-02 | 河北科技大学 | 一种基于尾灯识别的前车驾驶意图分析方法 |
CN109345512A (zh) * | 2018-09-12 | 2019-02-15 | 百度在线网络技术(北京)有限公司 | 汽车图像的处理方法、装置及可读存储介质 |
-
2019
- 2019-07-31 CN CN201910702893.7A patent/CN112307833A/zh active Pending
- 2019-11-26 WO PCT/CN2019/121057 patent/WO2021017341A1/zh active Application Filing
- 2019-11-26 SG SG11202013001RA patent/SG11202013001RA/en unknown
- 2019-11-26 JP JP2020567963A patent/JP7074896B2/ja active Active
- 2019-11-26 KR KR1020207036574A patent/KR20210015861A/ko not_active Application Discontinuation
-
2020
- 2020-12-17 US US17/124,940 patent/US20210103746A1/en not_active Abandoned
-
2022
- 2022-05-11 JP JP2022077972A patent/JP2022105569A/ja not_active Withdrawn
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004173195A (ja) * | 2002-11-22 | 2004-06-17 | Fuji Heavy Ind Ltd | 車両監視装置および車両監視方法 |
JP2004341801A (ja) * | 2003-05-15 | 2004-12-02 | Nissan Motor Co Ltd | 追跡車両ランプ検出システムおよび追跡車両ランプ検出方法 |
JP2007304992A (ja) * | 2006-05-12 | 2007-11-22 | Nissan Motor Co Ltd | 合流支援装置及び合流支援方法 |
JP2010249768A (ja) * | 2009-04-20 | 2010-11-04 | Toyota Motor Corp | 車両検出装置 |
JP2013109391A (ja) * | 2011-11-17 | 2013-06-06 | Fuji Heavy Ind Ltd | 車外環境認識装置および車外環境認識方法 |
JP2015232846A (ja) * | 2014-06-10 | 2015-12-24 | 株式会社デンソー | 前方状況判定装置 |
JP2016004503A (ja) * | 2014-06-19 | 2016-01-12 | 富士重工業株式会社 | 車外環境認識装置 |
JP2017211761A (ja) * | 2016-05-24 | 2017-11-30 | 株式会社東芝 | 情報処理装置、および、情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112307833A (zh) | 2021-02-02 |
US20210103746A1 (en) | 2021-04-08 |
SG11202013001RA (en) | 2021-03-30 |
KR20210015861A (ko) | 2021-02-10 |
JP2022105569A (ja) | 2022-07-14 |
JP7074896B2 (ja) | 2022-05-24 |
WO2021017341A1 (zh) | 2021-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7074896B2 (ja) | スマート運転機器の走行状態を認識する方法及び装置、機器 | |
US20210019538A1 (en) | Brake Light Detection | |
US11613201B2 (en) | Automatic high beam control for autonomous machine applications | |
US11928822B2 (en) | Intersection region detection and classification for autonomous machine applications | |
US11769052B2 (en) | Distance estimation to objects and free-space boundaries in autonomous machine applications | |
US20210026355A1 (en) | Deep neural network for segmentation of road scenes and animate object instances for autonomous driving applications | |
US10860873B2 (en) | Driver behavior recognition and prediction | |
US10482334B1 (en) | Driver behavior recognition | |
EP4339905A2 (en) | Regression-based line detection for autonomous driving machines | |
US11636689B2 (en) | Adaptive object tracking algorithm for autonomous machine applications | |
WO2020247265A1 (en) | Multi-object tracking using correlation filters in video analytics applications | |
KR20210018434A (ko) | 자율 주행을 위한 데이터 파이프 라인 및 딥 러닝 시스템 | |
US20170300766A1 (en) | System and method for verification of lamp operation | |
CN106292432B (zh) | 信息处理方法、装置和电子设备 | |
JP7345123B2 (ja) | 情報処理装置、情報処理方法、及び、コンピュータプログラム | |
JP2005196590A (ja) | 歩行者抽出装置 | |
CN115376095A (zh) | 用于在驾驶场景中完成联合风险定位和推理的系统和方法 | |
US20230206488A1 (en) | Gaze determination machine learning system having adaptive weighting of inputs | |
CN115273032A (zh) | 交通标志识别方法、装置、设备及介质 | |
US11021147B2 (en) | Vehicles and methods for determining objects of driver focus | |
WO2023151241A1 (zh) | 一种运动意图确定方法、装置、设备及存储介质 | |
KR20180010363A (ko) | 전방 차량 감시 방법 및 장치 | |
JP7298171B2 (ja) | 画像圧縮装置および画像の圧縮方法 | |
US20220244727A1 (en) | Patching deployed deep neural networks for autonomous machine applications | |
CN115880763A (zh) | 操作员接管预测 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201204 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220401 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220512 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7074896 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |