JP7450754B2 - 画像解析から得られたフィンガープリントを用いた、画像フレーム全体に亘る脆弱な道路利用者の追跡 - Google Patents
画像解析から得られたフィンガープリントを用いた、画像フレーム全体に亘る脆弱な道路利用者の追跡 Download PDFInfo
- Publication number
- JP7450754B2 JP7450754B2 JP2022564115A JP2022564115A JP7450754B2 JP 7450754 B2 JP7450754 B2 JP 7450754B2 JP 2022564115 A JP2022564115 A JP 2022564115A JP 2022564115 A JP2022564115 A JP 2022564115A JP 7450754 B2 JP7450754 B2 JP 7450754B2
- Authority
- JP
- Japan
- Prior art keywords
- vru
- images
- embeddings
- embedding
- series
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010191 image analysis Methods 0.000 title 1
- 238000000034 method Methods 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 17
- 230000000694 effects Effects 0.000 claims description 9
- 230000006870 function Effects 0.000 claims 1
- 238000000605 extraction Methods 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 4
- 238000007476 Maximum Likelihood Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 1
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000002513 implantation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
オクルージョンとなるかどうかにかかわらず、脆弱な道路使用者(VRU)を経時的に追跡するためのシステム及び方法が本明細書に開示される。オクルージョン問題を克服するために、マルチタスク機械学習モデルは、複数のエンコーダを組み合わせるように訓練され、そのそれぞれは、VRUの活動を予測するように訓練される。取得された境界ボックス画像は、機械学習モデルに入力され、追加情報と共に、任意選択でVRUのフィンガープリントが出力される。複数のエンコーダを機械学習モデルに組み合わせることによって、部分的または完全なオクルージョンとなった場合でも、同じ個人が追跡されるフレーム全体に亘って高い信頼度が達成される。
図1は、オクルージョンの前後に脆弱な道路使用者を追跡するためのフィンガープリントツールを含む車両の一実施形態を示す。環境100は、車両120の一部として描写されるフィンガープリントツール110を含む。車両120は、自律車両、半自律車両、または非自律車両であってもよい。VRU130は、環境100全体にわたって示される。本明細書で使用されるVRUという用語は、歩行者だけでなく、自転車またはスクーターまたは車椅子(及び同様のもの)などのマイクロモビリティビークル上の人間、ならびにイヌ及び他のペットなどの人間の仲間を指す。車両120は、本明細書で使用されるように、経時的に画像をキャプチャする1つ以上のカメラセンサ、カメラセンサを備える。画像は、画像であってもよく、深度及び/または熱情報などの他の感覚入力を示す画像を含んでもよく、または別個に生成してもよい。画像は、一定の時間の経過に基づき、定期的に撮影されてもよいし、車両120が前回の画像撮影時から一定の距離を走行した等の何らかの他の事象に基づいて撮影されてもよい。一緒に撮影された画像は、ビデオ(例えば、高解像度のビデオ)を形成し得て、この文脈において、画像は、本明細書で「フレーム」と呼ばれることがある。同時に撮影された複数のカメラセンサからの画像は、(例えば、パノラマ画像または360度画像を形成するために)一緒に繋ぎ合わされてもよく、または単独の画像として使用されてもよい。車両120は、また、カメラセンサ(複数可)からの画像に関連する補助情報を提供する他のセンサを備えてもよい。例示的なセンサは、グローバルポジショニングシステム(GPS)センサ、及び慣性測定ユニット(IMU)センサを含むが、任意のタイプの情報を測定するための任意のセンサを含んでもよい。
図2は、フィンガープリントツールによって使用される前に前処理され得る画像の一実施形態を示す。画像200は、車両120の撮像素子によって取り込まれたビデオのフルフレーム等のフレームを表す。一実施形態では、画像200は、処理のためにフィンガープリントツール110への入力としてその全体が送られる。一実施形態では、フィンガープリントツール110は、画像200内の1つ以上のVRU230を検出する検出モデルを実行することによって画像200を前処理し、境界枠に応答性を適用する。画像200を前処理するため、フィンガープリントツール110は、1つまたはそれ以上のVRU230を切取部分250にし、1つ以上の切取部分(複数可)250を、図3を参照して以下で説明するフィンガープリント抽出モジュールの1つ以上の共有層等のエンコーダへの入力として使用する。さらに、フィンガープリントツール110は、追跡モジュールに入力するための各境界ボックスの座標を決定してもよい。一実施形態では、以下で図3に関して説明するように、追跡モジュールへの入力として、画像200及び切取部分250の両方を使用してもよい。エンコーダへの入力として切出部分250を使用することは、フル画像の非切り出し部分にはVRUの活動に関する情を提供しないノイズが含まれる可能性があるため、フル画像の使用に対して有利である。さらに、プロセッサ集約型であるエンコーダは関連する境界枠データ上でフル画像を除外するように動作すると、精度が向上し、レイテンシ及び一般処理ユニット(GPU)のフットプリントが低減される。エンコーダ及び追跡モジュールによる処理、ならびに追跡モデルの出力は、図3から図4を参照して以下でさらに詳細に説明される。
図3は、一実施形態の例示的なモジュールをフィンガープリントツール及び、それを通るデータフローチャートによって示す。センサモジュール305は、GPS及びIMUデータ等の画像及び補助データ等の車両120によって撮像されたセンサデータを受信する。センサモジュール305は、画像をVRU検出機械学習モデル310に渡し、補助データ(例えば、GPS及びIMUデータ、深度データ、熱データ等)を追跡モジュール330に渡す。図2を参照して論じられたように、VRU検出機械学習モデル310は、画像を前処理し、トリミングされた境界枠画像315及び/または境界枠座標320を出力する。この目的を達成するために、VRU検出機械学習モデル310は、画像内の1つ以上のVRUを検出し、画像内で検出された各VRUの切出された境界枠及び/または境界枠が画像のコンテキスト内で適用される座標を出力するように訓練される。ライブビデオが受信されると、画像はリアルタイムまたは略リアルタイムで前処理され得て、フレームはそこから取得される。クラウドプラットフォーム上の後処理などのイベントが発生した後にビデオが処理される実施形態では、画像は、リアルタイムよりも速く前処理され得る(例えば、ビデオは、ビデオ自体の長さよりも短い時間で分析され得る)。
図4は、画像からフィンガープリントを抽出するニューラルネットワークの一実施形態を示す。マルチタスクモデル400は、マルチタスクモデル312の例示的な表現である。マルチタスクモデル400は、トリガに基づいて初期化されてもよい。例示的なトリガとしては、車両120の点火、VRUが最後に検出されてから閾値時間が経過した後の画像においてVRUが検出されること等がある。初期化の後、モデル入力410は、モデル400によって受信される。マルチタスクモデルの構造は、共有層420のセット及び複数の分岐タスク固有の層430を有し、分岐タスク固有の層430の各分岐は、タスク450に対応する。タスク450は、ドメイン内で関連しており、タスク450の各々が、高度に重なり合う情報空間に基づいて予測可能であるアクティビティを予測することを意味する。例えば、自動運転システムによる使用のための歩行者の属性の予測において、異なるタスク450は、歩行者が車両を認識しているかどうか、歩行者が電話を見ているかどうか、歩行者が成人であるかどうか等の活動を予測してもよい。したがって、訓練されたとき、共有層420は、タスク450のそれぞれを実行し、これらの予測のそれぞれを出力するのに有用な情報を生成する。
図5は、フィンガープリントツールを使用するための処理の例示的なフローチャートを示す。処理500は、フィンガープリントツール(例えばフィンガープリントツール110)のVRU(例えば、VRU130)を含む画像の撮像502と共に開始する。画像は、ビデオのフレームであってもよい。撮像は、フィンガープリントツール110のカメラによって行われてもよく、または車両120に設置されたカメラセンサから画像を受信することによって行われてもよい(例えば、フィンガープリントツール110がカメラセンサから切り離されている場合、またはフィンガープリントツール110がクラウド環境で部分的にまたは全体的に動作している場合)、または両方の組み合わせによって行われてもよい。センサモジュール305は、補助データと共に画像を撮像してもよい。
モデル400は、自律走行車の知覚スタックに使用される一般処理ユニット(GPU)、またはADASシステムのGPUに位置していてもよく、車両に統合されているか、または改造ソリューションとして追加されていてもよい。モデル400は、携帯電話や専用の車載カメラ等のテレマティクス及び車隊管理ソリューションに統合されてもよい。あるいは、モデル400は、リアルタイムではなく、モデル400が事後データを分析するクラウドベースのサーバ上で動作してもよい。
Claims (17)
- オクルージョンに関わらず脆弱な道路使用者(VRU)を追跡するための方法であって、
複数の人間のVRUを含む前記VRUを含む一連の画像を撮像することであって、前記VRUは前記一連の画像の少なくとも一部において少なくとも部分的にオクルージョンされていることと、
前記画像の各々を検出モデルに入力することと、
前記検出モデルの出力として、前記一連の前記VRUの画像の各々の境界枠を受信することと、
境界枠の各々をマルチタスクモデルに入力することと、
前記マルチタスクモデルからの出力として、各境界枠の埋め込みを受信することであって、前記埋め込みは、前記マルチタスクモデルの共有層から生成され、前記マルチタスクモデルは、前記共有層と、各々が異なるアクティビティを予測するように訓練された複数のブランチとを含み、前記共有層は、前記複数のブランチからのバックプロパゲーションを使用して訓練される、ことと、
前記一連の画像に亘る境界枠の各々の前記埋め込みを使って、前記VRUの前記部分的なオクルージョンにもかかわらず、前記複数の人間のVRUのうちの異なるVRUに対し、どの前記埋め込みが前記VRUに対応するかの指示を判定することと、を含み、どの前記埋め込みが前記VRUに対応するかの指示を判定することは、
各埋め込みを教師なし学習モデルに入力することと、
前記教師なし学習モデルから、各埋め込みが対応する埋め込みクラスタの指示を出力として受信することであって、各クラスタは、前記複数の人間のVRUのうちの異なるVRUに対応することと、を含む、方法。 - 前記一連の画像を撮像することは、車両に配置されたカメラによって撮影された画像を受信することであって、車両に配置されたセンサによって捕捉された補助データが前記画像と共に受信される、ことを含む、請求項1に記載の方法。
- 各境界枠の前記一連の画像の各々のコンテキストにおける座標を受信することをさらに含み、どの前記埋め込みが前記VRUに対応するかの前記指示を判定することは、前記埋め込みに加えて前記座標を使用することを含む、請求項2に記載の方法。
- どの前記埋め込みが前記VRUに対応するかの前記指示を判定することは、前記補助データを使用することをさらに含む、請求項3に記載の方法。
- 各埋め込みは、前記VRUを追跡し、前記VRUに識別を割り当てることなくフィンガープリントとして機能する、請求項1に記載の方法。
- どの前記埋め込みが前記VRUに対応するかの前記指示を判定することは、前記出力の一部として、所定の埋め込みの各々が、その指示されたクラスタに対応する信頼度に対応する信頼度スコアを受信することをさらに含む、請求項1に記載の方法。
- オクルージョンに関わらず脆弱な道路使用者(VRU)を追跡するために、メモリ上に符号化された命令を備える非一時的なコンピュータ可読媒体であって、前記命令は、1つ以上のプロセッサに、実行時に動作を実行させ、前記命令は、
複数の人間のVRUを含む前記VRUを含む一連の画像を撮像させ、前記VRUは前記一連の画像の少なくとも一部において少なくとも部分的にオクルージョンされており、
前記画像の各々を検出モデルに入力させ、
前記検出モデルの出力として、前記一連の前記VRUの画像の各々の境界枠を受信させ、
境界枠の各々をマルチタスクモデルに入力させ、
前記マルチタスクモデルからの出力として、各境界枠の埋め込みを受信させ、前記埋め込みは、前記マルチタスクモデルの共有層から生成され、前記マルチタスクモデルは、前記共有層と、各々が異なるアクティビティを予測するように訓練された複数のブランチとを含み、前記共有層は、前記複数のブランチからのバックプロパゲーションを使用して訓練され、
前記一連の画像に亘る前記境界枠の各々の埋め込みを使って、前記VRUの前記部分的なオクルージョンにもかかわらず、前記複数の人間のVRUのうちの異なるVRUに対し、どの前記埋め込みが前記VRUに対応するかの指示を判定させる命令を含み、どの前記埋め込みが前記VRUに対応するかの指示を判定することは、
各埋め込みを教師なし学習モデルに入力することと、
前記教師なし学習モデルから、各埋め込みが対応する埋め込みクラスタの指示を出力として受信することであって、各クラスタは、前記複数の人間のVRUのうちの異なるVRUに対応することを含む、非一時的なコンピュータ可読媒体。 - 前記一連の画像を撮像する前記命令は、車両に配置されたカメラによって撮影された画像を受信させる命令であって、車両に配置されたセンサによって捕捉された補助データが前記画像と共に受信される、命令を含む請求項7に記載の非一時的なコンピュータ可読媒体。
- 前記命令は、各境界枠の前記一連の画像の各々のコンテキストにおける座標を受信させる命令をさらに含み、どの前記埋め込みが前記VRUに対応するかの前記指示を判定することは、前記埋め込みに加えて前記座標を使用することを含む、請求項8に記載の非一時的なコンピュータ可読媒体。
- どの前記埋め込みが前記VRUに対応するかの前記指示を判定することは、前記補助データを使用することをさらに含む、請求項9に記載の非一時的なコンピュータ可読媒体。
- 各埋め込みは、前記VRUを追跡し、前記VRUに識別を割り当てることなくフィンガープリントとして機能する、請求項7に記載の非一時的なコンピュータ可読媒体。
- どの前記埋め込みが前記VRUに対応するかの前記指示を判定させる前記命令は、前記出力の一部として、所定の埋め込みの各々が、その指示されたクラスタに対応する信頼度に対応する信頼度スコアを受信させる命令をさらに含む、請求項7に記載の非一時的なコンピュータ可読媒体。
- オクルージョンに関わらず脆弱な道路使用者(VRU)を追跡するためのシステムであって、
符号化された命令を持つメモリを含む非一時的なコンピュータ可読媒体と、
一つまたは複数のプロセッサであり、前記命令を実行するとき、
複数の人間のVRUを含む前記VRUを含む一連の画像を撮像することであって、前記VRUは前記一連の画像の少なくとも一部において少なくとも部分的にオクルージョンされていることと、
前記画像の各々を検出モデルに入力することと、
前記検出モデルの出力として、前記一連の前記VRUの画像の各々の境界枠を受信することと、
境界枠の各々をマルチタスクモデルに入力することと、
前記マルチタスクモデルからの出力として、各境界枠の埋め込みを受信することであって、前記埋め込みは、前記マルチタスクモデルの共有層から生成され、前記マルチタスクモデルは、前記共有層と、各々が異なるアクティビティを予測するように訓練された複数のブランチとを含み、前記共有層は、前記複数のブランチからのバックプロパゲーションを使用して訓練される、ことと、
前記一連の画像に亘る境界枠の各々の前記埋め込みを使って、前記VRUの前記部分的なオクルージョンにもかかわらず、前記複数の人間のVRUのうちの異なるVRUに対し、どの前記埋め込みが前記VRUに対応するかの指示を判定することと、を含み、どの前記埋め込みが前記VRUに対応するかの指示を判定することは、
各埋め込みを教師なし学習モデルに入力することと、
前記教師なし学習モデルから、各埋め込みが対応する埋め込みクラスタの指示を出力として受信することであって、各クラスタは、前記複数の人間のVRUのうちの異なるVRUに対応することを含む、操作を実行させられる1つまたは複数のプロセッサと、を備えたシステム。 - 前記一連の画像を撮像することは、車両に配置されたカメラによって撮影された画像を受信することであって、車両に配置されたセンサによって捕捉された補助データが前記画像と共に受信される、ことを含む、請求項13に記載のシステム。
- 各境界枠の前記一連の画像の各々のコンテキストにおける座標を受信することをさらに含み、どの前記埋め込みが前記VRUに対応するかの前記指示を判定することは、前記埋め込みに加えて前記座標を使用することを含む、請求項14に記載のシステム。
- どの前記埋め込みが前記VRUに対応するかの前記指示を判定することは、前記補助データを使用することをさらに含む、請求項15に記載のシステム。
- 各埋め込みは、前記VRUを追跡し、前記VRUに識別を割り当てることなくフィンガープリントとして機能する、請求項13に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/857,645 US11734907B2 (en) | 2020-04-24 | 2020-04-24 | Tracking vulnerable road users across image frames using fingerprints obtained from image analysis |
US16/857,645 | 2020-04-24 | ||
PCT/IB2021/000139 WO2021214542A1 (en) | 2020-04-24 | 2021-03-12 | Tracking vulnerable road users across image frames using fingerprints obtained from image analysis |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023522390A JP2023522390A (ja) | 2023-05-30 |
JP7450754B2 true JP7450754B2 (ja) | 2024-03-15 |
Family
ID=75497968
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022564115A Active JP7450754B2 (ja) | 2020-04-24 | 2021-03-12 | 画像解析から得られたフィンガープリントを用いた、画像フレーム全体に亘る脆弱な道路利用者の追跡 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11734907B2 (ja) |
EP (1) | EP4139832A1 (ja) |
JP (1) | JP7450754B2 (ja) |
WO (1) | WO2021214542A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3706034A1 (en) * | 2019-03-06 | 2020-09-09 | Robert Bosch GmbH | Movement prediction of pedestrians useful for autonomous driving |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014071902A (ja) | 2012-09-28 | 2014-04-21 | Boeing Co | フィンガープリントを使用してビデオ内で移動オブジェクトを追跡するため方法及びシステム |
JP2018201161A (ja) | 2017-05-29 | 2018-12-20 | 株式会社東芝 | 移動体追跡装置、移動体追跡方法およびプログラム |
US20190258878A1 (en) | 2018-02-18 | 2019-08-22 | Nvidia Corporation | Object detection and detection confidence suitable for autonomous driving |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8315965B2 (en) * | 2008-04-22 | 2012-11-20 | Siemens Corporation | Method for object detection |
US11132512B2 (en) * | 2019-11-08 | 2021-09-28 | International Business Machines Corporation | Multi-perspective, multi-task neural network model for matching text to program code |
US11531088B2 (en) * | 2019-11-21 | 2022-12-20 | Nvidia Corporation | Deep neural network for detecting obstacle instances using radar sensors in autonomous machine applications |
US11587329B2 (en) * | 2019-12-27 | 2023-02-21 | Valeo Schalter Und Sensoren Gmbh | Method and apparatus for predicting intent of vulnerable road users |
US20210286989A1 (en) * | 2020-03-11 | 2021-09-16 | International Business Machines Corporation | Multi-model, multi-task trained neural network for analyzing unstructured and semi-structured electronic documents |
-
2020
- 2020-04-24 US US16/857,645 patent/US11734907B2/en active Active
-
2021
- 2021-03-12 WO PCT/IB2021/000139 patent/WO2021214542A1/en unknown
- 2021-03-12 EP EP21718643.6A patent/EP4139832A1/en active Pending
- 2021-03-12 JP JP2022564115A patent/JP7450754B2/ja active Active
-
2023
- 2023-06-27 US US18/215,075 patent/US20230343062A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014071902A (ja) | 2012-09-28 | 2014-04-21 | Boeing Co | フィンガープリントを使用してビデオ内で移動オブジェクトを追跡するため方法及びシステム |
JP2018201161A (ja) | 2017-05-29 | 2018-12-20 | 株式会社東芝 | 移動体追跡装置、移動体追跡方法およびプログラム |
US20190258878A1 (en) | 2018-02-18 | 2019-08-22 | Nvidia Corporation | Object detection and detection confidence suitable for autonomous driving |
Non-Patent Citations (3)
Title |
---|
Khaled Saleh,Early Intent Prediction of Vulnerable Road Users from Visual Attributes using Multi-Task Learning Network,2017 IEEE International Conference on Systems, Man, and Cybernetics (SMC),カナダ,IEEE,2017年10月05日,P.3367-3372,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8123150 |
加藤 直樹,追跡軌跡の再同定を用いたオンライン複数物体追跡,画像電子学会誌 ,日本,一般社団法人画像電子学会,2018年,Vol.47 No.4 (2018),P.391-400 |
瀬尾 俊貴,FlowNetCを導入したD&Tによる物体検出の高精度化,第25回 画像センシングシンポジウム ,日本,画像センシング技術研究会,2019年,IS3-13 SO3-13,全5頁 |
Also Published As
Publication number | Publication date |
---|---|
US20210334982A1 (en) | 2021-10-28 |
US11734907B2 (en) | 2023-08-22 |
US20230343062A1 (en) | 2023-10-26 |
EP4139832A1 (en) | 2023-03-01 |
JP2023522390A (ja) | 2023-05-30 |
WO2021214542A1 (en) | 2021-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7052663B2 (ja) | 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム | |
CN110998594B (zh) | 检测动作的方法和系统 | |
Yang et al. | Crossing or not? Context-based recognition of pedestrian crossing intention in the urban environment | |
US10311704B1 (en) | Passenger-related item loss mitigation | |
Geiger et al. | 3d traffic scene understanding from movable platforms | |
US20180012082A1 (en) | System and method for image analysis | |
Zeeshan Zia et al. | Explicit occlusion modeling for 3d object class representations | |
Pool et al. | Context-based cyclist path prediction using recurrent neural networks | |
US11074438B2 (en) | Disentangling human dynamics for pedestrian locomotion forecasting with noisy supervision | |
JP7078021B2 (ja) | 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム | |
US20230005169A1 (en) | Lidar point selection using image segmentation | |
US20230025238A1 (en) | Anomalous region detection with local neural transformations | |
US20230024101A1 (en) | Contrastive predictive coding for anomaly detection and segmentation | |
KR20220076398A (ko) | Ar장치를 위한 객체 인식 처리 장치 및 방법 | |
US20230343062A1 (en) | Tracking users across image frames using fingerprints obtained from image analysis | |
EP4348579A1 (en) | Occlusion-aware multi-object tracking | |
CN111327888B (zh) | 摄像头控制方法、装置、计算机设备和存储介质 | |
Getahun et al. | A deep learning approach for lane detection | |
Liu et al. | Visual object tracking with partition loss schemes | |
JP7233572B2 (ja) | エクスプレイナブルセルフフォーカスされたアテンションを利用して行動予測を遂行する方法及び装置 | |
Lange et al. | Lopr: Latent occupancy prediction using generative models | |
CN113095351A (zh) | 借助于初始标记的改善生成经标记的数据的方法 | |
Wachs et al. | Human posture recognition for intelligent vehicles | |
Shirpour et al. | Driver's Eye Fixation Prediction by Deep Neural Network. | |
Cimarelli et al. | A case study on the impact of masking moving objects on the camera pose regression with CNNs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231024 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240305 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7450754 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |