JP7455841B2 - シーン内の物体を追跡する方法 - Google Patents
シーン内の物体を追跡する方法 Download PDFInfo
- Publication number
- JP7455841B2 JP7455841B2 JP2021533623A JP2021533623A JP7455841B2 JP 7455841 B2 JP7455841 B2 JP 7455841B2 JP 2021533623 A JP2021533623 A JP 2021533623A JP 2021533623 A JP2021533623 A JP 2021533623A JP 7455841 B2 JP7455841 B2 JP 7455841B2
- Authority
- JP
- Japan
- Prior art keywords
- event
- region
- track
- events
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 153
- 230000008569 process Effects 0.000 claims description 125
- 239000011159 matrix material Substances 0.000 claims description 36
- 230000011218 segmentation Effects 0.000 claims description 35
- 230000002123 temporal effect Effects 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 description 18
- 230000000875 corresponding effect Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 11
- 230000004913 activation Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 108010076504 Protein Sorting Signals Proteins 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000012804 iterative process Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- RXKGHZCQFXXWFQ-UHFFFAOYSA-N 4-ho-mipt Chemical compound C1=CC(O)=C2C(CCN(C)C(C)C)=CNC2=C1 RXKGHZCQFXXWFQ-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 230000036982 action potential Effects 0.000 description 1
- 238000010420 art technique Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Description
第1のプロセスによって、イベントベースセンサによって生成された非同期イベントから、シーン内の物体を検出することと、
第2のプロセスによって、イベントベースセンサによって生成された非同期イベントから、検出された物体に関連するトラックを特定することと
を含み、
第1のプロセスが第2のプロセスよりも低い時間分解能を有する。
検出された物体と特定されたトラックとの間の関連性を特定することと、
関連性に基づいて、検出された物体のセットおよび/または特定されたトラックのセットを更新することと
を含んでよい。
検出された物体のうちの所与の物体が、特定されたトラックのうちの所与のトラックに関連付けられた場合、所与の物体の位置に基づいて、所与のトラックを更新すること
をさらに含んでよい。
検出された物体のうちの所与の物体が、特定されたトラックのうちのどのトラックにも関連付けられない場合、所与の物体に対応する新たなトラックを初期化することと、
特定されたトラックのうちの所与のトラックが、検出された物体のうちのどの物体にも関連付けられない場合、所与のトラックを削除することと、
検出された物体のうちの第1の物体と第2の物体との両方が、特定されたトラックのうちの第1のトラックに関連付けられた場合、第1のトラックから第2のトラックを初期化することであって、第1のトラックおよび第2のトラックの各々が、第1の物体および第2の物体のうちのそれぞれの物体に対応する、初期化することと、
検出された物体のうちの所与の物体が、特定されたトラックのうちの第1のトラックおよび第2のトラックに関連付けられた場合、第1のトラックと第2のトラックとをマージすることと
をさらに含んでもよい。
検出された物体ごとに、感知素子のマトリックス内のそれぞれの領域セットを特定することであって、領域セットの各領域がそれぞれの時間に関連する、特定することと、
事前定義の時間間隔中にイベントベースセンサによって生成されたイベントを受信することと、
イベントのグループを特定することであって、前記受信されたイベントのうちの少なくとも1つのイベントを各グループが含む、特定することと、
イベントのグループごとに、感知素子のマトリックス内のそれぞれのゾーンを特定することであって、ゾーンが、そのイベントのグループの全てのイベントを含む、特定することと、
特定されたゾーンと特定された領域との間の関連性を特定することと、
関連性に基づいて、検出された物体のセットおよび/または特定されたトラックのセットを更新することと
をさらに含んでよい。
イベントベースセンサから受信されたイベントに関連する第1の記述パラメータを抽出することと、
セグメンテーションマスクに対応するイベントに関連する第2の記述パラメータを抽出することと、
第1の記述パラメータのうちの1つと第2の記述パラメータのうちの1つとの間の距離を、事前定義の値と比較することによって、セグメンテーションマスクを更新することと
を含んでよく、
あるイベントに関連する第1の記述パラメータおよび第2の記述パラメータが、イベントの極性およびイベントのスピードのうちの少なくとも一方を含む。
シーンから受信した光からイベントを非同期に生成する感知素子のマトリックスを有し、マトリックスの各感知素子に入射する光の変動に応じてその感知素子からそれぞれのイベントが生成されるイベントベースセンサに接続するためのインターフェースと、
プロセッサであって、
第1のプロセスによって、イベントベースセンサによって生成された非同期イベントから、シーン内の物体を検出すること、および
第2のプロセスによって、イベントベースセンサによって生成された非同期イベントから、検出された物体に関連するトラックを特定すること
を行うように構成されており、
第1のプロセスが、第2のプロセスよりも低い時間分解能を有する、
プロセッサと
を備える、信号処理ユニットに関する。
第1のプロセスによって、イベントベースセンサによって生成された非同期イベントから、シーン内の物体を検出することと、
第2のプロセスによって、イベントベースセンサによって生成された非同期イベントから、検出された物体に関連するトラックを特定することと
を行わせ、
第1のプロセスが、第2のプロセスよりも低い時間分解能を有する、
コンピュータプログラム製品に関する。
- そのような値がゼロではない場合、その物体oを特定されたトラックtに関連付け、oおよび/またはtのサイズおよび/または位置に基づいて、tのサイズおよび/または位置を更新407し(例として、tの位置はoの位置に等しくてもよく、tおよびoの位置を組み合わせたもの、例として中心もしくは質量中心に等しくてもよい)、
- 所与の物体oについて、
- 検出された物体のうち、
- トラックtがどの物体oにも関連付けられない場合、前記トラックtを削除404し、
- 物体oがどのトラックtにも関連付けられない場合、サイズおよび/または位置がoのサイズおよび/または位置に等しい新たなトラックを作成403する。
- コンピュータ言語で記述された命令を解釈するように適合されているプロセッサもしくは処理ユニットであって、命令を含むメモリを備えてもよく、それに関連付けられてもよく、それに結合されてもよい、プロセッサもしくは処理ユニット、または
- プロセッサ/処理ユニットとメモリとの組合せ(association)であって、プロセッサもしくは処理ユニットが、コンピュータ言語で記述された命令を解釈するように適合されており、メモリが前記命令を含む、プロセッサ/処理ユニットとメモリとの組合せ、または
- 本発明のステップがシリコン内に記述されている電子カード、または
- (<<フィールドプログラマブルゲートアレイ>>を表す)FPGAチップなどのプログラマブル電子チップ
とすることができる。
202 第2の反復性プロセス、第2のプロセス、高速プロセス
203 検出された物体のセット
204 特定されたトラックのセット
205 関連性
301 バウンディングボックス、関心領域
302 領域
401 関連付け関数
601 関心領域
602 セグメンテーションマスク
700 デバイス
701 スクリーン
702 キーボード
703 入力インターフェース
704 コンピュータ回路
705 メモリ
706 出力インターフェース
c クラスタ
T 時間期間
t トラック
t1 時間
t1 トラック
t2 時間
t2 トラック
t3 時間
t4 時間
tn 時間
tn-1 時間
o 物体
o1 物体
o2 物体
Claims (13)
- イベントを非同期に生成する感知素子のマトリックスを有するイベントベースセンサによって観測されたシーン内の物体を追跡する方法であって、
前記マトリックスの各感知素子に入射する光の変動に応じて前記感知素子からそれぞれのイベントが生成され、前記方法は、
第1のプロセス(201)によって、前記イベントベースセンサによって生成された非同期イベントから、前記シーン内の物体を検出するステップであって、前記第1のプロセス(201)が、感知素子の前記マトリックス内の、前記検出された物体を含む関心領域(301)を特定するステップを含む、ステップと、
第2のプロセス(202)によって、前記イベントベースセンサによって生成された非同期イベントから、前記検出された物体に関連するトラックを特定するステップであって、前記第2のプロセス(202)が、前記関心領域(301)を含む領域(302)内の感知素子によって生成された非同期イベントに基づいて、前記トラックを特定するステップを含む、ステップと
を含み、
前記第1のプロセス(201)が、前記第2のプロセス(202)よりも低い時間分解能を有し、
前記第2のプロセス(202)が、前記関心領域(301)のパラメータに基づいて、前記第1のプロセス(201)の新たな反復を実行するステップであって、前記パラメータが、前記関心領域(301)のサイズおよび前記関心領域(301)の形状のうちの一方である、ステップをさらに含む、方法。 - 前記第1のプロセス(201)が、前記検出された物体のカテゴリを特定するステップを含む、請求項1に記載の方法。
- 前記第1のプロセス(201)の新たな反復が、事前定義の時間シーケンスに従って実行される、請求項1または2に記載の方法。
- 前記第2のプロセス(202)が、前記関心領域(301)を含む前記領域(302)内で生成された非同期イベントに基づいて、前記関心領域(301)を更新するステップを含む、請求項1に記載の方法。
- 前記第2のプロセス(202)が、ある時間間隔中に前記関心領域(301)内で生成されたイベントの数がしきい値を超過した場合に、前記第1のプロセス(201)の新たな反復を実行するステップをさらに含む、請求項1から4のいずれか一項に記載の方法。
- 検出された物体と特定されたトラックとの間の関連性を特定(205)するステップと、
前記関連性に基づいて、前記検出された物体のセット(203)および/または前記特定されたトラックのセット(204)を更新(206)するステップと
をさらに含む、請求項1から5のいずれか一項に記載の方法。 - 前記検出された物体のうちの所与の物体が、前記特定されたトラック(204)のうちの所与のトラックに関連付けられる場合、前記所与の物体の位置に基づいて、前記所与のトラックを更新(407)するステップ
をさらに含む、請求項6に記載の方法。 - 前記検出された物体(203)のうちの所与の物体が、前記特定されたトラック(204)のうちのどのトラックにも関連付けられない場合、前記所与の物体に対応する新たなトラックを初期化(403)するステップと、
前記特定されたトラック(204)のうちの所与のトラックが、前記検出された物体(203)のうちのどの物体にも関連付けられない場合、前記所与のトラックを削除(404)するステップと、
前記検出された物体(203)のうちの第1の物体と第2の物体との両方が、前記特定されたトラック(204)のうちの第1のトラックに関連付けられた場合、前記第1のトラックから第2のトラックを初期化(406)するステップであって、前記第1のトラックおよび前記第2のトラックの各々が、前記第1の物体および前記第2の物体のうちのそれぞれの物体に対応する、ステップと、
前記検出された物体(203)のうちの所与の物体が、前記特定されたトラック(204)のうちの第1のトラックおよび第2のトラックに関連付けられた場合、前記第1のトラックと前記第2のトラックとをマージ(405)するステップと
をさらに含む、請求項6または7に記載の方法。 - 前記第2のプロセス(202)が、
検出された物体ごとに、感知素子の前記マトリックス内のそれぞれの領域セットを特定するステップであって、前記領域セットの各領域が、それぞれの時間に関連する、ステップと、
事前定義の時間間隔中に前記イベントベースセンサによって生成されたイベントを受信するステップと、
イベントのグループを特定するステップであって、前記受信されたイベントのうちの少なくとも1つのイベントを各グループが含む、ステップと、
イベントのグループごとに、感知素子の前記マトリックス内のそれぞれのゾーンを特定するステップであって、前記ゾーンが、前記イベントのグループの全てのイベントを含む、ステップと、
前記特定されたゾーンと前記特定された領域との間の関連性を特定するステップと、
前記関連性に基づいて、前記検出された物体のセットおよび/または前記特定されたトラックのセットを更新するステップと
をさらに含む、請求項1から8のいずれか一項に記載の方法。 - 前記第1のプロセス(201)が、前記検出された物体用のセグメンテーションマスク(602)を決定するステップをさらに含み、前記第2のプロセス(202)が、前記セグメンテーションマスク(602)の近隣において生成された非同期イベントに基づいて、前記セグメンテーションマスク(602)を更新するステップを含む、請求項1から9のいずれか一項に記載の方法。
- 前記イベントベースセンサから受信されたイベントに関連する第1の記述パラメータを抽出するステップと、
セグメンテーションマスク(602)に対応するイベントに関連する第2の記述パラメータを抽出するステップと、
前記第1の記述パラメータのうちの1つと前記第2の記述パラメータのうちの1つとの間の距離を、事前定義の値と比較することによって、前記セグメンテーションマスク(602)を更新するステップと
をさらに含み、
あるイベントに関連する前記第1の記述パラメータおよび前記第2の記述パラメータが、前記イベントの極性および前記イベントのスピードのうちの少なくとも一方を含む、
請求項9または10に記載の方法。 - 信号処理ユニットであって、
シーンから受信された光からイベントを非同期に生成する感知素子のマトリックスを有するイベントベースセンサに接続するためのインターフェースであって、前記マトリックスの各感知素子に入射する光の変動に応じて前記感知素子からそれぞれのイベントが生成される、インターフェースと、
プロセッサであって、
第1のプロセス(201)によって、前記イベントベースセンサによって生成された非同期イベントから、前記シーン内の物体を検出することであって、前記第1のプロセス(201)が、感知素子の前記マトリックス内の、前記検出された物体を含む関心領域(301)を特定することを含む、検出することと、
第2のプロセス(202)によって、前記イベントベースセンサによって生成された非同期イベントから、前記検出された物体に関連するトラックを特定することであって、前記第2のプロセス(202)が、前記関心領域(301)を含む領域(302)内の感知素子によって生成された非同期イベントに基づいて、前記トラックを特定するステップを含む、特定すること
を行うように構成されているプロセッサと
を備え、
前記第1のプロセス(201)が、前記第2のプロセス(202)よりも低い時間分解能を有し、
前記第2のプロセス(202)が、前記関心領域(301)のパラメータに基づいて、前記第1のプロセス(201)の新たな反復を実行することであって、前記パラメータが、前記関心領域(301)のサイズおよび前記関心領域(301)の形状のうちの一方である、実行することをさらに含む、
信号処理ユニット。 - シーンから受信された光からイベントを非同期に生成する感知素子のマトリックスを有するイベントベースセンサに関連付けられたプロセッサ内で実行される命令を含むコンピュータプログラムであって、
前記マトリックスの各感知素子に入射する光の変動に応じて前記感知素子からそれぞれのイベントが生成され、前記命令の実行が、前記プロセッサに、
第1のプロセス(201)によって、前記イベントベースセンサによって生成された非同期イベントから、前記シーン内の物体を検出することであって、前記第1のプロセス(201)が、感知素子の前記マトリックス内の、前記検出された物体を含む関心領域(301)を特定することを含む、検出することと、
第2のプロセス(202)によって、前記イベントベースセンサによって生成された非同期イベントから、前記検出された物体に関連するトラックを特定することであって、前記第2のプロセス(202)が、前記関心領域(301)を含む領域(302)内の感知素子によって生成された非同期イベントに基づいて、前記トラックを特定するステップを含む、特定することと
を行わせ、
前記第1のプロセス(201)が、前記第2のプロセス(202)よりも低い時間分解能を有し、
前記第2のプロセス(202)が、前記関心領域(301)のパラメータに基づいて、前記第1のプロセス(201)の新たな反復を実行することであって、前記パラメータが、前記関心領域(301)のサイズおよび前記関心領域(301)の形状のうちの一方である、実行することをさらに含む、
コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18212488.3 | 2018-12-13 | ||
EP18212488 | 2018-12-13 | ||
PCT/EP2019/085199 WO2020120782A1 (en) | 2018-12-13 | 2019-12-13 | Method of tracking objects in a scene |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022513214A JP2022513214A (ja) | 2022-02-07 |
JP7455841B2 true JP7455841B2 (ja) | 2024-03-26 |
Family
ID=64901854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021533623A Active JP7455841B2 (ja) | 2018-12-13 | 2019-12-13 | シーン内の物体を追跡する方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220036110A1 (ja) |
EP (1) | EP3895061A1 (ja) |
JP (1) | JP7455841B2 (ja) |
KR (1) | KR20210101286A (ja) |
CN (1) | CN113168520A (ja) |
WO (1) | WO2020120782A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2022190622A1 (ja) * | 2021-03-08 | 2022-09-15 | ||
GB202111600D0 (en) * | 2021-08-12 | 2021-09-29 | Milestone Systems As | Privacy preserving anomaly detection using semantic segmentation |
FR3126799B1 (fr) | 2021-09-09 | 2024-05-24 | Xyzed | Système de suivi d’acteurs sur au moins une scène de spectacle |
FR3126803B1 (fr) | 2021-09-09 | 2023-10-20 | Onx2 Sas | Dispositif de detection et suivi d'objets dans une zone d'intérêt |
WO2023210330A1 (ja) * | 2022-04-26 | 2023-11-02 | ソニーグループ株式会社 | データ生成装置、データ生成方法、プログラム、解析装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014535098A (ja) | 2011-10-14 | 2014-12-25 | サムスン エレクトロニクス カンパニー リミテッド | イベント基盤ビジョンセンサを用いた動作認識装置及び方法 |
JP2016071830A (ja) | 2014-09-26 | 2016-05-09 | 日本電気株式会社 | 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体 |
JP2017521746A (ja) | 2014-04-30 | 2017-08-03 | サントル ナスィオナル ド ラ ルシェルシュ スィアンティフィク(セ.エン.エル.エス.) | 非同期光センサーによって観測されたシーン内の形状を追跡する方法 |
JP2018501531A (ja) | 2014-09-30 | 2018-01-18 | クアルコム,インコーポレイテッド | イベントベースのビジョンセンサを使用した低電力で常時オンの顔の検出、追跡、認識および/または分析 |
US20180174323A1 (en) | 2016-12-20 | 2018-06-21 | Samsung Electronics Co., Ltd. | Multiscale weighted matching and sensor fusion for dynamic vision sensor tracking |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6545705B1 (en) * | 1998-04-10 | 2003-04-08 | Lynx System Developers, Inc. | Camera with object recognition/data output |
US7023469B1 (en) * | 1998-04-30 | 2006-04-04 | Texas Instruments Incorporated | Automatic video monitoring system which selectively saves information |
US6567116B1 (en) * | 1998-11-20 | 2003-05-20 | James A. Aman | Multiple object tracking system |
WO2005099423A2 (en) * | 2004-04-16 | 2005-10-27 | Aman James A | Automatic event videoing, tracking and content generation system |
WO2006128315A1 (en) | 2005-06-03 | 2006-12-07 | Universität Zürich | Photoarray for detecting time-dependent image data |
US9031279B2 (en) * | 2008-07-09 | 2015-05-12 | Disney Enterprises, Inc. | Multiple-object tracking and team identification for game strategy analysis |
JP4855556B1 (ja) * | 2011-03-22 | 2012-01-18 | 株式会社モルフォ | 動体検出装置、動体検出方法、動体検出プログラム、動体追跡装置、動体追跡方法及び動体追跡プログラム |
US11138742B2 (en) * | 2017-02-14 | 2021-10-05 | The Trustees Of The University Of Pennsylvania | Event-based feature tracking |
-
2019
- 2019-12-13 EP EP19816811.4A patent/EP3895061A1/en active Pending
- 2019-12-13 US US17/413,347 patent/US20220036110A1/en active Pending
- 2019-12-13 CN CN201980078147.3A patent/CN113168520A/zh active Pending
- 2019-12-13 WO PCT/EP2019/085199 patent/WO2020120782A1/en unknown
- 2019-12-13 KR KR1020217021624A patent/KR20210101286A/ko unknown
- 2019-12-13 JP JP2021533623A patent/JP7455841B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014535098A (ja) | 2011-10-14 | 2014-12-25 | サムスン エレクトロニクス カンパニー リミテッド | イベント基盤ビジョンセンサを用いた動作認識装置及び方法 |
JP2017521746A (ja) | 2014-04-30 | 2017-08-03 | サントル ナスィオナル ド ラ ルシェルシュ スィアンティフィク(セ.エン.エル.エス.) | 非同期光センサーによって観測されたシーン内の形状を追跡する方法 |
JP2016071830A (ja) | 2014-09-26 | 2016-05-09 | 日本電気株式会社 | 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体 |
JP2018501531A (ja) | 2014-09-30 | 2018-01-18 | クアルコム,インコーポレイテッド | イベントベースのビジョンセンサを使用した低電力で常時オンの顔の検出、追跡、認識および/または分析 |
US20180174323A1 (en) | 2016-12-20 | 2018-06-21 | Samsung Electronics Co., Ltd. | Multiscale weighted matching and sensor fusion for dynamic vision sensor tracking |
Non-Patent Citations (2)
Title |
---|
Francisco Barranco,Contour Detection and Characterization for Asynchronous Event Sensors,2015 IEEE International Conference on Computer Vision (ICCV),IEEE,2015年,P.486-494,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7410420 |
Rohan Ghosh,Real-Time Object Recognition and Orientation Estimation Using an Event-Based Camera and CNN,2014 IEEE Biomedical Circuits and Systems Conference (BioCAS) Proceedings,IEEE,2014年,全4頁,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6981783 |
Also Published As
Publication number | Publication date |
---|---|
US20220036110A1 (en) | 2022-02-03 |
KR20210101286A (ko) | 2021-08-18 |
EP3895061A1 (en) | 2021-10-20 |
CN113168520A (zh) | 2021-07-23 |
WO2020120782A1 (en) | 2020-06-18 |
JP2022513214A (ja) | 2022-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7455841B2 (ja) | シーン内の物体を追跡する方法 | |
CN106462976B (zh) | 在异步传感器观测到的场景中追踪形状的方法 | |
US9454819B1 (en) | System and method for static and moving object detection | |
JP2018205920A (ja) | 学習プログラム、学習方法および物体検知装置 | |
US11995878B2 (en) | Method of processing information from an event-based sensor | |
KR20190023389A (ko) | 변화점 검출을 활용한 다중클래스 다중물체 추적 방법 | |
TWI668669B (zh) | 物件追蹤系統及方法 | |
US11871125B2 (en) | Method of processing a series of events received asynchronously from an array of pixels of an event-based light sensor | |
Baldwin et al. | Inceptive event time-surfaces for object classification using neuromorphic cameras | |
JP7509040B2 (ja) | 道路監視ビデオのオブジェクト追跡装置及び方法 | |
Pareek et al. | Re-projected SURF features based mean-shift algorithm for visual tracking | |
Nallasivam et al. | Moving human target detection and tracking in video frames | |
JP2020109644A (ja) | 転倒検出方法、転倒検出装置及び電子機器 | |
Esfahani et al. | DeepDSAIR: Deep 6-DOF camera relocalization using deblurred semantic-aware image representation for large-scale outdoor environments | |
Verma et al. | Analysis of moving object detection and tracking in video surveillance system | |
Devi et al. | A survey on different background subtraction method for moving object detection | |
CN113870322A (zh) | 一种基于事件相机的多目标追踪方法、装置及计算机设备 | |
Almomani et al. | Segtrack: A novel tracking system with improved object segmentation | |
Boufares et al. | Moving object detection system based on the modified temporal difference and otsu algorithm | |
Joudaki et al. | Background subtraction methods in video streams: a review | |
Shahbaz et al. | Probabilistic foreground detector with camouflage detection for sterile zone monitoring | |
Sri Jamiya et al. | A survey on vehicle detection and tracking algorithms in real time video surveillance | |
CN110858392A (zh) | 一种基于融合背景模型的监控目标定位方法 | |
Karim | Construction of a robust background model for moving object detection in video sequence | |
Jeyabharathi | New feature descriptor: Extended Symmetrical-Diagonal Hexadecimal Pattern for efficient background subtraction and object tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231030 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240313 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7455841 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |