JP2022542566A - オブジェクト追跡方法及び装置、記憶媒体並びにコンピュータプログラム - Google Patents
オブジェクト追跡方法及び装置、記憶媒体並びにコンピュータプログラム Download PDFInfo
- Publication number
- JP2022542566A JP2022542566A JP2022504275A JP2022504275A JP2022542566A JP 2022542566 A JP2022542566 A JP 2022542566A JP 2022504275 A JP2022504275 A JP 2022504275A JP 2022504275 A JP2022504275 A JP 2022504275A JP 2022542566 A JP2022542566 A JP 2022542566A
- Authority
- JP
- Japan
- Prior art keywords
- target
- scene
- feature
- similarity
- scene image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Abstract
Description
前記第1類似度参照値は、前記隣接する2枚ずつのサンプルシーン画像におけるマーキングされた同じオブジェクト識別子の目標部位に対応するサンプル特徴ベクトルの間の類似度参照値であり、前記第2類似度参照値は、前記隣接する2枚ずつのサンプルシーン画像におけるマーキングされた異なるオブジェクト識別子の目標部位に対応するサンプル特徴ベクトルの間の類似度参照値である。
Claims (14)
- オブジェクト追跡方法であって、
同一シーンに対応する複数枚のシーン画像を取得するステップと、
前記複数枚のシーン画像のうちの各シーン画像に対して特徴抽出処理及び目標部位検出を行い、前記各シーン画像の特徴情報と前記各シーン画像における複数の目標部位の位置とを取得するステップと、
前記各シーン画像の特徴情報のうち、前記複数の目標部位の位置のそれぞれに対応する目標特徴情報を取得するステップと、
取得された前記複数の目標部位の位置のそれぞれに対応する目標特徴情報に基づいて、前記複数枚のシーン画像に現れた複数の同じオブジェクトを特定するステップと、を含み、
各シーン画像は、前記複数の同じオブジェクトのうちの一部又は全部を含むことを特徴とするオブジェクト追跡方法。 - 前記複数枚のシーン画像のうちの各シーン画像に対して特徴抽出処理及び目標部位検出を行い、前記各シーン画像の特徴情報と前記各シーン画像における複数の目標部位の位置とを取得するステップは、
前記複数枚のシーン画像のうちの各シーン画像の第1特徴マップを抽出することと、
前記各シーン画像の第1特徴マップにおいて目標部位検出を行い、前記各シーン画像における複数の目標部位の位置を取得し、且つ、前記各シーン画像の第1特徴マップに対して特徴抽出処理を行い、多次元の第2特徴マップを取得することと、を含み、
前記各シーン画像の特徴情報のうち、前記複数の目標部位の位置のそれぞれに対応する目標特徴情報を取得するステップは、
前記多次元の第2特徴マップにおいて、前記複数の目標部位の位置のそれぞれに対応する目標特徴ベクトルを取得することを含むことを特徴とする請求項1に記載のオブジェクト追跡方法。 - 前記取得された前記複数の目標部位の位置のそれぞれに対応する目標特徴情報に基づいて、前記複数枚のシーン画像に現れた複数の同じオブジェクトを特定するステップは、
前記複数枚のシーン画像のうちの隣接する2枚ずつのシーン画像にそれぞれ対応する複数の目標特徴情報を利用し、前記隣接する2枚ずつのシーン画像における各目標部位の間の類似度を取得することと、
前記隣接する2枚ずつのシーン画像における各目標部位の間の類似度に基づいて、異なるシーン画像に現れた複数の同じオブジェクトを特定することと、を含むことを特徴とする請求項1又は2に記載のオブジェクト追跡方法。 - 前記隣接する2枚ずつのシーン画像は、第1シーン画像及び第2シーン画像であり、
前記複数枚のシーン画像のうちの隣接する2枚ずつのシーン画像にそれぞれ対応する複数の目標特徴情報を利用し、前記隣接する2枚ずつのシーン画像における各目標部位の間の類似度を取得することは、
第1シーン画像におけるN個の目標特徴ベクトルのそれぞれと第2シーン画像におけるM個の目標特徴ベクトルとの類似度を特定することと、
前記第1シーン画像におけるN個の目標特徴ベクトルのそれぞれと前記第2シーン画像におけるM個の目標特徴ベクトルとの前記類似度に基づいて、N×M次元の類似度行列を取得することと、を含み、
N及びMは、2以上の正整数であり、前記類似度行列における何れかの次元の値は、前記第1シーン画像の何れかの第1目標部位と前記第2シーン画像中の何れかの第2目標部位との類似度を表すことを特徴とする請求項3に記載のオブジェクト追跡方法。 - 前記隣接する2枚ずつのシーン画像における各目標部位の間の類似度に基づいて、前記異なるシーン画像に現れた複数の同じオブジェクトを特定することは、
前記類似度行列に基づいて、前記N個の目標特徴ベクトルのうちの第1目標特徴ベクトルのそれぞれと前記M個の目標特徴ベクトルとの類似度から類似度最大値を特定することと、
前記類似度最大値が所定閾値よりも大きい場合に、前記M個の目標特徴ベクトルのうち、前記類似度最大値に対応する第2目標特徴ベクトルを特定することと、
前記第1シーン画像における前記第1目標特徴ベクトルに対応する第1目標部位の所属するオブジェクトと前記第2シーン画像における第2目標特徴ベクトルに対応する第2目標部位の所属するオブジェクトとを同じオブジェクトとすることと、を含むことを特徴とする請求項4に記載のオブジェクト追跡方法。 - 前記複数枚のシーン画像のうちの各シーン画像に対して特徴抽出処理及び目標部位検出を行い、前記各シーン画像の特徴情報と前記各シーン画像における複数の目標部位の位置とを取得するステップは、
特徴検出モデルのバックボーンネットワークを介して前記複数枚のシーン画像のうちの各シーン画像の第1特徴マップを抽出することと、
前記特徴検出モデルの部位検出ブランチを介して、前記各シーン画像の第1特徴マップにおいて目標部位検出を行い、前記各シーン画像における複数の目標部位の位置を取得し、且つ、前記特徴検出モデルの特徴抽出ブランチを介して、前記各シーン画像の第1特徴マップに対して特徴抽出処理を行い、多次元の第2特徴マップを取得することと、を含むことを特徴とする請求項1から5の何れか一項に記載のオブジェクト追跡方法。 - 同一シーンに対応する複数枚のサンプルシーン画像を初期ニューラルネットワークモデルに入力し、前記初期ニューラルネットワークモデルから出力された各サンプルシーン画像における複数の目標部位の位置のそれぞれに対応するサンプル特徴ベクトルを取得するステップと、
前記各サンプルシーン画像におけるマーキングされた複数の目標部位のそれぞれに対応するオブジェクト識別子に基づいて、隣接する2枚ずつのサンプルシーン画像における、同じ前記オブジェクト識別子の前記目標部位の位置に対応する前記サンプル特徴ベクトルの間の第1類似度を特定し、及び/又は、異なる前記オブジェクト識別子の前記目標部位の位置に対応する前記サンプル特徴ベクトルの間の第2類似度を特定するステップと、
前記各サンプルシーン画像におけるマーキングされた複数の目標部位のそれぞれに対応するオブジェクト識別子に基づいて、前記第1類似度と前記第2類似度とのうちの少なくとも一方に基づいて、前記初期ニューラルネットワークモデルに対して教師ありトレーニングを行い、前記特徴検出モデルを取得するステップと、更に含むことを特徴とする請求項6に記載のオブジェクト追跡方法。 - 前記各サンプルシーン画像におけるマーキングされた複数の目標部位のそれぞれに対応するオブジェクト識別子に基づいて、前記第1類似度と前記第2類似度とのうちの少なくとも一方に基づいて、前記初期ニューラルネットワークモデルに対して教師ありトレーニングを行い、前記特徴検出モデルを取得するステップは、
第1類似度参照値と前記第1類似度との差分を第1損失関数とすることと、
第2類似度参照値と前記第2類似度との差分を第2損失関数とすることと、
前記第1損失関数と前記第2損失関数とのうちの少なくとも一方に基づいて、前記初期ニューラルネットワークモデルをトレーニングし、前記特徴検出モデルを取得することと、を含み、
前記第1類似度参照値は、前記隣接する2枚ずつのサンプルシーン画像におけるマーキングされた同じオブジェクト識別子の目標部位に対応するサンプル特徴ベクトルの間の類似度参照値であり、前記第2類似度参照値は、前記隣接する2枚ずつのサンプルシーン画像におけるマーキングされた異なるオブジェクト識別子の目標部位に対応するサンプル特徴ベクトルの間の類似度参照値であることを特徴とする請求項7に記載のオブジェクト追跡方法。 - 前記複数のシーン画像に現れた複数の同じオブジェクトのうちの少なくとも1つのオブジェクトの、所定時間帯内における運動軌跡が目標運動軌跡に合致するか否かを特定するステップを更に含むことを特徴とする請求項1から8の何れか一項に記載のオブジェクト追跡方法。
- 前記複数枚のシーン画像は、教室シーンに対応し、前記オブジェクトは、ティーチング対象を含み、前記目標運動軌跡は、ティーチングタスクにおいて前記ティーチング対象へ指定される少なくとも1種の運動軌跡を含むことを特徴とする請求項9に記載のオブジェクト追跡方法。
- オブジェクト追跡装置であって、
同一シーンに対応する複数枚のシーン画像を取得するための取得モジュールと、
前記複数枚のシーン画像のうちの各シーン画像に対して特徴抽出処理及び目標部位検出を行い、前記各シーン画像の特徴情報と前記各シーン画像における複数の目標部位の位置とを取得するための処理モジュールと、
前記各シーン画像の特徴情報のうち、前記複数の目標部位の位置のそれぞれに対応する目標特徴情報を取得するための特徴情報特定モジュールと、
取得された前記複数の目標部位の位置のそれぞれに対応する目標特徴情報に基づいて、前記複数枚のシーン画像に現れた複数の同じオブジェクトを特定するためのオブジェクト特定モジュールと、を備え、
各シーン画像は、前記複数の同じオブジェクトのうちの一部又は全部を含むことを特徴とするオブジェクト追跡装置。 - コンピュータ可読記憶媒体であって、
前記コンピュータ可読記憶媒体には、コンピュータプログラムが記憶され、前記コンピュータプログラムは、請求項1から10の何れか一項に記載のオブジェクト追跡方法を実行するために用いられることを特徴とするコンピュータ可読記憶媒体。 - オブジェクト追跡装置であって、
プロセッサと、
前記プロセッサで実行され得る実行可能指令を記憶するためのメモリと、を備え、
前記プロセッサは、前記メモリに記憶された実行可能指令を呼び出すことで請求項1から10の何れか一項に記載のオブジェクト追跡方法を実施するように構成されることを特徴とするオブジェクト追跡装置。 - コンピュータプログラムであって、
前記コンピュータプログラムがプロセッサによって実行されたときに、請求項1から10の何れか一項に記載のオブジェクト追跡方法が実施されることを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010352365.6 | 2020-04-28 | ||
CN202010352365.6A CN111539991B (zh) | 2020-04-28 | 2020-04-28 | 目标跟踪方法及装置、存储介质 |
PCT/CN2021/087870 WO2021218671A1 (zh) | 2020-04-28 | 2021-04-16 | 目标跟踪方法及装置、存储介质及计算机程序 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022542566A true JP2022542566A (ja) | 2022-10-05 |
JP7292492B2 JP7292492B2 (ja) | 2023-06-16 |
Family
ID=71977335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022504275A Active JP7292492B2 (ja) | 2020-04-28 | 2021-04-16 | オブジェクト追跡方法及び装置、記憶媒体並びにコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
JP (1) | JP7292492B2 (ja) |
KR (1) | KR20220024986A (ja) |
CN (1) | CN111539991B (ja) |
TW (1) | TWI769787B (ja) |
WO (1) | WO2021218671A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111539991B (zh) * | 2020-04-28 | 2023-10-20 | 北京市商汤科技开发有限公司 | 目标跟踪方法及装置、存储介质 |
CN113129339B (zh) * | 2021-04-28 | 2023-03-10 | 北京市商汤科技开发有限公司 | 一种目标跟踪方法、装置、电子设备及存储介质 |
CN114783043B (zh) * | 2022-06-24 | 2022-09-20 | 杭州安果儿智能科技有限公司 | 一种儿童行为轨迹定位方法和系统 |
WO2024071587A1 (ko) * | 2022-09-29 | 2024-04-04 | 삼성전자 주식회사 | 객체를 추적하는 방법 및 전자 장치 |
CN115880614B (zh) * | 2023-01-19 | 2023-05-12 | 清华大学 | 一种宽视场高分辨视频高效智能检测方法及系统 |
CN116721045B (zh) * | 2023-08-09 | 2023-12-19 | 经智信息科技(山东)有限公司 | 一种多ct图像融合的方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005337954A (ja) * | 2004-05-28 | 2005-12-08 | Secom Co Ltd | センシング装置及び身長測定装置 |
JP2009020897A (ja) * | 2002-09-26 | 2009-01-29 | Toshiba Corp | 画像解析方法、画像解析装置、画像解析プログラム |
JP2019075116A (ja) * | 2017-10-13 | 2019-05-16 | 株式会社ストラドビジョン | トラッキングネットワークを含むCNN(Convolutional Neural Network)を用いてイメージ上の客体に対応するバウンディングボックスを獲得するための方法及びこれを利用した装置 |
CN110163890A (zh) * | 2019-04-24 | 2019-08-23 | 北京航空航天大学 | 一种面向空基监视的多目标跟踪方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI492188B (zh) * | 2008-12-25 | 2015-07-11 | Univ Nat Chiao Tung | 利用多攝影機自動偵測與追蹤多目標的方法及系統 |
CN108875465B (zh) * | 2017-05-26 | 2020-12-11 | 北京旷视科技有限公司 | 多目标跟踪方法、多目标跟踪装置以及非易失性存储介质 |
WO2018218640A1 (en) * | 2017-06-02 | 2018-12-06 | SZ DJI Technology Co., Ltd. | Systems and methods for multi-target tracking and autofocusing based on deep machine learning and laser radar |
CN109214238B (zh) * | 2017-06-30 | 2022-06-28 | 阿波罗智能技术(北京)有限公司 | 多目标跟踪方法、装置、设备及存储介质 |
CN108491816A (zh) * | 2018-03-30 | 2018-09-04 | 百度在线网络技术(北京)有限公司 | 在视频中进行目标跟踪的方法和装置 |
CN110866428B (zh) * | 2018-08-28 | 2023-12-15 | 杭州海康威视数字技术股份有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN109522843B (zh) * | 2018-11-16 | 2021-07-02 | 北京市商汤科技开发有限公司 | 一种多目标跟踪方法及装置、设备和存储介质 |
CN109800624A (zh) * | 2018-11-27 | 2019-05-24 | 上海眼控科技股份有限公司 | 一种基于行人重识别的多目标跟踪方法 |
CN109859238B (zh) * | 2019-03-14 | 2021-03-12 | 郑州大学 | 一种基于多特征最优关联的在线多目标跟踪方法 |
CN110889464B (zh) * | 2019-12-10 | 2021-09-14 | 北京市商汤科技开发有限公司 | 检测目标对象的神经网络训练、目标对象的检测方法及装置 |
CN111539991B (zh) * | 2020-04-28 | 2023-10-20 | 北京市商汤科技开发有限公司 | 目标跟踪方法及装置、存储介质 |
-
2020
- 2020-04-28 CN CN202010352365.6A patent/CN111539991B/zh active Active
-
2021
- 2021-04-16 JP JP2022504275A patent/JP7292492B2/ja active Active
- 2021-04-16 KR KR1020227002703A patent/KR20220024986A/ko not_active Application Discontinuation
- 2021-04-16 WO PCT/CN2021/087870 patent/WO2021218671A1/zh active Application Filing
- 2021-04-20 TW TW110114037A patent/TWI769787B/zh active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009020897A (ja) * | 2002-09-26 | 2009-01-29 | Toshiba Corp | 画像解析方法、画像解析装置、画像解析プログラム |
JP2005337954A (ja) * | 2004-05-28 | 2005-12-08 | Secom Co Ltd | センシング装置及び身長測定装置 |
JP2019075116A (ja) * | 2017-10-13 | 2019-05-16 | 株式会社ストラドビジョン | トラッキングネットワークを含むCNN(Convolutional Neural Network)を用いてイメージ上の客体に対応するバウンディングボックスを獲得するための方法及びこれを利用した装置 |
CN110163890A (zh) * | 2019-04-24 | 2019-08-23 | 北京航空航天大学 | 一种面向空基监视的多目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111539991B (zh) | 2023-10-20 |
JP7292492B2 (ja) | 2023-06-16 |
TWI769787B (zh) | 2022-07-01 |
TW202141424A (zh) | 2021-11-01 |
CN111539991A (zh) | 2020-08-14 |
KR20220024986A (ko) | 2022-03-03 |
WO2021218671A1 (zh) | 2021-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7292492B2 (ja) | オブジェクト追跡方法及び装置、記憶媒体並びにコンピュータプログラム | |
US11468697B2 (en) | Pedestrian re-identification method based on spatio-temporal joint model of residual attention mechanism and device thereof | |
CN111709409B (zh) | 人脸活体检测方法、装置、设备及介质 | |
US20220358770A1 (en) | Scene reconstruction in three-dimensions from two-dimensional images | |
Sidla et al. | Pedestrian detection and tracking for counting applications in crowded situations | |
US11048948B2 (en) | System and method for counting objects | |
US8179440B2 (en) | Method and system for object surveillance and real time activity recognition | |
CN205334563U (zh) | 一种学生课堂参与度检测系统 | |
CN110378259A (zh) | 一种面向监控视频的多目标行为识别方法及系统 | |
CN109819208A (zh) | 一种基于人工智能动态监控的密集人群安防监控管理方法 | |
CN111598998A (zh) | 三维虚拟模型重建方法、装置、计算机设备和存储介质 | |
US20230015773A1 (en) | Crowd motion simulation method based on real crowd motion videos | |
CN109214366A (zh) | 局部目标重识别方法、装置及系统 | |
CN106033601A (zh) | 检测异常情形的方法和装置 | |
CN112528812A (zh) | 行人跟踪的方法、行人跟踪装置以及行人跟踪系统 | |
CN113378649A (zh) | 身份、位置和动作识别方法、系统、电子设备及存储介质 | |
CN114565976A (zh) | 一种训练智能测试方法以及装置 | |
KR101529620B1 (ko) | 이동 방향별 보행자 계수 방법 및 장치 | |
TWI776429B (zh) | 動作識別方法及裝置、電腦可讀存儲介質 | |
CN111652045B (zh) | 课堂教学质量评估方法和系统 | |
Psarras et al. | Visual saliency in navigation: Modelling navigational behaviour using saliency and depth analysis | |
KR101467360B1 (ko) | 이동 방향별 보행자 계수 방법 및 장치 | |
CN113496200A (zh) | 数据处理方法、装置、电子设备及存储介质 | |
CN104077554A (zh) | 基于线性动态系统的视角无关的人体行为识别方法 | |
CN112163537B (zh) | 一种行人异常行为检测方法、系统、终端以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230606 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7292492 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |