JP7459949B2 - 学習装置、学習方法、追跡装置及びプログラム - Google Patents
学習装置、学習方法、追跡装置及びプログラム Download PDFInfo
- Publication number
- JP7459949B2 JP7459949B2 JP2022545169A JP2022545169A JP7459949B2 JP 7459949 B2 JP7459949 B2 JP 7459949B2 JP 2022545169 A JP2022545169 A JP 2022545169A JP 2022545169 A JP2022545169 A JP 2022545169A JP 7459949 B2 JP7459949 B2 JP 7459949B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- information
- image
- tracking
- tracking target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 50
- 239000011159 matrix material Substances 0.000 claims description 109
- 238000001514 detection method Methods 0.000 claims description 45
- 238000000605 extraction Methods 0.000 claims description 27
- 238000012545 processing Methods 0.000 claims description 27
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 238000012795 verification Methods 0.000 claims description 4
- 230000036544 posture Effects 0.000 description 146
- 238000007726 management method Methods 0.000 description 23
- 238000013500 data storage Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 8
- 230000008034 disappearance Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 238000012549 training Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000035582 behavioral recognition Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/77—Determining position or orientation of objects or cameras using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Description
時系列に撮影された学習用の画像である第1学習画像及び第2学習画像と、当該第1学習画像及び第2学習画像の各々に含まれる追跡対象の位置又は姿勢に関する追跡対象位置情報と、前記追跡対象の識別情報とが関連付けられた追跡学習データを取得する取得手段と、
前記第1学習画像及び第2学習画像の各々から推定した前記追跡対象の姿勢を示す姿勢情報と、前記追跡対象位置情報とを照合することで、前記姿勢情報に前記識別情報を紐付ける推定結果照合手段と、
前記姿勢情報に基づく情報が入力された場合に、前記第1学習画像と前記第2学習画像とでの前記追跡対象の対応関係を示す対応情報を推論する推論器の学習を、前記姿勢情報と前記識別情報とに基づき行う学習手段と、
を有する学習装置である。
時系列に撮影された学習用の画像である第1学習画像及び第2学習画像と、当該第1学習画像及び第2学習画像の各々に含まれる追跡対象の位置又は姿勢に関する追跡対象位置情報と、前記追跡対象の識別情報とが関連付けられた追跡学習データを取得し、
前記第1学習画像及び第2学習画像の各々から推定した前記追跡対象の姿勢を示す姿勢情報と、前記追跡対象位置情報とを照合することで、前記姿勢情報に前記識別情報を紐付け、
前記姿勢情報に基づく情報が入力された場合に、前記第1学習画像と前記第2学習画像とでの前記追跡対象の対応関係を示す対応情報を推論する推論器の学習を、前記姿勢情報と前記識別情報とに基づき行う、
学習方法である。
時系列に撮影された学習用の画像である第1学習画像及び第2学習画像と、当該第1学習画像及び第2学習画像の各々に含まれる追跡対象の位置又は姿勢に関する追跡対象位置情報と、前記追跡対象の識別情報とが関連付けられた追跡学習データを取得し、
前記第1学習画像及び第2学習画像の各々から推定した前記追跡対象の姿勢を示す姿勢情報と、前記追跡対象位置情報とを照合することで、前記姿勢情報に前記識別情報を紐付け、
前記姿勢情報に基づく情報が入力された場合に、前記第1学習画像と前記第2学習画像とでの前記追跡対象の対応関係を示す対応情報を推論する推論器の学習を、前記姿勢情報と前記識別情報とに基づき行う処理をコンピュータに実行させるプログラムである。
(1)全体構成
図1は、第1実施形態における追跡システム100の概略構成である。追跡システム100は、物体の追跡を行うシステムである。追跡システム100は、主に、物体の追跡に関する推論を行うモデルである推論器の学習を行う学習装置1と、追跡に必要な情報を記憶する記憶装置2と、追跡の実行及び管理を行う追跡装置3と、追跡の対象となる空間の撮影を行うカメラ4とを有する。
次に、記憶装置2に記憶されるデータについて説明する。
次に、学習装置1及び追跡装置3の各ハードウェア構成について説明する。
次に、追跡システム100の機能的な構成について説明する。
図4は、学習装置1の機能ブロックの一例である。図4に示すように、学習装置1のプロセッサ11は、機能的には、姿勢推定部15と、推定結果照合部16と、特徴抽出部17と、学習部18とを有する。なお、図4では、データの授受が行われるブロック同士を実線により結んでいるが、データの授受が行われるブロックの組合せは図4に限定されない。後述する他の機能ブロックの図においても同様である。
(1)正解の矩形領域に対して、検出した特徴点は最低「N」(Nは正の整数)数以上含まれている
(2)正解の特徴点位置と予測の特徴点位置の距離は「L」(Lは正数)以下である
などが該当する。「N」、「L」の情報は、例えば、予めメモリ12又は記憶装置2に記憶されている。この場合、所定の基準を満たさなかったことにより追跡IDの紐付けがなされなかった姿勢情報Ipは、学習部18の処理において用いられない。推定結果照合部16は、姿勢情報Ipと追跡IDとの関係を紐付ける情報(「追跡紐付情報Ir」とも呼ぶ。)を、学習部18に供給する。例えば、追跡対象毎の姿勢情報Ipを識別するための画像ごとの通し番号(例えば後述の検出番号)が追跡対象毎の姿勢情報Ipに付加されている場合には、追跡紐付情報Irは、この通し番号と、追跡IDとの対応関係を画像毎に示したテーブル情報であってもよい。なお、推定結果照合部16による追跡対象位置情報と姿勢情報Ipとの照合処理の詳細については、「(5)推定結果の照合」のセクションにおいて詳しく説明する。
図5は、追跡装置3の機能ブロックの一例である。図5に示すように、追跡装置3のプロセッサ31は、機能的には、姿勢推定部35と、特徴抽出部37と、対応情報生成部38と、追跡情報管理部39とを有する。
次に、推定結果照合部16が実行する処理について詳しく説明する。以後では、追跡対象位置情報が、第1学習画像及び第2学習画像において追跡対象の各々の存在領域を示す場合と、第1学習画像及び第2学習画像において追跡対象の各々の特徴点の位置を示す場合(即ち姿勢情報である場合)とに分けて説明する。
(6-1)概要
図8は、学習装置1及び追跡装置3が実行する特徴情報IF及び対応情報Icの生成処理に関する概要図を示す。まず、学習装置1が行う処理を前提として説明を行う。
ここで、検出番号を、疑似乱数を基にしてランダムに割り当てられた番号とする場合の処理について補足説明する。この場合、学習装置1は、以下の4つの手順を行う。
手順1.特徴抽出部17は、検出した姿勢情報Ipにある所定の規則(例えば、画像上の原点に近い順)で番号を振る(このときの番号を「仮検出番号」と呼ぶ。)。
手順2.推定結果照合部16は、仮検出番号と追跡IDとの紐付けを行い、追跡紐付情報Irを生成する。
手順3.特徴抽出部17は、ランダムに割り当てた検出番号を生成し、手順1で振った仮検出番号とランダムに割り当てた検出番号との対応情報(「番号対応情報In」とも呼ぶ。)を生成する。この場合、特徴抽出部17は、推論器へ入力する行列である特徴情報IFを、ランダムに割り当てた検出番号を基に情報を配置して作成する。
手順4.学習部18は、追跡紐付情報Irと番号対応情報Inを用いて、ランダムに割り当てた検出番号と追跡IDの紐付けを行い、正解の対応行列を作成する。
次に、特徴情報IFのデータ構造(形式)について説明する。特徴情報IFのデータ構造は、以下に述べる第1形式又は第2形式のいずれであってもよい。なお、学習装置1及び追跡装置3が扱う特徴情報IFの形式は共通であるため、以後では、説明便宜上、「第1画像」と「第2画像」は、第1学習画像と第2学習画像の組、又は、第1撮影画像と第2撮影画像の組のいずれかを示すものとする。
N×M×(TF×K×D)
ここで、「TF」は、対象とする画像の数が第1画像と第2画像の2枚であるため「2」となり、「D」は、画像の次元がx座標とy座標の2次元であるため「2」となる。また、図8では、第1画像での追跡対象の検出数Nは「3」となり、第2画像での追跡対象の検出数Mは「2」となる。また、ここでは、一例として、「N×M」が行列の大きさに対応し、(TF×K×D)がチャンネル方向の大きさに対応するものとする。
N×M×(K×D)
第2形式では,
「N×M」が行列の大きさに対応し、(K×D)がチャンネル方向の大きさに対応する。
次に、推論器が出力する対応行列について具体的に説明する。
次に、学習部18による推論器の学習について説明する。
次に、学習装置1と追跡装置3が夫々実行する処理フローについて説明する。
図15は、学習装置1が実行する推論器の学習に関する処理手順を示すフローチャートの一例である。
図16は、追跡装置3が実行する追跡処理の手順を示すフローチャートの一例である。
第1実施形態における技術的効果について補足説明する。
図17は、第2実施形態に係る学習装置1Xの概略構成を示す。学習装置1Xは、主に、取得手段15Xと、推定結果照合手段16Xと、学習手段18Xとを備える。
[付記1]
時系列に撮影された学習用の画像である第1学習画像及び第2学習画像と、当該第1学習画像及び第2学習画像の各々に含まれる追跡対象の位置又は姿勢に関する追跡対象位置情報と、前記追跡対象の識別情報とが関連付けられた追跡学習データを取得する取得手段と、
前記第1学習画像及び第2学習画像の各々から推定した前記追跡対象の姿勢を示す姿勢情報と、前記追跡対象位置情報とを照合することで、前記姿勢情報に前記識別情報を紐付ける推定結果照合手段と、
前記姿勢情報に基づく情報が入力された場合に、前記第1学習画像と前記第2学習画像とでの前記追跡対象の対応関係を示す対応情報を推論する推論器の学習を、前記姿勢情報と前記識別情報とに基づき行う学習手段と、
を有する学習装置。
[付記2]
前記姿勢情報を、前記時系列の学習画像から検出された前記追跡対象の特徴点毎の位置を示す情報である特徴情報に変換する特徴抽出手段をさらに有し、
前記学習手段は、前記姿勢情報に基づく情報として、前記特徴情報を前記推論器に入力する、付記1に記載の学習装置。
[付記3]
前記特徴抽出手段は、前記第1学習画像での前記追跡対象の検出数と、前記第2学習画像での前記追跡対象の検出数と、前記特徴点の数とに基づく形式の前記特徴情報を生成する、付記2に記載の学習装置。
[付記4]
前記推論器は、畳み込み層を有するニューラルネットワークである、付記1~3のいずれか一項に記載の学習装置。
[付記5]
前記対応情報は、前記第1学習画像での前記追跡対象の各々と前記第2学習画像での前記追跡対象の各々とが対応する確からしさを示す各成分を含む行列を示す、付記1~4のいずれか一項に記載の学習装置。
[付記6]
前記行列は、前記第1学習画像と前記第2学習画像とにおける前記追跡対象の生成又は消滅の確からしさを示す行又は列をさらに有する、付記5に記載の学習装置。
[付記7]
前記学習手段は、前記行列の行又は列ごとの前記各成分の積算値が所定値になるように前記推論器の学習を行う、付記6に記載の学習装置。
[付記8]
前記行列は、前記第1学習画像での前記追跡対象の各々と前記第2学習画像での前記追跡対象の各々とが対応する確からしさを示す各成分を含む第1チャンネルと、前記第1学習画像での前記追跡対象の各々と前記第2学習画像での前記追跡対象の各々とが対応しない確からしさを示す各成分を含む第2チャンネルとを有し、
前記学習手段は、前記各成分のチャンネル方向の積算値が所定値となるように前記推論器の学習を行う、付記5または6に記載の学習装置。
[付記9]
前記追跡対象位置情報は、前記第1学習画像及び前記第2学習画像において前記追跡対象の各々の存在領域を示す情報である、または、前記第1学習画像及び前記第2学習画像において前記追跡対象の各々の特徴点の位置を示す情報である、付記1~8のいずれか一項に記載の学習装置。
[付記10]
前記第1学習画像及び第2学習画像に基づき、前記第1学習画像及び第2学習画像の各々に存在する前記追跡対象の姿勢を推定することで、前記姿勢情報を生成する姿勢推定手段をさらに有する、付記1~9のいずれか一項に記載の学習装置。
時系列に撮影された第1撮影画像及び第2撮影画像を取得する取得手段と、
前記第1撮影画像及び第2撮影画像に基づき、前記第1撮影画像及び第2撮影画像の各々に存在する前記追跡対象の姿勢の推定結果を示す姿勢情報を生成する姿勢推定手段と、
前記姿勢情報と、請求項1~10のいずれか一項に記載の学習装置により学習された推論器とに基づき、前記第1撮影画像と前記第2撮影画像とでの前記追跡対象の対応関係を示す対応情報を生成する対応情報生成手段と、
を有する追跡装置。
[付記12]
前記対応情報に基づき、前記追跡対象に割り当てる識別情報を管理する追跡情報管理手段をさらに有する、付記11に記載の学習装置。
[付記13]
コンピュータにより、
時系列に撮影された学習用の画像である第1学習画像及び第2学習画像と、当該第1学習画像及び第2学習画像の各々に含まれる追跡対象の位置又は姿勢に関する追跡対象位置情報と、前記追跡対象の識別情報とが関連付けられた追跡学習データを取得し、
前記第1学習画像及び第2学習画像の各々から推定した前記追跡対象の姿勢を示す姿勢情報と、前記追跡対象位置情報とを照合することで、前記姿勢情報に前記識別情報を紐付け、
前記姿勢情報に基づく情報が入力された場合に、前記第1学習画像と前記第2学習画像とでの前記追跡対象の対応関係を示す対応情報を推論する推論器の学習を、前記姿勢情報と前記識別情報とに基づき行う、
学習方法。
[付記14]
時系列に撮影された学習用の画像である第1学習画像及び第2学習画像と、当該第1学習画像及び第2学習画像の各々に含まれる追跡対象の位置又は姿勢に関する追跡対象位置情報と、前記追跡対象の識別情報とが関連付けられた追跡学習データを取得し、
前記第1学習画像及び第2学習画像の各々から推定した前記追跡対象の姿勢を示す姿勢情報と、前記追跡対象位置情報とを照合することで、前記姿勢情報に前記識別情報を紐付け、
前記姿勢情報に基づく情報が入力された場合に、前記第1学習画像と前記第2学習画像とでの前記追跡対象の対応関係を示す対応情報を推論する推論器の学習を、前記姿勢情報と前記識別情報とに基づき行う処理をコンピュータに実行させるプログラムを格納する記憶媒体。
[付記15]
コンピュータにより、
時系列に撮影された第1撮影画像及び第2撮影画像を取得し、
前記第1撮影画像及び第2撮影画像に基づき、前記第1撮影画像及び第2撮影画像の各々に存在する前記追跡対象の姿勢の推定結果を示す姿勢情報を生成し、
前記姿勢情報と、付記1~10のいずれか一項に記載の学習装置により学習された推論器とに基づき、前記第1撮影画像と前記第2撮影画像とでの前記追跡対象の対応関係を示す対応情報を生成する、
追跡方法。
[付記16]
時系列に撮影された第1撮影画像及び第2撮影画像を取得し、
前記第1撮影画像及び第2撮影画像に基づき、前記第1撮影画像及び第2撮影画像の各々に存在する前記追跡対象の姿勢の推定結果を示す姿勢情報を生成し、
前記姿勢情報と、付記1~10のいずれか一項に記載の学習装置により学習された推論器とに基づき、前記第1撮影画像と前記第2撮影画像とでの前記追跡対象の対応関係を示す対応情報を生成する処理をコンピュータに実行させるプログラムを格納する記憶媒体。
2 記憶装置
3 追跡装置
4 カメラ
11、31 プロセッサ
12、32 メモリ
13、33 インターフェース
21 追跡学習データ記憶部
22 パラメータ記憶部
23 撮影画像・追跡情報記憶部
100 追跡システム
Claims (10)
- 時系列に撮影された学習用の画像である第1学習画像及び第2学習画像と、当該第1学習画像及び第2学習画像の各々に含まれる追跡対象の位置又は姿勢に関する追跡対象位置情報と、前記追跡対象の識別情報とが関連付けられた追跡学習データを取得する取得手段と、
前記第1学習画像及び第2学習画像の各々から推定した前記追跡対象の姿勢を示す姿勢情報と、前記追跡対象位置情報とを照合することで、前記姿勢情報に前記識別情報を紐付ける推定結果照合手段と、
前記姿勢情報に基づく情報が入力された場合に、前記第1学習画像と前記第2学習画像とでの前記追跡対象の対応関係を示す対応情報を推論する推論器の学習を、前記姿勢情報と前記識別情報とに基づき行う学習手段と、
を有する学習装置。 - 前記姿勢情報を、前記時系列の学習画像から検出された前記追跡対象の特徴点毎の位置を示す情報である特徴情報に変換する特徴抽出手段をさらに有し、
前記学習手段は、前記姿勢情報に基づく情報として、前記特徴情報を前記推論器に入力する、請求項1に記載の学習装置。 - 前記特徴抽出手段は、前記第1学習画像での前記追跡対象の検出数と、前記第2学習画像での前記追跡対象の検出数と、前記特徴点の数とに基づく形式の前記特徴情報を生成する、請求項2に記載の学習装置。
- 前記推論器は、畳み込み層を有するニューラルネットワークである、請求項1~3のいずれか一項に記載の学習装置。
- 前記対応情報は、前記第1学習画像での前記追跡対象の各々と前記第2学習画像での前記追跡対象の各々とが対応する確からしさを示す各成分を含む行列を示す、請求項1~4のいずれか一項に記載の学習装置。
- 前記行列は、前記第1学習画像と前記第2学習画像とにおける前記追跡対象の生成又は消滅の確からしさを示す行又は列をさらに有する、請求項5に記載の学習装置。
- 前記学習手段は、前記行列の行又は列ごとの前記各成分の積算値が所定値になるように前記推論器の学習を行う、請求項6に記載の学習装置。
- 時系列に撮影された第1撮影画像及び第2撮影画像を取得する取得手段と、
前記第1撮影画像及び第2撮影画像に基づき、前記第1撮影画像及び第2撮影画像の各々に存在する追跡対象の姿勢の推定結果を示す姿勢情報を生成する姿勢推定手段と、
前記姿勢情報と、請求項1~7のいずれか一項に記載の学習装置により学習された推論器とに基づき、前記第1撮影画像と前記第2撮影画像とでの前記追跡対象の対応関係を示す対応情報を生成する対応情報生成手段と、
を有する追跡装置。 - コンピュータにより、
時系列に撮影された学習用の画像である第1学習画像及び第2学習画像と、当該第1学習画像及び第2学習画像の各々に含まれる追跡対象の位置又は姿勢に関する追跡対象位置情報と、前記追跡対象の識別情報とが関連付けられた追跡学習データを取得し、
前記第1学習画像及び第2学習画像の各々から推定した前記追跡対象の姿勢を示す姿勢情報と、前記追跡対象位置情報とを照合することで、前記姿勢情報に前記識別情報を紐付け、
前記姿勢情報に基づく情報が入力された場合に、前記第1学習画像と前記第2学習画像とでの前記追跡対象の対応関係を示す対応情報を推論する推論器の学習を、前記姿勢情報と前記識別情報とに基づき行う、
学習方法。 - 時系列に撮影された学習用の画像である第1学習画像及び第2学習画像と、当該第1学習画像及び第2学習画像の各々に含まれる追跡対象の位置又は姿勢に関する追跡対象位置情報と、前記追跡対象の識別情報とが関連付けられた追跡学習データを取得し、
前記第1学習画像及び第2学習画像の各々から推定した前記追跡対象の姿勢を示す姿勢情報と、前記追跡対象位置情報とを照合することで、前記姿勢情報に前記識別情報を紐付け、
前記姿勢情報に基づく情報が入力された場合に、前記第1学習画像と前記第2学習画像とでの前記追跡対象の対応関係を示す対応情報を推論する推論器の学習を、前記姿勢情報と前記識別情報とに基づき行う処理をコンピュータに実行させるプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/032459 WO2022044222A1 (ja) | 2020-08-27 | 2020-08-27 | 学習装置、学習方法、追跡装置及び記憶媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2022044222A1 JPWO2022044222A1 (ja) | 2022-03-03 |
JPWO2022044222A5 JPWO2022044222A5 (ja) | 2023-05-12 |
JP7459949B2 true JP7459949B2 (ja) | 2024-04-02 |
Family
ID=80354923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022545169A Active JP7459949B2 (ja) | 2020-08-27 | 2020-08-27 | 学習装置、学習方法、追跡装置及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230326041A1 (ja) |
JP (1) | JP7459949B2 (ja) |
WO (1) | WO2022044222A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022096379A (ja) * | 2020-12-17 | 2022-06-29 | 富士通株式会社 | 画像出力プログラム,画像出力方法および画像出力装置 |
US20220237414A1 (en) * | 2021-01-26 | 2022-07-28 | Nvidia Corporation | Confidence generation using a neural network |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011102416A1 (ja) | 2010-02-19 | 2011-08-25 | 株式会社 東芝 | 移動物体追跡システムおよび移動物体追跡方法 |
CN107563313A (zh) | 2017-08-18 | 2018-01-09 | 北京航空航天大学 | 基于深度学习的多目标行人检测与跟踪方法 |
JP2018026108A (ja) | 2016-08-08 | 2018-02-15 | パナソニックIpマネジメント株式会社 | 物体追跡方法、物体追跡装置およびプログラム |
-
2020
- 2020-08-27 US US18/021,296 patent/US20230326041A1/en active Pending
- 2020-08-27 WO PCT/JP2020/032459 patent/WO2022044222A1/ja active Application Filing
- 2020-08-27 JP JP2022545169A patent/JP7459949B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011102416A1 (ja) | 2010-02-19 | 2011-08-25 | 株式会社 東芝 | 移動物体追跡システムおよび移動物体追跡方法 |
JP2018026108A (ja) | 2016-08-08 | 2018-02-15 | パナソニックIpマネジメント株式会社 | 物体追跡方法、物体追跡装置およびプログラム |
CN107563313A (zh) | 2017-08-18 | 2018-01-09 | 北京航空航天大学 | 基于深度学习的多目标行人检测与跟踪方法 |
Non-Patent Citations (2)
Title |
---|
HENSCHEL, Roberto et al.,"Multiple People Tracking using Body and Joint Detections",2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW) [online],米国,IEEE,2020年04月09日,pp.770-779,[検索日 2020.11.13], インターネット:<URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9025639&isnumber=9025328>,DOI: 10.1109/CVPRW.2019.00105 |
LEAL-TAIXE, Laura et al.,"Learning by tracking: Siamese CNN for robust target association",arXiv.org [online],arXiv:1604.07866v3,Cornell University,2016年08月,[検索日 2020.11.13], インターネット:<URL: https://arxiv.org/pdf/1604.07866v3> |
Also Published As
Publication number | Publication date |
---|---|
WO2022044222A1 (ja) | 2022-03-03 |
JPWO2022044222A1 (ja) | 2022-03-03 |
US20230326041A1 (en) | 2023-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6832504B2 (ja) | 物体追跡方法、物体追跡装置およびプログラム | |
JP7386545B2 (ja) | 画像中の物体を識別するための方法、及び当該方法を実施するためのモバイル装置 | |
Xiong et al. | Transferable two-stream convolutional neural network for human action recognition | |
JP6614611B2 (ja) | 画像間類似度を考慮して物体を追跡する装置、プログラム及び方法 | |
WO2018228218A1 (zh) | 身份识别方法、计算设备及存储介质 | |
CN109325456B (zh) | 目标识别方法、装置、目标识别设备及存储介质 | |
JP5459674B2 (ja) | 移動物体追跡システムおよび移動物体追跡方法 | |
JP6933164B2 (ja) | 学習用データ作成装置、学習用モデル作成システム、学習用データ作成方法、及びプログラム | |
JP7459949B2 (ja) | 学習装置、学習方法、追跡装置及びプログラム | |
US11048917B2 (en) | Method, electronic device, and computer readable medium for image identification | |
US11410327B2 (en) | Location determination apparatus, location determination method and computer program | |
KR20220076398A (ko) | Ar장치를 위한 객체 인식 처리 장치 및 방법 | |
WO2019033567A1 (zh) | 眼球动作捕捉方法、装置及存储介质 | |
US11836944B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP7065557B2 (ja) | 人物を追跡する映像解析装置、プログラム及び方法 | |
CN113326726A (zh) | 行为识别方法、行为识别设备和计算机可读记录介质 | |
JP6876312B1 (ja) | 学習モデル生成方法、コンピュータプログラム及び情報処理装置 | |
US11836960B2 (en) | Object detection device, object detection method, and program | |
CN113553893A (zh) | 基于深度神经网络的人体跌倒检测方法、装置和电子设备 | |
JP7374632B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2023008030A (ja) | 画像処理システム、画像処理方法及び画像処理プログラム | |
Sandhiyasa et al. | Real Time Face Recognition for Mobile Application Based on Mobilenetv2 | |
JP6763408B2 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
CN111061367B (zh) | 一种自助设备手势鼠标的实现方法 | |
US11645627B2 (en) | Systems and methods for machine learning-informed automated recording of time activities with an automated electronic time recording system or service |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230224 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240304 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7459949 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |