JP2022185872A - 画像処理装置、画像処理方法、撮像装置 - Google Patents

画像処理装置、画像処理方法、撮像装置 Download PDF

Info

Publication number
JP2022185872A
JP2022185872A JP2021093766A JP2021093766A JP2022185872A JP 2022185872 A JP2022185872 A JP 2022185872A JP 2021093766 A JP2021093766 A JP 2021093766A JP 2021093766 A JP2021093766 A JP 2021093766A JP 2022185872 A JP2022185872 A JP 2022185872A
Authority
JP
Japan
Prior art keywords
image
tracking
tracking target
target object
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021093766A
Other languages
English (en)
Inventor
源基 北澤
Motoki Kitazawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021093766A priority Critical patent/JP2022185872A/ja
Priority to US17/829,507 priority patent/US20220392107A1/en
Publication of JP2022185872A publication Critical patent/JP2022185872A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

Figure 2022185872000001
【課題】 追尾対象となる物体と見た目の類似した物体が存在するような場合であっても、追尾対象となる物体とその他の物体を正しく識別して追尾を行うための技術を提供すること。
【解決手段】 それぞれの画像における追尾対象物体の特徴量の画像間における距離と、画像中の追尾対象物体および非追尾対象物体のそれぞれの特徴量間の距離と、1以上の画像における追尾対象物体の画像領域と非追尾対象物体の画像領域との重複率と、に基づく損失を求める。そして、該損失に基づいて、画像から物体の特徴量を抽出するためのモデルの学習を行う。学習済みのモデルに基づき、画像中の追尾対象物体を追尾する追尾処理を行う。
【選択図】 図1

Description

本発明は、画像中の物体を追尾するための技術に関するものである。
画像中の物体を追尾するための技術として、輝度や色情報を利用するものやテンプレートマッチングを利用するもの、Deep Neural Networkを利用するもの等が存在する。Deep Neural Networkを利用する方法の一つにTracking by Detectionと呼ばれる方法がある。この方法では、画像中の物体を検出し、該物体を過去の物体と対応付けることによって追尾を行う。非特許文献1では、この対応付けをMetric Learningによって学習されたNeural Networkから得られた特徴量を用いて行う。Metric Learningとは、類似度が高いデータほど空間上での距離が近く分布するような空間への変換を学習する方法である。
特開2018-026108号公報
Nicolai Wojke、Alex Bewley、Dietrich Paulus:Simple online and realtime tracking with a deep association metric(ICIP2017)
Metric Learningによって学習されたNeural Networkにより、各物体に対応する特徴量を抽出し、それらを過去の特徴量と対応付けることによって追尾を行う方法を考える。そのような方法では、追尾対象となる物体の姿勢が変化したり、遮蔽が発生したりするような場合、追尾対象となる物体と見た目の類似したその他の物体を誤って対応付けしてしまい、追尾が失敗することがある。
本発明では、追尾対象となる物体と見た目の類似した物体が存在するような場合であっても、追尾対象となる物体とその他の物体を正しく識別して追尾を行うための技術を提供する。
本発明の一様態は、それぞれの画像における追尾対象物体の特徴量の画像間における距離と、画像中の追尾対象物体および非追尾対象物体のそれぞれの特徴量間の距離と、1以上の画像における追尾対象物体の画像領域と非追尾対象物体の画像領域との重複率と、に基づく損失を求める計算手段と、前記損失に基づいて、画像から物体の特徴量を抽出するためのモデルの学習を行う学習手段と、前記学習手段により学習済みのモデルに基づき、画像中の追尾対象物体を追尾する追尾処理を行う追尾手段とを備えることを特徴とする。
本発明の構成によれば、追尾対象となる物体と見た目の類似した物体が存在するような場合であっても、追尾対象となる物体とその他の物体を正しく識別して追尾を行うことができる。
学習装置100の機能構成例を示すブロック図。 学習装置100による学習モデルの学習処理のフローチャート。 物体検出用CNNと特徴量抽出用CNNとの関係を示す図。 追尾対象物体の特徴量を取得するための処理を説明する図。 、d,r、mを求めるための処理を説明する図。 特徴量間距離を二次元空間上に示したイメージ図。 追尾装置200の機能構成例を示すブロック図。 追尾装置200による追尾対象物体の追尾処理のフローチャート。 変形例1に係る正解データの構成例を示す図。 変形例2に係る、追尾対象物体および非追尾対象物体の特徴量の取得方法を説明する図。 IoU、IoUの計算方法を示す図。 コンピュータ装置のハードウェア構成例を示すブロック図。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[第1の実施形態]
まず、連続して撮像された画像における追尾対象(追尾対象物体)とその他の物体(非追尾対象物体)とを正しく識別して該追尾対象物体の追尾を行うために用いる学習モデルの学習を行う学習装置としての画像処理装置について説明する。
本実施形態に係る学習装置100の機能構成例を図1のブロック図に示す。図1に示す機能構成例を有する学習装置100による学習モデルの学習処理について、図2のフローチャートに従って説明する。
ステップS101では、取得部110は、第一の画像と、該第一の画像の正解データ(第一の正解データ)と、を取得する。第一の正解データは、第一の画像中の追尾対象物体について予め作成されたものであり(既知)、該第一の画像における該追尾対象物体の画像領域を示す領域情報と、該追尾対象物体に固有のラベルと、を含む。追尾対象物体の画像領域を示す領域情報は、例えば、画像領域が矩形領域である場合には、該矩形領域の中心位置(追尾対象物体の位置)、該矩形領域の幅および高さ、を含む情報である。なお、ここでは、追尾対象物体の画像領域が矩形領域である場合には、該矩形領域の中心位置を追尾対象物体の位置としているが、該矩形領域のどの位置を追尾対象物体の位置としても良い。
また取得部110は、第一の画像に後続して撮像された第二の画像と、該第二の画像の正解データ(第二の正解データ)と、を取得する。第二の正解データは、第一の正解データと同様、第二の画像中の追尾対象物体について予め作成されたものであり(既知)、該第二の画像における該追尾対象物体の画像領域を示す領域情報と、該追尾対象物体に固有のラベルと、を含む。第一の画像と第二の画像とで同じ追尾対象物体には同じラベルが付与されている。
第一の画像および第二の画像のそれぞれは、例えば、動画像における第1フレームの画像、該第1フレームに後続する第2フレームの画像、である。また、例えば、第一の画像および第二の画像のそれぞれは、定期的若しくは不定期的に撮像された複数の静止画像における着目静止画像、該着目静止画像よりも後に撮像された静止画像、である。また、必要に応じて取得した画像の一部分を切り出す等の処理を行ってもよい。
ステップS102では、物体検出部120は、第一の画像を物体検出用の学習モデルである物体検出用CNN(Convolutional Neural Network)に入力して該物体検出用CNNの演算処理を実行する。これにより物体検出部120は、第一の画像中におけるそれぞれの物体について、該物体の画像領域を示す領域情報と、該物体のスコアと、を該物体の検出結果として取得する。物体の画像領域を示す領域情報は、例えば、画像領域が矩形領域である場合には、該矩形領域の中心位置、該矩形領域の幅および高さ、を含む情報である。また、物体のスコアは、値域を0~1とするスコアであり、大きいほど物体らしさが高いことを意味する。画像中から物体を検出する技術としては、“Liu,SSD:Single Shot Multibox Detector:ECCV2016”等が挙げられる。
ステップS103では、特徴量抽出部130は、第一の画像を特徴量抽出用の学習モデルである特徴量抽出用CNNに入力して該特徴量抽出用CNNの演算処理を実行する。これにより特徴量抽出部130は、該第一の画像を縦横等分割した場合における各領域の特徴量を表す特徴量マップ(第一の特徴量マップ)を取得する。そして特徴量抽出部130は、第一の正解データが示す追尾対象物体の画像領域の中心位置に対応する第一の特徴量マップ上の対応位置を特定し、該特定した対応位置における特徴量を「追尾対象物体の特徴量」として取得する。また、特徴量抽出部130は、ステップS102で取得した領域情報が示す画像領域の中心位置に対応する第一の特徴量マップ上の対応位置を特定し、該特定した対応位置における特徴量を「非追尾対象物体の特徴量」として取得する。
同様に、特徴量抽出部130は、第二の画像を特徴量抽出用の学習モデルである特徴量抽出用CNNに入力して該特徴量抽出用CNNの演算処理を実行する。これにより特徴量抽出部130は、該第二の画像を縦横等分割した場合における各領域の特徴量を表す特徴量マップ(第二の特徴量マップ)を取得する。そして特徴量抽出部130は、第二の正解データが示す追尾対象物体の画像領域の中心位置に対応する第二の特徴量マップ上の対応位置を特定し、該特定した対応位置における特徴量を「追尾対象物体の特徴量」として取得する。
ここで、追尾対象物体の特徴量を取得するための処理について、図4を用いて説明する。図4では、横640画素x縦480画素のサイズを有する第一の画像に、該第一の画像を横24個x縦16個の分割領域に分割した場合におけるそれぞれの分割領域の特徴量が登録されているマップである第一の特徴量マップを重ねた状態を示している。第一の特徴量マップは、チャンネル数がC(任意の自然数)の特徴量が(24x16)個登録されたマップである。第一の画像の左上隅の位置を原点(0,0)とするので、第一の画像上の位置(x、y)は0≦x≦639,0≦y≦439の範囲をとり、第一の特徴量マップ上の位置(p、q)(分割領域単位の位置)は0≦p≦23,0≦q≦15の範囲をとる。
位置402は、第一の正解データが示す追尾対象物体の位置(x、y)=(312,276)である。このとき、特徴量抽出部130は、(312x24/640)=11.7を計算し、11.7の小数部を削除した11をpとし、(276x16/480)=9.2を計算し、9.2の小数部を削除した9をqとする。これにより特徴量抽出部130は、第一の画像上の追尾対象物体の位置(312,276)に対応する第一の特徴量マップ上の位置(11,9)を求める。矩形403は、第一の画像上の追尾対象物体の位置(312,276)に対応する第一の特徴量マップ上の位置(11,9)を示す。そして特徴量抽出部130は、位置403における特徴量(位置403における1x1xCの配列要素)を、第一の画像における追尾対象物体の特徴量として取得する。
また特徴量抽出部130は、第二の画像についても同様の処理を行うことで、第二の画像における追尾対象物体の特徴量を取得する。つまり特徴量抽出部130は、第二の正解データが示す追尾対象物体の位置に対応する第二の特徴量マップ上の位置を求め、該求めた位置における特徴量(該求めた位置における1x1xCの配列要素)を第二の画像における追尾対象物体の特徴量として取得する。
なお、ステップS102で取得した領域情報が示す画像領域の中心位置に対応する第二の特徴量マップ上の対応位置を特定する場合も、(x、y)から(p、q)を求める上記の方法を用いて特定する。
ここで、物体検出用CNNと、特徴量抽出用CNNと、の関係について図3を用いて説明する。物体検出用CNNおよび特徴量抽出用CNNはどのような構成で実装しても構わない。例えば、図3(a)に示す如く、物体検出用CNNと特徴量抽出用CNNをそれぞれ別個に設け、それぞれが入力画像(第一の画像、第二の画像)に対して独立して動作するように構成しても良い。また、図3(b)に示す如く、物体検出用CNNと特徴量抽出用CNNとで共通の構成を共有CNNとして設け、物体検出用CNNにおいて共有CNNに含まれない構成を改めて物体検出用CNNとし、特徴量抽出用CNNにおいて共有CNNに含まれない構成を改めて特徴量抽出用CNNとしても良い。この場合、入力画像は共有CNNに入力され、共有CNNが入力画像に対する処理結果を物体検出用CNNおよび特徴量抽出用CNNに入力する。物体検出用CNNは共有CNNから出力された処理結果を入力として動作し、特徴量抽出用CNNは共有CNNから出力された処理結果を入力として動作する。
次に、ステップS104では、損失計算部140は、ステップS103で求めた特徴量を用いて、第一の画像における追尾対象物体の特徴量と、第二の画像における該追尾対象物体の特徴量と、の間のユークリッド距離である特徴量間距離dを求める。また損失計算部140は、ステップS103で求めた特徴量を用いて、第一の画像における追尾対象物体の特徴量と、該第一の画像における非追尾対象物体の特徴量と、の間のユークリッド距離である特徴量間距離dを求める。特徴量間の距離は、それぞれの特徴量が属する特徴量空間におけるそれぞれの特徴量間の距離であり、特徴量間の距離を求める方法については周知であるため、これについての説明は省略する。
次に、ステップS105では、損失計算部140は、損失関数のパラメータを求める。本実施形態では、以下の(式1)で与えられるTriplet lossを損失関数として用いる。
loss=max(rd-d+m,0) … (式1)
この損失関数では、dが大きく、dが小さくなることで損失が発生するため、同一物体に対する特徴量間距離が、異なる物体に対する特徴量間距離よりも小さくなるような特徴量を獲得することができる。
この(式1)において、rとmが損失関数のパラメータであり、rは距離パラメータ、mはマージンパラメータである。rを大きく設定すると同一物体同士の特徴量間距離が小さくなるように学習され、mを大きくすると異なる物体同士の特徴量間距離が遠くなるように学習される。本実施形態では、これらのパラメータを正解データとステップS102で検出した物体の領域を用いて動的に設定することによって、より物体の識別性能が高い特徴量を学習する。
なお、使用する損失関数については、距離学習が行えるものであれば、特定の関数に限らない。例えば、損失関数としてContrastive lossやSoftmax lossを用いても良い。
ここで、d、d,r、mを求めるための処理について、図5に示す具体例を挙げて説明する。図5(a)は第一の画像を示しており、図5(b)は第二の画像を示している。
図5(a)の第一の画像は、追尾対象物体501と、非追尾対象物体502,503と、を含む。矩形506は、第一の正解データによって規定される該追尾対象物体501の画像領域である。矩形507は、ステップS102で検出された非追尾対象物体502の画像領域である。矩形508は、ステップS102で検出された非追尾対象物体503の画像領域である。
図5(b)の第二の画像は、追尾対象物体504と、非追尾対象物体505と、を含む。矩形509は第二の正解データによって規定される該追尾対象物体504の画像領域であり、矩形510はステップS102で検出された非追尾対象物体505の画像領域である。
このような場合、特徴量抽出部130は、第一の正解データが示す「第一の画像における追尾対象物体501の位置」に対応する第一の特徴量マップ上の対応位置における特徴量と、第二の正解データが示す「第二の画像における追尾対象物体504の位置」に対応する第二の特徴量マップ上の対応位置における特徴量と、の間の特徴量間距離dを求める。
また特徴量抽出部130は、非追尾対象物体502,503のうち一方(図5(a)では非追尾対象物体502)を選択物体として選択し、該選択物体についてステップS102で検出された位置に対応する第一の特徴量マップ上の対応位置における特徴量と、第一の正解データが示す「第一の画像における追尾対象物体501の位置」に対応する第一の特徴量マップ上の対応位置における特徴量と、の間の特徴量間距離dを求める。第一の画像中に複数の非追尾対象物体が含まれている場合に、該複数の非追尾対象物体からの選択物体の選択方法については特定の選択方法に限らない。例えば、追尾対象物体の位置に最も近い位置の(最も近接している)非追尾対象物体を選択物体として選択する。
また特徴量抽出部130は、以下の(式2)を用いて距離パラメータrを求め、以下の(式3)を用いてマージンパラメータmを求める。
r=1 … (式2)
m=m+IoU … (式3)
ここで、mは任意の実数である。IoU(Intersection over Union)は、2つの画像領域の面積の重複率である。図5の場合、追尾対象物体501の画像領域506と、選択物体として選択された非追尾対象物体502の画像領域507と、の面積の重複率をIoUとして求める。
ステップS106では、損失計算部140は、上記の処理で得られたd,d,r、mを用いて(式1)を計算することで、損失lossを求める。
図6は、本実施形態に係る上記の方法で損失を計算した際の特徴量間距離を二次元空間上に示したイメージ図である。特徴量601は第一の画像における追尾対象物体の特徴量、特徴量602は第二の画像における追尾対象物体の特徴量である。dは特徴量601と特徴量602との間の特徴量間距離である。特徴量603および特徴量604は、第一の画像における非追尾対象物体の特徴量である。dは特徴量601と特徴量604との間の特徴量間距離、d’は特徴量601と特徴量603との間の特徴量間距離である。また、m、m、IoUは、(式3)に示したマージンパラメータである。
この方法では、第一の画像における追尾対象物体の画像領域と非追尾対象物体の画像領域とで重複が発生していない場合は、特徴量間距離d’が、特徴量間距離dとマージンパラメータmの和より大きくなるように学習される。一方、第一の画像における追尾対象物体の画像領域と非追尾対象物体の画像領域とで重複が発生している場合は、特徴量間距離dが、特徴量間距離dとマージンパラメータmの和より大きくなるように学習される。このため、追尾対象物体の画像領域とのIoUが高い非追尾対象物体、すなわち、追尾対象物体との距離が近く、誤った追尾の切り替わりが発生する危険性が高い非追尾対象物体ほど、特徴量間距離が大きくなるように学習を行うことができる。
なお、損失関数は、追尾対象物体の画像領域とのIoUに基づいてパラメータを変更するものであれば、上記の形式に限定されるものではない。また、損失を計算する際は、第一の画像と第二の画像のセットを複数セット用意し、それぞれのセットについて上記の処理を行ってセットごとの損失を求め、セットごとに求めた損失の平均を最終的な損失としても構わない。
ステップS107では、学習部150は、ステップS106で求めた損失lossを極小化するように特徴量抽出用CNNにおけるパラメータ(重み値など)を更新することで、該特徴量抽出用CNNの学習を行う。なお、学習部150は、特徴量抽出用CNNの学習に加えて、物体検出用CNNの学習を同時に行うようにしても良い。重みなどのパラメータの更新は、例えば誤差逆伝搬法を用いて行うことが考えられる。
次に、上記の学習したCNNを用いて画像における追尾対象物体を追尾するための処理を行う追尾装置としての画像処理装置について説明する。本実施形態に係る追尾装置200の機能構成例を図7のブロック図に示す。図7に示す機能構成例を有する追尾装置200による追尾対象物体の追尾処理について、図8のフローチャートに従って説明する。
ステップS201では、画像取得部210は、1枚の撮像画像を取得する。該1枚の撮像画像は、連続して撮像される撮像画像のうち最近に撮像された撮像画像であり、例えば、動画像における最新のフレームの撮像画像であっても良いし、定期的若しくは不定期的に撮像された静止画像において最近に撮像された静止画像であっても良い。
ステップS202では、物体検出部220は、ステップS201で取得した撮像画像を物体検出用CNNに入力して該物体検出用CNNの演算処理を実行する。これにより物体検出部220は、ステップS201で取得した撮像画像中におけるそれぞれの物体について、該物体の画像領域を示す領域情報と、該物体のスコアと、を該物体の検出結果として取得する。
ステップS203では、特徴量抽出部230は、ステップS201で取得した撮像画像を特徴量抽出用CNNに入力して該特徴量抽出用CNNの演算処理を実行することで、該撮像画像の特徴量マップを取得する。そして特徴量抽出部230は、ステップS202で取得したそれぞれの物体について、該物体の領域情報が示す画像領域の中心位置に対応する特徴量マップ上の対応位置を特定し、該特定した対応位置における特徴量を「該物体の特徴量」として取得する。
そして、ステップS201で取得した撮像画像が、追尾処理を開始してから最初に取得した撮像画像(初期時刻の撮像画像)であれば、処理はステップS204に進む。一方、ステップS201で取得した撮像画像が、追尾処理を開始してから2枚目以降の撮像画像である(初期時刻の撮像画像ではない)場合には、処理はステップS207に進む。
ステップS204では、特徴量保存部240は、ステップS203で取得したそれぞれの物体の特徴量に対して、該物体に固有のID(物体ID)を付与する。例えば、スコアが高い物体から順に、物体ID=1,2,3,…を付与する。
そしてステップS205では(ステップS204からステップS205に進んだ場合)、特徴量保存部240は、ステップS204で物体IDが付与されたそれぞれの物体の特徴量を追尾装置200に保存する。
ステップS207では、特徴量照合部250は、ステップS203で取得したそれぞれの物体の特徴量(現時刻の特徴量)のうち未選択の1つを選択特徴量として選択する。そして特徴量照合部250は、追尾装置200に保存済みの特徴量から、物体ごとに、現時刻に近い順にn(nは自然数)個の特徴量(保存特徴量)を取得する。そして特徴量照合高250は、該取得したそれぞれの保存特徴量と、選択特徴量と、の間の特徴量間距離(特徴量間距離の求め方については上記と同様)を求める。なお、特徴量照合部250は、物体ごとに、該物体について取得したn個の保存特徴量から1つの保存特徴量(例えば、n個の保存特徴量の平均値)を求め、物体ごとの該求めた1つの保存特徴量と、選択特徴量と、の間の特徴量間距離を求めるようにしても良い。
ステップS208では、特徴量照合部250は、ステップS207で求めた特徴量間距離のうち最小の特徴量間距離を特定する。そして特徴量照合部250は、該特定した最小の特徴量間距離に対応する保存特徴量の物体に付与されている物体IDを、選択特徴量の物体に付与する。また特徴量照合部250は、「ステップS207で求めた特徴量間距離のうち最小の特徴量間距離に対応する保存特徴量の物体に付与されている物体ID」が先に他の物体に付与されている場合には、新たな物体IDを発行して選択特徴量の物体に付与する。物体IDは、スコアが高い物体から順に降順とする方法が考えられるが、これに限らない。
このようなステップS207の処理およびステップS208の処理を、ステップS203で取得した全ての物体の特徴量について行うことで、ステップS202で検出した全ての物体に対して物体IDを付与することができる。なお、現時刻の特徴量に物体IDを付与するための上記の処理は一例であり、上記の処理に限定することを意図したものではない。例えば、ハンガリアンアルゴリズムを用いても良い。また、ステップS207およびステップS208では、次のような処理を行うようにしても良い。
ステップS207では、特徴量照合部250は、ステップS203で取得したそれぞれの物体の特徴量(現時刻の特徴量)のうち未選択の1つを選択特徴量として選択する。そして特徴量照合部250は、過去に追尾装置200に保存された物体の特徴量(保存特徴量)と、選択特徴量と、の間の特徴量間距離(特徴量間距離の求め方については上記と同様)を求める。
ステップS208では、特徴量照合部250は、ステップS207で求めた特徴量間距離のうち閾値未満である特徴量間距離を特定する。なお、特徴量照合部250は、閾値未満である特徴量間距離として複数の特徴量間距離を特定した場合には、該特定した複数の特徴量間距離のうち最小の特徴量間距離を特定する。そして特徴量照合部250は、該特定した特徴量間距離に対応する保存特徴量のうち保存タイミングが最近の保存特徴量の物体に付与されている物体IDを、選択特徴量の物体に付与する。また特徴量照合部250は、ステップS207で求めた特徴量間距離のうち閾値未満の特徴量間距離がなかった場合には、新たな物体IDを発行して選択特徴量の物体に付与する。
つまり、現時刻の特徴量において、過去に追尾装置200に保存された着目特徴量との特徴量間距離が閾値未満であれば、現時刻の特徴量の物体と、着目特徴量の物体と、を対応づけるべく、現時刻の特徴量に、着目特徴量の物体の物体IDを付与する。
そしてステップS205では(ステップS208からステップS205に進んだ場合)、特徴量保存部240は、ステップS208で物体IDが付与されたそれぞれの物体の特徴量を追尾装置200に保存する。
また特徴量照合部250は、ステップS205で追尾装置200に保存した物体IDと、該物体IDを付与した物体の画像領域と、を追尾結果として出力する。追尾結果は、追尾装置200若しくはその他の装置が、追尾結果に含まれる物体の画像領域を示す枠を撮像画像に重ねて該物体の物体IDと共に表示しても良いし、外部の装置に対して送信しても良い。なお、上記の図8のフローチャートに従った処理は、追尾処理を行う撮像画像ごとに行われる。
このように、本実施形態では、撮像画像中における追尾対象物体との距離が近く、誤った追尾の切り替わりが発生する危険性の高い非追尾対象物体ほど、特徴量間距離が大きくなるように学習を行う。これにより、より物体の識別性能が高い特徴量を獲得することができ、見た目の類似した物体が存在する場合でも、高い精度で追尾を行うことができる。
<変形例1>
本変形例では、画像中のそれぞれの物体(追尾対象物体および/または非追尾対象物体)に対して正解データが付与されているケースについて説明する。本変形例に係る正解データについて図9を用いて説明する
図9(a)は、図9(b)の画像中の物体901,902,903のそれぞれの画像領域904,905,906の中心位置(水平位置座標、垂直位置座標)、幅、高さ、ラベルが登録されたテーブルとしての正解データの構成例を示している。なお、第一の画像、第二の画像にはそれぞれ同一のラベルを付与された物体が少なくとも1つ存在するものとする。
損失計算部140において損失を計算する際は、あるラベルが付与された物体を追尾対象物体、それ以外のラベルが付与された物体を非追尾対象物体とみなす。また、上記の計算を別のラベルが付与された物体についても行い、それらの平均を取ることで最終的な損失を決定してもよい。
<変形例2>
本変形例では、特徴量抽出部130による追尾対象物体および非追尾対象物体の特徴量の取得方法について、図10を例にとり説明する。画像1001において領域1002は、正解データが示す追尾対象物体の画像領域であり、領域1003および領域1004は、物体検出部120によって検出された非追尾対象物体の画像領域である。画像1005は領域1002内の画像であり、画像1006は領域1003内の画像であり、画像1007は領域1004内の画像である。
特徴量抽出部130は、画像1005~1007を規定の画像サイズ(ここでは32画素x32画素)の画像に変換する(リサイズなど)。つまり特徴量抽出部130は、画像1005を32画素x32画素の画像1008に変換し、画像1006を32画素x32画素の画像1009に変換し、画像1007を32画素x32画素の画像1010に変換する。
そして特徴量抽出部130は、画像1008を特徴量抽出用CNNに入力して該特徴量抽出用CNNの演算処理を実行することで、該画像1008に対応する物体の特徴量を取得する。また特徴量抽出部130は、画像1009を特徴量抽出用CNNに入力して該特徴量抽出用CNNの演算処理を実行することで、該画像1009に対応する物体の特徴量を取得する。また特徴量抽出部130は、画像1010を特徴量抽出用CNNに入力して該特徴量抽出用CNNの演算処理を実行することで、該画像1010に対応する物体の特徴量を取得する。物体の特徴量は、任意の次元数のベクトルとして取得することが考えられる。
このような処理を第一の画像および第二の画像について行うことでそれぞれの画像における物体の特徴量を取得することができるので、以降は第1の実施形態と同様の処理を行えば良い。
<変形例3>
本変形例では、上記の距離パラメータrおよびマージンパラメータmをそれぞれ(式4)、(式5)に従って求める。
r=1+IoU・IoU (式4)
m=m (式5)
ここで、mは任意の正の実数である。IoU、IoUの計算方法について、図11を用いて説明する。図11(a)は第一の画像を示しており、(b)は第二の画像を示している。
図11(a)に示す如く、第一の画像には、追尾対象物体1101および非追尾対象物体1102(第一の画像に複数の非追尾対象物体が含まれている場合には、追尾対象物体1101に最も近接している非追尾対象物体)が含まれている。IoUは、追尾対象物体1101の画像領域1105と、非追尾対象物体1102の画像領域1106とのIoUである。
また、図11(b)に示す如く、第二の画像には、追尾対象物体1103および非追尾対象物体1104(第二の画像に複数の非追尾対象物体が含まれている場合には、追尾対象物体1103に最も近接している非追尾対象物体)が含まれている。IoUは、追尾対象物体1103の画像領域1107と、非追尾対象物体1104の画像領域1108とのIoUである。
つまり、第一の画像および第二の画像の両方で追尾対象物体の画像領域と重複部分を有する非追尾対象物体が存在する場合、rが1より大きな値を取る。この方法で損失を計算することにより、追尾対象物体に接近する非追尾対象物体が存在する場合に、特徴量間距離が小さくなるように学習を行うことができる。これにより、追尾対象物体が他の物体に遮蔽された、または他の物体を遮蔽した場合にも、頑健に追尾対象物体を識別する特徴量を獲得することができる。
なお、損失関数は、第一の画像および第二の画像の両方で追尾対象物体の画像領域と重複部分を有する非追尾対象物体が存在する場合にパラメータを変更するものであれば、上記の形式に限定されるものではない。
<変形例4>
本変形例では、損失を計算する際、第一の画像と第二の画像のセットを複数セット用意し、それぞれのセットについて上記の処理を行ってセットごとの損失を求め、セットごとに求めた損失を該セットに対応する非追尾対象物体のスコアに応じて重み付けしたものの総和を、最終的な損失とする。本変形例では損失lossを以下の(式6)に従って求める。
Figure 2022185872000002
ここで、Nは上記のセットの総数、lossはi番目のセットについて求めた損失である。また、pは、i番目のセットについて(式1)のdを求める際に選択した非追尾対象物体のスコアである。この方法で損失を計算すると、スコアの高い非追尾対象物体、すなわち誤った追尾の切り替わりが発生する危険性の高い物体の損失に対する寄与が大きくなる。これにより、追尾の性能に重要な事例を重視して学習することができ、効率的な学習を行うことが可能となる。尚、損失の重み付けは、スコアによって変更されるものであれば、上記の形式に限定されるものではない。
<変形例5>
本変形例では、損失関数としてContrastive lossを用いる。Contrastive lossは以下の(式7)で表される。
Figure 2022185872000003
ここで、dは2つの物体に対応する特徴量の特徴量間距離であり、yは2つの物体が同一物体である場合に1、異なる物体である場合に0となる。この損失関数では、2つの物体が同一物体である場合にはdが小さく、異なる物体である場合にはdが大きくなるように学習される。また、rとmはそれぞれ距離パラメータとマージンパラメータであり、第1の実施形態と同様に、rを大きく設定すると同一物体同士の特徴量間距離が小さくなるように学習され、mを大きくすると異なる物体同士の特徴量間距離が遠くなるように学習される。パラメータを設定する際は、例えば、第1の実施形態と同様に(式2)および(式3)を用いることができる。
<変形例6>
第1の実施形態では、学習モデルとしてCNNを用いた。しかし、学習モデルに適用可能なモデルはCNNに限らず、他のモデル(例えば機械学習モデル)を用いても構わない。
第1の実施形態やその変形例では、それぞれの画像における追尾対象物体の特徴量の画像間における距離と、画像中の追尾対象物体および非追尾対象物体のそれぞれの特徴量間の距離と、1以上の画像における追尾対象物体の画像領域と非追尾対象物体の画像領域との重複率と、に基づく損失の求め方の一例を説明した。しかし、これらの情報を用いて損失を求める方法は上記の方法に限らない。
また、第1の実施形態では、学習装置100と追尾装置200とを別個の画像処理装置として説明したが、1つの画像処理装置に納めても良い。つまり、学習装置100が行うものとして説明した処理と、追尾装置200が行うものとして説明した処理と、の両方を1つの画像処理装置が行うようにしても良い。このような場合、例えば、動画像を撮像する、もしくは定期的若しくは不定期的に静止画像を撮像する撮像部と、学習装置100が行うものとして説明した処理と追尾装置200が行うものとして説明した処理との両方を実行可能な画像処理装置と、を搭載した撮像装置を構成することができる。このような撮像装置では、自身が撮像した撮像画像を用いて学習装置100の動作(物体検出用CNNや特徴量抽出用CNNの学習)を実行することができる。そして撮像装置は、該動作後に自身が撮像した撮像画像における物体の追跡処理を、学習済みの物体検出用CNNや特徴量抽出用CNNを用いて実行することができる。
また、第1の実施形態では、特徴量間距離としてユークリッド距離を用いたが、特徴量間距離をどのような計算で求めても良く、特定の計算方法に限らない(どのような種類の距離を特徴量間距離として採用しても良い)。
[第2の実施形態]
図1や図7に示した各機能部はハードウェアで実装しても良いし、ソフトウェア(コンピュータプログラム)で実装しても良い。後者の場合、このようなコンピュータプログラムを実行可能なコンピュータ装置は、上記の学習装置100や追尾装置200に適用可能である。学習装置100や追尾装置200に適用可能なコンピュータ装置のハードウェア構成例について、図12のブロック図を用いて説明する。
CPU1201は、RAM1202やROM1203に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU1201は、コンピュータ装置全体の動作制御を行うと共に、学習装置100や追尾装置200が行うものとして説明した各種の処理を実行もしくは制御する。
RAM1202は、ROM1203や外部記憶装置1206からロードされたコンピュータプログラムやデータを格納するためのエリアを有する。また、RAM1202は、I/F1207を介して外部から受信したデータを格納するためのエリアを有する。またRAM1202は、CPU1201が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM1202は、各種のエリアを適宜提供することができる。
ROM1203には、コンピュータ装置の設定データ、コンピュータ装置の起動に係るコンピュータプログラムやデータ、コンピュータ装置の基本動作に係るコンピュータプログラムやデータ、などが格納されている。
操作部1204は、キーボード、マウス、タッチパネルなどのユーザインターフェースであり、ユーザが操作することで各種の指示をCPU1201に対して入力することができる。
表示部1205は、液晶画面やタッチパネル画面を有し、CPU1201による処理結果を画像や文字などでもって表示することができる。例えば、表示部1205には、上記の追尾処理の結果を表示することができる。また、表示部1205は、画像や文字を投影するプロジェクタなどの投影装置であっても良い。
外部記憶装置1206は、ハードディスクドライブなどの大容量情報記憶装置である。外部記憶装置1206には、OS(オペレーティングシステム)や、学習装置100や追尾装置200が行うものとして説明した各種の処理をCPU1201に実行もしくは制御させるためのコンピュータプログラムやデータが保存されている。外部記憶装置1206に保存されているデータには、学習装置100や追尾装置200に保存されているものとして説明したデータ、上記の説明において既知のデータとして取り扱ったデータ、CNNに係るデータ、などが含まれている。外部記憶装置1206に保存されているコンピュータプログラムやデータは、CPU1201による制御に従って適宜RAM1202にロードされ、CPU1201による処理対象となる。
I/F1207は、外部の装置との間のデータ通信を行うための通信インターフェースである。例えば、I/F1207は、動画像や静止画像を撮像可能な撮像装置、動画像や静止画像を保持しているサーバ装置、またはこれらの装置が接続されているネットワーク、などに接続することができる。この場合、撮像装置が撮像した動画像や静止画像、サーバ装置から供給された動画像や静止画像は、I/F1207を介してコンピュータ装置に供給され、該供給された動画像や静止画像は、RAM1202や外部記憶装置1206に格納される。
CPU1201、RAM1202、ROM1203、操作部1204、表示部1205、外部記憶装置1206、I/F1207はいずれも、システムバス1208に接続されている。
なお、図12に示したハードウェア構成は、学習装置100や追尾装置200に適用可能なコンピュータ装置のハードウェア構成の一例であり、適宜変形/変更が可能である。
また、上記の各実施形態や各変形例で使用した数値、処理タイミング、処理順、処理の主体、データ(情報)の送信先/送信元/格納場所などは、具体的な説明を行うために一例として挙げたもので、このような一例に限定することを意図したものではない。
また、以上説明した各実施形態や各変形例の一部若しくは全部を適宜組み合わせて使用しても構わない。また、以上説明した各実施形態や各変形例の一部若しくは全部を選択的に使用しても構わない。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
100:学習装置 110:取得部 120:物体検出部 130:特徴量抽出部 140:損失計算部 150:学習部

Claims (11)

  1. それぞれの画像における追尾対象物体の特徴量の画像間における距離と、画像中の追尾対象物体および非追尾対象物体のそれぞれの特徴量間の距離と、1以上の画像における追尾対象物体の画像領域と非追尾対象物体の画像領域との重複率と、に基づく損失を求める計算手段と、
    前記損失に基づいて、画像から物体の特徴量を抽出するためのモデルの学習を行う学習手段と、
    前記学習手段により学習済みのモデルに基づき、画像中の追尾対象物体を追尾する追尾処理を行う追尾手段と
    を備えることを特徴とする画像処理装置。
  2. 前記計算手段は、
    第一の画像中の追尾対象物体および非追尾対象物体の特徴量を、該第一の画像を入力した前記モデルの演算の結果である特徴量マップから取得し、該第一の画像に後続する第二の画像中の追尾対象物体の特徴量を、該第二の画像を入力した前記モデルの演算の結果である特徴量マップから取得する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記計算手段は、
    第一の画像中の物体の画像領域をリサイズし、該リサイズした画像領域を入力した前記モデルの演算の結果を、該第一の画像中の物体の特徴量として取得し、該第一の画像に後続する第二の画像中の物体の画像領域の画像領域をリサイズし、該リサイズした画像領域を入力した前記モデルの演算の結果を、該第二の画像中の物体の特徴量として取得する
    ことを特徴とする請求項1に記載の画像処理装置。
  4. 前記計算手段は、それぞれの画像における追尾対象物体の特徴量の画像間における距離と、画像中の追尾対象物体および非追尾対象物体のそれぞれの特徴量間の距離と、画像における追尾対象物体の画像領域と非追尾対象物体の画像領域との重複率と、に基づく損失を求めることを特徴とする請求項1ないし3のいずれか1項に記載の画像処理装置。
  5. 前記計算手段は、それぞれの画像における追尾対象物体の特徴量の画像間における距離と、画像中の追尾対象物体および非追尾対象物体のそれぞれの特徴量間の距離と、第一の画像における追尾対象物体の画像領域と非追尾対象物体の画像領域との重複率と、該第一の画像に後続する第二の画像における追尾対象物体の画像領域と非追尾対象物体の画像領域との重複率と、に基づく損失を求めることを特徴とする請求項1ないし3のいずれか1項に記載の画像処理装置。
  6. 前記計算手段は、画像のセットごとに前記損失を求め、画像のセットごとに求めた損失を、前記非追尾対象物体の検出において得られる、物体らしさを示すスコアに応じて重み付けした総和を、最終的な損失として求め、
    前記学習手段は、前記最終的な損失に基づいて前記モデルの学習を行う
    ことを特徴とする請求項1ないし5のいずれか1項に記載の画像処理装置。
  7. 前記計算手段は、画像のセットごとに前記損失を求め、画像のセットごとに求めた損失の平均を最終的な損失として求め、
    前記学習手段は、前記最終的な損失に基づいて前記モデルの学習を行う
    ことを特徴とする請求項1ないし5のいずれか1項に記載の画像処理装置。
  8. 前記第一の画像における非追尾対象物体は、該第一の画像中で追尾対象物体に最も近接している非追尾対象物体であることを特徴とする請求項2または3に記載の画像処理装置。
  9. 画像を撮像する撮像部と、
    請求項1ないし8のいずれか1項に記載の画像処理装置と
    を備えることを特徴とする撮像装置。
  10. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の計算手段が、それぞれの画像における追尾対象物体の特徴量の画像間における距離と、画像中の追尾対象物体および非追尾対象物体のそれぞれの特徴量間の距離と、1以上の画像における追尾対象物体の画像領域と非追尾対象物体の画像領域との重複率と、に基づく損失を求める計算工程と、
    前記画像処理装置の学習手段が、前記損失に基づいて、画像から物体の特徴量を抽出するためのモデルの学習を行う学習工程と、
    前記画像処理装置の追尾手段が、前記学習工程で学習済みのモデルに基づき、画像中の追尾対象物体を追尾する追尾処理を行う追尾工程と
    を備えることを特徴とする画像処理方法。
  11. コンピュータを、請求項1ないし8のいずれか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2021093766A 2021-06-03 2021-06-03 画像処理装置、画像処理方法、撮像装置 Pending JP2022185872A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021093766A JP2022185872A (ja) 2021-06-03 2021-06-03 画像処理装置、画像処理方法、撮像装置
US17/829,507 US20220392107A1 (en) 2021-06-03 2022-06-01 Image processing apparatus, image processing method, image capturing apparatus, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021093766A JP2022185872A (ja) 2021-06-03 2021-06-03 画像処理装置、画像処理方法、撮像装置

Publications (1)

Publication Number Publication Date
JP2022185872A true JP2022185872A (ja) 2022-12-15

Family

ID=84284235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021093766A Pending JP2022185872A (ja) 2021-06-03 2021-06-03 画像処理装置、画像処理方法、撮像装置

Country Status (2)

Country Link
US (1) US20220392107A1 (ja)
JP (1) JP2022185872A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220020700A (ko) * 2020-08-12 2022-02-21 현대자동차주식회사 객체의 추적 제어 장치 및 그 방법

Also Published As

Publication number Publication date
US20220392107A1 (en) 2022-12-08

Similar Documents

Publication Publication Date Title
CN110232311B (zh) 手部图像的分割方法、装置及计算机设备
US11120254B2 (en) Methods and apparatuses for determining hand three-dimensional data
US6774889B1 (en) System and method for transforming an ordinary computer monitor screen into a touch screen
EP3514724A1 (en) Depth map-based heuristic finger detection method
CN111696130A (zh) 目标跟踪方法、目标跟踪装置及计算机可读存储介质
CN114138121B (zh) 用户手势识别方法、装置、系统、存储介质及计算设备
JP2013215549A (ja) 画像処理装置、画像処理プログラムおよび画像処理方法
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
JP2022542199A (ja) キーポイントの検出方法、装置、電子機器および記憶媒体
CN104765440B (zh) 手检测方法和设备
JP2020154773A (ja) 画像処理装置、画像処理方法及び画像処理システム
CN113608663A (zh) 一种基于深度学习和k-曲率法的指尖跟踪方法
CN114170407B (zh) 输入设备的模型映射方法、装置、设备和存储介质
TW202201275A (zh) 手部作業動作評分裝置、方法及電腦可讀取存儲介質
JP2022185872A (ja) 画像処理装置、画像処理方法、撮像装置
JP5365408B2 (ja) 移動体認識装置、移動体認識方法及びプログラム
CN111798422A (zh) 棋盘格角点识别方法、装置、设备及存储介质
CN114581535B (zh) 图像中用户骨关键点标注方法、装置、存储介质及设备
CN111368674B (zh) 图像识别方法及装置
CN114202804A (zh) 行为动作识别方法、装置、处理设备及存储介质
JP5051671B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN114565777A (zh) 数据处理方法和装置
JP6350331B2 (ja) 追尾装置、追尾方法及び追尾プログラム
US11610385B2 (en) Information processing apparatus, control method, and non-transitory storage medium
JP3487494B2 (ja) メニュー選択方法及び装置