JP2021086322A - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP2021086322A JP2021086322A JP2019213738A JP2019213738A JP2021086322A JP 2021086322 A JP2021086322 A JP 2021086322A JP 2019213738 A JP2019213738 A JP 2019213738A JP 2019213738 A JP2019213738 A JP 2019213738A JP 2021086322 A JP2021086322 A JP 2021086322A
- Authority
- JP
- Japan
- Prior art keywords
- joint
- score
- learning model
- information processing
- belonging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims 3
- 238000012545 processing Methods 0.000 title description 19
- 230000010365 information processing Effects 0.000 claims abstract description 39
- 230000006870 function Effects 0.000 claims abstract description 23
- 230000008878 coupling Effects 0.000 claims description 11
- 238000010168 coupling process Methods 0.000 claims description 11
- 238000005859 coupling reaction Methods 0.000 claims description 11
- 210000001503 joint Anatomy 0.000 description 83
- 238000000034 method Methods 0.000 description 42
- 210000003739 neck Anatomy 0.000 description 21
- 230000008569 process Effects 0.000 description 19
- 238000013527 convolutional neural network Methods 0.000 description 16
- 238000011156 evaluation Methods 0.000 description 12
- 210000003127 knee Anatomy 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 210000003423 ankle Anatomy 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 210000004705 lumbosacral region Anatomy 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 210000002414 leg Anatomy 0.000 description 3
- 230000001936 parietal effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 210000004744 fore-foot Anatomy 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000000544 articulatio talocruralis Anatomy 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Abstract
Description
第1の物体と他の物体とを含む複数の物体が撮像された画像データにおける前記物体の位置を推定する情報処理装置であって、
前記画像データにおいて前記物体に属する関節の位置を示す位置情報と、前記関節がどの物体に属するかを示す情報とを取得する取得手段と、
前記画像データを入力すると、前記第1の物体に属する関節の位置に対応するスコアと前記他の物体に属する関節の位置に対応するスコアとで異なるスコアを出力するように学習をする学習モデルが出力するスコアに基づいて、前記取得された位置情報によって示された関節同士を結んだ線がどの物体に属するかを推定する推定手段と、を有し、
前記学習モデルは、前記画像データにおける前記第1の物体に属する関節の位置を参照して、前記学習モデルが出力した、前記第1の物体に属する関節に対応する前記スコアと前記他の物体に属する関節に対応する前記スコアとの差が、閾値より大きい場合よりも前記差が閾値より小さい場合に、大きい損失値を出力する損失関数を用いて、前記損失値が小さくなっていくように前記学習モデルを構成する層間の結合重み付け係数を更新して学習されることを特徴とする。
本発明の実施形態に係る画像処理装置を、図面を参照しながら説明する。なお、図面間で符号の同じものは同じ動作をするとして重ねての説明を省く。また、この実施の形態に掲載されている構成要素はあくまで例示であり、この発明の範囲をそれらのみに限定する趣旨のものではない。
本実施形態について、まず、学習済みモデルを用いた実行フェーズを説明し、次に、学習済みモデルの学習フェーズを説明する。実行フェーズでは、関節位置毎に、その関節(と他の関節を結んだ線)が属する物体を示すスコアを対応付けたスコアマップを出力する学習済みモデルを用いて、画像に映った物体の識別処理を行う例を述べる。スコアマップは、同じ種類の物体でも、物体毎に異なる(分散が大きい)スコアを算出する。学習済みモデルは、異なる物体に属する関節位置に対して分散の大きいスコアを出力するように学習済みである。ここでは、関節位置に対応付いたスコアを用いて、人物の関節と関節を結ぶ線上にスコアを推論する。そして、複数の人物が映った画像から特定の人物を同定する処理について説明する。
f(x)=x 式(1−3)
次に、物体が撮像された画像を入力すると、物体の関節と関節を結ぶ線上に対して異なる物体を識別するためのスコアを含むスコアマップを出力する学習モデルの生成する処理について説明する。まず、ある物体に属する関節とその物体と他の物体に属する関節とを識別するために、画像内の位置情報に基づいて1つの物体に対応する関節群を特定する。そして、スコアマップに基づいて、ある物体に属する関節群に対応するスコアと、他の物体に属する関節群に対応するスコアとの差を比較する。損失計算部における損失関数は、差が所定の値より大きい場合は小さい損失値を、差が所定の値より小さい場合は大きい損失値を出力する。スコアの差が大きければ大きいほど、ゼロに近づくような小さな損失値を出力する。その決定された損失値が所定の値より大きい場合、学習が十分に進んでいないため、学習モデルのパラメータ(学習モデルを構成する層間の結合重み付け係数)を更新する。また、同一物体におけるスコアについて、損失関数は、ある物体に属する関節群に対応するスコアの分散が所定の値より大きい場合はスコアに対する損失を大きく、所定の値より小さい場合はスコアに対する損失が小さくなるように損失値を出力する。その決定された損失値が所定の値より大きい場合、学習が十分に進んでいないため、学習モデルのパラメータを更新する。これらの損失関数から出力した損失値の合計が所定の値より小さくなるまで学習を行う。
Loss=γLossposition+θLossid 式(1−8)
実施形態1における式(1−4)のかわりに、式(3−1)のようにしてスコアを求める。
本実施形態では、実施形態1と同様に、画像から関節位置と、関節が属する人物を推定する。実施形態1では、関節が属する人物を決定するため、推定されたスコアに基づいてスコアを式(1−4)に基づいて決定した。本実施形態では、推定されたスコアと、関節と関節の空間的位置関係も利用して関節が属する人物を決定する。ここで説明する損失関数は、第1の物体と第2の物体との距離に基づいて、損失値を出力する。具体的には、式(2−1)に基づいて、スコアを計算する。式(2−1)中のixおよびiyは、関節iのx座標とy座標をそれぞれ示し、i’xおよびi’yは、関節i’のx座標とy座標をそれぞれ示している。また、WスコアとWpоsitiоnは、それぞれの項に対して経験的に決められるパラメータである。式(2−1)は、式(1−4)に関節と関節の距離に関する項を加えている。つまり、関節と関節の位置が近ければスコアは小さくなり(同一人物である可能性が上がり)、関節と関節の位置が離れていればスコアは大きくなる(同一人物である可能性が下がる)。関節と関節の位置関係は、たいていの場合、異なる人物同士の関節同士よりも、同一人物の関節同士のほうが距離的に近い位置にあることを利用している。このようにスコアを計算することにより、空間的に遠く離れた人物同士の関節はスコアが大きくなる。このため、推定されたスコアが二つの関節間で類似していたとしても、同一人物だと判定し難くなり、ロバスト性が向上する。
本実施形態では、実施形態1において説明した、関節位置推定を、バラ積み部品の自動ロボットピッキングに応用する例を示す。なお、ハードウェア構成は、図1で示した実施形態1と同様の構成でよい。
本実施形態では、実施形態1において説明した、関節位置推定を、スポーツシーンの映像自動解析に応用する例を示す。なお、ハードウェア構成は、図1で示した実施形態1と同様の構成でよい。
101 画像取得部
102 推定部
104 特定部
105 記憶部
106 認識部
Claims (10)
- 第1の物体と他の物体とを含む複数の物体が撮像された画像データにおける前記物体の位置を推定する情報処理装置であって、
前記画像データにおいて前記物体に属する関節の位置を示す位置情報と、前記関節がどの物体に属するかを示す情報とを取得する取得手段と、
前記画像データを入力すると、前記第1の物体に属する関節の位置に対応するスコアと前記他の物体に属する関節の位置に対応するスコアとで異なるスコアを出力するように学習をする学習モデルが出力するスコアに基づいて、前記取得された位置情報によって示された関節同士を結んだ線がどの物体に属するかを推定する推定手段と、を有し、
前記学習モデルは、前記画像データにおける前記第1の物体に属する関節の位置を参照して、前記学習モデルが出力した、前記第1の物体に属する関節に対応する前記スコアと前記他の物体に属する関節に対応する前記スコアとの差が、閾値より大きい場合よりも前記差が閾値より小さい場合に、大きい損失値を出力する損失関数を用いて、前記損失値が小さくなっていくように前記学習モデルを構成する層間の結合重み付け係数を更新して学習されることを特徴とする情報処理装置。 - 前記学習モデルは、同じ物体における前記スコアについて、前記第1の物体に属する関節群に対応する前記スコアの分散が、閾値より小さい場合よりも前記差が閾値より大きい場合に、大きい損失値を出力するが損失関数を用いて、前記損失値が小さくなっていくように前記学習モデルを構成する層間の結合重み付け係数を更新して学習されることを特徴とする請求項1に記載の情報処理装置。
- 前記損失値が収束しない場合に、前記学習モデルのパラメータを更新することで学習する学習手段を更に有することを特徴とする請求項1または2に記載の情報処理装置。
- 前記学習モデルは、前記第1の物体と前記他の物体との距離に基づいて前記損失値を出力する損失関数を用いて、前記損失値が小さくなっていくように前記学習モデルを構成する層間の結合重み付け係数を更新して学習されることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
- 前記学習モデルは、前記第1の物体と前記第2の物体との距離が閾値より大きい場合よりも前記距離が閾値より小さい場合に、大きい損失値を出力する損失関数を用いて、前記損失値が小さくなっていくように前記学習モデルを構成する層間の結合重み付け係数を更新して学習されることを特徴とする請求項4に記載の情報処理装置。
- 前記位置情報は、前記画像データにおいて関節の種類毎に前記物体に属する関節の位置と、異なる種類の関節同士の位置関係とを示し、
前記学習モデルは、前記位置情報に基づいて、同じの物体に属する関節の位置に対応づけられた前記スコアの分散が小さくなるように学習されることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。 - 前記位置情報が示す関節の位置について、前記学習モデルによって推定された前記スコアを用いて、前記位置情報が示す関節の位置に対応づけられた前記スコアと他の関節の位置に対応づけられた前記スコアとを比較することによって、前記物体に属する関節を特定する特定手段を更に有することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
- 前記特定された物体に属する関節の位置に基づいて前記物体の姿勢を認識する認識手段を更に有することを特徴とする請求項7に記載の情報処理装置。
- コンピュータを、請求項1乃至8のいずれか1項に記載の情報処理装置が有する各手段として機能させるためのプログラム。
- 第1の物体と他の物体とを含む複数の物体が撮像された画像データにおける前記物体の位置を推定する情報処理方法であって、
前記画像データにおいて前記物体に属する関節の位置を示す位置情報と、前記関節がどの物体に属するかを示す情報とを取得する取得工程と、
前記画像データを入力すると、前記第1の物体に属する関節の位置に対応するスコアと前記他の物体に属する関節の位置に対応するスコアとで異なるスコアを出力するように学習をする学習モデルが出力するスコアに基づいて、前記取得された位置情報によって示された関節同士を結んだ線がどの物体に属するかを推定する推定工程と、を有し、
前記学習モデルは、前記画像データにおける前記第1の物体に属する関節の位置を参照して、前記学習モデルが出力した、前記第1の物体に属する関節に対応する前記スコアと前記他の物体に属する関節に対応する前記スコアとの差が、閾値より大きい場合よりも前記差が閾値より小さい場合に、大きい損失値を出力する損失関数を用いて、前記損失値が小さくなっていくように前記学習モデルを構成する層間の結合重み付け係数を更新して学習されることを特徴とする情報処理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019213738A JP7422456B2 (ja) | 2019-11-26 | 2019-11-26 | 画像処理装置、画像処理方法及びプログラム |
US17/095,413 US11836944B2 (en) | 2019-11-26 | 2020-11-11 | Information processing apparatus, information processing method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019213738A JP7422456B2 (ja) | 2019-11-26 | 2019-11-26 | 画像処理装置、画像処理方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021086322A true JP2021086322A (ja) | 2021-06-03 |
JP2021086322A5 JP2021086322A5 (ja) | 2022-10-27 |
JP7422456B2 JP7422456B2 (ja) | 2024-01-26 |
Family
ID=75974180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019213738A Active JP7422456B2 (ja) | 2019-11-26 | 2019-11-26 | 画像処理装置、画像処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11836944B2 (ja) |
JP (1) | JP7422456B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023188908A1 (ja) * | 2022-03-31 | 2023-10-05 | 株式会社アイシン | 物体特徴点検出装置 |
JP7455889B2 (ja) | 2022-04-08 | 2024-03-26 | 楽天グループ株式会社 | 画像評価装置、画像処理システム、ユーザ端末、画像評価方法、および画像評価プログラム |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021103347A (ja) * | 2019-12-24 | 2021-07-15 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2023228304A1 (en) * | 2022-05-25 | 2023-11-30 | Nec Corporation | Key-point associating apparatus, key-point associating method, and non-transitory computer-readable storage medium |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018013999A (ja) | 2016-07-21 | 2018-01-25 | 日本電信電話株式会社 | 姿勢推定装置、方法、及びプログラム |
JP6525179B1 (ja) | 2018-04-11 | 2019-06-05 | 株式会社アジラ | 行動推定装置 |
-
2019
- 2019-11-26 JP JP2019213738A patent/JP7422456B2/ja active Active
-
2020
- 2020-11-11 US US17/095,413 patent/US11836944B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023188908A1 (ja) * | 2022-03-31 | 2023-10-05 | 株式会社アイシン | 物体特徴点検出装置 |
JP7455889B2 (ja) | 2022-04-08 | 2024-03-26 | 楽天グループ株式会社 | 画像評価装置、画像処理システム、ユーザ端末、画像評価方法、および画像評価プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP7422456B2 (ja) | 2024-01-26 |
US20210158566A1 (en) | 2021-05-27 |
US11836944B2 (en) | 2023-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7422456B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US11790682B2 (en) | Image analysis using neural networks for pose and action identification | |
US9330470B2 (en) | Method and system for modeling subjects from a depth map | |
WO2020042419A1 (zh) | 基于步态的身份识别方法、装置、电子设备 | |
KR100886557B1 (ko) | 적응형 학습에 기반한 얼굴 인식 시스템 및 방법 | |
US8824802B2 (en) | Method and system for gesture recognition | |
US20180300539A1 (en) | Method and Apparatus for Pattern Tracking | |
WO2020225562A1 (en) | Processing captured images | |
Abobakr et al. | Rgb-d fall detection via deep residual convolutional lstm networks | |
CN114067358A (zh) | 一种基于关键点检测技术的人体姿态识别方法及系统 | |
US11726550B2 (en) | Method and system for providing real-time virtual feedback | |
KR20200056602A (ko) | 객체 움직임 인식 방법 및 장치 | |
Bhargavas et al. | Human identification using gait recognition | |
CN112989889B (zh) | 一种基于姿态指导的步态识别方法 | |
Ansar et al. | Robust hand gesture tracking and recognition for healthcare via Recurent neural network | |
Nouredanesh et al. | Chasing feet in the wild: a proposed egocentric motion-aware gait assessment tool | |
WO2022044222A1 (ja) | 学習装置、学習方法、追跡装置及び記憶媒体 | |
CN109993116A (zh) | 一种基于人体骨骼相互学习的行人再识别方法 | |
US20200226787A1 (en) | Information processing apparatus, information processing method, and program | |
WO2021241293A1 (ja) | 行動体特定システム | |
CN111444374B (zh) | 人体检索系统和方法 | |
JP5688514B2 (ja) | 視線計測システム、方法およびプログラム | |
JP2022090760A (ja) | 学習装置、学習データの作成方法、学習方法、及び学習プログラム | |
Nguyen et al. | Vision-Based Global Localization of Points of Gaze in Sport Climbing | |
Paulose et al. | Recurrent neural network for human action recognition using star skeletonization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221018 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221018 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231212 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240110 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7422456 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |