JP2022176819A - 作業認識装置および作業認識方法 - Google Patents
作業認識装置および作業認識方法 Download PDFInfo
- Publication number
- JP2022176819A JP2022176819A JP2021083456A JP2021083456A JP2022176819A JP 2022176819 A JP2022176819 A JP 2022176819A JP 2021083456 A JP2021083456 A JP 2021083456A JP 2021083456 A JP2021083456 A JP 2021083456A JP 2022176819 A JP2022176819 A JP 2022176819A
- Authority
- JP
- Japan
- Prior art keywords
- amount
- change
- relevance
- image
- work
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
【課題】製造現場などの作業認識で物体間のつながりを用いた作業認識を行う場合に、簡易なアルゴリズムにより、汎用的に物体間の関連性を推定する作業認識装置及び方法を提供する。
【解決手段】作業認識装置は、撮影装置により撮影された画像データを取得する画像取得部と、画像取得部から得た画像データを解析し、物体に関する領域を検出する解析領域検出部と、解析領域検出部により検出された物体に関する領域の画像に関する特徴量を抽出し、所定期間内における画像に関する特徴量の変化量を算出する特徴抽出部と、所定期間内における第一の物体に関する領域として検出された画像に関する特徴量の第一の変化量と、第一の変化量の所定期間内と同一期間における第二の物体に関する領域として検出された画像に関する特徴量の第二の変化量に基づき、第一の物体と第二の物体の物体関連度を算出する関連性推定部と、を有する。
【選択図】図2
【解決手段】作業認識装置は、撮影装置により撮影された画像データを取得する画像取得部と、画像取得部から得た画像データを解析し、物体に関する領域を検出する解析領域検出部と、解析領域検出部により検出された物体に関する領域の画像に関する特徴量を抽出し、所定期間内における画像に関する特徴量の変化量を算出する特徴抽出部と、所定期間内における第一の物体に関する領域として検出された画像に関する特徴量の第一の変化量と、第一の変化量の所定期間内と同一期間における第二の物体に関する領域として検出された画像に関する特徴量の第二の変化量に基づき、第一の物体と第二の物体の物体関連度を算出する関連性推定部と、を有する。
【選択図】図2
Description
本発明は、作業認識装置および作業認識方法に係り、特に、作業監視のために、製造現場など作業する作業員やロボットと周辺物体の関係を関係付けて作業認識を行うのに好適な作業認識装置および作業認識方法に関する。
製造現場では、製品品質を維持するため人作業に関する安全性の確保や作業内容の正確性向上に向けて改善活動が行われている。それらの改善活動の一つに、人作業における動作認識に関する技術開発が産業分野に適用されている。例えば、製造現場の標準作業書などに従った行動をしているのか検出するケースや、特定の作業にどれぐらい時間を要しているのか作業時間を算出するケースなどが挙げられる。このような技術が対象とする製造現場としては、様々な機械や道具が設置され、工程により機械の動きが異なり、作業ごとに扱う道具が変わる作業現場が想定される。
一方、作業認識に関するコンピュータビジョンの技術においては、コンピュータ性能が急発展したことや一般的なデータの大量収集が容易になったことから、機械学習を用いた動作認識技術が盛んに行われている。この動作認識技術では、動画像データを入力とし、情報処理装置が、その動画内の人物がとっている動作を認識する。そして、このような動作認識技術に関連する公開データベースとしては、例えば、非特許文献1があり、このデータベースによれば、各画像データに対して、”Playing Piano”, “Surfing”, “Table Tennis Shot”などのラベルが付与されている。
また、画像から物体領域を取得する物体アルゴリズムについては、例えば、非特許文献2、非特許文献3に記載がある。
これに関連して、情報処理装置により、映像内に存在する物体間の紐づけする方法としては、例えば、特許文献1に開示されている。特許文献1では、人物カウント向けの情報処理装置として、鏡に映り込んだ鏡像と実像の繋がりを見つけ、鏡像が映りこむ画像においても正確な人物カウントを実現する方法を提案している。鏡像と実像の繋がりを見つけるには、画像内における複数の移動体の位置変化に応じた速度の類似度に基づいて、複数の移動体における同一の実移動体に対応する二つ以上の移動体を特定し、移動量の時間変化が相似に近い形であるか判定し、二つの物体(実像と鏡像)の繋がりを推定している。
また、センサやカメラを活用して、行動認識を行う手法については、例えば、非特許文献4に記載されている。
また、非特許文献5では、機械学習の一態様として、GCN(Graph Convolution Network)により行動認識を行う技術が記載されている。GCNとは、いわゆる畳み込みニューラルネットワークの一分野であり、ある物体の特徴量およびクラスの情報を備えたノードと、ノード間をつなげるエッジから構成されるグラフを生成し、隣接するノードの特徴量を用いて目標のノードクラスやグラフ全体のクラスを推論できる手法である。GCNでは、ノード間のつながりを事前に定義するか、映像内の変化に応じて自動的に決定する方法がある。非特許文献5では二つの手法を採用している。一つ目は、カメラで撮影した映像に対して物体の位置を検出し、物体間の重なり度合いから重畳率を算出した後、その重畳率に応じて両物体の関係を推定する手法である。二つ目は、時系列に取得したフレーム画像において、類似する物体が映っている場合に同一物体とみなし、時間方向のフレーム間における物体間の関係をする手法である。このような手法により、物体間の関係を事前定義あるいは推定することによってグラフを生成でき、物体間を考慮した行動認識が可能となる。
UNIVERSITY OF CENTRAL FLORIDA、"UCF101 - Action Recognition Data Set"、[online]、[令和3年4月16日検索]、インターネット<URL:https://www.crcv.ucf.edu/research/data-sets/ucf101/>
Ren, Shaoqing, et al., "Faster r-cnn: Towards real-time object detection with region proposal networks.", IEEE transactions on pattern analysis and machine intelligence 39.6, 2016, p. 1137-1149
Yolo(Redmon, Joseph, et al. "You only look once: Unified, real-time object detection.", Proceedings of the IEEE conference on computer vision and pattern recognition, 2016
Vrigkas,M.,Nikou,C. and Kakadiaris,I.A."A Review of Human Activity Recognition Methods",Frontiers in Robotics and AI, 2015
Wang, Xiaolong, and Abhinav Gupta, "Videos as space-time region graphs", Proceedings of the European conference on computer vision (ECCV), 2018.
コンピュータビジョンの技術において、製造現場の作業者を対象に動作認識技術を適用することを想定した場合には、製造現場毎に異なる特有の動作を認識する必要がある。その際、対象の作業者にのみ注目して作業者の動きを捉える方法が一般的であるが、この方法によった場合、複数の異なる作業を同じ姿勢などで実施していた場合に識別することが困難である。また、製造現場に機械が存在する現場では、ある作業を実施する際、作業者だけでなくその周辺の機械が同時に動く、または道具を同時に扱う場合がある。すなわち、作業認識の対象とする物体(ヒトやモノ)とその周辺の物体は、同時に変化するケースが存在する。
製造現場に適用する場合、ある機械の見た目は変化するが大きな移動がないケースがある。非特許文献5では、上記のように、物体間の関連性を推定するために、物体の物体間の重畳率また類似度を用いているが、いずれを採用しても、製造現場の物体間の関係を適切に扱うことができない事態が想定される。例えば、加工作業時に設備のドアが開き、新しいワークが運搬されて設備内に投入するケースで、それが同時に動作していたとしても、カメラの設置位置により画像空間上で重ならないことがある。そのため、物体間の重なりや距離に依存しない方式で関連性を推定する必要がある。
実像と鏡像の繋がりを見出す方法を提案している特許文献1では、対象物体が同一のものであることを想定している。ある作業を実施する際に、製造現場に存在する複数の物体(機械・ワーク・作業者)が同時に動くことはあるが、それらの機械・ワーク・作業者などの間で、時間変化による動き量は、物体別に異なる。そのため、機械・ワーク・作業者の間で移動量の時間変化の相似から製造現場にある物体の関連性を推定することは困難である。
また、特許文献1および非特許文献5において、物体間のつながりを決定するための指標として重畳率や類似度などを採用しており、閾値を設けて判定している。そのため、この手法により物体間のつながりに関連性ありと判定される場合は、それらの指標が劇的な値をとる場合のみであり、それらの指標の重畳率や類似度一定の閾値を超えなくても、物体間のつながりを有すると認識すべき場合には、そのような手法では判定することができず、さらに物体の位置関係などからの関連性を推定するアルゴリズムが必要になるという問題が生ずる。
本発明の目的は、製造現場などの作業認識で物体間のつながりを用いた作業認識を行う場合に、簡易なアルゴリズムにより、汎用的に物体間の関連性を推定することのできる作業認識装置を提供することにある。
本発明の作業認識装置の構成は、好ましくは、画像データを解析し、その画像データを解析することにより、作業にかかわる物体の作業認識を行う作業認識装置であって、撮影装置により撮影された画像データを取得する画像取得部と、画像取得部から得た画像データを解析し、物体に関する領域を検出する解析領域検出部と、解析領域検出部により検出された物体に関する領域の画像に関する特徴量を抽出し、所定期間内における画像に関する特徴量の変化量を算出する特徴抽出部と、所定期間内における第一の物体に関する領域として検出された画像に関する特徴量の第一の変化量と、第一の変化量の所定期間内と同一期間における第二の物体に関する領域として検出された画像に関する特徴量の第二の変化量に基づき、第一の物体と第二の物体の物体関連度を算出する関連性推定部とを有するようにしたものである。
本発明によれば、製造現場などの作業認識で物体間のつながりを用いた作業認識を行う場合に、簡易なアルゴリズムにより、汎用的に物体間の関連性を推定することのできる作業認識装置を提供することができる。
以下、本発明に係る各実施形態を、図1ないし図15を用いて説明する。
〔実施形態1〕
以下、本発明に係る実施形態1を、図1ないし図11を用いて説明する。
以下、本発明に係る実施形態1を、図1ないし図11を用いて説明する。
本実施形態では、ユーザが作業している様子から作業者および周辺物体を検出し、その状態をグラフ構造により表現して、そのグラフ構造に基づいたGCNの手法により機械学習することにより、作業動作を認識する作業認識システムの例を説明する。作業動作を認識するためのデータ構造としてグラフ構造を用いるのには、一例であり、本実施形態の適用のためには、それに類するネットワーク構造やアルゴリズムであってもよい。
先ず、図1ないし図3を用いて作業認識システムの構成について説明する。
作業認識システム1は、図1に示されように、画像取得装置6、センサ3、作業認識装置100が、通信手段4によって接続された構成である。
通信手段4は、有線でも無線でもよく、LAN(Local Area Network)でも、インターネットなどのWAN(Wide Area Network)であってもよい。また、USB(Universal Serial Bus)やRS-232C等のシリアル規格に準拠した通信手段であってもよい。
画像取得装置6(撮影装置)は、作業者2や周辺物体5などを映した画像データを取得する装置であり、例えば、動画や静止画の画像データを取得(撮影)するカメラ(デジタルカメラ(RGBカメラ)、赤外線カメラ、サーモグラフィカメラ、タイムオブフライト(TOF:Time Of Flight)カメラ、ステレオカメラ等)である。画像取得装置6は、図1では、1台で表現されているが、撮影対象が複数ある場合など、複数台のカメラを用いて、異なるカメラの複数の画像を用いてもよい。
センサ3は、作業者2が作業を行う作業環境に設けられ、作業者2や作業環境についての状態を検知し、物理的な情報を出力する。センサ3は、例えば、動体検知センサ、人感センサ、温度センサ、湿度センサ、加速度センサ、速度センサ、音響センサ(マイクロホン)、超音波センサ、振動センサ、ミリ波レーダ、レーザレーダ(LIDAR: Laser Imaging Detection and Ranging)、赤外線深度センサである。
作業認識装置100は、画像取得装置6によって取得される画像データに基づき作業者2の作業動作または周辺物体5の作業動作を認識する処理を行う装置である。
次に、図2を用いて作業認識装置の機能構成を説明する。
作業認識装置100は、図2に示されるように、画像取得部101、解析領域検出部102、特徴抽出部103、関連性推定部104、グラフ生成部105、作業学習部106、作業推論部107、記憶部110の各機能部を有する。
作業認識装置100は、図2に示されるように、画像取得部101、解析領域検出部102、特徴抽出部103、関連性推定部104、グラフ生成部105、作業学習部106、作業推論部107、記憶部110の各機能部を有する。
画像取得部101は、画像取得装置6から取得される画像データ200を所得する機能部である。画像データ200は、例えば、画像取得装置6から送られてくる静止画データや動画データを構成するフレームのデータである。
解析領域検出部102は、画像取得部101で得た画像から物体領域を検出する機能部である。物体領域の検出には、ユーザが手動で画像上に矩形を描くように設定する方法、または、例えば、非特許文献2、非特許文献3に示されるような物体検出アルゴリズムを用いて自動的に領域を取得する方法があり、手動と自動のいずれの方法を用いてもよい。
特徴抽出部103は、画像における特徴量とその変化量を抽出する機能部である。
特徴量の抽出の機能では、特徴抽出部103は、画像から得られる色特徴量、動き特徴量、CNN(Convolutional Neural Network)特徴量などの特徴量を抽出する。なお、本実施形態の特徴利用は、スカラー値であるものとする。特徴量の抽出の機能では、特徴抽出部103は、前後フレームなど時系列にデータを確保しておき、前後フレームの特徴量の差を用いて特徴量の変化量を抽出する。所定の領域から特徴抽出するだけでなく、位置情報などのその領域が1点で表現できるような変化量であってもよい。
関連性推定部104は、特徴抽出部103の出力された特徴量の変化量を用いて物体間のつながりを示す強弱を推定する物体関連度を算出する機能部である。関連性推定部104は、各物体から取得した変化量に対して、補正パラメータ201を用いて正規化(スケールを0~1の間に調整)する。そして、正規化された特徴量の変化量に対して、物体間の関係の強さとして、各々演算して、例えば、それらの積として、算出した結果を、物体関連度として出力する。補正パラメータ201は、特徴量の変化量を正規化するためのパラメータであり、物体間の矩形の大きさや平均的な変化量の差を埋める目的を有する。上記の説明では、物体間の関係の強さを、特徴量の変化量の各々の積で算出する例を示したが、特徴量の変化量の各々の和、重み付き線形和などの算出方法であってもよい。
グラフ生成部105は、GCNで用いられるグラフを生成する機能部である。グラフ生成部105では、解析領域検出部102により取得した領域の数だけグラフのノードを生成し、各ノードに特徴抽出部103の特徴抽出処理により得られた特徴量を付与し、ノード特定ラベル202のラベルを付与する。ノード特定ラベル202のラベルは、例えば、「ロボット」、「作業員」、「加工機」などの製造現場における物体の名称である。各ノードの間にはつながりがあることを前提とし、それらのノード間にエッジを設け、関連性推定部104から得られた物体関連度を用いてグラフのエッジに重みを付与する。
作業学習部106は、作業の正解ラベルであるノード作業ラベル203と、グラフ生成部105で生成されたグラフとに基づいて、GCNにより機械学習を行い、推論モデル210を生成する機能部である。作業学習部106の機械学習の処理では、生成されたグラフをベースに、GCNのアルゴリズムを用いて学習し、その結果として、推論モデル210を出力する。ノード作業ラベル203は、作業を認識する正解ラベルであり、例えば、ノードが「ロボット」である場合の「溶接」、「スクリュー締め」などであり、ノードが「作業員」である場合の「制御盤操作」、「床清掃」などである。
作業推論部107は、作業学習部106により学習の結果により得られた推論モデル210に基づいて、作業認識を行いたい画像データ200に対して推論をし、推論結果220を得るための機能部である。
記憶部110は、データを記憶する機能部である。記憶部110には、画像データ200、補正パラメータ201、ノード特定ラベル202、ノード作業ラベル203、推論モデル210、推論結果220が格納される。
次に、図3を用いて作業認識装置のハードウェア・ソフトウェア構成について説明する。作業認識装置100は、一般的な情報処理装置(コンピュータ)により実現することができ、図3に示されるように、プロセッサ11、主記憶装置12、通信装置13、入力装置14、出力装置15、補助記憶装置16を備える。
プロセッサ11は、主記憶装置12上のプログラムを実行し、作業認識装置100の各部を制御する半導体装置であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、AI(Artificial Intelligence)チップ等である。
主記憶装置12は、プログラムやデータを一時的に記憶する装置であり、例えば、SRAM(Static Random Access Memory)やDRAM(Dynamic Random Access Memory)等のRAM(Random Access Memory)である。
通信装置13は、通信手段4を介して他の装置と通信するインタフェース装置であり、例えば、NIC(Network Interface Card)、無線通信モジュール、USB(Universal Serial Interface)モジュール、シリアル通信モジュール等である。通信装置13は、通信可能に接続する他の装置から情報を受信する入力装置として機能することもできる。また、通信装置13は、通信可能に接続する他の装置に情報を送信する出力装置として機能することもできる。作業認識装置100は、通信装置13により通信手段4を介して画像取得装置6、センサ3と通信する。
入力装置14は、ユーザから情報を受付けるユーザインタフェース装置であり、例えば、キーボード、マウス、カードリーダ、タッチパネル等である。
出力装置15は、各種の情報を出力(表示出力、音声出力、印字出力等)するユーザインタフェース装置であり、例えば、各種情報を可視化する表示装置(LCD(Liquid Crystal Display)、グラフィックカード等)や音声出力装置(スピーカ)、印字装置等である。
補助記憶装置16は、ハードディスクドライブ(Hard Disk Drive)、SSD(Solid State Drive)等である。補助記憶装置16に格納されているプログラムやデータは、主記憶装置12に随時読み込まれ、プロセッサ11は、ロードされたデータを参照し、プログラムを実行する。
本実施形態の補助記憶装置16には、画像取得プログラム161、解析領域検出プログラム162、特徴抽出プログラム163、関連性推定プログラム164、グラフ生成プログラム165、作業学習プログラム165、作業推論プログラム166がインストールされている。
画像取得プログラム161、解析領域検出プログラム162、特徴抽出プログラム163、関連性推定プログラム164、グラフ生成プログラム165、作業学習プログラム165、作業推論プログラム166は、各々画像取得部101、解析領域検出部102、特徴抽出部103、関連性推定部104、グラフ生成部105、作業学習部106、作業推論部107の各機能を実現するプログラムである。
なお、作業認識装置100が備える各種の機能は、プロセッサ11が、主記憶装置12に格納されているプログラムを読み出して実行するとして説明したが、作業認識装置100を構成しているハードウェア(FPGA、ASIC、AIチップ等)により実現されるようにしてもよい。
次に、図4ないし図8を用いて作業認識装置の処理について説明する。
先ず、作業認識装置100の画像取得部101は、画像取得装置6から送信される画像データ200を取得する(S100)。
次に、解析領域検出部102は、画像取得部101で得た画像データ200の画像から物体領域を検出する。
次に、特徴抽出部103は、画像から得られる所定のフレーム間における特徴量を抽出する(S102)。
次に、特徴抽出部103は、前後フレームなど時系列にデータを確保しておき、前後フレームの特徴量の差を用いて特徴量の変化量を抽出する(S103)。なお、特徴量の変化量を抽出する処理については、後に詳説する。
次に、関連性推定部104は、特徴抽出部103の特徴量の変化量を抽出する処理S103により抽出された特徴量の変化量を用いて物体間のつながりを示す強弱を推定する物体関連度を算出する(S104)。この物体間の物体関連度を算出する処理については、後に詳説する。
次に、グラフ生成部105は、S104の物体間の物体関連度に基づき、GCNで用いられるグラフを生成する(S105)。
次に、作業学習部106は、S105で生成されたグラフに基づき、GCNにより機械学習を行い、推論モデル210を生成する(S106)。
次に、図5Aおよび図5Bを用いて特徴量の変化量を抽出する処理の詳細について説明する。
これは、図4のS103に該当する処理である。本実施形態では、特徴量の例として、動き変化、テクスチャ変化の場合を詳細に説明するが、画像データの特徴量としては、作業認識に寄与するデータであればよい。
先ず、図5Aを用いて画像上の動きのある物体から動き変化を特徴量の変化量として抽出する処理について説明する。
最初に、所定の物体領域群を取得する(S200)。ここで、動きを取得したい領域を取得するため、必ずしも物体そのものにフォーカスした領域である必要はなく、画像空間上の物体と関連する所定の領域であればよい。
次に、前後フレームの画像を用いて、領域内からオプティカルフローの手法により動き量を算出する(S201)。オプティカルフローとは、物体やカメラの移動によって生じる隣接フレーム間の物体の動きの見え方のパターンを解析する手法である。
次に、各物体で得られる領域内の動き量の総和を算出する(S202)。
次に、算出した動き量の総和を特徴量の変化量として出力する(S203)。
次に、図5Bを用いて特徴量の変化量として画像のテクスチャの変化を抽出する処理にいて説明する。
画像のテクスチャの変化とは、画像のRGB値や濃淡値に変化があるような場合である。
最初に、所定の物体領域群を取得する(S210)。
次に、ある物体や物体の変化などを識別できるような学習済みモデルを特徴抽出モデルとして取得する(S211)。例えば、画像の局所特徴量を抽出するモデルとしては、テンプレート特徴量モデル、Holistic特徴量モデル、共起特徴量モデル、パーツ特徴量モデルなどがある。
各物体領域の画像データを特徴抽出モデルに適用することによって、各物体の特徴量が得る(S212)。
そして、前後フレームなどの画像データから前後の特徴量を取得し、前後フレームの特徴量の距離を算出する(S212)。特徴量の距離とは、例えば、特徴量がn個の要素からなるときには、n次元のユークリッド距離である。
次に、S212で算出した距離値を、特徴量の変化量として出力する(S214)。
次に、図6を用いて物体間の関連度を推定する処理について説明する。
これは、図4のS104に該当する処理である。
これは、図4のS104に該当する処理である。
先ず、図4のS103で抽出された各物体領域の特徴量の変化量を取得する(S300)。
次に、補正パラメータ201を用いて特徴量の変化量を正規化する(S301)。これは、各領域の特徴量が大きく変化することがあるので、スケールを合わせる意義があり、補正パラメータ201による補正は、必ずしも必要というわけではない。
次に、S301により正規化された二つの領域の特徴量の変化量に基づいて、物体関連度を算出する(S302)。この物体関連度が、物体関係度合を示す指標である。
例えば、物体Aの領域の特徴量をCA、物体Bの領域の特徴量をCBとしたとき、その両者の積をとり、以下の(式1)により、物体関連度を算出する。
物体関連度(物体A,物体B)=CA×CB …(式1)
物体関連度(物体A,物体B)=CA×CB …(式1)
また、例えば、その両者の和をとり、以下の(式2)により、物体関連度を算出する。
物体関連度(物体A,物体B)=CA+CB …(式2)
物体関連度(物体A,物体B)=CA+CB …(式2)
また、例えば、その両者の重み付き線形和をとり、以下の(式3)により、物体関連度を算出する。
物体関連度(物体A,物体B)=KACA+KBCB …(式3)
物体関連度(物体A,物体B)=KACA+KBCB …(式3)
ここで、KA、KBは、それぞれ物体A、物体Bの特徴量の変化量をどれだけ重視するかによって定まる重み係数である。
また、これら以外の演算でもよい。
また、これら以外の演算でもよい。
次に、補正パラメータ201により、S313で得られた物体関連度を正規化する(S303)。これは、後の学習フェーズで学習しやすくするためであり、この補正パラメータ201による補正は、必ずしも必要というわけではない。
次に、S303で算出した物体関連度を出力する(S304)。
次に、図7を用いてグラフ生成処理の詳細について説明する。
各物体領域別に、図4のS102の特徴量抽出処理により得た特徴量を取得する(S400)。
各物体領域別に、図4のS102の特徴量抽出処理により得た特徴量を取得する(S400)。
次に、ノード特定ラベル202から各物体領域別に付与されるノード特定ラベルを取得する(S401)。
次に、図4のS104の関連性推定処理により得られた各物体間での物体関連度を取得する(S402)。
次に、各ノードに、S411で取得した特徴量と、S412で所得したノード特定ラベルを付与する(S403)。
次に、ノード間のエッジの重みとして、物体関連度を付与する(S414)。この重みは、例えばGCNの畳み込み層で用いられるエッジの重みである。
このように、生成したグラフを使って、例えば、GCNなどで学習することにより、ノード特定ラベルを付与されたエッジに該当する物体の作業を推定することのできる推論モデル210を構築することができる。
次に、図8を用いて、作業認識装置の画像取得から推論処理までの一連の処理について説明する。
S100~S105の処理は、図4で示した処理と同様である。ここで、S100で入力される画像データ200は、物体の作業認識の推論を行うための画像データ200である。
S100~S105の処理は、図4で示した処理と同様である。ここで、S100で入力される画像データ200は、物体の作業認識の推論を行うための画像データ200である。
S105のグラフ生成の後、図4のS106で得られた推論モデル210に基づき、作業推論部107は、作業認識の推論を行い推論結果を出力する(S110)。推論結果は、各ノードにノード作業ラベル203が付与されたグラフである。なお、推論結果の具体例は、後に詳説する。
次に、図9を用いて画像データから物体関連度を算出する具体的なイメージを説明する。
ここでは、映像データのような時系列データに対し、物体Aと物体Bの物体関連度を算出する例を説明する。ここで、クロック1、クロック2、…とは、時系列データの時間軸の範囲である。画像上に物体Aと物体Bが存在した場合、それぞれ同じフレームで得た画像データから画像特徴量を取得する。所定のフレーム間であるクロック1(C01)に着目したとき、最初のフレームでの特徴抽出F1Aと最後のフレームでの特徴抽出F2Aで得られた特徴量からユークリッド距離などで距離値を算出し、物体Aの特徴量の変化量d1Aを求める。一方、物体Bも同様に特徴抽出を行い、物体Bの距離値から特徴量の変化量d1Bを求める。変化量A11Dと変化量A21Dから、それらの積((式1)の場合)などで物体関連度P1を求める。P1は、クロック1(C01)の物体関連度となる。同様の処理をクロック2(C02)でも行い、物体関連度P2を算出する。映像データが得られる度に、クロック毎に同様の処理を行う。なお、各クロックにおいて異なるフレームを使う必要はなく、一部のフレームが同じであってもよい。
ここでは、映像データのような時系列データに対し、物体Aと物体Bの物体関連度を算出する例を説明する。ここで、クロック1、クロック2、…とは、時系列データの時間軸の範囲である。画像上に物体Aと物体Bが存在した場合、それぞれ同じフレームで得た画像データから画像特徴量を取得する。所定のフレーム間であるクロック1(C01)に着目したとき、最初のフレームでの特徴抽出F1Aと最後のフレームでの特徴抽出F2Aで得られた特徴量からユークリッド距離などで距離値を算出し、物体Aの特徴量の変化量d1Aを求める。一方、物体Bも同様に特徴抽出を行い、物体Bの距離値から特徴量の変化量d1Bを求める。変化量A11Dと変化量A21Dから、それらの積((式1)の場合)などで物体関連度P1を求める。P1は、クロック1(C01)の物体関連度となる。同様の処理をクロック2(C02)でも行い、物体関連度P2を算出する。映像データが得られる度に、クロック毎に同様の処理を行う。なお、各クロックにおいて異なるフレームを使う必要はなく、一部のフレームが同じであってもよい。
次に、図10を用いて物体関連度をグラフ生成に適用する例について説明する。
物体Aでは、所定のクロック内で得た特徴量の変化量F11Aを取得しており、物体Bでは物体Aと同じクロック内で得た特徴量の変化量F11Bを取得しているものとする。このとき、補正パラメータ201によりそれぞれの特徴量の変化量を正規化し、物体Aでは、正規化後の特徴量の変化量F11ANを、物体Bでは正規化後の特徴量の変化量F11BNを取得する。
物体Aでは、所定のクロック内で得た特徴量の変化量F11Aを取得しており、物体Bでは物体Aと同じクロック内で得た特徴量の変化量F11Bを取得しているものとする。このとき、補正パラメータ201によりそれぞれの特徴量の変化量を正規化し、物体Aでは、正規化後の特徴量の変化量F11ANを、物体Bでは正規化後の特徴量の変化量F11BNを取得する。
次に、各変化量の積から((式1)の場合)物体関連度P11を算出し、所定のクロックにおける変化量からグラフG01に示す物体Aと物体Bをつなぐエッジに重みw11として適用する。このようにして、各物体間において同様の処理を行い、物体間をつなぐエッジに重みを適用していく。図10では、着目時間域における物体Aと物体Bの物体関連度の平均が0.1であり、それがロボットのノードと加工機のノードをつなぐエッジの重みとして適用される例を示している。
次に、図11を用いて推論結果の作業認識結果について説明する。
図11は、推論結果としてノードにノード作業ラベルを付与することを説明する図である。
図11は、推論結果としてノードにノード作業ラベルを付与することを説明する図である。
本実施形態では、図4のS106の作業学習処理で生成した推論モデル210に基づいて、図8のS110の作業推論処理により、作業認識を行い、各ノードとして表現された物体のノード作業ラベル203を得る。
図11の例では、図11(a)に示されるように、ノード1「ロボット」、ノード2「加工機」、ノード3「ワーク」で、時刻T1におけるノード作業ラベルとして、ノード1「溶接」、ノード2「停止」、ノード3「被溶接」が得られることを示している。図11(b)は、ノード1「ロボット」をターゲットとするタイミングチャートである。このタイミングチャートでは、時刻T1にロボットは、溶接作業をしていることを示している。
以上、本実施形態によれば、画像の特徴量の変化量により、物体関連度を算出し、物体をノード、関連ある物体をエッジとするグラフに基づき、物体関連度をエッジの重みとして、GCNの学習と推論を行う。それにより、製造現場などの作業認識で物体間のつながりを用いた作業認識を行う場合に、簡易なアルゴリズムにより、汎用的に物体間の関連性を推定した作業認識を行うことができる。
〔実施形態2〕
以下、図12ないし図14を用いて本実施形態2を説明する。
以下、図12ないし図14を用いて本実施形態2を説明する。
実施形態1では、物体の特徴量の変化量から各物体の物体関連度を算出し、それをGCNのグラフのエッジの重みとして適用することにより、作業認識を行う作業認識装置の例について説明した。
本実施形態では、実施形態1と同様の作業認識を行う作業認識装置であり、さらに、ノードに該当する物体間の物体関連度をユーザが編集することができるようにした例について説明する。
以下、実施形態1と異なる所を中心に説明する。
先ず、図12を用いて実施形態2に係る作業認識装置の機能構成について説明する。
本実施形態の作業認識装置100は、実施形態1の図2に示した作業認識装置100の構成に加えて、関連性編集部108を有する。
本実施形態の作業認識装置100は、実施形態1の図2に示した作業認識装置100の構成に加えて、関連性編集部108を有する。
関連性編集部108は、ノードとして認識される物体の関連度の値を編集する機能部である。
また、記憶部110に、関連性データ204を格納している。関連性データ204は、ノードとして認識される物体の関連度の値を保持するデータである。
次に、図13を用いて実施形態2に係る作業認識装置の画像取得から学習処理までの一連の処理について説明する。
本実施形態の作業認識装置の画像取得から学習処理までの一連の処理では、実施形態1の図4に示された処理に加えて、S104とS105の間に、関連性編集処理S120が付け加えられている。
関連性編集処理S120は、グラフのノードとして認識される物体の関連度の値を編集する処理である。この処理により、ユーザが定義した物体関連度を再設定し、関連性推定処理S104で得た物体関連度の結果とユーザが定義した物体関連度を関連性データ204として出力し、グラフ生成処理S105に受け渡す。
次に、図14を用いて作業認識装置が提供するユーザインタフェースについて説明する。
本実施形態の作業認識装置100は、図14に示される物体関連度編集画面400により、グラフのエッジに付与される物体関連度を表示し、編集することができる。表現される
作業認識装置100は、関連性推定処理S04の結果、あるいは、所定の物体を候補から選択できるような設定ファイルを読み込む。次に、ユーザは、物体間をひもづけるための対象を二つ選択する。図14の例では、対象1のボックス411で物体Aを選択し、対象2のボックス412で物体Bを選んでいる。各ボックスで選択された物体間の関連度合をボックス42で記入でき、ユーザが物体間に対して任意の関連度合を設けることができる。また、特徴量のボックス43により、特徴量の種類が選択でき、対象の特徴量の変化量を、対象1のボックス441、対象2のボックス442でそれぞれ設定でき、ユーザが任意の物体関連度を設定できる機能を有する。また、グラフ表示500により、関連度合を可視化し、ノード511やノード512がつながっていること、各物体で特徴量53などが表示されていること、物体Aと物体Bがつながりがあることが視認でき、ボックス52により、その物体Aと物体Bの物体関連度の数値を編集できるようになっている。
本実施形態の作業認識装置100は、図14に示される物体関連度編集画面400により、グラフのエッジに付与される物体関連度を表示し、編集することができる。表現される
作業認識装置100は、関連性推定処理S04の結果、あるいは、所定の物体を候補から選択できるような設定ファイルを読み込む。次に、ユーザは、物体間をひもづけるための対象を二つ選択する。図14の例では、対象1のボックス411で物体Aを選択し、対象2のボックス412で物体Bを選んでいる。各ボックスで選択された物体間の関連度合をボックス42で記入でき、ユーザが物体間に対して任意の関連度合を設けることができる。また、特徴量のボックス43により、特徴量の種類が選択でき、対象の特徴量の変化量を、対象1のボックス441、対象2のボックス442でそれぞれ設定でき、ユーザが任意の物体関連度を設定できる機能を有する。また、グラフ表示500により、関連度合を可視化し、ノード511やノード512がつながっていること、各物体で特徴量53などが表示されていること、物体Aと物体Bがつながりがあることが視認でき、ボックス52により、その物体Aと物体Bの物体関連度の数値を編集できるようになっている。
以上のように、本実施形態の作業認識装置によれば、各物体の特徴量の変化量や物体関連度をユーザが任意に編集することができる。
〔実施形態3〕
以下、本発明の実施形態3を、図15を用いて説明する。
実施形態1では、画像における物体の領域の特徴量の変化量を求め、物体間の関連を示すために、ある物体の領域における特徴量の変化量と他の物体の領域における特徴量の変化量を演算することにより、両者の物体関連度を算出し、それをGCNにおけるグラフのエッジの重みとして、機械学習を行うことにより、作業認識を行う作業認識装置について説明した。
以下、本発明の実施形態3を、図15を用いて説明する。
実施形態1では、画像における物体の領域の特徴量の変化量を求め、物体間の関連を示すために、ある物体の領域における特徴量の変化量と他の物体の領域における特徴量の変化量を演算することにより、両者の物体関連度を算出し、それをGCNにおけるグラフのエッジの重みとして、機械学習を行うことにより、作業認識を行う作業認識装置について説明した。
本実施形態では、実施形態1と同様に、画像における物体の領域の特徴量の変化量を求めて、それからある物体と他の物体の物体関連度を算出する方法であるが、時系列の画像データの変遷にもフォーカスをおいて、物体関連度を算出する方法を説明する。
以下、実施形態1と異なる所を中心として説明する。
本実施形態の作業認識装置100は、実施形態1の図2で示した機能構成と同様の構成を有し、図4の関連性推定処理S104である物体の領域における特徴量の変化量と他の物体の領域における特徴量の変化量を演算することにより、両者の物体関連度を算出することは同様であるが、その方法が異なっている。
以下、図15を用いて、実施形態3における関連性推定処理S104について説明する。
作業認識装置100の関連性推定部104は、物体A(60A)のオプティカルフローなどによって得られた特徴量1(FA1)と、3DCNNなどで得られた特徴量2(FA2)を取得する。
作業認識装置100の関連性推定部104は、物体A(60A)のオプティカルフローなどによって得られた特徴量1(FA1)と、3DCNNなどで得られた特徴量2(FA2)を取得する。
3DCNNとは、空間情報(2D)と時間情報(1D)をまとめて3Dの畳み込みを行うことにより、時空間情報を考慮した動画の行動認識を行う手法である。
また、関連性推定部104は、物体A(60A)と同様に、物体B(60B)についての特徴量1(FB1)と特徴量2(FB2)を取得する。
次に、物体間において同一のクロック内で得られた特徴量同士を対象に距離値(d11、d12、d21、d22)を算出する。
その後、前後するクロック間の距離値の差を求め、異なる特徴量1と特徴量2を合わせ、物体関連度を算出する。例えば、クロック1で得られた物体Aの特徴量1と物体Bの特徴量1との距離d11を算出する。クロック2でも同様に距離d12を算出する。距離d11と距離d12の差の絶対値からクロック2とクロック1の変化が得られ、クロック間における変化度合(D1R)を得る。例えば、距離d11と距離d12の差の絶対値Δ1に1を足した値の逆数を取り、クロック間の変化度合いを得る。すなわち、以下の(式4)により、クロック間における変化度合(D1R)を求める。
D1R=1/(Δ1+1) …(式4)
D1R=1/(Δ1+1) …(式4)
同様に、さらに、物体Aの特徴量2と物体Bの特徴量2においても同様に、距離d21と距離d22の差の絶対値からクロック2とクロック1の変化が得られ、クロック間における変化度合(D2R)を得る。例えば、距離d21と距離d22の差の絶対値Δ2に1を足した値の逆数を取り、クロック間の変化度合いを得る。すなわち、以下の(式5)により、クロック間における変化度合(D2R)を求める。
D2R=1/(Δ2+1) …(式5)
そして、変化度合D1RとD2Rから相加平均値を、それを類似度Sとする。
D2R=1/(Δ2+1) …(式5)
そして、変化度合D1RとD2Rから相加平均値を、それを類似度Sとする。
グラフ生成にあたっては、クロック1のグラフのエッジの重みをW1、クロック2のグラフのエッジの重みをW2としたときに、以下の(式6)により、最終的なクロック2のエッジの重みW2′を算出する。
W2′=W1×S+W2 …(式6)
W2′=W1×S+W2 …(式6)
すなわち、クロック間における変化度合いが少ないときには、クロック2のグラフのエッジの重みは、強調されず、クロック間における変化度合いが多いときには、クロック2のグラフのエッジの重みが強調されることになる。
以上のように、本実施形態では、物体間の差とクロック間の差を算出することで、時系列データを考慮した物体関連度を算出し、GCNのグラフを生成することができる。
1…作業認識システム、2…作業者、3…センサ、4…通信手段、5…周辺物体、6…画像取得装置、
100…作業認識装置、
11…プロセッサ、12…主記憶装置、13…通信装置、14…入力装置、15…出力装置、16…補助記憶装置、
101…画像取得部、102…解析領域検出部、103…特徴抽出部、104…関連性推定部、105…グラフ生成部、106…作業学習部、107…作業推論部、108…関連性編集部、110…記憶部、
200…画像データ、201…補正パラメータ、202…ノード特定ラベル、203…ノード作業ラベル、204…関連性データ、210…推論モデル、220…推論結果
100…作業認識装置、
11…プロセッサ、12…主記憶装置、13…通信装置、14…入力装置、15…出力装置、16…補助記憶装置、
101…画像取得部、102…解析領域検出部、103…特徴抽出部、104…関連性推定部、105…グラフ生成部、106…作業学習部、107…作業推論部、108…関連性編集部、110…記憶部、
200…画像データ、201…補正パラメータ、202…ノード特定ラベル、203…ノード作業ラベル、204…関連性データ、210…推論モデル、220…推論結果
Claims (10)
- 画像データを解析し、その画像データを解析することにより、作業にかかわる物体の作業認識を行う作業認識装置であって、
撮影装置により撮影された画像データを取得する画像取得部と、
前記画像取得部から得た画像データを解析し、物体に関する領域を検出する解析領域検出部と、
前記解析領域検出部により検出された物体に関する領域の画像に関する特徴量を抽出し、所定期間内における前記画像に関する特徴量の変化量を算出する特徴抽出部と、
所定期間内における第一の物体に関する領域として検出された前記画像に関する特徴量の第一の変化量と、前記第一の変化量の所定期間内と同一期間における第二の物体に関する領域として検出された前記画像に関する特徴量の第二の変化量に基づき、前記第一の物体と前記第二の物体の物体関連度を算出する関連性推定部とを有することを特徴とする作業認識装置。 - 前記特徴量の第一の変化量と前記特徴量の第二の変化量が、スカラー量であり、
前記第一の物体と前記第二の物体の物体関連度は、前記特徴量の第一の変化量と前記特徴量の第二の変化量との積、和、または、重み付き線形和のいずれかにより演算されることを特徴とする請求項1記載の作業認識装置。 - さらに、前記関連性推定部により算出された物体関連度と、前記特徴抽出部で抽出された物体に関する領域の画像に関する特徴量に基づいて、作業認識のための機械学習を行ない、推論モデルを出力する作業学習部を有することを特徴とする請求項1記載の作業認識装置。
- さらに、撮影装置により撮影された画像データと、前記作業学習部が出力した推論モデルに基づき、作業認識の推論を行う作業推論部を有することを特徴とする請求項3記載の作業認識システム。
- 前記物体に関する領域をノードとし、関連する物体間をエッジでつないだグラフを表現するデータを有し、
前記物体関連度をエッジ間の重みとし、GCN(Graph Convolution Network)により、前記ノードに対するノード作業ラベルを生成する推論モデルを生成することを特徴とする請求項3記載の作業認識装置。 - 前記物体に関する領域をノードとし、関連する物体間をエッジでつないだグラフを表現するデータを有し、
前記物体に関する領域の特徴量と、前記物体関連度とを表示・編集する手段とを有することを特徴とする請求項1記載の作業認識装置。 - 前記関連性推定部は、第一の期間内における第一の物体に関する領域として検出された前記画像に関する特徴量の第一の変化量と、前記第一の期間内における第二の物体に関する領域として検出された前記画像に関する特徴量の第二の変化量に基づき、前記第一の物体と前記第二の物体の第一の物体関連度を算出し、
第二の期間内における第一の物体に関する領域として検出された前記画像に関する特徴量の第一の変化量と、前記第二の期間内における第二の物体に関する領域として検出された前記画像に関する特徴量の第二の変化量に基づき、前記第一の物体と前記第二の物体の第二の物体関連度を算出し、
前記第一の物体関連度と前記第二の物体関連度の差分の絶対値に基づいて、前記物体関連度の変化度合を算出し、前記第一の期間内における第一の変化量を物体関連度の変化度合に基づいた類似度を算出し、
前記グラフにおける第一の期間に該当する第一のエッジの重みを、前記物体関連度の変化度合に基づいた類似度により補正し、
前記補正された第一の期間に該当する第一のエッジの重みと、前記第二の期間における第二のエッジの重みの和をとり、補正された前記第二の期間における第二のエッジの重みを算出することを特徴とする請求項5記載の作業認識装置。 - 画像データを解析し、その画像データを解析することにより、作業者と作業に使われる装置の作業認識を行う作業認識装置による作業認識方法であって、
画像取得部が、撮影装置により撮影された画像データを取得する画像取得ステップと、
解析領域検出部が、前記画像取得ステップにより得た画像データを解析し、物体に関する領域を検出する解析領域検出ステップと、
前記解析領域検出ステップにより検出された物体に関する領域の画像に関する特徴量を抽出し、所定期間内における前記画像に関する特徴量の変化量を算出する特徴抽出ステップと、
所定期間内における第一の物体に関する領域として検出された前記画像に関する特徴量の第一の変化量と、前記第一の変化量の所定期間内と同一期間における第二の物体に関する領域として検出された前記画像に関する特徴量の第二の変化量に基づき、前記第一の物体と前記第二の物体の物体関連度を算出する関連性推定ステップと、
前記関連性推定ステップにより算出された物体関連度と、前記特徴抽出ステップで抽出された物体に関する領域の画像に関する特徴量に基づいて、作業認識のための機械学習を行ない、推論モデルを出力する作業学習ステップと、
撮影装置により撮影された画像データと、前記作業学習ステップが出力した推論モデルに基づき、作業認識の推論を行う作業推論ステップとを有することを特徴とする作業認識方法。 - 前記特徴量の第一の変化量と前記特徴量の第二の変化量が、スカラー量であり、
前記第一の物体と前記第二の物体の物体関連度は、前記特徴量の第一の変化量と前記特徴量の第二の変化量との積、和、または、重み付き線形和のいずれかにより演算されることを特徴とする請求項8記載の作業認識方法。 - 前記作業認識装置は、前記物体に関する領域をノードとし、関連する物体間をエッジでつないだグラフを表現するデータを有し、
前記物体関連度をエッジ間の重みとし、GCN(Graph Convolution Network)により、前記ノードに対するノード作業ラベルを生成する推論モデルを生成することを特徴とする請求項8記載の作業認識方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021083456A JP2022176819A (ja) | 2021-05-17 | 2021-05-17 | 作業認識装置および作業認識方法 |
PCT/JP2022/016811 WO2022244536A1 (ja) | 2021-05-17 | 2022-03-31 | 作業認識装置および作業認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021083456A JP2022176819A (ja) | 2021-05-17 | 2021-05-17 | 作業認識装置および作業認識方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022176819A true JP2022176819A (ja) | 2022-11-30 |
Family
ID=84141275
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021083456A Pending JP2022176819A (ja) | 2021-05-17 | 2021-05-17 | 作業認識装置および作業認識方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2022176819A (ja) |
WO (1) | WO2022244536A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102023128853A1 (de) | 2022-11-03 | 2024-05-08 | Mitutoyo Corporation | Gerät zur automatischen innendurchmessermessung |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7222231B2 (ja) * | 2018-11-30 | 2023-02-15 | 株式会社リコー | 行動認識装置、行動認識方法及びプログラム |
JP6519707B1 (ja) * | 2018-11-30 | 2019-05-29 | 富士通クライアントコンピューティング株式会社 | 情報処理装置及びプログラム |
JP7324618B2 (ja) * | 2019-06-03 | 2023-08-10 | 株式会社日立製作所 | 作業監視装置、及び作業監視方法 |
-
2021
- 2021-05-17 JP JP2021083456A patent/JP2022176819A/ja active Pending
-
2022
- 2022-03-31 WO PCT/JP2022/016811 patent/WO2022244536A1/ja active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102023128853A1 (de) | 2022-11-03 | 2024-05-08 | Mitutoyo Corporation | Gerät zur automatischen innendurchmessermessung |
Also Published As
Publication number | Publication date |
---|---|
WO2022244536A1 (ja) | 2022-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10372228B2 (en) | Method and system for 3D hand skeleton tracking | |
CN107766839B (zh) | 基于3d卷积神经网络的动作识别方法和装置 | |
JP6517681B2 (ja) | 映像パターン学習装置、方法、及びプログラム | |
JP2016099982A (ja) | 行動認識装置、行動学習装置、方法、及びプログラム | |
CN111062263A (zh) | 手部姿态估计的方法、设备、计算机设备和存储介质 | |
CN114926530A (zh) | 用于生成三维姿态估计数据的计算机实现的方法、数据处理装置和计算机程序 | |
CN111931869A (zh) | 一种人机自然交互的用户注意力检测方法及系统 | |
WO2024198747A1 (zh) | 动作捕捉数据的处理方法、装置、设备及存储介质 | |
WO2022244536A1 (ja) | 作業認識装置および作業認識方法 | |
Xu | [Retracted] Fast Modelling Algorithm for Realistic Three‐Dimensional Human Face for Film and Television Animation | |
JP2019012497A (ja) | 部位認識方法、装置、プログラム、及び撮像制御システム | |
Faujdar et al. | Human pose estimation using artificial intelligence with virtual gym tracker | |
JP2022006919A (ja) | 動作認識システム、方法及びプログラム | |
Jambhulkar et al. | Real-Time Object Detection and Audio Feedback for the Visually Impaired | |
CN115713808A (zh) | 一种基于深度学习的手势识别系统 | |
US20160005184A1 (en) | System and a method for camera motion analysis and understanding from a video sequence | |
Shah et al. | Gesture recognition technique: a review | |
Mocanu et al. | Human activity recognition with convolution neural network using tiago robot | |
JP2022006885A (ja) | 動作認識装置、動作認識方法及び動作認識プログラム | |
JP2022006708A (ja) | 動作認識システム、方法及びプログラム | |
JP2022018333A (ja) | プログラム、情報処理方法、情報処理装置及びモデル生成方法 | |
JP2021077230A (ja) | 動作認識装置、動作認識方法、動作認識プログラム及び動作認識システム | |
CN112667088B (zh) | 基于vr行走平台的手势应用识别方法及系统 | |
Cleetus | Real-time multiple human pose estimation for animations in game engines | |
Anitta et al. | CNN—Forest Based Person Identification and Head Pose Estimation for AI Based Applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231011 |