JP7462857B1 - 動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム - Google Patents
動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム Download PDFInfo
- Publication number
- JP7462857B1 JP7462857B1 JP2023566655A JP2023566655A JP7462857B1 JP 7462857 B1 JP7462857 B1 JP 7462857B1 JP 2023566655 A JP2023566655 A JP 2023566655A JP 2023566655 A JP2023566655 A JP 2023566655A JP 7462857 B1 JP7462857 B1 JP 7462857B1
- Authority
- JP
- Japan
- Prior art keywords
- target
- time
- motion
- timing
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 131
- 238000004458 analytical method Methods 0.000 title claims abstract description 74
- 239000000284 extract Substances 0.000 claims abstract description 15
- 230000009471 action Effects 0.000 claims description 96
- 238000000605 extraction Methods 0.000 claims description 39
- 238000001514 detection method Methods 0.000 claims description 27
- 238000000034 method Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 12
- 238000003825 pressing Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 241000406668 Loxodonta cyclotis Species 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
Description
この手法では、カメラを使って得られた姿勢情報の時系列が動作軌跡として定義され、動作軌跡があらかじめ学習された軌跡と比較され、作業内容が特定される。
姿勢情報がカメラを使って得られることで、作業者に負担がかからない。
しかし、実際の作業では、分析対象作業のサイクル間に段取り作業が発生することがある。この場合、段取り作業の発生時の軌跡は登録された軌跡と異なるため、分析対象作業が認識されない可能性がある。または、分析対象作業が誤認識される可能性がある。
段取り動作を挟んで複数の対象動作を行う対象者を撮影することによって得られ各撮影時刻のフレームを含む映像を受け付ける映像受付部と、
前記撮影時刻ごとに前記フレームに映った前記対象者の骨格情報を対象骨格情報として抽出する骨格抽出部と、
前記対象動作ごとに開始タイミングと終了タイミングの少なくとも一方を検出するタイミング検出部と、
各対象動作の前記開始タイミングと各対象動作の前記終了タイミングの少なくとも一方に基づいて、各対象動作が行われた対象時刻ごとに、前記対象時刻を含み前記段取り動作が行われた時刻を含まない対象時間帯の2つ以上の前記対象骨格情報を軌跡情報として抽出する軌跡抽出部と、
前記対象時刻ごとに、各対象動作の参照骨格情報の時系列と、前記時系列の各時刻の動作ラベルと、を示す参照骨格データから、前記軌跡情報の前記2つ以上の前記対象骨格情報と合致する2つ以上の前記参照骨格情報を見つけ、見つかった前記2つ以上の前記参照骨格情報に対応する時間帯の基準時刻の前記動作ラベルを前記対象動作の前記動作ラベルとして取得するマッチング部と、を備える。
動作分析システム100について、図1から図8に基づいて説明する。
動作分析システム100は、対象者101の動作を分析するためのシステムである。
対象者101は、分析の対象となる人である。
図1に基づいて、動作分析システム100の構成を説明する。
動作分析システム100は、撮影デバイス111と、操作センサ112と、動作分析装置200と、を備える。
撮影デバイス111は、対象者101を撮影するデバイスである。撮影デバイス111の具体例は、カメラおよび三次元センサである。
操作センサ112は、対象者101によって行われる操作を検出するセンサである。操作センサ112の具体例は、ボタンデバイス、バーコードリーダおよびPLCである。ボタンデバイスは、ボタンの押下を検出する。バーコードリーダは、バーコードの読み取りを検出する。PLCは、電動式の道具のスイッチの切り替えを検出する。PLCはプログラマブルロジックコントローラの略称である。
動作分析装置200は、プロセッサ201とメモリ202と補助記憶装置203と通信装置204と入出力インタフェース205といったハードウェアを備えるコンピュータである。これらのハードウェアは、信号線を介して互いに接続されている。
ICは、Integrated Circuitの略称である。
CPUは、Central Processing Unitの略称である。
RAMは、Random Access Memoryの略称である。
ROMは、Read Only Memoryの略称である。
HDDは、Hard Disk Driveの略称である。
NICは、Network Interface Cardの略称である。
USBは、Universal Serial Busの略称である。
補助記憶装置203には、さらに、OSが記憶されている。OSの少なくとも一部は、メモリ202にロードされて、プロセッサ201によって実行される。
プロセッサ201は、OSを実行しながら、動作分析プログラムを実行する。
OSは、Operating Systemの略称である。
メモリ202は記憶部290として機能する。但し、補助記憶装置203、プロセッサ201内のレジスタおよびプロセッサ201内のキャッシュメモリなどの記憶装置が、メモリ202の代わりに、又は、メモリ202と共に、記憶部290として機能してもよい。
動作分析装置200は、対象者101の動作を分析し、動作ラベル292を出力する。
動作ラベル292は、対象者101の動作を識別する。
動作分析システム100の動作の手順は動作分析方法に相当する。また、動作分析装置200の動作の手順は動作分析プログラムによる処理の手順に相当する。
対象者101は、段取り動作を挟んで複数の対象動作を行う。
対象者101の具体例は、作業者である。
対象動作の具体例は、作業者によって行われる作業である。例えば、複数の対象動作は同じ種類の作業であり、同じ種類の作業が複数回行われる。
段取り動作は、対象動作の間に行われる動作である。例えば、段取り動作は、作業のための準備である。
具体的には、開始操作および終了操作はデバイスの操作である。操作されるデバイスを操作デバイスと称する。操作デバイスは、対象動作が行われる場所に配置される。
例えば、操作デバイスは、ボタンデバイス、バーコードリーダまたは電動道具である。電動道具は、対象動作のために使用される電動式の道具である。例えば、電動道具は電動ドライバである。
例えば、開始操作および終了操作は、ボタンの押下、バーコードの読み取り、または、電動道具のスイッチの切り替えである。
ステップS110において、撮影デバイス111は、対象者101を撮影し、映像を出力する。出力された映像は、動作分析装置200に入力される。
映像受付部211は、入力された映像を受け付ける。
映像は、撮影によって得られるデータであり、各撮影時刻のフレームを含む。
フレームは、画像に相当するデータである。
抽出方法は従来技術であり、フレームに対する画像解析によって骨格情報が得られる。
骨格情報は、対象者101の骨格を示す。具体的には、骨格情報は、対象者101の各関節の位置を示す。骨格情報によって、対象者101の姿勢が特定される。
抽出された骨格情報を、対象骨格情報と称する。
操作センサ112は、開始操作または終了操作が行われるごとに、行われた操作を検出して検出信号を出力する。検出信号は操作の種類によって異なる。出力された検出信号は、動作分析装置200に入力される。
タイミング検出部213は、各検出信号を受け付け、各検出信号が受け付けられたタイミングを開始タイミングまたは終了タイミングとして検出する。
つまり、タイミング検出部213は、開始操作が検出されたタイミングを開始タイミングとして検出する。また、タイミング検出部213は、終了操作が検出されたタイミングを終了タイミングとして検出する。
対象時刻は、各対象動作が行われた時間帯(動作時間帯)の各時刻である。各対象動作の動作時間帯は、開始タイミングから終了タイミングまでの時間帯である。各動作時間帯は軌跡抽出部214によって算出される。
軌跡情報は、対象時刻を含み段取り時刻を含まない時間帯(対象時間帯)の2つ以上の対象骨格情報である。
対象時間帯は、動作時間帯の一部である。
ステップS141からステップS146は、対象時刻ごとに実行される。
具体的には、軌跡抽出部214は、対象時刻を含み基準時間長を有する時間帯を算出する。算出される時間帯が対象時間帯である。
基準時間長は、予め決められた時間長である。
対象時刻がtであり、基準時間長が3tであると仮定する。例えば、算出される対象時間帯は、時刻(t-1)から時刻(t+1)までの時間帯である。
対象時間帯の先頭時刻が対象時刻の対象動作の開始タイミングよりも早い時刻である場合、処理はステップS143に進む。
対象時間帯の先頭時刻が対象時刻の対象動作の開始タイミングよりも早い時刻でない場合、処理はステップS144に進む。
対象時間帯の終了時刻が対象時刻の対象動作の終了タイミングよりも遅い時刻である場合、処理はステップS145に進む。
対象時間帯の終了時刻が対象時刻の対象動作の終了タイミングよりも遅い時刻でない場合、処理はステップS146に進む。
これにより、2つ以上の対象骨格情報が抽出される。抽出された2つ以上の対象骨格情報が軌跡情報を構成する。
ステップS150において、マッチング部215は、対象時刻ごとに、対象動作の動作ラベルを参照骨格データ291から取得する。
参照骨格データ291は、参照骨格情報の時系列と、時系列の各時刻の動作ラベルと、を示す。
参照骨格情報の時系列は、各対象動作における骨格情報の時系列である。段取り動作における骨格情報の時系列は参照骨格データ291に含まれない。なお、対象動作には、開始操作後の動作および終了操作時の動作が含まれる。
例えば、参照骨格情報の時系列は、対象動作を行う動作者を撮影して得られる映像から抽出される。参照骨格情報の抽出方法は対象骨格情報の抽出方法と同様である。動作者が対象動作を2回以上行い、抽出される2回分の時系列の平均が参照骨格データ291に設定されてもよい。
参照骨格データ291は、複数の映像を学習して得られる学習済みモデルであってもよい。
対象時刻ごとに、以下のような処理が行われる。対象時刻の軌跡情報を、対象軌跡情報と称する。
まず、マッチング部215は、参照骨格データ291を検索する。参照骨格データ291の検索は、例えば、特許文献1に開示された方法で実施される。
これにより、マッチング部215は、対象軌跡情報に合致する参照軌跡情報を参照骨格データ291から見つける。参照軌跡情報は2つ以上の参照骨格情報である。参照軌跡情報に対応する時間帯を、参照時間帯と称する。参照時間帯の時間長は、対象時間帯の時間長と同じである。
そして、マッチング部215は、見つかった参照軌跡情報に対応する参照時間帯から基準時刻を選択し、選択された基準時刻の動作ラベルを参照骨格データ291から取得する。取得される動作ラベルが、対象動作の動作ラベルとなる。参照時間帯における基準時刻の位置は、対象時間帯における対象時刻の位置と同じである。
対象時間帯が連続する3つの時刻であり、対象軌跡情報が対象時間帯の3つの対象骨格情報であると仮定する。この場合、参照時間帯は連続する3つの時刻であり、参照軌跡情報は参照時間帯の3つの参照骨格情報である。そして、マッチング部215は、各時刻を基準時刻とする参照軌跡情報ごとに、対象軌跡情報を参照軌跡情報と比較する。
対象時間帯における対象時刻が2番目の時刻であると仮定する。この場合、参照時間帯の基準時刻は参照時間帯における2番目の時刻である。また、対象軌跡情報と合致した参照軌跡情報が、骨格情報[t-1]、骨格情報[t]および骨格情報[t+1]であると仮定する。この場合、参照時間帯の基準時刻は時刻tである。そして、マッチング部215は、時刻tの動作ラベル「動作A」を取得する。
マッチング部215は、対象時刻ごとに、対象動作の動作ラベルを出力する。
出力の具体例は、ディスプレイへの表示および記憶媒体への記憶である。
図7および図8に基づいて、実施の形態1の効果を説明する。
図7は、従来技術における認識精度を示す。
従来技術では、分析対象作業と段取り作業の区切りが不明であるため、軌跡情報(連続する2つ以上の骨格情報)のマッチングを正しく行うことができず、分析対象作業の誤認識が発生する。具体的には、軌跡情報の時間長が固定であるため、段取り作業の時間帯に近い時刻で認識精度が低下する。
図8は、実施の形態1における認識精度を示す。
実施の形態1では、分析対象作業と段取り作業の区切りに応じて軌跡情報の時間長が変更される。つまり、軌跡抽出範囲とマッチング範囲が変更されてマッチングが実施される。具体的には、分析対象作業のサイクルの開始タイミングと分析対象作業のサイクルの終了タイミングに基づいて、軌跡抽出範囲とマッチング範囲が変更される。そのため、段取り作業の時間帯に近い時刻でも認識精度が低下しない。
実施の形態1は、段取り作業時の骨格情報を含まずに軌跡情報のマッチングを行うことができる。これにより、分析対象作業が認識されないケースおよび分析対象作業が誤認識されるケースが発生しなくなる。
対象動作中の特定タイミングに応じて対象時間帯を変更する形態について、主に実施の形態1と異なる点を図9から図11に基づいて説明する。
動作分析システム100の構成は、実施の形態1における構成と同じである。
動作分析方法の前提を説明する。
対象者101は、対象動作中の特定タイミングで特定操作を行う。具体的には、特定操作はデバイスの操作である。例えば、特定操作は、ボタンの押下、バーコードの読み取り、または、動作道具のスイッチの切り替えである。
ステップS210において、映像受付部211は映像を受け付ける。
ステップS210は、実施の形態1のステップS110と同じである。
ステップS220は、実施の形態1のステップS120と同じである。
さらに、タイミング検出部213は、対象動作中の特定タイミングを検出する。特定タイミングの検出方法は、開始タイミングおよび終了タイミングの検出方法と同じである。つまり、タイミング検出部213は、特定操作が検出されたタイミングを特定タイミングとして検出する。
ステップS241からステップS246は、対象時刻ごとに実行される。
ステップS241は、実施の形態1のステップS141と同じである。
対象時間帯の先頭時刻が対象時刻の対象動作の開始タイミングまたは対象動作の途中の特定タイミングよりも早い時刻である場合、処理はステップS243に進む。
対象時間帯の先頭時刻が対象時刻の対象動作の開始タイミングおよび対象動作の途中の特定タイミングよりも早い時刻でない場合、処理はステップS244に進む。
対象時間帯の先頭時刻が対象時刻の対象動作の開始タイミングよりも早い時刻である場合、対象時間帯の先頭時刻は開始タイミングに変更される。
対象時間帯の先頭時刻が対象動作の途中の特定タイミングよりも早い時刻である場合、対象時間帯の先頭時刻は特定タイミングに変更される。
対象時間帯の終了時刻が対象時刻の対象動作の終了タイミングまたは対象動作の途中の特定タイミングよりも遅い時刻である場合、処理はステップS245に進む。
対象時間帯の終了時刻が対象時刻の対象動作の終了タイミングおよび対象動作の途中の特定タイミングよりも遅い時刻でない場合、処理はステップS246に進む。
対象時間帯の最終時刻が対象時刻の対象動作の終了タイミングよりも遅い時刻である場合、対象時間帯の最終時刻は終了タイミングに変更される。
対象時間帯の最終時刻が対象動作の途中の特定タイミングよりも遅い時刻である場合、対象時間帯の最終時刻は特定タイミングに変更される。
ステップS246は、実施の形態1のステップS146と同じである。
図11は、実施の形態2における認識精度を示す。
実施の形態2では、対象動作中の特定タイミングに応じて軌跡抽出範囲およびマッチング範囲が変更される。
これにより、特定タイミングの前後の時刻における認識精度が向上する。
操作センサ112を用いずに各種タイミングを検出する形態について、主に実施の形態2と異なる点を図12から図14に基づいて説明する。
図12に基づいて、動作分析システム100の構成を説明する。
動作分析システム100は、操作センサ112を備えなくてよい。
タイミング検出部213は、映像受付部211で受け付けられた映像を使用する。
図14に基づいて、動作分析方法を説明する。ステップS330が特徴である。
ステップS210、ステップS220、ステップS240およびステップS250は、実施の形態2で説明した通りである。
開始タイミングで出現する特徴が映ったフレームが見つかった場合、タイミング検出部213は、見つかったフレームの撮影時刻を開始タイミングとして検出する。
終了タイミングで出現する特徴が映ったフレームが見つかった場合、タイミング検出部213は、見つかったフレームの撮影時刻を終了タイミングとして検出する。
また、タイミング検出部213は、映像から特定タイミングで出現する特徴が映ったフレームを探し、見つかったフレームの撮影時刻を特定タイミングとして検出する。
例えば、フレーム内に出現する特徴は、指定エリアに製造物が置かれたときの様子または手が指定エリアを通過したときの様子を表す。
実施の形態3により、操作センサ112を用意しなくても、各種タイミングを検出することができる。
図15に基づいて、動作分析装置200のハードウェア構成を説明する。
動作分析装置200は処理回路209を備える。
処理回路209は、映像受付部211と骨格抽出部212とタイミング検出部213と軌跡抽出部214とマッチング部215を実現するハードウェアである。
処理回路209は、専用のハードウェアであってもよいし、メモリ202に格納されるプログラムを実行するプロセッサ201であってもよい。
ASICは、Application Specific Integrated Circuitの略称である。
FPGAは、Field Programmable Gate Arrayの略称である。
Claims (13)
- 段取り動作を挟んで複数の対象動作を行う対象者を撮影することによって得られ各撮影時刻のフレームを含む映像を受け付ける映像受付部と、
前記撮影時刻ごとに前記フレームに映った前記対象者の骨格情報を対象骨格情報として抽出する骨格抽出部と、
前記対象動作ごとに開始タイミングと終了タイミングの少なくとも一方を検出するタイミング検出部と、
各対象動作の前記開始タイミングと各対象動作の前記終了タイミングの少なくとも一方に基づいて、各対象動作が行われた対象時刻ごとに、前記対象時刻を含み前記段取り動作が行われた時刻を含まない対象時間帯の2つ以上の前記対象骨格情報を軌跡情報として抽出する軌跡抽出部と、
前記対象時刻ごとに、各対象動作の参照骨格情報の時系列と、前記時系列の各時刻の動作ラベルと、を示す参照骨格データから、前記軌跡情報の前記2つ以上の前記対象骨格情報と合致する2つ以上の前記参照骨格情報を見つけ、見つかった前記2つ以上の前記参照骨格情報に対応する時間帯の基準時刻の前記動作ラベルを前記対象動作の前記動作ラベルとして取得するマッチング部と、
を備える動作分析装置。 - 前記軌跡抽出部は、
前記対象時刻を含み基準時間長を有する時間帯を前記対象時間帯として算出し、
前記対象時間帯の先頭時刻が前記対象時刻の前記対象動作の前記開始タイミングよりも早い時刻である場合、前記対象時間帯の前記先頭時刻を前記開始タイミングに変更し、
前記対象時間帯の最終時刻が前記対象時刻の前記対象動作の前記終了タイミングよりも遅い時刻である場合、前記対象時間帯の前記最終時刻を前記終了タイミングに変更し、
前記対象時間帯の前記2つ以上の前記対象骨格情報を前記軌跡情報として抽出する
請求項1に記載の動作分析装置。 - 前記タイミング検出部は、各対象動作の開始時と各対象動作の終了時の少なくとも一方で前記対象者によって行われる操作を検出する操作センサによって前記操作が検出された各タイミングを前記開始タイミングまたは前記終了タイミングとして検出する
請求項1に記載の動作分析装置。 - 前記操作センサは、ボタンの押下を検出するボタンデバイス、バーコードの読み取りを検出するバーコードリーダまたは電動道具のスイッチの切り替えを検出するプログラマブルロジックコントローラである
請求項3に記載の動作分析装置。 - 前記タイミング検出部は、前記映像から前記開始タイミングと前記終了タイミングの少なくとも一方で発生する特徴を示すフレームを探し、見つかったフレームの前記撮影時刻を前記開始タイミングまたは前記終了タイミングとして検出する
請求項1に記載の動作分析装置。 - 前記タイミング検出部は、前記対象動作の途中の特定タイミングを検出し、
前記軌跡抽出部は、各対象動作の前記開始タイミングと各対象動作の前記終了タイミングの少なくとも一方と前記特定タイミングに基づいて前記対象時刻ごとに前記軌跡情報を抽出する
請求項1から請求項5のいずれか1項に記載の動作分析装置。 - 前記軌跡抽出部は、
前記対象時刻を含み基準時間長を有する時間帯を前記対象時間帯として算出し、
前記対象時間帯の先頭時刻が前記対象時刻の前記対象動作の前記開始タイミングまたは前記対象動作の途中の前記特定タイミングよりも早い時刻である場合、前記対象時間帯の前記先頭時刻を前記開始タイミングまたは前記特定タイミングに変更し、
前記対象時間帯の最終時刻が前記対象時刻の前記対象動作の前記終了タイミングまたは前記対象動作の途中の前記特定タイミングよりも遅い時刻である場合、前記対象時間帯の前記最終時刻を前記終了タイミングまたは前記特定タイミングに変更し、
前記対象時間帯の前記2つ以上の前記対象骨格情報を前記軌跡情報として抽出する
請求項6に記載の動作分析装置。 - 前記タイミング検出部は、前記対象動作の途中で前記対象者によって行われる操作を検出する操作センサによって前記操作が検出された各タイミングを前記特定タイミングとして検出する
請求項6に記載の動作分析装置。 - 前記操作センサは、ボタンの押下を検出するボタンデバイス、バーコードの読み取りを検出するバーコードリーダまたは電動道具のスイッチの切り替えを検出するプログラマブルロジックコントローラである
請求項8に記載の動作分析装置。 - 前記タイミング検出部は、前記映像から前記特定タイミングで発生する特徴を示すフレームを探し、見つかったフレームの前記撮影時刻を前記特定タイミングとして検出する
請求項6に記載の動作分析装置。 - 動作分析装置が、
段取り動作を挟んで複数の対象動作を行う対象者を撮影することによって得られ各撮影時刻のフレームを含む映像を受け付け、
前記撮影時刻ごとに前記フレームに映った前記対象者の骨格情報を対象骨格情報として抽出し、
前記対象動作ごとに開始タイミングと終了タイミングの少なくとも一方を検出し、
各対象動作の前記開始タイミングと各対象動作の前記終了タイミングの少なくとも一方に基づいて、各対象動作が行われた対象時刻ごとに、前記対象時刻を含み前記段取り動作が行われた時刻を含まない対象時間帯の2つ以上の前記対象骨格情報を軌跡情報として抽出し、
前記対象時刻ごとに、各対象動作の参照骨格情報の時系列と、前記時系列の各時刻の動作ラベルと、を示す参照骨格データから、前記軌跡情報の前記2つ以上の前記対象骨格情報と合致する2つ以上の前記参照骨格情報を見つけ、見つかった前記2つ以上の前記参照骨格情報に対応する時間帯の基準時刻の前記動作ラベルを前記対象動作の前記動作ラベルとして取得する
動作分析方法。 - 段取り動作を挟んで複数の対象動作を行う対象者を撮影することによって得られ各撮影時刻のフレームを含む映像を受け付ける映像受付処理と、
前記撮影時刻ごとに前記フレームに映った前記対象者の骨格情報を対象骨格情報として抽出する骨格抽出処理と、
前記対象動作ごとに開始タイミングと終了タイミングの少なくとも一方を検出するタイミング検出処理と、
各対象動作の前記開始タイミングと各対象動作の前記終了タイミングの少なくとも一方に基づいて、各対象動作が行われた対象時刻ごとに、前記対象時刻を含み前記段取り動作が行われた時刻を含まない対象時間帯の2つ以上の前記対象骨格情報を軌跡情報として抽出する軌跡抽出処理と、
前記対象時刻ごとに、各対象動作の参照骨格情報の時系列と、前記時系列の各時刻の動作ラベルと、を示す参照骨格データから、前記軌跡情報の前記2つ以上の前記対象骨格情報と合致する2つ以上の前記参照骨格情報を見つけ、見つかった前記2つ以上の前記参照骨格情報に対応する時間帯の基準時刻の前記動作ラベルを前記対象動作の前記動作ラベルとして取得するマッチング処理と、
をコンピュータに実行させるための動作分析プログラム。 - 対象者を撮影する撮影デバイスと、
前記対象者の動作を分析する動作分析装置と、
を備え、
前記動作分析装置は、
前記撮影デバイスから、段取り動作を挟んで複数の対象動作を行う前記対象者を撮影することによって得られ各撮影時刻のフレームを含む映像を受け付ける映像受付部と、
前記撮影時刻ごとに前記フレームに映った前記対象者の骨格情報を対象骨格情報として抽出する骨格抽出部と、
前記対象動作ごとに開始タイミングと終了タイミングの少なくとも一方を検出するタイミング検出部と、
各対象動作の前記開始タイミングと各対象動作の前記終了タイミングの少なくとも一方に基づいて、各対象動作が行われた対象時刻ごとに、前記対象時刻を含み前記段取り動作が行われた時刻を含まない対象時間帯の2つ以上の前記対象骨格情報を軌跡情報として抽出する軌跡抽出部と、
前記対象時刻ごとに、各対象動作の参照骨格情報の時系列と、前記時系列の各時刻の動作ラベルと、を示す参照骨格データから、前記軌跡情報の前記2つ以上の前記対象骨格情報と合致する2つ以上の前記参照骨格情報を見つけ、見つかった前記2つ以上の前記参照骨格情報に対応する時間帯の基準時刻の前記動作ラベルを前記対象動作の前記動作ラベルとして取得するマッチング部と、
を備える
動作分析システム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/019932 WO2023218557A1 (ja) | 2022-05-11 | 2022-05-11 | 動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2023218557A1 JPWO2023218557A1 (ja) | 2023-11-16 |
JP7462857B1 true JP7462857B1 (ja) | 2024-04-05 |
JPWO2023218557A5 JPWO2023218557A5 (ja) | 2024-04-19 |
Family
ID=88730014
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023566655A Active JP7462857B1 (ja) | 2022-05-11 | 2022-05-11 | 動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7462857B1 (ja) |
WO (1) | WO2023218557A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008077424A (ja) | 2006-09-21 | 2008-04-03 | Toshiba Corp | 作業分析システム及び方法 |
JP2020198133A (ja) | 2020-09-09 | 2020-12-10 | 三菱電機株式会社 | 動作特定装置、動作特定方法及び動作特定プログラム |
WO2021130978A1 (ja) | 2019-12-26 | 2021-07-01 | 三菱電機株式会社 | 動作分析システムおよび動作分析プログラム |
-
2022
- 2022-05-11 WO PCT/JP2022/019932 patent/WO2023218557A1/ja unknown
- 2022-05-11 JP JP2023566655A patent/JP7462857B1/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008077424A (ja) | 2006-09-21 | 2008-04-03 | Toshiba Corp | 作業分析システム及び方法 |
WO2021130978A1 (ja) | 2019-12-26 | 2021-07-01 | 三菱電機株式会社 | 動作分析システムおよび動作分析プログラム |
JP2020198133A (ja) | 2020-09-09 | 2020-12-10 | 三菱電機株式会社 | 動作特定装置、動作特定方法及び動作特定プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2023218557A1 (ja) | 2023-11-16 |
JPWO2023218557A1 (ja) | 2023-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2015251B1 (en) | Object extracting, object tracking and image synthesizing | |
JP5675233B2 (ja) | 情報処理装置、その認識方法及びプログラム | |
CN109727275B (zh) | 目标检测方法、装置、系统和计算机可读存储介质 | |
US10146992B2 (en) | Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type | |
US8842880B2 (en) | Information processing apparatus, method of controlling information processing apparatus, and storage medium | |
TW201701187A (zh) | 手勢檢測識別方法及系統 | |
EP3142040A1 (en) | Information processing apparatus, method of controlling the same, and program | |
US20190333204A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JPWO2018154709A1 (ja) | 動作学習装置、技能判別装置および技能判別システム | |
JP2019101919A (ja) | 情報処理装置、情報処理方法、コンピュータプログラムおよび記憶媒体 | |
CN112183304A (zh) | 离位检测方法、系统及计算机存储介质 | |
Bharadwaj et al. | Can holistic representations be used for face biometric quality assessment? | |
JP2007304721A (ja) | 画像処理装置及び画像処理方法 | |
JP7462857B1 (ja) | 動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム | |
JP3025133B2 (ja) | 人物認識装置 | |
CN114846513A (zh) | 动作分析系统和动作分析程序 | |
CN111462188A (zh) | 摄像头移动检测方法和系统 | |
JP2010079651A (ja) | 動作認識装置、方法及びプログラム | |
US20160094783A1 (en) | Image processing apparatus, control method of image processing apparatus and program | |
JP5046148B2 (ja) | 画像解析装置および対象物認識方法 | |
JP2003162723A (ja) | 画像処理プログラム | |
Castillo et al. | A method to detect victims in search and rescue operations using template matching | |
JP7337541B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2019053527A (ja) | 組立作業分析装置、組立作業分析方法、コンピュータプログラム、及び記憶媒体 | |
JP2015187769A (ja) | 物体検出装置、物体検出方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231027 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231027 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20231027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240326 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7462857 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |