JP7462857B1 - 動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム - Google Patents

動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム Download PDF

Info

Publication number
JP7462857B1
JP7462857B1 JP2023566655A JP2023566655A JP7462857B1 JP 7462857 B1 JP7462857 B1 JP 7462857B1 JP 2023566655 A JP2023566655 A JP 2023566655A JP 2023566655 A JP2023566655 A JP 2023566655A JP 7462857 B1 JP7462857 B1 JP 7462857B1
Authority
JP
Japan
Prior art keywords
target
time
motion
timing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023566655A
Other languages
English (en)
Other versions
JPWO2023218557A5 (ja
JPWO2023218557A1 (ja
Inventor
勝大 草野
尚吾 清水
孝之 小平
龍二 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MITSUBISHI ELECTRIC SOFTWARE CORPORATION
Mitsubishi Electric Corp
Original Assignee
MITSUBISHI ELECTRIC SOFTWARE CORPORATION
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MITSUBISHI ELECTRIC SOFTWARE CORPORATION, Mitsubishi Electric Corp filed Critical MITSUBISHI ELECTRIC SOFTWARE CORPORATION
Publication of JPWO2023218557A1 publication Critical patent/JPWO2023218557A1/ja
Application granted granted Critical
Publication of JP7462857B1 publication Critical patent/JP7462857B1/ja
Publication of JPWO2023218557A5 publication Critical patent/JPWO2023218557A5/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

動作分析装置(200)は、対象者(101)を撮影することによって得られる映像を受け付け、各フレームに映った前記対象者の対象骨格情報を抽出し、対象動作ごとに開始タイミングと終了タイミングを検出し、各開始タイミングと各終了タイミングに基づいて対象時刻ごとに前記対象時刻を含み段取り動作の時刻を含まない対象時間帯の2つ以上の前記対象骨格情報を軌跡情報として抽出し、前記対象時刻ごとに参照骨格データから前記軌跡情報の前記2つ以上の前記対象骨格情報と合致する2つ以上の参照骨格情報を見つけ、見つかった前記2つ以上の前記参照骨格情報に対応する時間帯の基準時刻の動作ラベルを取得する。

Description

本開示は、人の動作を分析する技術に関するものである。
産業分野において、作業者のサイクルタイムの計測と作業内容の分析が人手で行われている。しかし、人手での分析は負荷が大きい。
特許文献1は、分析を自動化する手法を提案している。
この手法では、カメラを使って得られた姿勢情報の時系列が動作軌跡として定義され、動作軌跡があらかじめ学習された軌跡と比較され、作業内容が特定される。
姿勢情報がカメラを使って得られることで、作業者に負担がかからない。
特許第6786015号公報
特許文献1の手法により、工場のラインの作業者について作業時間及び作業手順を分析することができる。分析対象時刻を含む前後の骨格の軌跡が登録された軌跡と比較され、作業時間及び作業手順が検出される。
しかし、実際の作業では、分析対象作業のサイクル間に段取り作業が発生することがある。この場合、段取り作業の発生時の軌跡は登録された軌跡と異なるため、分析対象作業が認識されない可能性がある。または、分析対象作業が誤認識される可能性がある。
本開示は、分析対象作業のサイクル間に段取り作業が発生した場合であっても分析対象作業を正しく認識できるようにすることを目的とする。
本開示の動作分析装置は、
段取り動作を挟んで複数の対象動作を行う対象者を撮影することによって得られ各撮影時刻のフレームを含む映像を受け付ける映像受付部と、
前記撮影時刻ごとに前記フレームに映った前記対象者の骨格情報を対象骨格情報として抽出する骨格抽出部と、
前記対象動作ごとに開始タイミングと終了タイミングの少なくとも一方を検出するタイミング検出部と、
各対象動作の前記開始タイミングと各対象動作の前記終了タイミングの少なくとも一方に基づいて、各対象動作が行われた対象時刻ごとに、前記対象時刻を含み前記段取り動作が行われた時刻を含まない対象時間帯の2つ以上の前記対象骨格情報を軌跡情報として抽出する軌跡抽出部と、
前記対象時刻ごとに、各対象動作の参照骨格情報の時系列と、前記時系列の各時刻の動作ラベルと、を示す参照骨格データから、前記軌跡情報の前記2つ以上の前記対象骨格情報と合致する2つ以上の前記参照骨格情報を見つけ、見つかった前記2つ以上の前記参照骨格情報に対応する時間帯の基準時刻の前記動作ラベルを前記対象動作の前記動作ラベルとして取得するマッチング部と、を備える。
本開示によれば、分析対象作業のサイクル間に段取り作業が発生した場合であっても分析対象作業を正しく認識することが可能となる。
実施の形態1における動作分析システム100の構成図。 実施の形態1における動作分析装置200の構成図。 実施の形態1における動作分析装置200の機能構成図。 実施の形態1における動作分析方法のフローチャート。 実施の形態1におけるステップS140のフローチャート。 実施の形態1における参照骨格データ291の例を示す図。 従来技術における認識精度を示す図。 実施の形態1における認識精度を示す図。 実施の形態2における動作分析方法のフローチャート。 実施の形態2におけるステップS240のフローチャート。 実施の形態2における認識精度を示す図。 実施の形態3における動作分析システム100の構成図。 実施の形態3における動作分析装置200の機能構成図。 実施の形態3における動作分析方法のフローチャート。 実施の形態における動作分析装置200のハードウェア構成図。
実施の形態および図面において、同じ要素または対応する要素には同じ符号を付している。説明した要素と同じ符号が付された要素の説明は適宜に省略または簡略化する。図中の矢印はデータの流れ又は処理の流れを主に示している。
実施の形態1.
動作分析システム100について、図1から図8に基づいて説明する。
動作分析システム100は、対象者101の動作を分析するためのシステムである。
対象者101は、分析の対象となる人である。
***構成の説明***
図1に基づいて、動作分析システム100の構成を説明する。
動作分析システム100は、撮影デバイス111と、操作センサ112と、動作分析装置200と、を備える。
撮影デバイス111は、対象者101を撮影するデバイスである。撮影デバイス111の具体例は、カメラおよび三次元センサである。
操作センサ112は、対象者101によって行われる操作を検出するセンサである。操作センサ112の具体例は、ボタンデバイス、バーコードリーダおよびPLCである。ボタンデバイスは、ボタンの押下を検出する。バーコードリーダは、バーコードの読み取りを検出する。PLCは、電動式の道具のスイッチの切り替えを検出する。PLCはプログラマブルロジックコントローラの略称である。
図2に基づいて、動作分析装置200の構成を説明する。
動作分析装置200は、プロセッサ201とメモリ202と補助記憶装置203と通信装置204と入出力インタフェース205といったハードウェアを備えるコンピュータである。これらのハードウェアは、信号線を介して互いに接続されている。
プロセッサ201は、演算処理を行うICであり、他のハードウェアを制御する。例えば、プロセッサ201はCPUである。
ICは、Integrated Circuitの略称である。
CPUは、Central Processing Unitの略称である。
メモリ202は揮発性または不揮発性の記憶装置である。メモリ202は、主記憶装置またはメインメモリとも呼ばれる。例えば、メモリ202はRAMである。メモリ202に記憶されたデータは必要に応じて補助記憶装置203に保存される。
RAMは、Random Access Memoryの略称である。
補助記憶装置203は不揮発性の記憶装置である。例えば、補助記憶装置203は、ROM、HDD、フラッシュメモリまたはこれらの組み合わせである。補助記憶装置203に記憶されたデータは必要に応じてメモリ202にロードされる。
ROMは、Read Only Memoryの略称である。
HDDは、Hard Disk Driveの略称である。
通信装置204はレシーバ及びトランスミッタである。例えば、通信装置204は通信チップまたはNICである。動作分析装置200の通信は通信装置204を用いて行われる。
NICは、Network Interface Cardの略称である。
入出力インタフェース205は、入力装置および出力装置が接続されるポートである。例えば、入出力インタフェース205はUSB端子であり、入力装置はキーボードおよびマウスであり、出力装置はディスプレイである。動作分析装置200の入出力は入出力インタフェース205を用いて行われる。
USBは、Universal Serial Busの略称である。
撮影デバイス111および操作センサ112は、入出力インタフェース205に接続される。但し、撮影デバイス111および操作センサ112は、通信装置204に接続されてもよい。
動作分析装置200は、映像受付部211と骨格抽出部212とタイミング検出部213と軌跡抽出部214とマッチング部215といった要素を備える。これらの要素はソフトウェアで実現される。
補助記憶装置203には、映像受付部211と骨格抽出部212とタイミング検出部213と軌跡抽出部214とマッチング部215としてコンピュータを機能させるための動作分析プログラムが記憶されている。動作分析プログラムは、メモリ202にロードされて、プロセッサ201によって実行される。
補助記憶装置203には、さらに、OSが記憶されている。OSの少なくとも一部は、メモリ202にロードされて、プロセッサ201によって実行される。
プロセッサ201は、OSを実行しながら、動作分析プログラムを実行する。
OSは、Operating Systemの略称である。
動作分析プログラムの入出力データは記憶部290に記憶される。例えば、記憶部290には、参照骨格データ291が予め記憶される。参照骨格データ291について後述する。
メモリ202は記憶部290として機能する。但し、補助記憶装置203、プロセッサ201内のレジスタおよびプロセッサ201内のキャッシュメモリなどの記憶装置が、メモリ202の代わりに、又は、メモリ202と共に、記憶部290として機能してもよい。
動作分析装置200は、プロセッサ201を代替する複数のプロセッサを備えてもよい。
動作分析プログラムは、光ディスクまたはフラッシュメモリ等の不揮発性の記録媒体にコンピュータ読み取り可能に記録(格納)することができる。
図3に、動作分析装置200の要素同士の関係を示す。
動作分析装置200は、対象者101の動作を分析し、動作ラベル292を出力する。
動作ラベル292は、対象者101の動作を識別する。
***動作の説明***
動作分析システム100の動作の手順は動作分析方法に相当する。また、動作分析装置200の動作の手順は動作分析プログラムによる処理の手順に相当する。
動作分析方法の前提を説明する。
対象者101は、段取り動作を挟んで複数の対象動作を行う。
対象者101の具体例は、作業者である。
対象動作の具体例は、作業者によって行われる作業である。例えば、複数の対象動作は同じ種類の作業であり、同じ種類の作業が複数回行われる。
段取り動作は、対象動作の間に行われる動作である。例えば、段取り動作は、作業のための準備である。
対象者101は、対象動作ごとに、対象動作の開始時に開始操作を行い、対象動作の終了時に終了操作を行う。
具体的には、開始操作および終了操作はデバイスの操作である。操作されるデバイスを操作デバイスと称する。操作デバイスは、対象動作が行われる場所に配置される。
例えば、操作デバイスは、ボタンデバイス、バーコードリーダまたは電動道具である。電動道具は、対象動作のために使用される電動式の道具である。例えば、電動道具は電動ドライバである。
例えば、開始操作および終了操作は、ボタンの押下、バーコードの読み取り、または、電動道具のスイッチの切り替えである。
図4に基づいて、動作分析方法を説明する。
ステップS110において、撮影デバイス111は、対象者101を撮影し、映像を出力する。出力された映像は、動作分析装置200に入力される。
映像受付部211は、入力された映像を受け付ける。
映像は、撮影によって得られるデータであり、各撮影時刻のフレームを含む。
フレームは、画像に相当するデータである。
ステップS120において、骨格抽出部212は、撮影時刻ごとに、フレームに映った対象者101の骨格情報を抽出する。
抽出方法は従来技術であり、フレームに対する画像解析によって骨格情報が得られる。
骨格情報は、対象者101の骨格を示す。具体的には、骨格情報は、対象者101の各関節の位置を示す。骨格情報によって、対象者101の姿勢が特定される。
抽出された骨格情報を、対象骨格情報と称する。
ステップS130において、タイミング検出部213は、対象動作ごとに、開始タイミングと終了タイミングの少なくとも一方を検出する。
開始タイミングおよび終了タイミングは、以下のように検出される。
操作センサ112は、開始操作または終了操作が行われるごとに、行われた操作を検出して検出信号を出力する。検出信号は操作の種類によって異なる。出力された検出信号は、動作分析装置200に入力される。
タイミング検出部213は、各検出信号を受け付け、各検出信号が受け付けられたタイミングを開始タイミングまたは終了タイミングとして検出する。
つまり、タイミング検出部213は、開始操作が検出されたタイミングを開始タイミングとして検出する。また、タイミング検出部213は、終了操作が検出されたタイミングを終了タイミングとして検出する。
ステップS140において、軌跡抽出部214は、各対象動作の開始タイミングと各対象動作の終了タイミングの少なくとも一方に基づいて、対象時刻ごとに軌跡情報を抽出する。
対象時刻は、各対象動作が行われた時間帯(動作時間帯)の各時刻である。各対象動作の動作時間帯は、開始タイミングから終了タイミングまでの時間帯である。各動作時間帯は軌跡抽出部214によって算出される。
軌跡情報は、対象時刻を含み段取り時刻を含まない時間帯(対象時間帯)の2つ以上の対象骨格情報である。
対象時間帯は、動作時間帯の一部である。
図5に基づいて、ステップS140を説明する。
ステップS141からステップS146は、対象時刻ごとに実行される。
ステップS141において、軌跡抽出部214は、対象時間帯を算出する。
具体的には、軌跡抽出部214は、対象時刻を含み基準時間長を有する時間帯を算出する。算出される時間帯が対象時間帯である。
基準時間長は、予め決められた時間長である。
対象時刻がtであり、基準時間長が3tであると仮定する。例えば、算出される対象時間帯は、時刻(t-1)から時刻(t+1)までの時間帯である。
ステップS142からステップS145により、対象時間帯は調整される。
ステップS142において、軌跡抽出部214は、対象時間帯の先頭時刻が対象時刻の対象動作の開始タイミングよりも早い時刻であるか判定する。
対象時間帯の先頭時刻が対象時刻の対象動作の開始タイミングよりも早い時刻である場合、処理はステップS143に進む。
対象時間帯の先頭時刻が対象時刻の対象動作の開始タイミングよりも早い時刻でない場合、処理はステップS144に進む。
ステップS143において、軌跡抽出部214は、対象時間帯の先頭時刻を対象時刻の対象動作の開始タイミングに変更する。これにより、対象時間帯が短縮される。
ステップS144において、軌跡抽出部214は、対象時間帯の最終時刻が対象時刻の対象動作の終了タイミングよりも遅い時刻であるか判定する。
対象時間帯の終了時刻が対象時刻の対象動作の終了タイミングよりも遅い時刻である場合、処理はステップS145に進む。
対象時間帯の終了時刻が対象時刻の対象動作の終了タイミングよりも遅い時刻でない場合、処理はステップS146に進む。
ステップS145において、軌跡抽出部214は、対象時間帯の終了時刻を対象時刻の対象動作の終了タイミングに変更する。これにより、対象時間帯が短縮される。
ステップS141からステップS145により、対象時間帯が決定される。
ステップS146において、軌跡抽出部214は、ステップS120で得られた対象骨格情報から、対象時間帯の各時刻の対象骨格情報を抽出する。
これにより、2つ以上の対象骨格情報が抽出される。抽出された2つ以上の対象骨格情報が軌跡情報を構成する。
図4に戻り、ステップS150を説明する。
ステップS150において、マッチング部215は、対象時刻ごとに、対象動作の動作ラベルを参照骨格データ291から取得する。
図6に基づいて、参照骨格データ291を説明する。
参照骨格データ291は、参照骨格情報の時系列と、時系列の各時刻の動作ラベルと、を示す。
参照骨格情報の時系列は、各対象動作における骨格情報の時系列である。段取り動作における骨格情報の時系列は参照骨格データ291に含まれない。なお、対象動作には、開始操作後の動作および終了操作時の動作が含まれる。
例えば、参照骨格情報の時系列は、対象動作を行う動作者を撮影して得られる映像から抽出される。参照骨格情報の抽出方法は対象骨格情報の抽出方法と同様である。動作者が対象動作を2回以上行い、抽出される2回分の時系列の平均が参照骨格データ291に設定されてもよい。
参照骨格データ291は、複数の映像を学習して得られる学習済みモデルであってもよい。
図4に戻り、ステップS150を具体的に説明する。
対象時刻ごとに、以下のような処理が行われる。対象時刻の軌跡情報を、対象軌跡情報と称する。
まず、マッチング部215は、参照骨格データ291を検索する。参照骨格データ291の検索は、例えば、特許文献1に開示された方法で実施される。
これにより、マッチング部215は、対象軌跡情報に合致する参照軌跡情報を参照骨格データ291から見つける。参照軌跡情報は2つ以上の参照骨格情報である。参照軌跡情報に対応する時間帯を、参照時間帯と称する。参照時間帯の時間長は、対象時間帯の時間長と同じである。
そして、マッチング部215は、見つかった参照軌跡情報に対応する参照時間帯から基準時刻を選択し、選択された基準時刻の動作ラベルを参照骨格データ291から取得する。取得される動作ラベルが、対象動作の動作ラベルとなる。参照時間帯における基準時刻の位置は、対象時間帯における対象時刻の位置と同じである。
図6に基づいて、ステップS150の具体例を説明する。
対象時間帯が連続する3つの時刻であり、対象軌跡情報が対象時間帯の3つの対象骨格情報であると仮定する。この場合、参照時間帯は連続する3つの時刻であり、参照軌跡情報は参照時間帯の3つの参照骨格情報である。そして、マッチング部215は、各時刻を基準時刻とする参照軌跡情報ごとに、対象軌跡情報を参照軌跡情報と比較する。
対象時間帯における対象時刻が2番目の時刻であると仮定する。この場合、参照時間帯の基準時刻は参照時間帯における2番目の時刻である。また、対象軌跡情報と合致した参照軌跡情報が、骨格情報[t-1]、骨格情報[t]および骨格情報[t+1]であると仮定する。この場合、参照時間帯の基準時刻は時刻tである。そして、マッチング部215は、時刻tの動作ラベル「動作A」を取得する。
図4に戻り、ステップS150の説明を続ける。
マッチング部215は、対象時刻ごとに、対象動作の動作ラベルを出力する。
出力の具体例は、ディスプレイへの表示および記憶媒体への記憶である。
***実施の形態1の効果***
図7および図8に基づいて、実施の形態1の効果を説明する。
図7は、従来技術における認識精度を示す。
従来技術では、分析対象作業と段取り作業の区切りが不明であるため、軌跡情報(連続する2つ以上の骨格情報)のマッチングを正しく行うことができず、分析対象作業の誤認識が発生する。具体的には、軌跡情報の時間長が固定であるため、段取り作業の時間帯に近い時刻で認識精度が低下する。
図8は、実施の形態1における認識精度を示す。
実施の形態1では、分析対象作業と段取り作業の区切りに応じて軌跡情報の時間長が変更される。つまり、軌跡抽出範囲とマッチング範囲が変更されてマッチングが実施される。具体的には、分析対象作業のサイクルの開始タイミングと分析対象作業のサイクルの終了タイミングに基づいて、軌跡抽出範囲とマッチング範囲が変更される。そのため、段取り作業の時間帯に近い時刻でも認識精度が低下しない。
実施の形態1は、段取り作業時の骨格情報を含まずに軌跡情報のマッチングを行うことができる。これにより、分析対象作業が認識されないケースおよび分析対象作業が誤認識されるケースが発生しなくなる。
実施の形態2.
対象動作中の特定タイミングに応じて対象時間帯を変更する形態について、主に実施の形態1と異なる点を図9から図11に基づいて説明する。
***構成の説明***
動作分析システム100の構成は、実施の形態1における構成と同じである。
***動作の説明***
動作分析方法の前提を説明する。
対象者101は、対象動作中の特定タイミングで特定操作を行う。具体的には、特定操作はデバイスの操作である。例えば、特定操作は、ボタンの押下、バーコードの読み取り、または、動作道具のスイッチの切り替えである。
図9に基づいて、動作分析方法を説明する。
ステップS210において、映像受付部211は映像を受け付ける。
ステップS210は、実施の形態1のステップS110と同じである。
ステップS220において、骨格抽出部212は、撮影時刻ごとに象骨格情報を抽出する。
ステップS220は、実施の形態1のステップS120と同じである。
ステップS230において、タイミング検出部213は、対象動作ごとに、開始タイミングと終了タイミングの少なくとも一方を検出する。
さらに、タイミング検出部213は、対象動作中の特定タイミングを検出する。特定タイミングの検出方法は、開始タイミングおよび終了タイミングの検出方法と同じである。つまり、タイミング検出部213は、特定操作が検出されたタイミングを特定タイミングとして検出する。
ステップS240において、軌跡抽出部214は、各対象動作の開始タイミングと各対象動作の終了タイミングの少なくとも一方と特定タイミングに基づいて、対象時刻ごとに軌跡情報を抽出する。
図10に基づいて、ステップS240を説明する。
ステップS241からステップS246は、対象時刻ごとに実行される。
ステップS241において、軌跡抽出部214は、対象時間帯を算出する。
ステップS241は、実施の形態1のステップS141と同じである。
ステップS242において、軌跡抽出部214は、対象時間帯の先頭時刻が対象時刻の対象動作の開始タイミングまたは対象動作の途中の特定タイミングよりも早い時刻であるか判定する。
対象時間帯の先頭時刻が対象時刻の対象動作の開始タイミングまたは対象動作の途中の特定タイミングよりも早い時刻である場合、処理はステップS243に進む。
対象時間帯の先頭時刻が対象時刻の対象動作の開始タイミングおよび対象動作の途中の特定タイミングよりも早い時刻でない場合、処理はステップS244に進む。
ステップS243において、軌跡抽出部214は、対象時間帯の先頭時刻を対象時刻の対象動作の開始タイミングまたは対象動作の途中の特定タイミングに変更する。
対象時間帯の先頭時刻が対象時刻の対象動作の開始タイミングよりも早い時刻である場合、対象時間帯の先頭時刻は開始タイミングに変更される。
対象時間帯の先頭時刻が対象動作の途中の特定タイミングよりも早い時刻である場合、対象時間帯の先頭時刻は特定タイミングに変更される。
ステップS244において、軌跡抽出部214は、対象時間帯の最終時刻が対象時刻の対象動作の終了タイミングまたは対象動作の途中の特定タイミングよりも遅い時刻であるか判定する。
対象時間帯の終了時刻が対象時刻の対象動作の終了タイミングまたは対象動作の途中の特定タイミングよりも遅い時刻である場合、処理はステップS245に進む。
対象時間帯の終了時刻が対象時刻の対象動作の終了タイミングおよび対象動作の途中の特定タイミングよりも遅い時刻でない場合、処理はステップS246に進む。
ステップS245において、軌跡抽出部214は、対象時間帯の最終時刻を対象時刻の対象動作の終了タイミングまたは対象動作の途中の特定タイミングに変更する。
対象時間帯の最終時刻が対象時刻の対象動作の終了タイミングよりも遅い時刻である場合、対象時間帯の最終時刻は終了タイミングに変更される。
対象時間帯の最終時刻が対象動作の途中の特定タイミングよりも遅い時刻である場合、対象時間帯の最終時刻は特定タイミングに変更される。
ステップS246において、軌跡抽出部214は、対象時間帯の各時刻の対象骨格情報を抽出する。
ステップS246は、実施の形態1のステップS146と同じである。
***実施の形態2の効果***
図11は、実施の形態2における認識精度を示す。
実施の形態2では、対象動作中の特定タイミングに応じて軌跡抽出範囲およびマッチング範囲が変更される。
これにより、特定タイミングの前後の時刻における認識精度が向上する。
実施の形態3.
操作センサ112を用いずに各種タイミングを検出する形態について、主に実施の形態2と異なる点を図12から図14に基づいて説明する。
***構成の説明***
図12に基づいて、動作分析システム100の構成を説明する。
動作分析システム100は、操作センサ112を備えなくてよい。
図13に、動作分析装置200の要素同士の関係を示す。
タイミング検出部213は、映像受付部211で受け付けられた映像を使用する。
***動作の説明***
図14に基づいて、動作分析方法を説明する。ステップS330が特徴である。
ステップS210、ステップS220、ステップS240およびステップS250は、実施の形態2で説明した通りである。
ステップS330において、タイミング検出部213は、映像から開始タイミングと終了タイミングの少なくとも一方で出現する特徴が映ったフレームを探す。
開始タイミングで出現する特徴が映ったフレームが見つかった場合、タイミング検出部213は、見つかったフレームの撮影時刻を開始タイミングとして検出する。
終了タイミングで出現する特徴が映ったフレームが見つかった場合、タイミング検出部213は、見つかったフレームの撮影時刻を終了タイミングとして検出する。
また、タイミング検出部213は、映像から特定タイミングで出現する特徴が映ったフレームを探し、見つかったフレームの撮影時刻を特定タイミングとして検出する。
各タイミングにおいてフレーム内に出現する特徴は予め定義される。
例えば、フレーム内に出現する特徴は、指定エリアに製造物が置かれたときの様子または手が指定エリアを通過したときの様子を表す。
***実施の形態3の効果***
実施の形態3により、操作センサ112を用意しなくても、各種タイミングを検出することができる。
***実施の形態の補足***
図15に基づいて、動作分析装置200のハードウェア構成を説明する。
動作分析装置200は処理回路209を備える。
処理回路209は、映像受付部211と骨格抽出部212とタイミング検出部213と軌跡抽出部214とマッチング部215を実現するハードウェアである。
処理回路209は、専用のハードウェアであってもよいし、メモリ202に格納されるプログラムを実行するプロセッサ201であってもよい。
処理回路209が専用のハードウェアである場合、処理回路209は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGAまたはこれらの組み合わせである。
ASICは、Application Specific Integrated Circuitの略称である。
FPGAは、Field Programmable Gate Arrayの略称である。
動作分析装置200は、処理回路209を代替する複数の処理回路を備えてもよい。
処理回路209において、一部の機能が専用のハードウェアで実現されて、残りの機能がソフトウェアまたはファームウェアで実現されてもよい。
このように、動作分析装置200の機能はハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせで実現することができる。
各実施の形態は、好ましい形態の例示であり、本開示の技術的範囲を制限することを意図するものではない。各実施の形態は、部分的に実施してもよいし、他の形態と組み合わせて実施してもよい。フローチャート等を用いて説明した手順は、適宜に変更してもよい。
動作分析装置200の各要素の「部」は、「処理」、「工程」、「回路」または「サーキットリ」と読み替えてもよい。
100 動作分析システム、101 対象者、111 撮影デバイス、112 操作センサ、200 動作分析装置、201 プロセッサ、202 メモリ、203 補助記憶装置、204 通信装置、205 入出力インタフェース、209 処理回路、211 映像受付部、212 骨格抽出部、213 タイミング検出部、214 軌跡抽出部、215 マッチング部、290 記憶部、291 参照骨格データ、292 動作ラベル。

Claims (13)

  1. 段取り動作を挟んで複数の対象動作を行う対象者を撮影することによって得られ各撮影時刻のフレームを含む映像を受け付ける映像受付部と、
    前記撮影時刻ごとに前記フレームに映った前記対象者の骨格情報を対象骨格情報として抽出する骨格抽出部と、
    前記対象動作ごとに開始タイミングと終了タイミングの少なくとも一方を検出するタイミング検出部と、
    各対象動作の前記開始タイミングと各対象動作の前記終了タイミングの少なくとも一方に基づいて、各対象動作が行われた対象時刻ごとに、前記対象時刻を含み前記段取り動作が行われた時刻を含まない対象時間帯の2つ以上の前記対象骨格情報を軌跡情報として抽出する軌跡抽出部と、
    前記対象時刻ごとに、各対象動作の参照骨格情報の時系列と、前記時系列の各時刻の動作ラベルと、を示す参照骨格データから、前記軌跡情報の前記2つ以上の前記対象骨格情報と合致する2つ以上の前記参照骨格情報を見つけ、見つかった前記2つ以上の前記参照骨格情報に対応する時間帯の基準時刻の前記動作ラベルを前記対象動作の前記動作ラベルとして取得するマッチング部と、
    を備える動作分析装置。
  2. 前記軌跡抽出部は、
    前記対象時刻を含み基準時間長を有する時間帯を前記対象時間帯として算出し、
    前記対象時間帯の先頭時刻が前記対象時刻の前記対象動作の前記開始タイミングよりも早い時刻である場合、前記対象時間帯の前記先頭時刻を前記開始タイミングに変更し、
    前記対象時間帯の最終時刻が前記対象時刻の前記対象動作の前記終了タイミングよりも遅い時刻である場合、前記対象時間帯の前記最終時刻を前記終了タイミングに変更し、
    前記対象時間帯の前記2つ以上の前記対象骨格情報を前記軌跡情報として抽出する
    請求項1に記載の動作分析装置。
  3. 前記タイミング検出部は、各対象動作の開始時と各対象動作の終了時の少なくとも一方で前記対象者によって行われる操作を検出する操作センサによって前記操作が検出された各タイミングを前記開始タイミングまたは前記終了タイミングとして検出する
    請求項1に記載の動作分析装置。
  4. 前記操作センサは、ボタンの押下を検出するボタンデバイス、バーコードの読み取りを検出するバーコードリーダまたは電動道具のスイッチの切り替えを検出するプログラマブルロジックコントローラである
    請求項3に記載の動作分析装置。
  5. 前記タイミング検出部は、前記映像から前記開始タイミングと前記終了タイミングの少なくとも一方で発生する特徴を示すフレームを探し、見つかったフレームの前記撮影時刻を前記開始タイミングまたは前記終了タイミングとして検出する
    請求項1に記載の動作分析装置。
  6. 前記タイミング検出部は、前記対象動作の途中の特定タイミングを検出し、
    前記軌跡抽出部は、各対象動作の前記開始タイミングと各対象動作の前記終了タイミングの少なくとも一方と前記特定タイミングに基づいて前記対象時刻ごとに前記軌跡情報を抽出する
    請求項1から請求項5のいずれか1項に記載の動作分析装置。
  7. 前記軌跡抽出部は、
    前記対象時刻を含み基準時間長を有する時間帯を前記対象時間帯として算出し、
    前記対象時間帯の先頭時刻が前記対象時刻の前記対象動作の前記開始タイミングまたは前記対象動作の途中の前記特定タイミングよりも早い時刻である場合、前記対象時間帯の前記先頭時刻を前記開始タイミングまたは前記特定タイミングに変更し、
    前記対象時間帯の最終時刻が前記対象時刻の前記対象動作の前記終了タイミングまたは前記対象動作の途中の前記特定タイミングよりも遅い時刻である場合、前記対象時間帯の前記最終時刻を前記終了タイミングまたは前記特定タイミングに変更し、
    前記対象時間帯の前記2つ以上の前記対象骨格情報を前記軌跡情報として抽出する
    請求項6に記載の動作分析装置。
  8. 前記タイミング検出部は、前記対象動作の途中で前記対象者によって行われる操作を検出する操作センサによって前記操作が検出された各タイミングを前記特定タイミングとして検出する
    請求項6に記載の動作分析装置。
  9. 前記操作センサは、ボタンの押下を検出するボタンデバイス、バーコードの読み取りを検出するバーコードリーダまたは電動道具のスイッチの切り替えを検出するプログラマブルロジックコントローラである
    請求項8に記載の動作分析装置。
  10. 前記タイミング検出部は、前記映像から前記特定タイミングで発生する特徴を示すフレームを探し、見つかったフレームの前記撮影時刻を前記特定タイミングとして検出する
    請求項6に記載の動作分析装置。
  11. 動作分析装置が、
    段取り動作を挟んで複数の対象動作を行う対象者を撮影することによって得られ各撮影時刻のフレームを含む映像を受け付け、
    前記撮影時刻ごとに前記フレームに映った前記対象者の骨格情報を対象骨格情報として抽出し、
    前記対象動作ごとに開始タイミングと終了タイミングの少なくとも一方を検出し、
    各対象動作の前記開始タイミングと各対象動作の前記終了タイミングの少なくとも一方に基づいて、各対象動作が行われた対象時刻ごとに、前記対象時刻を含み前記段取り動作が行われた時刻を含まない対象時間帯の2つ以上の前記対象骨格情報を軌跡情報として抽出し、
    前記対象時刻ごとに、各対象動作の参照骨格情報の時系列と、前記時系列の各時刻の動作ラベルと、を示す参照骨格データから、前記軌跡情報の前記2つ以上の前記対象骨格情報と合致する2つ以上の前記参照骨格情報を見つけ、見つかった前記2つ以上の前記参照骨格情報に対応する時間帯の基準時刻の前記動作ラベルを前記対象動作の前記動作ラベルとして取得する
    動作分析方法。
  12. 段取り動作を挟んで複数の対象動作を行う対象者を撮影することによって得られ各撮影時刻のフレームを含む映像を受け付ける映像受付処理と、
    前記撮影時刻ごとに前記フレームに映った前記対象者の骨格情報を対象骨格情報として抽出する骨格抽出処理と、
    前記対象動作ごとに開始タイミングと終了タイミングの少なくとも一方を検出するタイミング検出処理と、
    各対象動作の前記開始タイミングと各対象動作の前記終了タイミングの少なくとも一方に基づいて、各対象動作が行われた対象時刻ごとに、前記対象時刻を含み前記段取り動作が行われた時刻を含まない対象時間帯の2つ以上の前記対象骨格情報を軌跡情報として抽出する軌跡抽出処理と、
    前記対象時刻ごとに、各対象動作の参照骨格情報の時系列と、前記時系列の各時刻の動作ラベルと、を示す参照骨格データから、前記軌跡情報の前記2つ以上の前記対象骨格情報と合致する2つ以上の前記参照骨格情報を見つけ、見つかった前記2つ以上の前記参照骨格情報に対応する時間帯の基準時刻の前記動作ラベルを前記対象動作の前記動作ラベルとして取得するマッチング処理と、
    をコンピュータに実行させるための動作分析プログラム。
  13. 対象者を撮影する撮影デバイスと、
    前記対象者の動作を分析する動作分析装置と、
    を備え、
    前記動作分析装置は、
    前記撮影デバイスから、段取り動作を挟んで複数の対象動作を行う前記対象者を撮影することによって得られ各撮影時刻のフレームを含む映像を受け付ける映像受付部と、
    前記撮影時刻ごとに前記フレームに映った前記対象者の骨格情報を対象骨格情報として抽出する骨格抽出部と、
    前記対象動作ごとに開始タイミングと終了タイミングの少なくとも一方を検出するタイミング検出部と、
    各対象動作の前記開始タイミングと各対象動作の前記終了タイミングの少なくとも一方に基づいて、各対象動作が行われた対象時刻ごとに、前記対象時刻を含み前記段取り動作が行われた時刻を含まない対象時間帯の2つ以上の前記対象骨格情報を軌跡情報として抽出する軌跡抽出部と、
    前記対象時刻ごとに、各対象動作の参照骨格情報の時系列と、前記時系列の各時刻の動作ラベルと、を示す参照骨格データから、前記軌跡情報の前記2つ以上の前記対象骨格情報と合致する2つ以上の前記参照骨格情報を見つけ、見つかった前記2つ以上の前記参照骨格情報に対応する時間帯の基準時刻の前記動作ラベルを前記対象動作の前記動作ラベルとして取得するマッチング部と、
    を備える
    動作分析システム。
JP2023566655A 2022-05-11 2022-05-11 動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム Active JP7462857B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/019932 WO2023218557A1 (ja) 2022-05-11 2022-05-11 動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム

Publications (3)

Publication Number Publication Date
JPWO2023218557A1 JPWO2023218557A1 (ja) 2023-11-16
JP7462857B1 true JP7462857B1 (ja) 2024-04-05
JPWO2023218557A5 JPWO2023218557A5 (ja) 2024-04-19

Family

ID=88730014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023566655A Active JP7462857B1 (ja) 2022-05-11 2022-05-11 動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム

Country Status (2)

Country Link
JP (1) JP7462857B1 (ja)
WO (1) WO2023218557A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008077424A (ja) 2006-09-21 2008-04-03 Toshiba Corp 作業分析システム及び方法
JP2020198133A (ja) 2020-09-09 2020-12-10 三菱電機株式会社 動作特定装置、動作特定方法及び動作特定プログラム
WO2021130978A1 (ja) 2019-12-26 2021-07-01 三菱電機株式会社 動作分析システムおよび動作分析プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008077424A (ja) 2006-09-21 2008-04-03 Toshiba Corp 作業分析システム及び方法
WO2021130978A1 (ja) 2019-12-26 2021-07-01 三菱電機株式会社 動作分析システムおよび動作分析プログラム
JP2020198133A (ja) 2020-09-09 2020-12-10 三菱電機株式会社 動作特定装置、動作特定方法及び動作特定プログラム

Also Published As

Publication number Publication date
WO2023218557A1 (ja) 2023-11-16
JPWO2023218557A1 (ja) 2023-11-16

Similar Documents

Publication Publication Date Title
EP2015251B1 (en) Object extracting, object tracking and image synthesizing
JP5675233B2 (ja) 情報処理装置、その認識方法及びプログラム
CN109727275B (zh) 目标检测方法、装置、系统和计算机可读存储介质
US10146992B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
US8842880B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
TW201701187A (zh) 手勢檢測識別方法及系統
EP3142040A1 (en) Information processing apparatus, method of controlling the same, and program
US20190333204A1 (en) Image processing apparatus, image processing method, and storage medium
JPWO2018154709A1 (ja) 動作学習装置、技能判別装置および技能判別システム
JP2019101919A (ja) 情報処理装置、情報処理方法、コンピュータプログラムおよび記憶媒体
CN112183304A (zh) 离位检测方法、系统及计算机存储介质
Bharadwaj et al. Can holistic representations be used for face biometric quality assessment?
JP2007304721A (ja) 画像処理装置及び画像処理方法
JP7462857B1 (ja) 動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム
JP3025133B2 (ja) 人物認識装置
CN114846513A (zh) 动作分析系统和动作分析程序
CN111462188A (zh) 摄像头移动检测方法和系统
JP2010079651A (ja) 動作認識装置、方法及びプログラム
US20160094783A1 (en) Image processing apparatus, control method of image processing apparatus and program
JP5046148B2 (ja) 画像解析装置および対象物認識方法
JP2003162723A (ja) 画像処理プログラム
Castillo et al. A method to detect victims in search and rescue operations using template matching
JP7337541B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2019053527A (ja) 組立作業分析装置、組立作業分析方法、コンピュータプログラム、及び記憶媒体
JP2015187769A (ja) 物体検出装置、物体検出方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231027

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231027

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240326

R150 Certificate of patent or registration of utility model

Ref document number: 7462857

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150