JP6786015B1 - 動作分析システムおよび動作分析プログラム - Google Patents

動作分析システムおよび動作分析プログラム Download PDF

Info

Publication number
JP6786015B1
JP6786015B1 JP2020528365A JP2020528365A JP6786015B1 JP 6786015 B1 JP6786015 B1 JP 6786015B1 JP 2020528365 A JP2020528365 A JP 2020528365A JP 2020528365 A JP2020528365 A JP 2020528365A JP 6786015 B1 JP6786015 B1 JP 6786015B1
Authority
JP
Japan
Prior art keywords
target
motion
data
posture
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020528365A
Other languages
English (en)
Other versions
JPWO2021130978A1 (ja
Inventor
勝大 草野
勝大 草野
尚吾 清水
尚吾 清水
奥村 誠司
誠司 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6786015B1 publication Critical patent/JP6786015B1/ja
Publication of JPWO2021130978A1 publication Critical patent/JPWO2021130978A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Abstract

動作分析装置(200)は、一連の動作を行う対象者(111)を連続して撮影することによって得られる複数の対象画像データを受け付ける。動作分析装置は、各対象画像データの対象画像に映る対象者の姿勢を検出し、検出した姿勢を表す対象姿勢データを生成する。動作分析装置は、複数の対象画像データに対応する複数の対象姿勢データから、2つ以上の対象姿勢データを、対象者の姿勢の推移を表す対象軌跡データとして抽出する。動作分析装置は、対象軌跡データに基づいて対象者の動作を識別する動作ラベルを得る。

Description

本発明は、動作分析のための技術に関するものである。
産業分野において、サイクルタイムの計測と作業内容の分析といった処理を人手で行うことが主流となっている。
サイクルタイムは、作業者が製品を組み立てる時間である。
作業内容の分析は、作業の抜け又は非定常作業の検知のために行われる。非定常作業は定常的には行われない作業である。
人手による処理は、多くの人的コストがかかる。また、人手による処理では、限定的な範囲についてしか処理の対象とすることができない。
作業者の動作を分析することが容易になれば、サイクルタイムの計測と作業内容の分析といった処理が容易になるものと考えられる。
特許文献1には、自動的に行われる動作分析が記載されている。動作分析のために、カメラ及び三次元センサが人の頭部に取り付けられ、そのカメラ及び三次元センサが用いられ、人の動作の特徴量が抽出される。
特開2016−099982号公報
特許文献1では、自動的な動作分析のために、人の頭部にカメラ及び三次元センサが取り付けられる。
作業者の動作を分析するために特許文献1の方法が適用される場合、作業に不要な物が作業者の体に取り付けられる。そして、作業者の体に取り付けられた物が作業の妨げとなる可能性がある。
本発明は、作業を妨げずに作業者の動作を分析できるようにすることを目的とする。
本発明の動作分析システムは、
一連の動作を行う対象者を連続して撮影することによって得られる複数の対象画像データを受け付ける対象画像受付部と、
各対象画像データの対象画像に映る前記対象者の姿勢を検出し、検出した姿勢を表す対象姿勢データを生成する対象姿勢検出部と、
前記複数の対象画像データに対応する複数の対象姿勢データから、対象時刻の対象姿勢データと、前記対象時刻と連続する前時刻と前記対象時刻と連続する後時刻とのうちの少なくとも一方の時刻の対象姿勢データと、を含む2つ以上の対象姿勢データを、前記対象者の姿勢の推移を表す対象軌跡データとして抽出する対象軌跡抽出部と、
前記対象軌跡データに基づいて前記対象者の動作を識別する動作ラベルを得る動作特定部と、を備える。
本発明によれば、カメラおよび三次元センサなど作業に不要な物が作業者(対象者の一例)の体に取り付けられなくても、作業者の動作を特定することが可能となる。つまり、作業を妨げずに作業者の動作を分析することが可能となる。
実施の形態1における動作分析システム100の構成図。 実施の形態1における動作分析装置200の構成図。 実施の形態1における動作分析方法のフローチャート。 実施の形態1における対象姿勢検出処理(S120)の説明図。 実施の形態1における対象軌跡抽出処理(S130)のフローチャート。 実施の形態1における対象軌跡抽出処理(S130)の説明図。 実施の形態1における動作データベース291の構成図。 実施の形態1における動作特定処理(S140)のフローチャート。 実施の形態1における比較処理(S144)のフローチャート。 実施の形態1における動的計画法の利用についての説明図。 実施の形態1における動作分析システム100の構成図。 実施の形態1における登録部220の構成図。 実施の形態1における登録処理のフローチャート。 実施の形態1における動作姿勢検出処理(S103)の説明図。 実施の形態2におけう登録部220の構成図。 実施の形態2における登録処理のフローチャート。 実施の形態2における動作姿勢生成処理(S250)のフローチャート。 実施の形態2におけるサンプリングの具体例を示す図。 実施の形態3における動作分析装置200の構成図。 実施の形態3における学習部230の構成図。 実施の形態3における動作分析方法のフローチャート。 実施の形態3における学習処理のフローチャート。 実施の形態における動作分析装置200のハードウェア構成図。
実施の形態および図面において、同じ要素または対応する要素には同じ符号を付している。説明した要素と同じ符号が付された要素の説明は適宜に省略または簡略化する。図中の矢印はデータの流れ又は処理の流れを主に示している。
実施の形態1.
人の動作を自動で分析するための動作分析システム100について、図1から図14に基づいて説明する。
***構成の説明***
図1に基づいて、動作分析システム100の構成を説明する。
動作分析システム100は、カメラ101と動作分析装置200とを備える。
カメラ101は、対象者111を撮影する。カメラ101は、対象者111を正面から撮影してもよいし、対象者111を斜めから撮影してもよい。また、カメラ101は、対象者111の全身を撮影してもよいし、対象者111の一部(例えば上半身)を撮影してもよい。
動作分析装置200は、対象者111の動作を分析する。
対象者111は、動作分析の対象となる人である。対象者111の具体例は、作業を行う人(作業者)である。
図2に基づいて、動作分析装置200の構成を説明する。
動作分析装置200は、プロセッサ201とメモリ202と補助記憶装置203と通信装置204と入出力インタフェース205といったハードウェアを備えるコンピュータである。これらのハードウェアは、信号線を介して互いに接続されている。
プロセッサ201は、演算処理を行うICであり、他のハードウェアを制御する。例えば、プロセッサ201は、CPU、DSPまたはGPUである。
ICは、Integrated Circuitの略称である。
CPUは、Central Processing Unitの略称である。
DSPは、Digital Signal Processorの略称である。
GPUは、Graphics Processing Unitの略称である。
メモリ202は揮発性または不揮発性の記憶装置である。メモリ202は、主記憶装置またはメインメモリとも呼ばれる。例えば、メモリ202はRAMである。メモリ202に記憶されたデータは必要に応じて補助記憶装置203に保存される。
RAMは、Random Access Memoryの略称である。
補助記憶装置203は不揮発性の記憶装置である。例えば、補助記憶装置203は、ROM、HDDまたはフラッシュメモリである。補助記憶装置203に記憶されたデータは必要に応じてメモリ202にロードされる。
ROMは、Read Only Memoryの略称である。
HDDは、Hard Disk Driveの略称である。
通信装置204はレシーバ及びトランスミッタである。例えば、通信装置204は通信チップまたはNICである。
NICは、Network Interface Cardの略称である。
入出力インタフェース205は、入力装置および出力装置が接続されるポートである。例えば、入出力インタフェース205はUSB端子であり、入力装置はキーボードおよびマウスであり、出力装置はディスプレイである。
USBは、Universal Serial Busの略称である。
動作分析装置200は、特定部210と登録部220といった要素を備える。特定部210は、対象画像受付部211と対象姿勢検出部212と対象軌跡抽出部213と動作特定部214と結果出力部215といった要素を備える。これらの要素はソフトウェアで実現される。
補助記憶装置203には、特定部210と登録部220としてコンピュータを機能させるための動作分析プログラムが記憶されている。動作分析プログラムは、メモリ202にロードされて、プロセッサ201によって実行される。
補助記憶装置203には、さらに、OSが記憶されている。OSの少なくとも一部は、メモリ202にロードされて、プロセッサ201によって実行される。
プロセッサ201は、OSを実行しながら、動作分析プログラムを実行する。
OSは、Operating Systemの略称である。
動作分析プログラムの入出力データは記憶部290に記憶される。
メモリ202は記憶部290として機能する。但し、補助記憶装置203、プロセッサ201内のレジスタおよびプロセッサ201内のキャッシュメモリなどの記憶装置が、メモリ202の代わりに、又は、メモリ202と共に、記憶部290として機能してもよい。
記憶部290には、動作データベース291などが記憶される。
動作分析装置200は、プロセッサ201を代替する複数のプロセッサを備えてもよい。複数のプロセッサは、プロセッサ201の機能を分担する。
動作分析プログラムは、光ディスクまたはフラッシュメモリ等の不揮発性の記録媒体にコンピュータ読み取り可能に記録(格納)することができる。
***動作の説明***
動作分析システム100の動作の手順は動作分析方法に相当する。また、動作分析装置200の動作の手順は動作分析プログラムによる処理の手順に相当する。
図3に基づいて、動作分析方法を説明する。
ステップS110において、対象画像受付部211は、複数の対象画像データを受け付ける。
複数の対象画像データは、一連の動作を行う対象者111を連続して撮影することによって得られる。
各対象画像データは対象画像を表す。対象画像には、対象者111が映っている。
例えば、複数の対象画像データは、利用者によって、動作分析装置200に入力される。対象画像受付部211は、入力された複数の対象画像データを受け付ける。
例えば、複数の対象画像データは、カメラ101から送信され、動作分析装置200によって受信される。対象画像受付部211は、受信された複数の対象画像データを受け付ける。
ステップS120において、対象姿勢検出部212は、各対象画像データの対象画像に映る対象者111の姿勢を検出し、検出した姿勢を表す対象姿勢データを生成する。
これにより、複数の対象画像データに対応する複数の対象姿勢データが得られる。
図4に基づいて、対象姿勢検出処理(S120)について説明する。[m−1]と[m]と[m+1]は、連続する3つの撮影時刻を示している。撮影時刻は撮影が行われた時刻である。
各撮影時刻の対象画像データ121は各撮影時刻の対象画像を表す。各撮影時刻の対象画像には各撮影時刻の対象者111が映っている。
対象姿勢検出部212は、各撮影時刻の対象画像に対して画像処理を行うことによって、各撮影時刻における対象者111の姿勢を検出する。
具体的には、対象姿勢検出部212は、対象者111の骨格を検出する。対象者111の骨格によって、対象者111の姿勢が特定される。
より具体的には、対象姿勢検出部212は、対象者111の各関節の位置を判別する。各関節の位置は、特定の座標系における絶対位置であってもよいし、他の関節に対する相対位置であってもよい。各関節の位置は座標値で識別される。首の関節および肩の関節などの複数の関節によって、骨格が特定される。
対象姿勢検出部212は、各撮影時刻における対象者111の姿勢を表す対象姿勢データ122を生成する。
各撮影時刻の対象姿勢データ122において、各黒丸は対象者111の関節の位置を表している。
図3に戻り、ステップS130以降の説明を続ける。
ステップS130およびステップS140は、撮影時間帯の各撮影時刻に対して実行される。撮影時間帯は、撮影が行われた時間帯である。
ステップS130において、対象軌跡抽出部213は、複数の対象画像データに対応する複数の対象姿勢データから、対象軌跡データを抽出する。
対象軌跡データは、2つ以上の対象姿勢データで構成され、対象者111の姿勢の推移を表す。対象軌跡データにおいて、2つ以上の対象姿勢データは時系列に並べられる。但し、対象軌跡データは、2つ以上の対象姿勢データを近似して表す多項式関数であってもよい。
対象軌跡データについて補足する。軌跡データは連続する時刻のデータである。対象軌跡データは連続する時刻の対象姿勢データである。連続する時刻は、対象時刻および対象時刻と連続する時刻である。対象時刻が[t]である場合、連続する時刻は[t−1]と[t]と[t+1]である。
図5に基づいて、対象軌跡抽出処理(S130)について説明する。
ステップS131において、対象軌跡抽出部213は、撮影時間帯から、未選択の撮影時刻を1つ選択する。
撮影時間帯は、撮影が行われた時間帯である。
選択される撮影時刻を「対象時刻」と称する。
ステップS132において、対象軌跡抽出部213は、対象時刻に対する撮影時刻群を決定する。
撮影時刻群は、連続する2つ以上の撮影時刻で構成され、対象時刻を含む。撮影時刻群に含まれる撮影時刻の数は予め決められる。
対象時刻を「m」と記す。例えば、対象軌跡抽出部213は、撮影時刻(m−1)と撮影時刻(m)と撮影時刻(m+1)とで構成される撮影時刻群を、対象時刻に対する撮影時刻群に決定する。
決定される撮影時刻群を「対象時刻群」と称する。
ステップS133において、対象軌跡抽出部213は、複数の対象姿勢データから、対象時刻に対応する対象軌跡データを抽出する。
例えば、対象時刻群が時刻(m−1)と時刻(m)と時刻(m+1)とで構成される場合、対象軌跡抽出部213は、時刻(m−1)の対象姿勢データと、時刻(m)の対象姿勢データと、時刻(m+1)の対象姿勢データと、を抽出する。抽出される3つの対象姿勢データが、対象時刻に対応する対象軌跡データを構成する。
図6に基づいて、対象軌跡抽出処理(S130)について説明する。[m−1]と[m]と[m+1]は、連続する3つの撮影時刻を示している。
対象時刻群が[m−1]と[m]と[m+1]とで構成されると仮定する。
対象軌跡抽出部213は、[m−1]の対象姿勢データ122と[m]の対象姿勢データ122と[m+1]の対象姿勢データ122とを抽出する。
抽出される3つの対象姿勢データ122が、[m]の対象軌跡データ123を構成する。
図3に戻り、ステップS140から説明を続ける。
ステップS140において、動作特定部214は、対象軌跡データに基づいて、対象者111の動作を識別する動作ラベルを得る。
具体的には、動作特定部214は、動作データベース291から、対象軌跡データに合致する動作軌跡データの動作ラベルを抽出する。
動作データベース291は、動作ラベルと動作軌跡データとの組が1つ以上登録されたデータベースである。
動作ラベルは、動作を識別する。
動作軌跡データは、動作ラベルで識別される動作を行う人の姿勢の推移を表す。
図7に基づいて、動作データベース291の構成を説明する。[t−1]と[t]と[t+1]は、連続する3つの撮影時刻を示している。
動作データベース291には、複数の時刻と複数の動作姿勢データと複数の動作ラベルが互いに対応付けられる。
動作軌跡データ133は、2つ以上の動作姿勢データ132で構成される。具体的には、動作軌跡データ133は、連続する2つ以上の時刻に対応付けられた2つ以上の動作姿勢データ132で構成される。
動作姿勢データ132は、動作を行う人の姿勢を表す。
[t]の動作軌跡データ133は、[t−1]の動作姿勢データ132と[t]の動作姿勢データ132と[t+1]の動作姿勢データ132で構成される。なお、動作軌跡データ133は[t]を中心にして前後に連続する時刻のデータを含む。
「t」の動作軌跡データ133は、時刻tの動作ラベル「作業A」によって識別される動作を行う人の姿勢の推移を表す。
図8に基づいて、動作特定処理(S140)について説明する。
ステップS141において、動作特定部214は、動作データベース291の「時刻」から、未選択の時刻を1つ選択する。具体的には、動作特定部214は、昇順に時刻を選択する。
選択される時刻を「比較時刻」と称する。
ステップS142において、動作特定部214は、比較時刻に対する比較時刻群を決定する。
比較時刻群は、連続する2つ以上の時刻で構成され、比較時刻を含む。比較時刻群に含まれる時刻の数は、予め決められる。
比較時刻を「t」と記す。例えば、動作特定部214は、時刻(t−1)と時刻(t)と時刻(t+1)とから成る時刻群を、比較時刻に対する比較時刻群に決定する。
ステップS143において、動作特定部214は、動作データベース291から、比較時刻に対応する動作軌跡データを抽出する。
例えば、比較時刻群が時刻(t−1)と時刻(t)と時刻(t+1)とで構成される場合、動作特定部214は、時刻(t−1)の動作姿勢データと、時刻(t)の動作姿勢データと、時刻(t+1)の動作姿勢データと、を抽出する。抽出される3つの動作姿勢データが、比較時刻に対応する動作軌跡データを構成する。
ステップS144において、動作特定部214は、動作軌跡データを対象軌跡データと比較する。対象軌跡データはステップS130(図3参照)で抽出されている。
具体的には、動作特定部214は、対象軌跡データに対する動作軌跡データの距離を算出する。
対象軌跡データに対する動作軌跡データの距離は、対象軌跡データによって表される姿勢の推移と動作軌跡データによって表される姿勢の推移との差の大きさに相当する。
図9に基づいて、比較処理(S144)について説明する。
対象軌跡データに含まれる対象姿勢データをI(m)またはI(m+k)と記す。
動作軌跡データに含まれる動作姿勢データをR(t)またはR(t+k)と記す。
「k」は−i以上+i以下の整数である。「i」は1以上の整数である。対象軌跡データに含まれる対象姿勢データの数が「3」である場合、「i」は「1」である。
ステップS1441において、動作特定部214は、対象姿勢データI(m)に対する対象姿勢データI(m+k)の距離を算出する。算出される距離をI’(m+k)と記す。
距離I’(m+k)は、対象姿勢データI(m)によって表される姿勢と対象姿勢データI(m+k)によって表される姿勢との差の大きさに相当する。
距離I’(m+k)は、式(1)で表すことができる。
I’(m+k) = I(m+k)−I(m) (1)
具体的には、動作特定部214は、距離I’(m+k)を以下のように算出する。
対象姿勢データは、複数の関節のそれぞれの位置を示す。
動作特定部214は、関節毎に、対象姿勢データI(m)における関節の位置と対象姿勢データI(m+k)における関節の位置との距離を算出する。動作特定部214は、各関節に対して重み付けを行い、各関節の重みに応じて各関節の距離を算出してもよい。その場合、重要な関節の距離は大きな値となる。
または、動作特定部214は、関節組毎に、対象姿勢データI(m)における関節間の距離と対象姿勢データI(m+k)における関節間の距離との差を、関節組に対する距離として算出する。動作特定部214は、各関節組に対して重み付けを行い、各関節組の重みに応じて各関節組に対する距離を算出してもよい。その場合、重要な関節組に対する距離は大きな値となる。
動作特定部214は、算出した距離の合計を算出する。算出される合計が距離I’(m+k)となる。
ステップS1442において、動作特定部214は、動作姿勢データR(t)に対する動作姿勢データR(t+k)の距離を算出する。算出される距離をR’(t+k)と記す。
距離R’(t+k)は、動作姿勢データR(t)によって表される姿勢と動作姿勢データR(t+k)によって表される姿勢との差の大きさに相当する。
距離R’(t+k)は、式(2)で表すことができる。
R’(t+k) = R(t+k)−R(t) (2)
具体的には、動作特定部214は、距離R’(t+k)を以下のように算出する。
動作姿勢データは、複数の関節のそれぞれの位置を示す。
動作特定部214は、関節毎に、動作姿勢データR(t)における関節の位置と動作姿勢データR(t+k)における関節の位置との距離を算出する。動作特定部214は、各関節に対して重み付けを行い、各関節の重みに応じて各関節の距離を算出してもよい。その場合、重要な関節の距離は大きな値となる。
または、動作特定部214は、関節組毎に、動作姿勢データR(m)における関節間の距離と動作姿勢データI(m+k)における関節間の距離との差を、関節組に対する距離として算出する。動作特定部214は、各関節組に対して重み付けを行い、各関節組の重みに応じて各関節組に対する距離を算出してもよい。その場合、重要な関節組に対する距離は大きな値となる。
動作特定部214は、算出した距離の合計を算出する。算出される合計が距離R’(t+k)となる。
ステップS1443において、動作特定部214は、距離I’(m+k)と距離R’(t+k)との差の合計を算出する。
算出される合計が、対象軌跡データに対する動作軌跡データの距離となる。
対象軌跡データに対する動作軌跡データの距離は、式(3)で表すことができる。
Figure 0006786015
対象軌跡データに対する動作軌跡データの距離は、動的計画法または隠れマルコフモデルなどの手法によって算出されてもよい。これらの手法は、時系列を動的に伸縮させて最小距離を算出する。
これらの手法では、例えば、I’(m+k)−R’(t+k)で求まる距離よりもI’(m+k)−R’(m+(k+a))で求まる距離が小さい場合、「k」と「k+a」の距離が加算される。
図10に基づいて、動的計画法の利用について説明する。
表の中の数字は、|I’(m+a)−R’(t+b)|の値を示している。但し、−2≦aであり、b≦2である。実線矢印はパス(I’とR’の対応)を示している。
動的計画法では「a」「b」を変化させて各グリッドの距離が算出される。そして、距離の総和が小さくなるパス(実線矢印を参照)が選択される。
図8に戻り、ステップS145から説明を続ける。
ステップS145において、動作特定部214は、未選択の比較時刻があるか判定する。
未選択の比較時刻がある場合、処理はステップS141に進む。
未選択の比較時刻がない場合、処理はステップS146に進む。
ステップS146において、動作特定部214は、各動作軌跡データと対象軌跡データの比較結果に基づいて、対象軌跡データに合致する動作軌跡データを選択する。
具体的には、動作特定部214は、対象軌跡データに対する各動作軌跡データの距離に基づいて、対象軌跡データに合致する動作軌跡データを選択する。
対象軌跡データに合致する動作軌跡データは、以下のように決定される。
動作特定部214は、ステップS144で算出された距離のうちの最小の距離を選択する。そして、動作特定部214は、選択した距離に対応する動作軌跡データを選択する。選択される動作軌跡データが、対象軌跡データに合致する動作軌跡データである。
但し、選択される距離(最小の距離)が閾値より大きい場合、動作特定部214は、対象軌跡データに合致する動作軌跡データがない、と判断してもよい。
ステップS147において、動作特定部214は、動作データベース291から、対象軌跡データに合致する動作軌跡データの動作ラベルを抽出する。
具体的には、動作特定部214は、ステップS146で選択された動作軌跡データに対応する比較時刻を選択し、選択した比較時刻に対応付けられた動作ラベルを抽出する。抽出される動作ラベルが、対象軌跡データに合致する動作軌跡データの動作ラベルである。
例えば、ステップS146で[t]の動作軌跡データ133(図7参照)が選択されたと仮定する。この場合、動作特定部214は、動作データベース291から、[t]に対応付けられた動作ラベル「作業A」を抽出する。
但し、対象軌跡データに合致する動作軌跡データがないと判断された場合(ステップS146を参照)、動作ラベルは抽出されない。動作ラベルが抽出されない場合、動作特定部214は、通常行われない作業(非定常作業)を示すラベルを付与する。
図3に戻り、ステップS130およびステップS140の後の処理について説明する。
ステップS130およびステップS140が撮影時間帯の各撮影時刻に対して実行されることにより、各撮影時刻に対して動作ラベルが得られる。
ステップS130およびステップS140が撮影時間帯の各撮影時刻に対して実行された後、処理はステップS150に進む。
ステップS150において、結果出力部215は結果データを出力する。
例えば、結果出力部215は、結果データをディスプレイに表示する。
結果データは、各撮影時刻の動作ラベルを含む。
***前処理の補足***
動作データベース291を生成する方法について説明する。
図11に、動作データベース291が生成される際の動作分析システム100の構成を示す。
動作分析システム100は、カメラ102と動作分析装置200とを備える。
カメラ102は、動作者112を撮影する。カメラ102は、カメラ101(図1参照)と同じであってもよいし、カメラ101とは別のカメラであってもよい。
動作者112は、動作データベース291への登録の対象となる動作(対象動作)を行う人である。動作者112は、対象者111(図1参照)と同じ人であってもよいし、対象者111とは別の人であってもよい。
動作者112が作業者である場合、動作者112は、通常行われる作業(定常作業)を一連の動作として行う。但し、動作者112は、通常行われない作業(非定常作業)を含めて一連の動作を行ってもよい。
図12に、動作分析装置200に備わる登録部220の構成を示す。
登録部220は、動作ラベル受付部221と動作画像受付部222と動作姿勢検出部223と動作登録部224といった要素を備える。
図13に基づいて、登録部220による登録処理を説明する。
登録処理によって、動作データベース291(図7参照)が生成される。
ステップS101において、動作ラベル受付部221は、複数の時刻が付加された複数の動作ラベルを受け付ける。
例えば、動作ラベル受付部221は、動作ラベルリストを受け付ける。動作ラベルリストは、時刻と動作ラベルとの組を複数示す。
例えば、動作ラベルリストは、利用者によって、動作分析装置200に入力される。動作ラベル受付部221は、入力された動作ラベルリストを受け付ける。
なお、定常作業に含まれない動作に対しては、非定常を示すラベルが付与される。
ステップS102において、動作画像受付部222は、複数の時刻が付加された複数の動作画像データを受け付ける。複数の動作画像データに付加された複数の時刻は、複数の動作ラベルに付加された複数の時刻と一致する。
複数の動作画像データは、一連の動作を行う動作者112を連続して撮影することによって得られる。
各動作画像データは動作画像を表す。動作画像には、動作者112が映っている。
例えば、動作画像受付部222は、動作画像ファイルを受け付ける。動作画像ファイルは、時刻と動作画像データとの組を複数含む。
例えば、動作画像ファイルは、利用者によって、動作分析装置200に入力される。動作画像受付部222は、入力された動作画像ファイルを受け付ける。
ステップS103において、動作姿勢検出部223は、各動作画像データの動作画像に映る動作者112の姿勢を検出し、検出した姿勢を表す動作姿勢データを生成する。
これにより、複数の動作画像データに対応する複数の動作姿勢データが得られる。
図14に基づいて、動作姿勢検出処理(S103)について説明する。[t−1]と[t]と[t+1]は、連続する3つの時刻を示している。
各時刻の動作画像データ131は各時刻の動作画像を表す。各時刻の動作画像には各時刻の動作者112が映っている。
動作姿勢検出部223は、各時刻の動作画像に対して画像処理を行うことによって、各時刻における動作者112の姿勢を検出する。
具体的には、動作姿勢検出部223は、動作者112の骨格を検出する。動作者112の骨格によって、動作者112の姿勢が特定される。
より具体的には、動作姿勢検出部223は、動作者112の各関節の位置を判別する。各関節の位置は、座標値、または、他の関節に対する相対位置で示すことができる。首の関節および肩の関節などの複数の関節によって、骨格が特定される。
動作姿勢検出部223は、各時刻における動作者112の姿勢を表す動作姿勢データ132を生成する。
各時刻の動作姿勢データ132において、各黒丸は動作者112の関節の位置を表している。
図13に戻り、ステップS104を説明する。
ステップS104において、動作登録部224は、複数の時刻と複数の動作姿勢データと複数の動作ラベルとを互いに対応付けて動作データベース291に登録する。
***実施例の説明***
動作特定部214は、定常作業が行われた時間帯および非定常作業が行われた時間帯を特定してもよい。
具体的には、動作特定部214は、非定常を示すラベルが付与された時刻間の時間帯を計測する。計測される時間帯が、非定常作業が行われた時間帯である。その後、動作特定部214は、非定常作業が行われた時間帯以外の時間帯を判別する。判別される時間帯が、定常作業が行われた時間帯である。
***実施の形態1の効果***
実施の形態1により、カメラおよび三次元センサなど作業に不要な物が作業者(対象者の一例)の体に取り付けられなくても、作業者の動作を特定することが可能となる。つまり、作業を妨げずに作業者の動作を分析することが可能となる。
さらに、対象者111によって各動作が行われた時間帯を特定することが可能となる。つまり、定常作業が行われた時間帯および非定常作業が行われた時間帯を特定することが可能となる。
また、対象軌跡データと動作軌跡データという軌跡データ(連続時刻データ)同士が比較されることにより、次のような効果が得られる。作業は複数の動作を含むことがある。そのため、単一時刻の動作を比較するのではなく連続した動作である軌跡データ同士を比較することにより、より適切な作業の判定が可能となる。
実施の形態2.
動作分析の精度を高めるための形態について、主に実施の形態1と異なる点を図15から図18に基づいて説明する。
***構成の説明***
動作分析システム100の構成は、実施の形態1における構成(図1および図11を参照)と同じである。
但し、図11において、動作者112は一連の動作を複数回行い、カメラ102は動作者112による複数回の一連の動作を撮影する。
動作分析装置200の構成は、実施の形態1における構成(図2参照)と同じである。
但し、登録部220の構成の一部が、実施の形態1における構成(図12参照)と異なる。
図15に基づいて、登録部220の構成を説明する。
登録部220は、動作ラベル受付部221と動作画像受付部222と仮姿勢検出部225と仮テーブル生成部226と動作姿勢生成部227と動作登録部224といった要素を備える。
***動作の説明***
図16に基づいて、登録部220による登録処理を説明する。
登録処理によって、動作データベース291(図7参照)が生成される。
ステップS210からステップS240は、複数回の一連の動作のそれぞれに対して実行される。つまり、一連の動作が3回行われた場合、ステップS210からステップS240は3回実行される。
ステップS210において、動作ラベル受付部221は、動作ラベル群を受け付ける。
動作ラベル群は、複数の時刻が付加された複数の動作ラベルである。
ステップS210は、実施の形態1におけるステップS101(図13参照)に相当する。
ステップS220において、動作画像受付部222は、動作画像データ群を受け付ける。
動作画像データ群は、一連の動作を行う動作者を撮影することによって得られて複数の時刻が付加された複数の動作画像データである。
ステップS220は、実施の形態1におけるステップS202(図13参照)に相当する。
ステップS230において、仮姿勢検出部225は、動作画像データ群の中の各動作画像データの動作画像に映る動作者112の姿勢を検出し、検出した姿勢を表す仮姿勢データを生成する。
これにより、動作画像データ群に対応する仮姿勢データ群が得られる。仮姿勢データ群は、複数の動作画像データに対応する複数の仮姿勢データである。
仮姿勢データを生成する方法は、実施の形態1において動作姿勢データを生成する方法と同じである(図13のステップS103を参照)。
ステップS240において、仮テーブル生成部226は、仮テーブルを生成する。
仮テーブルは、時刻群と仮姿勢データ群と動作ラベル群とが互いに対応付けられたテーブルである。
時刻群は、複数の動作ラベルと複数の動作画像とに付加された複数の時刻である。
ステップS210からステップS240が複数回の一連の動作のそれぞれに対して実行されることにより、複数の仮テーブルが生成される。
ステップS210からステップS240が複数回の一連の動作のそれぞれに対して実行された後、処理はステップS250に進む。
ステップS250において、動作姿勢生成部227は、一連の動作に含まれる動作毎に、2つ以上の時刻に対応する2つ以上の動作姿勢データを生成する。
2つ以上の時刻に対応する2つ以上の動作姿勢データは以下のように生成される。
動作姿勢生成部227は、同じ動作を識別する2つ以上の動作ラベルに対応付けられた2つ以上の仮姿勢データである仮軌跡データを、複数の仮テーブルのそれぞれから抽出する。
動作姿勢生成部227は、複数の仮テーブルから抽出した複数の仮軌跡データに基づいて、2つ以上の時刻に対応する2つ以上の動作姿勢データを生成する。
図17に基づいて、動作姿勢生成処理(S250)について説明する。
ステップS251からステップS253は、一連の動作に含まれる各動作に対して実行される。
ステップS251において、動作姿勢生成部227は、複数の仮テーブルのそれぞれから仮軌跡データを抽出する。これにより、複数の仮軌跡データが抽出される。
ステップS252において、動作姿勢生成部227は、動作軌跡データを構成する動作姿勢データの数を決定する。決定される数を「構成データ数」と称する。
例えば、構成データ数は、複数の仮軌跡データにおける仮姿勢データの数の平均である。1回目の仮軌跡データを構成する仮姿勢データの数が「3」であり、2回目の仮軌跡データを構成する仮姿勢データの数が「4」であり、3回目の仮軌跡データを構成する仮姿勢データの数が「5」であると仮定する。この場合、構成データ数は「4」である。
ステップS253において、動作姿勢生成部227は、各仮軌跡データに対してサンプリングを行う。
これにより、各仮軌跡データを構成する仮姿勢データの数が、構成データ数と同じ数になる。
図18に、サンプリングの具体例を示す。
「A」は、サンプリング前のn回目の仮軌跡データに含まれる仮姿勢データを表す。
「A’」は、サンプリング後のn回目の仮軌跡データに含まれる仮姿勢データを表す。
「*」は乗法を意味し、「+」は加法を意味する。
各仮姿勢データは、複数の関節のそれぞれの位置を示す。乗法および加法は、関節毎に関節の位置を識別する座標値に対して行われる。
構成データ数が「4」であると仮定する。
サンプリング前において、1回目の仮軌跡データは3つの仮姿勢データA(1〜3)で構成されている。また、2回目の仮軌跡データは4つの仮姿勢データA(1〜4)で構成されている。また、3回目の仮軌跡データは5つの仮姿勢データA(1〜5)で構成されている。
1回目の仮軌跡データに対するサンプリングによって、3つの仮姿勢データA(1〜3)に基づく4つの仮姿勢データA’(1〜4)が生成される。
2回目の仮軌跡データに対するサンプリングによって、4つの仮姿勢データA(1〜4)に基づく4つの仮姿勢データA’(1〜4)が生成される。
3回目の仮軌跡データに対するサンプリングによって、5つの仮姿勢データA(1〜5)に基づく4つの仮姿勢データA’(1〜4)が生成される。
サンプリング後において、1回目の仮軌跡データは4つの仮姿勢データA’(1〜4)で構成されている。また、2回目の仮軌跡データは4つの仮姿勢データA’(1〜4)で構成されている。また、3回目の仮軌跡データは4つの仮姿勢データA’(1〜4)で構成されている。
図17に戻り、ステップS254を説明する。
ステップS254において、動作姿勢生成部227は、構成データ数と同じ数の動作姿勢データを生成する。
動作姿勢生成部227は、各時刻の動作姿勢データを以下のように生成する。
動作姿勢生成部227は、同じ時刻に対応付けられた複数の仮姿勢データの和を算出する。複数の仮姿勢データの和は、関節毎に関節の位置を識別する座標値に対して行われる。
動作姿勢生成部227は、複数の仮姿勢データの和を仮姿勢データの数で割る。これにより、同じ時刻に対応付けられた複数の仮姿勢データの平均が算出される。複数の仮姿勢データの平均が動作姿勢データとなる。
但し、動作姿勢生成部227は、複数の仮姿勢データの平均とともに、複数の仮姿勢データの分散を算出してもよい。
図16に戻り、ステップS260を説明する。
ステップS260において、動作登録部224は、一連の動作に含まれる動作毎に、2つ以上の時刻と、2つ以上の動作姿勢データと、同じ動作を識別する2つ以上の動作ラベルと、を互いに対応付けて動作データベース291に登録する。
***実施の形態2の効果***
実施の形態2により、複数回行われる一連の動作に基づいて動作データベース291を生成することができる。その結果、動作分析の精度を高めることが可能となる。
実施の形態3.
学習モデルを利用して動作分析を行う形態について、主に実施の形態1および実施の形態2と異なる点を図19から図22に基づいて説明する。
***構成の説明***
動作分析システム100の構成は、実施の形態1における構成(図1および図11を参照)と同じである。
図19に基づいて、動作分析装置200の構成を説明する。
動作分析装置200は、特定部210と学習部230といった要素を備える。これらの要素はソフトウェアで実現される。
動作分析プログラムは、特定部210と学習部230としてコンピュータを機能させる。
学習部230は、学習モデル292を生成する。
記憶部290は、学習モデル292を記憶する。
学習モデル292は、動作軌跡データの入力に対して動作ラベルを出力する。
図20に基づいて、学習部230の構成を説明する。
学習部230は、動作ラベル受付部231と動作画像受付部232と動作姿勢検出部233と動作学習部234といった要素を備える。
***動作の説明***
図21に基づいて、動作分析方法を説明する。
ステップS310において、対象画像受付部211は、複数の対象画像データを受け付ける。
ステップS310は、実施の形態1におけるステップS110(図3参照)と同じである。
ステップS320において、対象姿勢検出部212は、各対象画像データの対象画像に映る対象者111の姿勢を検出し、検出した姿勢を表す対象姿勢データを生成する。
これにより、複数の対象画像データに対応する複数の対象姿勢データが得られる。
ステップS320は、実施の形態1におけるステップS120(図3参照)と同じである。
ステップS330において、対象軌跡抽出部213は、複数の対象画像データに対応する複数の対象姿勢データから、対象軌跡データを抽出する。
ステップS330は、実施の形態1におけるステップS130(図3参照)と同じである。
ステップS340において、動作特定部214は、対象軌跡データに基づいて、対象者111の動作を識別する動作ラベルを得る。
動作ラベルは以下のようにして得られる。
動作特定部214は、対象軌跡データを学習モデルに入力する。
学習モデルは、入力された対象軌跡データに合致する学習軌跡データの動作ラベルを出力する。
動作特定部214は、学習モデルから動作ラベルを得る。
ステップS330およびステップS340は、撮影時間帯の各撮影時刻に対して実行される。これにより、各撮影時刻に対して動作ラベルが得られる。
ステップS330およびステップS340が撮影時間帯の各撮影時刻に対して実行された後、処理はステップS350に進む。
ステップS350において、結果出力部215は結果データを出力する。
ステップS350は、実施の形態1におけるステップS150(図3参照)と同じである。
***前処理の説明***
図22に基づいて、学習部230による学習処理を説明する。
学習処理によって、学習モデル292が生成される。
ステップS301において、動作ラベル受付部231は、複数の時刻が付加された複数の動作ラベルを受け付ける。
ステップS301は、実施の形態1におけるステップS101(図13参照)と同じである。
ステップS302において、動作画像受付部232は、複数の時刻が付加された複数の動作画像データを受け付ける。
ステップS302は、実施の形態1におけるステップS102(図13参照)と同じである。
ステップS303において、動作姿勢検出部233は、各動作画像データの動作画像に映る動作者112の姿勢を検出し、検出した姿勢を表す動作姿勢データを生成する。
これにより、複数の動作画像データに対応する複数の動作姿勢データが得られる。
ステップS303は、実施の形態1におけるステップS103(図13参照)と同じである。
ステップS304において、動作学習部234は、各時刻に対して動作姿勢データと動作ラベルとの組を学習データにして学習を行う。
例えば、動作学習部234は、既存の機械学習モデルを利用して機械学習を行う。具体的には、動作学習部234は、各時刻の学習データを機械学習モデルに入力する。そして、機械学習モデルが、各時刻の学習データに対する機械学習を行う。但し、動作学習部234は、他の方法による学習を行ってもよい。
これにより、学習モデル292が生成される。なお、学習モデル292が存在する場合、学習モデル292が更新される。
***実施の形態3の効果***
実施の形態3により、学習モデル292を利用して動作分析を行うことができる。その結果、動作分析の精度を高めることが可能となる。
***実施の形態の補足***
図23に基づいて、動作分析装置200のハードウェア構成を説明する。
動作分析装置200は処理回路209を備える。
処理回路209は、特定部210と登録部220と学習部230とを実現するハードウェアである。
処理回路209は、専用のハードウェアであってもよいし、メモリ202に格納されるプログラムを実行するプロセッサ201であってもよい。
処理回路209が専用のハードウェアである場合、処理回路209は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGAまたはこれらの組み合わせである。
ASICは、Application Specific Integrated Circuitの略称である。
FPGAは、Field Programmable Gate Arrayの略称である。
動作分析装置200は、処理回路209を代替する複数の処理回路を備えてもよい。複数の処理回路は、処理回路209の機能を分担する。
処理回路209において、一部の機能が専用のハードウェアで実現されて、残りの機能がソフトウェアまたはファームウェアで実現されてもよい。
このように、動作分析装置200の各機能はハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせで実現することができる。
各実施の形態は、好ましい形態の例示であり、本発明の技術的範囲を制限することを意図するものではない。各実施の形態は、部分的に実施してもよいし、他の形態と組み合わせて実施してもよい。フローチャート等を用いて説明した手順は、適宜に変更してもよい。
動作分析装置200の要素である「部」は、「処理」または「工程」と読み替えてもよい。
動作分析装置200は、複数の装置で実現されてもよい。
カメラ101およびカメラ102は、深度センサまたは他のセンサに置き換えてもよい。それらのセンサによって、3次元画像データが得られる。
学習モデル292は、ハードウェアで実現されてもよいし、ソフトウェアとハードウェアとの組み合わせで実現されてもよい。
100 動作分析システム、101 カメラ、102 カメラ、111 対象者、112 動作者、121 対象画像データ、122 対象姿勢データ、123 対象軌跡データ、131 動作画像データ、132 動作姿勢データ、133 動作軌跡データ、134 仮姿勢データ群、200 動作分析装置、201 プロセッサ、202 メモリ、203 補助記憶装置、204 通信装置、205 入出力インタフェース、209 処理回路、210 特定部、211 対象画像受付部、212 対象姿勢検出部、213 対象軌跡抽出部、214 動作特定部、215 結果出力部、220 登録部、221 動作ラベル受付部、222 動作画像受付部、223 動作姿勢検出部、224 動作登録部、225 仮姿勢検出部、226 仮テーブル生成部、227 動作姿勢生成部、230 学習部、231 動作ラベル受付部、232 動作画像受付部、233 動作姿勢検出部、234 動作学習部、290 記憶部、291 動作データベース、292 学習モデル。

Claims (7)

  1. 一連の動作を行う対象者を連続して撮影することによって得られる複数の対象画像データを受け付ける対象画像受付部と、
    各対象画像データの対象画像に映る前記対象者の姿勢を検出し、検出した姿勢を表す対象姿勢データを生成する対象姿勢検出部と、
    前記複数の対象画像データに対応する複数の対象姿勢データから、対象時刻の対象姿勢データと、前記対象時刻と連続する前時刻と前記対象時刻と連続する後時刻とのうちの少なくとも一方の時刻の対象姿勢データと、を含む2つ以上の対象姿勢データを、前記対象者の姿勢の推移を表す対象軌跡データとして抽出する対象軌跡抽出部と、
    前記対象軌跡データに基づいて前記対象者の動作を識別する動作ラベルを動作データベースから得る動作特定部と、
    を備え
    前記動作データベースには、複数の時刻と複数の動作姿勢データと複数の動作ラベルが互いに対応付けられ、
    各動作ラベルは、動作を識別し、
    各動作姿勢データは、対応付けられた動作ラベルで識別される動作を行う人の姿勢の推移を表し、
    各動作軌跡データは、2つ以上の動作姿勢データで構成され、
    前記対象軌跡抽出部は、前記対象時刻を含む対象時刻群を決定し、前記対象時刻群を構成する2つ以上の撮影時刻に対応する2つ以上の対象姿勢データを前記対象軌跡データとして抽出し、
    前記動作特定部は、比較時刻毎に比較時刻を含む比較時刻群を決定し、決定された比較時刻群を構成する2つ以上の比較時刻に対応付けられた2つ以上の動作姿勢データを前記動作データベースから抽出し、抽出された2つ以上の動作姿勢データで構成される動作軌跡データを前記対象軌跡データと比較し、各動作軌跡データと前記対象軌跡データの比較結果に基づいて前記対象軌跡データに合致する前記動作軌跡データを選択し、選択された動作軌跡データに対応する比較時刻に対応付けられた動作ラベルを前記対象軌跡データに合致する動作ラベルとして抽出する
    動作分析システム。
  2. 前記複数の時刻が付加された前記複数の動作ラベルを受け付ける動作ラベル受付部と、
    一連の動作を行う動作者を連続して撮影することによって得られて前記複数の時刻が付加された複数の動作画像データを受け付ける動作画像受付部と、
    各動作画像データの動作画像に映る前記動作者の姿勢を検出し、検出した姿勢を表す動作姿勢データを生成する動作姿勢検出部と、
    前記複数の時刻と前記複数の動作画像データに対応する前記複数の動作姿勢データと前記複数の動作ラベルとを互いに対応付けて前記動作データベースに登録する動作登録部と、
    を備える請求項に記載の動作分析システム。
  3. 複数の時刻が付加された複数の動作ラベルである動作ラベル群を複数受け付ける動作ラベル受付部と、
    一連の動作を行う動作者を撮影することによって得られて複数の時刻が付加された複数の動作画像データである動作画像データ群を複数受け付ける動作画像受付部と、
    受け付けられた動作画像データ群毎に、動作画像データ群の中の各動作画像データの動作画像に映る前記動作者の姿勢を検出し、検出した姿勢を表す仮姿勢データを生成する仮姿勢検出部と、
    時刻群と動作画像データ群に対応する仮姿勢データ群と動作ラベル群が互いに対応付けられた仮テーブルを複数生成する仮テーブル生成部と、
    前記一連の動作に含まれる動作毎に、同じ動作を識別する2つ以上の動作ラベルに対応付けられた2つ以上の仮姿勢データである仮軌跡データを複数の仮テーブルのそれぞれから抽出し、前記複数の仮テーブルから抽出した複数の仮軌跡データに基づいて2つ以上の時刻に対応する2つ以上の動作姿勢データを生成する動作姿勢生成部と、
    前記一連の動作に含まれる動作毎に、2つ以上の時刻と、2つ以上の動作姿勢データと、同じ動作を識別する2つ以上の動作ラベルと、を互いに対応付けて動作データベース291に登録する動作登録部と、
    を備える請求項に記載の動作分析システム。
  4. 一連の動作を行う対象者を連続して撮影することによって得られる複数の対象画像データを受け付ける対象画像受付部と、
    各対象画像データの対象画像に映る前記対象者の姿勢を検出し、検出した姿勢を表す対象姿勢データを生成する対象姿勢検出部と、
    前記複数の対象画像データに対応する複数の対象姿勢データから、対象時刻の対象姿勢データと、前記対象時刻と連続する前時刻と前記対象時刻と連続する後時刻とのうちの少なくとも一方の時刻の対象姿勢データと、を含む2つ以上の対象姿勢データを、前記対象者の姿勢の推移を表す対象軌跡データとして抽出する対象軌跡抽出部と、
    人の姿勢の推移を表す動作軌跡データの入力に対して動作を識別する動作ラベルを出力する学習モデルに前記対象軌跡データを入力し、前記対象者の動作を識別する動作ラベルを前記学習モデルから得る動作特定部と、
    複数の時刻が付加された複数の動作ラベルを受け付ける動作ラベル受付部と、
    一連の動作を行う動作者を連続して撮影することによって得られて前記複数の時刻が付加された複数の動作画像データを受け付ける動作画像受付部と、
    各動作画像データの動作画像に映る前記動作者の姿勢を検出し、検出した姿勢を表す動作姿勢データを生成する動作姿勢検出部と、
    各時刻に対して動作姿勢データと動作ラベルとの組を学習データにして学習を行うことによって、前記学習モデルを生成する動作学習部と、
    を備える動作分析システム。
  5. 各対象姿勢データは、前記対象者の複数の関節のそれぞれの位置を示す
    請求項1から請求項のいずれか1項に記載の動作分析システム。
  6. 一連の動作を行う対象者を連続して撮影することによって得られる複数の対象画像データを受け付ける対象画像受付処理と、
    各対象画像データの対象画像に映る前記対象者の姿勢を検出し、検出した姿勢を表す対象姿勢データを生成する対象姿勢検出処理と、
    前記複数の対象画像データに対応する複数の対象姿勢データから、対象時刻の対象姿勢データと、前記対象時刻と連続する前時刻と前記対象時刻と連続する後時刻とのうちの少なくとも一方の時刻の対象姿勢データと、を含む2つ以上の対象姿勢データを、前記対象者の姿勢の推移を表す対象軌跡データとして抽出する対象軌跡抽出処理と、
    前記対象軌跡データに基づいて前記対象者の動作を識別する動作ラベルを動作データベースから得る動作特定処理と、
    をコンピュータに実行させるための動作分析プログラムであって、
    前記動作データベースには、複数の時刻と複数の動作姿勢データと複数の動作ラベルが互いに対応付けられ、
    各動作ラベルは、動作を識別し、
    各動作姿勢データは、対応付けられた動作ラベルで識別される動作を行う人の姿勢の推移を表し、
    各動作軌跡データは、2つ以上の動作姿勢データで構成され、
    前記対象軌跡抽出処理は、前記対象時刻を含む対象時刻群を決定し、前記対象時刻群を構成する2つ以上の撮影時刻に対応する2つ以上の対象姿勢データを前記対象軌跡データとして抽出し、
    前記動作特定処理は、比較時刻毎に比較時刻を含む比較時刻群を決定し、決定された比較時刻群を構成する2つ以上の比較時刻に対応付けられた2つ以上の動作姿勢データを前記動作データベースから抽出し、抽出された2つ以上の動作姿勢データで構成される動作軌跡データを前記対象軌跡データと比較し、各動作軌跡データと前記対象軌跡データの比較結果に基づいて前記対象軌跡データに合致する前記動作軌跡データを選択し、選択された動作軌跡データに対応する比較時刻に対応付けられた動作ラベルを前記対象軌跡データに合致する動作ラベルとして抽出する
    動作分析プログラム。
  7. 一連の動作を行う対象者を連続して撮影することによって得られる複数の対象画像データを受け付ける対象画像受付処理と、
    各対象画像データの対象画像に映る前記対象者の姿勢を検出し、検出した姿勢を表す対象姿勢データを生成する対象姿勢検出処理と、
    前記複数の対象画像データに対応する複数の対象姿勢データから、対象時刻の対象姿勢データと、前記対象時刻と連続する前時刻と前記対象時刻と連続する後時刻とのうちの少なくとも一方の時刻の対象姿勢データと、を含む2つ以上の対象姿勢データを、前記対象者の姿勢の推移を表す対象軌跡データとして抽出する対象軌跡抽出処理と、
    人の姿勢の推移を表す動作軌跡データの入力に対して動作を識別する動作ラベルを出力する学習モデルに前記対象軌跡データを入力し、前記対象者の動作を識別する動作ラベルを前記学習モデルから得る動作特定処理と、
    複数の時刻が付加された複数の動作ラベルを受け付ける動作ラベル受付処理と、
    一連の動作を行う動作者を連続して撮影することによって得られて前記複数の時刻が付加された複数の動作画像データを受け付ける動作画像受付処理と、
    各動作画像データの動作画像に映る前記動作者の姿勢を検出し、検出した姿勢を表す動作姿勢データを生成する動作姿勢検出処理と、
    各時刻に対して動作姿勢データと動作ラベルとの組を学習データにして学習を行うことによって、前記学習モデルを生成する動作学習処理と、
    をコンピュータに実行させるための動作分析プログラム。
JP2020528365A 2019-12-26 2019-12-26 動作分析システムおよび動作分析プログラム Active JP6786015B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/051207 WO2021130978A1 (ja) 2019-12-26 2019-12-26 動作分析システムおよび動作分析プログラム

Publications (2)

Publication Number Publication Date
JP6786015B1 true JP6786015B1 (ja) 2020-11-18
JPWO2021130978A1 JPWO2021130978A1 (ja) 2021-12-23

Family

ID=73219985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020528365A Active JP6786015B1 (ja) 2019-12-26 2019-12-26 動作分析システムおよび動作分析プログラム

Country Status (5)

Country Link
JP (1) JP6786015B1 (ja)
CN (1) CN114846513A (ja)
DE (1) DE112019007857T5 (ja)
TW (1) TW202125331A (ja)
WO (1) WO2021130978A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023095329A1 (ja) * 2021-11-29 2023-06-01 日本電気株式会社 動作評価システム、動作評価方法、及び非一時的なコンピュータ可読媒体
WO2023218557A1 (ja) * 2022-05-11 2023-11-16 三菱電機株式会社 動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012083955A (ja) * 2010-10-12 2012-04-26 Nippon Telegr & Teleph Corp <Ntt> 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016099982A (ja) 2014-11-26 2016-05-30 日本電信電話株式会社 行動認識装置、行動学習装置、方法、及びプログラム
US10679044B2 (en) * 2018-03-23 2020-06-09 Microsoft Technology Licensing, Llc Human action data set generation in a machine learning system
JP6906273B2 (ja) * 2018-06-19 2021-07-21 Kddi株式会社 映像データから人の骨格位置の変位の軌跡を描写するプログラム、装置及び方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012083955A (ja) * 2010-10-12 2012-04-26 Nippon Telegr & Teleph Corp <Ntt> 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
藤澤 一暁,外3名: "携帯性を考慮した簡易型作業姿勢診断システムと関節角度に基づく姿勢自動分類手法", ヒューマンインタフェースシンポジウム2006 CD-ROM論文集, JPN6020025173, 25 September 2006 (2006-09-25), JP, pages 551 - 554, ISSN: 0004305505 *

Also Published As

Publication number Publication date
CN114846513A (zh) 2022-08-02
JPWO2021130978A1 (ja) 2021-12-23
TW202125331A (zh) 2021-07-01
DE112019007857T5 (de) 2022-08-25
WO2021130978A1 (ja) 2021-07-01

Similar Documents

Publication Publication Date Title
JP6940047B2 (ja) コンピュータによる鉄筋測定検査システム及び鉄筋測定検査方法
US10255673B2 (en) Apparatus and method for detecting object in image, and apparatus and method for computer-aided diagnosis
EP3220353B1 (en) Image processing apparatus, image processing method, and recording medium
US10860845B2 (en) Method and system for automatic repetitive step and cycle detection for manual assembly line operations
JP2007233997A (ja) 顔特徴点検出装置及びその方法
JP2016091108A (ja) 人体部位検出システムおよび人体部位検出方法
JP6786015B1 (ja) 動作分析システムおよび動作分析プログラム
EP3889588A1 (en) Inspection assistance device, inspection assistance method, and inspection assistance program for concrete structure
JP2021196705A (ja) 画像処理装置、画像処理方法およびプログラム
JP2021125003A5 (ja)
US10600202B2 (en) Information processing device and method, and program
JP5704909B2 (ja) 注目領域検出方法、注目領域検出装置、及びプログラム
JP2018036770A (ja) 位置姿勢推定装置、位置姿勢推定方法、及び位置姿勢推定プログラム
JP2020187667A (ja) 情報処理装置及び情報処理方法
US20210248357A1 (en) Image processing method and image processing apparatus
KR20150077184A (ko) 의료 영상의 병변 유사도 판단 장치 및 방법
CN111385813B (zh) 用于重复活动序列中的循环持续时间测量的系统和方法
JP2015111128A (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2007316950A (ja) 画像処理方法及び装置及びプログラム
JPWO2020111139A1 (ja) 座標算出装置、座標算出方法、及びプログラム
KR20200002590A (ko) 검사 결과 제시 장치, 검사 결과 제시 방법 및 검사 결과 제시 프로그램
US20230326251A1 (en) Work estimation device, work estimation method, and non-transitory computer readable medium
JP2020201674A (ja) 映像解析装置及びその制御方法及びプログラム
CN110599456A (zh) 一种医学图像的特定区域的提取方法
WO2022230413A1 (ja) 検出装置、検出装置の制御方法、学習済モデルを生成するモデル生成装置によるモデル生成方法、情報処理プログラム、および記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200522

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200522

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201027

R150 Certificate of patent or registration of utility model

Ref document number: 6786015

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250