JP6786015B1 - 動作分析システムおよび動作分析プログラム - Google Patents
動作分析システムおよび動作分析プログラム Download PDFInfo
- Publication number
- JP6786015B1 JP6786015B1 JP2020528365A JP2020528365A JP6786015B1 JP 6786015 B1 JP6786015 B1 JP 6786015B1 JP 2020528365 A JP2020528365 A JP 2020528365A JP 2020528365 A JP2020528365 A JP 2020528365A JP 6786015 B1 JP6786015 B1 JP 6786015B1
- Authority
- JP
- Japan
- Prior art keywords
- target
- motion
- data
- posture
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Abstract
Description
サイクルタイムは、作業者が製品を組み立てる時間である。
作業内容の分析は、作業の抜け又は非定常作業の検知のために行われる。非定常作業は定常的には行われない作業である。
人手による処理は、多くの人的コストがかかる。また、人手による処理では、限定的な範囲についてしか処理の対象とすることができない。
作業者の動作を分析するために特許文献1の方法が適用される場合、作業に不要な物が作業者の体に取り付けられる。そして、作業者の体に取り付けられた物が作業の妨げとなる可能性がある。
一連の動作を行う対象者を連続して撮影することによって得られる複数の対象画像データを受け付ける対象画像受付部と、
各対象画像データの対象画像に映る前記対象者の姿勢を検出し、検出した姿勢を表す対象姿勢データを生成する対象姿勢検出部と、
前記複数の対象画像データに対応する複数の対象姿勢データから、対象時刻の対象姿勢データと、前記対象時刻と連続する前時刻と前記対象時刻と連続する後時刻とのうちの少なくとも一方の時刻の対象姿勢データと、を含む2つ以上の対象姿勢データを、前記対象者の姿勢の推移を表す対象軌跡データとして抽出する対象軌跡抽出部と、
前記対象軌跡データに基づいて前記対象者の動作を識別する動作ラベルを得る動作特定部と、を備える。
人の動作を自動で分析するための動作分析システム100について、図1から図14に基づいて説明する。
図1に基づいて、動作分析システム100の構成を説明する。
動作分析システム100は、カメラ101と動作分析装置200とを備える。
カメラ101は、対象者111を撮影する。カメラ101は、対象者111を正面から撮影してもよいし、対象者111を斜めから撮影してもよい。また、カメラ101は、対象者111の全身を撮影してもよいし、対象者111の一部(例えば上半身)を撮影してもよい。
動作分析装置200は、対象者111の動作を分析する。
対象者111は、動作分析の対象となる人である。対象者111の具体例は、作業を行う人(作業者)である。
動作分析装置200は、プロセッサ201とメモリ202と補助記憶装置203と通信装置204と入出力インタフェース205といったハードウェアを備えるコンピュータである。これらのハードウェアは、信号線を介して互いに接続されている。
ICは、Integrated Circuitの略称である。
CPUは、Central Processing Unitの略称である。
DSPは、Digital Signal Processorの略称である。
GPUは、Graphics Processing Unitの略称である。
RAMは、Random Access Memoryの略称である。
ROMは、Read Only Memoryの略称である。
HDDは、Hard Disk Driveの略称である。
NICは、Network Interface Cardの略称である。
USBは、Universal Serial Busの略称である。
補助記憶装置203には、さらに、OSが記憶されている。OSの少なくとも一部は、メモリ202にロードされて、プロセッサ201によって実行される。
プロセッサ201は、OSを実行しながら、動作分析プログラムを実行する。
OSは、Operating Systemの略称である。
メモリ202は記憶部290として機能する。但し、補助記憶装置203、プロセッサ201内のレジスタおよびプロセッサ201内のキャッシュメモリなどの記憶装置が、メモリ202の代わりに、又は、メモリ202と共に、記憶部290として機能してもよい。
記憶部290には、動作データベース291などが記憶される。
動作分析システム100の動作の手順は動作分析方法に相当する。また、動作分析装置200の動作の手順は動作分析プログラムによる処理の手順に相当する。
ステップS110において、対象画像受付部211は、複数の対象画像データを受け付ける。
複数の対象画像データは、一連の動作を行う対象者111を連続して撮影することによって得られる。
各対象画像データは対象画像を表す。対象画像には、対象者111が映っている。
例えば、複数の対象画像データは、カメラ101から送信され、動作分析装置200によって受信される。対象画像受付部211は、受信された複数の対象画像データを受け付ける。
これにより、複数の対象画像データに対応する複数の対象姿勢データが得られる。
各撮影時刻の対象画像データ121は各撮影時刻の対象画像を表す。各撮影時刻の対象画像には各撮影時刻の対象者111が映っている。
対象姿勢検出部212は、各撮影時刻の対象画像に対して画像処理を行うことによって、各撮影時刻における対象者111の姿勢を検出する。
具体的には、対象姿勢検出部212は、対象者111の骨格を検出する。対象者111の骨格によって、対象者111の姿勢が特定される。
より具体的には、対象姿勢検出部212は、対象者111の各関節の位置を判別する。各関節の位置は、特定の座標系における絶対位置であってもよいし、他の関節に対する相対位置であってもよい。各関節の位置は座標値で識別される。首の関節および肩の関節などの複数の関節によって、骨格が特定される。
各撮影時刻の対象姿勢データ122において、各黒丸は対象者111の関節の位置を表している。
ステップS130およびステップS140は、撮影時間帯の各撮影時刻に対して実行される。撮影時間帯は、撮影が行われた時間帯である。
対象軌跡データは、2つ以上の対象姿勢データで構成され、対象者111の姿勢の推移を表す。対象軌跡データにおいて、2つ以上の対象姿勢データは時系列に並べられる。但し、対象軌跡データは、2つ以上の対象姿勢データを近似して表す多項式関数であってもよい。
対象軌跡データについて補足する。軌跡データは連続する時刻のデータである。対象軌跡データは連続する時刻の対象姿勢データである。連続する時刻は、対象時刻および対象時刻と連続する時刻である。対象時刻が[t]である場合、連続する時刻は[t−1]と[t]と[t+1]である。
ステップS131において、対象軌跡抽出部213は、撮影時間帯から、未選択の撮影時刻を1つ選択する。
撮影時間帯は、撮影が行われた時間帯である。
選択される撮影時刻を「対象時刻」と称する。
撮影時刻群は、連続する2つ以上の撮影時刻で構成され、対象時刻を含む。撮影時刻群に含まれる撮影時刻の数は予め決められる。
対象時刻を「m」と記す。例えば、対象軌跡抽出部213は、撮影時刻(m−1)と撮影時刻(m)と撮影時刻(m+1)とで構成される撮影時刻群を、対象時刻に対する撮影時刻群に決定する。
決定される撮影時刻群を「対象時刻群」と称する。
例えば、対象時刻群が時刻(m−1)と時刻(m)と時刻(m+1)とで構成される場合、対象軌跡抽出部213は、時刻(m−1)の対象姿勢データと、時刻(m)の対象姿勢データと、時刻(m+1)の対象姿勢データと、を抽出する。抽出される3つの対象姿勢データが、対象時刻に対応する対象軌跡データを構成する。
対象時刻群が[m−1]と[m]と[m+1]とで構成されると仮定する。
対象軌跡抽出部213は、[m−1]の対象姿勢データ122と[m]の対象姿勢データ122と[m+1]の対象姿勢データ122とを抽出する。
抽出される3つの対象姿勢データ122が、[m]の対象軌跡データ123を構成する。
ステップS140において、動作特定部214は、対象軌跡データに基づいて、対象者111の動作を識別する動作ラベルを得る。
具体的には、動作特定部214は、動作データベース291から、対象軌跡データに合致する動作軌跡データの動作ラベルを抽出する。
動作データベース291は、動作ラベルと動作軌跡データとの組が1つ以上登録されたデータベースである。
動作ラベルは、動作を識別する。
動作軌跡データは、動作ラベルで識別される動作を行う人の姿勢の推移を表す。
動作データベース291には、複数の時刻と複数の動作姿勢データと複数の動作ラベルが互いに対応付けられる。
動作軌跡データ133は、2つ以上の動作姿勢データ132で構成される。具体的には、動作軌跡データ133は、連続する2つ以上の時刻に対応付けられた2つ以上の動作姿勢データ132で構成される。
動作姿勢データ132は、動作を行う人の姿勢を表す。
「t」の動作軌跡データ133は、時刻tの動作ラベル「作業A」によって識別される動作を行う人の姿勢の推移を表す。
ステップS141において、動作特定部214は、動作データベース291の「時刻」から、未選択の時刻を1つ選択する。具体的には、動作特定部214は、昇順に時刻を選択する。
選択される時刻を「比較時刻」と称する。
比較時刻群は、連続する2つ以上の時刻で構成され、比較時刻を含む。比較時刻群に含まれる時刻の数は、予め決められる。
比較時刻を「t」と記す。例えば、動作特定部214は、時刻(t−1)と時刻(t)と時刻(t+1)とから成る時刻群を、比較時刻に対する比較時刻群に決定する。
例えば、比較時刻群が時刻(t−1)と時刻(t)と時刻(t+1)とで構成される場合、動作特定部214は、時刻(t−1)の動作姿勢データと、時刻(t)の動作姿勢データと、時刻(t+1)の動作姿勢データと、を抽出する。抽出される3つの動作姿勢データが、比較時刻に対応する動作軌跡データを構成する。
対象軌跡データに対する動作軌跡データの距離は、対象軌跡データによって表される姿勢の推移と動作軌跡データによって表される姿勢の推移との差の大きさに相当する。
対象軌跡データに含まれる対象姿勢データをI(m)またはI(m+k)と記す。
動作軌跡データに含まれる動作姿勢データをR(t)またはR(t+k)と記す。
「k」は−i以上+i以下の整数である。「i」は1以上の整数である。対象軌跡データに含まれる対象姿勢データの数が「3」である場合、「i」は「1」である。
距離I’(m+k)は、対象姿勢データI(m)によって表される姿勢と対象姿勢データI(m+k)によって表される姿勢との差の大きさに相当する。
対象姿勢データは、複数の関節のそれぞれの位置を示す。
動作特定部214は、関節毎に、対象姿勢データI(m)における関節の位置と対象姿勢データI(m+k)における関節の位置との距離を算出する。動作特定部214は、各関節に対して重み付けを行い、各関節の重みに応じて各関節の距離を算出してもよい。その場合、重要な関節の距離は大きな値となる。
または、動作特定部214は、関節組毎に、対象姿勢データI(m)における関節間の距離と対象姿勢データI(m+k)における関節間の距離との差を、関節組に対する距離として算出する。動作特定部214は、各関節組に対して重み付けを行い、各関節組の重みに応じて各関節組に対する距離を算出してもよい。その場合、重要な関節組に対する距離は大きな値となる。
動作特定部214は、算出した距離の合計を算出する。算出される合計が距離I’(m+k)となる。
距離R’(t+k)は、動作姿勢データR(t)によって表される姿勢と動作姿勢データR(t+k)によって表される姿勢との差の大きさに相当する。
動作姿勢データは、複数の関節のそれぞれの位置を示す。
動作特定部214は、関節毎に、動作姿勢データR(t)における関節の位置と動作姿勢データR(t+k)における関節の位置との距離を算出する。動作特定部214は、各関節に対して重み付けを行い、各関節の重みに応じて各関節の距離を算出してもよい。その場合、重要な関節の距離は大きな値となる。
または、動作特定部214は、関節組毎に、動作姿勢データR(m)における関節間の距離と動作姿勢データI(m+k)における関節間の距離との差を、関節組に対する距離として算出する。動作特定部214は、各関節組に対して重み付けを行い、各関節組の重みに応じて各関節組に対する距離を算出してもよい。その場合、重要な関節組に対する距離は大きな値となる。
動作特定部214は、算出した距離の合計を算出する。算出される合計が距離R’(t+k)となる。
算出される合計が、対象軌跡データに対する動作軌跡データの距離となる。
これらの手法では、例えば、I’(m+k)−R’(t+k)で求まる距離よりもI’(m+k)−R’(m+(k+a))で求まる距離が小さい場合、「k」と「k+a」の距離が加算される。
表の中の数字は、|I’(m+a)−R’(t+b)|の値を示している。但し、−2≦aであり、b≦2である。実線矢印はパス(I’とR’の対応)を示している。
動的計画法では「a」「b」を変化させて各グリッドの距離が算出される。そして、距離の総和が小さくなるパス(実線矢印を参照)が選択される。
ステップS145において、動作特定部214は、未選択の比較時刻があるか判定する。
未選択の比較時刻がある場合、処理はステップS141に進む。
未選択の比較時刻がない場合、処理はステップS146に進む。
動作特定部214は、ステップS144で算出された距離のうちの最小の距離を選択する。そして、動作特定部214は、選択した距離に対応する動作軌跡データを選択する。選択される動作軌跡データが、対象軌跡データに合致する動作軌跡データである。
但し、選択される距離(最小の距離)が閾値より大きい場合、動作特定部214は、対象軌跡データに合致する動作軌跡データがない、と判断してもよい。
例えば、ステップS146で[t]の動作軌跡データ133(図7参照)が選択されたと仮定する。この場合、動作特定部214は、動作データベース291から、[t]に対応付けられた動作ラベル「作業A」を抽出する。
但し、対象軌跡データに合致する動作軌跡データがないと判断された場合(ステップS146を参照)、動作ラベルは抽出されない。動作ラベルが抽出されない場合、動作特定部214は、通常行われない作業(非定常作業)を示すラベルを付与する。
ステップS130およびステップS140が撮影時間帯の各撮影時刻に対して実行されることにより、各撮影時刻に対して動作ラベルが得られる。
ステップS130およびステップS140が撮影時間帯の各撮影時刻に対して実行された後、処理はステップS150に進む。
例えば、結果出力部215は、結果データをディスプレイに表示する。
結果データは、各撮影時刻の動作ラベルを含む。
動作データベース291を生成する方法について説明する。
図11に、動作データベース291が生成される際の動作分析システム100の構成を示す。
動作分析システム100は、カメラ102と動作分析装置200とを備える。
カメラ102は、動作者112を撮影する。カメラ102は、カメラ101(図1参照)と同じであってもよいし、カメラ101とは別のカメラであってもよい。
動作者112は、動作データベース291への登録の対象となる動作(対象動作)を行う人である。動作者112は、対象者111(図1参照)と同じ人であってもよいし、対象者111とは別の人であってもよい。
動作者112が作業者である場合、動作者112は、通常行われる作業(定常作業)を一連の動作として行う。但し、動作者112は、通常行われない作業(非定常作業)を含めて一連の動作を行ってもよい。
登録部220は、動作ラベル受付部221と動作画像受付部222と動作姿勢検出部223と動作登録部224といった要素を備える。
登録処理によって、動作データベース291(図7参照)が生成される。
例えば、動作ラベル受付部221は、動作ラベルリストを受け付ける。動作ラベルリストは、時刻と動作ラベルとの組を複数示す。
例えば、動作ラベルリストは、利用者によって、動作分析装置200に入力される。動作ラベル受付部221は、入力された動作ラベルリストを受け付ける。
なお、定常作業に含まれない動作に対しては、非定常を示すラベルが付与される。
複数の動作画像データは、一連の動作を行う動作者112を連続して撮影することによって得られる。
各動作画像データは動作画像を表す。動作画像には、動作者112が映っている。
例えば、動作画像ファイルは、利用者によって、動作分析装置200に入力される。動作画像受付部222は、入力された動作画像ファイルを受け付ける。
これにより、複数の動作画像データに対応する複数の動作姿勢データが得られる。
各時刻の動作画像データ131は各時刻の動作画像を表す。各時刻の動作画像には各時刻の動作者112が映っている。
動作姿勢検出部223は、各時刻の動作画像に対して画像処理を行うことによって、各時刻における動作者112の姿勢を検出する。
具体的には、動作姿勢検出部223は、動作者112の骨格を検出する。動作者112の骨格によって、動作者112の姿勢が特定される。
より具体的には、動作姿勢検出部223は、動作者112の各関節の位置を判別する。各関節の位置は、座標値、または、他の関節に対する相対位置で示すことができる。首の関節および肩の関節などの複数の関節によって、骨格が特定される。
各時刻の動作姿勢データ132において、各黒丸は動作者112の関節の位置を表している。
ステップS104において、動作登録部224は、複数の時刻と複数の動作姿勢データと複数の動作ラベルとを互いに対応付けて動作データベース291に登録する。
動作特定部214は、定常作業が行われた時間帯および非定常作業が行われた時間帯を特定してもよい。
具体的には、動作特定部214は、非定常を示すラベルが付与された時刻間の時間帯を計測する。計測される時間帯が、非定常作業が行われた時間帯である。その後、動作特定部214は、非定常作業が行われた時間帯以外の時間帯を判別する。判別される時間帯が、定常作業が行われた時間帯である。
実施の形態1により、カメラおよび三次元センサなど作業に不要な物が作業者(対象者の一例)の体に取り付けられなくても、作業者の動作を特定することが可能となる。つまり、作業を妨げずに作業者の動作を分析することが可能となる。
さらに、対象者111によって各動作が行われた時間帯を特定することが可能となる。つまり、定常作業が行われた時間帯および非定常作業が行われた時間帯を特定することが可能となる。
また、対象軌跡データと動作軌跡データという軌跡データ(連続時刻データ)同士が比較されることにより、次のような効果が得られる。作業は複数の動作を含むことがある。そのため、単一時刻の動作を比較するのではなく連続した動作である軌跡データ同士を比較することにより、より適切な作業の判定が可能となる。
動作分析の精度を高めるための形態について、主に実施の形態1と異なる点を図15から図18に基づいて説明する。
動作分析システム100の構成は、実施の形態1における構成(図1および図11を参照)と同じである。
但し、図11において、動作者112は一連の動作を複数回行い、カメラ102は動作者112による複数回の一連の動作を撮影する。
但し、登録部220の構成の一部が、実施の形態1における構成(図12参照)と異なる。
登録部220は、動作ラベル受付部221と動作画像受付部222と仮姿勢検出部225と仮テーブル生成部226と動作姿勢生成部227と動作登録部224といった要素を備える。
図16に基づいて、登録部220による登録処理を説明する。
登録処理によって、動作データベース291(図7参照)が生成される。
動作ラベル群は、複数の時刻が付加された複数の動作ラベルである。
ステップS210は、実施の形態1におけるステップS101(図13参照)に相当する。
動作画像データ群は、一連の動作を行う動作者を撮影することによって得られて複数の時刻が付加された複数の動作画像データである。
ステップS220は、実施の形態1におけるステップS202(図13参照)に相当する。
これにより、動作画像データ群に対応する仮姿勢データ群が得られる。仮姿勢データ群は、複数の動作画像データに対応する複数の仮姿勢データである。
仮姿勢データを生成する方法は、実施の形態1において動作姿勢データを生成する方法と同じである(図13のステップS103を参照)。
仮テーブルは、時刻群と仮姿勢データ群と動作ラベル群とが互いに対応付けられたテーブルである。
時刻群は、複数の動作ラベルと複数の動作画像とに付加された複数の時刻である。
ステップS210からステップS240が複数回の一連の動作のそれぞれに対して実行された後、処理はステップS250に進む。
動作姿勢生成部227は、同じ動作を識別する2つ以上の動作ラベルに対応付けられた2つ以上の仮姿勢データである仮軌跡データを、複数の仮テーブルのそれぞれから抽出する。
動作姿勢生成部227は、複数の仮テーブルから抽出した複数の仮軌跡データに基づいて、2つ以上の時刻に対応する2つ以上の動作姿勢データを生成する。
ステップS251からステップS253は、一連の動作に含まれる各動作に対して実行される。
例えば、構成データ数は、複数の仮軌跡データにおける仮姿勢データの数の平均である。1回目の仮軌跡データを構成する仮姿勢データの数が「3」であり、2回目の仮軌跡データを構成する仮姿勢データの数が「4」であり、3回目の仮軌跡データを構成する仮姿勢データの数が「5」であると仮定する。この場合、構成データ数は「4」である。
これにより、各仮軌跡データを構成する仮姿勢データの数が、構成データ数と同じ数になる。
「An」は、サンプリング前のn回目の仮軌跡データに含まれる仮姿勢データを表す。
「An’」は、サンプリング後のn回目の仮軌跡データに含まれる仮姿勢データを表す。
「*」は乗法を意味し、「+」は加法を意味する。
各仮姿勢データは、複数の関節のそれぞれの位置を示す。乗法および加法は、関節毎に関節の位置を識別する座標値に対して行われる。
サンプリング前において、1回目の仮軌跡データは3つの仮姿勢データA1(1〜3)で構成されている。また、2回目の仮軌跡データは4つの仮姿勢データA2(1〜4)で構成されている。また、3回目の仮軌跡データは5つの仮姿勢データA3(1〜5)で構成されている。
1回目の仮軌跡データに対するサンプリングによって、3つの仮姿勢データA1(1〜3)に基づく4つの仮姿勢データA1’(1〜4)が生成される。
2回目の仮軌跡データに対するサンプリングによって、4つの仮姿勢データA2(1〜4)に基づく4つの仮姿勢データA2’(1〜4)が生成される。
3回目の仮軌跡データに対するサンプリングによって、5つの仮姿勢データA3(1〜5)に基づく4つの仮姿勢データA3’(1〜4)が生成される。
サンプリング後において、1回目の仮軌跡データは4つの仮姿勢データA1’(1〜4)で構成されている。また、2回目の仮軌跡データは4つの仮姿勢データA2’(1〜4)で構成されている。また、3回目の仮軌跡データは4つの仮姿勢データA3’(1〜4)で構成されている。
ステップS254において、動作姿勢生成部227は、構成データ数と同じ数の動作姿勢データを生成する。
動作姿勢生成部227は、同じ時刻に対応付けられた複数の仮姿勢データの和を算出する。複数の仮姿勢データの和は、関節毎に関節の位置を識別する座標値に対して行われる。
動作姿勢生成部227は、複数の仮姿勢データの和を仮姿勢データの数で割る。これにより、同じ時刻に対応付けられた複数の仮姿勢データの平均が算出される。複数の仮姿勢データの平均が動作姿勢データとなる。
但し、動作姿勢生成部227は、複数の仮姿勢データの平均とともに、複数の仮姿勢データの分散を算出してもよい。
ステップS260において、動作登録部224は、一連の動作に含まれる動作毎に、2つ以上の時刻と、2つ以上の動作姿勢データと、同じ動作を識別する2つ以上の動作ラベルと、を互いに対応付けて動作データベース291に登録する。
実施の形態2により、複数回行われる一連の動作に基づいて動作データベース291を生成することができる。その結果、動作分析の精度を高めることが可能となる。
学習モデルを利用して動作分析を行う形態について、主に実施の形態1および実施の形態2と異なる点を図19から図22に基づいて説明する。
動作分析システム100の構成は、実施の形態1における構成(図1および図11を参照)と同じである。
動作分析装置200は、特定部210と学習部230といった要素を備える。これらの要素はソフトウェアで実現される。
動作分析プログラムは、特定部210と学習部230としてコンピュータを機能させる。
記憶部290は、学習モデル292を記憶する。
学習モデル292は、動作軌跡データの入力に対して動作ラベルを出力する。
学習部230は、動作ラベル受付部231と動作画像受付部232と動作姿勢検出部233と動作学習部234といった要素を備える。
図21に基づいて、動作分析方法を説明する。
ステップS310において、対象画像受付部211は、複数の対象画像データを受け付ける。
ステップS310は、実施の形態1におけるステップS110(図3参照)と同じである。
これにより、複数の対象画像データに対応する複数の対象姿勢データが得られる。
ステップS320は、実施の形態1におけるステップS120(図3参照)と同じである。
ステップS330は、実施の形態1におけるステップS130(図3参照)と同じである。
動作特定部214は、対象軌跡データを学習モデルに入力する。
学習モデルは、入力された対象軌跡データに合致する学習軌跡データの動作ラベルを出力する。
動作特定部214は、学習モデルから動作ラベルを得る。
ステップS330およびステップS340が撮影時間帯の各撮影時刻に対して実行された後、処理はステップS350に進む。
ステップS350は、実施の形態1におけるステップS150(図3参照)と同じである。
図22に基づいて、学習部230による学習処理を説明する。
学習処理によって、学習モデル292が生成される。
ステップS301は、実施の形態1におけるステップS101(図13参照)と同じである。
ステップS302は、実施の形態1におけるステップS102(図13参照)と同じである。
これにより、複数の動作画像データに対応する複数の動作姿勢データが得られる。
ステップS303は、実施の形態1におけるステップS103(図13参照)と同じである。
例えば、動作学習部234は、既存の機械学習モデルを利用して機械学習を行う。具体的には、動作学習部234は、各時刻の学習データを機械学習モデルに入力する。そして、機械学習モデルが、各時刻の学習データに対する機械学習を行う。但し、動作学習部234は、他の方法による学習を行ってもよい。
これにより、学習モデル292が生成される。なお、学習モデル292が存在する場合、学習モデル292が更新される。
実施の形態3により、学習モデル292を利用して動作分析を行うことができる。その結果、動作分析の精度を高めることが可能となる。
図23に基づいて、動作分析装置200のハードウェア構成を説明する。
動作分析装置200は処理回路209を備える。
処理回路209は、特定部210と登録部220と学習部230とを実現するハードウェアである。
処理回路209は、専用のハードウェアであってもよいし、メモリ202に格納されるプログラムを実行するプロセッサ201であってもよい。
ASICは、Application Specific Integrated Circuitの略称である。
FPGAは、Field Programmable Gate Arrayの略称である。
カメラ101およびカメラ102は、深度センサまたは他のセンサに置き換えてもよい。それらのセンサによって、3次元画像データが得られる。
学習モデル292は、ハードウェアで実現されてもよいし、ソフトウェアとハードウェアとの組み合わせで実現されてもよい。
Claims (7)
- 一連の動作を行う対象者を連続して撮影することによって得られる複数の対象画像データを受け付ける対象画像受付部と、
各対象画像データの対象画像に映る前記対象者の姿勢を検出し、検出した姿勢を表す対象姿勢データを生成する対象姿勢検出部と、
前記複数の対象画像データに対応する複数の対象姿勢データから、対象時刻の対象姿勢データと、前記対象時刻と連続する前時刻と前記対象時刻と連続する後時刻とのうちの少なくとも一方の時刻の対象姿勢データと、を含む2つ以上の対象姿勢データを、前記対象者の姿勢の推移を表す対象軌跡データとして抽出する対象軌跡抽出部と、
前記対象軌跡データに基づいて前記対象者の動作を識別する動作ラベルを動作データベースから得る動作特定部と、
を備え、
前記動作データベースには、複数の時刻と複数の動作姿勢データと複数の動作ラベルが互いに対応付けられ、
各動作ラベルは、動作を識別し、
各動作姿勢データは、対応付けられた動作ラベルで識別される動作を行う人の姿勢の推移を表し、
各動作軌跡データは、2つ以上の動作姿勢データで構成され、
前記対象軌跡抽出部は、前記対象時刻を含む対象時刻群を決定し、前記対象時刻群を構成する2つ以上の撮影時刻に対応する2つ以上の対象姿勢データを前記対象軌跡データとして抽出し、
前記動作特定部は、比較時刻毎に比較時刻を含む比較時刻群を決定し、決定された比較時刻群を構成する2つ以上の比較時刻に対応付けられた2つ以上の動作姿勢データを前記動作データベースから抽出し、抽出された2つ以上の動作姿勢データで構成される動作軌跡データを前記対象軌跡データと比較し、各動作軌跡データと前記対象軌跡データの比較結果に基づいて前記対象軌跡データに合致する前記動作軌跡データを選択し、選択された動作軌跡データに対応する比較時刻に対応付けられた動作ラベルを前記対象軌跡データに合致する動作ラベルとして抽出する
動作分析システム。 - 前記複数の時刻が付加された前記複数の動作ラベルを受け付ける動作ラベル受付部と、
一連の動作を行う動作者を連続して撮影することによって得られて前記複数の時刻が付加された複数の動作画像データを受け付ける動作画像受付部と、
各動作画像データの動作画像に映る前記動作者の姿勢を検出し、検出した姿勢を表す動作姿勢データを生成する動作姿勢検出部と、
前記複数の時刻と前記複数の動作画像データに対応する前記複数の動作姿勢データと前記複数の動作ラベルとを互いに対応付けて前記動作データベースに登録する動作登録部と、
を備える請求項1に記載の動作分析システム。 - 複数の時刻が付加された複数の動作ラベルである動作ラベル群を複数受け付ける動作ラベル受付部と、
一連の動作を行う動作者を撮影することによって得られて複数の時刻が付加された複数の動作画像データである動作画像データ群を複数受け付ける動作画像受付部と、
受け付けられた動作画像データ群毎に、動作画像データ群の中の各動作画像データの動作画像に映る前記動作者の姿勢を検出し、検出した姿勢を表す仮姿勢データを生成する仮姿勢検出部と、
時刻群と動作画像データ群に対応する仮姿勢データ群と動作ラベル群が互いに対応付けられた仮テーブルを複数生成する仮テーブル生成部と、
前記一連の動作に含まれる動作毎に、同じ動作を識別する2つ以上の動作ラベルに対応付けられた2つ以上の仮姿勢データである仮軌跡データを複数の仮テーブルのそれぞれから抽出し、前記複数の仮テーブルから抽出した複数の仮軌跡データに基づいて2つ以上の時刻に対応する2つ以上の動作姿勢データを生成する動作姿勢生成部と、
前記一連の動作に含まれる動作毎に、2つ以上の時刻と、2つ以上の動作姿勢データと、同じ動作を識別する2つ以上の動作ラベルと、を互いに対応付けて動作データベース291に登録する動作登録部と、
を備える請求項1に記載の動作分析システム。 - 一連の動作を行う対象者を連続して撮影することによって得られる複数の対象画像データを受け付ける対象画像受付部と、
各対象画像データの対象画像に映る前記対象者の姿勢を検出し、検出した姿勢を表す対象姿勢データを生成する対象姿勢検出部と、
前記複数の対象画像データに対応する複数の対象姿勢データから、対象時刻の対象姿勢データと、前記対象時刻と連続する前時刻と前記対象時刻と連続する後時刻とのうちの少なくとも一方の時刻の対象姿勢データと、を含む2つ以上の対象姿勢データを、前記対象者の姿勢の推移を表す対象軌跡データとして抽出する対象軌跡抽出部と、
人の姿勢の推移を表す動作軌跡データの入力に対して動作を識別する動作ラベルを出力する学習モデルに前記対象軌跡データを入力し、前記対象者の動作を識別する動作ラベルを前記学習モデルから得る動作特定部と、
複数の時刻が付加された複数の動作ラベルを受け付ける動作ラベル受付部と、
一連の動作を行う動作者を連続して撮影することによって得られて前記複数の時刻が付加された複数の動作画像データを受け付ける動作画像受付部と、
各動作画像データの動作画像に映る前記動作者の姿勢を検出し、検出した姿勢を表す動作姿勢データを生成する動作姿勢検出部と、
各時刻に対して動作姿勢データと動作ラベルとの組を学習データにして学習を行うことによって、前記学習モデルを生成する動作学習部と、
を備える動作分析システム。 - 各対象姿勢データは、前記対象者の複数の関節のそれぞれの位置を示す
請求項1から請求項4のいずれか1項に記載の動作分析システム。 - 一連の動作を行う対象者を連続して撮影することによって得られる複数の対象画像データを受け付ける対象画像受付処理と、
各対象画像データの対象画像に映る前記対象者の姿勢を検出し、検出した姿勢を表す対象姿勢データを生成する対象姿勢検出処理と、
前記複数の対象画像データに対応する複数の対象姿勢データから、対象時刻の対象姿勢データと、前記対象時刻と連続する前時刻と前記対象時刻と連続する後時刻とのうちの少なくとも一方の時刻の対象姿勢データと、を含む2つ以上の対象姿勢データを、前記対象者の姿勢の推移を表す対象軌跡データとして抽出する対象軌跡抽出処理と、
前記対象軌跡データに基づいて前記対象者の動作を識別する動作ラベルを動作データベースから得る動作特定処理と、
をコンピュータに実行させるための動作分析プログラムであって、
前記動作データベースには、複数の時刻と複数の動作姿勢データと複数の動作ラベルが互いに対応付けられ、
各動作ラベルは、動作を識別し、
各動作姿勢データは、対応付けられた動作ラベルで識別される動作を行う人の姿勢の推移を表し、
各動作軌跡データは、2つ以上の動作姿勢データで構成され、
前記対象軌跡抽出処理は、前記対象時刻を含む対象時刻群を決定し、前記対象時刻群を構成する2つ以上の撮影時刻に対応する2つ以上の対象姿勢データを前記対象軌跡データとして抽出し、
前記動作特定処理は、比較時刻毎に比較時刻を含む比較時刻群を決定し、決定された比較時刻群を構成する2つ以上の比較時刻に対応付けられた2つ以上の動作姿勢データを前記動作データベースから抽出し、抽出された2つ以上の動作姿勢データで構成される動作軌跡データを前記対象軌跡データと比較し、各動作軌跡データと前記対象軌跡データの比較結果に基づいて前記対象軌跡データに合致する前記動作軌跡データを選択し、選択された動作軌跡データに対応する比較時刻に対応付けられた動作ラベルを前記対象軌跡データに合致する動作ラベルとして抽出する
動作分析プログラム。 - 一連の動作を行う対象者を連続して撮影することによって得られる複数の対象画像データを受け付ける対象画像受付処理と、
各対象画像データの対象画像に映る前記対象者の姿勢を検出し、検出した姿勢を表す対象姿勢データを生成する対象姿勢検出処理と、
前記複数の対象画像データに対応する複数の対象姿勢データから、対象時刻の対象姿勢データと、前記対象時刻と連続する前時刻と前記対象時刻と連続する後時刻とのうちの少なくとも一方の時刻の対象姿勢データと、を含む2つ以上の対象姿勢データを、前記対象者の姿勢の推移を表す対象軌跡データとして抽出する対象軌跡抽出処理と、
人の姿勢の推移を表す動作軌跡データの入力に対して動作を識別する動作ラベルを出力する学習モデルに前記対象軌跡データを入力し、前記対象者の動作を識別する動作ラベルを前記学習モデルから得る動作特定処理と、
複数の時刻が付加された複数の動作ラベルを受け付ける動作ラベル受付処理と、
一連の動作を行う動作者を連続して撮影することによって得られて前記複数の時刻が付加された複数の動作画像データを受け付ける動作画像受付処理と、
各動作画像データの動作画像に映る前記動作者の姿勢を検出し、検出した姿勢を表す動作姿勢データを生成する動作姿勢検出処理と、
各時刻に対して動作姿勢データと動作ラベルとの組を学習データにして学習を行うことによって、前記学習モデルを生成する動作学習処理と、
をコンピュータに実行させるための動作分析プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/051207 WO2021130978A1 (ja) | 2019-12-26 | 2019-12-26 | 動作分析システムおよび動作分析プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6786015B1 true JP6786015B1 (ja) | 2020-11-18 |
JPWO2021130978A1 JPWO2021130978A1 (ja) | 2021-12-23 |
Family
ID=73219985
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020528365A Active JP6786015B1 (ja) | 2019-12-26 | 2019-12-26 | 動作分析システムおよび動作分析プログラム |
Country Status (5)
Country | Link |
---|---|
JP (1) | JP6786015B1 (ja) |
CN (1) | CN114846513A (ja) |
DE (1) | DE112019007857T5 (ja) |
TW (1) | TW202125331A (ja) |
WO (1) | WO2021130978A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023095329A1 (ja) * | 2021-11-29 | 2023-06-01 | 日本電気株式会社 | 動作評価システム、動作評価方法、及び非一時的なコンピュータ可読媒体 |
WO2023218557A1 (ja) * | 2022-05-11 | 2023-11-16 | 三菱電機株式会社 | 動作分析装置、動作分析方法、動作分析プログラムおよび動作分析システム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012083955A (ja) * | 2010-10-12 | 2012-04-26 | Nippon Telegr & Teleph Corp <Ntt> | 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016099982A (ja) | 2014-11-26 | 2016-05-30 | 日本電信電話株式会社 | 行動認識装置、行動学習装置、方法、及びプログラム |
US10679044B2 (en) * | 2018-03-23 | 2020-06-09 | Microsoft Technology Licensing, Llc | Human action data set generation in a machine learning system |
JP6906273B2 (ja) * | 2018-06-19 | 2021-07-21 | Kddi株式会社 | 映像データから人の骨格位置の変位の軌跡を描写するプログラム、装置及び方法 |
-
2019
- 2019-12-26 CN CN201980103084.2A patent/CN114846513A/zh active Pending
- 2019-12-26 WO PCT/JP2019/051207 patent/WO2021130978A1/ja active Application Filing
- 2019-12-26 DE DE112019007857.7T patent/DE112019007857T5/de active Pending
- 2019-12-26 JP JP2020528365A patent/JP6786015B1/ja active Active
-
2020
- 2020-05-12 TW TW109115675A patent/TW202125331A/zh unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012083955A (ja) * | 2010-10-12 | 2012-04-26 | Nippon Telegr & Teleph Corp <Ntt> | 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム |
Non-Patent Citations (1)
Title |
---|
藤澤 一暁,外3名: "携帯性を考慮した簡易型作業姿勢診断システムと関節角度に基づく姿勢自動分類手法", ヒューマンインタフェースシンポジウム2006 CD-ROM論文集, JPN6020025173, 25 September 2006 (2006-09-25), JP, pages 551 - 554, ISSN: 0004305505 * |
Also Published As
Publication number | Publication date |
---|---|
CN114846513A (zh) | 2022-08-02 |
JPWO2021130978A1 (ja) | 2021-12-23 |
TW202125331A (zh) | 2021-07-01 |
DE112019007857T5 (de) | 2022-08-25 |
WO2021130978A1 (ja) | 2021-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6940047B2 (ja) | コンピュータによる鉄筋測定検査システム及び鉄筋測定検査方法 | |
US10255673B2 (en) | Apparatus and method for detecting object in image, and apparatus and method for computer-aided diagnosis | |
EP3220353B1 (en) | Image processing apparatus, image processing method, and recording medium | |
US10860845B2 (en) | Method and system for automatic repetitive step and cycle detection for manual assembly line operations | |
JP2007233997A (ja) | 顔特徴点検出装置及びその方法 | |
JP2016091108A (ja) | 人体部位検出システムおよび人体部位検出方法 | |
JP6786015B1 (ja) | 動作分析システムおよび動作分析プログラム | |
EP3889588A1 (en) | Inspection assistance device, inspection assistance method, and inspection assistance program for concrete structure | |
JP2021196705A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2021125003A5 (ja) | ||
US10600202B2 (en) | Information processing device and method, and program | |
JP5704909B2 (ja) | 注目領域検出方法、注目領域検出装置、及びプログラム | |
JP2018036770A (ja) | 位置姿勢推定装置、位置姿勢推定方法、及び位置姿勢推定プログラム | |
JP2020187667A (ja) | 情報処理装置及び情報処理方法 | |
US20210248357A1 (en) | Image processing method and image processing apparatus | |
KR20150077184A (ko) | 의료 영상의 병변 유사도 판단 장치 및 방법 | |
CN111385813B (zh) | 用于重复活动序列中的循环持续时间测量的系统和方法 | |
JP2015111128A (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JP2007316950A (ja) | 画像処理方法及び装置及びプログラム | |
JPWO2020111139A1 (ja) | 座標算出装置、座標算出方法、及びプログラム | |
KR20200002590A (ko) | 검사 결과 제시 장치, 검사 결과 제시 방법 및 검사 결과 제시 프로그램 | |
US20230326251A1 (en) | Work estimation device, work estimation method, and non-transitory computer readable medium | |
JP2020201674A (ja) | 映像解析装置及びその制御方法及びプログラム | |
CN110599456A (zh) | 一种医学图像的特定区域的提取方法 | |
WO2022230413A1 (ja) | 検出装置、検出装置の制御方法、学習済モデルを生成するモデル生成装置によるモデル生成方法、情報処理プログラム、および記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200522 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200522 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200619 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200714 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200821 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200929 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201027 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6786015 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |