JP5455787B2 - 動作解析装置および動作解析方法 - Google Patents

動作解析装置および動作解析方法 Download PDF

Info

Publication number
JP5455787B2
JP5455787B2 JP2010121658A JP2010121658A JP5455787B2 JP 5455787 B2 JP5455787 B2 JP 5455787B2 JP 2010121658 A JP2010121658 A JP 2010121658A JP 2010121658 A JP2010121658 A JP 2010121658A JP 5455787 B2 JP5455787 B2 JP 5455787B2
Authority
JP
Japan
Prior art keywords
motion
distance
analysis
data
contribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010121658A
Other languages
English (en)
Other versions
JP2011248664A (ja
Inventor
京子 川口
雅基 田靡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2010121658A priority Critical patent/JP5455787B2/ja
Priority to US13/384,475 priority patent/US8565488B2/en
Priority to CN201080032945.1A priority patent/CN102473301B/zh
Priority to PCT/JP2010/006518 priority patent/WO2011148439A1/ja
Publication of JP2011248664A publication Critical patent/JP2011248664A/ja
Application granted granted Critical
Publication of JP5455787B2 publication Critical patent/JP5455787B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、標準動作との比較により比較対象動作の解析を行う動作解析装置および動作解析方法に関する。
従来、動作の特徴を示す多次元の動作特徴量に対する主成分分析により標準動作の部分空間を求め、求めた標準動作の部分空間と比較対象動作の動作特徴量との距離に基づいて、比較対象動作の解析を行う装置がある(例えば特許文献1参照)。
特許文献1に記載の装置(以下「従来装置」という)は、動画像からの特徴抽出である立体高次局所自己相関(CHLAC)特徴を用いて、比較対象動作から異常動作を検出する。具体的には、従来装置は、蓄積された複数の標準動作のそれぞれから動作特徴量の特徴データを抽出し、抽出した複数の特徴データから、主成分分析手法により、主成分ベクトルに基づく部分空間(以下単に「部分空間」という)を生成する。そして、従来装置は、比較対象動作からも同様に動作特徴量の特徴データを抽出し、抽出した特徴データと部分空間との距離が所定値よりも大きい場合に、その比較対象動作を異常であると判定する。
このような従来装置は、標準動作を統計的に学習するため、設計の段階で標準動作の定義を特に行うことなく、監視対象に則した異常動作検出を行うことができる。
ところで、異常動作の判定漏れをできるだけ防ぐためには、部分空間を生成する際に用いる特徴データの累積寄与率(以下「寄与度」という)を高く設定すれば良い。寄与度とは、生成される部分空間(主成分ベクトル)が元の特徴データをどの程度説明しているかを示す指標値である。一方で、標準動作の誤判定をできるだけ防ぐためには、主成分分析に用いる特徴データの寄与度を低く設定すれば良い。元の特徴データでは網羅されなかった標準動作のばらつきは、寄与度が低い場合には吸収されるためである。
すなわち、寄与度の最適値は、監視対象や要求される検出精度(以下「解析条件」という)に依存する。このため、寄与度は、解析条件に適合する値が設定されることが望ましい。
また、例えば、工場で動作解析を行う場合には、解析したい作業に合わせてカメラの設置場所を頻繁に変えることが想定される。したがって、主成分分析によって比較対象動作の解析を行う装置(以下「動作解析装置」という)は、できるだけ簡単に、解析条件に適合する寄与度を設定可能であることが望ましい。
特開2006−79272号公報
しかしながら、従来装置では、解析条件に適合する寄与度を設定するためには、実験等により、寄与度毎に標準動作についての解析結果と異常動作についての解析結果とを蓄積し、各寄与度の当否を検証する必要がある。また、異常動作が非定常な動作を含み得るもの(以下、非定常な動作を含み得る異常動作を「非定常動作」という)である場合、膨大な異常動作の特徴データを用いて解析および検証を行う必要がある。すなわち、従来装置は、解析条件に適合する寄与度を設定するのに非常に手間が掛かる。
本発明の目的は、解析条件に適合する寄与度を簡単に設定することができる動作解析装置および動作解析方法を提供することである。
本発明の動作解析装置は、動画像を用いて非定常動作を抽出する動作解析装置において、学習データを入力する動作データ入力部と、前記動作データ入力部が入力した前記学習データから動作特徴量を抽出する動作特徴抽出部と、前記学習データの一部に対して、前記動作特徴抽出部が抽出した動作特徴量を用いて主成分分析を行い、部分空間を学習する主成分分析部と、前記動作特徴抽出部が抽出した学習データの動作特徴量と、前記主成分分析部が学習した部分空間との距離を算出する学習データ距離算出部と、前記学習データ距離算出部が算出した距離のうち、前記主成分分析部が前記部分空間の学習に用いた学習データから算出された距離と、前記主成分分析部が前記部分空間の学習に用いなかった学習データから算出された距離とから、前記主成分分析部が前記主成分分析に用いた寄与度の適合性を判定する寄与度判定部とを具備する。
本発明の動作解析方法は、動画像を用いて非定常動作を抽出する動作解析方法において、学習データを入力するステップと、前記学習データから動作特徴量を抽出するステップと、前記学習データの一部から抽出した動作特徴量を用いて主成分分析を行い、部分空間を学習するステップと、前記学習データの動作特徴量と前記部分空間との距離を算出するステップと、前記学習データの動作特徴量と前記部分空間との距離のうち、前記部分空間の学習に用いた学習データから算出された距離と、前記部分空間の学習に用いなかった学習データから算出された距離とから、前記主成分分析に用いた寄与度の適合性を判定するステップとを有する。
本発明によれば、解析条件に適合する寄与度を簡単に設定することができる。
本発明の実施の形態1に係る動作解析装置を含む動作解析システムの構成を示すシステム構成図 本実施の形態1に係る動作解析装置の構成を示すブロック図 本実施の形態1における寄与度と距離との関係を説明するための図 本実施の形態1に係る動作解析装置の全体動作を示すフローチャート 本実施の形態1における寄与度判定処理を示すフローチャート 本実施の形態1における平均値の比を用いる場合の評価値の算出例を示す図 本実施の形態1における標準偏差の比を用いる場合の評価値の算出例を示す図 本発明の実施の形態2に係る動作解析装置の構成を示すブロック図 本実施の形態2に係る動作解析装置の全体動作を示すフローチャート 本実施の形態2における結果表示画面の一例を示す図 本実施の形態2における結果表示画面の他の例を示す図
以下、本発明の各実施の形態について、図面を参照して詳細に説明する。
(実施の形態1)
図1は、本発明の実施の形態1に係る動作解析装置を含む動作解析システムの構成を示すシステム構成図である。
本実施の形態は、本発明を、熟練作業者と一般作業者とが働く工場において各一般作業者の動作を解析するための動作解析システムに適用した例として説明する。作業者の動作は、例えば、製品を作業台にセットし、部品を取って製品本体にはめるといった動作を複数回繰り返し、製品を隣に送るといった複数の単位動作からなる一連の動作である。具体的には、本実施の形態に係る動作解析システムは、ある作業工程に従事する熟練作業者の姿を撮影し、同じ撮影アングルで同一の作業工程に従事するときの各一般作業者の姿を撮影して、各一般作業者の動作の解析を行うものである。以下、上述の一般的な単位動作と、動作解析システム100によって1つの逸脱動作として抽出される単位とを、「動作」と総称する。
図1において、動作解析システム100は、センサ装置200、本実施の形態に係る動作解析装置300、出力装置400、および入力装置500を有する。
センサ装置200は、人の動作を検出する装置であり、作業者の動作を計測したデータを動作解析装置300へ出力する。ここでは、センサ装置200は、撮影した画像の画像フレームデータ(動画像データ)をリアルタイムに出力するカメラであり、工場の組み立てラインに並んで作業する各作業者を個別に撮影可能である。
以下、一連の標準動作を撮影した映像から得られた特徴データを「学習データ」という。また、非定常動作を含むかもしれない一連の動作を撮影した映像から特徴データは、「解析対象データ」という。学習データおよび解析対象データは、適宜、「動作データ」と総称する。
動作解析装置300は、学習データから主成分分析により学習した部分空間と、解析対象データの各動作特徴量との距離に基づいて、解析対象データの解析を行う。
また、動作解析装置300は、解析対象データの解析に先立って、学習データの解析を行い、主成分分析に用いられる寄与度の適合性を判定し、判定結果をユーザに提示する。そして、動作解析装置300は、ユーザから、解析対象データの評価に用いる寄与度(以下「設定寄与度」という)の設定を受け付ける。ここで、寄与度の適合性とは、その寄与度を適用したときに異常動作と標準動作とがどの程度正しく分別されるか、つまり、ユーザが希望する差異をどの程度正しく分別するかを示す指標である。
具体的には、動作解析装置300は、一部の学習データから抽出された動作特徴量を用いて主成分分析を行い、部分空間を学習する。以下、部分空間の学習に用いられた学習データ群は、「部分空間作成用データ」という。また、部分空間の学習に用いられなかった学習データ群は、「寄与度評価用データ」という。
「部分空間作成用データ」は、学習データから任意に選ばれる。たとえば、学習データが複数のデータファイルからなる場合、動作解析装置300は、任意の一つのファイルを「寄与度評価用データ」とし、その「寄与度評価用データ」を除いたすべての学習データを「部分空間作成用データ」とする。ここで、動作解析装置300は、leave−one−out法を用いても良い。leave−one−out法では、n個の学習データが与えられた場合、n個の学習データは、(n−1)個の訓練データ(「部分空間作成用データ」)と、1個の評価用データ(「寄与度評価用データ」)とに分割される。次に、leave−one−out法では、(n−1)個の訓練データを用いた学習結果によって、1個の評価用データが評価される。この場合、分割の仕方はn通りあるため、その全てに対する評価結果の平均が計算され、平均値が、評価値として利用されることになる。
そして、動作解析装置300は、部分空間と部分空間作成用データとの距離と、部分空間と寄与度評価用データとの距離を算出する。以下、部分空間と部分空間作成用データとの距離を、「基準距離」といい、部分空間と寄与度評価用データとの距離を、「評価距離」という。そして、動作解析装置300は、基準距離と評価距離との差に関する評価値が適正範囲となるような寄与度を求める。次に、動作解析装置300は、求めた寄与度を設定寄与度の候補としてユーザに提示する。ここで、評価値の適正範囲とは、要求される精度で異常動作と標準動作とが分別されるような数値範囲である。
動作解析装置300は、CPU(central processing unit)、RAM(random access memory)等の記憶媒体、および動画像データを取得するビデオキャプチャ回路等を含むコンピュータである。すなわち、動作解析装置300は、記憶する制御プログラムをCPUが実行することによって動作する。
出力装置400は、例えば液晶ディスプレイを有するモニタであり、動作解析装置300から入力される結果表示画面のデータを出力する。なお、出力装置400は、遠隔地に配置された装置(遠隔監視装置、携帯電話機等)であっても良い。この場合、出力装置400は、例えば、インターネット等のネットワークを介して動作解析装置300と接続される。
入力装置500は、例えばポインティングデバイスとしてのマウスとキーボートとから成り、ユーザが動作解析装置300を操作するためのインタフェースである。
このような動作解析システム100は、学習データのみに基づいて寄与度の適合性を判定し、判定結果をユーザに提示することができる。したがって、ユーザは、提示された判定結果のみを確認して、主成分分析に用いた寄与度の適合性を効率良く解析することができるので、解析条件に適合する寄与度を簡単に設定することができる。
なお、本実施の形態に係る動作解析装置300は、動作解析に用いる寄与度の適合性を、学習データのみに基づいて簡単に判定可能である点に特徴を有する。したがって、本実施の形態では、寄与度の適合性の判定までの動作とその動作を実現する装置部を中心として説明を行う。
図2は、動作解析装置300の構成を示すブロック図である。
図2において、動作解析装置300は、動作データ入力部310、動作特徴抽出部320、主成分分析部330、学習データ距離算出部340、および寄与度判定部350を有する。
動作データ入力部310は、動作特徴抽出部320からの要求に応じて、センサ装置200から学習データを取得し、動作特徴抽出部320へ転送する。動作データの転送は、リアルタイムで行われても良いし、動作データを格納してから行われても良い。また、動作データ入力部310は、入力装置500のユーザ操作を受けて、動作を開始するようにしても良い。
動作特徴抽出部320は、動作データ入力部310から入力された学習データから動作特徴量を抽出する。そして、動作特徴抽出部320は、抽出した動作特徴量を、主成分分析部330へ出力する。
ここでは、動作特徴量は、特許文献1に開示されているCHLAC特徴とする。CHLAC特徴は、2次元画像データからの特徴抽出である高次局所自己相関(HLAC)特徴を、時間軸も加えて3次元に拡張したものであり、画像の平面空間に時間軸を加えた3次元座標系における動きの特徴を示す特徴ベクトルである。
動作特徴抽出部320は、例えば、以下の式(1)に示すN次自己相関関数を用いて、CHLAC特徴xを算出する。
Figure 0005455787
fは時系列画像であり、変数rおよびN個の変数a(i=1,・・・,N)は画像内の2次元座標と時間とを成分として持つ3次元のベクトルである。時間方向の積分範囲は、どの程度の時間方向の相関を取るかによって定まる。すなわち、積分範囲は、N枚の静止画像(局所特徴画像)から構成される3次元のピクセル集合であり、変数rは画像中の1ピクセル(位置ピクセル)であり、変数aはrからの変位ベクトルである。そして、f(r)は位置rの関数値であり、局所特徴画像の位置rの輝度値を表す。
CHLAC特徴の場合、変位は3次元であり、変位ベクトルの組み合わせ(変位パターン)の数は、0次で1個、1次で13個、2次で237個である。したがって、CHLAC特徴は、2値化画像の場合、合計251次元の特徴ベクトルとして表される。
主成分分析部330は、部分空間作成用データから部分空間を学習し、学習した部分空間を定義する主成分ベクトルと、学習データとを、学習データ距離算出部340へ出力する。
主成分分析部330は、例えば、以下のようにして主成分ベクトルを算出する。M次元のCHLAC特徴ベクトルxと、主成分ベクトル(固有ベクトル)を列に並べた行列Uと、共分散行列Σとは、それぞれ、以下の式(2)〜式(4)によって表すことができる。なお、M=251であり、μは特徴ベクトルxの平均ベクトルであり、Eは期待値を求める演算記号(E=(1/N)Σ)である。
Figure 0005455787
Figure 0005455787
Figure 0005455787
このとき、主成分分析部330は、行列Uを、以下の式(5)の固有値問題により求める。
Figure 0005455787
固有値の対角行列Λと、第K固有値までの累積寄与率(寄与度)ηとは、それぞれ、以下の次(6)および式(7)によって表される。
Figure 0005455787
Figure 0005455787
主成分分析部330は、累積寄与率ηが所定値(例えばη=0.99)となる次元までの固有ベクトルu,・・・,uにより張られる空間を、部分空間として適用する。
ここでは、主成分分析部330は、予め定められた第1〜第3の累積寄与率ηK1〜ηK3のそれぞれについて部分空間を求める。ここでは、第1の累積寄与率ηK1=0.99、第2の累積寄与率ηK2=0.9999、第3の累積寄与率ηK3=0.999999とする。以下、第1〜第3の累積寄与率ηK1〜ηK3を適用して算出された部分空間を、順に、第1〜第3の部分空間という。どの第1〜第3の累積寄与率ηK1〜ηK3の適合性が高いかは、監視対象や要求される検出精度に依存する。
学習データ距離算出部340は、第1〜第3の部分空間のそれぞれについて、部分空間作成用データとの距離(基準距離)と、部分空間と寄与度評価用データとの距離(評価距離)とを算出する。以下、第1〜第3の部分空間に対する基準距離は、順に、第1〜第3の基準距離という。また、第1〜第3の部分空間に対する評価距離は、順に、第1〜第3の評価距離という。そして、学習データ距離算出部340は、第1〜第3の基準距離および第1〜第3の評価距離を、寄与度判定部350へ出力する。
学習データ距離算出部340は、例えば、以下のようにして基準距離および評価距離を算出する。主成分直交基底U=[u,・・・,u]によって張られた部分空間への射影子Pおよびそれに対する直交補空間への射影子Pは、以下の式(8)によって表される。なお、U’は行列Uの転置行列であり、IはM次の単位行列である。
Figure 0005455787
このとき、学習データ距離算出部340は、以下の式(9)を用いて、部分空間Uへの垂線の2乗距離d (つまり直交補空間での2乗距離)を算出する。さらに、学習データ距離算出部340は、算出した2乗距離d から、垂直距離dを、部分空間と対象とする特徴データとの距離(以下、単に「距離」という)として算出する。
Figure 0005455787
寄与度判定部350は、第1〜第3の基準距離および第1〜第3の評価距離から、第1〜第3の部分空間の作成に用いた第1〜第3の寄与度の適合性を判定する。具体的には、寄与度判定部350は、寄与度毎に、基準距離の平均値と評価距離の平均値との差異の大きさを示す評価値に基づいて、適合性を判定する。以下、第1〜第3の寄与度に対応する評価値を、順に、第1〜第3の評価値という。
図3は、寄与度と距離との関係を説明するための図である。具体的には、図3は、寄与度を変化させたときの、学習データの距離および解析対象データの距離のプロット図である。
ここでは、主成分分析部330は、非定常状態を含まないある学習データを、部分空間作成用データAと、部分空間作成用データBと、寄与度評価用データとに分けるものとする。そして、主成分分析部330は、部分空間作成用データAおよび部分空間作成用データBの全体から、部分空間を算出するものとする。以下、部分空間作成用データAと部分空間との距離は、基準距離Aという。部分空間作成用データBと部分空間との距離は、基準距離Bという。寄与度評価用データと部分空間との距離は、評価距離という。
図3(A)〜図3(C)において、横軸は時間を示し、縦軸は距離を示す。また、図中において、三角(▲)のプロット511は基準距離Aを示し、丸(●)のプロット512は基準距離Bを示し、菱形(◆)のプロット513は評価距離を示す。図3(A)〜図3(C)は、順に、第1の累積寄与率ηK1=0.99のときの距離、第2の累積寄与率ηK2=0.9999のときの距離、第3の累積寄与率ηK3=0.999999のときの距離である。
図3に示すように、全体的には、寄与度によらず、基準距離Aと基準距離Bとの間の差異に比べて、基準距離Aおよび基準距離Bと評価距離との間の差異は大きい。
ところが、第1の累積寄与率と第2の累積寄与率との間で比較すると、第1の累積寄与率における基準距離Aおよび基準距離Bと評価距離との間の差異はより小さい。すなわち、学習対象となったものの距離と、学習対象となっていないものの距離との間には、微細な差しか出ていない。これは、設定寄与度が低ければ低いほど、標準動作との差異がより大きい異常動作しか検出されない可能性がより高くなるということを示す。
また、第3の累積寄与率と第2の累積寄与率との間で比較すると、第3の累積寄与率における基準距離Aおよび基準距離Bと評価距離との間の差異はより大きい。すなわち、学習対象となったものと学習対象となっていないものとの間で、距離の大きい差が出ている。これは、設定寄与度が高ければ高いほど、細かい動作の差異に基づいて、標準動作が異常動作として検出されてしまう可能性がより高くなるということを示す。
このように、寄与度が高くなればなるほど、部分空間作成用データに対する学習が進み、基準距離と評価距離との差が大きくなる。寄与度が低くても抽出される動作の差異は、各学習データの個別の差に左右されない大きな差異であるといえる。また、寄与度が非常に高い場合に抽出される動作の差異は、学習データの個別の差まで反映されてしまった細かい差異であるといえる。
動作解析の目的に応じて、抽出すべき動作の差異の大きさは異なる。このため、一律の基準において差異が大きいと判定される動作を提示するのではなく、抽出された動作の差異の大きさそのものを提示することは、解析結果を理解するうえで役に立つ。寄与度判定部350は、基準距離の平均値と評価距離の平均値との差分を評価値として用いて、寄与度の適合性を判定する。
このように構成された動作解析装置300は、学習データのみから、寄与度の適合性を判定することができる。
以下、動作解析装置の動作について説明する。
図4は、動作解析装置300の全体動作を示すフローチャートである。
まず、ステップS1000において、動作データ入力部310は、動作データ(ここでは学習データのみ)を入力し、動作特徴抽出部320において、学習データの特徴量を抽出する。
そして、ステップS2000において、主成分分析部330は、学習データを部分空間作成用データと寄与度評価用データとに分けたときの、部分空間作成用データから、部分空間を算出する。ここでは、主成分分析部330は、上述の通り、第1〜第3の部分空間を生成する。
そして、ステップS3000において、学習データ距離算出部340は、部分空間に対する学習データの距離、つまり基準距離および評価距離を算出する。ここでは、学習データ距離算出部340は、上述の通り、第1〜第3の基準距離および第1〜第3の部分空間を生成する。
そして、ステップS4000において、寄与度判定部350は、寄与度判定処理を行う。寄与度判定処理は、基準距離と評価距離に基づいて、寄与度の適合性を判定する処理である。
図5は、寄与度判定処理を示すフローチャートである。
まず、ステップS4100において、寄与度判定部350は、部分空間作成用データの距離(基準距離)の平均値aを求める。
そして、ステップS4200において、寄与度判定部350は、寄与度評価用データの距離(評価距離)の平均値bを求める。なお、ステップS4100、S4200の処理順序は逆でも良い。
そして、ステップS4300において、寄与度判定部350は、評価値cとして、平均値aと平均値bとの比c=b/aを求める。ここでは、動作解析装置300は、第1〜第3の評価値c〜cを求める。
図6は、評価値cとして平均値の比を用いる場合の第1〜第3の評価値の算出例を示す図である。
図6に示すように、例えば、寄与度0.99、0.9999、0.999999に対応する第1〜第3の評価値c〜cは、順に、1.2、2.03、16.37となる。
そして、図5のステップS4400において、寄与度判定部350は、予め設定された適正範囲dを取得し、評価値cと適正範囲dとを比較して、寄与度の適合性のレベルを判定し、判定結果を出力する。
例えば、適正範囲dは、1.5<c<2.5の範囲に設定される。また、例えば、寄与度の適合性のレベルとして、適正範囲d以下、適正範囲d、および適正範囲d以上の3つの範囲に対応する3つのレベルが設定される。この場合、寄与度判定部350は、評価値cが1.5以下の場合、「学習が少ない」であると判定する。また、寄与度判定部350は、評価値cが1.5よりも大きく2.5よりも小さい場合、「適正」であると判定する。また、寄与度判定部350は、評価値cの値が2.5よりも大きい場合、「学習し過ぎ」であると判定する。したがって、図6の例では、寄与度判定部350は、寄与度0.99を「学習が少ない」であると判定し、寄与度0.9999を「適正」であると判定し、寄与度0.999999を「学習しすぎ」であると判定する。
このような動作により、動作解析装置300は、基準距離および評価距離を算出し、これらの平均値の差分から、寄与度の適合性を判定することができる。
なお、動作解析装置300は、評価値cとして、距離の最大値、最小値、または標準偏差等、距離に関する他の統計量における比を用いても良い。例えば、動作解析装置300は、基準距離の平均値a、評価距離の平均値b、基準距離の標準偏差e、評価距離の標準偏差fを用いて、評価値cとして、c=e/f、またはc=a/eを算出する。また、動作解析装置300は、複数の統計量の演算結果を用いて、レベルを判定しても良い。例えば、動作解析装置300は、評価値cとして、c=a+eを用い、適正範囲dを、a+e<b<a+2e+bとする。つまり、動作解析装置300は、b<a+eの場合には「学習が少ない」、a+e<b<a+2e+bの場合には「適正」、a+2e+b<bの場合には「学習しすぎ」と、それぞれ判定する。
図7は、評価値として標準偏差の比を用いる場合の各寄与度の評価値の算出例を示す図である。
図7に示すように、例えば、寄与度0.99、0.9999、0.999999に対応する第1〜第3の評価値c〜cは、順に、1.08、2.13、16.18となる。適正範囲dとの関係で、平均値が用いられる場合と同様に、レベルが判定される。
以上のように、本実施の形態に係る動作解析装置300は、学習データのみに基づいて寄与度の適合性を判定し、判定結果をユーザに提示することができる。これにより、動作解析装置300は、ユーザに対して判定結果のみを確認して主成分分析に用いた寄与度の適合性を効率良く解析することや、適正レベルの寄与度の自動設定を可能にする。すなわち、動作解析装置300は、解析条件に適合する寄与度を簡単に設定することができる。
なお、動作解析装置300は、学習データのうち部分空間作成用データとして用いる部分を変化させて、つまり、部分空間作成用データを変化させて、各寄与度に対して複数回の評価値を算出し、複数の判定結果を取得するようにしても良い。また、動作解析装置300は、その複数の判定結果を代表する結果を、最終的な判定結果として取得するようにしても良い。これにより、動作解析装置300は、統計的により安定した結果を得ることができる。
また、動作解析装置300は、予め定めた複数の寄与度について判定を行うのではなく、寄与度の値を変化させながら、寄与度の判定結果が適正を示すまで、処理を繰り返すようにしてもよい。これにより、動作解析装置300は、学習データを入力するだけで、自動で適正な寄与度を求めることができる。
また、動作解析装置300は、ユーザから評価値cの適正範囲dや、算出の対象となる寄与度に対する変更を受け付けるユーザインタフェースを有しても良い。これにより、ユーザは、寄与度の判定結果を確認しながら、適正な寄与度をより確実に得ることができる。
(実施の形態2)
本発明の実施の形態2は、寄与度の適合性を解析対象データの解析結果と共にユーザに提示することにより、ユーザの解析結果の理解を助けるようにしたものである。
図8は、本実施の形態に係る動作解析装置の構成を示すブロック図であり、実施の形態1の図2に対応するものである。図2と同一部分には同一符号を付し、これについての説明を省略する。
図8に示すように、本実施の形態に係る動作解析装置300aは、図1に示す構成に加えて、解析対象データ距離算出部360aおよび表示情報生成部370aを有する。
本実施の形態では、動作データ入力部310は、動作特徴抽出部320からの要求に応じて、センサ装置200から学習データおよび解析対象データを取得し、動作特徴抽出部320へ転送する。また、動作特徴抽出部320は、動作データ入力部310から入力された学習データおよび解析対象データから動作特徴量を抽出し、抽出した動作特徴量を、解析対象データ距離算出部360aへ出力する。また、寄与度判定部350は、寄与度の適合性についての判定結果を、表示情報生成部370aへ出力する。
解析対象データ距離算出部360aは、動作特徴抽出部320から入力された学習データの全てから、第1〜第3の累積寄与率ηK1〜ηのそれぞれについて部分空間を求める。以下、第1〜第3の累積寄与率ηK1〜ηK3を適用して算出された部分空間を、順に、第1〜第3の部分空間という。なお、解析対象データ距離算出部360aが算出する第1〜第3の部分空間は、主成分分析部330が算出する第1〜第3の部分空間とは、基となる学習データが一致しないため、必ずしも一致するとは限らない。
そして、解析対象データ距離算出部360aは、学習した第1〜第3の部分空間のそれぞれについて、解析対象データとの距離(以下「解析対象距離」という)を算出する。以下、第1〜第3の部分空間に対する解析対象距離を、順に、第1〜第3の解析対象距離という。そして、解析対象データ距離算出部360aは、第1〜第3の解析対象距離を、表示情報生成部370aへ出力する。
表示情報生成部370は、寄与度判定部350の判定結果と、解析対象データ距離算出部360aの算出結果から、解析対象データの解析結果を示す結果表示画面を生成し、生成した結果表示画面を、出力装置400によりユーザに提示する。
このような構成を有する動作解析装置300aは、解析対象データの解析結果(つまり異常動作の有無)を、寄与度の適合性と共に、ユーザに提示することができる。すなわち、ユーザは、動作解析装置300aを用いることにより、寄与度の適合性を確認しながら、動作の解析を行うことができる。
以下、動作解析装置300aの動作について説明する。
図9は、動作解析装置300aの全体動作を示すフローチャートであり、実施の形態1の図4に対応するものである。図4と同一部分には同一ステップ番号を付し、これについての説明を省略する。
動作解析装置300aは、寄与度判定処理を行った後(S4000、図5)、ステップS5000aへ進む。
ステップS5000aにおいて、動作特徴抽出部320は、全ての学習データの動作の動作特徴量を抽出する。そして、学習データ距離算出部340は、全ての学習データを用いて、第1〜第3の寄与度のそれぞれによる主成分分析を行い、第1〜第3の部分空間を生成する。なお、動作解析装置300aは、ステップS5000aの処理を実行せず、ステップS2000において生成した第1〜第3の部分空間をそのまま用いてもよい。
そして、ステップS6000aにおいて、動作特徴抽出部320は、解析対象データの動作の動作特徴量を抽出する。なお、動作解析装置300aは、ステップS6000aの処理を、ステップS5000aの処理の前に行っても良く、例えば、ステップS1000の前または後に行っても良い。
そして、ステップS7000aにおいて、動作特徴抽出部320は、第1〜第3の部分空間と解析対象データの動作特徴量との距離(解析対象距離)を算出する。
そして、ステップS8000において、表示情報生成部370aは、ステップS4000で判定した寄与度の適合性と、ステップ7000aで算出した寄与度毎の解析対象距離とを用いて、結果表示画面の表示データを生成する。そして、表示情報生成部370aは、生成した表示データを出力装置400へ出力すると共に、結果表示画面に対するユーザ操作を、入力装置500を介して受け付ける。
このような動作により、動作解析装置300aは、ユーザに対して、解析対象データの解析結果(つまり異常動作の有無)を、寄与度の適合性と共に、ユーザに提示することができる。
なお、動作解析装置300aは、寄与度を変えながら、ステップS2000〜S7000aの処理を繰り返してもよい。また、動作解析装置300aは、寄与度を変えながら、寄与度の判定結果が所望の結果となるまでステップS2000〜S4000の処理を繰り返し、その後、ステップS5000〜S7000の処理を実行してもよい。これにより、動作解析装置300aは、目的に合致した寄与度の主成分分析を用いて、解析対象データの非定常動作に該当する部分を、自動で抽出することができる。
また、動作解析装置300aは、寄与度を変えながら、寄与度の判定結果が所望の結果となるまで、ステップS2000〜S7000を行う処理を繰り返してもよい。これにより、動作解析装置300aは、例えば、寄与度の適合性が低い(学習が少ない)主成分分析を用いて、解析対象データの非定常部分を、自動で抽出することができる。また、動作解析装置300aは、寄与度の適合性が高い(学習が少なく、抽出される非定常部分は個人差レベルと推定される)主成分分析を用いて、抽出した解析対象データの非定常部分を、自動で抽出することができる。
結果表示画面は、「適正」と判定された寄与度による解析結果のみを表示するものであっても良いし、第1〜第3の寄与度による解析結果をその寄与度の適合性と共に表示するものであっても良い。
図10は、「適正」と判定された寄与度による解析結果のみを表示する結果表示画面の一例を示す図である。
図10に示すように、結果表示画面610は、解析結果表示領域611、再生ボタン612、画像表示領域613、一時停止ボタン614、終了ボタン615、および標準動作表示領域616を有する。
表示情報生成部370aは、結果表示画面610において、解析結果表示領域611に、解析対象距離の時系列データ617と、所定の閾値を示す閾値表示線618と、解析対象距離が閾値を超える箇所を示すマーカ619とを表示する。また、表示情報生成部370aは、結果表示画面610において、左右に移動操作可能な再生箇所表示線620を表示する。
更に、表示情報生成部370aは、結果表示画面610において、表示中の解析対象距離の時系列データ617が、適正な寄与度により算出されたものであることを示すメッセージ621を表示する。
表示情報生成部370aは、再生ボタン612がクリックされると、比較対象動作の撮影画像を画像表示領域613で再生すると共に、再生箇所表示線620を再生に合わせて移動させる。また、表示情報生成部370aは、画像の再生中に一時停止ボタン614がクリックされると、画像の再生を一時的に停止する。また、表示情報生成部370aは、標準動作表示領域616において、画像表示領域613における比較対象動作の撮影画像の再生と同期して、標準動作の撮影画像を再生する。
このような結果表示画面610が提示されることにより、ユーザは、再生箇所表示線620をマーカ619部分に移動させて再生ボタン612をクリックして、異常動作の映像を素早くピックアップして確認することができる。また、ユーザは、比較対象動作と標準動作とを視覚的に比較することができる。更に、ユーザは、適正な寄与度による解析結果であることを確認することができるので、解析対象データの動作解析結果を正しく理解することができる。
図11は、第1〜第3の寄与度による解析結果をその寄与度の適合性と共に表示する結果表示画面の一例を示す図であり、図10に対応するものである。図10と同一部分には同一符号を付し、これについての説明を省略する。
図11に示すように、結果表示画面710は、第1〜第3の寄与度に対応する第1〜第3の解析結果表示領域611〜611と、各寄与度の適合性を示す寄与度適合性表示領域711とを有する。
表示情報生成部370aは、寄与度適合性表示領域711において、第1〜第3の寄与度の解析対象距離が閾値を超える箇所を示す第1〜第3のマーカ619〜619を表示する。表示情報生成部370aは、該当箇所が重複する場合には、例えば、より低い寄与度に対応するマーカ619を優先的に表示する。そして、表示情報生成部370aは、各マーカ619に対応する寄与度の適合性を、そのマーカ619の色や模様等で表示する。
このような結果表示画面710が提示されることにより、ユーザは、寄与度の異なる複数の動作解析結果を、その寄与度の適合性を併せて確認することができるので、解析対象データの動作解析結果を正しく理解することができる。また、全てのレベルの解析結果が提示されるので、ユーザは、より確実に異常動作を抽出することができる。
寄与度が異なる解析対象距離は、その値の取り得る範囲、つまり、その値が示す意味が異なるため、ただ第1〜第3の解析結果表示領域611〜611を提示されただけでは、ユーザはこれらの解析結果を総合的に捉え難い。しかし、結果表示画面710には、各寄与度の適合性を示す寄与度適合性表示領域711も提示されるので、ユーザは、寄与度の異なる解析結果を容易に総合的に捉えることができる。
このように、本実施の形態によれば、寄与度の適合性を解析対象データの解析結果と共にユーザに提示するので、ユーザの解析結果の理解を助けることができる。
なお、以上説明した各実施の形態では、適合性判定の対象とする寄与度を、0.99、0.9999、0.999999としたが、値および個数共にこれらに限定されない。また、寄与度の適合性のレベルの個数および各レベルに対応する評価値は、上述の例に限定されない。
また、解析の対象となる動作データは、カメラ映像に限定されない。解析の対象となる動作データは、例えば、モーションキャプチャ装置で取得したマーカの位置のみを画像化したデータや、マーカの位置から作成したアニメーションデータでも良い。
また、解析に用いられる動作特徴量は、CHLAC特徴量に限定されない。解析に用いられる動作特徴量は、例えば、重み付き方向ヒストグラムを用いた高次の局所特徴量でも良い。この場合、動作解析装置は、濃度勾配画像から画像の局所的な方向ヒストグラムを求め、求めた方向ヒストグラムを動作特徴量とすれば良い。
更にいえは、解析に用いられる動作特徴量は、動画像データから抽出される動作特徴量に限定されない。解析に用いられる動作特徴量は、たとえば、動作から得られる距離データ、温度データ、加速度データ、磁気データ、音データ等、動作の特徴を示す多次元の動作特徴量を抽出可能な各種データであっても良い。この場合、センサ装置は、距離センサ、温度センサ、加速度センサ、および磁気センサ、集音センサ等の適切な装置とする必要がある。これらのセンサは、動作の主体者が装着しても良いし、動作の主体者が使用する道具に装着しても良い。例えば、センサ装置は、モーションキャプチャを用いて取得したマーカの識別番号と位置情報を含む時系列のデータを、多次元の動作特徴量として用いるものであっても良い。
また、動作解析装置は、解析結果の提示を、画面表示と併せて、または画面表示に代えて、音声出力により行っても良い。この場合、出力装置は、ラウドスピーカ等を備える必要がある。
また、以上説明した各実施の形態では、本発明を工場における作業動作の解析するための装置に適用したが、これに限定されない。本発明は、例えば、車両運転、スポーツ、調理、楽器演奏等、各種の動作を解析する装置等、他の各種装置に適用することができる。
本発明に係る動作解析装置および動作解析方法は、解析条件に適合する寄与度を簡単に設定することができる動作解析装置および動作解析方法として有用である。
100 動作解析システム
200 センサ装置
300、300a 動作解析装置
310 動作データ入力部
320 動作特徴抽出部
330 主成分分析部
340 学習データ距離算出部
350 寄与度判定部
360a 解析対象データ距離算出部
370a 表示情報生成部
400 出力装置
500 入力装置

Claims (8)

  1. 動画像を用いて非定常動作を抽出する動作解析装置において、
    学習データを入力する動作データ入力部と、
    前記動作データ入力部が入力した前記学習データから動作特徴量を抽出する動作特徴抽出部と、
    前記学習データの一部に対して、前記動作特徴抽出部が抽出した動作特徴量を用いて主成分分析を行い、部分空間を学習する主成分分析部と、
    前記動作特徴抽出部が抽出した学習データの動作特徴量と、前記主成分分析部が学習した部分空間との距離を算出する学習データ距離算出部と、
    前記学習データ距離算出部が算出した距離のうち、前記主成分分析部が前記部分空間の学習に用いた学習データから算出された距離と、前記主成分分析部が前記部分空間の学習に用いなかった学習データから算出された距離とから、前記主成分分析部が前記主成分分析に用いた寄与度の適合性を判定する寄与度判定部と、
    を具備する動作解析装置。
  2. 前記寄与度判定部は、前記部分空間の学習に用いた学習データから算出された距離の平均値と、前記部分空間の学習に用いなかった学習データから算出された距離の平均値との比から、前記寄与度の適合性を判定する、
    請求項1記載の動作解析装置。
  3. 前記寄与度判定部は、前記部分空間の学習に用いた学習データから算出された距離の標準偏差と、前記部分空間の学習に用いなかった学習データから算出された距離の標準偏差との比から、前記寄与度の適合性を判定する、
    請求項1記載の動作解析装置。
  4. 前記寄与度の適合性の判定結果を出力する表示情報生成部、を更に具備する、
    請求項1記載の動作解析装置。
  5. 前記動作特徴抽出部が抽出した前記解析対象データの動作特徴量と、前記主成分分析部が学習した部分空間との距離を算出する解析対象データ距離算出部、を更に具備し、
    前記表示情報生成部は、
    前記解析対象データ距離算出部が算出した距離と併せて、当該距離の算出に用いられた前記寄与度の適合性の判定結果を出力する、
    請求項4記載の動作解析装置。
  6. 前記主成分分析部は、
    複数の寄与度のそれぞれについて前記部分空間を学習し、
    前記表示情報生成部は、
    前記複数の寄与度のそれぞれについて、前記解析対象データ距離算出部が算出した距離と、適合性の判定結果とを出力する、
    請求項5記載の動作解析装置。
  7. 前記動作特徴量はCHLAC特徴である、
    請求項1記載の動作解析装置。
  8. 動画像を用いて非定常動作を抽出する動作解析方法において、
    学習データを入力するステップと、
    前記学習データから動作特徴量を抽出するステップと、
    前記学習データの一部から抽出した動作特徴量を用いて主成分分析を行い、部分空間を学習するステップと、
    前記学習データの動作特徴量と前記部分空間との距離を算出するステップと、
    前記学習データの動作特徴量と前記部分空間との距離のうち、前記部分空間の学習に用いた学習データから算出された距離と、前記部分空間の学習に用いなかった学習データから算出された距離とから、前記主成分分析に用いた寄与度の適合性を判定するステップと、
    を有する動作解析方法。
JP2010121658A 2010-05-27 2010-05-27 動作解析装置および動作解析方法 Active JP5455787B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010121658A JP5455787B2 (ja) 2010-05-27 2010-05-27 動作解析装置および動作解析方法
US13/384,475 US8565488B2 (en) 2010-05-27 2010-11-05 Operation analysis device and operation analysis method
CN201080032945.1A CN102473301B (zh) 2010-05-27 2010-11-05 动作解析装置及动作解析方法
PCT/JP2010/006518 WO2011148439A1 (ja) 2010-05-27 2010-11-05 動作解析装置および動作解析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010121658A JP5455787B2 (ja) 2010-05-27 2010-05-27 動作解析装置および動作解析方法

Publications (2)

Publication Number Publication Date
JP2011248664A JP2011248664A (ja) 2011-12-08
JP5455787B2 true JP5455787B2 (ja) 2014-03-26

Family

ID=45003449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010121658A Active JP5455787B2 (ja) 2010-05-27 2010-05-27 動作解析装置および動作解析方法

Country Status (4)

Country Link
US (1) US8565488B2 (ja)
JP (1) JP5455787B2 (ja)
CN (1) CN102473301B (ja)
WO (1) WO2011148439A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9070004B2 (en) * 2012-05-03 2015-06-30 General Electric Company Automatic segmentation and characterization of cellular motion
JP6052533B2 (ja) * 2012-07-03 2016-12-27 国立大学法人大阪大学 特徴量抽出装置および特徴量抽出方法
JP6997013B2 (ja) 2018-03-05 2022-01-17 株式会社日立製作所 作業動作解析システム及び作業動作解析方法
JP2019191117A (ja) * 2018-04-27 2019-10-31 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP7137150B2 (ja) * 2019-03-14 2022-09-14 オムロン株式会社 動作分析装置、動作分析方法及び動作分析プログラム
JP7328044B2 (ja) * 2019-07-22 2023-08-16 マクセル株式会社 検出装置および検出方法
WO2021037875A1 (en) 2019-08-28 2021-03-04 Ventana Medical Systems, Inc. Systems and methods for assessing specimen fixation duration and quality using vibrational spectroscopy
JP2022546430A (ja) 2019-08-28 2022-11-04 ベンタナ メディカル システムズ, インコーポレイテッド 振動分光法によるバイオマーカー発現の無標識評価
WO2021037869A1 (en) 2019-08-28 2021-03-04 Ventana Medical Systems, Inc. Assessing antigen retrieval and target retrieval progression quantitation with vibrational spectroscopy
CN111931868B (zh) * 2020-09-24 2021-01-05 常州微亿智造科技有限公司 时间序列数据异常检测方法和装置
CN112329813B (zh) * 2020-09-29 2022-11-15 中南大学 一种能耗预测用特征提取方法及系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4036009B2 (ja) * 2002-02-14 2008-01-23 富士ゼロックス株式会社 画像データ分類装置
JP4368767B2 (ja) 2004-09-08 2009-11-18 独立行政法人産業技術総合研究所 異常動作検出装置および異常動作検出方法
JP4742370B2 (ja) * 2007-02-01 2011-08-10 独立行政法人産業技術総合研究所 異常検出装置および異常検出方法
JP4369961B2 (ja) * 2007-03-23 2009-11-25 株式会社日立製作所 異常検知装置及び異常検知プログラム
WO2011020446A1 (en) * 2009-08-21 2011-02-24 The Chinese University Of Hong Kong Systems and methods for reproducing body motions via networks
JP5715946B2 (ja) 2009-12-22 2015-05-13 パナソニック株式会社 動作解析装置および動作解析方法

Also Published As

Publication number Publication date
JP2011248664A (ja) 2011-12-08
CN102473301B (zh) 2014-12-10
US8565488B2 (en) 2013-10-22
CN102473301A (zh) 2012-05-23
US20120114183A1 (en) 2012-05-10
WO2011148439A1 (ja) 2011-12-01

Similar Documents

Publication Publication Date Title
JP5455787B2 (ja) 動作解析装置および動作解析方法
US11222239B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
EP2579210A1 (en) Face feature-point position correction device, face feature-point position correction method, and face feature-point position correction program
JP6590609B2 (ja) 画像解析装置及び画像解析方法
JP6632288B2 (ja) 情報処理装置、情報処理方法、プログラム
EP3239931A1 (en) Image processing apparatus and image processing method
JP2011146796A5 (ja)
JP2011133984A (ja) 動作特徴抽出装置および動作特徴抽出方法
WO2012077267A1 (ja) 人検出装置および人検出方法
US11461584B2 (en) Discrimination device and machine learning method
JP7222231B2 (ja) 行動認識装置、行動認識方法及びプログラム
JP2017220176A (ja) 判定装置、判定方法、および判定プログラム
US11138805B2 (en) Quantitative quality assurance for mixed reality
CN105426901A (zh) 用于对摄像头视野中的已知物体进行分类的方法
JP5704909B2 (ja) 注目領域検出方法、注目領域検出装置、及びプログラム
JP7001150B2 (ja) 識別システム、モデル再学習方法およびプログラム
JP6590477B2 (ja) 情報処理装置、情報処理方法、プログラム
US20230326251A1 (en) Work estimation device, work estimation method, and non-transitory computer readable medium
JP7165108B2 (ja) 作業訓練システム及び作業訓練支援方法
JP2009301242A (ja) 頭部候補抽出方法、頭部候補抽出装置、頭部候補抽出プログラムおよびそのプログラムを記録した記録媒体
JP6393495B2 (ja) 画像処理装置および物体認識方法
JP2017033556A (ja) 画像処理方法及び電子機器
CN106922194A (zh) 异常检测装置、异常检测方法以及异常检测程序
Bâce et al. How far are we from quantifying visual attention in mobile HCI?
CN115471863A (zh) 三维姿态的获取方法、模型训练方法和相关设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140107

R150 Certificate of patent or registration of utility model

Ref document number: 5455787

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150