JP6783713B2 - 人行動推定システム - Google Patents

人行動推定システム Download PDF

Info

Publication number
JP6783713B2
JP6783713B2 JP2017127426A JP2017127426A JP6783713B2 JP 6783713 B2 JP6783713 B2 JP 6783713B2 JP 2017127426 A JP2017127426 A JP 2017127426A JP 2017127426 A JP2017127426 A JP 2017127426A JP 6783713 B2 JP6783713 B2 JP 6783713B2
Authority
JP
Japan
Prior art keywords
tool
human behavior
behavior
video
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017127426A
Other languages
English (en)
Other versions
JP2019012328A (ja
Inventor
和久井 一則
一則 和久井
泰輔 加納
泰輔 加納
博章 三沢
博章 三沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2017127426A priority Critical patent/JP6783713B2/ja
Publication of JP2019012328A publication Critical patent/JP2019012328A/ja
Application granted granted Critical
Publication of JP6783713B2 publication Critical patent/JP6783713B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、人物の行動推定システムに関する。
特許文献1には、「人物行動判定装置は、映像に含まれる1以上の人物領域を所定のフレーム間隔で機械学習により検出する人物領域検出手段と、人物領域毎に特徴量を算出すると共に、複数のフレーム画像において人物領域の特徴量が類似する人物領域を同一人物の人物領域と判定し、同一人物の人物領域の重心位置を連結して人物軌跡を生成する人物軌跡生成手段と、人物軌跡毎に特徴量を算出すると共に、人物軌跡の特徴量が行動条件を満たすか否かを判定し、人物軌跡の特徴量が行動条件を満たすときは、人物が行動条件に対応する行動を行っていると判定する人物行動判定手段と、を備える。」と記載されている。
特開2011−100175号公報
映像解析による人物の動作認識は、映像中から人物領域を切り出し、その人物の輪郭を正確に取得し、人物を正確に抽出できていることが前提となっている。しかし、人物が抽出できたとしても、人の行動は、カメラの位置、手の位置、体の位置などにより死角が生じてしまい、正確な人物の行動推定が困難である。
特許文献1では、人物軌跡の特徴量が人物の行動毎に予め設定された行動条件を満たすか否かにより、人物の行動を判定する人物行動判定装置について記載されている。しかし、死角に隠れた行動に行動条件を設定することは難しく、このような場合に人物の行動を正確に判定するためには情報が不足していると考えられる。
このために、特許請求の範囲に記載の構成を採用する。例えば、本発明に係る、人が道具を用いて行う行動を判別する人行動推定システムは、行動を撮影した映像を取得する映像取得部と、映像取得部からの映像に基づき、あらかじめ定められた人行動定義から、映像に撮影された行動に対しての人行動候補を出力する人行動判別部と、道具に付されたセンサからセンサ情報を取得する道具データ取得部と、道具データ取得部からのセンサ情報に基づき、あらかじめ定められた道具動作定義から、センサ情報が取得された道具に対しての道具動作候補を出力する道具動作判別部と、人行動判別部より出力された人行動候補及び道具動作判別部より出力された道具動作候補に基づき、映像取得部からの映像に撮影された行動を推定する総合人行動判別部とを有する。
行動推定対象とする人の行動を、人を撮影している映像からの行動推定と、人が使用している工具の動作推定とを用いることで、精度よく実現することができる。
人物行動推定システムの処理フローを示す図である。 監視空間の領域区分例である。 映像の人行動情報の定義(学習データ)を示す図である。 工具(センサ)データの工具動作情報の定義(学習データ)を示す図である。 総合人行動判別部のフローチャートを示す図である。 監視空間の映像例である。 監視空間の別の映像例である。 監視空間の別の映像例である。 人物行動推定結果と工具動作推定結果とのマッピング図である。 人物行動推定システムを実現するハードウェア構成を示す図である。
図1に人行動推定システム1の処理フローを示す。人行動推定システム1は一般的なPC(Personal Computer)などのローカル環境で実現しても、クラウドのようなネットワーク経由で実現しても、どちらでもよい。
図8に人行動推定システム1を実現するハードウェア構成例を示す。計算機800は、プロセッサ801、主記憶802、補助記憶803、入出力インタフェース804、表示インタフェース805、ネットワークインタフェース806を含み、これらはバス807により結合されている。入出力インタフェース804は、キーボードやマウス等の入力装置809と接続されてユーザインタフェースを提供する。表示インタフェース805は、ディスプレイ808に接続される。ネットワークインタフェース806は計算機800と外部ネットワーク(図示せず)とを接続するためのインタフェースである。
補助記憶803は通常、HDDやフラッシュメモリなどの不揮発性メモリで構成され、計算機800が実行するプログラムやプログラムが処理対象とするデータ等を記憶する。主記憶802はRAMで構成され、プロセッサ801の命令により、プログラムやプログラムの実行に必要なデータ等を一時的に記憶する。プロセッサ801は、補助記憶803から主記憶802にロードしたプログラムを実行する。
人行動推定システム1の処理ブロックのそれぞれはプログラムとして補助記憶803に格納されており、補助記憶803から主記憶802にロードされ、プロセッサ801により実行される。また、図1に特定のデータの格納するデータベースについても、それぞれ補助記憶803に記憶され、あるいは補助記憶803から主記憶802に呼び出されて処理がなされる。以下では、一応用例として、製造ラインの作業員が正しく部品の取り付けや加工を行っているかを監視する監視システムに人行動推定システム1を適用した場合を例にとって説明する。
カメラ装置200は行動推定対象の人(この例では製造ラインの作業者)を撮影する。映像取得部10はカメラ装置200で撮影された映像(動画像)を取得し、映像情報蓄積部11に格納する。システムではあらかじめ判別したい人の行動を人行動定義12として定義しておく。例えば、図3のテーブル400では、「人」「領域」「動作」の3カテゴリについて、人の行動を定義する例を示している。
「人」カテゴリは、行動推定対象の人が誰かを定義する。この例では「人A」、「人B」が定義されている。「領域」カテゴリは、行動推定対象の人が撮影された映像のどの領域において行動(作業)しているかを定義する。これは、製造ラインの作業員がどの作業をどこで行うか、およそ定まっているため、行動推定対象の人がどこで行動しているかは行動推定に重要な情報であるためである。このため、図2のようにカメラ装置200によって撮影される映像空間を区分し(この例では3×3の9領域に区分している)、行動推定対象の人が映っている位置を定義する。なお、単純化のためカメラ装置200を固定として、映像空間により領域を区分する例で本実施例は説明するが、カメラ装置200がステレオカメラであれば、3次元空間で定義してもよい。さらに、現実空間の領域を区分し、公知の映像処理技術により、映像から行動推定対象の人がどの現実空間の領域にいるか解析してもよい。「動作」カテゴリは、行動推定対象の人が何の行動(作業)をしているかを定義する。この例では「ねじをしめる」、「穴をあける」、「ねじをゆるめる」といった作業が定義されている。この定義はカメラ装置200で撮影された映像(動画像)から判別したい内容にしたがって定めればよい。「動作」カテゴリは作業マニュアル等により作業者が製造ラインにおいて実行する作業であって監視システムにおいて判別したい作業を洗い出して定めることができる。なお、これらの全てのカテゴリについて定義することを要求するものではなく、行動推定対象の人が誰であるか特定不要であれば、「人」カテゴリを定義する必要はない。あるいは、例えば、作業者の服装や装備のように、必要に応じて別の定義カテゴリを設けてもよい。
一方、行動推定対象とする人が用いる工具であるドライバ101a、錐101bには、振動センサや加速度センサなどのセンサ103a,bが取り付けられている。センサの種類は特に限定されず、工具ごとに異なっていても、また複数のセンサが設けられていても構わない。工具データ取得部20は、工具101が使用される位置を示す位置情報及び、工具101に取り付けられたセンサ103からのセンサデータやセンサデータを加工した情報もしくは、工具の出力情報を取得し、工具データ蓄積部21へ格納する。例えば、ドライバ101aに加速度センサ103aが取り付けられている場合、ねじをしめる動作時に取得した加速度データや加工した軌跡データを蓄積する。また、工具101が使用される位置情報については工具から取得しても、映像取得部10で取得された映像から検出するようにしてもよい。システムではあらかじめ判別したい人の行動に伴う工具動作を工具動作定義22として定義しておく。例えば、図4のテーブル500では、「工具」「領域」「動作」の3カテゴリについて、人の行動を定義する例を示している。
「工具」カテゴリは、行動推定対象の人が使用する工具を定義する。この例では「ドライバ」、「錐」が定義されている。「領域」カテゴリは、工具が用いられている領域を定義する。これは、製造ラインの作業員がどの作業をどこで行うか、およそ定まっているため、工具が用いられる場所もそれに伴って限定されることによる。領域は人行動定義と同様に定めることができ、人行動定義と同じ領域定義をしてもよいし、異なる領域定義をしてもよい。図4の例では同じ領域定義をしている。「動作」カテゴリは、工具で行われる動作を定義する。この例ではドライバであれば「ねじをしめる」、「ねじをゆるめる」、錐であれば「穴をあける」といった動作が定義されている。
人行動学習部13では、まずカメラ装置200から取得し、映像情報蓄積部11に蓄積された映像を人行動定義12に基づき定義する。これが学習データとなる。図3に示すテーブル400は学習データの例であり、例えば、レコード401は映像「a.mpeg」は「人A」が領域「X1Y1及びX1Y2」において「ねじをしめる」動作をおこなっている映像であると定義するものである。学習データ400により人の行動を判別するモデルをつくる。例えば、ディープラーニング等の機械学習を用いて、カメラ装置200から取得した映像から人の行動を判別するモデルを作成する。人行動学習結果であるモデルは、人行動学習結果蓄積部14に保存される。
工具動作学習部23では、まず工具101に取り付けられたセンサ103から取得し、工具データ蓄積部21に蓄積された工具データを工具動作定義22に基づき定義する。これが学習データとなる。図4に示すテーブル500は学習データの例であり、例えば、レコード501は、工具データ「a.csv」は「ドライバ」が領域「X1Y3」において「ねじをしめる」動作をおこなっている工具データであると定義するものである。なお、工具に取り付けられたセンサが加速度センサであれば、工具データ「a.csv」とは、検出した加速度の時系列データやそれを加工した特徴量データ(テキストデータファイル)である。学習データ500により工具動作を判別するモデルをつくる。例えば、ディープラーニング等の機械学習を用いて、工具に取り付けられたセンサ103から取得した工具データから工具動作を判別するモデルを作成する。工具動作学習結果であるモデルは、工具動作学習結果蓄積部24に保存される。
人行動判別部15は、人行動学習結果蓄積部14に保存されたモデルを映像取得部10からの映像に適用して、人の行動を推定して人の行動候補を出力する。ここでは複数の行動候補を出力することを許容する。同様に、工具動作判別部25は、工具動作学習結果蓄積部24に保存されたモデルを工具データ取得部20からの工具データに適用して、工具動作を推定して工具の動作候補を出力する。ここでは複数の動作候補を出力することを許容する。
図5に総合人行動判別部2のフローチャートを示す。まず、工具動作判別部25の結果の有無を判定する(S51)。工具動作判別部25からの工具動作候補がない場合は人行動判別部15の人の行動候補を結果として出力する。工具動作判別部25の工具動作候補がある場合、人行動判別部15の人の行動候補と工具動作判別部25の工具動作候補を比較して一致判定する(S52)。人行動判別部15からの人の行動候補と工具動作判別部25からの工具動作候補とが一致する場合は、一致したものを人の行動判別結果として出力する。不一致の場合、人の行動候補と工具の動作候補から人の行動を推定して、推定結果を出力する(S53)。
総合人行動判別部2は、映像のみからでは行動推定対象の人の行動を判定することが困難であることが多いことから、工具からの動作情報により判定精度を高めるものである。例えば、図6Aは、「人A」が、「ドライバ101a」で領域「X1Y1, X1Y2」において「ねじをしめる」状況を映した映像の一シーンである。同様に、図6Bは、「人A」が、「錐101b」で領域「X2Y1, X2Y2」において「穴をあける」状況を映した映像の一シーンである。また同様に、図6Cは、「人B」が、「ドライバ101a」で領域「X2Y1, X2Y2」において「ねじをゆるめる」状況を映した映像の一シーンである。これらは、人が目視で行動を判定する場合でも、類似の映像であるため判定が難しいものである。まして、画像処理による行動判定では、これらの類似行動を正確に判別することは難しく、さらに、重要な行動判定のもととなる工具は人の影に隠れてしまい、映像から常時確認することが難しい。
例えば、人Aが監視領域全体のおよそ左下半分の領域においてドライバによりねじをしめる作業を行っているとし、本実施例では、まず、その状況に対する映像を映像取得部10が、その状況に対する工具データを工具データ取得部20が取得し、それぞれ人行動判別部15及び工具動作判別部25がそれぞれ学習結果蓄積部のモデルを用いて判別する。ここで、人行動定義は図3に、工具動作定義は図4のようであったとする。
このとき、人行動判別部15は、「人A」が領域「X1Y1, X1Y2」において「ねじをしめる」という人行動候補401と、「人A」が領域「X2Y1, X2Y2」において「ねじをしめる」という人行動候補402と、「人B」が領域「X2Y1, X2Y2」において「穴をあける」という人行動候補403と、「人A」が領域「X2Y1, X2Y2」において「ねじをゆるめる」という人行動候補405とを人行動候補として出力する可能性がある。
なお、人は動きながら行動したり、あるいは作業位置が人行動定義における監視領域の区分を跨っていたりする場合には、一連の作業であったとしても人行動判別部15は複数の人行動候補を出力する可能性がある。例えば、上述の例であれば人行動候補401と人行動候補402の双方を出力する。このような場合には、連続動作である場合には、いずれか一方(例えば、候補を推定したときの領域)を出力するようにしてもかまわない。
一方、工具動作判別部25は、「ドライバ」が領域「X2Y1」において「ねじをしめる」という動作候補502と、「ドライバ」が領域「X2Y2」において「ねじをしめる」という動作候補503とを出力する可能性がある。なお、工具の位置情報にずれが生じたりや工具の位置が工具動作定義における監視領域の区分を跨っていたりする場合には、一連の作業であったとしても工具動作判別部25は複数の工具動作候補を出力する可能性がある。このような場合には、人行動候補と同様に、連続動作である場合には、いずれか一方(例えば、候補を推定したときの領域)を出力するようにしてもかまわない。
総合人行動判別部2では、まず、人行動判別部15で出力した人行動候補と工具動作判別部25の出力した工具動作候補とを照合し、矛盾するものを除く。例えば、「穴をあける」人行動候補403、「ねじをゆるめる」人行動候補405は出力された工具動作候補から排除される。さらに、図7のように、人行動判別部15が推定した人行動候補と、工具動作判別部25が推定した工具動作候補とのマッピングを行い、その重なりに基づき人行動推定候補として出力する。この場合、「人A」が領域「X2Y1, X2Y2」において、「ドライバ101a」で「ねじをしめる」を人行動推定候補とする。なお、総合人行動判別部2においても、図7のようなマッピング状況をディープラーニングなどの機械学習により分類問題として学習し、人行動推定するようにしてもよい。
また、本実施例では工具の使用領域を定義しているため、例えば、工具動作定義が図4のようであれば、錐101bは領域「X2Y2」、「X3Y1」での使用のみが定義されているため、工具動作判別部25または総合人行動判別部2により、領域「X2Y2」、「X3Y1」以外での使用状況が取得できれば警告を発することが可能となり、工具の誤使用や誤作業防止を図ることも可能である。具体的には、工具動作判別部25は、該当する道具動作定義がないと判別する場合、あるいは総合人行動判別部2が該当する人行動定義がないと推定する場合に警告を発する。
以上、本発明を製造ラインにおける監視システムに適用した場合を例に説明したが、記載の実施例に限定されるものではなく、様々な変形例が含まれる。例えば、工具は行動推定対象の人が使用する一般的な道具やものに拡張可能である。上述の実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
1:人行動推定システム、2:総合人行動判別部、10:映像取得部、11:映像情報蓄積部、12:人行動定義、13:人行動学習部、14:人行動学習結果蓄積部、15:人行動判別部、20:工具データ取得部、21:工具データ蓄積部、22:工具動作定義、23:工具動作学習部、24:工具動作学習結果蓄積部、25:工具動作判別部、101:工具、103:センサ、200:カメラ装置。

Claims (6)

  1. 人が道具を用いて行う行動を判別する人行動推定システムであって、
    前記行動を撮影した映像を取得する映像取得部と、
    前記映像取得部からの前記映像に基づき、あらかじめ定められた人行動定義から、前記映像に撮影された前記行動に対しての人行動候補を出力する人行動判別部と、
    前記道具に付されたセンサからセンサ情報を取得する道具データ取得部と、
    前記道具データ取得部からの前記センサ情報に基づき、あらかじめ定められた道具動作定義から、前記センサ情報が取得された前記道具に対しての道具動作候補を出力する道具動作判別部と、
    前記人行動判別部より出力された前記人行動候補及び前記道具動作判別部より出力された前記道具動作候補に基づき、前記映像取得部からの前記映像に撮影された前記行動を推定する総合人行動判別部とを有する人行動推定システム。
  2. 請求項1において、
    前記人行動定義は、前記行動が行われる領域を示す第1領域情報を含み、
    前記道具動作定義は、前記道具が使用される領域を示す第2領域情報を含み、
    前記総合人行動判別部は、前記人行動候補の前記第1領域情報及び前記道具動作候補の前記第2領域情報に基づきマッピングすることにより、前記映像取得部からの前記映像に撮影された前記行動を推定する人行動推定システム。
  3. 請求項2において、
    前記第1領域情報は、前記映像の映像空間を区分することにより定義される人行動推定システム。
  4. 請求項2において、
    前記道具動作判別部が、前記センサ情報が取得された前記道具に対して該当する前記道具動作定義がないと判別する場合、または前記総合人行動判別部が前記映像に撮影された前記行動に対して該当する前記人行動定義がないと推定する場合に警告を発する人行動推定システム。
  5. 請求項1において、
    前記人行動判別部は、前記人行動定義と前記映像取得部からの前記映像とを対応付けた学習データによって機械学習させることによって得られる学習モデルを用いて前記映像に撮影された前記行動に対しての前記人行動候補を出力する人行動推定システム。
  6. 請求項1において、
    前記道具動作判別部は、前記道具動作定義と前記道具データ取得部からの前記センサ情報とを対応付けた学習データによって機械学習させることによって得られる学習モデルを用いて前記センサ情報が取得された前記道具に対しての前記道具動作候補を出力する人行動推定システム。
JP2017127426A 2017-06-29 2017-06-29 人行動推定システム Active JP6783713B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017127426A JP6783713B2 (ja) 2017-06-29 2017-06-29 人行動推定システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017127426A JP6783713B2 (ja) 2017-06-29 2017-06-29 人行動推定システム

Publications (2)

Publication Number Publication Date
JP2019012328A JP2019012328A (ja) 2019-01-24
JP6783713B2 true JP6783713B2 (ja) 2020-11-11

Family

ID=65226949

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017127426A Active JP6783713B2 (ja) 2017-06-29 2017-06-29 人行動推定システム

Country Status (1)

Country Link
JP (1) JP6783713B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220245850A1 (en) * 2019-06-13 2022-08-04 Nec Corporation Image processing device, image processing method, and non-transitory storage medium

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7337510B2 (ja) * 2019-02-14 2023-09-04 株式会社シマノ 出力装置、学習モデルの生成方法、コンピュータプログラム、および記憶媒体
WO2021192084A1 (ja) * 2020-03-25 2021-09-30 株式会社日立製作所 作業学習モデル生成装置、作業推論装置及び作業学習モデル生成方法
WO2022059117A1 (ja) 2020-09-17 2022-03-24 株式会社日立国際電気 映像処理装置、撮像装置、及び、映像処理方法
JP7453126B2 (ja) 2020-11-19 2024-03-19 株式会社日立製作所 作業観察システム、作業解析方法、及び教育支援システム
EP4016376A1 (en) * 2020-12-18 2022-06-22 Toyota Jidosha Kabushiki Kaisha Computer-implemented process monitoring method
JP2022113042A (ja) * 2021-01-22 2022-08-03 オムロン株式会社 作業推定装置、作業推定装置の制御方法、情報処理プログラム、および記録媒体
JP2023074948A (ja) 2021-11-18 2023-05-30 オムロン株式会社 作業認識装置、作業認識方法、及び作業認識プログラム
WO2023152825A1 (ja) * 2022-02-09 2023-08-17 日本電気株式会社 動作評価システム、動作評価方法、及び非一時的なコンピュータ可読媒体
WO2023152893A1 (ja) * 2022-02-10 2023-08-17 日本電気株式会社 管理装置、管理システム、管理方法及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4102318B2 (ja) * 2004-03-03 2008-06-18 日本電信電話株式会社 道具動作認識装置および道具動作認識方法
JP2016038716A (ja) * 2014-08-07 2016-03-22 株式会社ナ・デックス 作業監視装置、作業監視システムおよびプログラム
JP2016181220A (ja) * 2015-03-25 2016-10-13 株式会社Screenホールディングス 作業管理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220245850A1 (en) * 2019-06-13 2022-08-04 Nec Corporation Image processing device, image processing method, and non-transitory storage medium

Also Published As

Publication number Publication date
JP2019012328A (ja) 2019-01-24

Similar Documents

Publication Publication Date Title
JP6783713B2 (ja) 人行動推定システム
JP6897037B2 (ja) 作業性評価装置
JP5455787B2 (ja) 動作解析装置および動作解析方法
JP6570786B2 (ja) 動作学習装置、技能判別装置および技能判別システム
Andrianakos et al. An approach for monitoring the execution of human based assembly operations using machine learning
US11199561B2 (en) System and method for standardized evaluation of activity sequences
JP7114885B2 (ja) 作業現場監視装置およびプログラム
TW201818297A (zh) 作業辨識裝置以及作業辨識方法
US11756326B2 (en) Keepout zone detection and active safety system
JP6075888B2 (ja) 画像処理方法、ロボットの制御方法
US20140297221A1 (en) Locating system and locating method using pressure sensor
JP6504180B2 (ja) 異常検出装置、異常検出方法および異常検出プログラム
CN111385813B (zh) 用于重复活动序列中的循环持续时间测量的系统和方法
JP7375692B2 (ja) 情報処理装置、情報処理方法、及び情報処理システム
JP6786015B1 (ja) 動作分析システムおよび動作分析プログラム
JP2019159885A (ja) 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム
JP7401280B2 (ja) 作業工程判別装置及び作業工程判別システム
Kim et al. Evaluation of machine learning algorithms for worker’s motion recognition using motion sensors
WO2020194386A1 (ja) 情報処理装置、判定出力方法、及び判定出力プログラム
JP7376446B2 (ja) 作業分析プログラム、および、作業分析装置
JP7483179B1 (ja) 推定装置、学習装置、推定方法及び推定プログラム
JP2020008932A (ja) 画像処理装置、画像処理方法及びプログラム
JP2024013123A (ja) 作業管理装置、作業管理システム、および、作業管理プログラム
KR20140072683A (ko) 표준 작업 관리 시스템 및 표준 작업 관리 방법
JP7500895B1 (ja) 作業管理装置、作業管理システム、および、作業管理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201022

R150 Certificate of patent or registration of utility model

Ref document number: 6783713

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150