JP6777819B1 - 動作特定装置、動作特定方法及び動作特定プログラム - Google Patents
動作特定装置、動作特定方法及び動作特定プログラム Download PDFInfo
- Publication number
- JP6777819B1 JP6777819B1 JP2019524483A JP2019524483A JP6777819B1 JP 6777819 B1 JP6777819 B1 JP 6777819B1 JP 2019524483 A JP2019524483 A JP 2019524483A JP 2019524483 A JP2019524483 A JP 2019524483A JP 6777819 B1 JP6777819 B1 JP 6777819B1
- Authority
- JP
- Japan
- Prior art keywords
- information
- target
- image data
- time
- worker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
Description
この発明は、作業者の体に作業に不要な物を付けることなく、サイクルタイムの計測と作業内容の分析といった処理を可能にすることを目的とする。
対象者についての画像データを取得する画像取得部と、
前記画像取得部によって取得された前記画像データから、前記対象者の体勢を表した骨格情報である対象情報を抽出する骨格抽出部と、
前記骨格抽出部によって抽出された前記対象情報と類似する前記骨格情報である動作情報が示す動作内容を、前記対象者が行っている動作内容として特定する動作特定部と
を備える。
***構成の説明***
図1を参照して、実施の形態1に係る動作特定装置10の構成を説明する。
動作特定装置10は、コンピュータである。
動作特定装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
ストレージ13には、動作特定装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、動作特定装置10の各機能構成要素の機能が実現される。
具体例としては、動作特定装置10は、プロセッサ11として、CPUと、GPUとを備えてもよい。この場合には、後述するように画像処理を行う骨格抽出部22に関しては、GPUにより実現され、残りの画像取得部21と、動作情報登録部23と、動作特定部24と、出力部25とに関しては、CPUにより実現されてもよい。
図2から図8を参照して、実施の形態1に係る動作特定装置10の動作を説明する。
実施の形態1に係る動作特定装置10の動作は、実施の形態1に係る動作特定方法に相当する。また、実施の形態1に係る動作特定装置10の動作は、実施の形態1に係る動作特定プログラムの処理に相当する。
実施の形態1に係る動作特定装置10の動作は、登録処理と、特定処理とを含む。
(ステップS11:画像取得処理)
画像取得部21は、撮影装置41によって対象動作をしている人42が撮影された画像データと、対象動作を示すラベル情報との1つ以上の組を、通信インタフェース14を介して取得する。図3に示すように、実施の形態1では、画像データは、撮影装置41によって対象動作をしている人42の身体全体が対象者の正面から撮影されて取得される。
画像取得部21は、取得された画像データとラベル情報との組をメモリ12に書き込む。
骨格抽出部22は、ステップS11で取得された画像データをメモリ12から読み出す。骨格抽出部22は、画像データから人42の体勢を表した骨格情報43を動作情報として抽出する。図4に示すように、実施の形態1では、骨格情報43は、人42の首及び肩といった複数の関節の座標、又は、複数の関節の相対的な位置関係を示す。
骨格抽出部22は、抽出された動作情報をメモリ12に書き込む。
動作情報登録部23は、ステップS12で抽出された動作情報と、動作情報の抽出元の画像データと同じ組のラベル情報とをメモリ12から読み出す。動作情報登録部23は、読み出された動作情報とラベル情報とを対応付けて、動作情報テーブル31に書き込む。
骨格抽出部22は、ステップS11で取得された全ての組について処理をしたか否かを判定する。
骨格抽出部22は、全ての組について処理をした場合には、登録処理を終了する。一方、骨格抽出部22は、処理していない組がある場合には、処理をステップS12に戻して、次の組についての処理を実行する。
例えば、図5に示すように、ステップS11で画像取得部21は、一連の作業を行った人を撮影した映像データを構成する各時刻の画像データについて、その時刻の画像データと、その時刻の画像データが示す人の動作を示すラベル情報との組を取得する。そして、ステップS12で骨格抽出部22は、処理対象の画像データから動作情報を抽出し、ステップS13で動作情報登録部23は、処理対象の画像データと同じ組のラベル情報と動作情報を対応付けて動作情報テーブル31に書き込む。これにより、図6に示すように、一連の作業における各時刻の動作について、対応付けられた動作情報とラベル情報とが動作情報テーブル31に蓄積される。
なお、ステップS11で画像取得部21は、一連の作業において通常は行われない非定常作業を行った人を撮影した映像データを構成する各時刻の画像データについても、その時刻の画像データと、その時刻の画像データが示す人の動作を示すラベル情報との組を取得してもよい。これにより、非定常作業に関しても、各時刻の動作について、対応付けられた動作情報とラベル情報とが動作情報テーブル31に蓄積される。
(ステップS21:画像取得処理)
画像取得部21は、対象者が撮影された1つ以上の画像データを、通信インタフェース14を介して取得する。実施の形態1では、ステップS11で取得される画像データと同様に、ステップS21で取得される画像データは、撮影装置41によって対象者の身体全体が対象者の正面から撮影されて取得される。
画像取得部21は、取得された画像データをメモリ12に書き込む。
骨格抽出部22は、ステップS21で取得された画像データをメモリ12から読み出す。骨格抽出部22は、画像データから対象者の体勢を表した骨格情報43を対象情報として抽出する。
骨格抽出部22は、抽出された対象情報をメモリ12に書き込む。
動作特定部24は、ステップS22で抽出された対象情報と類似する骨格情報である動作情報が示す動作内容を、対象者が行っている動作内容として特定する。
具体的には、動作特定部24は、動作情報テーブル31から対象情報と類似する動作情報を検索する。類似するとは、骨格情報43が複数の関節の座標を示す場合には、対象情報と動作情報とにおいて同じ関節の座標間のユークリッド距離が短いという意味である。また、骨格情報43が複数の関節の相対的な位置関係を示す場合には、対象情報が示す各関節間のユークリッド距離と、動作情報が示す各関節間のユークリッド距離とが近いという意味である。そして、動作特定部24は、検索にヒットした動作情報と対応付けられたラベル情報が示す動作内容を、対象者が行っている動作内容として特定する。
なお、特定の関節間の相対位置関係が動作を特徴付ける場合には、特定の関節についてのユークリッド距離の差が類似度に大きく影響するように重み付けを行ってもよい。つまり、骨格情報43が複数の関節の座標を示す場合には、特定の関節についての対象情報における座標と動作情報における座標との間のユークリッド距離の差が類似度に大きく影響するように重み付けを行ってもよい。また、骨格情報43が複数の関節の相対的な位置関係を示す場合には、特定の関節間のユークリッド距離の差が類似度に大きく影響するように重み付けを行ってもよい。
出力部25は、ステップS23で特定された動作内容を、通信インタフェース14を介して接続された表示装置等に出力する。出力部25は、動作内容を示すラベル情報を出力してもよい。
なお、検索にヒットした動作情報がない場合には、出力部25は、動作内容を特定できないことを示す情報を出力する。
骨格抽出部22は、ステップS21で取得された全ての画像データについて処理をしたか否かを判定する。
骨格抽出部22は、全ての画像データについて処理をした場合には、登録処理を終了する。一方、骨格抽出部22は、処理していない画像データがある場合には、処理をステップS22に戻して、次の画像データについての処理を実行する。
この際、対象とする作業がいつ開始され、いつ終了したかということも特定可能である。また、対象者が一連の作業中に非定常作業を行った場合には、非定常作業を行ったことも特定することが可能である。
以上のように、実施の形態1に係る動作特定装置10は、対象者を正面から撮影した画像データから対象者の体勢を表した骨格情報である対象情報を抽出し、対象情報と類似する骨格情報である動作情報が示す動作内容を、対象者が行っている動作内容として特定する。そのため、実施の形態1に係る動作特定装置10は、複数の画像データを含む映像データを入力として、各画像データについての動作内容を特定することにより、一連の動作を分析することが可能である。その結果、作業者の体に作業に不要な物を付けることなく、サイクルタイムの計測と作業内容の分析といった処理が可能になる。
<変形例1>
実施の形態1では、図1に示すように、動作特定装置10は、1つの装置であった。しかし、動作特定装置10は、複数の装置によって構成されたシステムであってもよい。
具体例としては、図9に示すように、動作特定装置10は、登録処理に関する機能を有する登録装置と、特定処理に関する機能を有する特定装置とによって構成されるシステムであってもよい。この場合には、動作情報テーブル31は、登録装置及び特定装置の外部に設けられた記憶装置に記憶されてもよいし、登録装置と特定装置とのいずれかのストレージに記憶されてもよい。
なお、図9では、登録装置及び特定装置におけるハードウェアは省略されている。登録装置及び特定装置は、動作特定装置10と同様に、ハードウェアとして、プロセッサとメモリとストレージと通信インタフェースとを備える。
実施の形態1では、画像データとして、撮影装置41によって撮影されたデータを用いた。しかし、画像データとして、深度センサといったセンサにより得られた3次元画像データを用いてもよい。
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例3として、各機能構成要素はハードウェアで実現されてもよい。この変形例3について、実施の形態1と異なる点を説明する。
各機能構成要素がハードウェアで実現される場合には、動作特定装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
変形例4として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
実施の形態2は、動作情報とラベル情報とに基づいて学習モデル32を生成し、学習モデル32により対象情報に対応するラベル情報を特定する点が実施の形態1と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
図11を参照して、実施の形態2に係る動作特定装置10の構成を説明する。
動作特定装置10は、動作情報登録部23に代えて、学習部26を備える点が図1に示す動作特定装置10と異なる。また、動作特定装置10は、ストレージ13が動作情報テーブル31に代えて、学習モデル32を記憶する点が図1に示す動作特定装置10と異なる。
図12から図13を参照して、実施の形態2に係る動作特定装置10の動作を説明する。
実施の形態2に係る動作特定装置10の動作は、実施の形態2に係る動作特定方法に相当する。また、実施の形態2に係る動作特定装置10の動作は、実施の形態2に係る動作特定プログラムの処理に相当する。
実施の形態2に係る動作特定装置10の動作は、学習処理と、特定処理とを含む。
ステップS31からステップS32の処理は、図2のステップS11からステップS12の処理と同じである。また、ステップS34の処理は、図2のステップS14の処理と同じである。
学習部26は、ステップS32で抽出された動作情報と、動作情報の抽出元の画像データと同じ組のラベル情報との複数の組を学習データとして学習させる。これにより、学習部26は、骨格情報43が入力されると、入力された骨格情報43に類似する動作情報を特定して、特定された動作情報に対応するラベル情報を出力する学習モデル32を生成する。学習データに基づく学習の方法については既存の機械学習モデル等を用いればよい。学習部26は、生成された学習モデル32をストレージ13に書き込む。
既に学習モデル32が生成されている場合には、学習部26は、生成済の学習モデル32に対して学習データを与えることにより、学習モデル32を更新する。
ステップS41からステップS42の処理は、図7のステップS21からステップS22の処理と同じである。また、ステップS44からステップS45の処理は、図7のステップS24からステップS25の処理と同じである。
動作特定部24は、ストレージ13に記憶された学習モデル32に、ステップS42で抽出された対象情報を入力し、学習モデル32から出力されたラベル情報を取得する。そして、動作特定部24は、取得されたラベル情報が示す動作内容を、対象者が行っている動作内容として特定する。つまり、動作特定部24は、学習モデル32によって対象情報から推論され出力されたラベル情報が示す動作内容を、対象者が行っている動作内容として特定する。
以上のように、実施の形態2に係る動作特定装置10は、学習モデル32を生成し、学習モデル32により対象情報に対応するラベル情報を特定する。そのため、対象情報に対応するラベル情報の特定を効率的に実行することが可能になる。
<変形例5>
実施の形態2では、図11に示すように、動作特定装置10は、1つの装置であった。しかし、変形例1と同様に、動作特定装置10は、複数の装置によって構成されたシステムであってもよい。
具体例としては、図14に示すように、動作特定装置10は、学習処理に関する機能を有する登録装置と、特定処理に関する機能を有する特定装置とによって構成されるシステムであってもよい。この場合には、学習モデル32は、学習装置及び特定装置の外部に設けられた記憶装置に記憶されてもよいし、学習装置と特定装置とのいずれかのストレージに記憶されてもよい。
なお、図14では、登録装置及び特定装置におけるハードウェアは省略されている。学習装置及び特定装置は、動作特定装置10と同様に、ハードウェアとして、プロセッサとメモリとストレージと通信インタフェースとを備える。
実施の形態2では、図11に示すように、動作特定装置10は、ハードウェアとして、プロセッサ11とメモリ12とストレージ13と通信インタフェース14とを備えた。動作特定装置10は、プロセッサ11として、CPUと、GPUと、学習処理用のプロセッサと、推論処理用のプロセッサとを備えてもよい。この場合には、画像処理を行う骨格抽出部22に関しては、GPUにより実現され、学習モデル32の学習に関する学習部26に関しては学習処理用のプロセッサにより実現され、学習モデル32により推論を行う動作特定部24に関しては推論処理用のプロセッサにより実現され、残りの画像取得部21と、学習部26とに関しては、CPUにより実現されてもよい。
Claims (4)
- 複数の作業から構成される一連の作業を行った作業者を撮影した学習用の映像データについて、前記学習用の映像データを構成する各時刻の画像データと、前記各時刻における前記作業者の動作内容を示すラベル情報とを取得する画像取得部と、
前記画像取得部によって取得された前記学習用の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報であって、前記作業者の複数の関節の相対的な位置関係を示す骨格情報である動作情報を抽出する骨格抽出部と、
前記各時刻の画像データを対象として、前記骨格抽出部によって対象の時刻の画像データから抽出された動作情報と、対象の時刻における前記作業者の動作を示すラベル情報との組を学習データとして学習させることにより、前記骨格情報が入力されると、入力された前記骨格情報に類似する前記動作情報を特定して、特定された前記動作情報に対応する前記ラベル情報を出力する学習モデルを生成する学習部と
を備え、
前記画像取得部は、複数の作業から構成される一連の作業を行った対象の作業者を撮影した対象の映像データについて、前記対象の映像データを構成する各時刻の画像データを取得し、
前記骨格抽出部は、前記対象の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報であって、前記作業者の複数の関節の相対的な位置関係を示す骨格情報である対象情報を抽出し、
さらに、
前記対象の映像データを構成する前記各時刻の画像データを対象として、前記学習部によって生成された前記学習モデルに対象の時刻の画像データから抽出された前記対象情報を入力し、前記学習モデルから出力された前記ラベル情報を取得して、取得された前記ラベル情報が示す動作内容を、前記対象の作業者が行っている動作内容として特定する動作特定部
を備える動作特定装置。 - 前記学習モデルは、前記一連の作業を構成する動作内容を示すラベル情報だけでなく、前記一連の作業を構成しない動作内容である非定常作業を示すラベル情報も出力する
請求項1に記載の動作特定装置。 - 動作特定装置の画像取得部が、複数の作業から構成される一連の作業を行った作業者を撮影した学習用の映像データについて、前記学習用の映像データを構成する各時刻の画像データと、前記各時刻における前記作業者の動作内容を示すラベル情報とを取得し、
前記動作特定装置の骨格抽出部が、前記学習用の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報であって、前記作業者の複数の関節の相対的な位置関係を示す骨格情報である動作情報を抽出し、
前記動作特定装置の学習部が、前記各時刻の画像データを対象として、前記骨格抽出部によって対象の時刻の画像データから抽出された動作情報と、対象の時刻における前記作業者の動作を示すラベル情報との組を学習データとして学習させることにより、前記骨格情報が入力されると、入力された前記骨格情報に類似する前記動作情報を特定して、特定された前記動作情報に対応する前記ラベル情報を出力する学習モデルを生成し、
前記動作特定装置の前記画像取得部は、複数の作業から構成される一連の作業を行った対象の作業者を撮影した対象の映像データについて、前記対象の映像データを構成する各時刻の画像データを取得し、
前記動作特定装置の前記骨格抽出部は、前記対象の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報であって、前記作業者の複数の関節の相対的な位置関係を示す骨格情報である対象情報を抽出し、
前記動作特定装置の動作特定部は、前記対象の映像データを構成する前記各時刻の画像データを対象として、前記学習モデルに対象の時刻の画像データから抽出された前記対象情報を入力し、前記学習モデルから出力された前記ラベル情報を取得して、取得された前記ラベル情報が示す動作内容を、前記対象の作業者が行っている動作内容として特定する動作特定方法。 - 画像取得部が、複数の作業から構成される一連の作業を行った作業者を撮影した学習用の映像データについて、前記学習用の映像データを構成する各時刻の画像データと、前記各時刻における前記作業者の動作内容を示すラベル情報とを取得する画像取得処理と、
骨格抽出部が、前記画像取得処理によって取得された前記学習用の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報であって、前記作業者の複数の関節の相対的な位置関係を示す骨格情報である動作情報を抽出する骨格抽出処理と、
前記各時刻の画像データを対象として、前記骨格抽出部によって対象の時刻の画像データから抽出された動作情報と、対象の時刻における前記作業者の動作を示すラベル情報との組を学習データとして学習させることにより、前記骨格情報が入力されると、入力された前記骨格情報に類似する前記動作情報を特定して、特定された前記動作情報に対応する前記ラベル情報を出力する学習モデルを生成する学習処理と
を行い、
前記画像取得処理では、複数の作業から構成される一連の作業を行った対象の作業者を撮影した対象の映像データについて、前記対象の映像データを構成する各時刻の画像データを取得し、
前記骨格抽出処理では、前記対象の映像データを構成する前記各時刻の画像データを対象として、対象の時刻の画像データから、前記作業者の体勢を表した骨格情報であって、前記作業者の複数の関節の相対的な位置関係を示す骨格情報である対象情報を抽出し、
さらに、
動作特定部が、前記対象の映像データを構成する前記各時刻の画像データを対象として、前記学習処理によって生成された前記学習モデルに対象の時刻の画像データから抽出された前記対象情報を入力し、前記学習モデルから出力された前記ラベル情報を取得して、
取得された前記ラベル情報が示す動作内容を、前記対象の作業者が行っている動作内容として特定する動作特定処理
を行う動作特定装置としてコンピュータを機能させる動作特定プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/000056 WO2020144727A1 (ja) | 2019-01-07 | 2019-01-07 | 動作特定装置、動作特定方法及び動作特定プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020150999A Division JP7080285B2 (ja) | 2020-09-09 | 2020-09-09 | 動作特定装置、動作特定方法及び動作特定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6777819B1 true JP6777819B1 (ja) | 2020-10-28 |
JPWO2020144727A1 JPWO2020144727A1 (ja) | 2021-02-18 |
Family
ID=71521505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019524483A Active JP6777819B1 (ja) | 2019-01-07 | 2019-01-07 | 動作特定装置、動作特定方法及び動作特定プログラム |
Country Status (5)
Country | Link |
---|---|
JP (1) | JP6777819B1 (ja) |
CN (1) | CN113302653A (ja) |
DE (1) | DE112019006583T5 (ja) |
TW (1) | TW202026951A (ja) |
WO (1) | WO2020144727A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016042332A (ja) * | 2014-08-19 | 2016-03-31 | 大日本印刷株式会社 | 作業動作検査システム |
JP2017174093A (ja) * | 2016-03-23 | 2017-09-28 | 日野自動車株式会社 | 運転者状態判定装置 |
JP2017199303A (ja) * | 2016-04-28 | 2017-11-02 | パナソニックIpマネジメント株式会社 | 識別装置、識別方法、識別プログラムおよび記録媒体 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016099982A (ja) | 2014-11-26 | 2016-05-30 | 日本電信電話株式会社 | 行動認識装置、行動学習装置、方法、及びプログラム |
-
2019
- 2019-01-07 JP JP2019524483A patent/JP6777819B1/ja active Active
- 2019-01-07 CN CN201980087653.9A patent/CN113302653A/zh active Pending
- 2019-01-07 DE DE112019006583.1T patent/DE112019006583T5/de active Pending
- 2019-01-07 WO PCT/JP2019/000056 patent/WO2020144727A1/ja active Application Filing
- 2019-06-13 TW TW108120437A patent/TW202026951A/zh unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016042332A (ja) * | 2014-08-19 | 2016-03-31 | 大日本印刷株式会社 | 作業動作検査システム |
JP2017174093A (ja) * | 2016-03-23 | 2017-09-28 | 日野自動車株式会社 | 運転者状態判定装置 |
JP2017199303A (ja) * | 2016-04-28 | 2017-11-02 | パナソニックIpマネジメント株式会社 | 識別装置、識別方法、識別プログラムおよび記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
CN113302653A (zh) | 2021-08-24 |
TW202026951A (zh) | 2020-07-16 |
JPWO2020144727A1 (ja) | 2021-02-18 |
WO2020144727A1 (ja) | 2020-07-16 |
DE112019006583T5 (de) | 2021-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020503604A5 (ja) | ||
JP6844692B2 (ja) | 学習データ生成装置、学習データ生成方法、およびプログラム | |
KR102356448B1 (ko) | 이미지 합성 방법 및 그 전자 장치 | |
GB2583643A (en) | Automated extraction of echocardiograph measurements from medical images | |
JP2007109235A (ja) | 画像シーケンスを使った画像の分離およびモーション・ブラーのシミュレート | |
JP7080285B2 (ja) | 動作特定装置、動作特定方法及び動作特定プログラム | |
JP6293386B2 (ja) | データ処理装置、データ処理方法及びデータ処理プログラム | |
CN105095853B (zh) | 图像处理装置及图像处理方法 | |
WO2018036277A1 (zh) | 车辆检测的方法、装置、服务器及存储介质 | |
KR20170119630A (ko) | 정보 처리장치, 정보 처리방법 및 기억매체 | |
JP2006313543A (ja) | 全画像を記録しなくても複数のオブジェクトを認識できる画像認識方法 | |
JPWO2020059377A1 (ja) | 位置推定装置、位置推定方法、及びプログラム | |
Żak et al. | Local image features matching for real-time seabed tracking applications | |
JP6777819B1 (ja) | 動作特定装置、動作特定方法及び動作特定プログラム | |
JP7409134B2 (ja) | 画像処理方法、画像処理プログラム、および画像処理装置 | |
CN112949516A (zh) | 踢被子行为的识别方法和装置 | |
JP2020173781A (ja) | 番号認識装置、方法及び電子機器 | |
JP6393495B2 (ja) | 画像処理装置および物体認識方法 | |
JP2020135580A (ja) | 検索装置、検索方法、およびプログラム | |
US10909718B2 (en) | Method for estimating body orientation | |
JP7048347B2 (ja) | 位置関係決定装置 | |
WO2022003981A1 (ja) | 行動特定装置、行動特定方法及び行動特定プログラム | |
JP2008146132A (ja) | 画像検出装置、プログラム及び画像検出方法 | |
JP6648930B2 (ja) | 編集装置、編集方法及びプログラム | |
Peng et al. | Image-based object state modeling of a transfer task in simulated surgical training |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190510 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190510 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190510 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190613 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190625 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190718 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191015 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200319 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200623 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200909 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20200909 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20200917 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20200929 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201006 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201008 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6777819 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |