JP2019200241A - 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム - Google Patents
動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム Download PDFInfo
- Publication number
- JP2019200241A JP2019200241A JP2018093277A JP2018093277A JP2019200241A JP 2019200241 A JP2019200241 A JP 2019200241A JP 2018093277 A JP2018093277 A JP 2018093277A JP 2018093277 A JP2018093277 A JP 2018093277A JP 2019200241 A JP2019200241 A JP 2019200241A
- Authority
- JP
- Japan
- Prior art keywords
- information
- motion
- unit
- classification
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Data Mining & Analysis (AREA)
- Quality & Reliability (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
まず、図1から図3を用いて、本発明が適用される場面の一例について説明する。図1は、本実施形態に係る動作分析システム100の概要を示す図である。動作分析システム100は、動作分析装置10を備え、動作分析装置10は、対象者の動作を分析するための情報処理装置である。ここで、対象者は、分析の対象となる者であり、分析毎に異なり得る。例えば、動作分析装置10によって、生産現場における作業者の動作を分析する場合、対象者は作業者である。本実施形態では、動作分析装置10によって、生産現場における作業者の動作を分析する場合について説明する。もっとも、動作分析の対象となる対象者は、生産現場における作業者以外の者であってもよく、スポーツを行う者であったり、任意の動作を行う者であったりしてよい。対象者は、腕、足、指等の身体の特定の部位を欠損した者を含んでもよい。
[機能構成]
次に、図4を用いて、本実施形態に係る動作分析システム100の機能構成の一例を説明する。動作分析システム100は、第1撮影部20a、第2撮影部20b、第3撮影部20c、測定部30及び動作分析装置10を備える。そして、動作分析装置10は、第1取得部11、第2取得部12、第3取得部13、記憶部14、分類部15、分析部16、選択部17、入力部10e及び表示部10fを備える。
第1撮影部20a、第2撮影部20b及び第3撮影部20cは、それぞれ汎用のカメラによって構成されてよく、作業領域Rにおいて第1作業者A1及び第2作業者A2が動作を実行している場面を含む動画を撮影してよい。動画は、動作情報の一例であり、対象者の骨格と関連付けられた身体の複数の部位の位置を示す骨格情報を含む。動画は、そのまま動作情報として用いられてもよいし、動画に基づいて作業者の骨格と関連付けられた身体の複数の部位の位置を解析するために用いられてもよい。第1撮影部20a、第2撮影部20b及び第3撮影部20cは、それぞれ作業領域Rの一部を撮影してよく、作業領域Rよりも狭い領域の動画を撮影してよい。具体的には、第1作業者A1及び第2作業者A2により実行される動作を、特定の領域に注目して撮影した動画であってよい。第1撮影部20a、第2撮影部20b及び第3撮影部20cは、例えば、第1作業者A1及び第2作業者A2の手元をクローズアップした動画を撮影してよい。
測定部30は、モーションキャプチャにより構成されてよく、ある作業領域Rにおいて実行された第1作業者A1及び第2作業者A2の骨格と関連付けられた身体の複数の部位の位置を示す骨格情報を含む動作情報を測定してよい。測定部30は、複数の作業者の動作情報を測定してよく、単一ユニットであってもよいし、複数ユニットを含んでもよい。測定部30の構成は任意であるが、例えば、第1作業者A1及び第2作業者A2にパターン光を投影して、パターン光が投影された状態の第1作業者A1及び第2作業者A2の動画を撮影し、撮影した動画に基づいて、第1作業者A1及び第2作業者A2の複数の骨格と関連付けられた身体の複数の部位の座標値を測定するものであってよい。また、測定部30は、複数の作業者に関する複数の動作情報を測定する場合、動作情報に作業者を識別する情報を付加してもよい。測定部30は、第1作業者A1及び第2作業者A2の関節、頭、肩、腰等の任意の部位の座標値を測定するものであってよい。また、測定部30は、第1作業者A1及び第2作業者A2が装着したトラッカーの位置の座標値を測定するものであってもよい。また、測定部30は、第1作業者A1及び第2作業者A2の動画を解析して、動画に基づいて作業者の骨格と関連付けられた身体の複数の部位の位置を示す骨格情報を含む動作情報を測定するものであってもよい。
第1取得部11は、第1作業者A1及び第2作業者A2の動作情報を、測定部30から取得してよい。第1取得部11により取得された動作情報は、記憶部14に伝送され、動作情報履歴14aとして記憶される。動作分析システム100が複数の測定部30を含む場合、第1取得部11は、複数の測定部30それぞれから動作情報を取得してよく、いずれの測定部30から取得した動作情報であるかを識別する情報を付加して、動作情報を記憶部14に伝送してもよい。なお、動作情報は、例えば、作業者の骨格と関連付けられた身体の複数の部位の位置を示す座標値を1秒間隔で測定した情報であってよい。
次に、図5を用いて、本実施形態に係る動作分析装置10のハードウェア構成の一例を説明する。動作分析装置10は、演算装置に相当するCPU(Central Processing Unit)10aと、記憶部14に相当するRAM(Random Access Memory)10bと、記憶部14に相当するROM(Read only Memory)10cと、通信部10dと、入力部10eと、表示部10fとを有する。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。なお、本例では動作分析装置10が一台のコンピュータで構成される場合について説明するが、動作分析装置10は、複数のコンピュータを用いて実現されてもよい。
図6は、本実施形態に係る動作分析システム100により測定される動作情報の一例を示す図である。同図では、測定部30により撮影された画像P1と、測定部30により測定された骨格情報とを示している。骨格情報は、対象者の身体の複数の部位に対応する複数のノードの座標値を含んでよい。複数のノードは、対象者の骨格と関連付けられた身体の複数の部位に対応するスケルトンモデルのノードであってよく、複数のノードの間の距離は、スケルトンモデルのエッジの長さであってよい。ここで、スケルトンモデルは、対象者の体格の概形を複数のエッジ及び複数のノードにより示すモデルであってよく、複数のエッジにより対象者の骨格の概形が示され、複数のノードにより複数のエッジの端点及び連結点が示されてよい。本例では、対象者の身体の複数の部位に対応する複数のノードを白色で塗りつぶした円で示しており、ノード間のエッジを白線で示している。
図16は、本実施形態の変形例に係る動作分析装置10Aの機能ブロックを示す図である。本変形例に係る動作分析装置10Aは、記憶部14にコンテンツ14bが記憶され、選択部17は、分析部16による分析結果に基づいて、対象者に対応するコンテンツ14bを選択してよい点で、本実施形態に係る動作分析装置10と相違する。その他の構成について、本変形例に係る動作分析装置10Aは、本実施形態に係る動作分析装置10と同様の構成を備える。
複数の対象者の動作を示す複数の動作情報を取得する取得部(11)と、
前記複数の動作情報を複数のグループのいずれかに分類する分類部(15)と、
前記複数のグループのいずれかのグループに分類された前記動作情報に基づいて、前記対象者の動作を分析する分析部(16)と、を備え、
前記複数の動作情報は、前記複数の対象者の骨格と関連付けられた身体の複数の部位の位置を示す骨格情報をそれぞれ含み、
前記分類部(15)は、前記複数の動作情報を、それぞれに含まれる前記骨格情報を用いて分類する、
動作分析装置(10)。
前記分類部(15)は、前記複数の動作情報のうちいずれかの動作情報に含まれる前記骨格情報と、前記複数の動作情報のうち他のいずれかの動作情報に含まれる前記骨格情報との差異に基づき、前記複数の動作情報を前記複数のグループのいずれかに分類する、
付記1に記載の動作分析装置(10)。
前記分類部(15)は、前記複数の動作情報を、それぞれに含まれる前記骨格情報と所定の基準情報との差異に基づき、前記複数のグループのいずれかに分類する、
付記1に記載の動作分析装置(10)。
前記骨格情報は、前記複数の部位に対応する複数のノードの座標値を含み、
前記分類部(15)は、前記座標値に基づいて算出される前記複数のノードの間の距離に関する分類により、前記複数の動作情報を前記複数のグループのいずれかに分類する、
付記1から3のいずれか一項に記載の動作分析装置(10)。
前記分類部(15)は、前記複数のノードのうち隣り合う2つのノードの間の距離に関する分類により、前記複数の動作情報を前記複数のグループのいずれかに分類する、
付記4に記載の動作分析装置(10)。
前記分類部(15)は、前記複数のノードのうち隣り合う2つのノードの間の距離と、前記複数のノードのうち他の隣り合う2つのノードの間の距離との比に関する分類により、前記動作情報を前記複数のグループのいずれかに分類する、
付記4又は5に記載の動作分析装置(10)。
前記分類部(15)は、前記複数のノードの間の距離と、前記複数の動作情報とともに前記取得部(11)により取得される基準距離との比に関する分類により、前記動作情報を前記複数のグループのいずれかに分類する、
付記4から6のいずれか一項に記載の動作分析装置(10)。
前記座標値は、3次元座標値を含み、
前記分類部(15)は、前記3次元座標値に基づいて算出される前記複数のノードの間の距離に関する分類により、前記複数の動作情報を前記複数のグループのいずれかに分類する、
付記4から7のいずれか一項に記載の動作分析装置(10)。
前記座標値は、測定された時刻に関連付けられ、
前記分類部(15)は、異なる時刻に測定された複数の前記座標値に基づいて算出される前記複数のノードの間の距離の平均に関する分類により、前記複数の動作情報を前記複数のグループのいずれかに分類する、
付記4から8のいずれか一項に記載の動作分析装置(10)。
前記複数の部位のうち、前記分類部(15)による分類に用いる複数の部位を選択する選択部(17)をさらに備える、
付記1から9のいずれか一項に記載の動作分析装置(10)。
前記選択部(17)は、前記複数の対象者に共通して取得された部位であるか否かに基づいて、前記分類部(15)による分類に用いる複数の部位を選択する、
付記10に記載の動作分析装置(10)。
前記選択部(17)は、前記複数の部位のうち隣り合う2つの部位の間の距離と、前記複数の部位のうち他の隣り合う2つの部位の間の距離との比較に基づいて、前記分類部(15)による分類に用いる部位を選択する、
付記10に記載の動作分析装置(10)。
前記選択部(17)は、前記分析部(16)による分析結果に基づいて、前記対象者に対応するコンテンツを選択する、
付記10から12のいずれか一項に記載の動作分析装置(10)。
前記分析部(16)は、前記動作情報に基づいて算出され、前記対象者の動作の特徴を表す特徴量に基づいて、前記対象者の動作に関する異常の有無を分析する、
付記1から13のいずれか一項に記載の動作分析装置(10)。
前記分析部(16)は、前記動作情報に基づいて算出され、前記対象者の動作の特徴を表す特徴量に基づいて、前記対象者の動作の習熟度を分析する、
付記1から14のいずれか一項に記載の動作分析装置(10)。
前記特徴量は、前記対象者の特定の部位の軌跡の長さ及び前記対象者の動作時間の少なくともいずれかを含む、
付記14又は15に記載の動作分析装置(10)。
複数の対象者の動作を示す複数の動作情報を取得することと、
前記複数の動作情報を複数のグループのいずれかに分類することと、
前記複数のグループのうちいずれかのグループに分類された前記動作情報に基づいて、前記対象者の動作を分析することと、を含み、
前記複数の動作情報は、前記複数の対象者の骨格と関連付けられた身体の複数の部位の位置を示す骨格情報をそれぞれ含み、
前記分類することは、前記複数の動作情報を、それぞれに含まれる前記骨格情報を用いて分類することを含む、
動作分析方法。
動作分析装置(10)に備えられた演算部を、
複数の対象者の動作を示す複数の動作情報を取得する取得部(11)、
前記複数の動作情報を複数のグループのいずれかに分類する分類部(15)、及び
前記複数のグループのいずれかのグループに分類された前記動作情報に基づいて、前記対象者の動作を分析する分析部(16)、として動作させ、
前記複数の動作情報は、前記複数の対象者の骨格と関連付けられた身体の複数の部位の位置を示す骨格情報をそれぞれ含み、
前記分類部(15)は、前記複数の動作情報を、それぞれに含まれる前記骨格情報を用いて分類する、
動作分析プログラム。
複数の対象者の動作を示す複数の動作情報を測定する測定部(30)と、
前記複数の動作情報を複数のグループのいずれかに分類する分類部(15)と、
前記複数のグループのうちいずれかのグループに分類された前記動作情報に基づいて、前記対象者の動作を分析する分析部(16)と、
前記分析部(16)による分析結果を表示する表示部(10f)と、を備え、
前記複数の動作情報は、前記複数の対象者の骨格と関連付けられた身体の複数の部位の位置を示す骨格情報をそれぞれ含み、
前記分類部(15)は、前記複数の動作情報を、それぞれに含まれる前記骨格情報を用いて分類する、
動作分析システム。
Claims (19)
- 複数の対象者の動作を示す複数の動作情報を取得する取得部と、
前記複数の動作情報を複数のグループのいずれかに分類する分類部と、
前記複数のグループのいずれかのグループに分類された前記動作情報に基づいて、前記対象者の動作を分析する分析部と、を備え、
前記複数の動作情報は、前記複数の対象者の骨格と関連付けられた身体の複数の部位の位置を示す骨格情報をそれぞれ含み、
前記分類部は、前記複数の動作情報を、それぞれに含まれる前記骨格情報を用いて分類する、
動作分析装置。 - 前記分類部は、前記複数の動作情報のうちいずれかの動作情報に含まれる前記骨格情報と、前記複数の動作情報のうち他のいずれかの動作情報に含まれる前記骨格情報との差異に基づき、前記複数の動作情報を前記複数のグループのいずれかに分類する、
請求項1に記載の動作分析装置。 - 前記分類部は、前記複数の動作情報を、それぞれに含まれる前記骨格情報と所定の基準情報との差異に基づき、前記複数のグループのいずれかに分類する、
請求項1に記載の動作分析装置。 - 前記骨格情報は、前記複数の部位に対応する複数のノードの座標値を含み、
前記分類部は、前記座標値に基づいて算出される前記複数のノードの間の距離に関する分類により、前記複数の動作情報を前記複数のグループのいずれかに分類する、
請求項1から3のいずれか一項に記載の動作分析装置。 - 前記分類部は、前記複数のノードのうち隣り合う2つのノードの間の距離に関する分類により、前記複数の動作情報を前記複数のグループのいずれかに分類する、
請求項4に記載の動作分析装置。 - 前記分類部は、前記複数のノードのうち隣り合う2つのノードの間の距離と、前記複数のノードのうち他の隣り合う2つのノードの間の距離との比に関する分類により、前記動作情報を前記複数のグループのいずれかに分類する、
請求項4又は5に記載の動作分析装置。 - 前記分類部は、前記複数のノードの間の距離と、前記複数の動作情報とともに前記取得部により取得される基準距離との比に関する分類により、前記動作情報を前記複数のグループのいずれかに分類する、
請求項4から6のいずれか一項に記載の動作分析装置。 - 前記座標値は、3次元座標値を含み、
前記分類部は、前記3次元座標値に基づいて算出される前記複数のノードの間の距離に関する分類により、前記複数の動作情報を前記複数のグループのいずれかに分類する、
請求項4から7のいずれか一項に記載の動作分析装置。 - 前記座標値は、測定された時刻に関連付けられ、
前記分類部は、異なる時刻に測定された複数の前記座標値に基づいて算出される前記複数のノードの間の距離の平均に関する分類により、前記複数の動作情報を前記複数のグループのいずれかに分類する、
請求項4から8のいずれか一項に記載の動作分析装置。 - 前記複数の部位のうち、前記分類部による分類に用いる複数の部位を選択する選択部をさらに備える、
請求項1から9のいずれか一項に記載の動作分析装置。 - 前記選択部は、前記複数の対象者に共通して取得された部位であるか否かに基づいて、前記分類部による分類に用いる複数の部位を選択する、
請求項10に記載の動作分析装置。 - 前記選択部は、前記複数の部位のうち隣り合う2つの部位の間の距離と、前記複数の部位のうち他の隣り合う2つの部位の間の距離との比較に基づいて、前記分類部による分類に用いる部位を選択する、
請求項10に記載の動作分析装置。 - 前記選択部は、前記分析部による分析結果に基づいて、前記対象者に対応するコンテンツを選択する、
請求項10から12のいずれか一項に記載の動作分析装置。 - 前記分析部は、前記動作情報に基づいて算出され、前記対象者の動作の特徴を表す特徴量に基づいて、前記対象者の動作に関する異常の有無を分析する、
請求項1から13のいずれか一項に記載の動作分析装置。 - 前記分析部は、前記動作情報に基づいて算出され、前記対象者の動作の特徴を表す特徴量に基づいて、前記対象者の動作の習熟度を分析する、
請求項1から14のいずれか一項に記載の動作分析装置。 - 前記特徴量は、前記対象者の特定の部位の軌跡の長さ及び前記対象者の動作時間の少なくともいずれかを含む、
請求項14又は15に記載の動作分析装置。 - 複数の対象者の動作を示す複数の動作情報を取得することと、
前記複数の動作情報を複数のグループのいずれかに分類することと、
前記複数のグループのうちいずれかのグループに分類された前記動作情報に基づいて、前記対象者の動作を分析することと、を含み、
前記複数の動作情報は、前記複数の対象者の骨格と関連付けられた身体の複数の部位の位置を示す骨格情報をそれぞれ含み、
前記分類することは、前記複数の動作情報を、それぞれに含まれる前記骨格情報を用いて分類することを含む、
動作分析方法。 - 動作分析装置に備えられた演算部を、
複数の対象者の動作を示す複数の動作情報を取得する取得部、
前記複数の動作情報を複数のグループのいずれかに分類する分類部、及び
前記複数のグループのいずれかのグループに分類された前記動作情報に基づいて、前記対象者の動作を分析する分析部、として動作させ、
前記複数の動作情報は、前記複数の対象者の骨格と関連付けられた身体の複数の部位の位置を示す骨格情報をそれぞれ含み、
前記分類部は、前記複数の動作情報を、それぞれに含まれる前記骨格情報を用いて分類する、
動作分析プログラム。 - 複数の対象者の動作を示す複数の動作情報を測定する測定部と、
前記複数の動作情報を複数のグループのいずれかに分類する分類部と、
前記複数のグループのうちいずれかのグループに分類された前記動作情報に基づいて、前記対象者の動作を分析する分析部と、
前記分析部による分析結果を表示する表示部と、を備え、
前記複数の動作情報は、前記複数の対象者の骨格と関連付けられた身体の複数の部位の位置を示す骨格情報をそれぞれ含み、
前記分類部は、前記複数の動作情報を、それぞれに含まれる前記骨格情報を用いて分類する、
動作分析システム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018093277A JP7004218B2 (ja) | 2018-05-14 | 2018-05-14 | 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム |
CN201910279426.8A CN110490034B (zh) | 2018-05-14 | 2019-04-09 | 动作分析装置、动作分析方法、记录介质和动作分析系统 |
EP19169417.3A EP3570210B1 (en) | 2018-05-14 | 2019-04-16 | Operation analysis apparatus, operation analysis method, operation analysis program, and operation analysis system |
US16/387,656 US10964005B2 (en) | 2018-05-14 | 2019-04-18 | Operation analysis apparatus, operation analysis method, operation analysis program, and operation analysis system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018093277A JP7004218B2 (ja) | 2018-05-14 | 2018-05-14 | 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019200241A true JP2019200241A (ja) | 2019-11-21 |
JP7004218B2 JP7004218B2 (ja) | 2022-01-21 |
Family
ID=66217734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018093277A Active JP7004218B2 (ja) | 2018-05-14 | 2018-05-14 | 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10964005B2 (ja) |
EP (1) | EP3570210B1 (ja) |
JP (1) | JP7004218B2 (ja) |
CN (1) | CN110490034B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023145727A1 (ja) * | 2022-01-28 | 2023-08-03 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム、情報分析システム |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022006708A (ja) * | 2020-06-24 | 2022-01-13 | オムロン株式会社 | 動作認識システム、方法及びプログラム |
CN113111844B (zh) * | 2021-04-28 | 2022-02-15 | 中德(珠海)人工智能研究院有限公司 | 一种作业姿态评估方法、装置、本地终端及可读存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004252650A (ja) * | 2003-02-19 | 2004-09-09 | Matsushita Electric Ind Co Ltd | 注文受付装置 |
JP2008178605A (ja) * | 2007-01-25 | 2008-08-07 | Matsushita Electric Works Ltd | 背面形状分類判定方法及び背面形状分類判定装置 |
JP2009122302A (ja) * | 2007-11-14 | 2009-06-04 | Hitachi Ltd | 作業情報処理装置、プログラム及び作業情報処理方法 |
JP2012079348A (ja) * | 2012-01-23 | 2012-04-19 | Mitsubishi Electric Information Systems Corp | 人物特定装置、人物特定方法及び人物特定プログラム |
US20150092978A1 (en) * | 2013-09-27 | 2015-04-02 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for recognition of abnormal behavior |
JP2016214499A (ja) * | 2015-05-19 | 2016-12-22 | ソニー株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
WO2017150293A1 (ja) * | 2016-03-04 | 2017-09-08 | 新日鉄住金ソリューションズ株式会社 | 情報処理システム、情報処理装置、情報処理方法及びプログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8588465B2 (en) * | 2009-01-30 | 2013-11-19 | Microsoft Corporation | Visual target tracking |
JP5434569B2 (ja) * | 2009-12-22 | 2014-03-05 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
JP2011253292A (ja) * | 2010-06-01 | 2011-12-15 | Sony Corp | 情報処理装置および方法、並びにプログラム |
US9355305B2 (en) * | 2010-10-08 | 2016-05-31 | Panasonic Corporation | Posture estimation device and posture estimation method |
US9468502B2 (en) * | 2012-08-31 | 2016-10-18 | Smith & Nephew, Inc. | Patient specific implant positioning |
JP2015061577A (ja) * | 2013-01-18 | 2015-04-02 | 株式会社東芝 | 動作情報処理装置 |
JP6194777B2 (ja) * | 2013-11-29 | 2017-09-13 | 富士通株式会社 | 動作判定方法、動作判定装置および動作判定プログラム |
GB201417535D0 (en) * | 2014-10-03 | 2014-11-19 | Microsoft Corp | Adapting encoding properties |
CN106794371B (zh) * | 2014-10-10 | 2019-09-03 | 富士通株式会社 | 技能判定方法、技能判定装置以及服务器 |
CN107203756B (zh) * | 2016-06-06 | 2020-08-28 | 亮风台(上海)信息科技有限公司 | 一种识别手势的方法与设备 |
CN106228109A (zh) * | 2016-07-08 | 2016-12-14 | 天津大学 | 一种基于骨骼运动轨迹的动作识别方法 |
CN107392131A (zh) * | 2017-07-14 | 2017-11-24 | 天津大学 | 一种基于人体骨骼节点距离的动作识别方法 |
-
2018
- 2018-05-14 JP JP2018093277A patent/JP7004218B2/ja active Active
-
2019
- 2019-04-09 CN CN201910279426.8A patent/CN110490034B/zh active Active
- 2019-04-16 EP EP19169417.3A patent/EP3570210B1/en active Active
- 2019-04-18 US US16/387,656 patent/US10964005B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004252650A (ja) * | 2003-02-19 | 2004-09-09 | Matsushita Electric Ind Co Ltd | 注文受付装置 |
JP2008178605A (ja) * | 2007-01-25 | 2008-08-07 | Matsushita Electric Works Ltd | 背面形状分類判定方法及び背面形状分類判定装置 |
JP2009122302A (ja) * | 2007-11-14 | 2009-06-04 | Hitachi Ltd | 作業情報処理装置、プログラム及び作業情報処理方法 |
JP2012079348A (ja) * | 2012-01-23 | 2012-04-19 | Mitsubishi Electric Information Systems Corp | 人物特定装置、人物特定方法及び人物特定プログラム |
US20150092978A1 (en) * | 2013-09-27 | 2015-04-02 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for recognition of abnormal behavior |
JP2016214499A (ja) * | 2015-05-19 | 2016-12-22 | ソニー株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
WO2017150293A1 (ja) * | 2016-03-04 | 2017-09-08 | 新日鉄住金ソリューションズ株式会社 | 情報処理システム、情報処理装置、情報処理方法及びプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023145727A1 (ja) * | 2022-01-28 | 2023-08-03 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム、情報分析システム |
Also Published As
Publication number | Publication date |
---|---|
US10964005B2 (en) | 2021-03-30 |
EP3570210A1 (en) | 2019-11-20 |
EP3570210B1 (en) | 2024-04-10 |
CN110490034B (zh) | 2023-05-12 |
JP7004218B2 (ja) | 2022-01-21 |
CN110490034A (zh) | 2019-11-22 |
US20190347779A1 (en) | 2019-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
MassirisFernández et al. | Ergonomic risk assessment based on computer vision and machine learning | |
US11763603B2 (en) | Physical activity quantification and monitoring | |
Micallef et al. | Towards perceptual optimization of the visual design of scatterplots | |
Diego-Mas et al. | Using Kinect™ sensor in observational methods for assessing postures at work | |
JP6740033B2 (ja) | 情報処理装置、計測システム、情報処理方法及びプログラム | |
JP7004218B2 (ja) | 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム | |
WO2009147904A1 (ja) | 手指形状推定装置、手指形状の推定方法及びプログラム | |
US11547324B2 (en) | System and method for human motion detection and tracking | |
JP6629556B2 (ja) | 工程編成支援装置、工程編成支援方法 | |
US11700450B2 (en) | Motion analysis device, motion analysis method for improving motions of operator | |
US20200000414A1 (en) | Monitors for movements of workers | |
CN113728394A (zh) | 身体活动执行和训练的评分度量 | |
JP2019125023A (ja) | 動作分析システム、動作分析装置、動作分析方法及び動作分析プログラム | |
TWI776176B (zh) | 手部作業動作評分裝置、方法及電腦可讀取存儲介質 | |
US11776419B2 (en) | Skill evaluation device, skill evaluation method, and storage medium | |
US11138805B2 (en) | Quantitative quality assurance for mixed reality | |
CN111989040A (zh) | 行走形态显示方法、行走形态显示系统以及行走形态分析装置 | |
JP6928880B2 (ja) | 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム | |
KR20160076488A (ko) | 근골격계 질환의 발생가능성의 판단 장치 및 방법 | |
JP2009032033A (ja) | 動作境界検出方法および作業分析システム | |
JP7236694B2 (ja) | 情報処理方法、及び情報処理システム | |
JP7165108B2 (ja) | 作業訓練システム及び作業訓練支援方法 | |
Jayawardena et al. | Automated filtering of eye gaze metrics from dynamic areas of interest | |
US20200065631A1 (en) | Produce Assessment System | |
JP6779413B2 (ja) | 作業分析装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7004218 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |