JP2020149492A - 動作分析装置、動作分析方法及び動作分析プログラム - Google Patents
動作分析装置、動作分析方法及び動作分析プログラム Download PDFInfo
- Publication number
- JP2020149492A JP2020149492A JP2019047584A JP2019047584A JP2020149492A JP 2020149492 A JP2020149492 A JP 2020149492A JP 2019047584 A JP2019047584 A JP 2019047584A JP 2019047584 A JP2019047584 A JP 2019047584A JP 2020149492 A JP2020149492 A JP 2020149492A
- Authority
- JP
- Japan
- Prior art keywords
- data
- motion
- type
- operator
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0633—Workflow analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C1/00—Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people
- G07C1/10—Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people together with the recording, indicating or registering of other data, e.g. of signs of identity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Human Resources & Organizations (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Strategic Management (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Entrepreneurship & Innovation (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Educational Administration (AREA)
- Development Economics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Game Theory and Decision Science (AREA)
- General Business, Economics & Management (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Tourism & Hospitality (AREA)
- Data Mining & Analysis (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
Description
まず、図1を用いて、本発明が適用される場面の一例について説明する。本実施形態に係る動作分析システム100は、ある作業領域Rにおいて実行される作業者の動作を示す動画を撮影する第1撮影部20a、第2撮影部20b及び第3撮影部20cを備える。本例の作業領域Rは、製造ライン全体を含む領域であるが、作業領域Rは、任意の領域であってよく、例えば所定の工程が行われる領域であったり、所定の要素動作が行われる領域であったりしてよい。ここで、要素動作とは、作業者により実行される一単位の動作であり、例えば、部品のピッキング、部品の配置、部品の固定、製品の梱包といった動作を含む。本実施形態では、作業領域Rにおいて3つの工程が行われ、第1撮影部20a、第2撮影部20b及び第3撮影部20cは、それぞれ所定の工程を実行する作業者の手元の動画を撮影するものであってよい。
[機能構成]
次に、図2を用いて、本実施形態に係る動作分析システム100の機能構成の一例を説明する。動作分析システム100は、第1撮影部20a、第2撮影部20b、第3撮影部20c及び動作分析装置10を備える。そして、動作分析装置10は、取得部11、解析部12、記憶部13、学習部14、算出部15、出力部16及び表示部10fを備える。
第1撮影部20a、第2撮影部20b及び第3撮影部20cは、それぞれ汎用のカメラによって構成されてよく、作業領域Rにおいて第1作業者A1及び第2作業者A2が動作を実行している場面を含む動画を撮影してよい。第1撮影部20a、第2撮影部20b及び第3撮影部20cは、それぞれ作業領域Rの一部を撮影してよく、作業領域Rよりも狭い領域の動画を撮影してよい。具体的には、第1作業者A1及び第2作業者A2により実行される動作をクローズアップした動画を撮影してよい。第1撮影部20a、第2撮影部20b及び第3撮影部20cは、例えば、第1作業者A1及び第2作業者A2の手元をクローズアップした動画を撮影してよい。
取得部11は、作業者Aにより実行された所定の動作を示す動作データを取得する。ここで、動作データは、動作者により実行された所定の動作を示す任意のデータである。例えば、動作者が作業者Aである場合、動作データは、作業者Aの動作を示す動画であったり、動画を解析して得られる座標値であったりしてよい。もっとも、動作データは、モーションキャプチャにより測定された動作者の動作を示す座標値であったり、加速度センサやジャイロセンサを動作者に装着させることで測定される動作者の動作を示すデータであったりしてもよい。取得部11により取得された動画は、記憶部13に伝送され、動画履歴13aとして記憶される。
解析部12は、作業者Aにより実行された所定の動作を示す動画を解析し、作業者Aの動作を示す座標値を含む動作データを算出する。動作データは、作業者Aの身体の代表的な位置の変位を示すデータであってよい。作業者の身体の代表的な位置は、身体の1つの位置であってもよいが、典型的には複数あってよい。動作データは、作業者Aの関節の位置を骨格モデルによって示すデータであってよい。解析部12は、例えば、Zhe Cao、外3名、"Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields", arXiv:1611.08050, 2016により開示された技術を用いて、動画から作業者Aの動作を示す座標値を含む動作データを算出してよい。なお、加速度センサやジャイロセンサを作業者Aに装着させて作業者Aの動作を示す動作データを測定する場合、解析部12によって動画から作業者Aの動作を示す座標値を含む動作データを算出する処理は不要となる。
記憶部13は、動画履歴13a、第1動作データ履歴13b及び学習モデル13cを記憶する。動画履歴13aは、第1撮影部20a、第2撮影部20b及び第3撮影部20cにより撮影された動画の履歴を含む。第1動作データ履歴13bは、解析部12により算出された動作データの履歴を含み、第1タイプの動作者により実行された所定の動作を示す第1動作データの履歴を含む。ここで、第1動作データ履歴13bは、動作者のタイプ毎に記憶されてもよい。動作者のタイプとは、動作者の特徴を表す分類であり、例えば、作業に関する熟練者と初心者であったり、右利きと左利きであったり、男性と女性であったり、体格に関して大柄と小柄であったり、若年と中年であったり、動作データを測定した時期の違いであったりしてよい。学習モデル13cは、動作データを入力として受け付けて、入力された動作データを再現する予測データを出力する。学習モデル13cの構成の一例は、図5を用いて説明する。
学習部14は、第1タイプの動作者により実行された所定の動作を示す第1動作データを入力として、第1動作データを再現する予測データを出力するように学習モデル13cを学習させる。ここで、学習モデル13cに入力する第1動作データは、第1動作データ履歴13bから選択されてよい。
算出部15は、第1タイプと異なる第2タイプの動作者により実行された所定の動作を示す第2動作データを学習モデル13cに入力した場合に学習モデル13cから出力される予測データと、第2動作データとの差異を算出する。学習モデル13cは、第1動作データを再現するように学習されたモデルであるから、第2動作データが第1動作データと異なる特徴を含む場合、その部分について予測データは第2動作データから乖離すると考えられる。
出力部16は、算出部15により算出された予測データと第2動作データとの差異に基づいて特定される情報を出力する。出力部16は、例えば、予測データと第2動作データとの差異が所定の期間以上継続して閾値より大きい第2動作データの区間を出力してよい。第2動作データを学習モデル13cに入力した場合に学習モデル13cから出力される予測データが継続的に第2動作データと乖離する区間を出力することで、ノイズの影響を低減して第2タイプの動作者に特有の動作状態を識別することができる。
次に、図3を用いて、本実施形態に係る動作分析装置10のハードウェア構成の一例を説明する。動作分析装置10は、演算装置に相当するCPU(Central Processing Unit)10aと、記憶部13に相当するRAM(Random Access Memory)10bと、記憶部13に相当するROM(Read only Memory)10cと、通信部10dと、入力部10eと、表示部10fとを有する。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。なお、本例では動作分析装置10が一台のコンピュータで構成される場合について説明するが、動作分析装置10は、複数のコンピュータを用いて実現されてもよい。
図4は、本実施形態に係る動作分析装置10により分析される初心者及び熟練者の動作の種類をまとめた表である。同図では、初心者及び熟練者の動作が、「初心者に特有の動作」、「ベース動作」及び「熟練者に特有の動作」のいずれを含むかを示している。
第1タイプの動作者により実行された所定の動作を示す第1動作データを入力として、前記第1動作データを再現する予測データを出力するように学習モデルを学習させる学習部(14)と、
前記第1タイプと異なる第2タイプの動作者により実行された前記所定の動作を示す第2動作データを前記学習モデルに入力した場合に前記学習モデルから出力される前記予測データと、前記第2動作データとの差異を算出する算出部(15)と、
前記差異に基づいて特定される情報を出力する出力部(16)と、
を備える動作分析装置(10)。
前記出力部(16)は、前記差異が所定の期間以上継続して閾値より大きい前記第2動作データの区間を出力する、
付記1に記載の動作分析装置(10)。
前記出力部(16)は、前記差異が所定の期間以上継続して閾値より小さい前記第2動作データの区間を出力する、
付記1に記載の動作分析装置(10)。
前記出力部(16)は、前記第2動作データのうち、前記区間に対応する部分を出力する、
付記2又は3に記載の動作分析装置(10)。
前記算出部(15)は、前記第1動作データに関する前記予測データと、前記第1動作データとの差の二乗により差異データを算出し、前記差異データの平均及び標準偏差に基づいて、前記閾値を算出する、
付記2から4のいずれか一項に記載の動作分析装置(10)。
前記学習モデルは、ニューラルネットワークをエンコーダ及びデコーダに用いたオートエンコーダを含む、
付記1から5のいずれか一項に記載の動作分析装置(10)。
前記第2タイプの動作者は、前記第1タイプの動作者と異なる人物であり、
前記第2タイプの動作者は、前記第1タイプの動作者と比較して、前記所定の動作の熟練度、年齢、身体的特徴及び性別の少なくともいずれかが異なる、
付記1から6のいずれか一項に記載の動作分析装置(10)。
前記第2タイプの動作者は、前記第1タイプの動作者と同一の人物であり、
前記第2動作データは、前記第1動作データと異なる時に測定されている、
付記1から6のいずれか一項に記載の動作分析装置(10)。
第1タイプの動作者により実行された所定の動作を示す第1動作データを入力として、前記第1動作データを再現する予測データを出力するように学習モデルを学習させることと、
前記第1タイプと異なる第2タイプの動作者により実行された前記所定の動作を示す第2動作データを前記学習モデルに入力した場合に前記学習モデルから出力される前記予測データと、前記第2動作データとの差異を算出することと、
前記差異に基づいて特定される情報を出力することと、
を含む動作分析方法。
1又は複数のコンピュータに、
第1タイプの動作者により実行された所定の動作を示す第1動作データを入力として、前記第1動作データを再現する予測データを出力するように学習モデルを学習させることと、
前記第1タイプと異なる第2タイプの動作者により実行された前記所定の動作を示す第2動作データを前記学習モデルに入力した場合に前記学習モデルから出力される前記予測データと、前記第2動作データとの差異を算出することと、
前記差異に基づいて特定される情報を出力することと、
を実行させる動作分析プログラム。
Claims (10)
- 第1タイプの動作者により実行された所定の動作を示す第1動作データを入力として、前記第1動作データを再現する予測データを出力するように学習モデルを学習させる学習部と、
前記第1タイプと異なる第2タイプの動作者により実行された前記所定の動作を示す第2動作データを前記学習モデルに入力した場合に前記学習モデルから出力される前記予測データと、前記第2動作データとの差異を算出する算出部と、
前記差異に基づいて特定される情報を出力する出力部と、
を備える動作分析装置。 - 前記出力部は、前記差異が所定の期間以上継続して閾値より大きい前記第2動作データの区間を出力する、
請求項1に記載の動作分析装置。 - 前記出力部は、前記差異が所定の期間以上継続して閾値より小さい前記第2動作データの区間を出力する、
請求項1に記載の動作分析装置。 - 前記出力部は、前記第2動作データのうち、前記区間に対応する部分を出力する、
請求項2又は3に記載の動作分析装置。 - 前記算出部は、前記第1動作データに関する前記予測データと、前記第1動作データとの差の二乗により差異データを算出し、前記差異データの平均及び標準偏差に基づいて、前記閾値を算出する、
請求項2から4のいずれか一項に記載の動作分析装置。 - 前記学習モデルは、ニューラルネットワークをエンコーダ及びデコーダに用いたオートエンコーダを含む、
請求項1から5のいずれか一項に記載の動作分析装置。 - 前記第2タイプの動作者は、前記第1タイプの動作者と異なる人物であり、
前記第2タイプの動作者は、前記第1タイプの動作者と比較して、前記所定の動作の熟練度、年齢、身体的特徴及び性別の少なくともいずれかが異なる、
請求項1から6のいずれか一項に記載の動作分析装置。 - 前記第2タイプの動作者は、前記第1タイプの動作者と同一の人物であり、
前記第2動作データは、前記第1動作データと異なる時に測定されている、
請求項1から6のいずれか一項に記載の動作分析装置。 - 第1タイプの動作者により実行された所定の動作を示す第1動作データを入力として、前記第1動作データを再現する予測データを出力するように学習モデルを学習させることと、
前記第1タイプと異なる第2タイプの動作者により実行された前記所定の動作を示す第2動作データを前記学習モデルに入力した場合に前記学習モデルから出力される前記予測データと、前記第2動作データとの差異を算出することと、
前記差異に基づいて特定される情報を出力することと、
を含む動作分析方法。 - 1又は複数のコンピュータに、
第1タイプの動作者により実行された所定の動作を示す第1動作データを入力として、前記第1動作データを再現する予測データを出力するように学習モデルを学習させることと、
前記第1タイプと異なる第2タイプの動作者により実行された前記所定の動作を示す第2動作データを前記学習モデルに入力した場合に前記学習モデルから出力される前記予測データと、前記第2動作データとの差異を算出することと、
前記差異に基づいて特定される情報を出力することと、
を実行させる動作分析プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019047584A JP7137150B2 (ja) | 2019-03-14 | 2019-03-14 | 動作分析装置、動作分析方法及び動作分析プログラム |
CN202080004483.6A CN112543942B (zh) | 2019-03-14 | 2020-03-11 | 动作分析装置、动作分析方法及存储介质 |
PCT/JP2020/010444 WO2020184600A1 (ja) | 2019-03-14 | 2020-03-11 | 動作分析装置、動作分析方法及び動作分析プログラム |
EP20769352.4A EP3940598A4 (en) | 2019-03-14 | 2020-03-11 | MOTION ANALYSIS DEVICE, MOTION ANALYSIS METHOD AND MOTION ANALYSIS PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019047584A JP7137150B2 (ja) | 2019-03-14 | 2019-03-14 | 動作分析装置、動作分析方法及び動作分析プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020149492A true JP2020149492A (ja) | 2020-09-17 |
JP7137150B2 JP7137150B2 (ja) | 2022-09-14 |
Family
ID=72426079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019047584A Active JP7137150B2 (ja) | 2019-03-14 | 2019-03-14 | 動作分析装置、動作分析方法及び動作分析プログラム |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP3940598A4 (ja) |
JP (1) | JP7137150B2 (ja) |
CN (1) | CN112543942B (ja) |
WO (1) | WO2020184600A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023210187A1 (ja) * | 2022-04-26 | 2023-11-02 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
WO2024080086A1 (ja) * | 2022-10-11 | 2024-04-18 | ソフトバンクグループ株式会社 | Autonomous Driving 10 finger |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006302122A (ja) * | 2005-04-22 | 2006-11-02 | Nippon Telegr & Teleph Corp <Ntt> | 運動支援システムとその利用者端末装置及び運動支援プログラム |
US20190065949A1 (en) * | 2017-08-25 | 2019-02-28 | Kabushiki Kaisha Toshiba | Detection system and detection method |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS497800B1 (ja) | 1969-02-13 | 1974-02-22 | ||
GB1411063A (en) | 1973-02-14 | 1975-10-22 | Ciba Geigy Uk Ltd | Polymerisation process |
JP3747800B2 (ja) * | 2001-05-10 | 2006-02-22 | 日本電気株式会社 | 技能向上支援装置 |
JP5455787B2 (ja) * | 2010-05-27 | 2014-03-26 | パナソニック株式会社 | 動作解析装置および動作解析方法 |
JP5757482B2 (ja) * | 2011-10-21 | 2015-07-29 | トヨタ自動車東日本株式会社 | 技能習得支援システム及び技能習得支援方法 |
US9870622B1 (en) * | 2016-07-18 | 2018-01-16 | Dyaco International, Inc. | Systems and methods for analyzing a motion based on images |
JP2018067294A (ja) * | 2016-10-14 | 2018-04-26 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 学習データ作成支援方法、学習データ作成支援装置、およびプログラム |
JP6710644B2 (ja) * | 2017-01-05 | 2020-06-17 | 株式会社東芝 | 動作解析装置、動作解析方法およびプログラム |
JP6585654B2 (ja) * | 2017-05-01 | 2019-10-02 | 日本電信電話株式会社 | 判定装置、分析システム、判定方法および判定プログラム |
JP6577532B2 (ja) * | 2017-07-28 | 2019-09-18 | ファナック株式会社 | 機械学習装置、及びユーザ識別装置 |
CN109271845A (zh) * | 2018-07-31 | 2019-01-25 | 浙江理工大学 | 基于计算机视觉的人体动作分析与评价方法 |
-
2019
- 2019-03-14 JP JP2019047584A patent/JP7137150B2/ja active Active
-
2020
- 2020-03-11 EP EP20769352.4A patent/EP3940598A4/en active Pending
- 2020-03-11 CN CN202080004483.6A patent/CN112543942B/zh active Active
- 2020-03-11 WO PCT/JP2020/010444 patent/WO2020184600A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006302122A (ja) * | 2005-04-22 | 2006-11-02 | Nippon Telegr & Teleph Corp <Ntt> | 運動支援システムとその利用者端末装置及び運動支援プログラム |
US20190065949A1 (en) * | 2017-08-25 | 2019-02-28 | Kabushiki Kaisha Toshiba | Detection system and detection method |
Non-Patent Citations (1)
Title |
---|
菅原 俊 ほか: "「AutoEncoderを用いたオンライン手書き認証」", 電子情報通信学会技術研究報告, vol. 第115巻, 第 117号, JPN6020018075, 22 June 2015 (2015-06-22), pages 27 - 32, ISSN: 0004689329 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023210187A1 (ja) * | 2022-04-26 | 2023-11-02 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
WO2024080086A1 (ja) * | 2022-10-11 | 2024-04-18 | ソフトバンクグループ株式会社 | Autonomous Driving 10 finger |
Also Published As
Publication number | Publication date |
---|---|
EP3940598A4 (en) | 2022-12-28 |
WO2020184600A1 (ja) | 2020-09-17 |
EP3940598A1 (en) | 2022-01-19 |
CN112543942B (zh) | 2024-08-09 |
JP7137150B2 (ja) | 2022-09-14 |
CN112543942A (zh) | 2021-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Diego-Mas et al. | Using Kinect™ sensor in observational methods for assessing postures at work | |
US11763603B2 (en) | Physical activity quantification and monitoring | |
CN111902847A (zh) | 手部状态表示模型估计的实时处理 | |
WO2020184600A1 (ja) | 動作分析装置、動作分析方法及び動作分析プログラム | |
CN110956139B (zh) | 一种基于时间序列回归预测的人体运动动作分析方法 | |
Liu et al. | Assessing the manipulative potentials of monkeys, apes and humans from hand proportions: implications for hand evolution | |
CN114967937A (zh) | 一种虚拟人运动生成方法与系统 | |
CN110956141A (zh) | 一种基于局部识别的人体连续动作快速分析方法 | |
Edwards et al. | Low-latency filtering of kinect skeleton data for video game control | |
Hoang et al. | Towards a comprehensive solution for a vision-based digitized neurological examination | |
Liu et al. | Trampoline motion decomposition method based on deep learning image recognition | |
Olivas-Padilla et al. | Motion capture benchmark of real industrial tasks and traditional crafts for human movement analysis | |
CN113887501A (zh) | 行为识别方法、装置、存储介质及电子设备 | |
CN117523659A (zh) | 基于骨架的多特征多流实时动作识别方法、装置和介质 | |
CN112149531B (zh) | 一种行为识别中人体骨骼数据的建模方法 | |
JP7061272B2 (ja) | 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム | |
JP7561319B2 (ja) | 動作認識システム、方法及びプログラム | |
CN116740618A (zh) | 一种运动视频动作评估方法、系统、计算机设备及介质 | |
CN113240044B (zh) | 一种基于多Kinect的人体骨骼数据融合评价方法 | |
Igelmo et al. | Aiding observational ergonomic evaluation methods using MOCAP systems supported by AI-based posture recognition | |
JP7339604B2 (ja) | 動作認識装置、動作認識方法、動作認識プログラム及び動作認識システム | |
CN116528759A (zh) | 信息处理装置、信息处理方法和程序 | |
CN113836991A (zh) | 动作识别系统、动作识别方法及存储介质 | |
JP2022006885A (ja) | 動作認識装置、動作認識方法及び動作認識プログラム | |
CN114882581B (zh) | 一种面向噪声骨架数据的数据增强与人体动作识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220325 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220803 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220816 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7137150 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |