JP6591232B2 - 連想メモリによって分類されたフレームを使用して位置に対する計量値を取得すること - Google Patents
連想メモリによって分類されたフレームを使用して位置に対する計量値を取得すること Download PDFInfo
- Publication number
- JP6591232B2 JP6591232B2 JP2015161128A JP2015161128A JP6591232B2 JP 6591232 B2 JP6591232 B2 JP 6591232B2 JP 2015161128 A JP2015161128 A JP 2015161128A JP 2015161128 A JP2015161128 A JP 2015161128A JP 6591232 B2 JP6591232 B2 JP 6591232B2
- Authority
- JP
- Japan
- Prior art keywords
- individual
- associative memory
- data
- computer
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000015654 memory Effects 0.000 title claims description 125
- 230000033001 locomotion Effects 0.000 claims description 99
- 230000009471 action Effects 0.000 claims description 73
- 238000000034 method Methods 0.000 claims description 60
- 238000003860 storage Methods 0.000 claims description 48
- 241000282414 Homo sapiens Species 0.000 claims description 46
- 238000012544 monitoring process Methods 0.000 claims description 45
- 238000004891 communication Methods 0.000 claims description 29
- 238000004458 analytical method Methods 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 8
- 230000006399 behavior Effects 0.000 claims description 6
- 238000009434 installation Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 description 71
- 238000001514 detection method Methods 0.000 description 52
- 238000012545 processing Methods 0.000 description 32
- 238000012549 training Methods 0.000 description 16
- 238000005259 measurement Methods 0.000 description 15
- 230000002085 persistent effect Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 13
- 230000000717 retained effect Effects 0.000 description 8
- 239000004744 fabric Substances 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 230000002730 additional effect Effects 0.000 description 5
- 238000002386 leaching Methods 0.000 description 5
- 230000006378 damage Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 208000027418 Wounds and injury Diseases 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000007621 cluster analysis Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 208000014674 injury Diseases 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000037081 physical activity Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000000137 annealing Methods 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000004898 kneading Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 210000000278 spinal cord Anatomy 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1116—Determining posture transitions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1118—Determining activity level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0806—Multiuser, multiprocessor or multiprocessing cache systems
- G06F12/0815—Cache consistency protocols
- G06F12/0817—Cache consistency protocols using directory methods
- G06F12/082—Associative directories
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/60—Memory management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0219—Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Pathology (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biophysics (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Description
102 運動学的検出システム
104 連想メモリ
106 以前に記録された活動
108 計量値
110 ニーリングしている人間
112 スタンディングしている人間
114 リーチングしている人間
200 分類
202 保持される電子メール
204 ジャンク電子メール
300 運動学的検出システム
302 ユーザ
304 周囲
306 スティックパーソン
400〜606 位置
700 連想メモリ
702 分類システム
704 リーチング
706 スタンディング
708 ニーリング
710〜714 結果
800 運動学的検出システム
802 人間
804〜808 時間
900 運動学的検出システム
902 運動センサ
904 プロセッサ
906 モード表示器
908 活動表示器
910 随意の電源コード
912 随意のネットワークコード
914 随意のスタンド
916 スクリーン
918 随意のプラグインプリンター
920 随意のプラグインラップトップ
1000 エンティティー比較装置
1002 共通の属性
1004 結果
1006 新しい観察
1008 スコア
1100 方法
1102〜1114 作動
1200 方法
1202〜1206 作動
1300 装置
1302 運動センサ
1306 非一時的コンピュータ可読記憶媒体
1308 解析アプリケーション
1400 システム
1402 運動学的測定装置
1404 1以上のセンサ
1406 物体
1408 連想メモリ
1410 プロセッサ
1412 モニタリングシステム
1500 データ処理システム
1502 通信ファブリック
1504 プロセッサユニット
1506 メモリ
1508 永続記憶装置
1510 通信ユニット
1512 入力/出力ユニット
1514 ディスプレー
1516 記憶装置
1518 プログラムコード
1520 コンピュータ可読媒体
1522 コンピュータプログラム製品
1524 コンピュータ可読記憶媒体
1526 コンピュータ可読信号媒体
1528 連想メモリ
Claims (10)
- 個々人の装備の設置をモニタリングするための方法(1200)であって、
個々人がニーリング、スタンディング、又はリーチングの姿勢を伴う装備の設置を行っているときに前記個々人をモニタリングするためにモーションセンサを用いること、
前記個々人の姿勢の定性記述の決定に使用するために、コンピュータ(1304)において、一定の時間間隔の間、運動センサ(1302)から前記個々人の動作の運動センサ入力データを収集すること、
連想メモリの分類を用いて前記個々人の姿勢を少なくともスタンディングか又はニーリングの一方として分類及び特定するため、かつ、共有された相対的属性に基づいて、少なくとも体を伸ばす動作を含む複数の所定の興味のある動作のうちの1つに対応する動作として、前記一定の時間間隔の間に捉えられた動作を分類するために、前記コンピュータ(1304)を使用して、前記運動センサ入力データを解析すること、
モニタリングシステム(1412)に対して、特定された所定の興味のある動作の通知を提供する出力を生成すること、及び
前記個々人がどれだけ長く潜在的に危険な姿勢を維持するかについての計量値を収集するために、前記個々人が特定された前記姿勢を維持する継続時間をモニタリングすること
を含む、方法(1200)。 - 特定された所定の興味のある動作が所定の閾値を超えた場合に、警告出力を生成することを更に含む、請求項1に記載の方法(1200)。
- 前記通知を受信したことに応答して、前記興味のある動作についての計量値(108)を収集することを更に含む、請求項1に記載の方法(1200)。
- 前記通知を受信したことに応答して、前記個々人による付加的な動作についての計量値(108)を収集することを更に含む、請求項1に記載の方法(1200)。
- 個々人の興味のある動作を特定するための装置(1300)であって、
個々人がニーリング、スタンディング、又はリーチングの姿勢を伴う装備の設置を行っているときに前記個々人をモニタリングするための運動センサ(1302)、
前記運動センサ(1302)と通信するコンピュータ(1304)であって、前記個々人の姿勢の定性記述の決定に使用するために、一定の時間間隔の間、前記個々人の動作についての運動センサデータを前記運動センサ(1302)から収集するように構成された、コンピュータ(1304)、及び
解析アプリケーション(1308)を記憶した非一時的コンピュータ可読記憶媒体(1306)
を備え、前記解析アプリケーション(1308)は、前記コンピュータ(1304)によって実行された場合に、連想メモリの分類を用いて前記個々人の姿勢を少なくともスタンディングか又はニーリングの一方として分類及び特定するため、かつ、共有された相対的属性に基づいて、少なくとも体を伸ばす動作を含む複数の所定の興味のある動作のうちの1つに対応する動作として、前記一定の時間間隔の間に捉えられた前記個々人の動作を分類するために前記運動センサデータを解析するように構成され、さらに、実行された場合に、モニタリングシステム(1412)に対して、特定された所定の興味のある動作の通知を提供する出力を生成し、かつ 前記個々人がどれだけ長く潜在的に危険な姿勢を維持するかについての計量値を収集するために、前記個々人が特定された前記姿勢を維持する継続時間をモニタリングするように更に構成されている、装置(1300)。 - 前記コンピュータが、特定された所定の興味のある動作が所定の閾値を超えた場合に、警告出力を生成するように構成されたプロセッサ(1410)を備える、請求項5に記載の装置(1300)。
- 前記コンピュータ(1304)は、前記通知を受信したことに応答して、前記興味のある動作についての計量値(108)を収集するように更に構成される、請求項5に記載の装置(1300)。
- 前記コンピュータ(1304)は、前記通知を受信したことに応答して、前記個々人による付加的な動作についての計量値(108)を収集するように更に構成される、請求項5に記載の装置(1300)。
- 複数のデータ、及び前記複数のデータ間の複数の関連性を含む連想メモリ(1408)であって、前記複数のデータは関連するグループの中へ収集され、前記連想メモリ(1408)は、前記複数のデータ間の少なくとも間接的な関係性に基づいて問い合わせされるように構成された、連想メモリ(1408)を更に備え、かつ
前記コンピュータは、プロセッサ(1410)であって、運動入力データを受信し、前記連想メモリ(1408)と連動して、前記運動入力データを前記連想メモリ(1408)内に記憶された複数の所定の動作と比較し、前記複数の所定の動作から選択された特定の動作として前記運動入力データを分類し、かつ前記特定の動作が前記複数の所定の動作のサブセットのうちの1つに合致した場合に、モニタリングシステム(1412)に通知するように構成された、プロセッサ(1410)を備える、請求項5に記載の装置(1300)。 - 前記サブセットは、前記個々人の少なくとも1つの望ましくない体勢を含む、請求項9に記載の装置(1300)。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/478,475 US9619039B2 (en) | 2014-09-05 | 2014-09-05 | Obtaining metrics for a position using frames classified by an associative memory |
US14/478,475 | 2014-09-05 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016058078A JP2016058078A (ja) | 2016-04-21 |
JP2016058078A5 JP2016058078A5 (ja) | 2018-09-27 |
JP6591232B2 true JP6591232B2 (ja) | 2019-10-16 |
Family
ID=53879327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015161128A Active JP6591232B2 (ja) | 2014-09-05 | 2015-08-18 | 連想メモリによって分類されたフレームを使用して位置に対する計量値を取得すること |
Country Status (6)
Country | Link |
---|---|
US (1) | US9619039B2 (ja) |
EP (1) | EP3001281B1 (ja) |
JP (1) | JP6591232B2 (ja) |
KR (1) | KR102252164B1 (ja) |
CN (1) | CN105404849B (ja) |
RU (1) | RU2687707C2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10161954B2 (en) * | 2016-01-22 | 2018-12-25 | Htc Corporation | Motion detecting device and detecting method for repetitive motion |
JP2020500385A (ja) * | 2016-10-20 | 2020-01-09 | ロボ−チーム ホーム リミテッド | 人間追跡ロボット |
US11521326B2 (en) | 2018-05-23 | 2022-12-06 | Prove Labs, Inc. | Systems and methods for monitoring and evaluating body movement |
JPWO2022079795A1 (ja) * | 2020-10-13 | 2022-04-21 | ||
JPWO2022079794A1 (ja) * | 2020-10-13 | 2022-04-21 | ||
KR102369151B1 (ko) * | 2021-10-05 | 2022-03-02 | 아이픽셀 주식회사 | 동작 인식을 위한 메타 데이터 생성 시스템 및 생성 방법 |
JPWO2023084780A1 (ja) * | 2021-11-15 | 2023-05-19 | ||
WO2023084778A1 (ja) * | 2021-11-15 | 2023-05-19 | 日本電気株式会社 | 画像処理装置、画像処理方法、およびプログラム |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4149262A (en) | 1977-04-19 | 1979-04-10 | Semionics Associates | Associative memory device with variable recognition criteria |
US4144564A (en) | 1977-04-19 | 1979-03-13 | Semionics Associates | Associative memory |
US5014327A (en) | 1987-06-15 | 1991-05-07 | Digital Equipment Corporation | Parallel associative memory having improved selection and decision mechanisms for recognizing and sorting relevant patterns |
RU2280894C2 (ru) * | 2001-07-18 | 2006-07-27 | Зао Интел | Распознавание жестов в динамике для последовательности стереокадров |
JP4189298B2 (ja) | 2003-10-31 | 2008-12-03 | 農工大ティー・エル・オー株式会社 | 乳児運動解析システム |
JP4642338B2 (ja) | 2003-11-04 | 2011-03-02 | 株式会社タニタ | 体動測定装置 |
NZ533460A (en) * | 2004-06-10 | 2006-10-27 | Movement Metrics Ltd | Biomechanical monitoring apparatus with motion detectors and accumulation means to indicate time period where threshold activity is exceeded |
JP2005004787A (ja) * | 2004-07-26 | 2005-01-06 | Toshiba Corp | 行動計測装置、電子的装置及び記録媒体 |
GB2426851B (en) * | 2005-05-28 | 2007-07-18 | Martin Charles Adams | An occupant monitoring system for homes or offices |
US7733224B2 (en) * | 2006-06-30 | 2010-06-08 | Bao Tran | Mesh network personal emergency response appliance |
US7827000B2 (en) * | 2006-03-03 | 2010-11-02 | Garmin Switzerland Gmbh | Method and apparatus for estimating a motion parameter |
JP2007272488A (ja) * | 2006-03-31 | 2007-10-18 | Yokogawa Electric Corp | 画像処理装置、監視カメラ及び画像監視システム |
KR100934225B1 (ko) * | 2007-09-21 | 2009-12-29 | 한국전자통신연구원 | 일상생활 행위 인식을 위한 주체자의 행위 분류 보정 장치및 방법, 이를 이용한 일상생활 행위 인식 시스템 |
US8160981B2 (en) * | 2007-09-25 | 2012-04-17 | Saffron Technology, Inc. | Event-based anticipation systems, methods and computer program products for associative memories wherein times of future events occurring are predicted |
US8996332B2 (en) * | 2008-06-24 | 2015-03-31 | Dp Technologies, Inc. | Program setting adjustments based on activity identification |
US9060714B2 (en) | 2008-12-04 | 2015-06-23 | The Regents Of The University Of California | System for detection of body motion |
US20100217533A1 (en) * | 2009-02-23 | 2010-08-26 | Laburnum Networks, Inc. | Identifying a Type of Motion of an Object |
US8560267B2 (en) * | 2009-09-15 | 2013-10-15 | Imetrikus, Inc. | Identifying one or more activities of an animate or inanimate object |
US20120302900A1 (en) * | 2010-02-12 | 2012-11-29 | Koninklijke Philips Electronics N.V. | Method and apparatus for processing a cyclic physiological signal |
US20110275042A1 (en) * | 2010-02-22 | 2011-11-10 | Warman David J | Human-motion-training system |
US20110246123A1 (en) | 2010-03-30 | 2011-10-06 | Welch Allyn, Inc. | Personal status monitoring |
US20110245688A1 (en) * | 2010-03-31 | 2011-10-06 | General Electric Company | System and method of performing electrocardiography with motion detection |
US9143843B2 (en) * | 2010-12-09 | 2015-09-22 | Sealed Air Corporation | Automated monitoring and control of safety in a production area |
EP2585835A1 (en) | 2010-06-22 | 2013-05-01 | Stephen J. McGregor | Method of monitoring human body movement |
US8903521B2 (en) * | 2010-08-26 | 2014-12-02 | Blast Motion Inc. | Motion capture element |
US8761437B2 (en) * | 2011-02-18 | 2014-06-24 | Microsoft Corporation | Motion recognition |
CA2843343C (en) * | 2011-07-28 | 2018-02-20 | Arb Labs Inc. | Systems and methods of detecting body movements using globally generated multi-dimensional gesture data |
US20130178960A1 (en) * | 2012-01-10 | 2013-07-11 | University Of Washington Through Its Center For Commercialization | Systems and methods for remote monitoring of exercise performance metrics |
US9448636B2 (en) * | 2012-04-18 | 2016-09-20 | Arb Labs Inc. | Identifying gestures using gesture data compressed by PCA, principal joint variable analysis, and compressed feature matrices |
US8914604B2 (en) * | 2012-06-12 | 2014-12-16 | The Boeing Company | Creating optimal comparison criterion within associative memories |
EP2703932A1 (en) * | 2012-08-28 | 2014-03-05 | SimpliFlow GmbH | Personal communication device for managing individual fitness training |
US9564042B2 (en) * | 2013-06-13 | 2017-02-07 | Motorola Solutions, Inc. | Communication system with improved safety feature |
US9576192B2 (en) * | 2014-03-12 | 2017-02-21 | Yamaha Corporation | Method and apparatus for notifying motion |
US9298269B2 (en) * | 2014-04-10 | 2016-03-29 | The Boeing Company | Identifying movements using a motion sensing device coupled with an associative memory |
US9911031B2 (en) | 2014-09-05 | 2018-03-06 | The Boeing Company | Obtaining metrics for a position using frames classified by an associative memory |
-
2014
- 2014-09-05 US US14/478,475 patent/US9619039B2/en active Active
-
2015
- 2015-07-31 EP EP15179309.8A patent/EP3001281B1/en active Active
- 2015-08-03 RU RU2015132214A patent/RU2687707C2/ru active
- 2015-08-18 JP JP2015161128A patent/JP6591232B2/ja active Active
- 2015-09-01 CN CN201510550117.1A patent/CN105404849B/zh active Active
- 2015-09-01 KR KR1020150123476A patent/KR102252164B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
EP3001281B1 (en) | 2020-12-09 |
KR102252164B1 (ko) | 2021-05-14 |
US20160070355A1 (en) | 2016-03-10 |
RU2687707C2 (ru) | 2019-05-15 |
CN105404849A (zh) | 2016-03-16 |
US9619039B2 (en) | 2017-04-11 |
JP2016058078A (ja) | 2016-04-21 |
CN105404849B (zh) | 2021-02-05 |
KR20160029674A (ko) | 2016-03-15 |
EP3001281A1 (en) | 2016-03-30 |
RU2015132214A (ru) | 2017-02-08 |
RU2015132214A3 (ja) | 2018-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6591232B2 (ja) | 連想メモリによって分類されたフレームを使用して位置に対する計量値を取得すること | |
US9911031B2 (en) | Obtaining metrics for a position using frames classified by an associative memory | |
Otoom et al. | An IoT-based framework for early identification and monitoring of COVID-19 cases | |
Vankipuram et al. | Toward automated workflow analysis and visualization in clinical environments | |
JP6969859B2 (ja) | アソシエーティブメモリに連結された動作検知装置を用いた運動の識別 | |
Dehbandi et al. | Using data from the Microsoft Kinect 2 to determine postural stability in healthy subjects: A feasibility trial | |
JP2008191842A (ja) | 評価調査装置及び評価調査方法 | |
JP2018147407A (ja) | 要因推定装置、要因推定システム、および要因推定方法 | |
US20220125359A1 (en) | Systems and methods for automated monitoring of human behavior | |
Chand et al. | Tracking a person’s behaviour in a smart house | |
Clark et al. | Comparison of three algorithms using thigh-worn accelerometers for classifying sitting, standing, and stepping in free-living office workers | |
Wlodarczak et al. | Reality mining in eHealth | |
Raza et al. | Vision-based approach to assess performance levels while eating | |
Rafferty et al. | NFC based dataset annotation within a behavioral alerting platform | |
Das et al. | Activity recognition using multi-class classification inside an educational building | |
US11361537B2 (en) | Enhanced collection of training data for machine learning to improve worksite safety and operations | |
Nokhbeh Zaeem | Cause and effect: Concept-based explanation of neural networks | |
Faiyaz et al. | Dominance of Deep LSTM in Smartphone Sensor based Human Activity Classification | |
Benba et al. | The application of machine learning on the sensors of smartphones to detect falls in real-time | |
Wadiwala et al. | Thick Data Analytics through Ensemble Techniques: Identifying Personalized EEG Biometrics based on Eye State Prediction | |
Garneau | Measuring and Inferring the State of the User via the Microsoft Kinect with Application to Cyber Security Research | |
Augustyniak | Description of human activity using behavioral primitives | |
CARBONARI | DEVELOPMENT OF A NON-INVASIVE ULTRASONIC SENSOR NETWORK FOR THE MEASUREMENT OF ACTIVITIES OF PEOPLE IN INDOOR ENVIRONMENT TOWARDS OPTIMIZED PERSONALIZED COMFORT | |
Ghosh et al. | An Online Pattern Based Activity Discovery: In Context of Geriatric Care | |
Raut et al. | Posture recognition associated with lifting of heavy objects using Kinect and Adaboost |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180820 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180820 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190826 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190910 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190918 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6591232 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |