CN111742327A - 用于实施可移动处理装置的定位的设备和方法 - Google Patents
用于实施可移动处理装置的定位的设备和方法 Download PDFInfo
- Publication number
- CN111742327A CN111742327A CN201980014214.5A CN201980014214A CN111742327A CN 111742327 A CN111742327 A CN 111742327A CN 201980014214 A CN201980014214 A CN 201980014214A CN 111742327 A CN111742327 A CN 111742327A
- Authority
- CN
- China
- Prior art keywords
- inertial sensor
- sensor data
- target surface
- movable
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000012545 processing Methods 0.000 title claims abstract description 79
- 238000013528 artificial neural network Methods 0.000 claims abstract description 76
- 238000003909 pattern recognition Methods 0.000 claims abstract description 34
- 238000013507 mapping Methods 0.000 claims abstract description 23
- 230000008569 process Effects 0.000 claims abstract description 14
- 238000011156 evaluation Methods 0.000 claims abstract description 11
- 230000001537 neural effect Effects 0.000 claims description 79
- 210000004513 dentition Anatomy 0.000 claims description 62
- 230000036346 tooth eruption Effects 0.000 claims description 62
- 238000004590 computer program Methods 0.000 claims description 16
- 230000001133 acceleration Effects 0.000 claims description 7
- 230000000306 recurrent effect Effects 0.000 claims description 3
- 210000005036 nerve Anatomy 0.000 claims description 2
- 230000001680 brushing effect Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 13
- 230000000875 corresponding effect Effects 0.000 description 9
- 230000009471 action Effects 0.000 description 6
- 238000007621 cluster analysis Methods 0.000 description 6
- 238000005070 sampling Methods 0.000 description 6
- 239000007787 solid Substances 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 210000004027 cell Anatomy 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 241000628997 Flos Species 0.000 description 2
- 108010076504 Protein Sorting Signals Proteins 0.000 description 2
- 244000007853 Sarothamnus scoparius Species 0.000 description 2
- 241000347389 Serranus cabrilla Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 210000004283 incisor Anatomy 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000005201 scrubbing Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 238000002620 method output Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000005019 pattern of movement Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000010349 pulsation Effects 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C17/00—Devices for cleaning, polishing, rinsing or drying teeth, teeth cavities or prostheses; Saliva removers; Dental appliances for receiving spittle
- A61C17/16—Power-driven cleaning or polishing devices
- A61C17/22—Power-driven cleaning or polishing devices with brushes, cushions, cups, or the like
- A61C17/221—Control arrangements therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- A—HUMAN NECESSITIES
- A46—BRUSHWARE
- A46B—BRUSHES
- A46B15/00—Other brushes; Brushes with additional arrangements
- A46B15/0002—Arrangements for enhancing monitoring or controlling the brushing process
-
- A—HUMAN NECESSITIES
- A46—BRUSHWARE
- A46B—BRUSHES
- A46B15/00—Other brushes; Brushes with additional arrangements
- A46B15/0055—Brushes combined with other articles normally separate from the brushing process, e.g. combs, razors, mirrors
- A46B15/0069—Brushes fitted with a interdental devices, e.g. toothpick
- A46B15/0073—Brushes with an arrangement for using the floss
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C17/00—Devices for cleaning, polishing, rinsing or drying teeth, teeth cavities or prostheses; Saliva removers; Dental appliances for receiving spittle
- A61C17/16—Power-driven cleaning or polishing devices
- A61C17/22—Power-driven cleaning or polishing devices with brushes, cushions, cups, or the like
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C17/00—Devices for cleaning, polishing, rinsing or drying teeth, teeth cavities or prostheses; Saliva removers; Dental appliances for receiving spittle
- A61C17/16—Power-driven cleaning or polishing devices
- A61C17/22—Power-driven cleaning or polishing devices with brushes, cushions, cups, or the like
- A61C17/24—Power-driven cleaning or polishing devices with brushes, cushions, cups, or the like rotating continuously
- A61C17/26—Power-driven cleaning or polishing devices with brushes, cushions, cups, or the like rotating continuously driven by electric motor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/28—Databases characterised by their database models, e.g. relational or object models
- G06F16/284—Relational databases
- G06F16/285—Clustering or classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
-
- A—HUMAN NECESSITIES
- A46—BRUSHWARE
- A46B—BRUSHES
- A46B15/00—Other brushes; Brushes with additional arrangements
- A46B15/0002—Arrangements for enhancing monitoring or controlling the brushing process
- A46B15/0016—Arrangements for enhancing monitoring or controlling the brushing process with enhancing means
- A46B15/0036—Arrangements for enhancing monitoring or controlling the brushing process with enhancing means with a lighting means, e.g. laser, bulb
-
- A—HUMAN NECESSITIES
- A46—BRUSHWARE
- A46B—BRUSHES
- A46B15/00—Other brushes; Brushes with additional arrangements
- A46B15/0002—Arrangements for enhancing monitoring or controlling the brushing process
- A46B15/0038—Arrangements for enhancing monitoring or controlling the brushing process with signalling means
-
- A—HUMAN NECESSITIES
- A46—BRUSHWARE
- A46B—BRUSHES
- A46B15/00—Other brushes; Brushes with additional arrangements
- A46B15/0002—Arrangements for enhancing monitoring or controlling the brushing process
- A46B15/0038—Arrangements for enhancing monitoring or controlling the brushing process with signalling means
- A46B15/004—Arrangements for enhancing monitoring or controlling the brushing process with signalling means with an acoustic signalling means, e.g. noise
-
- A—HUMAN NECESSITIES
- A46—BRUSHWARE
- A46B—BRUSHES
- A46B15/00—Other brushes; Brushes with additional arrangements
- A46B15/0055—Brushes combined with other articles normally separate from the brushing process, e.g. combs, razors, mirrors
- A46B15/0069—Brushes fitted with a interdental devices, e.g. toothpick
- A46B15/0071—Toothbrushes with flossing arrangements
-
- A—HUMAN NECESSITIES
- A46—BRUSHWARE
- A46B—BRUSHES
- A46B2200/00—Brushes characterized by their functions, uses or applications
- A46B2200/10—For human or animal care
- A46B2200/1066—Toothbrush for cleaning the teeth or dentures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0219—Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0247—Pressure sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0252—Load cells
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C17/00—Devices for cleaning, polishing, rinsing or drying teeth, teeth cavities or prostheses; Saliva removers; Dental appliances for receiving spittle
- A61C17/16—Power-driven cleaning or polishing devices
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C17/00—Devices for cleaning, polishing, rinsing or drying teeth, teeth cavities or prostheses; Saliva removers; Dental appliances for receiving spittle
- A61C17/16—Power-driven cleaning or polishing devices
- A61C17/22—Power-driven cleaning or polishing devices with brushes, cushions, cups, or the like
- A61C17/32—Power-driven cleaning or polishing devices with brushes, cushions, cups, or the like reciprocating or oscillating
- A61C17/34—Power-driven cleaning or polishing devices with brushes, cushions, cups, or the like reciprocating or oscillating driven by electric motor
- A61C17/3409—Power-driven cleaning or polishing devices with brushes, cushions, cups, or the like reciprocating or oscillating driven by electric motor characterized by the movement of the brush body
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B26—HAND CUTTING TOOLS; CUTTING; SEVERING
- B26B—HAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
- B26B21/00—Razors of the open or knife type; Safety razors or other shaving implements of the planing type; Hair-trimming devices involving a razor-blade; Equipment therefor
- B26B21/40—Details or accessories
- B26B21/405—Electric features; Charging; Computing devices
- B26B21/4056—Sensors or controlling means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B26—HAND CUTTING TOOLS; CUTTING; SEVERING
- B26B—HAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
- B26B21/00—Razors of the open or knife type; Safety razors or other shaving implements of the planing type; Hair-trimming devices involving a razor-blade; Equipment therefor
- B26B21/40—Details or accessories
- B26B21/4081—Shaving methods; Usage or wear indication; Testing methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
- G06F2218/16—Classification; Matching by matching signal segments
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Epidemiology (AREA)
- Dentistry (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Emergency Management (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Brushes (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Manipulator (AREA)
- Arrangements For Transmission Of Measured Signals (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种用于实施可移动处理装置(11)相对于目标表面(12)的定位的方法和设备,所述可移动处理装置(11)具有惯性传感器(13)并且被配置成处理所述目标表面(12)。所述设备(10)可具有:运动模式识别装置(14),所述运动模式识别装置被配置成区分包含在所述可移动处理装置(11)的运动模式集合(15)中的两个或更多个运动模式(151,152,153,…,15n);和接口(16),所述接口用于将来自所述惯性传感器(13)的至少一个惯性传感器数据(171,172,173,…,17n)提供到所述运动模式识别装置(14),所述至少一个惯性传感器数据(171,172,173,…,17n)表示所述可移动处理装置(11)的移动。所述运动模式识别装置(14)具有神经网络(18),所述神经网络被配置成接收所述至少一个惯性传感器数据(171,172,173,…,17n)并且将所述至少一个惯性传感器数据(171,172,173,…,17n)映射到包含在所述运动模式集合(15)中的至少一个运动模式(151,152,153,…,15n),其中所述运动模式(151,152,153,…,15n)各自与所述目标表面(12)的一个或多个不同区域(211,212,213,…,21n)相关联(201,202,203,…,20n),使得所述至少一个惯性传感器数据(171,172,173,…,17n)与所述至少一个运动模式(151,152,153,…,15n)的所述映射指示对所述可移动处理装置(11)相对于所述目标表面(12)的所述一个或多个区域(211,212,213,…,21n)的定位的评估。
Description
技术领域
本发明的实施方案涉及一种用于实施可移动处理装置的定位的设备、用于实施可移动处理装置的定位的方法、以及当在计算机或信号处理器上被执行时用于实现用于实施可移动处理装置的定位的所述方法的计算机程序。
本发明的另外的实施方案涉及一种用于对可移动个人器具的运动进行分类的设备、用于对可移动个人器具的运动进行分类的方法、以及当在计算机或信号处理器上被执行时用于实现用于对可移动个人器具的运动进行分类的所述方法的计算机程序。
背景技术
可移动处理装置可用于处理表面等。例如,可移动处理装置可涉及个人器具,诸如发刷、剃刀、梳毛器、牙刷等。在这些示例中,待处理的表面可为身体或所述身体的至少某个部分或区域。
可移动处理装置的其他示例可例如涉及家用器具,诸如扫帚、拖把、洗擦刷等。在这些示例中,待处理的表面可为地板或所述地板的至少某个部分或区域。
在一些应用中,知道可移动处理装置的当前位置可能是有用的。在一些应用中,附加地或另选地对可移动处理装置的运动进行分类可能是有用的,特别是在个人器具的情况下。
如今,成像技术可用于对可移动处理装置相对于目标表面进行定位,例如,借助于捕捉所述目标表面的相机。还可以知道使用传感器诸如GPS传感器或类似者的传感器进行可移动处理装置的定位。前述成像技术也可用于对可移动处理装置的运动成像并将被捕捉的运动分类。
这些常见装置和方法可很好地用于粗略定位和分类。然而,可能存在若干缺陷。例如,GPS传感器可能仅在户外条件下正常工作。捕捉目标表面的相机的视野可能受到阻挡,有时甚至受到可移动处理装置本身的阻挡。此外,即使不同的使用者使用可移动处理装置例如个人器具,上述装置和方法输出对于每一个使用者也总是相同的,即便每个使用者可能具有如何使用所述可移动处理装置的单独风格和偏好。
因此,期望提供允许可移动处理装置的精准定位和/或可移动处理装置的运动的精准分类而没有上述缺陷的设备和方法。此外,期望通过为不同的人提供单独训练的技术将这些设备和方法个人化。
发明内容
根据一个方面,本发明提供了一种用于实施可移动处理装置相对于目标表面的定位的设备,该可移动处理装置包括惯性传感器并且被配置成处理目标表面。该设备可包括运动模式识别装置,该运动模式识别装置可被配置成区分包含在可移动处理装置的运动模式集合中的两个或更多个运动模式。设备还可包括接口,该接口用于将来自惯性传感器的至少一个惯性传感器数据提供到运动模式识别装置,其中该至少一个惯性传感器数据表示可移动处理装置的移动。运动模式识别装置可包括神经网络,该神经网络被配置成接收至少一个惯性传感器数据。神经网络还可被配置成将该至少一个惯性传感器数据映射到包含在该运动模式集合中的运动模式中的至少一个运动模式。所述运动模式可各自与目标表面的一个或多个不同区域相关联,使得该至少一个惯性传感器数据与该至少一个运动模式的映射指示对可移动处理装置相对于目标表面的一个或多个区域的定位的评估。
根据一个方面,本发明提供了一种用于实施可移动处理装置相对于目标表面的定位的方法,该可移动处理装置包括惯性传感器并且被配置成处理目标表面。该方法可包括区分包含在可移动处理装置的运动模式集合中的两个或更多个运动模式的步骤。本发明的方法还可包括接收来自惯性传感器的至少一个惯性传感器数据的步骤,其中该至少一个惯性传感器数据表示可移动处理装置的移动。此外,本发明的方法可包括借助于神经网络接收并处理该至少一个惯性传感器数据的步骤,以及将该至少一个惯性传感器数据映射到包含在该运动模式集合中的运动模式中的至少一个运动模式的步骤。包含在该运动模式集合中的所述运动模式各自与目标表面的一个或多个不同区域相关联,使得将该至少一个惯性传感器数据与该至少一个运动模式映射的步骤指示对可移动处理装置相对于目标表面的一个或多个区域的定位的评估。
根据一个方面,提供了一种计算机可读数字存储介质,该计算机可读数字存储介质具有存储在其上的计算机程序,该计算机程序具有程序代码,该程序代码用于当在计算机上运行时实施上述用于实施可移动处理装置相对于目标表面的定位的方法。
根据一个方面,提供了一种用于对包括惯性传感器的可移动个人器具的运动进行分类的设备,其中该设备包括运动模式识别装置,该运动模式识别装置被配置成区分包含在可移动个人器具的运动模式集合中的两个或更多个运动模式。设备可包括接口,该接口被配置成将来自惯性传感器的至少一个惯性传感器数据提供到运动模式识别装置,其中该至少一个惯性传感器数据表示可移动个人器具的运动。运动模式识别装置可包括神经网络,该神经网络被配置成接收该至少一个惯性传感器数据并且将该至少一个惯性传感器数据映射到包含在该运动模式集合中的运动模式中的至少一个运动模式。该至少一个映射的运动模式与一个或多个类的至少一个类成员相关联,使得该至少一个类成员基于可移动个人器具的运动来选择。
根据一个方面,提供了一种用于对包括惯性传感器的可移动个人器具的运动进行分类的方法。该方法可包括区分包含在可移动个人器具的运动模式集合中的两个或更多个运动模式的步骤。该方法还可包括将来自惯性传感器的至少一个惯性传感器数据提供到运动模式识别装置的步骤,其中该至少一个惯性传感器数据表示可移动个人器具的运动。该方法还可包括借助于神经网络接收并处理该至少一个惯性传感器数据的步骤,以及将该至少一个惯性传感器数据映射到包含在该运动模式集合中的运动模式中的至少一个运动模式的步骤。该至少一个映射的运动模式与至少一个类的至少一个类成员相关联,使得该至少一个类成员基于可移动个人器具的运动来选择。
根据一个方面,提供了一种计算机可读数字存储介质,该计算机可读数字存储介质具有存储在其上的计算机程序,该计算机程序具有程序代码,该程序代码用于当在计算机上运行时实施上述用于对可移动个人器具的运动进行分类的方法。
附图说明
在下文中,结合附图更详细地描述本发明的实施方案,其中
图1示出了根据一个实施方案的本发明设备的示意性框图,
图2示出了待使用可移动处理装置处理的目标表面的一个示例,
图3示出了待使用可移动处理装置处理的目标表面的另一个示例,
图4示出了可用于本发明设备中的递归神经网络的示意性框图,
图5示出了可用于本发明设备中的GRU神经网络的示意性框图,
图6A示出了可用于本发明设备中的LSTM神经网络的示意性框图,
图6B示出了在不同时间例的具有一层的LSTM神经网络的示意性框图,
图7示出了在不同时间例的具有两层的LSTM神经网络的示意性框图,
图8示出根据一个实施方案的本发明方法的方框图,
图9示出根据一个实施方案的本发明设备的示意方框图,
图10示出根据另一个实施方案的本发明设备的示意方框图,
图11示出根据另一个实施方案的本发明设备的示意方框图,以及
图12示出根据一个实施方案的本发明方法的方框图。
具体实施方式
具有相等或等同功能的相等或等同的元件或元件在以下描述中用相等或等同的附图标号表示。
下文中,将提及个人器具和/或家用器具作为可移动处理装置的非限制性示例。然而,为了描述本发明的实施方案和实施例起见,仅将这些种类的器具作为非限制性示例提及。因此,不将本发明限制为仅这些示例性提及种类的器具。
此外,方法的任何方法步骤的次序可仅作为非限制性示例描述。据此,如本文所述的任何方法步骤也可以除所述者外的任何其他次序执行。
尽管一些方面将以设备或装置为背景进行了说明,但是应当明白,这些方面也表示对相应方法所作的说明,其中一个方框或装置对应于一个方法步骤或方法步骤的特征。类似地,以方法或方法步骤为背景来描述的方面也表示对相应设备或装置的相应方框或项或特征所作的说明。
本发明的第一方面涉及一种设备,该设备被配置成将可移动处理装置定位,具体地将可移动处理装置相对于待使用所述处理装置处理的表面定位。
此类可移动处理装置的示例可例如为个人器具。个人器具可为例如发刷、剃刀、梳毛器、牙刷等。在这些示例中,待处理的表面可为身体或所述身体的至少某个部分或区域。
可移动处理装置的其他示例可例如涉及家用器具,诸如扫帚、拖把、洗擦刷等。在这些示例中,待处理的表面可为地板或所述地板的至少某个部分或区域。
图1示出了根据本发明的一个实施方案的设备10。此外,描述了可移动处理装置11。可移动处理装置11可包括惯性传感器13。此外,可移动处理装置11可被配置成处理目标表面12。
如可以看到的,可移动处理装置11可定位在相对于目标表面12的某些位置处,例如,在目标表面12中、目标表面12处、目标表面12上或紧邻目标表面12。目标表面12本身可分为一个或多个区域211,212,213,…,21n。可移动处理装置11可在相对于所述区域211,212,213,…,21n中的至少一个区域的某个位置处移动或定位。
如图1中所描述的,本发明设备10被配置成实施可移动处理装置11相对于目标表面12的定位。
设备10可包括运动模式识别装置14。运动模式识别装置14可被配置成区分包含在可移动处理装置11的运动模式集合15中的两个或更多个运动模式151,152,153,…,15n。换句话讲,可移动处理装置11可以例如由使用所述可移动处理装置11的使用者在不同的线性和/或转动方向上移动。据此,可移动处理装置11的每一运动可表示对应或单独的运动模式。运动模式识别装置14可包括不同运动模式的集合15。运动模式集合15可包括所述前述相应或单独运动模式151,152,153,…,15n中的两个或更多个运动模式。运动模式识别装置14可被配置成区分这两个或更多个运动模式151,152,153,…,15n。也就是说,运动模式识别装置14可被配置成区别第一运动模式151与第二运动模式152。
可移动处理装置11的移动可借助于所述可移动处理装置11所包括的至少一个惯性传感器13检测。惯性传感器13为基于惯性的传感器,并且可包括加速度计、陀螺仪及磁力计中的至少一者。惯性传感器13可提供表示线速度、角速度、线加速度、角加速度和重力中的至少一者的传感器数据。惯性传感器13可以为包括一个或多个惯性传感器的惯性测量单元的一部分。
设备10可包括接口16,该接口用于接收来自惯性传感器13的至少一个惯性传感器数据171,172,173,…,17n并且用于将至少一个惯性传感器数据171,172,173,…,17n提供到运动模式识别装置14。至少一个惯性传感器数据171,172,173,…,17n表示可移动处理装置11的移动。换句话讲,当可移动处理装置11移动时,惯性传感器13感测这一运动并生成至少一个惯性传感器数据171,172,173,…,17n。据此,至少一个惯性传感器数据171,172,173,…,17n表示移动的处理装置11的对应运动。
根据本发明,运动模式识别装置14可包括神经网络18。神经网络18可以是深度学习网络。神经网络18可被配置成接收至少一个惯性传感器数据171,172,173,…,17n,并且将至少一个惯性传感器数据171,172,173,…,17n映射到包含在运动模式集合15中的运动模式151,152,153,…,15n中的至少一个运动模式。该映射在图1中借助于虚线和实线箭头191,192,193,194指示。以实线绘制的箭头193可示例性地指示,神经网络18成功地将至少一个惯性传感器数据171,172,173,…,17n映射到第三运动模式153。
包含在集合15中的不同运动模式151,152,153,…,15n由不同的几何形状(圆形、矩形、三角形、星形)示例性地符号化表示,仅用于例证目的。当然,可移动处理装置11的运动模式不限于这些特定几何形状。
根据本发明的原则,运动模式151,152,153,…,15n各自与目标表面12的一个或多个不同区域211,212,213,…,21n相关联。这借助于虚线和实线箭头201,202,203,…,20n指示。如可以看到的,第一运动模式151可与目标表面12的第一区域211相关联,如由虚线箭头201指示的。第二运动模式152可与目标表面12的第二区域212相关联,如由虚线箭头202指示的。第三运动模式153可与目标表面12的第三区域213相关联,如由以实线绘制的箭头203指示的。第四运动模式154可与目标表面12的第四区域214相关联,如由虚线箭头204指示的。
以实线绘制的箭头203可示例性地指示,第三运动模式153(至少一个惯性传感器数据171,172,173,…,17n被神经网络18成功地映射至这一运动模式)与目标表面12的第三区域213相关联。
据此,至少一个惯性传感器数据171,172,173,…,17n与至少一个运动模式151,152,153,…,15n的映射指示对可移动处理装置11相对于目标表面12的一个或多个区域211,212,213,…,21n的定位的评估。在本示例中,至少一个惯性传感器数据171,172,173,…,17n与第三运动模式153的映射指示对可移动处理装置11相对于目标表面12的第三区域213的定位的评估。
换句话讲,神经网络18将所接收的至少一个惯性传感器数据171,172,173,…,17n成功地映射到第三运动模式153。根据这一示例,由于第三运动模式153与第三区域213相关联,因此设备10检索可移动处理装置11定位在第三区域213的信息或可移动处理装置11至少在当生成至少一个惯性传感器数据171,172,173,…,17n时的时间被定位在第三区域213的信息。
因此,设备10可被配置成简单地借助于可移动处理装置11的执行运动或运动模式将所述可移动处理装置11相对于目标表面12进行定位。
根据一个实施方案,可移动处理装置11可以为个人器具,并且目标表面12可以为待通过所述可移动处理装置11处理的身体部位。
例如,可移动处理装置11可以是剃刀或梳毛器,其用于对使用者身体的身体部位进行剃刮或梳毛。在这种情况下,使用者身体可以为目标表面12。使用者身体12可分为不同的区域,例如,左颊区域、右颊区域、下巴区域等。通过使用剃刀11执行预定的运动模式,设备10可将剃刀11相对于使用者身体定位。例如,如果剃刀11执行指向左上角的运动模式,其中剃刀11向左倾斜,则设备10可将剃刀11定位成例如定位在左颊区域中。据此,设备10可简单地通过剃刀11执行的运动模式将其定位在使用者的面部处。
另举一例,可移动处理装置11可以是家用器具,并且目标表面12可以是地板、墙壁、家具等的表面。例如,可移动处理装置11可以为真空吸尘器,并且目标表面12可以为房间的地板。房间12可分为不同的区域,例如,房间的左上角、房间的右下角、房间的中心、定位在房间内的床下等。通过使用真空吸尘器11执行预定的运动模式,设备10可将真空吸尘器11相对于房间的地板定位。例如,如果真空吸尘器11执行当真空吸尘器11的吸管被降低到接近地面时仅向前和向后的运动模式时,设备10可将真空吸尘器11定位成例如被定位在“床下”区域中。据此,设备10可简单地通过真空吸尘器11执行的运动模式将其在房间内定位。
根据另一个实施方案,可移动处理装置11可以是口腔护理装置,并且目标表面12可以为牙列,其中牙列12被分为不同的牙齿区域211,212,213,…,21n,其中至少一个惯性传感器数据171,172,173,…,17n与至少一个运动模式151,152,153,…,15n的映射指示对口腔护理装置11相对于牙列12的一个或多个牙齿区域211,212,213,…,21n的定位的评估。
口腔护理装置可为牙刷,具体地为电动牙刷。口腔护理装置也可以为牙线、牙斑去除装置、超声装置和喷水装置中的至少一者。
根据这一示例,通过使用口腔护理装置11执行预定运动模式,设备10可将口腔护理装置11相对于牙列定位。例如,如果口腔护理装置11执行仅指向上和指向下的运动模式,其中口腔护理装置11向左倾斜,则设备10可将口腔护理装置11定位成例如定位在例如上颚的左上牙齿区域中。据此,设备10可简单地通过口腔护理装置11执行的运动模式将其相对于使用者的牙列定位。
根据一个实施方案,牙列可分为九个牙齿区域,其中第一牙齿区域对应于上颚和下颚牙列的左颊面,第二牙齿区域对应于左侧和右侧上颚牙列的咬合面,第三区域对应于左侧和右侧下颚牙列的咬合面,第四牙齿区域对应于上颚和下颚牙列的左舌面,第五牙齿区域对应于上颚和下颚牙列的右颊面,第六牙齿区域对应于上颚和下颚牙列的右舌面,第七牙齿区域对应于上颚和下颚牙列的唇面,第八牙齿区域对应于上颚牙列的颚面,第九牙齿区域对应于前下颚牙列的口腔面。
根据另一个实施方案,可附加地包含在运动模式集合15中的至少一个预定运动模式15NB可与目标表面12外部的区域21NB相关联或与目标表面12无关,其中至少一个惯性传感器数据171,172,173,…,17n与至少一个预定运动模式15NB的映射指示可移动处理装置11被定位在目标表面12外部的所述区域21NB中或与目标表面12无关。
换句话讲,目标表面12外部的区域21NB可以为不直接与目标表面12有关的区域。例如,如果可移动处理装置11可以为牙刷,则目标表面12外部的所述区域21NB可以为牙列外部的区域。据此,这一区域21NB可指示使用者没有在刷牙。因此,这一区域也可称为“没有在刷牙”区域,简称“NB”。这一区域21NB可以为目标表面12的至少一个区域,或这一区域21NB可以为除目标表面的一个或多个区域211,212,213,…,21n以外的附加区域。然而,目标表面12外部的这一具体区域21NB不限于上述刷牙的示例。
图2示出了用于例证上述示例的牙列12。牙列12可以为目标表面。牙列12可分为九个牙齿区域1a至9a。任选地,可存在第十区域NB。这一第十区域NB为牙列12外部的区域。因此,这一第十区域NB未在图2中明确例证。由于这一第十区域NB与牙列12的牙齿区域之一无关,并且因此不涉及刷洗牙列12的牙齿,这一第十区域NB也可称为“没有在刷牙”区域。
如图2中可见,第一牙齿区域1a可对应于上颚和下颚牙列12的左颊面。第二牙齿区域2a可对应于左侧和右侧上颚牙列12的咬合面。第三区域3a可对应于左侧和右侧下颚牙列12的咬合面。第四牙齿区域4a可对应于上颚和下颚牙列12的左舌面。第五牙齿区域5a可对应于上颚和下颚牙列12的右颊面。第六牙齿区域6a可对应于上颚和下颚牙列12的右舌面。第七牙齿区域7a可对应于上颚和下颚牙列12的唇面。第八牙齿区域8a可对应于上颚牙列12的颚面。第九牙齿区域9a可对应于前下颚牙列12的口腔面。
图3示出了用于例证另一示例的牙列12。牙列12可以为目标表面。牙列12可分为十六个牙齿区域1b至16b。任选地,可存在第十七区域NB。这一第十七区域NB为牙列12外部的区域。因此,这一第十七区域NB未在图3中明确例证。由于这一第十七区域NB与牙列12的牙齿区域之一无关,并且因此不涉及刷牙列12的牙齿,这一第十七区域NB也可称为“没有在刷牙”区域。
如图3中可见,第一牙齿区域1b可对应于上颚牙列12的左颊面。第二牙齿区域2b可对应于左侧上颚牙列12的咬合面。第三牙齿区域3b可对应于左侧下颚牙列12的咬合面。第四牙齿区域4b可对应于上颚和下颚牙列12的左舌面。第五牙齿区域5b可对应于上颚和下颚牙列12的右颊面。第六牙齿区域6b可对应于右侧上颚牙列12的咬合面。第七牙齿区域7b可对应于右侧下颚牙列12的咬合面。第八牙齿区域8b可对应于上颚牙列12的颚面。第九牙齿区域9b可对应于上颚牙列12的唇面。第十牙齿区域10b可对应于下颚牙列12的唇面。第十一牙齿区域11b可对应于上颚牙列12的颚面。第十二牙齿区域12b可对应于前下颚牙列12的口腔面。第十三牙齿区域13b可对应于下颚牙列12的左颊面。第十四牙齿区域14b可对应于下颚牙列12的左舌面。第十五牙齿区域15b可对应于下颚牙列12的右颊面。第十六牙齿区域16b可对应于下颚牙列12的右舌面。
图2和图3仅作为非限制性示例描述。目标表面12也可包括多于或少于示例性所述九个或十六个牙齿区域。此外,目标表面12外部的第十/第十七牙齿区域NB为任选的。牙列12的一个或多个牙齿区域的确切分布可从上述示例有所改变。
本发明的若干优点之一是如下事实:设备10关于可移动处理装置相对于目标表面12的定位是自主学习的。设备10可例如通过采用深度学习网络来利用人工智能。据此,用于实施可移动处理装置11相对于目标表面12的定位的设备10可通过使用神经网络18随时间增强其性能。
根据一个实施方案,神经网络18可以为递归神经网络(RNN)。例如,神经网络可以为长短时记忆(LSTM)网络或门控递归单元(GRU)网络。
RNN可能遭遇所谓的梯度消失问题,其中梯度随着层数的增加而快速消失。梯度消失可导致训练速度相当慢。因此,可使用LSTM网络和/或GRU网络以避免梯度消失问题。
LSTM网络是除了常规网络单元之外还包含LSTM区块的人工神经网络。LSTM区块包含门,该门确定何时输入足够显著以记住、何时应继续记住或何时应忘记该值以及何时应输出该值。
图4示出了处于其最一般形式的RNN的示例。可在某个时间点t将输入41馈入神经单元40中。输入41可以为单个值或包含两个或更多个值的向量。在某个时间点t的输入41也可用Xt来符号化表示。
神经单元40也可任选地包括另一输入42。这另一输入42可从前一时间点t-1的神经单元(这里未示出)提供。
神经单元40可包含至少一个门43,其可提供数学运算。在这一示例中,门43为单个tanh门。
神经单元40可包括至少一个输出46。输出46可包含已经被馈入输入41和任选地另一输入42的tanh门43的运算结果。输出46可导致隐含状态45,其将在后文解释。
神经单元40可任选地包含另一输出分支46,其自上述被馈入输入41和任选地另一输入42的tanh门43的运算输出结果分支出去。
在图4中,每条绘制线可携带从一个节点的输出到其他节点的输入的完整向量。线合并(例如在47处)表示关联,而线分叉(例如在48处)表示其成分被复制并且拷贝行进到不同的位置。这对于将在下文中参照以下附图描述的其他神经网络也适用。
图5示出了GRU网络的示例。GRU网络包括神经单元50。除了上述RNN神经单元40之外,GRU神经单元50可包括另外两个门,也就是第一sigmoid门53和第二sigmoid门54。此外,GRU神经单元50可包含点运算55、56、57、58、59,举例而言,如向量加法58。
图6A示出了LSTM网络的示例,其可用来作为根据本发明的设备10的神经网络18。LSTM可包括神经单元60,就LSTM网络而言,该神经单元也可被称为LSTM区块。除了上述神经单元40,50之外,所描绘LSTM网络的神经单元60可包括单元格状态,其为运行穿过神经单元60顶部的水平线61。神经单元60可接收单元格状态输入62,并且可生成单元格状态输出66。
神经单元60还可包括四个门43,53,54,63。例如,与上述GRU网络相比,它可包括另一个sigmoid门63。借助于这些门43,53,54,63,可将信息从单元格状态(水平线61)去除或加入到该单元格状态。
图6B示出了其中描绘了神经单元的前一状态和后续状态(相对于时间点t)的另一个示例。具体地,描述了处于时间点t的神经单元60t。此外,描述了处于前一时间点t-1的另一神经单元60t-1。再进一步,描述了处于后续时间点t+1的另一神经单元60t+1。所描述的时间单元60t-1,60t,60t+1可表示相同的神经单元,但所述神经单元处于不同的时间点,也就是处于时间点t、处于前一时间点t-1和处于后续时间点t+1。
上述输入41,也符号化为字母X,可包括来自惯性传感器13的至少一个传感器数据171,172,173,…,17n。输入X可以为时间依赖性的,因此X=X(t)。具体地,所描述的输入Xt可包括在所考虑的时间点t期间获取的传感器数据172,所描述的输入Xt-1可包括在前一时间点t-1期间获取的传感器数据171,并且所描述的输入Xt+1可包括在后续时间点t+1期间获取的传感器数据173。
如还可从图6B中看到,神经单元60t-1,60t,60t+1可在各自所描绘的时间点t-1,t,t+1例如通过预测提供相对应的输出值yt-1,yt,yt+1。输出值y(t)可以是单个值或包括一个或多个向量元素的向量。
输出值y(t)可计算为:
yt=softmax(Why·ht+b)
输出值y(t)可例如包括概率值,如将参照图7更详细解释的。例如,输出值y(t)可为包括一个或多个向量元素的向量,其中每个向量元素可表示运动模式151,152,153,…,15n中的一个运动模式,或更详细地其中每个向量元素可表示概率值,该概率值指示输入X(t)(即惯性传感器数据171,172,173,…,17n)可对应于运动模式151,152,153,…,15n中的一个运动模式的可能性如何。
此外,所描述的神经单元60t-1,60t,60t+1可排列在相同层也就是第一层中。本发明的一些示例可包括一个或多个其他层,其中每一层可包括其自己的神经单元。此类示例可在后文中参照例如图7描述。然而,具有至少第一层的示例和实施方案将进一步参照图6B描述。
根据这一实施方案,神经网络18可包括第一层,其中所述第一层包括神经单元60t,其中在第一时间点t,至少一个惯性传感器数据Xt 172被输入到第一层的神经单元60t中。在后续的第二时间点t+1,第二惯性传感器数据Xt+1 173和先前第一时间点t的神经单元60t的至少一个输出ht 46被输入到第一层的神经单元60t+1中。
图7示出了另一示例,其中神经网络18可包括至少两层,也就是第一层71和第二层72。第一层71包括至少第一神经单元60t,并且第二层72包括至少第二神经单元70t。
如可以看到的,在不同时间例t-1,t,t+1获取的传感器数据171,172,173可作为输入Xt-1,Xt,Xt+1被馈入到第一层71的相应神经单元60t-1,60t,60t+1中。
第一层71的每个神经单元60t-1,60t,60t+1的输出46t-1,46t,46t+1可作为输入被馈入到第二层72的相应神经单元70t-1,70t,70t+1中。
第一层71的神经单元60t-1,60t,60t+1和第二层72的神经单元70t-1,70t,70t+1可以为相同的。另选地,第一层71的神经单元60t-1,60t,60t+1的内部结构和第二层72的神经单元70t-1,70t,70t+1可以彼此不同。
根据图7所示的实施方案,神经网络18可包括至少第一层71和第二层72,其中第一层71可包括第一神经单元60t并且其中第二层72可包括第二神经单元70t,其中在第一时间点t,至少一个惯性传感器数据Xt 172被输入到第一层71的第一神经单元60t中,并且第一神经单元60t的输出ht 46被输入到第二层72的神经单元70t中。
到目前为止,已经描述了垂直方向的信号路径,即,从底部的第一层71到顶部的第二层72。然而,在图7的实施方案中也示出了水平方向上的信号路径。
如可以看到的,在第一时间点t的第一神经单元60t的单元格状态输出Ct 66和/或在第一时间点t的第一神经单元60t的输出ht 46可作为输入被再次馈入到第一神经单元60中,也就是被馈入到在后续时间点t+1的第一神经单元60t+1中。如上文已经提及的,神经单元60本身可以为相同的神经单元,但为了简便例证神经单元60在不同时间例t-1,t,t+1的状态起见,其在附图中可仅被描述为多个串联神经单元60t-1,60t,60t+1。换句话说,水平信号路径可描述神经单元60在不同的后续时间例t-1,t,t+1的信号路径。这对于第二层72和任何其他层也适用。
据此,所描述的后续时间例t-1,t,t+1可表示长度77,在所述长度期间,神经网络18可采样并处理所获取的传感器数据171,172,173,…,17n。所述长度77可因此被称为运行长度、样本长度或采样周期。例如,样本长度77可相当于一秒,其中时间例t-1,t,t+1可以为所述一秒的分数。例如,采样周期77可具有五十个样本即五十个时间例的长度。神经网络18可在采样周期内运行一次,或神经网络18可在两个或更多个采样周期内一直运行。
因此,根据另一个实施方案,神经网络18可包括至少第一层71和第二层72,其中第一层71可包括第一神经单元60t并且其中第二层72可包括第二神经单元70t,其中在第一时间点t,至少一个惯性传感器数据Xt 172可被输入到第一层71的第一神经单元60t中,并且其中第一神经单元60t的至少一个输出ht 46可被输入到第二层72的神经单元70t中。到目前为止,它可与上述相同。然而,此外,在后续的第二时间点t+1,第二惯性传感器数据Xt+1173和在第一时间点t的第一神经单元60t的至少一个输出ht 46被输入到在后续第二时间点t+1的第一神经单元60t+1中。
如上文提及的,可通过神经网络18执行若干数学运输,例如,在门43,53,54,63中。在图7所示的示例中,可在不同阶段执行下述数学运算:
fjk=σ(W(f)xj+U(f)hk+b(f)),
hj=oj⊙tanh(cj),
其中
·i(t)为输入门激活向量
·f(t)为遗忘门激活向量
·o(t)为输出门激活向量
·c(t)为单元格状态向量
·h(t)为LSTM区段或神经单元60,70的输出向量
此外,权重W(t)和偏置值b(t)描绘于图7中,其中在该示例中:
此外,输出向量y(t)可被计算为:
yt=softmax(Why·ht+b)
如上文提及的,输入惯性传感器数据Xt 172可以为包含六个向量元素的元素向量例如,输入张量[Ax,Ay,Az,Gx,Gy,Gz]T。这些向量元素[Ax,Ay,Az,Gx,Gy,Gz]T也可称为惯性传感器数据部分。
根据一个实施方案,至少一个惯性传感器数据171可包含组的至少三个惯性传感器数据部分,所述组包括在x、y和z方向上的线速度,相对于x轴、y轴和z轴的角速度,在x、y和z方向上的线加速度,以及相对于x轴、y轴和z轴的角加速度。
换句话说,惯性传感器13可提供一个或多个时间例t-1,t,t+1的惯性传感器数据171,172,173,…,17n,其中惯性传感器数据171,172,173,…,17n可取决于可移动处理装置11在一个可观察的时间例t-1,t,t+1的当前取向和运动。每个惯性传感器数据171,172,173,…,17n可以为包括至少三个,或在其他示例中至少六个向量元素的向量,其中所述向量元素表示上述惯性传感器数据部分,其中所述惯性传感器数据部分的至少一个可以为零。
据此,惯性传感器数据171,172,173,…,17n(向量)(具体地传感器数据部分(向量元素))可表示,随着在包括一个或多个后续时间例t-1,t,t+1的采样周期77内采样,可移动处理装置11的当前运动模式。
根据图7中描述的实施方案,至少一个惯性传感器数据172(向量)可包括一个或多个惯性传感器数据部分(向量元素),其中输入到第一时加点t的神经单元60t的输入是包括在所述第一时间点t期间检索的一个或多个惯性传感器数据部分的相应惯性传感器数据172。至少一个惯性传感器数据171,172,173,…,17n可在采样时间77期间被采样。
神经网络18可将已经在采样时间77期间被采样的至少一个采样的惯性传感器数据171,172,173,…,17n映射到包含在运动模式集合15中的至少一个运动模式151,152,153,…,15n,如最初参照图1描述的。在映射之后,所选择的一个运动模式可称为映射的运动模式。
换句话说,神经网络18可接收惯性传感器数据171,172,173,…,17n作为输入x(t),并且它可输出一个或多个概率值作为输出y(t)。如上所述,在图7中所示的示例中,输出值y(t)也可以为包括例如至少三个、或至少六个、或至少十二个向量元素的元素向量。输出向量y(t)的每个向量元素可表示可能与类或区域211,212,213,…,21n相关联的运动模式151,152,153,…,15n的概率值。在一些实施方案中,输出值y(t)可为元素向量,该元素向量包括例如至少两个至尽可能多的所需类或区域,例如九个区域、十二个区域或十六个区域。
据此,输出向量y(t)可表示目标表面12的不同区域211,212,213,…,21n。例如,如果目标表面12可包括十二个区域(例如,十一个牙齿区域和第十二个“没有在刷牙”区域“NB”),则元素输出向量y(t)可包括十二个向量元素,诸如图7的示例中所示,其中据此,每个向量元素可表示目标表面12的不同区域211,212,213,…,21n中的一个区域。
如前所提及,向量元素可表示概率值。这些概率值可表示目标表面12的不同区域211,212,213,…,21n中的每个区域的概率值。换句话讲,神经网络18可接收至少一个惯性传感器数据171,172,173,…,17n并将至少一个惯性传感器数据171,172,173,…,17n映射到至少一个运动模式151,152,153,…,15n,并且由于所述运动模式151,152,153,…,15n可各自与目标表面12的一个或多个不同区域211,212,213,…,21n相关联,因此概率值可指示所获取的至少一个惯性传感器数据171,172,173,…,17n可对应于目标表面12的不同区域211,212,213,…,21n中的一个区域的可能性如何。
这被称为至少一个惯性传感器数据171,172,173,…,17n到运动模式151,152,153,…,15n中的至少一个运动模式的映射。
由于每个运动模式151,152,153,…,15n可与目标表面12的一个或多个不同区域211,212,213,…,21n相关联,因此至少一个惯性传感器数据171,172,173,…,17n与至少一个运动模式151,152,153,…,15n的映射指示对可移动处理装置11相对于目标表面12的一个或多个区域211,212,213,…,21n的定位的评估。例如,可以评估处理装置11的定位,因为与来自GPS的绝对值地理数据相比,本发明的定位检测可基于以上提及的概率值。
换句话讲,设备10可通过简单地接收传感器数据171,172,173,…,17n并将所述传感器数据171,172,173,…,17n映射到与目标表面12的一个或多个区域211,212,213,…,21n相关联的运动模式151,152,153,…,15n,从神经网络18推导出可移动处理装置11被定位在目标表面12的哪个区域211,212,213,…,21n内的评估。
因此,根据一个实施方案,神经网络18的输出y(t)可包括一个或多个概率值,这些概率值用于对可移动处理装置11相对于目标表面12的一个或多个区域211,212,213,…,21n的定位的评估。
根据另一个实施方案,运动模式识别装置14可被配置成由至少一个惯性传感器数据171,172,173,…,17n确定可移动处理装置11和目标表面12的相互移动,并且从可移动处理装置11的所确定移动中移除目标表面12的所确定移动。
例如,可移动处理装置11可以为牙刷,并且目标表面12可以为使用者的牙列。使用者可能在刷牙时转动头部。在这种情况下,惯性传感器13将感测使用者的头部和牙刷的相互移动,因为牙刷与头部一起移动。这可导致错误的运动检测,因此导致错误的映射,并且最终导致基于映射的错误定位。
然而,根据上述实施方案,可从感测到的头部和牙刷的相互移动中移除感测到的或确定的使用者头部(目标表面)12的移动。因此,仅保留牙刷(处理装置)11的期望移动。
图8示出了用于实施可移动处理装置11相对于目标表面12的定位的本发明方法示例的方框图,其中可移动处理装置11包括惯性传感器13,并且其中可移动处理装置11被配置成处理目标表面12。
在方框801中,方法包括区分包含在可移动处理装置11的运动模式集合15中的两个或更多个运动模式151,152,153,…,15n的步骤。
在方框802中,所述方法包括接收来自所述惯性传感器13的至少一个惯性传感器数据171,172,173,…,17n的步骤,所述至少一个惯性传感器数据171,172,173,…,17n表示所述可移动处理装置11的移动。
在方框803中,方法包括借助于神经网络18接收并处理至少一个惯性传感器数据171,172,173,…,17n并且将至少一个惯性传感器数据171,172,173,…,17n映射到包含在运动模式集合15中的至少一个运动模式151,152,153,…,15n的步骤,其中包含在运动模式集合15中的所述运动模式151,152,153,…,15n各自与目标表面12的一个或多个不同区域211,212,213,…,21n相关联,使得至少一个惯性传感器数据171,172,173,…,17n与至少一个运动模式151,152,153,…,15n的映射指示对可移动处理装置11相对于目标表面12的一个或多个区域211,212,213,…,21n的定位的评估。
图9示出了根据本发明的第二方面的设备100。第二方面的设备100可类似于上述第一方面的设备10。此外,关于第一方面的设备10的上述全部特征与下述第二方面的设备100组合,并且反之亦然。
第二方面的设备100可不同于上述第一方面的设备10(转下页图1),其中运动模式151,152,153,…,15n可映射到不同类101,102,103,104的一个或多个类成员101A,101B,…,104A,104B而不是目标表面12的不同区域211,212,213,…,21n。
据此,第二方面的设备100被配置成用于将包括惯性传感器13的可移动个人器具11的运动进行分类。设备100包括运动模式识别装置14,该运动模式识别装置被配置成区分包含在可移动个人器具11的运动模式集合15中的两个或更多个运动模式151,152,153,…,15n。
此外,设备100包括接口16,该接口用于将来自惯性传感器13的至少一个惯性传感器数据171,172,173,…,17n提供到运动模式识别装置14,其中至少一个惯性传感器数据171,172,173,…,17n表示可移动个人器具11的运动。
根据本发明的第二方面,运动模式识别装置14包括神经网络18,该神经网络被配置成接收至少一个惯性传感器数据171,172,173,…,17n并且将至少一个惯性传感器数据171,172,173,…,17n映射到包含在运动模式集合15中的至少一个运动模式151,152,153,…,15n,其中至少一个映射的运动模式151,152,153,…,15n与一个或多个类101,102,103,104的至少一个类成员101A,101B,102A,102B,103A,103B,104A,104B相关联,使得至少一个类成员101A,101B,…,104A,104B基于可移动个人器具11的运动来选择。
换句话讲,神经网络18可例如以前文参考图1至图8所述的方式将至少一个惯性传感器数据171,172,173,…,17n映射到至少一个运动模式151,152,153,…,15n。由于映射的运动模式151,152,153,…,15n可各自与一个或多个类101,102,103,104的至少一个类成员101A,101B,…,104A,104B相关联,因此至少一个类成员101A,101B,…,104A,104B可基于可移动个人器具11的至少一个映射的运动模式151,152,153,…,15n,即基于可移动个人器具11的运动来选择。
图9的非限制性示例示出了四个类101,102,103,104,其中每个类包括两个类成员101A,101B,…,nA,nB。然而,可存在至少一个类,并且每个类可包括至少两个类成员。也可存在超过两个类或甚至超过示例性描绘的四个类。
如在图9的示例中可以看到,第一映射的运动模式151可与第一类101的类成员101A相关联。第n个映射的运动模式154可与第四类104的类成员nB相关联。第二映射的运动模式152可与不同类的两个类成员相关联,例如与第一类101的类成员101B相关联并且与第二类102的类成员102A相关联。第三映射的运动模式153可与相同类的两个类成员相关联,例如与第三类的两个类成员103A,103B相关联。
通常,至少一个映射的运动模式151,152,153,…,15n可与一个或多个类101,102,103,104的至少一个类成员101A,101B,102A,102B,103A,103B,104A,104B相关联。
下文中,将描述类和类成员的一些示例。
根据一个实施方案,一个或多个类101,102,103,104中的至少一个类101可包括至少一个类成员101A,其中所述一个类101可表示使用者组,并且其中所述至少一个类成员101A可表示所述使用者组的至少一个使用者,其中至少一个映射的运动模式151,152,153,…,15n可与至少一个类成员101A相关联,以用于基于可移动个人器具11的运动来鉴别所述至少一个使用者。
换句话讲,类101,102,103,104中的一个类可表示使用者组,即,一组使用可移动个人器具11的使用者。相对应的类可包括至少一个类成员,该至少一个类成员可表示所述使用者组的一个具体使用者。例如,第一类101可表示使用者组,其中所述使用者组可以是单个家庭。在这一示例中,使用者组101可仅含有一个类成员101A,即,一个人。本发明的设备100可被配置成简单地基于可移动个人器具11的运动来鉴别所述至少一个使用者101A。因此,本发明的设备100可关于所述一个被鉴别的使用者101A将任何动作或互动个人化,如后文中将使用一些示例描述的。
根据另一个实施方案,一个或多个类101,102,103,104中的至少一个类101可包括至少两个类成员101A,101B,其中所述一个类101可表示使用者组,并且其中所述至少两个类成员101A,101B可表示所述使用者组的至少两个使用者,其中至少一个映射的运动模式151,152,153,…,15n可与所述至少两个类成员101A,101B中的一个类成员相关联,以用于基于可移动个人器具11的运动来鉴别使用者组中的至少一个使用者。
换句话讲,类101,102,103,104中的一个类可表示使用者组,即,一组使用可移动个人器具11的使用者。相对应的类可包括至少一个类成员,该至少一个类成员可表示所述使用者组的一个具体使用者。例如,第一类101可表示使用者组,其中所述使用者组可以是家庭。所述类101的类成员101A,101B可表示家庭成员。例如,使用者组101可包括一个或多个家庭成员,例如其中第一类成员101A可表示家庭中的母亲,并且第二类成员101B可表示家庭中的孩子。
本发明的设备100可被配置成简单地基于可移动个人器具11的运动来鉴别至少一个使用者。如果每个使用者可以不同的或单独的方式使用可移动个人器具11,则可实现这一点。
例如,在可移动个人器具11可以是可移动口腔护理装置诸如牙刷具体地电动牙刷的实施方案中。可移动口腔护理装置也可以为牙线、牙斑去除装置、超声装置和喷水装置中的至少一者。
举上面的示例,母亲101A可以不同于孩子101B的方式使用牙刷11。牙刷11的惯性传感器13可将其惯性传感器数据171,172,173,…,17n提供到包括神经网络18的运动模式识别装置14。神经网络18可将惯性传感器数据171,172,173,…,17n映射到至少一个运动模式151,152,153,…,15n。
例如,如图9所示,母亲可具有对应于第一运动模式151的刷牙风格。这一运动模式151可与表示母亲的类成员101A相关联。而孩子可具有不同于母亲的刷牙风格,例如,对应于第二运动模式152的刷牙风格。这一运动模式152可与表示孩子的类成员101B相关联。
因此,本发明的设备100可简单地基于可移动个人器具11的运动来鉴别使用者组中的使用者。如上所述,本发明设备100可将任何动作或互动关于所鉴别的使用者个人化。
根据一个实施方案,运动模式识别装置14可被配置成基于鉴别所述至少一个使用者101A的步骤来选择特定于使用者的运动模式预设集合115,该运动模式预设集合包括可移动个人器具11的两个或更多个特定于使用者的运动模式1151,1152,1153,…,115n,这些运动模式是所述被鉴别的至少一个使用者101A的特征。
此类示例示于图10中。该实施方案也可被称为两步法。在第一步121中,鉴别了使用者。所鉴别的使用者可具有已经由神经网络18单独训练的特定于使用者的运动模式预设集合115。在第二步122中,神经网络18使用来自特定于使用者的运动模式预设集合115的特定于使用者的运动模式1151,1152,1153,…,115n。因此,本发明设备100可单独动作并且可与每个被鉴别的使用者互动。
在图10中示出了第一步121,其中神经网络18接收至少一个惯性传感器数据171,172,173,…,17n并将该至少一个惯性传感器数据映射到包含在运动模式集合15中的运动模式151,152,153,…,15n中的至少一个运动模式。至少一个映射的运动模式,例如第n个运动模式154可与第一类101的类成员101B相关联。这一过程可对应于上文参照图9所述的过程。
类101可为使用者组,并且类成员101B可为所述使用者组的使用者。举上面的例子,被鉴别的使用者101B可以为家庭中的孩子。设备100可能已经存储特定于使用者的运动模式。也就是说,被鉴别的使用者,即孩子101B,可具有存储在设备100中的运动模式1151,1152,1153,…,115n的其自己的特定于个体使用者的预设集合115。对于在第一步121中的鉴别之后的任何其他动作,运动模式识别装置14,并且具体地神经网络18,可使用属于先前鉴别的使用者的这些特定于使用者的运动模式1151,1152,1153,…,115n。
因此,神经网络18可在鉴别所述至少一个使用者101B的步骤121之后选择至少一个特定于使用者的运动模式预设集合115,该运动模式预设集合包括可移动个人器具11的两个或更多个特定于使用者的运动模式1151,1152,1153,…,115n,该运动模式是所述被鉴别的至少一个使用者101B的特征。
据此,在鉴别使用者的第一步121之后的第二步122中,神经网络18可使用特定于使用者的运动模式1151,1152,1153,…,115n的特定于使用者的预设集合115代替运动模式151,152,153,…,15n的集合15。也就是说,本文所述的可由设备10,100通过利用运动模式151,152,153,…,15n的集合15而实施的全部动作也可由设备10,100通过利用特定于使用者的运动模式1151,1152,1153,…,115n的预设集合115代替运动模式151,152,153,…,15n的集合15而关于每个被鉴别的使用者个体化地或个人化地实施。
因此,根据一个实施方案,神经网络18可被配置成,在鉴别所述至少一个使用者101B的第一步121之后,将运动模式集合15替换为所选择的特定于使用者的运动模式预设集合115,并且将包含在运动模式集合15中的两个或更多个运动模式151,152,153,…,15n替换为包含在特定于使用者的运动模式预设集合115中的两个或更多个特定于使用者的运动模式1151,1152,1153,…,115n。
此外或另选地,设备100可包括至少两个神经网络。图11示出了这样一个示例。
图11的设备100的示例可基本上对应于图10中示出示例的设备100。图11的设备与图10的设备的不同之处在于,图11的设备可包括第二神经网络182。
如在图11中可见的,在第一步121中,第一神经网络181可执行上述动作,例如,鉴别使用者组101中的使用者101B。然而,在第二步122中,可将惯性传感器数据171,172,173,…,17n馈入到第二神经网络182中。第二神经网络182可使用如上所述的特定于使用者的运动模式1151,1152,1153,…,115n的预设集合115。
换句话讲,在鉴别所述至少一个使用者101B的第一步121之后,运动模式识别装置14可使用第二神经网络182,其中第二神经网络182可被配置成接收至少一个惯性传感器数据171,172,173,…,17n并且将至少一个惯性传感器数据171,172,173,…,17n映射到包含在特定于使用者的运动模式预设集合115中的至少一个特定于使用者的运动模式1151,1152,1153,…,115n,其中所述特定于使用者的运动模式1151,1152,1153,…,115n各自与一个或多个类101,…,104的至少一个类成员102A,102B相关联,使得至少一个类成员102A,102B是基于可移动个人器具11的运动选择的。换句话讲,神经网络18可以是特定于使用者训练的神经网络。
据此,运动模式识别装置14可被配置成,使用特定于使用者的运动模式1151,1152,1153,…,115n的特定于使用者的预设集合115,借助于至少一个惯性传感器数据171,172,173,…,17n将个人器具11的运动进行特定于使用者地分类。
如图10和图11的示例中所示,设备100可包括用于将目标物在第二步122中分类的至少一个类102。然而,在第二步122中,设备100可包括超过一个类,如图9的示例中所示。
在所述第二步122中,例如,已经在第一步121中鉴别具体使用者之后,可通过个人器具11实施不同的动作。例如,个人器具11可基于所鉴别的使用者而改变其操作模式。例如,个人器具11可以为电驱动的并且可包括马达,其中个人器具11可基于所鉴别的使用者改变一个或多个特定于马达的特征,诸如频率、振幅或脉动。此外或另选地,个人器具11可包括一个或多个用于与使用者通讯或向使用者提供反馈的元件,例如,视觉元件诸如灯例如LED,或触觉元件诸如振动马达。例如,通过改变所述用于通讯的元件的运算模式,例如通过基于所鉴别的使用者将LED灯变为不同颜色或通过使用振动马达提供不同的脉冲反馈,个人器具11可基于所鉴别的使用者改变使用者体验。
此外或另选地,为了鉴别使用者组中的具体使用者,例如家庭中的家庭成员,设备100可被配置成鉴别具体使用者类型。例如,如果个人器具11为牙刷,一些人从他们的门牙或门齿开始刷牙,而另一些人可能从后牙或臼齿开始刷牙。在另一示例中,如果个人器具为剃刀,一些人可能沿纹理剃刮,而另一些人可能逆纹理剃刮。总结使用者类型可以为以具体方式使用个人器具11的使用者的类型。可能有两个或更多个使用者可被归类到使用者类型组中。前述的使用者鉴别的示例反而个体地鉴别了每个使用者。
根据用于鉴别使用者类型的一个实施方案,一个或多个类101,102,103,104中的至少一个类104可包括至少两个类成员nA,nB,其中所述一个类104可表示可移动个人器具11的使用者类型,其中第一类成员nA可表示可移动个人器具11的第一使用者类型并且其中第二类成员nB可表示可移动个人器具11的第二使用者类型,其中至少一个映射的运动模式151,152,153,…,15n可与第一类成员nA或第二类成员nB相关联,以用于基于可移动个人器具11的运动来鉴别可移动个人器具11的使用者类型。
根据另一个实施方案,运动模式识别装置14可被配置成在鉴别所述使用者类型的步骤后选择特定于使用者类型的运动模式预设集合115,该预设集合包括可移动个人器具11的两个或更多个特定于使用者类型的运动模式1151,1152,1153,…,115n,这些运动模式是所述被鉴别的使用者类型的特征,并且其中神经网络18可被配置成在鉴别所述使用者类型的步骤后将运动模式集合15替换为所选择的特定于使用者类型的运动模式预设集合115并且将包含在运动模式集合15中的两个或更多个运动模式151,152,153,…,15n替换为两个或更多个特定于使用者类型的运动模式1151,1152,1153,…,115n。
上文关于特定于使用者的运动模式1151,1152,1153,…,115n的特定于使用者的预设集合115所解释的一切对于特定于使用者类型的运动模式1151,1152,1153,…,115n的特定于使用者类型的预设集合115也适用。
如上所述,被鉴别的使用者类型可归类为一类或一组使用者类型。因此,设备100可实施聚类分析,其中使用者可在这一使用者被归类为具体使用者类型组之前使用个人器具11预定次数。例如,使用者可在连续五天内使用其剃刀五次。五天中有四天使用者可逆纹理剃刮。因此,在第五天之后,设备100可将这一使用者归类为一个使用者类型组,在所述组中聚集了全部逆纹理剃刮的使用者。
聚类分析也可以较短的时间间隔实施,即可以直接连续地打开和关闭牙刷11。例如,使用者可第一次启动其电动牙刷11,关掉,第二次打开它以再次重启牙刷11。在重启牙刷11时,本发明设备100,具体地,神经网络18,也可被重启。当牙刷11被启动时,它可采集用于聚类分析的信息。然而,每一次在用于聚类分析的信息被采集之前,至少神经网络18应该重启。总之,在最终将使用者归类为具体使用者类型组之前,设备100可重复地(例如,五次)实施聚类分析。
在已经将使用者归类为具体特定于使用者类型的组之后,神经网络18可使用被关联的特定于使用者类型的运动模式1151,1152,1153,…,115n的特定于使用者类型的预设集合115。
根据这样一个实施方案,运动模式识别装置14可被配置成重复地实施预定次数的聚类分析,其中在每一所述聚类分析中,神经网络18可被配置成重启并且在重启之后实施接收至少一个惯性传感器数据171,172,173,…,17n并将至少一个惯性传感器数据171,172,173,…,17n映射到包含在运动模式集合15中的至少一个运动模式151,152,153,…,15n的步骤,并且其中神经网络18可被配置成在实施预定次数的聚类分析之后选择特定于使用者类型的运动模式预设集合115。
本发明的设备100可提供甚至更多方案用于对可移动个人器具11的运动进行分类。因此,应再次参照图9。
根据一个实施方案,一个或多个类101,102,103,104中的至少一个类102可包括至少两个类成员102A,102B,其中所述一个类102可表示对可移动个人器具11的处置评估,其中第一类成员102A可表示可移动个人器具11的正确处置,并且其中第二类成员102B可表示可移动个人器具11的错误处置,其中至少一个映射的运动模式151,152,153,…,15n可与第一类成员102A或第二类成员102B相关联,以用于基于可移动个人器具11的运动评估可移动个人器具11的处置。
换句话讲,设备100可被配置成检查可移动个人器具11的使用者是否可以正确地使用可移动个人器具11。当然,在上述图10和图11的两步过程中,例如,在鉴别使用者和/或使用者类型之后,所述表示处置评估的一个类102也可作为类用于第二步122中。
根据另一个实施方案,一个或多个类101,102,103,104中的至少一个类103可包括至少两个类成员103A,103B,其中所述一个类103可表示可移动个人器具11的运动实施质量,其中第一类成员103A可表示可移动个人器具11的运动实施良好,并且其中第二类成员103B可表示可移动个人器具11的运动实施差,其中至少一个映射的运动模式151,152,153,…,15n可与第一类成员103A或第二类成员103B相关联,以用于基于可移动个人器具11的运动评估可移动个人器具11的运动实施质量。
换句话讲,设备100可被配置成检查可移动个人器具11的使用者是否可以良好的方式或以差的方式使用可移动个人器具11。良好的方式可以为按预期实施可移动个人器具的运动的方式,而差的方式可以为未按预期实施可移动个人器具11的运动的方式。例如,如果个人器具11为牙刷,则设备可检查使用者是否可具有良好或差的刷牙技术。
当然,在上述图10和图11的两步过程中,例如,在鉴别使用者和/或使用者类型之后,所述表示运动实施质量的一个类103也可作为类用于第二步122中。
设备100的另一个实施方案可类似于如参照图1至图8所述的设备10。
根据这样一个实施方案,一个或多个类101,102,103,104中的至少一个类104可包括至少两个类成员nA,nB,其中所述一个类104可表示可移动个人器具11相对于目标表面12的定位,其中第一类成员nA可表示可移动个人器具11相对于目标表面12的第一定位区域211,并且其中第二类成员nB可表示可移动个人器具11相对于目标表面12的第二定位区域212,其中至少一个映射的运动模式151,152,153,…,15n可与第一类成员nA和第二类成员nB中的至少一者相关联,以用于基于可移动个人器具11的运动将可移动个人器具11定位在第一定位区域211和第二定位区域212中的至少一者中。
换句话讲,一个类104可表示目标表面12。所述一个类104的类成员nA,nB可表示所述目标表面12的不同区域211,212。据此,可移动个人器具11相对于目标表面12的定位可由设备10以与上文参考图1至图8的设备10所述相同或至少类似的方式来执行。
当然,在上述图10和图11的两步过程中,例如,在鉴别使用者和/或使用者类型之后,所述表示可移动个人器具11相对于目标表面12的定位的一个类104也可作为类用于第二步122中。
设备100的神经网络18可包括与已经参照图4至图7描述的设备10的神经网络18相同或相似的特征。因此,将再次简要参考图7。
根据一个实施方案,神经网络18可包括至少第一层71和第二层72,其中每个层可包括神经单元60,70,其中在第一时间点t,至少一个惯性传感器数据Xt 172可被输入到第一层71的神经单元60中,并且其中在后续第二时间点t+1,第二惯性传感器数据Xt+1 173和先前第一时间点t的至少一个输出ht 46可被输入到第一层71的神经单元60中,并且/或者其中在后续第二时间点t+1,第一时间点t的至少一个输出ht 46可被输入到第二层72的神经单元71中。
上文已经关于如图4至图7所示设备10的神经网络18的任何特征描述的一切对于如参照图9至图11描述的设备100的神经网络18也适用。
图12示出了本发明用于对包括惯性传感器13的可移动个人器具11的运动进行分类的方法的框图。
在方框1201中,方法包括区分包含在可移动个人器具11的运动模式集合15中的两个或更多个运动模式151,152,153,…,15n的步骤。
在方框1202中,方法包括将来自惯性传感器13的至少一个惯性传感器数据171,172,173,…,17n提供到运动模式识别装置14的步骤,该至少一个惯性传感器数据171,172,173,…,17n表示可移动个人器具11的运动。
在方框1203中,方法包括借助于神经网络18接收并处理至少一个惯性传感器数据171,172,173,…,17n并将至少一个惯性传感器数据171,172,173,…,17n映射到包含在运动模式集合15中的至少一个运动模式151,152,153,…,15n的步骤,其中至少一个映射的运动模式151,152,153,…,15n与至少一个类101,102,103,104的至少一个类成员101A,101B,102A,102B,…,nA,nB相关联,使得至少一个类成员101A,101B,102A,102B,…,nA,nB是基于可移动个人器具11的运动来选择的。
根据本发明设备10,100的又一个示例,可移动处理装置11可以为个人器具,并且目标表面12可以为待通过所述可移动处理装置11处理的身体部位。
根据本发明的设备10,100的又一个示例,可移动处理装置11或可移动个人器具11可包括用于感测通过个人器具被施加到目标区域上的压力的压力传感器和/或用于感测可驱动个人器具的马达的马达负载的负载传感器。
除了至少一个惯性传感器数据171,172,173,…,17n之外或作为另一种选择,压力传感器和/或负载传感器的对应传感器数据也可作为输入被馈入到神经单元18中。
根据本发明的设备10的又一个示例,设备10可包括输出接口,以用于向使用者输出将可移动处理装置11定位在其中的目标表面12的一个或多个区域211,212,213,…,21n。
根据本发明的设备100的又一个示例,设备100可包括用于向使用者输出信息的输出接口,所述信息与一个或多个类101,102,103,104有关和/或与一个或多个类101,102,103,104的一个或多个类成员101A,101B,…,nA,nB有关。
在本文所述的实施方案中的每个实施方案中,传感器数据171,172,173,…,17n可存储在可移动个人器具或处理装置11上,并且晚些时候可以上述方式被馈入设备10,100中。这一存储的传感器数据171,172,173,…,17n到不同区域或类中的任何后处理可用来在仪表板上向消费者或使用者显示他们覆盖得多好或覆盖哪些区域、他们遗忘了什么、什么在目标内与目标外。这一数据可在每次使用时示出或随时间在使用后汇总(即,向消费者或使用者提供简单仪表板,显示他们在一周内是如何刷牙的)。
本发明还可包括以下特征:
·注意机制(添加到RNN)
·前置过滤工作
·避免头部位置依赖性(查看线性加速度)
·针对使用者ID的动态时间规整(指纹)
·局部高频采样和8位FFT以区分舌面和颊面(基于信号的颊阻尼—这将通过简单的装置上分类器,之后是原始信号+装置分类器到RNN中来完成)
·不仅训练位置预测器,而且训练“正确刷牙与不正确刷洗”
·进行聚类分析(在将使用者分组之前让使用者刷牙1-5次)以将使用者放置在针对该类型的使用者使用定制训练的RNN的限定空间中
尽管一些方面已经以设备为背景进行了说明,但是应当明白,这些方面也表示对相应方法所作的说明,其中一个方框或装置对应于一个方法步骤或方法步骤的特征。类似地,以方法步骤为背景来描述的方面也表示对相应设备的相应方框或项或特征所作的说明。一些或所有方法步骤可以由(或使用)硬件设备来执行,像例如,微处理器、可编程计算机、或电子电路。在一些实施方案中,一个或多个最重要的方法步骤可以由此类设备来执行。
根据某些实现方式的要求,本发明的实施方案可以在硬件或软件中或至少部分地在硬件中或至少部分地在软件中实现。该实现方式可使用数字存储介质来完成,例如,软盘、DVD、蓝光光碟、CD、ROM、PROM、EPROM、EEPROM、或闪存存储器,该介质上存储了电可读控制信号,其与(或能够与)可编程计算机系统配合,使相应方法得以执行。因此,数字存储介质可以是计算机可读介质。
根据本发明的一些实施方案包括具有电可读控制信号的数据载体,数据载体能够与可编程计算机系统配合,使本文所述多个方法中的一个方法得以执行。
一般地,本发明的实施方案可以作为计算机程序产品来实现,此计算机产品具有程序代码,当计算机程序产品在计算机上运行时,此程序代码可用于执行这些方法中的一个方法。程序代码可例如存储在机器可读载体上。
其它实施方案包括存储在机器可读载体中的计算机程序,此计算机程序用于执行本文所述多个方法中的一个方法。
换句话说,本发明方法的实施方案因此是个具有程序代码的计算机程序,当计算机程序在计算机上运行时,此计算机程序用于执行本文所述多个方法中的一个方法。
本发明方法的另一实施方案因此是数据载体(或数字存储介质、或计算机可读介质),此数据载体包括记录在其上的用于执行本文所述多个方法中一个方法的计算机程序。数据载体、数字存储介质或记录介质通常是有形的和/或非暂态性的。
本发明方法的另一实施方案因此是数据流、或表示用于执行本文所述多个方法中一个方法的计算机程序的信号序列。数据流或信号序列可例如被配置成经由数据通信连接,例如经由互联网、经由蓝牙低功耗(BLE)、经由WiFi、或经由任何类型的网络,例如经由网状网络传输。
另一实施方案包括处理部件,例如,计算机或可编程逻辑装置,其被配置成或适于执行本文所述多个方法中的一个方法。
另一实施方案包括在其上安装有用于执行本文所述多个方法中一个方法的计算机程序的计算机。
根据本发明的另一实施方案包括设备或系统,其被配置成向接收器传输(例如,以电子方式或光学方式)用于执行本文所述多个方法中一个方法的计算机程序。接收器可以例如是计算机、移动装置、存储器装置等。设备或系统可以例如包括文件服务器,以用于向接收器传输计算机程序。
在一些实施方案中,可编程逻辑装置(例如,现场可编程门阵列)可用于执行本文所述多个方法中的一些或所有功能。在一些实施方案中,现场可编程门阵列可以与微处理器配合,以便执行本文所述多个方法中的一个方法。一般来讲,该方法优选由任何硬件设备执行。
本文所述的设备可使用硬件设备,或使用计算机,或使用硬件设备与计算机的组合来实现。
本文所述的方法可使用硬件设备,或使用计算机,或使用硬件设备与计算机的组合来执行。
上述实施方案仅仅是为了说明本发明的原理。应当理解,本文所述的布置和细节的修改与变型对于本领域其他技术人员而言将是显而易见的。因此,其意图在于仅仅受到所附专利权利要求书的范围的限制,而非受到通过说明与解释本文实施方案而展示的具体细节的限制。
此外,本文所公开的量纲和值不旨在被理解为严格地限于所述的精确数值。相反,除非另外指明,否则每个此类量纲旨在表示所述值以及围绕该值功能上等同的范围。例如,公开为“40mm”的量纲旨在表示“约40mm”。
Claims (15)
1. 一种用于实施可移动处理装置(11)相对于目标表面(12)的定位的设备(10),所述可移动处理装置(11)包括惯性传感器(13)并且被配置成处理所述目标表面(12),所述设备(10)包括:
运动模式识别装置(14),所述运动模式识别装置被配置成区分包含在所述可移动处理装置(11)的运动模式集合(15)中的两个或更多个运动模式(151, 152, 153, …, 15n),以及
接口(16),所述接口用于将来自所述惯性传感器(13)的至少一个惯性传感器数据(171,172, 173, …, 17n)提供到所述运动模式识别装置(14),所述至少一个惯性传感器数据(171, 172, 173, …, 17n)表示所述可移动处理装置(11)的移动,
其中所述运动模式识别装置(14)包括神经网络(18),所述神经网络被配置成接收所述至少一个惯性传感器数据(171, 172, 173, …, 17n)并且将所述至少一个惯性传感器数据(171, 172, 173, …, 17n)映射到包含在所述运动模式集合(15)中的至少一个运动模式(151, 152, 153, …, 15n),其中所述运动模式(151, 152, 153, …, 15n)各自与所述目标表面(12)的一个或多个不同区域(211, 212, 213, …, 21n)相关联(201, 202, 203, …,20n),使得所述至少一个惯性传感器数据(171, 172, 173, …, 17n)与所述至少一个运动模式(151, 152, 153, …, 15n)的所述映射指示对所述可移动处理装置(11)相对于所述目标表面(12)的所述一个或多个区域(211, 212, 213, …, 21n)的定位的评估。
2.根据权利要求1所述的设备(10),其中所述可移动处理装置(11)为个人器具,并且所述目标表面(12)为待通过所述可移动处理装置(11)处理的身体部位。
3. 根据权利要求1或2所述的设备(10),其中所述可移动处理装置(11)为口腔护理装置,并且所述目标表面(12)为牙列,其中所述牙列(12)被分为不同的牙齿区域(1a-9a),其中所述至少一个惯性传感器数据(171, 172, 173, …, 17n)与所述至少一个运动模式(151,152, 153, …, 15n)的所述映射指示对所述口腔护理装置(11)相对于所述牙列(12)的所述一个或多个牙齿区域(1a-9a)的定位的评估。
4.根据权利要求3所述的设备(10),其中所述牙列(12)被分为九个牙齿区域(1a-9a),其中第一牙齿区域(1a)对应于左侧上颚和下颚牙列(12)的颊面,第二牙齿区域(2a)对应于左侧和右侧上颚牙列(12)的咬合面,第三牙齿区域(3a)对应于左侧和右侧下颚牙列(12)的咬合面,第四牙齿区域(4a)对应于左侧上颚和下颚牙列(12)的舌面,第五牙齿区域(5a)对应于右侧上颚和下颚牙列(12)的颊面,第六牙齿区域(6a)对应于左侧上颚和下颚牙列(12)的舌面,第七牙齿区域(7a)对应于上颚和下颚牙列(12)的唇面,第八牙齿区域(8a)对应于上颚牙列(12)的颚面,第九牙齿区域(9a)对应于前下颚牙列(12)的口腔面。
5. 根据权利要求3或4所述的设备(10),其中包含在所述运动模式集合(15)中的至少一个预定运动模式(15NB)与所述目标表面(12)之外的区域(21NB)相关联,其中所述至少一个惯性传感器数据(171, 172, 173, …, 17n)与所述至少一个预定运动模式(15NB)的所述映射指示所述可移动处理装置(11)定位在所述目标表面(12)之外的所述区域(21NB)中。
6.根据权利要求1至5中任一项所述的设备(10),其中所述神经网络(18)为递归神经网络—RNN。
7. 根据权利要求1至6中任一项所述的设备(10),其中所述神经网络(18)包括第一层(71),其中所述第一层(71)包括神经单元(60),其中在第一时间点t,所述至少一个惯性传感器数据(172)被输入到所述第一层(71)的所述神经单元(60)中,并且其中在后续第二时间点t+1,第二惯性传感器数据(173)和所述先前第一时间点t的至少一个输出ht (46)被输入到所述第一层(71)的所述神经单元(60)中。
8. 根据权利要求1至6中任一项所述的设备(10),其中所述神经网络(18)包括至少第一层(71)和第二层(72),其中所述第一层(71)包括第一神经单元(60)并且其中所述第二层(72)包括第二神经单元(70),其中在第一时间点t,所述至少一个惯性传感器数据(172)被输入到所述第一层(71)的所述第一神经单元(60)中,并且其中所述第一神经单元(60)的至少一个输出ht (46)被输入到所述第二层(72)的所述第二神经单元(70)中。
9. 根据权利要求1至6中任一项所述的设备(10),其中所述神经网络(18)包括至少第一层(71)和第二层(72),其中所述第一层(71)包括第一神经单元(60)并且其中所述第二层(72)包括第二神经单元(70),其中在第一时间点t,所述至少一个惯性传感器数据(172)被输入到所述第一层(71)的所述第一神经单元(60)中,并且其中所述第一神经单元(60)的至少一个输出ht (46)被输入到所述第二层(72)的所述神经单元(70)中,并且其中在后续第二时间点t+1,第二惯性传感器数据(173)和在所述第一时间点t的所述第一神经单元(60)的至少一个输出ht (46)被输入到在所述后续第二时间点t+1的所述第一神经单元(60)中。
10. 根据权利要求7至9中任一项所述的设备(10),其中所述至少一个惯性传感器数据(171, 172, 173, …, 17n)包括一个或多个惯性传感器数据部分,其中输入到第一时间点t的所述神经单元(60)的输入是包括在所述第一时间点t期间检索的所述一个或多个惯性传感器数据部分的相应惯性传感器数据(171, 172, 173, …, 17n)。
11. 根据权利要求1至10中任一项所述的设备(10),其中所述至少一个惯性传感器数据(171, 172, 173, …, 17n)包含组的至少三个惯性传感器数据部分,所述组包括在x、y和z方向上的线速度,相对于x轴、y轴和z轴的角速度,在x、y和z方向上的线加速度,以及相对于x轴、y轴和z轴的角加速度。
12. 根据权利要求1至11中任一项所述的设备(10),其中所述神经网络(18)的输出y(t)包括一个或多个概率值,所述概率值用于对所述可移动处理装置(11)相对于所述目标表面(12)的所述一个或多个区域(211, 212, 213, …, 21n)的定位的评估。
13. 根据权利要求1至12中任一项所述的设备(10),其中所述运动模式识别装置(14)被配置成由所述至少一个惯性传感器数据(171, 172, 173, …, 17n)确定所述可移动处理装置(11)和所述目标表面(12)的相互移动,并且从所述可移动处理装置(11)的所确定移动中移除所述目标表面(12)的所确定移动。
14.一种用于实施可移动处理装置(11)相对于目标表面(12)的定位的方法,所述可移动处理装置(11)包括惯性传感器(13)并且被配置成处理所述目标表面(12),所述方法包括:
区分包含在所述可移动处理装置(11)的运动模式集合(15)中的两个或更多个运动模式(151, 152, 153, …, 15n),
接收来自所述惯性传感器(13)的至少一个惯性传感器数据(171, 172, 173, …, 17n),所述至少一个惯性传感器数据(171, 172, 173, …, 17n)表示所述可移动处理装置(11)的移动,
借助于神经网络(18)接收并处理所述至少一个惯性传感器数据(171, 172, 173, …,17n)并且将所述至少一个惯性传感器数据(171, 172, 173, …, 17n)映射到包含在所述运动模式集合(15)中的至少一个运动模式(151, 152, 153, …, 15n),其中包含在所述运动模式集合(15)中的所述运动模式(151, 152, 153, …, 15n)各自与所述目标表面(12)的一个或多个不同区域(211, 212, 213, …, 21n)相关联,使得所述至少一个惯性传感器数据(171, 172, 173, …, 17n)与所述至少一个运动模式(151, 152, 153, …, 15n)的所述映射指示对所述可移动处理装置(11)相对于所述目标表面(12)的所述一个或多个区域(211,212, 213, …, 21n)的定位的评估。
15.一种计算机可读数字存储介质,所述计算机可读数字存储介质具有存储在其上的计算机程序,所述计算机程序具有程序代码,所述程序代码用于当在计算机上运行时实施根据权利要求14所述的方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18157358.5A EP3528166B1 (en) | 2018-02-19 | 2018-02-19 | Apparatus and method for classifying a motion of a movable personal appliance |
EP18157358.5 | 2018-02-19 | ||
EP18157362.7A EP3528167A1 (en) | 2018-02-19 | 2018-02-19 | Apparatus and method for performing a localization of a movable treatment device |
EP18157362.7 | 2018-02-19 | ||
PCT/IB2019/051248 WO2019159128A2 (en) | 2018-02-19 | 2019-02-15 | Apparatus and method for performing a localization of a movable treatment device |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111742327A true CN111742327A (zh) | 2020-10-02 |
CN111742327B CN111742327B (zh) | 2024-05-28 |
Family
ID=65324298
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980014213.0A Pending CN111771209A (zh) | 2018-02-19 | 2019-02-15 | 用于对可移动处理装置的运动进行分类的设备和方法 |
CN201980014221.5A Pending CN111742328A (zh) | 2018-02-19 | 2019-02-15 | 用于对手持式消费装置的使用进行分类的系统 |
CN201980014210.7A Active CN111771208B (zh) | 2018-02-19 | 2019-02-15 | 用于实施可移动处理装置的定位的设备和方法 |
CN201980014214.5A Active CN111742327B (zh) | 2018-02-19 | 2019-02-15 | 用于实施可移动处理装置的定位的设备和方法 |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980014213.0A Pending CN111771209A (zh) | 2018-02-19 | 2019-02-15 | 用于对可移动处理装置的运动进行分类的设备和方法 |
CN201980014221.5A Pending CN111742328A (zh) | 2018-02-19 | 2019-02-15 | 用于对手持式消费装置的使用进行分类的系统 |
CN201980014210.7A Active CN111771208B (zh) | 2018-02-19 | 2019-02-15 | 用于实施可移动处理装置的定位的设备和方法 |
Country Status (7)
Country | Link |
---|---|
US (5) | US11755686B2 (zh) |
EP (3) | EP3528172B1 (zh) |
JP (5) | JP7221291B2 (zh) |
KR (2) | KR102613604B1 (zh) |
CN (4) | CN111771209A (zh) |
ES (1) | ES2971724T3 (zh) |
WO (4) | WO2019159128A2 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112884132A (zh) * | 2021-03-19 | 2021-06-01 | 有品国际科技(深圳)有限责任公司 | 基于神经网络的刷牙检测方法、装置、电动牙刷及介质 |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111771209A (zh) * | 2018-02-19 | 2020-10-13 | 博朗有限公司 | 用于对可移动处理装置的运动进行分类的设备和方法 |
KR20210030106A (ko) * | 2019-09-09 | 2021-03-17 | 엘지전자 주식회사 | 서버 |
WO2021262955A1 (en) * | 2020-06-24 | 2021-12-30 | Edgewell Personal Care Brands, Llc | Machine learning for a personal care device |
GB2602086A (en) * | 2020-12-17 | 2022-06-22 | Dyson Technology Ltd | Oral treatment device |
US20220201256A1 (en) * | 2020-12-22 | 2022-06-23 | Here Global B.V. | Method, apparatus, and system for capturing an image sequence for a visual positioning service request |
CA3226672A1 (en) | 2021-08-06 | 2023-02-09 | Braun Gmbh | Universal base for electric toothbrush |
WO2024007884A1 (en) | 2022-07-04 | 2024-01-11 | Braun Gmbh | Oral scanner system |
WO2024007117A1 (en) | 2022-07-04 | 2024-01-11 | Braun Gmbh | Oral scanner system |
WO2024007113A1 (en) | 2022-07-04 | 2024-01-11 | Braun Gmbh | Oral scanner system |
WO2024007106A1 (en) | 2022-07-04 | 2024-01-11 | Braun Gmbh | Oral scanner system |
WO2024007098A1 (en) | 2022-07-04 | 2024-01-11 | Braun Gmbh | Oral scanner system |
WO2024007091A1 (en) | 2022-07-04 | 2024-01-11 | Braun Gmbh | Oral scanner system |
WO2024007100A1 (en) | 2022-07-04 | 2024-01-11 | Braun Gmbh | Oral scanner system |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4218600A1 (de) * | 1992-06-05 | 1993-12-09 | Bodenseewerk Geraetetech | Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers |
US20030036835A1 (en) * | 1997-02-06 | 2003-02-20 | Breed David S. | System for determining the occupancy state of a seat in a vehicle and controlling a component based thereon |
CN101124534A (zh) * | 2005-02-24 | 2008-02-13 | 诺基亚公司 | 用于计算终端的运动输入设备及其操作方法 |
CN101367015A (zh) * | 2007-06-18 | 2009-02-18 | 神奇游戏智能公司 | 采用可移动控制器进行交互控制的独立惯性导航系统 |
CN101689245A (zh) * | 2007-06-27 | 2010-03-31 | 微软公司 | 识别输入姿势 |
CN101969878A (zh) * | 2008-03-14 | 2011-02-09 | 欧姆龙健康医疗事业株式会社 | 电动牙刷 |
US20110060706A1 (en) * | 2009-09-07 | 2011-03-10 | Hirotaka Suzuki | Information processing device, information processing method, and program |
CN102265242A (zh) * | 2008-10-29 | 2011-11-30 | 因文森斯公司 | 在移动设备上使用运动处理来控制和访问内容 |
US20150109202A1 (en) * | 2013-10-22 | 2015-04-23 | Thalmic Labs Inc. | Systems, articles, and methods for gesture identification in wearable electromyography devices |
CN104848861A (zh) * | 2015-05-28 | 2015-08-19 | 西安交通大学 | 一种基于图像消失点识别技术的移动设备姿态测量方法 |
CN105723185A (zh) * | 2013-11-25 | 2016-06-29 | 高通股份有限公司 | 基于运动状态的移动装置定位 |
CN106922185A (zh) * | 2014-09-30 | 2017-07-04 | 微软技术许可有限责任公司 | 经由可穿戴和移动设备的基于自然运动的控制 |
CN107092894A (zh) * | 2017-04-28 | 2017-08-25 | 孙恩泽 | 一种基于lstm模型的运动行为识别方法 |
JP2017187850A (ja) * | 2016-04-01 | 2017-10-12 | 株式会社リコー | 画像処理システム、情報処理装置、プログラム |
GB201721636D0 (en) * | 2017-12-21 | 2018-02-07 | Yoti Holding Ltd | Biometric user authentication |
US20180049001A1 (en) * | 2016-08-10 | 2018-02-15 | Yandex Europe Ag | Method of and server for processing wireless device sensor data to generate an entity vector associated with a physical location |
Family Cites Families (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002090267A (ja) * | 2000-09-21 | 2002-03-27 | Mitsui Eng & Shipbuild Co Ltd | 異常診断方法 |
KR100580647B1 (ko) * | 2004-04-01 | 2006-05-16 | 삼성전자주식회사 | 입력모드 분류가능한 동작기반 입력장치 및 방법 |
WO2006137648A1 (en) * | 2005-06-20 | 2006-12-28 | Jin-Sang Hwang | Tooth brushing pattern analyzing/modifying device, method and system for interactively modifying tooth brushing behavior |
JP4388033B2 (ja) | 2006-05-15 | 2009-12-24 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
AU2007348326B2 (en) * | 2006-05-31 | 2012-03-08 | Trx Systems, Inc. | Method and system for locating and monitoring first responders |
US20080102953A1 (en) | 2006-10-31 | 2008-05-01 | Motorola, Inc. | Toothbrush affecting game play |
DE102007001025B4 (de) | 2007-01-02 | 2008-11-20 | Siemens Ag | Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems |
KR100947046B1 (ko) | 2007-11-19 | 2010-03-10 | 황진상 | 운동체 자세 추적 장치, 운동체 자세 추적 방법, 이를이용한 칫솔 자세 추적 장치 및 칫솔 자세 추적 방법 |
US10192389B2 (en) | 2008-09-01 | 2019-01-29 | New Bis Safe Luxco S.À.R.L. | Methods, apparatus and systems for determining an adjustment value of a gaming device |
JP5574789B2 (ja) * | 2010-04-08 | 2014-08-20 | 株式会社東芝 | 車両周辺監視装置及び車両周辺監視方法 |
KR20130057688A (ko) * | 2011-11-24 | 2013-06-03 | (주)케이엔씨웰빙 | 양치 패턴 분석용 칫솔 및 분석 시스템 |
US10314492B2 (en) | 2013-05-23 | 2019-06-11 | Medibotics Llc | Wearable spectroscopic sensor to measure food consumption based on interaction between light and the human body |
US20140065588A1 (en) * | 2012-08-31 | 2014-03-06 | Ideas That Work, Llc | Toothbrush Training System |
US9263036B1 (en) | 2012-11-29 | 2016-02-16 | Google Inc. | System and method for speech recognition using deep recurrent neural networks |
KR101851836B1 (ko) * | 2012-12-03 | 2018-04-24 | 나비센스, 인크. | 물체의 움직임을 추정하기 위한 시스템 및 방법 |
US9413797B2 (en) * | 2013-04-23 | 2016-08-09 | Gurulogic Microsystems Oy | Data communication system and method |
US9529385B2 (en) | 2013-05-23 | 2016-12-27 | Medibotics Llc | Smart watch and human-to-computer interface for monitoring food consumption |
US20160091308A1 (en) * | 2014-09-30 | 2016-03-31 | Invensense, Inc. | Microelectromechanical systems (mems) acoustic sensor-based gesture recognition |
CN107105888B (zh) * | 2014-12-22 | 2019-09-20 | 太阳星光齿磨公司 | 牙刷用配件 |
CN105832315A (zh) * | 2015-01-16 | 2016-08-10 | 中国科学院上海高等研究院 | 不受个体运动状态与环境位置影响的远程监测系统 |
SG10201912070VA (en) * | 2015-05-13 | 2020-02-27 | Kolibree | Toothbrush system with magnetometer for dental hygiene monitoring |
US9336482B1 (en) | 2015-07-27 | 2016-05-10 | Google Inc. | Predicting likelihoods of conditions being satisfied using recurrent neural networks |
WO2017029570A1 (en) * | 2015-08-19 | 2017-02-23 | Koninklijke Philips N.V. | Methods and systems for oral cleaning device localization |
EP3141151B1 (en) | 2015-09-08 | 2023-10-18 | Braun GmbH | Determination of a currently treated body portion of a user |
GB2545668B (en) | 2015-12-21 | 2020-05-20 | Suunto Oy | Sensor based context management |
SG11201807473UA (en) * | 2016-03-14 | 2018-09-27 | Kolibree | Oral hygiene system with visual recognition for compliance monitoring |
EP3433707B1 (en) | 2016-03-22 | 2020-10-28 | Magic Leap, Inc. | Head mounted display system configured to exchange biometric information |
EP3435864A4 (en) | 2016-03-31 | 2019-09-18 | Zoll Medical Corporation | SYSTEMS AND METHODS FOR MONITORING THE MOVEMENT OF A PATIENT |
US10712738B2 (en) * | 2016-05-09 | 2020-07-14 | Strong Force Iot Portfolio 2016, Llc | Methods and systems for industrial internet of things data collection for vibration sensitive equipment |
CN107516102B (zh) * | 2016-06-16 | 2020-10-23 | 北京市商汤科技开发有限公司 | 图像数据分类与建立分类模型方法、装置及系统 |
KR20180070932A (ko) * | 2016-12-19 | 2018-06-27 | 삼성전자주식회사 | 이동체 및 이동체의 제어 방법 |
US20170173262A1 (en) | 2017-03-01 | 2017-06-22 | François Paul VELTZ | Medical systems, devices and methods |
CN107153642A (zh) * | 2017-05-16 | 2017-09-12 | 华北电力大学 | 一种基于神经网络识别文本评论情感倾向的分析方法 |
CN107203753B (zh) * | 2017-05-25 | 2020-09-08 | 西安工业大学 | 一种基于模糊神经网络和图模型推理的动作识别方法 |
CN109002189B (zh) * | 2017-06-07 | 2021-09-07 | 斑马智行网络(香港)有限公司 | 一种运动识别方法、装置、设备和计算机存储介质 |
US10726301B2 (en) * | 2017-06-29 | 2020-07-28 | The Procter & Gamble Company | Method for treating a surface |
KR20200037816A (ko) * | 2017-08-02 | 2020-04-09 | 스트롱 포스 아이오티 포트폴리오 2016, 엘엘씨 | 대규모 데이터 세트들을 갖는 산업 사물 인터넷 데이터 수집 환경에서의 검출을 위한 방법들 및 시스템들 |
GB2567850B (en) * | 2017-10-26 | 2020-11-04 | Gb Gas Holdings Ltd | Determining operating state from complex sensor data |
CA3084815A1 (en) * | 2017-12-28 | 2019-07-04 | Colgate-Palmolive Company | Oral hygiene systems |
CN111771209A (zh) * | 2018-02-19 | 2020-10-13 | 博朗有限公司 | 用于对可移动处理装置的运动进行分类的设备和方法 |
CN108451155B (zh) * | 2018-04-13 | 2020-09-08 | 深圳市力博得科技有限公司 | 智能牙刷的控制电路、智能牙刷及刷牙行为的监控方法 |
-
2019
- 2019-02-15 CN CN201980014213.0A patent/CN111771209A/zh active Pending
- 2019-02-15 US US16/276,947 patent/US11755686B2/en active Active
- 2019-02-15 US US16/276,972 patent/US20190254794A1/en active Pending
- 2019-02-15 KR KR1020207023050A patent/KR102613604B1/ko active IP Right Grant
- 2019-02-15 WO PCT/IB2019/051248 patent/WO2019159128A2/en active Application Filing
- 2019-02-15 WO PCT/IB2019/051249 patent/WO2019159129A2/en active Application Filing
- 2019-02-15 US US16/276,993 patent/US20190254795A1/en active Pending
- 2019-02-15 JP JP2020543228A patent/JP7221291B2/ja active Active
- 2019-02-15 JP JP2020543144A patent/JP7190496B2/ja active Active
- 2019-02-15 EP EP19157587.7A patent/EP3528172B1/en active Active
- 2019-02-15 WO PCT/IB2019/051247 patent/WO2019159127A1/en active Application Filing
- 2019-02-15 CN CN201980014221.5A patent/CN111742328A/zh active Pending
- 2019-02-15 CN CN201980014210.7A patent/CN111771208B/zh active Active
- 2019-02-15 JP JP2020543384A patent/JP7203856B2/ja active Active
- 2019-02-15 JP JP2020543273A patent/JP7402165B2/ja active Active
- 2019-02-15 CN CN201980014214.5A patent/CN111742327B/zh active Active
- 2019-02-15 KR KR1020207023040A patent/KR102555432B1/ko active IP Right Grant
- 2019-02-15 US US16/277,024 patent/US20190254796A1/en active Pending
- 2019-02-15 EP EP19157585.1A patent/EP3528171B1/en active Active
- 2019-02-15 EP EP19157582.8A patent/EP3528170B1/en active Active
- 2019-02-15 WO PCT/IB2019/051250 patent/WO2019159130A2/en active Application Filing
- 2019-02-15 ES ES19157587T patent/ES2971724T3/es active Active
-
2022
- 2022-09-30 JP JP2022158618A patent/JP2023017766A/ja active Pending
-
2023
- 2023-06-28 US US18/215,248 patent/US20230342423A1/en active Pending
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4218600A1 (de) * | 1992-06-05 | 1993-12-09 | Bodenseewerk Geraetetech | Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers |
US20030036835A1 (en) * | 1997-02-06 | 2003-02-20 | Breed David S. | System for determining the occupancy state of a seat in a vehicle and controlling a component based thereon |
CN101124534A (zh) * | 2005-02-24 | 2008-02-13 | 诺基亚公司 | 用于计算终端的运动输入设备及其操作方法 |
CN101367015A (zh) * | 2007-06-18 | 2009-02-18 | 神奇游戏智能公司 | 采用可移动控制器进行交互控制的独立惯性导航系统 |
CN101689245A (zh) * | 2007-06-27 | 2010-03-31 | 微软公司 | 识别输入姿势 |
CN101969878A (zh) * | 2008-03-14 | 2011-02-09 | 欧姆龙健康医疗事业株式会社 | 电动牙刷 |
CN102265242A (zh) * | 2008-10-29 | 2011-11-30 | 因文森斯公司 | 在移动设备上使用运动处理来控制和访问内容 |
US20110060706A1 (en) * | 2009-09-07 | 2011-03-10 | Hirotaka Suzuki | Information processing device, information processing method, and program |
US20150109202A1 (en) * | 2013-10-22 | 2015-04-23 | Thalmic Labs Inc. | Systems, articles, and methods for gesture identification in wearable electromyography devices |
CN105723185A (zh) * | 2013-11-25 | 2016-06-29 | 高通股份有限公司 | 基于运动状态的移动装置定位 |
CN106922185A (zh) * | 2014-09-30 | 2017-07-04 | 微软技术许可有限责任公司 | 经由可穿戴和移动设备的基于自然运动的控制 |
CN104848861A (zh) * | 2015-05-28 | 2015-08-19 | 西安交通大学 | 一种基于图像消失点识别技术的移动设备姿态测量方法 |
JP2017187850A (ja) * | 2016-04-01 | 2017-10-12 | 株式会社リコー | 画像処理システム、情報処理装置、プログラム |
US20180049001A1 (en) * | 2016-08-10 | 2018-02-15 | Yandex Europe Ag | Method of and server for processing wireless device sensor data to generate an entity vector associated with a physical location |
CN107092894A (zh) * | 2017-04-28 | 2017-08-25 | 孙恩泽 | 一种基于lstm模型的运动行为识别方法 |
GB201721636D0 (en) * | 2017-12-21 | 2018-02-07 | Yoti Holding Ltd | Biometric user authentication |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112884132A (zh) * | 2021-03-19 | 2021-06-01 | 有品国际科技(深圳)有限责任公司 | 基于神经网络的刷牙检测方法、装置、电动牙刷及介质 |
CN112884132B (zh) * | 2021-03-19 | 2024-04-30 | 有品国际科技(深圳)有限责任公司 | 基于神经网络的刷牙检测方法、装置、电动牙刷及介质 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111742327B (zh) | 用于实施可移动处理装置的定位的设备和方法 | |
CN113168910B (zh) | 用于操作个人梳理器具或家用清洁器具的设备和方法 | |
JP2022529069A (ja) | 歯間空間検出のためのオーラルケアシステム | |
US20220398745A1 (en) | Apparatus and method for operating a dental appliance | |
EP3528166B1 (en) | Apparatus and method for classifying a motion of a movable personal appliance | |
EP3528167A1 (en) | Apparatus and method for performing a localization of a movable treatment device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |