CN114190886A - 噪声波形除去装置及方法、模型训练装置及方法、生成模型以及可穿戴设备 - Google Patents
噪声波形除去装置及方法、模型训练装置及方法、生成模型以及可穿戴设备 Download PDFInfo
- Publication number
- CN114190886A CN114190886A CN202111083636.3A CN202111083636A CN114190886A CN 114190886 A CN114190886 A CN 114190886A CN 202111083636 A CN202111083636 A CN 202111083636A CN 114190886 A CN114190886 A CN 114190886A
- Authority
- CN
- China
- Prior art keywords
- waveform data
- motion waveform
- training
- model
- noisy
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 158
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000001914 filtration Methods 0.000 claims description 44
- 238000013500 data storage Methods 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 14
- 230000001133 acceleration Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000006854 communication Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K15/00—Acoustics not otherwise provided for
- G10K15/02—Synthesis of acoustic waves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
- A61B5/7207—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7225—Details of analog processing, e.g. isolation amplifier, gain or sensitivity adjustment, filtering, baseline or drift compensation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Medical Informatics (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Psychiatry (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physiology (AREA)
- Power Engineering (AREA)
- Fuzzy Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明涉及噪声波形除去装置、模型训练装置、噪声波形除去方法、模型训练方法、生成模型以及可穿戴设备。提供用于从包含噪声的运动波形数据除去噪声的技术。本公开的一方式涉及噪声波形除去装置,具有:取得部,其取得有噪声运动波形数据;滤波贡献率决定部,其利用训练完毕生成模型,基于所述有噪声运动波形数据来决定滤波贡献率;和噪声除去部,其基于所决定的所述滤波贡献率和所述有噪声运动波形数据来生成无噪声运动波形数据。
Description
本申请主张以日本特愿2020-157821号(申请日为2020年9月18日)为基础的优先权,通过参考将其内容引用到本说明书中。
技术领域
本公开涉及噪声波形除去装置、模型训练装置、噪声波形除去方法、模型训练方法、生成模型以及可穿戴设备。
背景技术
为了探测跑步、步行等运动中的用户的运动状态,利用加速度传感器、陀螺仪传感器等惯性传感器。用户将内置这样的惯性传感器的智能手机、智能手表、万步计(注册商标)等可穿戴设备等携带,确认基于表示由该设备取得的运动状态的运动波形数据而解析的运动状态。
另一方面,在携带这样的可穿戴设备时,用户有时会将可穿戴设备装入手包等随身包。
在该情况下,可穿戴设备不仅探测用户的步行所引起的着地冲击,有可能还会探测与随身包的接触、与随身包内的其他随身物的接触等所引起的非着地冲击。
在该情况下,由可穿戴设备探测的运动波形数据不仅包含由作为所期望数据的着地冲击带来的波形,还包含噪声即基于非着地冲击的波形,可穿戴设备会不能根据由惯性传感器取得的运动波形数据来正确判定用户的运动状态。
发明内容
鉴于上述课题,本公开提供用于从包含噪声的运动波形数据除去噪声的技术。
本发明一个方式提供一种噪声波形除去装置,其特征在于,具有:取得部,其取得有噪声运动波形数据;滤波贡献率决定部,其利用训练完毕生成模型,基于所述有噪声运动波形数据来决定滤波贡献率;和噪声除去部,其基于所决定的所述滤波贡献率和所述有噪声运动波形数据来生成无噪声运动波形数据。
本发明的另一方式提供一种模型训练装置,其特征在于,具有:训练数据存放部,其存放包含训练用有噪声运动波形数据和训练用无噪声运动波形数据的训练数据;和模型训练部,其遵循GAN(Generative Adversarial Network)训练基于所述训练用有噪声运动波形数据来决定滤波贡献率的生成模型、和识别基于所述滤波贡献率以及所述训练用有噪声运动波形数据而生成的伪无噪声运动波形数据和所述训练数据的识别模型。
本发明的另一方式提供一种噪声波形除去方法,其特征在于,具有如下步骤:1个以上处理器取得有噪声运动波形数据;所述1个以上处理器利用训练完毕生成模型,基于所述有噪声运动波形数据来决定滤波贡献率;和所述1个以上处理器基于所决定的所述滤波贡献率和所述有噪声运动波形数据来生成无噪声运动波形数据。
本发明的另一方式提供一种模型训练方法,其特征在于,具有如下步骤:1个以上处理器存放包含训练用有噪声运动波形数据和训练用无噪声运动波形数据的训练数据;所述1个以上处理器遵循GAN(Generative Adversarial Network)训练基于所述训练用有噪声运动波形数据来决定滤波贡献率的生成模型、和识别基于所述滤波贡献率以及所述训练用有噪声运动波形数据而生成的伪无噪声运动波形数据和所述训练数据的识别模型。
本发明的另一方式提供一种生成模型,根据有噪声运动波形数据来决定滤波贡献率,所述生成模型的特征在于,所述生成模型基于训练用有噪声运动波形数据来决定滤波贡献率,遵循利用了识别基于所述滤波贡献率和所述训练用有噪声运动波形数据而生成的伪无噪声运动波形数据和训练数据的识别模型的GAN(Generative AdversarialNetwork),来训练所述生成模型。
本发明的另一方式提供一种可穿戴设备,其特征在于,具有:惯性传感器;和上述的噪声波形除去装置。
发明的效果
根据本公开,能从包含噪声的运动波形数据除去噪声。
附图说明
图1是表示本公开的一实施例的噪声波形除去装置以及模型训练装置的概略图。
图2是表示本公开的一实施例的有噪声运动波形以及无噪声运动波形的图。
图3是表示本公开的一实施例的噪声波形除去装置的硬件结构的框图。
图4是表示本公开的一实施例的模型训练装置的硬件结构的框图。
图5是表示本公开的一实施例的噪声波形除去处理的概略图。
图6是表示本公开的一实施例的噪声波形除去装置的功能结构的框图。
图7是表示本公开的一实施例的噪声波形除去处理的流程图。
图8是表示本公开的一实施例的模型训练装置的功能结构的框图。
图9是表示本公开的一实施例的模型训练处理的概略图。
图10是表示本公开的其他实施例的模型训练处理的概略图。
图11是表示本公开的一实施例的模型训练处理的流程图。
具体实施方式
在以下的实施例中,公开了:噪声波形除去装置,其利用训练完毕生成模型来生成从包含源自于非着地冲击的噪声的有噪声运动波形数据中除去了噪声的无噪声运动波形数据;和模型训练装置,其利用识别模型,遵循GAN(Generative Adversarial Network,生成对抗网络)来训练该生成模型。
[本公开的概要]
若对后述的实施例进行概略,则如图1所示那样,噪声波形除去装置100将包含源自于非着地冲击的噪声的有噪声运动波形数据输入到训练完毕生成模型,从训练完毕生成模型取得滤波贡献率。噪声波形除去装置100遵循滤波贡献率来执行滤波,从有噪声运动波形数据除去噪声,生成无噪声运动波形数据。例如,若由探测运动波形的可穿戴设备探测到图2的(a)所示那样的源自于手包冲击的有噪声运动波形数据,噪声波形除去装置100就如图2的(b)所示那样,对应于从训练完毕生成模型输出的滤波贡献率来执行滤波,生成除去了该噪声的无噪声运动波形数据。
由模型训练装置200遵循GAN来训练该生成模型。即,模型训练装置200从训练数据数据库50取得由训练用有噪声运动波形数据与训练用无噪声运动波形数据的配对构成的训练数据或正解数据,遵循GAN来训练生成模型和与该生成模型对应的识别模型。生成模型根据训练用有噪声运动波形数据来生成滤波贡献率,模型训练装置200对应于输出的滤波贡献率来对训练用有噪声运动波形数据执行滤波,取得伪无噪声运动波形数据。
识别模型若取得伪无噪声运动波形数据、训练用有噪声运动波形数据以及训练用无噪声运动波形数据的任一者作为输入数据,就识别输入数据是由生成模型生成的伪数据还是训练数据,进而识别输入数据是否包含噪声。模型训练装置100遵循GAN来训练识别模型,以使其输出正确的识别结果,训练生成模型,以使其输出错误的识别结果。
根据本公开,与通常的GAN的学习不同,取代直接生成输出波形,而是生成各时刻的低通滤波的应用强度。由于与输出波形本身的多样性相比,低通滤波的应用强度的多样性更低,因此能通过少数的训练数据来训练生成模型。另外,通过将生成模型的输出不是设为无噪声运动波形数据而是设为滤波贡献率,能避免GAN所固有的模式崩塌(modecollapse)的问题,即,能避免不管输入数据如何生成模型都输出误导识别模型的特定的数据这的问题。
[硬件结构]
在此,噪声波形除去装置100例如可以搭载于可穿戴设备,具有图3所示那样的硬件结构。即,噪声波形除去装置100具有CPU(Central Processing Unit,中央处理器)101、存储器装置102、辅助存储装置103、传感器104、通信装置105以及操作单元106。
将包含实现噪声波形除去装置100中的后述的各种功能以及处理的程序或命令的各种计算机程序安装在辅助存储装置103,存储器装置102在有噪声波形除去装置100的启动指示的情况下,从辅助存储装置103将程序、数据读出并存放。辅助存储装置103以及存储器装置102实现为存放程序或命令的非临时的计算机可读存储介质。作为处理器发挥功能的CPU101遵循存放于存储器装置102的程序、执行程序所需的参数等各种数据,基于从传感器104取得的传感器数据来执行噪声波形除去装置100的各种功能以及处理。传感器104可以是加速度传感器、陀螺仪传感器等,探测与用户的移动关联的各种数据。通信装置105将传感器数据发送到智能手机、智能手表等其他信息终端。操作单元106可以是用于搭载噪声波形除去装置100的可穿戴设备的电源接通/断开的开关、表示电源接通/断开状态的灯、设定按钮、显示面板等。
另一方面,模型训练装置200例如可以是个人计算机、服务器等计算装置,具有经由总线B相互连接的驱动装置201、辅助存储装置202、存储器装置203、CPU204、接口装置205以及通信装置206。
包含实现模型训练装置200中的后述的各种功能以及处理的程序或命令的各种计算机程序,也可以通过CD-ROM(Compact Disk-Read Only Memory,光盘只读存储器)等记录介质207提供。若将存储程序的记录介质207放置于驱动装置201,就将程序从记录介质207经由驱动装置201安装到辅助存储装置202。但程序的安装不一定非要通过记录介质207进行,也可以经由网络等从任意外部装置下载。辅助存储装置202存放所安装的程序,并存放需要的文件、数据等。存储器装置203在有程序的启动指示的情况下,从辅助存储装置202将程序、数据读出并存放。辅助存储装置202以及存储器装置203,实现为存放程序或命令的非临时的计算机可读存储介质。作为处理器发挥功能的CPU204遵循存放于存储器装置203的程序、执行程序所需的参数等各种数据来执行模型训练装置200的各种功能以及处理。接口装置205是键盘、鼠标等输入装置、显示器等输出装置等,用作与用户的用户界面。通信装置206执行用于与外部装置进行通信的各种通信处理。
但噪声波形除去装置100以及模型训练装置200并不限定于上述的硬件结构,例如也可以通过实现噪声波形除去装置100以及模型训练装置200的功能以及处理的1者以上的1个以上电路等其他任意硬件结构实现。
[噪声波形除去装置]
接下来,参考图5以及6来说明本公开的一实施例的噪声波形除去装置100。图5是表示本公开的一实施例的噪声波形除去处理的概略图。
如图5所示那样,根据噪声波形除去装置100,若由惯性传感器(例如加速度传感器、陀螺仪传感器等)探测到包含源自于着地冲击的波形部分、和源自于与将可穿戴设备装入的手包的接触所引起的非着地冲击的波形部分的有噪声运动波形数据,就将有噪声运动波形数据输入到训练完毕生成模型,并对波形整体应用低通滤波。在本实施例中,作为滤波手法而应用低通滤波,但本公开并不限定于此,还可以利用适于除去对象的噪声的其他任何合适的类型的滤波。
本公开的生成模型为了从非着地冲击所引起的有噪声运动波形数据的采样数据中除去噪声,预测表示在该时刻应对有噪声运动波形数据应用何种程度低通滤波的低通滤波贡献率。
噪声波形除去装置100,对进行过低通滤波的有噪声运动波形数据乘以低通滤波贡献率R来导出第1中间运动波形数据,进而对有噪声运动波形数据乘以(1-R)来导出第2中间运动波形数据。然后,噪声波形除去装置100取第1中间运动波形数据与第2中间运动波形数据之和,来取得除去了源自于图示那样的手包冲击的噪声的无噪声运动波形数据。
图6是表示本公开的一实施例的噪声波形除去装置100的功能结构的框图。如图6所示那样,噪声波形除去装置100具有测定数据取得部110、低通滤波贡献率决定部120以及噪声除去部130。
测定数据取得部110取得有噪声运动波形数据。具体地,测定数据取得部110从由用户携带的惯性传感器(例如加速度传感器、陀螺仪传感器等)探测用户的运动波形数据、即有噪声运动波形数据,并将其提供到低通滤波贡献率决定部120以及噪声除去部130。例如,运动波形数据由加速度数据以及/或者角速度数据构成。
低通滤波贡献率决定部120利用训练完毕生成模型,基于有噪声运动波形数据来决定低通滤波贡献率。具体地,低通滤波贡献率决定部120将根据给定的采样率提取的有噪声运动波形数据输入到训练完毕生成模型,来决定为了从该有噪声运动波形数据中除去源自于非着地冲击的噪声所要应用的低通滤波的低通滤波贡献率R(0≤R≤1)。
低通滤波贡献率R是表示低通滤波的应用的程度或强弱的值,R越接近于1,就对有噪声运动波形数据应用越强的低通滤波,R越接近于0,就对有噪声运动波形数据应用越弱的低通滤波。例如,对源自于作为非所期望波形的非着地冲击的波形部分,分配接近于1的R以使得应用更强的低通滤波。另一方面,对源自于作为所期望波形的着地冲击的波形部分,分配接近于0的R以使得维持该波形部分。
噪声除去部130基于决定的低通滤波贡献率和有噪声运动波形数据来生成无噪声运动波形数据。具体地,噪声除去部130遵循由低通滤波贡献率决定部120决定的低通滤波贡献率来对有噪声运动波形数据执行低通滤波,对与非着地冲击对应的波形部分更强力地进行滤波,生成维持了与着地冲击对应的波形部分的伪无噪声运动波形数据。即,由噪声除去部130输出的无噪声运动波形数据,能与从有噪声运动波形数据除去了源自于用户的着地冲击以外的冲击而由惯性传感器检测到的噪声的运动波形数据对应。
在一实施例中,噪声除去部130也可以通过对进行过低通滤波的有噪声运动波形数据应用低通滤波贡献率R来生成第1中间运动波形数据,通过对有噪声运动波形数据应用(1-R)来生成第2中间运动波形数据,将第1中间运动波形数据和第2中间运动波形数据合成,来生成伪无噪声运动波形数据。即,如图5所示那样,噪声除去部130对从测定数据取得部110取得的有噪声运动波形数据整体执行低通滤波,取得进行过图示那样的低通滤波的有噪声运动波形数据。然后,噪声除去部130将从训练完毕生成模型取得的低通滤波贡献率R和进行过低通滤波的有噪声运动波形数据相乘,来取得第1中间运动波形数据。另外,噪声除去部130将未进行低通滤波的有噪声运动波形数据和(1-R)相乘,取得第2中间运动波形数据。然后,噪声除去部130取第1中间运动波形数据与第2中间运动波形数据之和,能取得与非着地冲击对应的波形部分、即对噪声进行过低通滤波的伪无噪声运动波形数据。另外,本实施例叙述的伪无噪声运动波形数据的取得的方式并不限定于上述的方法,例如也可以变更低通滤波器的尺寸,或将低通滤波贡献率R的系数设定为0≤R≤1之间以外的范围等来改变算出方法。例如,也可以将低通滤波的寄与率R′的系数设为0<R≤1,在低通滤波贡献率决定部120中决定寄与率R′,基于有噪声运动数据、寄与率R′和对整体实施低通滤波的情况的低通滤波强度,来取得伪无噪声运动波形数据。
[噪声波形除去处理]
接下来,参考图7来说明本公开的一实施例的噪声波形除去处理。该噪声波形除去处理通过上述的噪声波形除去装置100实现,例如可以通过处理器执行程序或命令来实现。图7是表示本公开的一实施例的噪声波形除去处理的流程图。
如图7所示那样,在步骤S101,噪声波形除去装置100取得有噪声运动波形数据。具体地,噪声波形除去装置100从搭载于用户所携带的可穿戴设备的加速度传感器、陀螺仪传感器等惯性传感器取得运动波形数据。该运动波形数据不仅包含与着地冲击对应的波形部分,还包含源自于与搭载惯性传感器的可穿戴设备与收纳该可穿戴设备的手包的接触的非着地冲击所对应的波形部分。运动波形数据可以包含由加速度传感器探测的与空间上的3个轴相关的运动波形数据。
在步骤S102,噪声波形除去装置100提取处理对象维度的有噪声运动波形数据。例如,在有噪声运动波形数据由与空间上的3个轴的各轴相关的运动波形数据构成的情况下,噪声波形除去装置100可以对各轴执行以后的步骤S102~S106。
在步骤S103,噪声波形除去装置100对所提取的有噪声运动波形数据应用低通滤波。具体地,噪声波形除去装置100,对有噪声运动波形数据的波形整体执行低通滤波。
在步骤S104,噪声波形除去装置100对训练完毕生成模型输入基准时刻的有噪声运动波形数据,决定该基准时刻的低通滤波贡献率R(0≤R≤1)。例如,R越接近于1,对该波形部分越强地应用低通滤波,R越接近于0,对该波形部分越弱地应用低通滤波。
在步骤S105,噪声波形除去装置100对进行过低通滤波的有噪声运动波形数据乘以R,取得第1中间运动波形数据。另外,噪声波形除去装置100对有噪声运动波形数据上乘以(1-R),取得第2中间运动波形数据。然后,噪声波形除去装置100将第1中间运动波形数据和第2中间运动波形数据合成,来取得维持源自于着地冲击的波形部分、且将源自于非着地冲击的波形部分滤波掉的无噪声运动波形数据。
在步骤S106,噪声波形除去装置100判断是否对处理对象的全部维度进行过处理。在对全部维度进行过处理的情况下(S106“是”),该噪声波形除去处理结束,在有未处理的维度的情况下(S106“否”),噪声波形除去装置100重复步骤S102~S106。
[模型训练装置]
接下来,参考图8~10,来说明本公开的一实施例的模型训练装置200。模型训练装置200对提供到上述的噪声波形除去装置100的生成模型进行训练。具体地,模型训练装置200遵循GAN来训练根据有噪声运动波形数据决定低通滤波贡献率的生成模型。即,模型训练装置200与生成模型对应地取得来自生成模型的输出数据和训练数据的任一者,作为输入数据,准备识别输入数据是输出数据或训练数据的哪一者的识别模型。然后,模型训练装置200遵循GAN来训练识别模型,以使其输出正确的识别结果,训练生成模型,以使得识别模型输出错误的识别结果。在本实施例中,作为滤波手法而应用低通滤波,但本公开并不限定于此,也可以利用适于除去对象的噪声的其他任何合适的类型的滤波。
图8是表示本公开的一实施例的模型训练装置200的功能结构的框图。如图8所示那样,模型训练装置200具有训练数据存放部210以及模型训练部220。
训练数据存放部210,存放包含训练用有噪声运动波形数据和训练用无噪声运动波形数据的训练数据。该训练数据也可以称作正解数据。例如,用户将收容到手包中的可穿戴设备、和不是收容于手包等中而是装备于用户的可穿戴设备一起携带来进行步行、慢跑等运动,通过从2个可穿戴设备同时收集运动波形数据,从前者的可穿戴设备的惯性传感器取得训练用有噪声运动波形数据,从后者的可穿戴设备的惯性传感器取得训练用无噪声运动波形数据。
模型训练部220遵循GAN来训练:基于训练用有噪声运动波形数据来决定低通滤波贡献率的生成模型、和识别基于低通滤波贡献率以及训练用有噪声运动波形数据而生成的伪无噪声运动波形数据和训练数据的识别模型。
具体地,如图9所示那样,模型训练部220将训练用有噪声运动波形数据输入到训练对象的生成模型,取得低通滤波贡献率R。例如生成模型可以通过神经网络实现。模型训练部220对训练用有噪声运动波形数据的整体执行低通滤波,基于所取得的低通滤波贡献率R和进行过低通滤波的训练用有噪声运动波形数据来取得伪无噪声运动波形数据。例如,模型训练部220,可以通过对进行过低通滤波的训练用有噪声运动波形数据应用低通滤波贡献率R来生成第1中间运动波形数据,通过对训练用有噪声运动波形数据应用(1-R)来生成第2中间运动波形数据,将第1中间运动波形数据和第2中间运动波形数据合成,生成伪无噪声运动波形数据。
然后,模型训练部220,对训练对象的识别模型进行训练,该识别模型取得从生成模型输出的伪无噪声运动波形数据、训练用有噪声运动波形数据以及训练用无噪声运动波形数据的任一者作为输入数据,识别输入数据是伪数据(False)还是训练数据(Real),并且识别输入数据是有噪声(Noise)还是无噪声(Normal)。
具体地,在识别模型取得伪无噪声运动波形数据作为输入数据的情况下,模型训练部220训练识别模型,使其输出输入数据是伪数据(False)的识别结果。
另外,在识别模型取得训练用有噪声运动波形数据作为输入数据的情况下,模型训练部220训练识别模型,使其输出输入数据是训练数据(Real)且为有噪声(Noise)的识别结果。
另外,在识别模型取得训练用无噪声运动波形数据作为输入数据的情况下,模型训练部220训练识别模型,使其输出输入数据是训练数据(Real)且是无噪声(Normal)的识别结果。
另外,实际上,识别结果并不需要是Real/False以及Noise/Normal的布尔值,也可以是表示置信度的实数值。
另一方面,模型训练部220训练生成模型,以使得由识别模型输出伪无噪声运动波形数据是训练数据(Real)且是无噪声(Normal)的识别结果。即,训练生成模型,以使得识别模型输出错误的识别结果。
例如,在生成模型以及识别模型由神经网络构成的情况下,模型训练部220可以遵循误差逆传播法更新识别模型的参数,以使得识别模型输出正确的识别结果,并遵循误差逆传播法更新生成模型的参数,以使得识别模型输出错误的识别结果。
然后,可以直到满足结束条件为止,模型训练部220重复上述的模型训练处理。作为结束条件,例如可以是对准备的全部训练数据全都执行了模型训练处理等。
根据本实施例,与通常的GAN的学习不同,取代直接生成输出波形,生成各时刻的低通滤波的应用强度。由于与输出波形本身的样性相比,低通滤波的应用强度的多样性更低,因此能通过比较少的训练数据来训练生成模型,通过将生成模型的输出不是设为无噪声运动波形数据,而是设为低通滤波贡献率,能避免GAN所固有的模式崩塌的问题,即,能避免不管输入数据如何都持续输出误导识别模型的特定的数据的问题。
在一实施例中,模型训练部220也可以基于识别模型的识别结果和各时刻的低通滤波贡献率的总和来训练生成模型以及识别模型。具体地,如图10所示那样,模型训练部220若对根据给定的采样率采样的训练用有噪声运动波形数据取得与各样本对应的低通滤波贡献率,就将所取得的低通滤波贡献率进行合计,算出低通滤波贡献率的总和。模型训练部220也可以训练生成模型以及识别模型,以使得低通滤波贡献率的总和TR变小。根据本实施例,对于不受噪声的影响的波形部分,能抑制低通滤波的影响。
[模型训练处理]
接下来,参考图11来说明本公开的一实施例的模型训练处理。该模型训练处理通过上述的模型训练装置200实现,例如可以通过处理器执行程序或命令来实现。图11是表示本公开的一实施例的模型训练处理的流程图。
如图11所示那样,在步骤S201,模型训练装置200对训练用有噪声运动波形数据的波形整体执行低通滤波。
在步骤S202,模型训练装置200将训练用有噪声运动波形数据输入到训练对象的生成模型,取得低通滤波贡献率。
在步骤S203,模型训练装置200对训练用有噪声运动波形数据上乘以低通滤波贡献率,生成伪无噪声运动波形数据。
在步骤S204,模型训练装置200将伪无噪声运动波形数据和训练数据的任一者作为输入数据输入到训练对象的识别模型,取得输入数据是否是伪数据或训练数据的识别结果。
在步骤S205,模型训练装置200训练识别模型,以使得识别模型输出正确的识别结果,训练生成模型,以使得识别模型输出错误的识别结果。具体地,在生成模型以及识别模型通过神经网络实现的情况下,模型训练装置200更新识别模型的参数,以使得识别模型输出正确的识别结果,更新生成模型的参数,以使得识别模型输出错误的识别结果。
在步骤S206,模型训练装置200判断是否满足结束条件。例如,结束条件可以是对给定数的训练数据进行过处理。在不满足结束条件的情况下(S206“否”),模型训练装置200对下一训练数据重复步骤S201~S206。另一方面,在满足结束条件的情况下(S206“是”),模型训练装置200将该处理结束,将所取得的生成模型作为训练完毕生成模型提供到噪声波形除去装置100。
以上详述了本发明的实施例,但本发明并不限定于上述的特定的实施方式,能在记载于权利要求书的本发明的要旨的范围内进行种种变形、变更。
Claims (13)
1.一种噪声波形除去装置,其特征在于,具有:
取得部,其取得有噪声运动波形数据;
滤波贡献率决定部,其利用训练完毕生成模型,基于所述有噪声运动波形数据来决定滤波贡献率;和
噪声除去部,其基于所决定的所述滤波贡献率和所述有噪声运动波形数据来生成无噪声运动波形数据。
2.根据权利要求1所述的噪声波形除去装置,其特征在于,
所述噪声除去部通过对进行过滤波的有噪声运动波形数据应用所述滤波贡献率R来生成第1中间运动波形数据,通过对所述有噪声运动波形数据应用(1-R)来生成第2中间运动波形数据,将所述第1中间运动波形数据和所述第2中间运动波形数据合成,生成所述无噪声运动波形数据。
3.根据权利要求1或2所述的噪声波形除去装置,其特征在于,
所述取得部从由用户携带的惯性传感器取得所述有噪声运动波形数据。
4.根据权利要求3所述的噪声波形除去装置,其特征在于,
所述无噪声运动波形数据,与从所述有噪声运动波形数据中除去了源自于所述用户的着地冲击以外的冲击并由所述惯性传感器检测到的噪声后的运动波形数据对应。
5.一种模型训练装置,其特征在于,具有:
训练数据存放部,其存放包含训练用有噪声运动波形数据和训练用无噪声运动波形数据的训练数据;和
模型训练部,其遵循生成对抗网络(GAN)训练生成模型和识别模型,所述生成模型基于所述训练用有噪声运动波形数据来决定滤波贡献率,所述识别模型识别基于所述滤波贡献率以及所述训练用有噪声运动波形数据而生成的伪无噪声运动波形数据和所述训练数据。
6.根据权利要求5所述的模型训练装置,其特征在于,
所述模型训练部通过对进行过滤波的训练用有噪声运动波形数据应用所述滤波贡献率R来生成第1中间运动波形数据,通过对所述训练用有噪声运动波形数据应用(1-R)来生成第2中间运动波形数据,将所述第1中间运动波形数据和所述第2中间运动波形数据合成,生成所述伪无噪声运动波形数据。
7.根据权利要求5或6所述的模型训练装置,其特征在于,
所述识别模型取得所述伪无噪声运动波形数据、所述训练用有噪声运动波形数据以及所述训练用无噪声运动波形数据的一者作为输入数据,识别所述输入数据是否是伪数据或训练数据,以及是有噪声还是无噪声。
8.根据权利要求5~7中任一项所述的模型训练装置,其特征在于,
所述模型训练部训练所述识别模型,以使其输出正确的识别结果,并训练所述生成模型,以使得所述识别模型输出错误的识别结果。
9.根据权利要求5~8中任一项所述的模型训练装置,其特征在于,
所述模型训练部基于所述识别模型的识别结果和各时刻的滤波贡献率的总和来训练所述生成模型以及所述识别模型。
10.一种噪声波形除去方法,其特征在于,具有如下步骤:
1个以上处理器取得有噪声运动波形数据;
所述1个以上处理器利用训练完毕生成模型,基于所述有噪声运动波形数据来决定滤波贡献率;和
所述1个以上处理器基于所决定的所述滤波贡献率和所述有噪声运动波形数据来生成无噪声运动波形数据。
11.一种模型训练方法,其特征在于,具有如下步骤:
1个以上处理器存放包含训练用有噪声运动波形数据和训练用无噪声运动波形数据的训练数据;
所述1个以上处理器遵循生成对抗网络(GAN)训练生成模型和识别模型,所述生成模型基于所述训练用有噪声运动波形数据来决定滤波贡献率,所述识别模型识别基于所述滤波贡献率以及所述训练用有噪声运动波形数据而生成的伪无噪声运动波形数据和所述训练数据。
12.一种生成模型,根据有噪声运动波形数据来决定滤波贡献率,所述生成模型的特征在于,
所述生成模型,基于训练用有噪声运动波形数据来决定滤波贡献率,并遵循利用了识别模型的生成对抗网络(GAN)来训练,所述识别模型识别基于所述滤波贡献率和所述训练用有噪声运动波形数据而生成的伪无噪声运动波形数据和训练数据。
13.一种可穿戴设备,其特征在于,具有:
惯性传感器;和
权利要求1~4中任一项所述的噪声波形除去装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020-157821 | 2020-09-18 | ||
JP2020157821A JP7342827B2 (ja) | 2020-09-18 | 2020-09-18 | ノイズ波形除去装置、モデル訓練装置、ノイズ波形除去方法、モデル訓練方法、及びウェアラブル機器 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114190886A true CN114190886A (zh) | 2022-03-18 |
CN114190886B CN114190886B (zh) | 2024-01-19 |
Family
ID=80646017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111083636.3A Active CN114190886B (zh) | 2020-09-18 | 2021-09-15 | 噪声波形除去装置及方法、模型训练装置及方法、以及可穿戴设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220092434A1 (zh) |
JP (1) | JP7342827B2 (zh) |
CN (1) | CN114190886B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240051681A1 (en) * | 2022-08-09 | 2024-02-15 | Beta Air, Llc | Methods and systems for landing spot analysis for electric aircraft |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040122614A1 (en) * | 1996-11-14 | 2004-06-24 | Lg Electronics, Inc. | Noise controller for controlling noise and method of removing noise |
JP2006101973A (ja) * | 2004-10-01 | 2006-04-20 | Microstone Corp | 健康管理用装置 |
CN101149916A (zh) * | 2006-09-19 | 2008-03-26 | 卡西欧计算机株式会社 | 滤波装置以及使用滤波装置的电子乐器 |
US20090220168A1 (en) * | 2008-03-03 | 2009-09-03 | Hiroaki Yamajo | Signal Processing Apparatus and Method, and Program |
US7769089B1 (en) * | 2004-12-02 | 2010-08-03 | Kolorific, Inc. | Method and system for reducing noise level in a video signal |
JP2013201467A (ja) * | 2010-07-15 | 2013-10-03 | Sharp Corp | 動画像符号化装置および動画像復号装置および符号化データ構造 |
JP2017023689A (ja) * | 2015-07-24 | 2017-02-02 | 株式会社東芝 | モニタリングシステム、モニタ方法およびプログラム |
US20190187297A1 (en) * | 2016-08-22 | 2019-06-20 | SZ DJI Technology Co., Ltd. | System and method for locating a moving object |
CN110432895A (zh) * | 2019-08-09 | 2019-11-12 | 上海鹰瞳医疗科技有限公司 | 训练数据处理、心电波形检测方法及电子设备 |
US20190381356A1 (en) * | 2017-01-19 | 2019-12-19 | Huawei Technologies Co., Ltd. | Step Counting Method and Apparatus for Treadmill |
JP2020042760A (ja) * | 2018-09-07 | 2020-03-19 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 情報処理方法、情報処理装置、及びプログラム |
CN111564160A (zh) * | 2020-04-21 | 2020-08-21 | 重庆邮电大学 | 一种基于aewgan的语音降噪的方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070219059A1 (en) | 2006-03-17 | 2007-09-20 | Schwartz Mark H | Method and system for continuous monitoring and training of exercise |
US20110098583A1 (en) | 2009-09-15 | 2011-04-28 | Texas Instruments Incorporated | Heart monitors and processes with accelerometer motion artifact cancellation, and other electronic systems |
JP5076962B2 (ja) | 2008-02-25 | 2012-11-21 | セイコーエプソン株式会社 | 生体情報処理装置、生体情報処理装置の制御方法および制御プログラム |
US9495952B2 (en) | 2011-08-08 | 2016-11-15 | Qualcomm Incorporated | Electronic devices for controlling noise |
JP2013059016A (ja) | 2011-08-12 | 2013-03-28 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP6201469B2 (ja) | 2013-07-12 | 2017-09-27 | セイコーエプソン株式会社 | 生体情報処理装置、生体情報処理方法 |
CN104406604B (zh) | 2014-11-21 | 2018-04-03 | 中国科学院计算技术研究所 | 一种计步方法 |
JP6416722B2 (ja) | 2015-09-18 | 2018-10-31 | 日本電信電話株式会社 | 歩数計測装置、歩数計測方法、およびプログラム |
WO2017085770A1 (ja) | 2015-11-16 | 2017-05-26 | 富士通株式会社 | 電子機器、歩数計測方法および歩数計測プログラム |
JP6476156B2 (ja) | 2016-10-04 | 2019-02-27 | 日本電信電話株式会社 | 姿勢推定装置、方法およびプログラム |
JP6794793B2 (ja) | 2016-11-16 | 2020-12-02 | 富士通株式会社 | 歩行状態推定方法、歩行状態推定プログラムおよび情報処理装置 |
JP2020010803A (ja) | 2018-07-17 | 2020-01-23 | ソニー株式会社 | 生体情報処理装置、及び情報処理方法 |
-
2020
- 2020-09-18 JP JP2020157821A patent/JP7342827B2/ja active Active
-
2021
- 2021-09-14 US US17/474,981 patent/US20220092434A1/en active Pending
- 2021-09-15 CN CN202111083636.3A patent/CN114190886B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040122614A1 (en) * | 1996-11-14 | 2004-06-24 | Lg Electronics, Inc. | Noise controller for controlling noise and method of removing noise |
JP2006101973A (ja) * | 2004-10-01 | 2006-04-20 | Microstone Corp | 健康管理用装置 |
US7769089B1 (en) * | 2004-12-02 | 2010-08-03 | Kolorific, Inc. | Method and system for reducing noise level in a video signal |
CN101149916A (zh) * | 2006-09-19 | 2008-03-26 | 卡西欧计算机株式会社 | 滤波装置以及使用滤波装置的电子乐器 |
US20090220168A1 (en) * | 2008-03-03 | 2009-09-03 | Hiroaki Yamajo | Signal Processing Apparatus and Method, and Program |
JP2013201467A (ja) * | 2010-07-15 | 2013-10-03 | Sharp Corp | 動画像符号化装置および動画像復号装置および符号化データ構造 |
JP2017023689A (ja) * | 2015-07-24 | 2017-02-02 | 株式会社東芝 | モニタリングシステム、モニタ方法およびプログラム |
US20190187297A1 (en) * | 2016-08-22 | 2019-06-20 | SZ DJI Technology Co., Ltd. | System and method for locating a moving object |
US20190381356A1 (en) * | 2017-01-19 | 2019-12-19 | Huawei Technologies Co., Ltd. | Step Counting Method and Apparatus for Treadmill |
JP2020042760A (ja) * | 2018-09-07 | 2020-03-19 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 情報処理方法、情報処理装置、及びプログラム |
CN110432895A (zh) * | 2019-08-09 | 2019-11-12 | 上海鹰瞳医疗科技有限公司 | 训练数据处理、心电波形检测方法及电子设备 |
CN111564160A (zh) * | 2020-04-21 | 2020-08-21 | 重庆邮电大学 | 一种基于aewgan的语音降噪的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114190886B (zh) | 2024-01-19 |
JP2022051378A (ja) | 2022-03-31 |
JP7342827B2 (ja) | 2023-09-12 |
US20220092434A1 (en) | 2022-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105411593B (zh) | 用于识别步态任务的方法和设备 | |
US9864434B2 (en) | Gesture control of interactive events using multiple wearable devices | |
US8819596B2 (en) | Gesture control system | |
US11311242B2 (en) | Biological information processing apparatus, biological information processing method, and information processing apparatus | |
JP4901736B2 (ja) | ユーザと機械とのインタラクションを実施するための装置、方法、およびプログラム | |
CN106228200B (zh) | 一种不依赖于动作信息采集设备的动作识别方法 | |
KR100668298B1 (ko) | 움직임에 기반한 소리 발생 방법 및 장치 | |
US20140278208A1 (en) | Feature extraction and classification to determine one or more activities from sensed motion signals | |
US10302434B2 (en) | Method and apparatus for determining walking direction for a pedestrian dead reckoning process | |
KR20190060630A (ko) | 인공지능을 이용한 멀티모달 감성인식 장치, 방법 및 저장매체 | |
KR102290186B1 (ko) | 사람의 감성 상태를 결정하기 위하여 영상을 처리하는 감성인식 방법 | |
KR20120052610A (ko) | 신경망 학습을 통한 동작 인식 방법 및 장치 | |
JP6804908B2 (ja) | 推定装置、推定方法及びコンピュータプログラム | |
US20150339100A1 (en) | Action detector, method for detecting action, and computer-readable recording medium having stored therein program for detecting action | |
CN114190886A (zh) | 噪声波形除去装置及方法、模型训练装置及方法、生成模型以及可穿戴设备 | |
KR20120016236A (ko) | 이동 요소의 동작을 결정하기 위한 시스템 및 방법 | |
CN109153332B (zh) | 车辆用户接口的手语输入 | |
CN111803902B (zh) | 泳姿识别方法、装置、可穿戴设备及存储介质 | |
KR101639351B1 (ko) | 웨어러블 입력 시스템 및 모션 인식 방법 | |
CN107506041A (zh) | 一种基于运动传感器的可穿戴式鼠标控制方法 | |
CN107837542A (zh) | 一种基于姿态检测的智能玩具、控制系统及方法 | |
KR20190131740A (ko) | 웨어러블 장치의 각도값을 리셋하여 센서를 초기화하는 방법 및 장치 | |
WO2023095470A1 (ja) | 信号処理装置、信号処理方法及び信号処理プログラム | |
CN115192002A (zh) | 用户肢体运动障碍程度度量系统、方法和计算机装置 | |
CN110875043B (zh) | 声纹识别方法、装置、移动终端及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |