CN113243906A - 运动监视及分析系统和方法 - Google Patents

运动监视及分析系统和方法 Download PDF

Info

Publication number
CN113243906A
CN113243906A CN202110181348.5A CN202110181348A CN113243906A CN 113243906 A CN113243906 A CN 113243906A CN 202110181348 A CN202110181348 A CN 202110181348A CN 113243906 A CN113243906 A CN 113243906A
Authority
CN
China
Prior art keywords
target
unmanned aerial
aerial vehicle
wearable structure
wireless communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110181348.5A
Other languages
English (en)
Inventor
普拉莫德·拉詹·凯萨韦芦·舍卡
阿南德·希尔瓦尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NXP BV
Original Assignee
NXP BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NXP BV filed Critical NXP BV
Publication of CN113243906A publication Critical patent/CN113243906A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0294Trajectory determination or predictive filtering, e.g. target tracking or Kalman filtering
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/106Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/10Athletes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0259Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Dentistry (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Psychiatry (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种系统,包括用于放置在目标上的电子装置。电子装置包括第一可穿戴结构和第二可穿戴结构,第一可穿戴结构和第二可穿戴结构远离彼此物理地移位并且具有对应的第一通信模块和第二通信模块。所述系统还包括用于监视目标的运动的无人机。无人机包括第三通信模块。第一通信模块和第三通信模块实现第一可穿戴结构与无人机之间的第一无线通信链路,并且第二通信模块和第三通信模块实现第二可穿戴结构与无人机之间的第二无线通信链路。无人机还包括:处理单元,用于响应于第一无线通信链路和第二无线通信链路而确定无人机相对于目标的当前位置;以及驱动控制单元,用于调整无人机相对于目标的速度和位置。

Description

运动监视及分析系统和方法
技术领域
本发明总体上涉及用于监视运动目标的系统和方法。更具体地,本发明涉及无人驾驶飞行器相对于运动目标的实时自主定位和导航,以监视和分析运动目标的运动。
背景技术
在体育运动中,体育生物力学通常是对运动员和体育活动的基于定量的研究和分析。因此,运动生物力学是指对人类运动(包括运动员、运动设备和运动环境之间的相互作用)的研究,以便更深入理解运动表现从而增强运动表现,最大程度地减少伤害,延长职业寿命等等。
发明内容
本公开的各方面在所附权利要求中定义。
在第一方面中,提供了一种系统,所述系统包括电子装置,所述电子装置包括第一可穿戴结构,所述第一可穿戴结构被配置成定位在目标上,所述第一可穿戴结构包括第一通信模块;以及第二可穿戴结构,所述第二可穿戴结构被配置成定位在所述目标上,所述第二可穿戴结构远离所述第一可穿戴结构物理地移位,所述第二可穿戴结构包括第二通信模块;并且所述系统还包括无人驾驶飞行器以监视所述目标的运动,所述无人驾驶飞行器包括第三通信模块,其中所述第一通信模块和所述第三通信模块被配置成实现所述第一可穿戴结构与所述无人驾驶飞行器之间的第一无线通信链路,并且所述第二通信模块和所述第三通信模块被配置成实现所述第二可穿戴结构与所述无人驾驶飞行器之间的第二无线通信链路;处理单元,所述处理单元被配置成响应于所述第一无线通信链路和所述第二无线通信链路而确定所述无人驾驶飞行器相对于所述目标的当前位置;以及驱动控制单元,所述驱动控制单元与所述处理单元进行通信并且被配置成调整所述无人驾驶飞行器的速度和位置,以将所述无人驾驶飞行器从所述当前位置相对于所述目标移动到预定义位置。
在第二方面中,提供了一种利用无人驾驶飞行器以监视目标的运动的方法,所述方法包括:将电子装置的第一可穿戴结构和第二可穿戴结构定位在所述目标上,所述第一可穿戴结构和所述第二可穿戴结构远离彼此物理地移位,所述第一可穿戴结构包括第一通信模块,并且所述第二可穿戴结构包括第二通信模块;实现所述第一可穿戴结构的所述第一通信模块与所述无人驾驶飞行器上的第三通信模块之间的第一无线通信链路;实现所述第二可穿戴结构的所述第二通信模块与所述第三通信模块之间的第二无线通信链路;响应于所述第一无线通信链路和所述第二无线通信链路而确定所述无人驾驶飞行器相对于所述目标的当前位置;以及调整所述无人驾驶飞行器的速度和位置,以将所述无人驾驶飞行器从所述当前位置相对于所述目标移动到预定义位置。
附图说明
在附图中,相同的附图标记在整个分开的视图中指代相同或功能类似的元件,附图不一定按比例绘制,并且这些附图与具体实施方式一起结合到说明书中并形成说明书的一部分,用于进一步示出各种实施例并解释根据本发明的各种原理和优点。
图1示出了系统的例子,所述系统包括被目标(例如,人类用户)和无人驾驶飞行器穿戴的电子装置;
图2示出了穿戴电子装置的用户的正视图;
图3示出了被人类用户穿戴的电子装置的框图;
图4示出了无人驾驶飞行器上的组件的简化框图;
图5示出了使用图1的系统执行的目标监视和运动分析过程的流程图;
图6示出了图5的目标监视和运动分析过程的自适应速度和位置控制子过程的流程图;
图7示出了图5的目标监视和运动分析过程的数据获取子过程的流程图;
图8示出了图5的目标监视和运动分析过程的运动分析子过程的流程图;并且
图9示出了图5的目标监视和运动分析过程的反馈提供子过程的流程图。
具体实施方式
总的来说,本公开涉及一种用于监视诸如人类用户的目标的运动的系统和方法。更具体地,所述系统和方法需要无人驾驶飞行器相对于运动目标的实时自主定位和导航。无人驾驶飞行器和位于目标上的电子装置进行通信以定位目标并将无人驾驶飞行器相对于目标定位。无人驾驶飞行器包括用于捕获运动目标的运动的传感器系统(例如,相机)。在一些实施例中,位于目标上的电子装置还包括传感器系统(例如,运动/压力传感器、生命力监视器等等),所述传感器系统被配置成检测目标的生理指标。无人驾驶飞行器包括处理单元,所述处理单元被配置成调整无人驾驶飞行器相对于运动目标的位置,控制机载传感器系统(例如,相机),接收目标的运动的视觉信息,接收目标的生理指标,仅基于视觉信息或结合生理指标分析目标(例如,人类用户)的运动,并向人类用户提供关于运动分析的实时反馈。在一些实施例中,人类用户可以经由电子装置提供语音命令以控制无人驾驶飞行器。
以下提供的描述涉及为了步态分析的目的而利用通常被称为无人机的无人飞行器来监视人类用户的运动。然而,应当理解,以下描述的实施例可以被概括为要监视的其他目标,诸如其他有生命或无生命的对象。因此,出于跟踪目的,可以对另一个有生命对象(例如,动物)执行步态分析,或者可以对无生命对象(例如,交通工具、运输集装箱等)执行运动分析。
提供本公开内容以便以可行的方式进一步解释根据本发明的至少一个实施例。本公开的进一步提供是为了增强对本公开的发明原理和优点的理解和认识,而不是以任何方式限制本发明。本发明仅由所附权利要求限定,包括在本申请未决期间所作的任何修改以及所发布的那些权利要求的所有等同物。
应当理解,诸如第一和第二、顶部和底部等关系术语(如果有的话)的使用仅用于将一个实体或动作与另一个实体或动作区分开来,而不必要求或暗示这样的实体或动作之间有任何实际的这种关系或次序。
参考图1和2,图1示出了系统20的例子,所述系统20包括由目标24和无人驾驶飞行器26穿戴的电子装置22,并且图2示出了穿戴电子装置22的目标24的正视图。如本文所讨论的,目标24是人类用户。因而,目标24在本文中通常被称为用户24。无人驾驶飞行器26可以是多种交通工具中的任何一种,包括例如无人飞行器(UAV)、无人领航飞行器、遥控飞机、无人驾驶飞机系统、国际民航组织第328AN/190号通函涵盖的任何飞机等等。例如,无人驾驶飞行器26可以是单旋翼或多旋翼直升机(例如,四旋翼飞机)或固定翼飞机的形式。另外,本公开的某些方面可以与其他类型的无人驾驶飞行器(例如,轮式、履带式、航天器和/或水上交通工具)一起利用。为了简单起见,无人驾驶飞行器26在本文中通常被称为无人机26。
系统20的电子装置22包括被配置成位于用户24身上的第一可穿戴结构28和第二可穿戴结构30,其中第二可穿戴结构30远离第一可穿戴结构28物理地移位。如图2中最佳地所示,第一可穿戴结构28包括至少第一部分32,所述至少第一部分32被配置成设置在人类用户24的第一耳朵34内,并且第二可穿戴结构30包括第二部分36,所述第二部分36被配置成与人类用户24的第二耳朵38一起设置。第一可穿戴结构28和第二可穿戴结构30的穿戴位置使它们中的每一个可穿戴结构相对于用户24的头部40/耳朵34、38处于接近恒定的位置和取向。
在示例性实施例中,第一可穿戴结构28和第二可穿戴结构30可以是助听器,有时简称为可听戴设备。在这种情况下,可听戴设备的第一可穿戴结构28和第二可穿戴结构30可以包括:麦克风和扬声器组合;处理元件,所述处理元件处理由麦克风捕获的信号并控制扬声器的输出;以及一个或多个无线通信模块(例如,收发器),所述一个或多个无线通信模块用于实现无线通信。下面将结合图3提供第一可穿戴结构28和第二可穿戴结构30内的部件的更多细节。在替换实施例中,第一可穿戴结构28和第二可穿戴结构30不需要是可听戴设备,而是可以是可以位于目标上以监视并分析目标的运动的任何合适的电子装置。
电子装置22可以另外包括位于用户24身上的传感器系统42。传感器系统42被配置成感测用户24的至少一个指标,在本文中被称为生理指标。在示例性实施例中,传感器系统42可以包括耦合到用户24的第一只脚46的第一身体传感器44(由深色矩形表示)和耦合到用户24的第二只脚50的第二身体传感器48(由另一个深色矩形表示)。第一身体传感器44和第二身体传感器48表示各种各样的感测元件,诸如例如运动传感器(例如,加速度计、陀螺仪、磁力计、惯性传感器、压力传感器等),所述感测元件可以被捆扎、粘附或以其他方式耦合到第一只脚46和第二只脚50。附加的和/或替换的传感器可以包含在传感器系统42内。这些附加的和/或替换的传感器不需要耦合到脚46、50,而是可以替代地与用户24单独附接,或者可以被容置在第一可穿戴结构28和第二可穿戴结构30中的任何一个可穿戴结构中。这些其他传感器可能需要是氧气传感器、心率传感器、血压传感器、计步器、距离测量单元或任何其他合适的传感器。
实施例需要无人机26相对于用户24的实时自主定位和导航以用于用户24的运动信息的数据收集、运动信息的数据分析以及所分析的运动信息到用户24的反馈,使得用户24可以采取校正措施。如将在下文中更详细地讨论的,无人机26和电子装置22被配置成协作地建立本地无线通信区52,以便实现电子装置与无人机26之间的通信以至少将无人机26相对于用户24自主地定位和导航(竖直/水平运动、围绕用户24的360°旋转以及基于目标运动的自适应速度)、实现数据通信、反馈、语音命令、手势命令等等。下面将结合图4提供无人机26内的部件的更多细节。
图3示出了由人类用户24(图1)穿戴的电子装置22的框图。如上所述,电子装置22包括第一可穿戴结构28、第二可穿戴结构30和传感器系统42。如上文所讨论的,传感器系统42可以包括任何种类和数量的合适的传感器。因而,传感器系统42被示为包括第一身体传感器44(SENSOR1)、第二身体传感器48(SENSOR2)以及用椭圆与第二身体传感器48分开以指示任何数量“N”的附加传感器54(SENSORN)。
第一可穿戴结构28包括至少第一通信模块56(无线收发器)、第一近场磁感应/近场电磁感应(NFMI/NFEMI)收发器58和处理元件60。在一些实施例中,第一可穿戴结构28可以另外包括扬声器62和麦克风64。类似地,第二可穿戴结构30至少包括第二通信模块66(无线收发器)、第二NFMI收发器68和处理元件70。在一些实施例中,第二可穿戴结构30可以另外包括扬声器72和麦克风74。NFMI是指一种利用局部磁场内的传输的短程通信技术。NFEMI(是NFMI的扩展)是一种也利用局部磁场内的传输并使用电天线进行传输的通信技术。
通常,第一可穿戴结构28的第一通信模块56被配置用于经由第一无线通信链路76与无人机26通信,并且第二可穿戴结构30的第二通信模块66被配置用于经由第二第一无线通信链路78与无人机26通信。另外,第一NFMI收发器58和第二NFMI收发器68实现第一可穿戴结构与第二可穿戴结构28之间以及与传感器系统42的各个传感器44、48、54相关联的NFMI收发器82之间的无线通信(通常由NFMI信道80表示)。如将在下面更详细地讨论的,第一无线通信技术(例如,蓝牙通信)被实施为使得能够经由第一通信链路76和第二通信链路78进行通信,由此建立本地无线区52(图1)。第二无线通信技术(例如,近场磁感应通信)被实施为实现第一可穿戴设备28和第二可穿戴设备30之间以及与传感器系统42的各个传感器44、48、54相关联的NFMI收发器82之间的通信。
图4示出了无人机26上的组件的简化框图。通常,无人机26包括全部由电池92供电的处理单元84、第三通信模块86(无线收发器)、相机88的形式的传感器系统,以及推进系统90(例如,一个或多个马达)。处理单元84可以包括控制单元94、数据获取单元96、相机控制单元98、驱动控制单元100、电池监视电路102(监视电池输出电压)、运动处理器104和存储器元件106。一根或多根通信总线(诸如CAN总线)或信号线可以耦合处理单元84、第三通信模块86、相机88、推进系统90和电池92的部件。
驻留在无人机26上的第三通信模块86被配置成与第一可穿戴结构28和第二可穿戴结构30进行通信。更具体地,第一通信模块56和第三通信模块86被配置成实现并维护第一无线通信链路76,并且第二通信模块66和第三通信模块86被配置成实现并维护第二无线通信链路78。通常,第一位置数据108和第二位置数据110可以经由相应的第一通信链路76和第二通信链路78进行通信,并且可以用于调整无人机26相对于用户24的速度和位置(图1)。另外,可以经由第一通信链路76和第二通信链路78中的至少一个通信链路来传送来自用户24身上的传感器系统42的生理指标112。更进一步地,可以经由第一通信链路76和第二通信链路78中的至少一个通信链路来传送从用户24到无人机26的语音命令114。
通常,数据获取单元96获取来自相机88的视觉信息116和在第三通信模块86处接收的生理指标114。控制单元94可以包括监视模块118(例如,人工智能(AI)和机器学习(ML)引擎)。可以在监视模块118处通过AI机器学习来处理视觉信息116。例如,可以执行深度学习算法以处理视觉信息116和场景深度,以获得运动中的用户24的更精细细节。作为响应,控制单元94可以指示相机控制单元98和/或驱动控制单元100。由于相机88捕获视觉信息116,因此所述视觉信息116可以另外或可替换的是包括手势命令。举例来说,用户24可以通过利用控制单元94可以被配置成解译为用于调整无人机26的运动、捕获视觉信息116等等的命令的任何各种运动(例如,手、手臂、眼睛等等的运动)来向无人机26提供命令。
在控制单元94处执行的控制算法可以提供命令以按周期性间隔或按照用户24经由语音命令114指示在预定义位置(例如,从前视图、侧视图、顶视图等)获取用户24的运动的视觉信息116。因此,控制单元94可以向驱动控制单元100提供运动参数120,以调整无人机26的速度和/或位置,以使用推进系统90将无人机26相对于用户24移动到预定义位置,以获得期望的视觉信息116和/或获得更清晰的图像。在控制单元处执行的控制算法可以另外或可替换的是将相机指令122提供给相机控制单元98,以将相机88聚焦在用户24身上。在一些实施例中,相机指令122可以被配置成沿着第一可穿戴结构28与第二可穿戴结构30之间的视轴124(参见图1)引导相机88,使得相机88的自动聚焦特征在用户24身上大致居中。
与运动处理器104相关联的存储器元件106可以包含可以与用户24相关联的运动类型的预加载运动概况126的一个或多个数据库。例如,运动概况126可以包括与从用户24的多个角度的步态或跑步、步行、慢跑等生物力学有关的信息。运动概况126可以另外包括预定义步态规则、要遵循的适当生物力学、用户24的运动的过去历史、用于表现监视的存储的生理度量等等。如将结合图8更详细地讨论的,运动处理器104可以被配置成分析视觉信息116(例如,步态信息)以确定“步态正确性”。在一些实施例中,可以结合视觉信息116来分析诸如心跳、用户24的速度等等生理指标112,以促进更有意义的步态分析。
与已知的运动专用技术相比,术语“步态正确性”与用户24的运动姿势、着陆角度、步幅速率、接触时间、弹跳等等有关。形成“正确步态”可以增强运动表现并最大程度地减少伤害。此外,在运动员穿越真实路线时向运动员实时提供此信息可以进一步增强他们形成良好运动技术。
因此,响应于根据视觉信息116和生理指标112确定用户24的步态正确性,运动处理器104可以为用户24制定校正指令128。这些校正指令128可以包含诸如“拉长步幅”、“保持头部直立”、“腰部不要弯曲”、“进行测量的呼吸”等等各种各样的建议中的任何一个建议。如将结合图9更详细地讨论的,此后可以经由第一无线通信链路76和第二无线通信链路78中的至少一个无线通信链路从第三通信模块86向用户24传送校正指令128。
如本文所使用的术语“引擎”、“算法”、“单元”、“模块”是指以硬件或固件体现的逻辑,或以编程语言编写并由处理单元84执行的软件指令的集合。处理单元42可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑装置、分立门或晶体管逻辑、分立硬件组件或被设计为用于执行本文所述的功能的它们的任何组合。通用处理器可以是微处理器,但是在替换方案中,处理器可以是控制器、微控制器或状态机、它们的组合等。处理器可以包括被配置成处理计算机可执行指令的电路。处理单元84也可以被实施为计算装置的组合,例如,DSP与微处理器的组合、多个微处理器、一个或多个微处理器结合DSP核或者任何其它这样的配置。尽管本文主要关于数字技术进行了描述,但是处理器也可以主要包括模拟部件。例如,以下描述的一些或所有信号处理算法可以在模拟电路或混合的模拟和数字电路中实施。
第一位置数据108、第二位置数据110、生理指标112、语音命令114、视觉信息116、运动参数120、相机指令122和校正指令128为了简单起见在图4中均由单独的框表示。可以使用各种合适的有线和无线协议在系统20的元件之间传送这种信息。
图5示出了使用系统20(图1)执行的目标监视和运动分析过程130的流程图。目标监视和运动分析过程130提供了与智能地实时调整无人机26相对于用户24的速度和位置、获取并分析用户24的运动信息以及向用户24提供反馈相关联的高级操作框和子过程。目标监视和运动分析过程130可以由无人机26执行,所述无人机26可以利用处理单元84。为了方便起见,应结合后续描述同时参考图1至5。
根据过程130的操作框132,将第一可穿戴结构28和第二可穿戴结构30定位在目标上。例如,第一可穿戴结构和第二可穿戴结构(如可听戴设备)位于用户24的第一耳朵34和第二耳朵38中。另外,传感器系统42的元件可以被合适地定位,粘附或以其他方式耦合到用户24。
根据过程130的操作框134,发射无人驾驶飞行器(例如,无人机26)。无人机26的发射可以响应于用户24或另一个人的启动命令而发生。可以从充电板或从用户24附近的发射场发射无人机26。在无人机26被发射并且可能被置于悬停模式之后,可以执行自适应速度和位置控制子过程136、数据获取子过程138、运动分析子过程140和反馈提供子过程142。
通常,执行自适应速度和位置控制子过程136以确定无人机26相对于用户24的当前位置,并调整无人机26的速度和位置以将无人机26从当前位置相对于用户24移动到预定义位置。将结合图6的流程图讨论自适应速度和位置控制子过程136。执行数据获取子过程138以接收并保存来自相机88的视觉信息116,并且接收并保存来自位于用户24身上的电子装置22的生理指标112。将结合图7的流程图讨论数据获取子过程138。响应于接收到的视觉信息116和生理指标112,执行运动分析子过程140以确定运动正确性。将结合图8的流程图讨论运动分析子过程140。响应于运动分析,执行反馈提供子过程142以向用户24提供校正指令。将结合图9讨论反馈提供分析子过程142。
为了简单起见,子过程136、138、140、142在目标监视和运动分析过程130中以顺序次序呈现。然而,在后续讨论中将变得显而易见的是,可以任何次序执行子过程136、138、140、142。可替换的是,可以并行执行子过程136、138、140、142中的一些或全部子过程以提高计算效率,并实现处理单元84的处理元件之间的实时信息交换。
在查询框144处,确定是否要继续执行目标监视和运动分析过程130。举例来说,目标监视和运动分析过程130可以在用户24运动的持续时间内、在某个预定时间段或用户行进距离内或者在电池监视电路102确定电池92的电池电量变低之前持续进行。
当在查询框144处确定将继续执行过程130时,过程控制循环返回以继续执行自适应速度和位置控制子过程136、数据获取子过程138、运动分析子过程140和/或反馈提供子过程142。因此,无人机26能够响应于用户24的运动和/或预定义数据收集标准而连续地调整所述无人机26的速度和位置,获取视觉信息116和生理指标112,执行运动分析以及响应于运动分析而向用户24提供校正指令的反馈。
当在查询框144处确定要停止执行目标监视和运动分析过程130时,可以将无人机26停放在充电板上或着陆场上。此后,目标监视和运动分析过程130结束。
图6示出了目标监视和运动分析过程130(图5)的自适应速度和位置控制子过程136的流程图。无人机26执行自适应速度和位置控制子过程136,以连续使得无人机26能够基于用户24的位置、预定义数据获取简档、相机位置的反馈、用户命令等等来实时调整所述无人机26的速度和位置。为了方便起见,应结合以下描述同时参考图1至4和6。
在框148处,实现第一可穿戴装置28和第二可穿戴装置30与无人驾驶飞行器(例如,无人机26)之间的第一无线通信链路76和第二无线通信链路78。在一些实施例中,相应的第一可穿戴装置28和第二可穿戴装置30和无人机26的第一通信模块56、第二通信模块66和第三通信模块86被配置成实施第一无线通信技术以实现第一无线通信链路76和第二无线通信链路78。第一无线通信技术可以是蓝牙经典技术或蓝牙低功耗(BLE)技术。然而,可以可替换的是实施其他“短链路”无线技术,诸如用于以低功耗在便携式装置之间短程地交换数据的超宽带(UWB)。在示例性配置中,无人机26的第三通信模块86可以用作主装置,而第一可穿戴结构28和第二可穿戴结构30的第一通信模块56和第二通信模块66用作从装置。可以执行绑定或配对过程以将第一通信模块56和第二通信模块66与第三通信模块86连接。
在框150处,确定无人驾驶飞行器(例如,无人机26)相对于目标(例如,用户24)的目标位置的当前位置。即,可以确定用户24的目标位置和无人机26相对于用户24的当前位置。
举例来说,蓝牙核心规范(v5.1)并以蓝牙5.1定向销售,包括到达角(AoA)和离开角(AoD)特征以用于准确地确定蓝牙发射器在两个或三个方向上的位置。尽管提到了蓝牙5.1,但是蓝牙5.x的后续版本可能另外包括AoA和AoD定向能力。在AoA概念中,第一通信模块56可以经由第一无线通信链路76将第一位置数据108广播到无人机26的第三通信模块86。无人机26上的处理单元84测量到达角θ1,以确定第一可穿戴结构28的位置。类似地,第二通信模块66可以经由第二无线通信链路78将第二位置数据110广播到无人机26处的第三通信模块86。无人机26上的处理单元84测量到达角θ2,以确定第二可穿戴结构30的位置。根据两个到达角度θ1和θ2,可以将目标位置插值为第一可穿戴结构28与第二可穿戴结构30的单独位置之间的中间点。尽管将AoA描述为一种技术,但是可以可替换的是实施AoD。此外,在UWB应用中,飞行时间(ToF)可以用于获得准确的距离/位置测量值。
在框152处,获得无人机26的“下一”预定义位置数据。“下一”预定义位置数据可以是无人机26相对于用户24的初始位置、基于数据获取概况的预定义位置(例如,用户26的左、右、上、前或后)、来自控制单元94/驱动控制单元100的用于适当的相机定位的反馈、用户命令(例如,来自用户24的语音命令114或手势命令)或它们的任意组合
在框154处,运动参数120可以从控制单元94传送到驱动控制单元100,并且在框156处,驱动控制单元100向推进系统90发送合适的命令以调整无人机26的速度和/或位置以将无人机26相对于目标位置移动到“下一”预定义位置。在框158处,此后,无人机26依据第一可穿戴结构28和第二可穿戴结构30的运动来跟踪运动用户24,从而维持其相对于用户24的预定义位置。当为无人机26获得“下一”预定义位置数据时,过程流循环回到框152。可以继续执行自适应速度和位置控制子过程136,直到在查询框144(图5)处确定要停止目标监视和运动分析过程130(图5)为止。
因此,自适应速度和位置控制子过程136的执行使得无人机26相对于用户24的智能定位能够基于来自第一可穿戴结构28和第二可穿戴结构30、控制单元94和相机控制单元98的第一位置数据108和第二位置数据110获得最佳视觉信息116。另外,子过程136的执行使得能够通过跟踪第一可听戴结构28和第二可听戴结构30的运动来跟踪用户24。
图7示出了目标监视和运动分析过程130(图5)的数据获取子过程138的流程图。数据获取子过程138可以包括以下并发活动:经由相机88获取视觉信息116,以及经由第一通信链路76和第二通信链路78中的至少一个通信链路从位于用户24身上的传感器系统42获取生理指标112。为了方便起见,应结合以下描述同时参考图1至4和7。
关于获取视觉信息116,在框160处,将相机88沿着视轴124引导,所述视轴124可以在用户24身上在第一可穿戴结构28与第二可穿戴结构30之间大致居中。在一些实施例中,可以通过执行自适应速度和位置控制子过程136(图6)来适当地定位相机88。在框162处,经由相机88捕获运动中的用户24的视觉信息116。
在查询框164处,确定所捕获的视觉信息116是否可接受。例如,出于清晰度、轮廓图或任何其他因素,可以在控制单元94处处理视觉信息116。当在查询框164处确定视觉信息116不可接受时,执行框166。在框166处,控制单元94可以将运动参数120提供给驱动控制单元100,以调整无人机26相对于用户24的位置和/或速度。另外或可替换的是,控制单元94可以将相机指令122提供给相机控制单元98以适当地调整相机88(例如,焦点)。此后,程序控制循环回到框162以再次捕获视觉信息116并确定其可接受性。当在查询框166处确定视觉信息可接受时,子过程138前进到框168。在框168处,可以将视觉信息116传送到运动处理器104,在这里,视觉信息116可以至少临时地保存在例如存储器106中以进行分析。
关于获取指标,在框170处,经由传感器系统42在用户24处感测诸如生理指标112的指标。在框172处,经由第一无线通信链路76和第二无线通信链路78中的至少一个无线通信链路将生理指标112传送到无人机26。在框174处,可以将生理指标112传送到运动处理器104,在这里,信息可以至少临时地保存在例如存储器106中以进行分析。在框168和/或框174中的任一个框之后,程序控制循环回到框160和170以继续获取视觉信息116和/或生理指标112。可以继续执行数据获取子过程138,直到在查询框144(图5)处确定要停止目标监视和运动分析过程130(图5)为止。
因此,数据获取子过程138的执行使得能够经由相机88获取视觉信息116,并且能够由控制单元94对视觉信息116进行初始评估以获取最佳视觉信息116。另外,子过程138的执行使得能够获取生理指标112,这可以增强用户24的运动分析。
图8示出了目标监视和运动分析过程130(图5)的运动分析子过程140的流程图。在子过程140处,运动处理器104使用获取的视觉信息116和生理指标112来实时分析用户24的运动。为了方便起见,应结合以下描述同时参考图1至4和8。
在框176处,运动处理器104接收运动中的用户24的视觉信息116。例如,运动处理器104可以访问临时存储在存储器106中的视觉信息116。可替换的是,运动处理器104可以从控制单元94或直接从数据获取单元96接收视觉信息116。在框178处,运动处理器104接收与用户24相关联的指标。这些指标可以包括经由第一通信链路76和第二通信链路78中的至少一个通信链路传送的生理指标112,如先前所讨论的。运动处理器104可以访问临时存储在存储器106中的生理信息112。可替换的是,运动处理器104可以从控制单元94或直接从数据获取单元96接收生理指标112。
在框180处,无人机26上的运动处理器104单独地或结合针对存储在存储器106中的运动概况126的生理指标112来分析视觉信息116。运动分析可能需要基于选定的运动概况(例如,步行、跑步、冲刺等等)分析步态要求,和/或将运动数据和生理指标112与过去历史(例如,用于表现监视的存储指标)进行比较。运动处理器104可以针对选定的运动概况的步态要求来分析视觉信息116,以确定“步态正确性”。这种运动分析(有时被称为步态分析)可以用于优化运动表现和/或识别可能导致受伤或劳损的运动。此外,步态分析可以用于评估和治疗个人(例如,用户24)的影响个人的行走或跑步能力的病证(例如,脑瘫、中风等),识别受伤的个人的姿势相关或运动相关的问题,测量关节位置和速度,等等。另外,运动处理器104可以分析生理指标112(例如,心率、用户24的速度、力/冲击分布等等)以提供对用户24所利用的呼吸技术、压力/接触分布、接触面积、力运动中心、身体两侧之间的运动对称性等等的见解。可以继续执行运动分析子过程140,直到在查询框144(图5)处确定要停止目标监视和运动分析过程130(图5)为止。
因此,步态分析可以用于运动训练、在医学诊断中用于识别病理性步态、在整脊和整骨疗法中用于诊断步态障碍(例如,骨盆或骶骨错位)等等。此外,通过仅使用例如视觉信息116来研究非人类物种的步态,可以获得关于非人类物种的运动机制的见解。
图9示出了目标监视和运动分析过程130(图5)的反馈提供子过程142的流程图。可以执行反馈提供子过程142以向用户24提供他们的运动的反馈,使得用户24可以采取校正措施。在目标是无生命对象或非人类动物的情况下,可以不执行反馈提供子过程142。为了方便起见,应结合以下描述同时参考图1至4和9。
在框184处,实现无人驾驶飞行器(例如,无人机26)与位于目标(例如,用户24)上的电子装置22的第一可穿戴结构28和第二可穿戴结构30中的至少一个可穿戴结构之间的通信链路。无人机26的第三通信模块86与相应的第一可穿戴结构28和第二可穿戴结构30的第一通信模块56和第二通信模块66之间的通信可以利用第一通信技术(例如,BLE)来实现。因此,先前可能已经经由第一无线通信链路76和第二无线通信链路78中的至少一个无线通信链路实现了通信。
在框186处,将校正指令128传送到用户24。校正指令128可以是经由相应的第一可穿戴结构28和第二可穿戴结构30的一个或两个扬声器62、72广播给用户24的可听指令。因此,可以向用户24实时提供关于例如步态技术、呼吸技术等等的有意义的反馈,以便在仍然在真实地形上运动时采取校正措施。可以继续执行反馈子过程138,直到在查询框144(图5)处确定要停止目标监视和运动分析过程130(图5)为止。
因此,本文描述的各种过程的执行实现无人驾驶飞行器相对于受监视目标的自主实时定位、目标的视觉信息运动的数据获取,以及在一些实施例中目标的生理指标的获取、基于视觉信息和生理指标对目标的运动的运动分析以及对目标的关于运动分析的反馈。应当理解,图5至9中所描绘的某些过程框可以彼此并行地或与执行其他过程一起执行。另外,图5至图9中所描绘的处理框的特定排序也可以在实现基本相同的结果的同时进行修改。因此,此类修改旨在被包括在本发明主题的范围内。
上面的讨论主要集中于主要是人类用户的目标的监视和运动分析,使得用户可以根据需要采取校正措施。然而,所述系统可以适用于其他应用。例如,运动数据可以另外或可替换的是以非实时方式进行检查,以用于判断标准、用于运行后分析等等。所述运动数据可以用于高尔夫球技术分析或其他运动。此外,可以为老年人或易受伤害的用户实施用于收集生理指标并经由无人机跟踪的可听戴设备结构和传感器系统,作为诸如跌倒检测的保障措施。更进一步,可听戴设备结构和无人机可以与第一响应者一起使用。在这种情况下,第一响应者可以向无人机提供语音命令以监视人群和/或在人群中查找位置、监视火灾、作为救生员监视海滩或泳池中的游泳者等等。在另一种可能的应用中,可听戴设备结构和无人机可以用于对准一个或多个无人机相机以在建筑施工、文物建筑结构安全监控等中进行精确测量。
本文描述的实施例需要用于监视诸如人类用户的目标的运动的系统和方法。更具体地,所述系统和方法需要无人驾驶飞行器相对于运动目标的实时自主定位和导航。无人驾驶飞行器和位于目标上的电子装置进行通信以定位目标并将无人驾驶飞行器相对于目标定位。无人驾驶飞行器包括用于检测运动目标的运动的传感器系统(例如,相机)。在一些实施例中,位于目标上的电子装置还包括传感器系统(例如,运动/压力传感器、生命力监视器等等),所述传感器系统被配置成检测目标的生理指标。无人驾驶飞行器包括处理单元,所述处理单元被配置成调整无人驾驶飞行器相对于运动目标的位置,控制机载传感器系统(例如,相机),接收目标的运动的视觉信息,接收目标的生理指标,仅基于视觉信息或结合生理指标和生理指标分析目标(例如,人类用户)的运动,并向人类用户提供关于运动分析的实时反馈。在一些实施例中,人类用户可以经由电子装置提供语音命令以控制无人驾驶飞行器。
本公开旨在解释如何形成和使用根据本发明的各种实施例,而不是限制本发明的真实的、预期的和合理的范围和精神。以上描述不旨在穷举或将本发明限于所公开的精确形式。鉴于上述教导,许多修改或变化是可能的。选择并描述实施例以提供对本发明的原理和本发明的实际应用的最佳示出,并且使得本领域的普通技术人员能够以各种实施例和适于预期的特定用途的各种修改来利用本发明。当根据公正、合法以及合理授权的权利要求的范围来解释时,所有这样的修改和变化都在附随权利要求及其等同物所确定的本发明的范围内,这些权利要求在本申请未决期间可能被修改。

Claims (10)

1.一种系统,其特征在于,包括:
电子装置,所述电子装置包括:
第一可穿戴结构,所述第一可穿戴结构被配置成定位在目标上,所述第一可穿戴结构包括第一通信模块;以及
第二可穿戴结构,所述第二可穿戴结构被配置成定位在所述目标上,所述第二可穿戴结构物理上远离所述第一可穿戴结构,所述第二可穿戴结构包括第二通信模块;以及
无人驾驶飞行器,所述无人驾驶飞行器用于监视所述目标的运动,所述无人驾驶飞行器包括:
第三通信模块,其中所述第一通信模块和所述第三通信模块被配置成实现所述第一可穿戴结构与所述无人驾驶飞行器之间的第一无线通信链路,并且所述第二通信模块和所述第三通信模块被配置成实现所述第二可穿戴结构与所述无人驾驶飞行器之间的第二无线通信链路;
处理单元,所述处理单元被配置成响应于所述第一无线通信链路和所述第二无线通信链路而确定所述无人驾驶飞行器相对于所述目标的当前位置;以及
驱动控制单元,所述驱动控制单元与所述处理单元进行通信并且被配置成调整所述无人驾驶飞行器的速度和位置,以将所述无人驾驶飞行器从所述当前位置相对于所述目标移动到预定义位置。
2.根据权利要求1所述的系统,其特征在于:
所述第一通信模块和所述第三通信模块中的至少一个通信模块被配置成经由所述第一无线通信链路传送第一位置数据,以在所述第一通信模块和所述第三通信模块中的另一通信模块处接收;
所述第二通信模块和所述第三通信模块中的至少一个通信模块被配置成经由所述第二无线通信链路传送第二位置数据,以在所述第二通信模块和所述第三通信模块中的另一通信模块处接收;并且
所述处理单元被配置成基于所述第一位置数据和所述第二位置数据来确定所述目标的目标位置,并且响应于所述目标位置而将运动参数传送到所述驱动控制单元,其中所述运动参数使得所述驱动控制单元能够调整所述无人驾驶飞行器的所述速度和所述位置以将所述无人驾驶飞行器相对于所述目标位置移动到所述预定义位置。
3.根据权利要求1所述的系统,其特征在于,所述预定义位置是第一预定义位置,所述驱动控制单元还被配置成调整所述无人驾驶飞行器的所述速度和所述位置,以将所述无人驾驶飞行器从所述第一预定义位置移动到第二预定义位置。
4.根据权利要求1所述的系统,其特征在于,所述无人驾驶飞行器还包括传感器系统,所述传感器系统被配置成检测所述目标的运动并将所述目标的运动信息提供给所述处理单元。
5.根据权利要求4所述的系统,其特征在于,所述处理单元还被配置成更新所述运动参数,以使得所述驱动控制单元能够响应于所述运动信息而调整所述无人驾驶飞行器的所述速度和所述位置。
6.根据权利要求4所述的系统,其特征在于,所述传感器系统包括相机,并且所述运动信息包括运动中的所述目标的视觉信息。
7.根据权利要求6所述的系统,其特征在于,所述处理单元还被配置成沿着所述第一可穿戴结构与所述第二可穿戴结构之间的视轴引导所述相机以捕获所述视觉信息。
8.根据权利要求4所述的系统,其特征在于,所述目标是用户,并且:
所述处理单元还被配置成根据所述运动信息来确定所述用户的步态正确性;并且
所述第三通信模块被配置成响应于所述步态正确性而经由所述第一无线通信链路和所述第二无线通信链路中的至少一个无线通信链路向所述用户传送校正指令。
9.根据权利要求8所述的系统,其特征在于,所述电子装置还包括用户传感器系统,所述用户传感器系统位于所述用户身上并且被配置成感测所述用户的至少一个生理指标,其中所述至少一个生理指标经由所述第一无线通信链路和所述第二无线通信链路中的至少一个无线通信链路传送到所述处理单元,并且所述处理单元还被配置成根据所述至少一个生理指标结合所述步态信息来确定所述用户的所述步态正确性。
10.一种利用无人驾驶飞行器监视目标的运动的方法,其特征在于,包括:
将电子装置的第一可穿戴结构和第二可穿戴结构定位在所述目标上,所述第一可穿戴结构物理上远离所述第二可穿戴结构,所述第一可穿戴结构包括第一通信模块,并且所述第二可穿戴结构包括第二通信模块;
实现所述第一可穿戴结构的所述第一通信模块与所述无人驾驶飞行器上的第三通信模块之间的第一无线通信链路;
实现所述第二可穿戴结构的所述第二通信模块与所述第三通信模块之间的第二无线通信链路;
响应于所述第一无线通信链路和所述第二无线通信链路而确定所述无人驾驶飞行器相对于所述目标的当前位置;并且
调整所述无人驾驶飞行器的速度和位置,以将所述无人驾驶飞行器从所述当前位置相对于所述目标移动到预定义位置。
CN202110181348.5A 2020-02-13 2021-02-09 运动监视及分析系统和方法 Pending CN113243906A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN202011006226 2020-02-13
IN202011006226 2020-02-13

Publications (1)

Publication Number Publication Date
CN113243906A true CN113243906A (zh) 2021-08-13

Family

ID=74194568

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110181348.5A Pending CN113243906A (zh) 2020-02-13 2021-02-09 运动监视及分析系统和方法

Country Status (3)

Country Link
US (1) US20210258540A1 (zh)
EP (1) EP3885869A1 (zh)
CN (1) CN113243906A (zh)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10642560B2 (en) * 2015-02-13 2020-05-05 Position Imaging, Inc. Accurate geographic tracking of mobile devices
CN106683123B (zh) * 2016-10-31 2019-04-02 纳恩博(北京)科技有限公司 一种目标跟踪方法及目标跟踪装置

Also Published As

Publication number Publication date
EP3885869A1 (en) 2021-09-29
US20210258540A1 (en) 2021-08-19

Similar Documents

Publication Publication Date Title
US9939456B2 (en) Exercise support device, control method for exercise support device, and computer-readable storage medium
Cola et al. An on-node processing approach for anomaly detection in gait
US9375570B2 (en) Sensor unit for a functional electrical stimulation (FES) orthotic system
KR20190035786A (ko) 수영 분석 시스템 및 방법
US20120232430A1 (en) Universal actigraphic device and method of use therefor
KR101834077B1 (ko) 자세균형 훈련 시스템
CN107049718B (zh) 避障装置
Cole et al. A study on motion mode identification for cyborg roaches
Hindle et al. Inertial‐Based Human Motion Capture: A Technical Summary of Current Processing Methodologies for Spatiotemporal and Kinematic Measures
CN110974242A (zh) 一种用于可穿戴式设备的步态异常程度评价方法及该设备
CN106267781A (zh) 用于体育训练的防水型动作捕捉系统
US20220193522A1 (en) Exercise analysis system using sensor worn on user's head
CN111967366B (zh) 一种对腿部患者的康复状况进行评测的方法及助行机器人
CN116108873B (zh) 基于rfid/imu融合的运动姿势评估系统
EP3885869A1 (en) System and method for tracking a human target
JP2008161227A (ja) 歩行分析システム
Hwang et al. A novel end-effector robot system enabling to monitor upper-extremity posture during robot-aided planar reaching movements
CN110353695A (zh) 一种可穿戴式运动康复指导和监护系统及其方法
CN113768760B (zh) 助行器的控制方法、系统和驱动设备
JP2022520219A (ja) 足装着型ウェアラブルデバイスおよびその動作方法
Jayasvasti et al. Indoor Positioning System on Identification of Neurodegenerative Disease: A Comparative Study of BLE versus RFID
Seo et al. Human Joint Axis Estimation Algorithm Using a Single Sensor to Recognize the Intention of the Wearer of a Wearable Robot
Crha et al. Navigation of robotic platform for gait disorders monitoring
Yang et al. A novel dead reckoning system based on wearable exoskeleton for rat-robot localization
Kadir et al. Wireless IMU: a wearable smart sensor for disability rehabilitation training

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20210813