CN109906069B - 一种具有医疗监测及反应功能的智能轮椅系统 - Google Patents

一种具有医疗监测及反应功能的智能轮椅系统 Download PDF

Info

Publication number
CN109906069B
CN109906069B CN201780067883.XA CN201780067883A CN109906069B CN 109906069 B CN109906069 B CN 109906069B CN 201780067883 A CN201780067883 A CN 201780067883A CN 109906069 B CN109906069 B CN 109906069B
Authority
CN
China
Prior art keywords
information
sensor
frame
map
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780067883.XA
Other languages
English (en)
Other versions
CN109906069A (zh
Inventor
刘伟荣
李家鑫
焦寅
闫励
东东
黄翊峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Golden Ridge Intelligence Science and Technology Co Ltd
Original Assignee
Sichuan Golden Ridge Intelligence Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Golden Ridge Intelligence Science and Technology Co Ltd filed Critical Sichuan Golden Ridge Intelligence Science and Technology Co Ltd
Publication of CN109906069A publication Critical patent/CN109906069A/zh
Application granted granted Critical
Publication of CN109906069B publication Critical patent/CN109906069B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/009Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • A61B5/02055Simultaneously evaluating both cardiovascular condition and temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • A61B5/02108Measuring pressure in heart or blood vessels from analysis of pulse wave characteristics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • A61B5/0215Measuring pressure in heart or blood vessels by means inserted into the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • A61B5/029Measuring or recording blood output from the heart, e.g. minute volume
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/14542Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue for measuring blood gases
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6894Wheel chairs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G5/00Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
    • A61G5/10Parts, details or accessories
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/30General characteristics of devices characterised by sensor means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2210/00Devices for specific treatment or diagnosis

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Cardiology (AREA)
  • Physiology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Data Mining & Analysis (AREA)
  • Vascular Medicine (AREA)
  • Hematology (AREA)
  • Pulmonology (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • Nursing (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

一种用于监测生理信息的系统和方法。该系统包括传感器(230),该传感器(230)包括运动传感器和医疗监护传感器,运动传感器包括第一类型传感器(1220)和第二类型传感器(1240),医疗监护传感器被配置为采集一个用户的生理信息;运动模块(920)执行控制参数以在周围移动;云台(930);处理器(210),该处理器(210)用以执行接收信息、构建地图、规划路径和生成控制参数等操作。

Description

一种具有医疗监测及反应功能的智能轮椅系统
技术领域
本发明涉及一种具有医疗监测及反应功能的智能轮椅系统及其控制方法。具体的,涉及一种移动智能机器人以及控制图像检测与处理、路径搜索和机器人移动的控制方法。
背景技术
在日常生活中,能够移动的智能设备例如智能轮椅、清扫机器人和智能平衡轮等越来越常见。智能轮椅融合了机器人技术,能够大大帮助用户的行动。智能轮椅通常使用智能机器人系统以执行移动、感知环境和进行操作等功能。为了在所处区域内提供服务,智能机器人系统可以基于现有的地图识别环境并自动移动。随着人们对服务需求的快速扩张,人们期望可以更新地图、规划路径和自动移动的多功能智能机器人系统,尤其是能够适应更多复杂区域的智能机器人。
另外,智能轮椅通常是为存在认知或运动障碍的人或者老年人所使用。在现实中,需要具备能够监测用户生理信息并作出反应的智能轮椅。
发明内容
本发明一方面涉及的是一个用于监测生理信息的系统,所述系统包括传感器,所述传感器包括运动传感器和医疗监护传感器,所述运动传感器包括第一类型传感器和第二类型传感器,所述医疗监护传感器被配置为采集一个用户的生理信息;运动模块;云台和与所述存储器通信的处理器。在执行指令时,所述处理器可以通过通信端口与运动模块和云台建立通信;所述处理器可以从传感器中获取信息以构建地图;所述处理器还可以基于所述信息规划路径,以及基于所述信息生成控制参数。
本发明另一方面涉及的是一种方法,所述方法可以包括通过通信端口与运动模块和云台建立通信;所述方法可以包括从运动模块和云台的传感器中获取信息以构建地图;所述方法还可以包括基于所述信息规划路径,以及基于所述信息生成控制参数。
本发明的又一方面涉及的是永久性的计算机可读媒介,具体表现为计算机程序产品。所述计算机程序产品包括用于在处理器和运动模块之间,以及处理器和云台之间建立通信的通信端口。所述通信端口可以采用应用程序接口(Application Program Interface(API))建立通信。
附图说明
本方法、系统和/或程序以实施例的形式被进一步描述。这些典型实施例参照附图进行描述。这些实施例为不限制本发明的实施例,这些实施例中的标号代表其它视角下的相同结构的标号。
图1是根据本申请的一些实施例所示的扫描系统的一种机器人控制系统的示意图;
图2是根据本申请的一些实施例所示的图1中机器人控制系统中的机器人的示意框图;
图3是根据本申请的一些实施例所示的图2中的机器人中处理器的示意框图;
图4是根据本申请的一些实施例所示的图3中的处理器中分析模块的示意框图;
图5是根据本申请的一些实施例所示的处理器中导航模块的示意框图;
图6是根据本申请的一些实施例所示的运动控制示意图;
图7是根据本申请的一些实施例所示的运动控制示意图;
图8是根据本申请的一些实施例所示的图2中的传感器结构示意图;
图9是根据本申请的一些实施例所示的图2中的机身示意图;
图10是根据本申请的一些实施例所示的运动模块示意图;
图11是根据本申请的一些实施例所示的图9中的云台结构示意图;
图12是根据本申请的一些实施例所示的机器人系统;
图13是根据本申请的一些实施例所示的确定控制机器人的控制参数的流程图;
图14是根据本申请的一些实施例所示的构建地图的流程图;
图15是根据本申请的一些实施例所示的确定一个或多个参考帧的流程图;
图16是根据本申请的一些实施例所示的获得深度信息、强度信息和位移信息的流程图;
图17A是根据本申请的一些实施例所示的确定位移初值的流程图;
图17B是根据本申请的一些实施例所示的确定机器人姿势的流程图;
图18是根据本申请的一些实施例所示的陀螺仪和加速度计确定水平面与Z轴夹角的示意框图;
图19是根据本申请的一些实施例所示的确定参考帧对应角度的流程图;
图20是根据本申请的一些实施例所示的调节智能设备中传感器中垂直方向运动的流程图。
具体实施例
在下面的详细描述中,通过示例阐述了本披露的许多具体细节,以便提供对相关披露的透彻理解。然而,对于本领域的普通技术人员来讲,本披露显而易见的可以在没有这些细节的情况下实施。在其他情况下,本披露中的公知的方法、过程、系统、组件和/或电路已经在别处以相对高的级别进行了描素,本披露中对此没有详细地描述,以避免不必要地重复。
应当理解的是,本披露中使用“系统”、“装置”、“单元”和/或“模块”术语,是用于区分在顺序排列中不同级别的不同部件、元件、部分或组件的一种方法。然而,如果其他表达式可以实现相同的目的,这些术语可以被其他表达式替换。
应当理解的是,当设备、单元或模块被称为“在……上”、“连接到”或“耦合到”另一设备、单元或模块时,其可以直接在另一设备、单元或模块上,连接或耦合到或与其他设备、单元或模块通信,或者可以存在中间设备、单元或模块,除非上下文明确提示例外情形。例如,本披露所使用的术语“和/或”包括一个或多个相关所列条目的任何一个和所有组合。
本披露所用术语仅为了描述特定实施例,而非限制本披露范围。如本披露说明书和权利要求书中所示,除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说来,术语“包括”与“包含”仅提示包括已明确标识的特征、整体、步骤、操作、元素和/或组件,而该类表述并不构成一个排它性的罗列,其他特征、整体、步骤、操作、元素和/或组件也可以包含在内。
参看下面的说明以及附图,本披露的这些或其他特征和特点、操作方法、结构的相关元素的功能、部分的结合以及制造的经济性可以被更好地理解,其中说明和附图形成了说明书的一部分。然而,可以清楚地理解,附图仅用作说明和描述的目的,并不意在限定本披露的保护范围。可以理解的是,附图并非按比例绘制。
此外,本披露仅描述了与确定智能机器人状态相关的系统及方法,可以理解的是,本披露中的描述仅仅是一个实施例。该智能机器人系统或方法也可以应用到除智能机器人以外的其他任何类型的智能设备或汽车中。例如,智能机器人系统或方法可以应用于不同的智能设备系统中,这些智能设备系统包括摆轮、无人地面车辆(UGV)、智能轮椅等中的一种或者任意几种组合。智能机器人系统还可以应用到包括应用管理和/或分发的任何智能系统,例如用于发送和/或接收快递,以及将人员或货物运载到某些位置的系统。
本披露的术语“机器人”、“智能机器人”、“智能设备”可互换地用于指代可移动和自动操作的装置、设备或工具。本披露中的术语“用户设备”可以指可以用于请求服务、订购服务或促进服务的提供的工具。本披露中的术语“移动终端”可以指可由用户使用以控制智能机器人的工具或接口。
随着社会老龄化进程的加快以及由于各种疾病、工伤、交通事故等原因造成下肢损伤的人数的增加,为老年人和残疾人提供性能优越的代步工具已成为整个社会重点关注的问题之一。智能轮椅作为一种服务机器人,具有自主导航、避障、人机对话以及提供特种服务等多种功能,可以为有认知障碍的残疾人(如,痴呆病人等)、有运动障碍的残疾人(如,脑瘫病人、四肢瘫痪病人等)、老年人等提供安全便捷的生活方式,大大提高他们的日常生活和工作质量,使他们重新获得生活自理能力和融入社会成为可能。
作为机器人技术的一种应用平台,智能轮椅上融合了机器人研究领域的多种技术,包括机器人导航和定位、机器视觉、模式识别、多传感器信息融合以及人机交互等等。
智能轮椅可以基于所采用的导航技术和人机接口技术划分。
根据不同的人机接口技术,智能轮椅可以包括基于设定型人机接口的智能轮椅和基于自然型人机接口的智能轮椅。其中,基于设定型人机接口的智能轮椅可以包括但不限于操纵杆控制型智能轮椅、按键控制型智能轮椅、方向盘控制型智能轮椅、触摸屏控制型智能轮椅、菜单控制型智能轮椅等一种或多种的结合。基于自然型人机接口的智能轮椅可以包括但不限于语音控制型智能轮椅、呼吸控制型智能轮椅、头部控制型智能轮椅、手势控制型智能轮椅、舌头动作控制型智能轮椅、生物信号控制型智能轮椅等一种或多种的结合。所述生物信号控制型智能轮椅可以包括但不限于脑电波(EEG)智能轮椅、肌动电流(EMG)智能轮椅、眼电图(EOG)智能轮椅等。
根据不同的导航技术,智能轮椅可以包括基于路标导航的智能轮椅、基于地图导航的智能轮椅、基于传感器导航的智能轮椅、基于视觉导航的智能轮椅等。其中,基于传感器导航的智能轮椅可以包括但不限于超声波传感型智能轮椅、红外传感型智能轮椅、激光测距型智能轮椅、碰撞传感型智能轮椅等一种或多种的结合。
本披露中智能轮椅系统使用智能机器人实现移动、改变方向、停止、感知环境、绘制地图和确定行驶路径等功能。需要注意的是,本披露中所提供的智能机器人也可以用在其他领域,实现类似的功能或目的。
本披露中使用的定位技术包括全球定位系统(GPS)技术、全球导航卫星系统(GLONASS)技术、罗盘导航系统(COMPASS)技术、伽利略定位系统(Galileo)技术、准天顶卫星系统(QZSS)技术、无线保真(WiFi)定位技术等中的一种或者任意几种组合。上述定位技术中的一种或多种可以在本披露中可互换地使用。
本披露描述了作为示例性系统的智能机器人控制系统100以及为智能机器人控制系统100构建地图和规划路线的方法。本披露的方法和系统旨在基于,例如由智能机器人控制系统100获得的信息,构建地图。所获得的信息可以由位于智能机器人控制系统100中的传感器(组)捕获。传感器(组)可以是光学或磁电型。例如,传感器可以是相机或激光雷达。
根据本申请的一些实施例,图1所示的是智能机器人控制系统100的一种示例性示意图。智能机器人控制系统100可以包括一个智能机器人110、一个网络120、一个用户设备130和一个数据库140。用户可以通过网络120使用用户设备130来控制智能机器人。
智能机器人110和用户设备130可以建立通信。智能机器人110和用户设备130之间的通信可以是有线或无线的。例如,智能机器人110可以经由网络120建立与用户设备130或数据库140的通信,并且可以基于来自用户设备130的操作命令(例如,移动或旋转的命令)无线地控制智能机器人110。再例如,智能机器人110可以通过电缆或光纤直接连接到用户设备130或数据库140。在一些实施例中,智能机器人110可以基于智能机器人110和数据库140之间的通信来更新或下载存储在数据库140中的地图。例如,智能机器人110可以在路线中捕获信息,且可以分析信息以构建地图。在一些实施例中,完整的地图可以存储在数据库140中。在一些实施例中,由智能机器人110构建的地图可以包括与完整地图的一部分相对应的信息。在一些实施例中,可以通过构建的地图更新完整的地图的对应部分。当智能机器人110确定其目的地和当前位置时,存储在数据库140中的完整的地图可以由智能机器人110访问。包含智能机器人110的目的地和当前位置的完整地图的一部分可以由智能机器人110选择用于规划路线。在一些实施例中,智能机器人110可以基于所选择的地图、智能机器人110的目的地和当前位置来规划路线。在一些实施例中,智能机器人110可以采用用户设备130的地图。例如,用户设备130可以从因特网下载地图。用户设备130可以基于从因特网下载的地图来指导智能机器人110的运动。再例如,用户设备130可以从数据库140下载最新的地图。一旦确定了智能机器人110的目的地和当前位置,用户设备130就可以将从数据库140获得的地图发送到智能机器人110。在一些实施例中,用户设备130可以是智能机器人110的一部分。在一些实施例中,如果智能机器人110构建的地图包括其目的地和当前位置,智能机器人110可以基于由其自身构建的地图来规划路线。
网络120可以是单个网络或不同网络的组合。例如,网络120可以是局域网(LAN)、广域网(WAN)、公共网络、专用网络、无线局域网(WLAN)、虚拟网络、城域网(MAN)、公共电话交换网络(PSTN)或其任意组合。例如,智能机器人110可以经由蓝牙与用户设备130和数据库140通信。网络120还可以包括各种网络接入点。例如,诸如基站或因特网交换点的有线或无线接入点可以包括在网络120中。用户可以从用户设备130向智能机器人110发送控制操作并且经由网络120接收结果。智能机器人110可以直接或经由网络120访问存储在数据库140中的信息。
可连接到网络120的用户设备130可以是移动设备130-1、平板电脑130-2、笔记本电脑130-3、内置设备130-4等中的一种或者其任意几种组合。在一些实施例中,移动设备130-1可以包括可穿戴设备、智能移动设备,虚拟现实设备、增强现实设备等中的一种或其任意几种组合。在一些实施例中,用户可以通过可穿戴设备控制智能机器人110,可穿戴设备可以包括智能手环、智能鞋袜、智能眼镜、智能头盔、智能手表、智能服装、智能背包、智能配件等中的一种或者其任意几种组合。在一些实施例中,智能移动设备可以包括智能电话、个人数字助理(PDA)、游戏设备、导航设备,销售点(POS)设备等中的一种或者其任意几种组合。在一些实施例中,虚拟现实设备和/或增强现实设备可以包括虚拟现实头盔、虚拟现实眼镜、虚拟现实贴片、增强现实头盔、增强现实玻璃、增强现实眼罩等中的一种或者任意几种组合。例如,虚拟现实设备和/或增强现实设备可以包括Google Glass,Oculus Rift,HoloLens,Gear VR等。在一些实施例中,内置设备130-4可以包括车载电脑、车载电视等。在一些实施例中,用户设备130可以是具有为用户和/或与用户相关联的用户设备130的位置定位的定位技术的设备。例如,可以由智能机器人110基于地图、智能机器人110的目的地和当前位置来确定路线。智能机器人110的位置可以通过用户设备130获得。在一些实施例中,用户设备130可以是具有图像捕获能力的设备。例如,可以基于由图像传感器(例如,相机)捕获的信息来更新存储在数据库140中的地图。在一些实施例中,用户设备130可以是智能机器人110的一部分。例如,具有相机、陀螺仪和加速度计的智能手机可以由智能机器人110的云台夹持。用户设备130可以用作传感器以检测信息。再例如,处理器210和存储器220可以是智能手机的一些部分。在一些实施例中,用户设备130还可以为智能机器人110的用户充当通信接口。例如,用户可以触摸用户设备130的屏幕以选择智能机器人110的控制操作。
数据库140可以存储完整的地图。在一些实施例中,可以存在与数据库140无线连接的多个智能机器人。与数据库140连接的每个智能机器人可以基于由其传感器捕获的信息来构建地图。在一些实施例中,由智能机器人构建的地图可以是完整地图的一部分。在更新过程中,构建的地图可以替换完整的地图中的相应区域。当路线需要从智能机器人110的位置规划到目的地时,每个智能机器人可以从数据库140下载地图。在一些实施例中,从数据库140下载的地图可以是完整的地图的一部分,该部分至少包括智能机器人110的位置和目的地。数据库140还可以存储与连接到智能机器人110的用户有关的历史信息。该历史信息可以包括,例如用户的先前操作或与智能机器人110如何操作有关的信息。如图1所示,数据库140可以由智能机器人110和用户设备130访问。
应当注意,上述智能机器人控制系统100仅仅为了描述该系统的特定实施例的一个示例,而非限制本披露范围。
根据本申请的一些实施例,图2所示的是图1所示的智能机器人控制系统100中的示例性智能机器人110的框图。智能机器人110可以包括处理器210、存储器220、传感器(组)230、通信端口240、输入/输出接口250和机身260。传感器(组)230可以获取信息。在一些实施例中,信息可以包括图像数据、陀螺仪数据、加速度计数据、位置数据和距离数据。处理器210可以处理信息以生成一个或多个结果。在一些实施例中,一个或多个结果可以包括位移信息和深度信息(例如,相邻两个帧间的相机的位移,两个相邻帧中的对象的深度)。在一些实施例中,处理器210可以基于一个或多个结果构建地图。处理器210还可以将地图传送到数据库140以进行更新。在一些实施例中,处理器210可以包括一个或多个处理器(例如,单核处理器或多核处理器)。仅作为示例,处理器210可以包括中央处理单元(CPU)、专用集成电路(ASIC)、专用指令集处理器(ASIP)、图形处理单元(GPU)、物理处理单元(PPU)、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、可编程逻辑器件(PLD)、控制器、微控制器单元、精简指令集计算机、微处理器等中的一种或者其任意几种组合。
存储器220可以存储用于处理器210的指令,并且当执行指令时,处理器210可以执行本披露中描述的一个或多个功能或操作。例如,存储器220可以存储由处理器210执行的指令,这些指令用来处理由传感器(组)230获得的信息。在一些实施例中,处理器220可以自动存储由传感器(组)230获得的信息。存储器220还可以存储由处理器210生成的一个或多个结果(例如,用于构建地图的位移信息和/或深度信息)。例如,处理器210可以生成一个或多个结果并将其存储在存储器220中,并且一个或多个结果可以由处理器210从存储器220中读取以构建地图。在一些实施例中,存储器220可以存储由处理器210构建的地图。在一些实施例中,存储器220可以存储由处理器210从数据库140或用户设备130获得的地图。例如,存储器220可以存储由处理器210构建的地图,然后可以将构建的地图发送到数据库140以更新完整的地图的对应部分。再例如,存储器220可以临时存储由处理器210从数据库140或用户设备130下载的地图。在一些实施例中,存储器220可以包括大容量存储器、可移动存储器、易失性读写存储器、只读存储器(ROM)等中的一种或者其任意几种组合。示例性大容量存储器可以包括磁盘、光盘和固态驱动器等。示例性可移动存储器可以包括闪存驱动器、软盘、光盘、存储卡、压缩盘和磁带等。示例性易失性读写存储器可以包括随机存取存储器(RAM)。示例性RAM可以包括动态RAM(DRAM)、双日期速率同步动态RAM(DDR SDRAM)、静态RAM(SRAM)、晶闸管RAM(T-RAM)和零电容器RAM(Z-RAM)等。示例性ROM可以包括掩模ROM(MROM)、可编程ROM(PROM)、可擦除可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、光盘ROM(CD-ROM)数字多功能盘ROM。
传感器(组)230可以包括能够获得来自物体或障碍物的图像数据、陀螺仪数据、加速度计数据、位置数据、距离数据以及可由智能机器人110使用以执行本披露中描述的各种功能的任何其它数据。例如,传感器(组)230可以包括用于在低光环境下获得图像数据的一个或多个夜视摄影机。在一些实施例中,由传感器(组)230获得的数据和/或信息可以存储在存储器220中并且可以由处理器210处理。在一些实施例中,一个或多个传感器(组)230可以安装在机身260中。更具体地,例如,一个或多个图像传感器可以安装在机身260的云台中。一个或多个导航传感器、螺旋仪和加速度计可以安装在云台和运动模块中。在一些实施例中,传感器(组)230可以在处理器210的控制下自动探索环境并检测位置。例如,传感器(组)230可以用于动态地感测或检测物体、障碍物等的位置。
通信端口240可以是用于在智能机器人110内通信的端口。也就是说,通信端口240可以在智能机器人110的组件之间交换信息。在一些实施例中,通信端口240可以将处理器210的信号/数据/信号发送到智能机器人110的内部部分,以及从智能机器人110的内部部分接收信号。例如,处理器210可以从安装在机身260的传感器(组)接收信息。再例如,处理器210可以通过通信端口240将控制操作发送到机身260。发送-接收的处理过程可以通过通信端口240来实现。通信端口240可以根据某些无线通信规范接收各种无线信号。在一些实施例中,通信端口240可以被提供为用于诸如Wi-Fi、蓝牙、红外(IR)、超宽带(UWB)、ZigBee等的已知无线局域通信的通信模块,或者作为诸如3G、4G或长期演进(LTE)的移动通信模块,或者作为用于有线通信的已知通信方法。在一些实施例中,在一些实施例中,通信端口240不限于用于从内部设备发送/接收信号的元件,并且可以被用于交互式通信的接口。例如,通信端口240可以通过使用应用程序接口(API)的电路在处理器210和智能机器人110的其他部分之间建立通信。在一些实施例中,用户设备130可以是智能机器人110的一部分。在一些实施例中,处理器210和用户设备130之间的通信可以由通信端口240执行。
输入/输出接口250可以是用于智能机器人110与诸如数据库140的其他外部设备之间的通信的接口。在一些实施例中,输入/输出接口250可以控制与智能机器人110的数据传输。例如,最新的地图可以从数据库140发送到智能机器人110。再例如,基于传感器(组)230获得的信息构建的地图可以从数据库140发送到智能机器人110。输入/输出接口250还可以包括各种附加元件,诸如用于无线通信的无线通信模块(未示出)或用于调节广播信号的调谐器(未示出),这取决于智能机器人110的设计类型以及用于从外部输入接收信号/数据元件。输入/输出接口250可以被用于已知无线局域通信的通信模块,诸如Wi-Fi、蓝牙、红外(IR)、超宽带(UWB)、ZigBee等,或者作为诸如3G,4G或长期演进(LTE)的移动通信模块,或者作为用于有线通信的已知输入/输出接口。在一些实施例中,输入/输出接口250可以被提供为用于诸如光纤或通用串行总线(USB)的已知有线通信的通信模块。例如,智能机器人110可以经由USB接口与计算机的数据库140交换数据。
机身260可以是用于保存处理器210、存储器220、传感器230、通信端口240和输入/输出接口250的主体。机身260可以执行来自处理器210的指令以移动和旋转传感器(组)230以获得或检测区域的信息。在一些实施例中,机身260可以包括运动模块和云台,参见本披露中其他部分(如图9及其描述)对机身260的描述。在一些实施例中,传感器(组)可以分别安装在运动模块和云台中。
根据本申请的一些实施例,图3所示的一种处理器210的示例性结构图。如图3所示,处理器210可以包括分析模块310、导航模块320和智能机器人控制模块330。
分析模块310可以分析从传感器(组)230获得的信息并生成一个或多个结果。分析模块310可以基于一个或多个结果构建地图。在一些实施例中,构建的地图可以被发送到数据库140。在一些实施例中,分析模块310可以从数据库140中接收最新的地图并将其发送到导航模块320。导航模块320可以规划从智能机器人110的位置到目的地的路线。在一些实施例中,完整的地图可以被保存在数据库140中。分析模块310构建的地图可以对应于完整地图的一部分。更新过程可以用构建的地图替换完整地图的对应部分。在一些实施例中,由分析模块310构建的地图可以是最新的,并且包括智能机器人110的位置和目的地。分析模块310可以不从数据库140接收地图。由分析模块310构建的地图可以被传送到导航模块320以规划路线。智能机器人控制模块330可以基于导航模块320规划的路线生成智能机器人110的控制参数。在一些实施例中,控制参数可以暂时存储在存储器220中。在一些实施例中,控制参数可以被发送到智能机器人机身260以控制智能机器人110的运动,参见本披露中其他部分(如图6、图7及其描述)对控制参数的描述。
根据本申请的一些实施例,图4是图3所示的处理器210中的示例性分析模块310的结构示意图。在一些实施例中,分析模块310可以包括图像处理单元410、位移确定单元420、深度确定单元430、闭环控制单元440和对象检测单元450。
图像处理单元410可以处理图像数据以执行智能机器人110的一个或多个功能。图像数据可以包括例如一个或多个图像(例如,静止图像、视频帧等)、每个帧中的每个像素点的初始深度和位移,和/或与一个或多个图像相关的任何其它数据。在一些实施例中,位移可以包括在拍摄两个相邻帧的时间间隔之间的轮子的位移和相机相对于轮子的位移。图像数据可以由能够提供图像数据的任何设备提供,诸如传感器(组)230(例如,一个或多个图像传感器)。在一些实施例中,图像数据可以包括关于多个图像的数据。图像可以包括视频帧序列(也称为“帧”)。每个帧可以是一个帧、一个字段等。
在一些实施例中,图像处理单元410可以处理图像数据以生成智能机器人110的运动信息。例如,图像处理单元410可以处理两个帧(例如,第一帧和第二帧)以确定两帧之间的差异。图像处理单元410然后可以基于帧之间的差异产生智能机器人110的运动信息。在一些实施例中,第一帧和第二帧可以是相邻帧(例如,当前帧和先前帧、当前帧和后续帧等)。另外,第一帧和第二帧也可以是不相邻帧。更具体地,例如,图像处理单元410可以确定第一帧和第二帧中的一个或多个对应像素点以及包括对应像素点(也称为“重叠区域”)的一个或多个区域。响应于确定的同一对象的第一像素点和第二像素点,图像处理单元410可以将第一帧中的第一像素点确定为第二帧中的第二像素点的对应像素点。第二帧中的第一像素点及其对应像素点(例如,第二像素点)可以对应于相对的一个对象的相同位置。在一些实施例中,图像处理单元410可以识别第一帧中在第二帧中不具有对应像素点的一个或多个像素点。图像处理单元410可进一步识别包括所识别像素点的一个或多个区域(也称为“非重叠区域”)。非重叠区域可以对应于传感器(组)230的运动。在一些实施例中,在进一步处理(例如,通过位移确定单元420和/或深度确定单元430的处理),在第二帧中没有对应像素点的第一帧中的非重叠区域的像素点可以省略。
在一些实施例中,图像处理单元410可以识别第一帧中的像素点和第二帧中的对应像素点的强度。在一些实施例中,可以获得第一帧中的像素点和第二帧中的对应像素点的强度作为确定第一帧和第二帧之间的差的标准。例如,可以选择RGB强度作为确定第一帧和第二帧之间的差异的标准。像素点、对应像素点和RGB强度可以被发送到位移确定单元420和/或深度确定单元430,用于确定第二帧的位移和深度。在一些实施例中,深度可以表示两个帧中的对象的空间深度。在一些实施例中,位移信息可以是一组帧的位移的集合。在一些实施例中,深度信息可以是一组帧的深度。帧、位移信息和深度信息可以用于构建地图。
位移确定单元420可基于由图像处理单元410提供的数据和/或任何其它数据来确定位移信息。位移信息可以包括可以表示生成图像数据的传感器(组)230(例如,捕获多个帧的图像传感器)的运动信息的一个或多个位移。例如,位移确定单元420可以获得两个帧(例如第一帧和第二帧)中的对应像素点的数据。数据可以包括对应像素点的一个或多个值,诸如像素点的灰度值,强度等。位移确定单元420可基于任何合适的颜色模型(例如,RGB(红色、绿色和蓝色)模型,HSV(色调、饱和度和亮度)模型等)确定像素点的值。在一些实施例中,位移确定单元420可以确定两个帧中的对应像素点对之间的差值。例如,图像处理单元410可以识别第一帧中的第一像素点及其在第二帧中的对应像素点(例如,第二像素点),可以基于第一像素点的坐标的变换来确定第二像素点。第一像素点和第二像素点可以对应于相同的对象。位移确定单元420还可以确定第一像素点的值和第二像素点的值之间的差。在一些实施例中,可以通过最小化第一帧和第二帧中的对应像素点对之间的差的和来确定位移。
在一些实施例中,位移确定单元420可以确定表示位移的原点估计值的初始位移
Figure 336743DEST_PATH_IMAGE001
。例如,初始位移
Figure 722725DEST_PATH_IMAGE001
可以基于如下的公式(1)来确定:
Figure 846669DEST_PATH_IMAGE002
(1)
其中,
Figure 710720DEST_PATH_IMAGE003
表示所述第一帧中的像素点的坐标;
Figure 525093DEST_PATH_IMAGE004
表示第二帧中对应 像素点的坐标,
Figure 941030DEST_PATH_IMAGE004
Figure 676905DEST_PATH_IMAGE005
可以在一个对象的相同相对位置处,且
Figure 217083DEST_PATH_IMAGE006
是相机移动一定位移
Figure 885962DEST_PATH_IMAGE007
之后的
Figure 348168DEST_PATH_IMAGE008
的变换像素点。
Figure 695972DEST_PATH_IMAGE009
是一组像素点对,每个像素点对包括第 一帧中的像素点和第二帧中的对应像素滴点。
Figure 432984DEST_PATH_IMAGE010
是坐标值为
Figure 425211DEST_PATH_IMAGE011
的像素点的RGB强度;
Figure 199263DEST_PATH_IMAGE012
是像素点为
Figure 909730DEST_PATH_IMAGE013
的RGB强度。
Figure 778329DEST_PATH_IMAGE014
是相机移动一定位移
Figure 890641DEST_PATH_IMAGE015
之后的
Figure 570016DEST_PATH_IMAGE016
的变换坐标。在一些实施例中,位移确定单元420可以基于位移的初值
Figure 298937DEST_PATH_IMAGE015
和初始深度
Figure 846593DEST_PATH_IMAGE017
来计算对应像素点
Figure 938046DEST_PATH_IMAGE018
。在一些实施例中,初始深度
Figure 178534DEST_PATH_IMAGE019
可以是零矩阵。位移的初值
Figure 473381DEST_PATH_IMAGE020
可以是变量。为了获得初始位移
Figure 355886DEST_PATH_IMAGE021
,位移确定单元420可能需要如迭代公式(1)所示的位移的初值
Figure 177211DEST_PATH_IMAGE022
。在一些实施例中,位移的初值
Figure 713235DEST_PATH_IMAGE023
Figure 620011DEST_PATH_IMAGE024
,参见本披露中其他地方(例如,图17A及其描述)对初值
Figure 393625DEST_PATH_IMAGE025
的描述。在一些实施例中,位移的初值可以是
Figure 866195DEST_PATH_IMAGE026
Figure 448486DEST_PATH_IMAGE027
的向量和。尝试围绕位移的初值
Figure 967192DEST_PATH_IMAGE028
初值和变量,可以获得两个帧的最小差值。
在一些实施例中,深度确定单元430可以确定更新后的深度
Figure 660341DEST_PATH_IMAGE029
。更新后的深度
Figure 66046DEST_PATH_IMAGE029
可以由公式(2)计算:
Figure 819238DEST_PATH_IMAGE030
(2)
其中,其中深度
Figure 231765DEST_PATH_IMAGE031
表示公式(2)中的两个帧的差的变量,当两个帧的差为最小时,确定值
Figure 853239DEST_PATH_IMAGE032
作为更新后的深度。在一些实施例中,初始深度
Figure 503663DEST_PATH_IMAGE033
可以是零矩阵。
位移确定单元420还可以基于更新后的深度
Figure 37544DEST_PATH_IMAGE034
产生更新后的位移
Figure 937367DEST_PATH_IMAGE035
。在一些实施例中,可以通过用更新后的深度
Figure 972319DEST_PATH_IMAGE036
替换初始深度
Figure 867463DEST_PATH_IMAGE037
基于公式(1)获得更新后的位移
Figure 696879DEST_PATH_IMAGE038
闭环控制单元440可执行闭环检测。闭环控制单元440可以检测智能机器人110是否返回先前访问的位置,并且可以基于该检测更新位移信息。在一些实施例中,响应于确定智能机器人110已经返回到路线中先前访问的位置,闭环控制单元440可以使用g2o闭环检测来调整帧的更新后的位移以减少误差。g2o闭环检测是用于减少非线性误差的一般优化框架。调整的帧的更新后的位移可以被设置为位移信息。在一些实施例中,如果智能机器人110包括诸如激光雷达的深度传感器,则可以直接获得深度,可以基于公式(1)确定位移,然后可以通过闭环控制单元440调整位移以生成调整位移。
首先,当深度传感器检测到深度信息时,位移信息可以是基于公式(1)的一组位移,然后由闭环控制单元440调整。当深度信息是更新后的深度的集合时,位移信息可以是经公式(1)、公式(2)计算后的和闭环控制单元440调整之后的位移的集合。
在一些实施例中,闭环控制单元440可基于帧、位移信息和深度信息产生地图。
分析模块310还可以包括对象检测单元450,对象检测单元450可以检测障碍物、对象和从智能机器人110到障碍物和对象的距离。在一些实施例中,可以基于由传感器(组)230获得的数据来检测障碍物和物体。例如,对象检测单元450可以基于由声纳、红外距离传感器、光流传感器或激光雷达所捕获的距离数据来检测对象。
根据本申请的一些实施例,图5是处理器210中的示例性导航模块320的结构示意图。在一些实施例中,导航模块320可以包括绘图单元510和路线规划单元520。在一些实施例中,绘图单元510可以从数据库140接收地图。在一些实施例中,绘图单元510可以处理地图以进行路线规划。在一些实施例中,地图可以是数据库140中的完整地图的一部分。例如,包含确定的目的地和智能机器人110位置的地图可以适用于规划路线。在一些实施例中,从数据库140获得的地图可以是3D地图。在一些实施例中,绘图单元510可以通过投影技术将3D地图转换成2D地图。也就是说,绘图单元510可以将3D地图中的对象划分为像素点,并将像素点投影到水平地表面以生成2D地图。一旦通过绘图单元510获得了2D地图,路线规划单元520可以基于所传送的2D地图来规划从智能机器人110的位置到目的地的路线。
智能机器人控制模块330可基于导航模块320中的路线规划单元520所规划的路线来确定控制参数。在一些实施例中,智能机器人控制模块330可将路线分成一组段。智能机器人控制模块330可以获得段的一组节点。在一些实施例中,两个段之间的节点可以是前一段的终点和后一段的起点。可以基于起点和终点来确定一段的控制参数。
在一些实施例中,在智能机器人110在段中运动期间,智能机器人110的终点可能与段的预定终点不匹配,路线规划单元520可以基于不匹配的终点(新的智能机器人110的位置)和目的地规划新路线。在一些实施例中,智能机器人控制模块330可以分割新路线并生成一个或多个新段,然后智能机器人控制模块330可以确定每个新段的一组控制参数。
图6和图7是智能机器人110的运动控制的示例。如图6所示,运动模块以角速度
Figure 428205DEST_PATH_IMAGE039
围绕点
Figure 798007DEST_PATH_IMAGE040
移动。运动模块具有两个轮子,包括以速度
Figure 157444DEST_PATH_IMAGE041
移动的左轮610和以速度
Figure 547974DEST_PATH_IMAGE042
移动的右轮620。在一些实施例中,左轮610和右轮620之间的距离是
Figure 625651DEST_PATH_IMAGE043
。左轮610和右轮620到两个轮中心点
Figure 799144DEST_PATH_IMAGE044
的距离都是
Figure 151103DEST_PATH_IMAGE045
。中心点
Figure 587901DEST_PATH_IMAGE046
和点
Figure 746350DEST_PATH_IMAGE047
的距离是
Figure 457954DEST_PATH_IMAGE048
图7是智能机器人110的控制参数确定方法的一种示例性示意图。如图7所示,智能机器人110的运动模块在
Figure 667349DEST_PATH_IMAGE049
内从点
Figure 275048DEST_PATH_IMAGE050
运动到点
Figure 451952DEST_PATH_IMAGE051
。点
Figure 701667DEST_PATH_IMAGE052
和点
Figure 155782DEST_PATH_IMAGE053
的连线到点
Figure 809749DEST_PATH_IMAGE054
和点
Figure 349315DEST_PATH_IMAGE055
的连线的夹角为
Figure 996197DEST_PATH_IMAGE056
。如果
Figure 304818DEST_PATH_IMAGE057
Figure 785478DEST_PATH_IMAGE058
已知,可以计算出左轮的速度
Figure 422127DEST_PATH_IMAGE059
和右轮的速度
Figure 748066DEST_PATH_IMAGE060
根据本申请的一个实施例,图8是传感器(组)230的一种示例性结构框图。传感器(组)230可以包括一个图像传感器810、一个加速度计820、一个陀螺仪830、一个声呐840、一个红外距离传感器850、一个光流传感器860、一个激光雷达870和一个导航传感器880。
图像传感器810可以捕捉图像数据。在一些实施例中,基于所述图像数据,分析模块310可以构建地图。在一些实施例中,所述图像数据可以包括帧、每一帧上每个像素点的初始深度和位移。在一些实施例中,所述初始深度和位移可以用来确定深度和位移。关于所述深度和位移的获取方法可参见本申请其他部分的说明(详细描述见图4中的公式(1))。在一些实施例中,所述位移可以包括在拍摄两个相邻帧的一个时间间隔间的轮子的位移和相机相对于轮子的位移。
为了保持一个运动模块和一个云台的平衡,加速度计820和陀螺仪830可以共同运行。为了从传感器(组)230获取稳定的信息,所述平衡是必要的。在一些实施例中,为了将俯仰姿态(pitch attitude)控制在一定阈值内,加速度计820和陀螺仪830可以共同运行。在一些实施例中,所述加速度计820和陀螺仪830可分别由运动模块和云台持有。关于平衡保持相关描述可参见本申请其他部分,例如图18、图19及其描述。
声呐840、红外距离传感器850和光流传感器860可以用来对智能机器人110定位。在一些实施例中,可以采用声呐840、红外距离传感器850和光流传感器860中的一种或任意一种组合对智能机器人110定位。
激光雷达870可以检测在一帧中的物体的深度。也就是说,激光雷达870可以获取每一帧的深度,处理器210中的分析模块310不需要计算深度。激光雷达870获得的深度可以直接用来计算图4中公式(1)中所描述的位移。基于公式(1)获得的位移可以通过闭环控制单元440进行调整。
通过检测智能机器人110和一个物体或障碍物间的距离,声呐840、红外距离传感器850和光流传感器860可以对智能机器人110进行定位。导航传感器880可以在一个粗略的区域或位置范围内对智能机器人进行定位。在一些实施例中,导航传感器880可以对带有任何类型的定位系统的智能机器人110进行定位。所述定位系统可以包括全球定位系统(Global Positioning System, GPS)、北斗导航或定位系统和伽利略定位系统。
在一些实施例中,当该机器人以智能轮椅的形式体现时,传感器组可能还包括一组医疗监护传感器。该医疗监护传感器可以监控和记录用户生理信息。医疗监护传感器可以与用户体表接触。该医疗监护传感器与用户体表建立连接后,智能轮椅可以以实时(也可以非实时)的方式对用户的生理信息进行不间断的监测,并将监测结果传输到外部设备(包括但不限于存储设备或云服务器)上。比如,智能轮椅可以对用户在随机的一段时间内,如数分钟,数个小时,数天,或几个月内的生理信息进行连续的监测,也可以定期对用户的生理信息进行连续的监测。
在一些实施例中,智能轮椅或第三方的处理器(例如处理器210)将测量的用户当前的生理信息与预先设定好的安全阈值进行比较。如果出现异常,处理器(例如处理器210)可以确定一个警报信号。处理器(例如处理器210)可以将警报信号发送给一个智能设备,例如用户的智能手机或平板电脑。智能设备可以产生声、光、振动等警报以通知用户或其他人(用户家人或亲友等)。警报可以提示医护人员或用户其某项生理数值有可能出现异常。
在一些实施例中,智能轮椅或第三方的处理器(例如处理器210)根据已有的用户历史生理信息,预测未来生理信息。处理器可以将未来生理信息与预先设定好的安全阈值进行比较。如果出现异常,处理器(例如处理器210)可以确定一个预警信号。处理器(例如处理器210)可以将预警信号发送给一个智能设备,例如用户的智能手机或平板电脑。智能设备可以产生声、光、振动等警报以通知用户或其他人(用户家人或亲友等)。警报可以提示医护人员或用户其某项生理数值可能在未来出现异常,需要做出安全防范。
在一些实施例中,预设的安全阈值包括安全血压值、安全血氧含量值、安全心率值或安全脉搏值中的至少一个。
在一些实施例中,智能轮椅可以显示实时或非实时监测到的数据信息。供选择的,该实时或非实时监测到的信息可以无线或有线地传送给相关的第三方,如医院、护理机构或有关联人士等,并在该第三方的显示设备上显示。在一些实施例中,监测到的数据可以部分或全部地存储到一个本地的或远程的存储设备。例如,监测到的数据可以存储在智能轮椅的存储器220中,也可以存储到第三方的存储器中,如医院、护理机构的数据库中。
在一些实施例中,医疗监护传感器主要用于用户生理信息的采集,该医疗监护传感器可以通过光电传感方式实现,也可以通过电极传感方式实现。该医疗监护传感器可以通过温度感应、湿度变化、压力变化、光电感应、体表电位变化、电压变化、电流变化或磁场变化等获得生理信息。该医疗监护传感器可获得声学、光学、磁学、热学等各种信息,信息类型包括但不限于心电信息、心率信息、脉搏信息、血压信息、血氧信息、呼吸信息、有创血压信息、无创血压信息、心输出量、体温信息、血气信息等生理信息中的至少一种。例如,该医疗监护传感器可获取心电信息的包括但不限于波形、时间间隔、波峰、波谷、幅度大小等的信息。
在一些实施例中,该医疗监护传感器包括各种设备,包括但不限于血压测量设备、心电监测设备、血液测量设备、脉搏波检测仪、脑电波监测仪、心率探测仪、血氧探测仪、血氧探测仪、呼吸探测仪、有创血压探测仪、无创血压探测仪、心输出量探测仪、体温探测仪、血气探测仪等。其中,血压测量设备包括但不限于手表式血压计、腕式血压计、上臂式血压计等。心电监测设备包括但不限于医用心电监护系统、心电监测仪等。该医疗监护传感器可以采用本地的处理器处理监测数据,如处理器210,也可以无线连接远程监护系统。可以是医用监测系统,也可以是家用便携式监测设备。可以是传统意义上的心电监测设备,也可以是具有该功能的手表、耳机等便携式智能可穿戴设备。该医疗监测传感器可以根据需要采集完整的生理信息,或采集一定时间间隔内,如4秒(4s)窗口期内的生理信息。
在一些实施例中,该医疗监测传感器可以集成在智能轮椅中,也可以是通过输入输出(I/O)接口接入智能轮椅系统的外部设备,如传统的监测设备或便携式可穿戴监测设备。
根据本申请的一些实施例,图9是图2中所描述的机身260的一种示例性框图。机身260可以包括一个外壳910、一个运动模块920和一个云台930。外壳910可以是机身260的一个壳,所述机身260的壳可以保护智能机器人110中的模块和单元。运动模块920可以是智能机器人110中的运动操作元件。在一些实施例中,运动模块920可以基于处理器210中的智能机器人控制模块330生成的控制参数进行运动。例如,由智能机器人控制模块330确定的路线的一段路线中,控制参数的确定可以是基于所述一段路线的起点和终点。然后,为了让智能机器人110从所述起点运动到所述终点,所述控制参数可以从智能机器人控制模块330传输到运动模块920。在一些实施例中,云台930可以是至少一个图8中所描述的传感器的支撑设备。云台930可以支撑一个图像传感器810,例如,一个照相机,来获取帧。在一些实施例中,云台可以支撑一个图像传感器810,例如,一个照相机,来捕捉帧。在一些实施,云台930可以支撑加速度计820和陀螺仪830,通过保持云台支撑的传感器的平衡来获得稳定的信息。在一些实施例中,为了检测智能机器人110和一个物体或障碍物间的距离,云台930可以支撑声呐840、红外距离传感器850和光流传感器860中的至少一种传感器。在一些实施例中,为了检测深度信息或其它信息,云台930还可以支撑激光雷达870和其它传感器。在一些实施例中,导航传感器880可以安装在云台930上。在一些实施例中,由云台支撑的传感器可以集成在一个智能手机上。
图10是运动模块920的一种示例性示意图。运动模块920可以包括一个运动单元和一个载体1010。所述运动单元可以包括两个轮子,所述两个轮子可以包括一个左轮610和一个右轮620。载体1010可以承载声呐840或光流传感器860来检测物体或障碍物。在一些实施例中,载体1010可以包括加速度计820(未在图10中显示)和陀螺仪830(未在图10中显示)来保持运动模块920的平衡。在一些实施例中,载体1010可以包括其它传感器,例如,红外距离传感器850,来获得其它需要的信息。
如图9所示,云台930可以支撑传感器(组)230以获得信息生成地图、规划路线或生成控制参数。根据本申请的一些实施例,图11是图9中所描述的机身260中云台930的一种示例性示意图。在一些实施例中,云台930可以包括一个用于控制X轴周围旋转的转轴1170、一个用于控制Y轴周围旋转的转轴1150和一个用于控制Z轴周围旋转的转轴1130。所述X轴可以是水平面中的第一个轴,所述Y轴可以是水平面中的第二个轴,所述Z轴可以是垂直于所述水平面的一个竖直轴。在一些实施例中,云台930可以包括一个用于连接转轴1170和传感器的连接杆1180、一个用于连接转轴1150和转轴1170的连接杆1160和一个用于连接转轴1130和转轴1150的连接杆1140。在一些实施例中,云台930可以包括一个连接件1110、一个连接杆1114和一个动态Z-缓冲杆1120。在一些实施例中,传感器可以集成到一个用户设备130中(例如,智能手机)。用户设备130可以包括传感器如图像传感器810、加速度计820、陀螺仪830和导航传感器880。云台930还可以包括一个连接块1190来支撑用户设备130。在云台930的操作期间,用户设备130中的传感器获取信息。在一些实施例中,通过调整云台930的姿态来控制用户设备130中的传感器以获得合适的信息。在一些实施例中,云台930的姿态可以通过在X轴、Y轴和Z轴周围旋转转轴1170、转轴1150和转轴1130进行调整。
传统的3-轴云台可以用于空中摄影。为了在路线运动过程中保持云台930的稳定性,在云台930中采用动态Z-缓冲连接杆1120。动态Z-缓冲连接杆1120可以保持云台930在Z轴的稳定性。在一些实施例中,动态Z-缓冲连接杆1120可以是一个伸缩杆,可以沿着Z轴进行扩展和收缩。云台930中的动态Z-缓冲连接杆1120操作方法在图20中进行说明。根据智能机器人控制模块330生成的控制参数,对动态Z-缓冲连接杆1120的转轴1130、1150、1170的旋转和竖直运动进行控制。
智能机器人110中可以有多个模块和单元。根据本发明的一些实施例,图12是智能机器人110的一种简单的系统。如图12所示,智能机器人110可以包括处理器210、运动模块920和云台930。在一些实施例中,处理器210可以包括分析模块310、导航模块320和智能机器人控制模块330。运动模块920可以包括一个运动单元1210、第一类型传感器1220和通信端口240。云台930可以包括一个云台控制单元1230、通信端口240和第二类型传感器1240。在一些实施例中,处理器210可以发送控制参数以控制运动模块920中的运动单元1210和云台930中的云台控制单元1230。
在一些实施例中,第一类型传感器1220和第二类型传感器1240可以获取信息。分析模块310可以处理获取的信息和构建地图。在一些实施例中,所述构建的地图可以被发送到数据库140。为了确定一条到达目的地的路线,需要一张地图进行导航,分析模块310可以从数据库140下载一个最新的地图,并且将所述最新的地图发送给导航模块320。导航模块320可以处理所述最新的地图,并且确定一条从智能机器人所处位置到目的地的路线。在一些实施例中,分析310模块可以不用下载完整地图,包括智能机器人所处位置和目的地的完整地图的部分足够用于规划路线。在一些实施例中,分析模块310构建的地图可以包括智能机器人110的位置和目的地,而且所述地图是数据库中最新的地图。分析模块310构建的地图可以被发送到导航模块320以规划路线。导航模块320可以包括绘图单元510和路线规划单元520。在一些实施例中,根据来自分析模块310的最新地图或构建的地图,绘图单元510可以生成一个2D地图以进行路线规划。路线规划单元520可以规划路线,所述路线可以被发送到智能机器人控制模块330。智能机器人控制模块330可以将所述路线分成一段或多段路线。智能机器人控制模块330可以针对每段线路生成控制参数。每段线路有一个起点和终点,所述一段线路的终点可以是下一段线路的起点。在一些实施例中,智能机器人110在一段线路中的终点位置可能与为这段线路预设的终点不匹配,这可能会影响剩余部分路线的规划。由此,有必要根据不匹配的位置(智能机器人的新位置110)和目的地重新规划路线。在一些实施例中,在一段线路后,如果检测到不匹配的情况,所述重新规划路线过程可以通过导航模块320执行。
在一些实施例中,如果运动模块920中的第一类型传感器1220和云台930中的第二类型传感器1240不稳定,由运动模块920中的第一类型传感器1220和云台930中的第二类型传感器1240捕捉的信息可能不适合用于构建地图。为了稳定第一类型传感器1220和第二类型传感器1240,智能机器人控制模块330可以生成控制参数以稳定运动模块920和云台930。
传感器可以安装在运动模块920和云台930上。在一些实施例中,第一类型传感器1220可以包括加速度计820、陀螺仪830、声呐840、红外距离传感器850、光流传感器860、激光雷达870和导航传感器880中的至少一种。在一些实施例中,第二类传感器1240可以包括图像传感器810、加速度计820、陀螺仪830,声呐840、红外距离传感器850、光流传感器860、激光雷达870和导航传感器880中的至少一种。
如图12所示,处理器210可以通过通信端口240建立运动模块和云台930间的通信。在一些实施例中,通信端口240可以是任何形式的。例如,通信端口240可以是一个有线或无线收发器。在一些实施例中,通信端口240可以以接口的形式存在,用于交互式通信。例如,通信端口240可以通过运行应用程序接口(API)的电路建立处理器210和智能机器人110其它部之间的通信。在一些实施例中,API是一组用于构建软件和应用程序的子例程定义,协议和工具。在一些实施例中,API可以通过提供所有构件让程序的开发更简单,然后,可以组装在一起。在一些实施例中,所述API协议可以用于设计无线通信的电路,例如,所述无线电路可以是Wi-Fi、蓝牙、红外(IR)、超宽带(UWB)和无线个域网(ZigBee)等等,也可以是一个移动通信模块如3G、4G和长期演进(LTE)。API可以分离底部硬件(例如运动模块920或云台)和控制硬件(例如处理模块210)。在一些实施例中,通过调用通信端口240中的API,处理模块210(例如智能手机的一部分)可以控制运动模块920中的轮子的运动和云台930中图像传感器(例如相机)的姿态。在一些实施例中,运动模块920中的第一类型传感器1220可以将信息(例如位置数据)发送到所述智能手机。在一些实施例中,云台930中的第二类型传感器1240可以将信息(例如相机姿态)发送到所述智能手机。
根据本申请的一些实施例,图13是确定控制智能机器人的控制参数的示例性流程图。图13所述的步骤1300可以通过智能机器人110中的处理器210根据存储在存储器220中的指令完成。
在步骤1310,处理器210可以从传感器(组)230中获取信息。如图3和图12所述,处理器210中的分析模块310可以通过API通信端口240从运动模块920和云台930中接收信息。在一些实施例中,可以通过信息分析来控制智能机器人110的运动。在另一些实施例中,可以通过信息分析来维持智能机器人110中的运动模块920和云台930的稳定。
在步骤1320,处理器210可以根据所接收到的信息确定智能机器人110的目的地和当前位置。例如,处理器210中的分析模块310可以从传感器(组)230中接收位置数据。所述传感器包括但不限于声呐、红外距离传感器、光流传感器、激光雷达、导航传感器等。在一些实施例中,用户可以通过输入输出(I/O)接口250确定目的地。例如,用户可以为智能机器人110输入目的地。处理器210可以使用用户确定的目的地的信息为智能机器人110提供一个运动的路线。在一些实施例中,处理器210可以根据所接收到的信息确定智能机器人110的当前位置。在一些实施例中,处理器210可以根据从传感器(组)230所获得的信息确定智能机器人110的当前位置。例如,处理器210可以根据定位系统(如,GPS)中的导航传感器880获取的信息确定智能机器人的粗略位置。又例如,处理器210可以根据声呐840、红外距离传感器850和光流传感器860中至少一个传感器所获取的信息确定智能机器人110的精确位置。
在步骤1330,处理器210可以根据智能机器人110的目的地和当前位置得到一个地图,所述地图可以用于规划路线。在一些实施例中,一个包含大量代表城市的标记点的完整地图可以储存在数据库140中。通过步骤1310和步骤1320,智能机器人110的目的地和当前位置确定后,需要一个包含智能机器人110目的地和当前位置的地图来规划从当前位置到目的地的路线。在一些实施例中,包含智能机器人110目的地和当前位置的地图可以是一个完整地图的一部分。在一些实施例中,处理器210中的分析模块310可以根据智能机器人110的目的地和当前位置从数据库140中获得完整地图的合适部分。在一些实施例中,分析模块310可以根据从传感器(组)230获得的信息构建地图,所构建的地图可以发送给数据库140来更新整个地图。在一些实施例中,所构建的地图可以包含智能机器人110的目的地和当前位置。导航模块320可以使用所构建的地图来规划路线。
在步骤1340,根据步骤1330所得的地图,从智能机器人110的当前位置到目的地的路线可以被规划。所述路线规划可以由导航模块320完成。在一些实施例中,导航模块320可以通过绘图单元510将所得地图转换为二维地图。然后,路线规划单元520可以基于所述二维地图得到一个从智能机器人110当前位置到目的地的路线。
在步骤1350,智能机器人控制模块330可以将所述规划路线分割成一段或者多段。路线分隔可以基于一个阈值来判断是否执行,比如,如果所规划的路线小于一个阈值,就不需要进行路线分隔。在一些实施例中,路线分割可以由智能机器人控制模块330按照存储模块220中的指令完成。
在步骤1360,智能机器人控制模块330可以根据步骤1350中分割的路段确定控制机器人的控制参数。在一些实施例中,步骤1350中智能机器人控制模块330分割的每一个路段都有一个起点和一个终点。在一些实施例中,智能机器人控制模块330可以基于某个路段的起点和终点确定智能机器人在该路段上的控制参数。关于如何确定两点之间的控制参数可以参考图6和图7中的具体描述。在一些实施例中,控制参数需要根据时间不断调整。例如,当一个智能机器人110穿过一个路段上的一条直线上的两点时,智能机器人110从第一点到第二点的过程中,可以在不同的时间段内采用不同的运动速度。在一些实施例中,控制参数是用于保证智能机器人在沿规划路线的运动中保持稳定。例如,通过维持运动模块920和云台930的稳定,可以使得获取的传感信息相对更加准确。又例如,当路线不平坦时,可以使用控制参数使得云台930沿垂直于地面的方向保持稳定。
在一些实施例中,智能机器人在根据预设控制参数经过一个路段时,智能机器人110可能会停在一个与智能机器人控制模块330为该路段预设的终点不匹配的位置上。导航模块320可以根据智能机器人所在的匹配错误的位置和目的地重新规划一个新的路线。智能机器人控制模块330可以将新规划的路线进一步分割成一段或者多段,智能机器人控制模块330也可以为分割后的一段或者多段路线确定智能机器人的控制参数。在一些实施例中,位置的错误匹配可以在智能机器人110通过每一路段后根据智能机器人的实际位置和该路段的预设终点的比较结果来估算。
根据本申请的一些实施例,图14是处理器210生成地图的示例性流程图。所示构建地图的步骤可以由分析模块310根据传感器(组)230获得的信息完成。
在步骤1410,分析模块310可以从图像传感器810中获取图像数据。在一些实施例中,图像数据可以包括大量的帧,帧之中每一像素点的初始深度和/或位移。所述位移可以包括轮子的位移和相机相对于轮子的位移。在一些实施例中,初始深度可以设定为一个零矩阵。在一些实施例中,如果传感器(组)230包含激光雷达或者具有深度探测功能的相机,那么深度信息可以由传感器(组)230获取。
在步骤1420,分析模块310可以根据图像数据确定一个或者多个参考帧。在一些实施例中,图像数据可以包括大量的帧,帧之中每一像素点的初始深度和/或位移。在一些实施例中,分析模块310可以从这些帧之中选择一个或者多个参考帧。具体描述请参见本申请的其它部分,比如,图15及其对应的说明书部分。在一些实施例中,参考帧可以用于构建地图。
在步骤1430,分析模块310可以根据一个或多个参考帧确定深度信息和位移信息。也就是说,为了获取每一帧的位移信息和深度信息,可以由分析模块310来处理图像数据。关于如何确定位移信息和深度信息,请参见本申请的其他部分,比如,图4及其说明书部分。
在步骤1440,分析模块310可以根据一个或多个参考帧、帧的深度信息和位移信息生成地图。在一些实施例中,三维地图可以是通过将一个或多个参考帧与所对应的位移连接起来获得的。
地图可以通过大量的帧及其对应的位移信息和深度信息确定。在一些实施例中,步骤1420和步骤1430的顺序可以颠倒,或者同步进行。例如,步骤1420在确定一个或多个参考帧的过程中也可以包含步骤1430中确定位移信息和深度信息的过程。也就是说,步骤1430可以是步骤1420确定一个或多个参考帧的过程的子步骤。如图4的说明所述,图像数据可以通过处理获得一个或多个结果。在一些实施例中,所述一个或多个结果可以包括位移信息(比如,相邻两个帧之间的相机位移)和深度信息(比如,两个相邻帧之中一个物体的深度)。在一些实施例中,所述一个或多个结果可以通过g2o闭环检测技术来调整,从而生成调整后的位移信息。在一些实施例中,调整后的位移信息可以作为位移信息来生成地图。分析模块310可以基于一个或多个参考帧及其对应的位移信息和深度信息生成地图。
根据本申请的一些实施例,图15是确定一个或多个参考帧的示例性流程图。该步骤可以由分析模块310、位移判定单元420和深度判定单元430根据图像传感器810获取的图像数据完成。具体地,分析模块310可以根据一个或多个结果(比如,位移信息和深度信息)确定一个或多个参考帧。
在步骤1502,分析模块310可以获取包含许多帧的图像数据,所述许多帧可以包含至少一个第一帧和一个第二帧。在一些实施例中,第一帧可以是一个现有帧,第二帧可以是第一帧的一个续帧。也就是说,图像传感器810可以在一个时间点抓取第一帧,并在下一个时间点抓取第二帧。也就是说,所述大量的帧在时间域上可以彼此相邻。
在步骤1504,分析模块310可以将第一帧作为参考帧,将第二帧作为备选帧。
在步骤1506,分析模块310可以确定对应于备选帧中一个或多个第二像素点的参考帧中的一个或多个第一像素点。在一些实施例中,参考帧和备选帧有重叠区域,此时,所述第一像素点和第二像素点可以指参考帧和备选帧的重叠区域中的一个物体的相同位置。在一些实施例中,一个或多个第一像素点可以是图4中所述的一组像素点
Figure 35828DEST_PATH_IMAGE061
。在一些实施例中,参考帧和备选帧没有重叠区域,也就是说,参考帧中的任何区域与备选帧中的任何区域都不对应。此时,参考帧和备选帧中的像素点不能被选作为第一像素点和/或第二像素点。
在步骤1508,分析模块310可以确定参考帧和备选帧的深度信息、强度信息和/或位移信息。在一些实施例中,确定深度信息、强度信息和/或位移信息的方法可以参见图4中的描述。
在步骤1510,分析模块310可以确定备选帧是否是最后一帧。具体地,分析模块310可以探测备选帧在时间域上的下一帧是否存在,如果备选帧存在下一帧,则该过程进入步骤1512;否则,该过程进入步骤1514。
在步骤1512,如果备选帧的下一帧被确定是最后一帧,分析模块310可以输出参考帧及参考帧对应的深度和/或位移。
在步骤1514,分析模块310可以确定参考帧和备选帧之间的差值。在一些实施例中,参考帧和备选帧之间的差值可以根据参考帧和备选帧的强度信息确定。在一些实施例中,参考帧的强度可以由一个或多个第一像素点的RGB强度确定,备选帧的强度可以由一个或多个第二像素点的RGB强度确定。在一些实施例中,参考帧和备选帧的强度信息可以通过步骤1504确定。在一些实施例中,参考帧和备选帧的强度信息可以通过步骤1514在确定参考帧和备选帧的差值之前确定。
在步骤1516,分析模块310可以确定参考帧和备选帧之间的差值是否大于一个阈值。如果参考帧和备选帧之间的差值大于该阈值,则该过程进入步骤1518;否则,该过程进入步骤1520。
在步骤1518,如果参考帧和备选帧之间的差值被确定为大于该阈值,分析模块310可以将备选帧作为更新后的参考帧,将备选帧之后的帧作为更新后的备选帧。在一些实施例中,备选帧之后的帧可以是与备选帧紧密相邻的帧。此时,更新后的参考帧和更新后的备选帧被发送到步骤1506,重复该过程1500。
在步骤1520,如果参考帧和备选帧的差值被确定为不大于该阈值,分析模块310可以指定备选帧之后的帧为更新后的备选帧。此时,更新后的参考帧和更新后的备选帧将被发送到步骤1506,重复该过程1500。
在一些实施例中,步骤1518或步骤1520可以输出一个新的参考帧和一个新的备选帧由分析模块310处理。在一些实施例中,当参考帧与备选帧之间的差值大于一个阈值时,可以通过用备选帧取代参考帧得到新的参考帧。在一些实施例中,可以通过用备选帧的下一帧取代备选帧得到新的备选帧,也就是说,备选帧的取代可以是无条件的,而参考帧的取代是有条件的。
当步骤1512获得地图时,该过程1500终止。在一些实施例中,为了及时终止该过程1500,可以指定一些判定终止的条件。例如,该过程1500中可以使用一个计数器,从而使得过程1500的循环次数不大于一个预设的阈值。
根据本申请的一些实施例,图16是获取参考帧和/或备选帧的深度信息和位移信息的示例性流程图。在一些实施例中,该过程可以由分析模块310完成。在一些实施例中,该过程类似于图4中所述的获取一个帧的位移和深度的方法。
在步骤1610,分析模块310可以从图像传感器810获得的大量帧之中获取一个第一帧和一个第二帧。在一些实施例中,分析模块310可以从图像传感器抓取的大量帧之中选择第一帧和第二帧。在一些实施例中,第一帧和第二帧可以在时间域上彼此相邻,第一帧可以是一个现有帧,第二帧可以是一个续帧。
在步骤1620,分析模块310可以识别第一帧中的与第二帧中一个或多个第二像素点对应的一个或多个第一像素点。相对于第二帧中的像素点,第一帧中的像素点可以使用图15中所述的步骤1506识别。
在步骤1630,分析模块310可以根据所述的一个或多个第一像素点和一个或多个第二像素点获取初始深度。在一些实施例中,初始深度可以设定为零矩阵。在步骤1640,分析模块310可以根据所述的一个或多个第一像素点、一个或多个第二像素点、和/或初始深度确定初始位移。例如,步骤1640可以通过图4中所述的公式(1)实现。
在步骤1650,分析模块310可以根据所述的一个或多个第一像素点、一个或多个第二像素点以及初始位移确定更新后的深度。在一些实施例中,步骤1650可以通过图4中所述的公式(2)实现。
在步骤1660,分析模块310可以根据所述的一个或多个第一像素点、一个或多个第二像素点、和/或更新后的深度确定更新后的位移。在一些实施例中,步骤1660可以通过图4中所述的公式(1)实现,即用初始深度取代更新后的深度。
如图4所述,为了通过公式(1)确定位移,可以首先得到一个初始位移。如公式(1)所示,确定初始位移需要提供位移的初值。根据本申请的一些实施例,图17A是确定位移初值的一个示例性流程图。该过程可以由分析模块310根据图像传感器810获得的图像数据完成。
在步骤1710,图像数据可以由分析模块310获得。在一些实施例中,位移的初值可以根据所述图像数据确定。具体地,位移的初值可以根据所述图像数据中的位移确定。在一些实施例中,图像数据中的位移可以包括在获取两个相邻帧的时间间隔内,运动单元(如,两个轮子)的位移和相机相对于运动单元的位移。
在步骤1720,分析模块310可以基于所述图像数据,获得一个与运动单元关联的第一位移。在一些实施例中,所述与运动单元相关的第一位移可以是一段时间内两个轮子中心的位移。在一些实施例中,所述与运动单元相关的第一位移可以是一段时间内一个点的位移,所述点配置有导航传感器。在一些实施例中,所述导航传感器可以分别位于两个轮子的中心位置。在一些实施例中,所述时间段可以是图像传感器810获取两个帧的时间间隔。
在步骤1730,分析模块310可以获取一个相对于运动单元,与图像传感器810关联的第二位移。在一些实施例中,所述第二位移可以是图像传感器810相对于运动单元的相对位移。在一些实施例中,图像传感器810可以是一个相机。
在步骤1740,分析模块310可以根据第一位移和第二位移确定一个与图像传感器810关联的第三位移。在一些实施例中,第三位移可以是第一位移和第二位移的矢量和。在一些实施例中,第三位移可以是用于确定初始位移的位移初值。
在智能机器人110运动过程中,需要控制云台来获取智能机器人110精确的姿势。在一些实施例中,可以在云台930中通过控制轴的旋转角来控制智能机器人110的姿势。根据本申请的一些实施例,图17B是确定智能机器人110姿势的示例性流程图。该过程可以由分析模块310根据云台930中轴的旋转角完成。
在步骤1715,图像数据可以由分析模块310获取。如图17A所述,图像数据可以包括帧、位移和初始深度。在一些实施例中,图像数据还可以包括旋转信息。
在步骤1725,分析模块310可以获取一个相对于参考轴的第一旋转角。所述第一旋转角可以与基于图像数据的运动单元相关联。在一些实施例中,与运动单元关联的参考轴的第一旋转角可以根据图像数据中的旋转信息获取。在一些实施例中,第一旋转角可以是一段时间内的角度。在一些实施例中,所述时间段是图像传感器810获取两个帧的时间间隔。
在步骤1735,分析模块310可以获取一个在一段时间内相对于运动单元的第二旋转角,所述运动单元与图像传感器相关联。在一些实施例中,第二旋转角可以是图像传感器810相对于运动单元的相对旋转角。在一些实施例中,图像传感器810可以是一个相机。
在步骤1745,分析模块310可以确定一个相对于参考轴的第三旋转角,所述参考轴与图像传感器810相关联。在一些实施例中,第三旋转角可以根据第一旋转角和第二旋转角确定。在一些实施例中,第三旋转角可以是第一旋转角和第二旋转角的矢量和。
在智能机器人110运动过程中,运动模块820和云台930可以配置传感器(组)230来获取信息。在一些实施例中,传感器(组)230可以位于载体1010中,也可以位于云台930支撑的智能手机中。在一些实施例中,运动模块920和云台930要获得精确可靠的信息可能需要全方位的稳定措施。关于如何使运动模块920和云台930相对于水平面保持平衡的方法会在图18的说明中具体介绍。
根据本申请的一些实施例,图18是陀螺仪和加速度计如何确定水平面和Z轴夹角的示例性框图。在一些实施例中,水平面可以是载体1010的搭载面,水平面和Z轴之间的夹角可以根据陀螺仪数据和加速度计数据确定。在一些实施例中,水平面可以是云台930探测云台930俯仰角的相对平面。
如图18所示的系统框图,该系统可以包括加法器1810、积分器1820、组分提取器1830和加法器1840。所述加法器1810、积分器1820、组分提取器1830和加法器1840可以构成一个用于确定输出角的反馈回路。积分器1820可以获取图像传感器810获得的每一帧之中的水平面和Z轴之间的夹角。假定图像传感器810在时间t1时获得第一帧,在时间t2时获得第二帧。那么,在时间t1和t2时,陀螺仪830和加速度计820可以得到角速度和夹角信息。在一些实施例中,与时间t1时获得的第一帧关联的反馈输出角
Figure 156231DEST_PATH_IMAGE062
、以及时间t2时获得的陀螺仪数据和加速度计数据可以用于确定与时间t2时获得的第二帧关联的输出角
Figure 542825DEST_PATH_IMAGE063
首先,第一帧的陀螺仪数据和加速度计数据可以在时间t1处理。积分器1820可以生成与第一帧关联的输出角
Figure 406876DEST_PATH_IMAGE064
,加速度计820可以生成第一夹角
Figure 955669DEST_PATH_IMAGE065
,加法器1840可以根据输出角
Figure 637186DEST_PATH_IMAGE066
和第一夹角
Figure 373061DEST_PATH_IMAGE065
生成第二夹角
Figure 385010DEST_PATH_IMAGE067
。在一些实施例中,第二夹角
Figure 381785DEST_PATH_IMAGE067
可以由输出角
Figure 640728DEST_PATH_IMAGE068
和第一夹角
Figure 863899DEST_PATH_IMAGE069
矢量相减得到。组分提取器1830可以基于第二夹角
Figure 945119DEST_PATH_IMAGE070
确定补偿角速度
Figure 937345DEST_PATH_IMAGE071
。在一些实施例中,组分提取器1830可以是差分器。
然后,第二帧的陀螺仪数据和加速度计数据可以在时间t2处理。陀螺仪830可以生成角速度
Figure 960665DEST_PATH_IMAGE072
,加法器1810可以根据角速度
Figure 936711DEST_PATH_IMAGE073
和补偿角速度
Figure 946256DEST_PATH_IMAGE074
生成修正后的角速度
Figure 933934DEST_PATH_IMAGE075
。在一些实施例中,修正后的角速度
Figure 737942DEST_PATH_IMAGE076
可以由角速度
Figure 60339DEST_PATH_IMAGE077
和补偿角速度
Figure 607995DEST_PATH_IMAGE078
矢量相加得到。最后,积分器1820可以基于修正后的角速度
Figure 447251DEST_PATH_IMAGE079
输出在时间t2时与第二帧关联的夹角
Figure 422160DEST_PATH_IMAGE080
在一些实施例中,图18所述的方法可以由处理器210完成。例如,陀螺仪数据和加速度计数据可以通过API接口传输给处理器210(比如,智能手机的一部分)。在获得每一帧时,处理器210都可以确定一个输出角。在一些实施例中,水平面和Z轴的夹角可以在获取每一帧时探测得到。可以根据与每一帧相关联的实时输出角维持系统在水平面上的平衡。
图19是确定与帧关联的角度的流程1900的一个示例性流程图。所述流程1900由处理器210执行。
在步骤1910,处理器210可以获取多个包含第一帧和第二帧的帧。在一些实施例中,在间隔时刻,所述第一帧和第二帧可以被图像传感器810捕捉。例如,在
Figure 231853DEST_PATH_IMAGE081
时刻,图像传感器810拍摄第一帧,在
Figure 583200DEST_PATH_IMAGE082
时刻,图像传感器810拍摄第二帧,
Figure 279892DEST_PATH_IMAGE083
时刻和
Figure 691281DEST_PATH_IMAGE084
时刻间的时间可以是图像传感器810的采样间隔。
在步骤1920,处理器210可以获取与第一帧和/或第二帧关联的陀螺仪数据和加速度计数据。在一些实施例中,陀螺仪数据和加速度计数据可以包括参数如角速度和角度。
在步骤1930,根据与第一帧关联的加速度计数据,处理器210可以确定第一角度信息。在一些实施例中,所述第一角度信息可以包括第一角度。
在步骤1940,根据所述第一角度信息和与第一帧关联的角度信息,处理器210可以确定补偿角度信息。在一些实施例中,所述与第一帧关联的角度信息可以是与第一帧关联的输出角。在一些实施例中,可以通过矢量减去与第一帧关联的输出角来处理所述第一角度信息。在一些实施例中,所述补偿角度信息可以是补偿角度速度。根据从第一角度信息减去与第一帧关联的输出角的运算,所述补偿角度速度可以由组分提取器1830确定。
在步骤1950,根据补偿角度信息和与第二帧关联的陀螺仪数据,处理器210可以确定第二角度信息。在一些实施例中,在拍摄第二帧
Figure 722691DEST_PATH_IMAGE085
时刻,所述第二角度数据可以是由与第二帧关联的处理器210检测到的水平面和Z轴之间的角度。
如图18和19所示,与第二帧关联的输出角度可以被反馈给与第一帧关联的输出角度。采用这种循环形式及陀螺仪数据和加速度计数据,可以通过处理器210获取每一帧的输出角度。在一些实施例中,水平面和Z轴的夹角可能会超出一定阈值,然后,生成一个保持平衡的控制信号。
保持运动模块920或云台930的水平平衡的方法如图18和19所示。在智能机器人110的运动过程中,安装在由云台930夹持的智能手机中的传感器可以获取信息。在一些实施例中,所述信息可以包括图像数据、陀螺仪数据、加速度计数据以及从其他传感器获取的数据。为了智能手机中的第二类型传感器1240稳定地获取信息,需要通过处理器210保持水平平衡。另一方面,对于由云台930支撑的智能手机中的第二类型传感器1240来说,道路可能会不平坦而不能稳定地获取信息。在一些实施例中,智能手机中的传感器想要获取稳定的信息,竖直轴的平衡也是必要的。
图20是在智能手机中调整第二类型传感器1240的竖直位移的示例性方法2000的流程图。在一些实施例中,该方法可以由处理器210执行,根据智能机器人控制模块330产生的控制参数,控制如图11所示的动态Z缓冲杆1120。
在步骤2010,处理器210可以获取马达沿着旋转轴的第一位移。在一些实施例中,旋转轴可以为Z轴,第一位移可以为沿着Z轴的向量。
在步骤2020,处理器210可以确定马达沿着Z轴的位移是否大于一个阈值。在一些实施例中,该阈值可以为一个极限值,在该极限值内第二类型传感器1240能够稳定地获取信息。
在步骤2030,当马达的位移大于一个阈值时,处理器210可以产生第一控制信号以使该马达移动到一个初始位置。在一些实施例中,初始位置可以是一个适合获取信息的预设位置。
在步骤2040,处理器210可以输出第一控制信号给马达,使安装在智能手机中的第二类型传感器1240退回到初始位置以获取稳定的信息。
在步骤2050,当马达的位移不大于一个阈值时,处理器210可以获取沿着旋转轴的第一加速度。在一些实施例中,该加速度可以通过安装在智能手机中的加速度计820获得。
在步骤2060,处理器210可以根据第一加速度产生第二加速度。在一些实施例中,第二加速度可以为第一加速度过滤后的加速度。
在步骤2070,处理器210可以根据第二加速度确定第二位移。在一些实施例中,第二位移可以根据第二加速度的积分值计算得到。在一些实施例中,第二位移可以是沿着Z轴的向量。
在步骤2080,处理器210可以根据第二位移产生第二控制信号以控制马达的移动。在一些实施例中,第二控制信号可以根据第二位移和阈值确定一个位移的剩余间隙(剩余的可活动范围),然后处理器210可以控制智能手机中的传感器沿着Z轴移动。
在步骤2090,传感器210可以输出第二控制信号给马达。
本发明采用了多个实施例进行描述和说明,可以理解的是,对于本领域技术人员来说,可以对其形式和细节等进行多种修改而不脱离本发明的精神和保护范围,正如随附上的权利要求和其等同描述中所明确的那样。

Claims (9)

1.一种用于监测生理信息的系统,包括:
传感器,所述传感器包括运动传感器和医疗监护传感器,所述运动传感器包括第一类型传感器和第二类型传感器,所述医疗监护传感器被配置为采集一个用户的生理信息;
运动模块,所述运动模块包括轮子、载体和所述第一类型传感器;
云台,所述云台包括所述第二类型传感器,所述第二类型传感器至少包括图像传感器;
处理器,所述处理器包括分析模块、导航模块和控制模块,所述处理器被配置为:
分别与所述云台和所述运动模块建立通信;
从所述图像传感器获取图像数据;
根据所述图像数据中的旋转信息获取与所述轮子关联的参考轴的第一旋转角;
根据所述图像传感器相对于所述轮子的相对旋转角获取第二旋转角;
基于所述第一旋转角和所述第二旋转角的矢量和确定第三旋转角;
基于所述第三旋转角控制所述云台;
分别从所述云台和所述运动模块的一个或多个传感器中获取信息;
确定所述系统的目的地和位置;
根据所述信息构建地图,所述地图为数据库中完整地图上包含所述系统的目的地和位置的部分地图,所述地图是数据库中最新的地图;
根据所述地图为所述系统规划路径;
将所述规划路径分割成一段或者多段路段;
根据所述分割的路段路径和所述信息为所述系统确定每一段路段的控制参数;以及
根据所述每一段路段的控制参数控制所述系统在对应路段的移动和姿态;
若所述系统根据一段路段的控制参数移动到达对应路段的终点位置与该路段预设的终点位置不匹配时,则根据所述系统所在的匹配错误的所述终点位置和所述目的地重新规划一个新路径;
将所述新路径分割成一段或者多段新路段;以及
根据所述分割的新路段和所述信息为所述系统重新确定每一段新路段的控制参数。
2.如权利要求1所述的系统,其中所述医疗监护传感器包括心电监测设备、血液测量设备、脉搏波检测仪、脑电波监测仪、心率探测仪、血氧探测仪、血氧探测仪、呼吸探测仪、有创血压探测仪、无创血压探测仪、心输出量探测仪、体温探测仪或血气探测仪中的至少一种。
3.如权利要求1所述的系统,其中所述医疗监测传感器被配置为是实时采集所述用户的生理信息。
4.如权利要求1所述的系统,其中所述医疗监测传感器与所述用户的体表接触。
5.如权利要求1所述的系统,其中所述生理信息包括心电信息、心率信息、脉搏信息、血氧信息、呼吸信息、有创血压信息、无创血压信息、心输出量、体温信息或血气信息中的至少一种。
6.如权利要求1所述的系统,所述处理器被进一步配置为将所述生理信息与预设的安全阈值进行比较,当出现异常时,确定一个警报信号。
7.如权利要求6所述的系统,其中所述预设的安全阈值包括安全血压值、安全血氧含量值、安全心率值或安全脉搏值中的至少一个。
8.如权利要求6所述的系统,所述处理器被进一步配置为,将所述警报信号发送给一个智能设备以通知用户。
9.如权利要求1所述的系统,所述处理器被进一步配置为:
根据历史生理信息预测未来生理信息;
将所述未来生理信息与预设的安全阈值进行比较,当出现异常时,确定一个预警信号。
CN201780067883.XA 2017-01-22 2017-01-22 一种具有医疗监测及反应功能的智能轮椅系统 Active CN109906069B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2017/072102 WO2018133075A1 (zh) 2017-01-22 2017-01-22 一种具有医疗监测及反应功能的智能轮椅系统

Publications (2)

Publication Number Publication Date
CN109906069A CN109906069A (zh) 2019-06-18
CN109906069B true CN109906069B (zh) 2021-12-31

Family

ID=62907616

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780067883.XA Active CN109906069B (zh) 2017-01-22 2017-01-22 一种具有医疗监测及反应功能的智能轮椅系统

Country Status (3)

Country Link
US (1) US20210129345A1 (zh)
CN (1) CN109906069B (zh)
WO (1) WO2018133075A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018133076A1 (zh) * 2017-01-22 2018-07-26 四川金瑞麒智能科学技术有限公司 一种智能轮椅的机械传动控制方法与系统
JP6680810B2 (ja) * 2018-01-17 2020-04-15 本田技研工業株式会社 車椅子利用者支援マップシステム
CN108381509B (zh) * 2018-03-19 2021-03-02 京东方科技集团股份有限公司 智能抓取装置及其控制方法、智能抓取控制系统
CN110531791A (zh) * 2019-08-25 2019-12-03 西北工业大学 多指令集下脑机一体化的目标侦查无人车
CN113298014B (zh) * 2021-06-09 2021-12-17 安徽工程大学 基于逆向索引关键帧选取策略的闭环检测方法、存储介质及设备
CN115399950A (zh) * 2022-08-30 2022-11-29 中国科学院沈阳自动化研究所 具有定位导航与多模态人机交互功能的智能轮椅及控制方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101966107A (zh) * 2010-08-31 2011-02-09 北京大学 一种智能体检轮椅
CN102188311A (zh) * 2010-12-09 2011-09-21 南昌大学 一种嵌入式智能轮椅视觉导航控制系统及方法
CN202554295U (zh) * 2012-03-21 2012-11-28 宁波大学 一种全自动轮椅
CN203169464U (zh) * 2013-05-03 2013-09-04 华北电力大学 一种智能轮椅
CN104799984A (zh) * 2015-05-14 2015-07-29 华东理工大学 基于脑控移动眼的残疾人辅助系统及其控制方法
CN105681747A (zh) * 2015-12-10 2016-06-15 北京理工大学 一种远程呈现交互操作轮椅
CN105662744A (zh) * 2016-01-04 2016-06-15 南昌大学 一种嵌入式多模态交互智能轮椅控制系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004321722A (ja) * 2003-04-22 2004-11-18 Mizukoshi Keiki Kk 電動車椅子
CN101190158B (zh) * 2006-11-29 2010-12-01 上海电气集团股份有限公司 智能轮椅
US8216136B2 (en) * 2009-03-05 2012-07-10 Nellcor Puritan Bennett Llc Systems and methods for monitoring heart rate and blood pressure correlation
CN102323819B (zh) * 2011-07-26 2013-06-19 重庆邮电大学 一种基于协调控制的智能轮椅室外导航方法
CN102631265B (zh) * 2012-05-11 2014-06-18 重庆大学 一种智能轮椅的嵌入式控制系统
CN104083258B (zh) * 2014-06-17 2016-10-05 华南理工大学 一种基于脑机接口与自动驾驶技术的智能轮椅控制方法
CN104161629A (zh) * 2014-06-27 2014-11-26 西安交通大学苏州研究院 智能轮椅
JP6269546B2 (ja) * 2015-03-23 2018-01-31 トヨタ自動車株式会社 自動運転装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101966107A (zh) * 2010-08-31 2011-02-09 北京大学 一种智能体检轮椅
CN102188311A (zh) * 2010-12-09 2011-09-21 南昌大学 一种嵌入式智能轮椅视觉导航控制系统及方法
CN202554295U (zh) * 2012-03-21 2012-11-28 宁波大学 一种全自动轮椅
CN203169464U (zh) * 2013-05-03 2013-09-04 华北电力大学 一种智能轮椅
CN104799984A (zh) * 2015-05-14 2015-07-29 华东理工大学 基于脑控移动眼的残疾人辅助系统及其控制方法
CN105681747A (zh) * 2015-12-10 2016-06-15 北京理工大学 一种远程呈现交互操作轮椅
CN105662744A (zh) * 2016-01-04 2016-06-15 南昌大学 一种嵌入式多模态交互智能轮椅控制系统

Also Published As

Publication number Publication date
US20210129345A1 (en) 2021-05-06
CN109906069A (zh) 2019-06-18
WO2018133075A1 (zh) 2018-07-26

Similar Documents

Publication Publication Date Title
CN109906069B (zh) 一种具有医疗监测及反应功能的智能轮椅系统
US9922236B2 (en) Wearable eyeglasses for providing social and environmental awareness
US10024667B2 (en) Wearable earpiece for providing social and environmental awareness
CN110225736B (zh) 一种智能轮椅的环境信息收集与反馈系统及方法
US10169880B2 (en) Information processing apparatus, information processing method, and program
He et al. Wearable ego-motion tracking for blind navigation in indoor environments
CN107330240A (zh) 一种基于双手环传感器的智能远程特护监控系统及方法
CN113160260B (zh) 一种头眼双通道智能人机交互系统及运行方法
US10559132B2 (en) Display apparatus, display system, and control method for display apparatus
US20180354138A1 (en) System, method, and program for adjusting altitude of omnidirectional camera robot
CN110177532A (zh) 一种基于大数据及人工智能的智能轮椅系统
WO2018133073A1 (en) Systems and methods for controlling intelligent wheelchair
CN110072501B (zh) 一种智能轮椅的机械传动控制方法与系统
Schiehlen et al. Design and control of a camera platform for machine vision
WO2022146858A1 (en) Controller position tracking using inertial measurement units and machine learning
US11240482B2 (en) Information processing device, information processing method, and computer program
Schumann et al. Tracking of wheelchair users in dense crowds
Crha et al. Navigation of robotic platform for gait disorders monitoring
US11847259B1 (en) Map-aided inertial odometry with neural network for augmented reality devices
KR101382798B1 (ko) 차량의 카메라를 이용한 지도 생성 장치 및 방법
WO2022014429A1 (ja) 情報処理方法、プログラム、及びシステム
Borgul et al. Brain controlled multiagent aerial vehicles system
He et al. Demonstration paper: Adaptive ego-motion tracking using visual-inertial sensors for wearable blind navigation
CN116061204A (zh) 一种智慧养老机器人、机器人系统及其控制方法
CN116385489A (zh) 基于rgbd相机的目标跟随方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: An intelligent wheelchair system with medical monitoring and response functions

Effective date of registration: 20220610

Granted publication date: 20211231

Pledgee: Industrial Bank Limited by Share Ltd. Chengdu branch

Pledgor: SICHUAN GOLDEN RIDGE INTELLIGENCE SCIENCE & TECHNOLOGY Co.,Ltd.

Registration number: Y2022510000162

PE01 Entry into force of the registration of the contract for pledge of patent right
PC01 Cancellation of the registration of the contract for pledge of patent right

Date of cancellation: 20231102

Granted publication date: 20211231

Pledgee: Industrial Bank Limited by Share Ltd. Chengdu branch

Pledgor: SICHUAN GOLDEN RIDGE INTELLIGENCE SCIENCE & TECHNOLOGY Co.,Ltd.

Registration number: Y2022510000162

PC01 Cancellation of the registration of the contract for pledge of patent right