CN110476134B - 用于机器人移动平台的系统和方法 - Google Patents
用于机器人移动平台的系统和方法 Download PDFInfo
- Publication number
- CN110476134B CN110476134B CN201880021717.0A CN201880021717A CN110476134B CN 110476134 B CN110476134 B CN 110476134B CN 201880021717 A CN201880021717 A CN 201880021717A CN 110476134 B CN110476134 B CN 110476134B
- Authority
- CN
- China
- Prior art keywords
- mobile platform
- location
- robot
- coordinates
- wheelchair
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 78
- 239000003550 marker Substances 0.000 claims description 29
- 238000012545 processing Methods 0.000 claims description 28
- 230000033001 locomotion Effects 0.000 claims description 27
- 230000005540 biological transmission Effects 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 10
- 230000004048 modification Effects 0.000 claims description 5
- 238000012986 modification Methods 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 5
- 230000000272 proprioceptive effect Effects 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 41
- 230000037237 body shape Effects 0.000 description 38
- 241001465754 Metazoa Species 0.000 description 18
- 230000008569 process Effects 0.000 description 16
- 238000003860 storage Methods 0.000 description 12
- 230000009471 action Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000001413 cellular effect Effects 0.000 description 7
- -1 polyethylene terephthalate Polymers 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000000670 limiting effect Effects 0.000 description 6
- 238000013507 mapping Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 208000027418 Wounds and injury Diseases 0.000 description 4
- 239000000919 ceramic Substances 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000006378 damage Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 208000014674 injury Diseases 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 239000004793 Polystyrene Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 238000013478 data encryption standard Methods 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 230000002441 reversible effect Effects 0.000 description 3
- 238000001429 visible spectrum Methods 0.000 description 3
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 2
- 239000004743 Polypropylene Substances 0.000 description 2
- MCMNRKCIXSYSNV-UHFFFAOYSA-N Zirconium dioxide Chemical compound O=[Zr]=O MCMNRKCIXSYSNV-UHFFFAOYSA-N 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 229920003023 plastic Polymers 0.000 description 2
- 239000004033 plastic Substances 0.000 description 2
- 229920000642 polymer Polymers 0.000 description 2
- 229920001155 polypropylene Polymers 0.000 description 2
- 229920002223 polystyrene Polymers 0.000 description 2
- 229920000915 polyvinyl chloride Polymers 0.000 description 2
- 239000004800 polyvinyl chloride Substances 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000002207 retinal effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 229910052582 BN Inorganic materials 0.000 description 1
- 229920001342 Bakelite® Polymers 0.000 description 1
- PZNSFCLAULLKQX-UHFFFAOYSA-N Boron nitride Chemical compound N#B PZNSFCLAULLKQX-UHFFFAOYSA-N 0.000 description 1
- 235000006719 Cassia obtusifolia Nutrition 0.000 description 1
- 235000014552 Cassia tora Nutrition 0.000 description 1
- 244000201986 Cassia tora Species 0.000 description 1
- 208000015976 Corneal dystrophy-perceptive deafness syndrome Diseases 0.000 description 1
- VGGSQFUCUMXWEO-UHFFFAOYSA-N Ethene Chemical compound C=C VGGSQFUCUMXWEO-UHFFFAOYSA-N 0.000 description 1
- 239000005977 Ethylene Substances 0.000 description 1
- 229920002430 Fibre-reinforced plastic Polymers 0.000 description 1
- 229920000877 Melamine resin Polymers 0.000 description 1
- 241001112258 Moca Species 0.000 description 1
- 239000004698 Polyethylene Substances 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 239000004809 Teflon Substances 0.000 description 1
- 229920006362 Teflon® Polymers 0.000 description 1
- ATJFFYVFTNAWJD-UHFFFAOYSA-N Tin Chemical compound [Sn] ATJFFYVFTNAWJD-UHFFFAOYSA-N 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 239000004637 bakelite Substances 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 239000004568 cement Substances 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 239000004567 concrete Substances 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 229920001971 elastomer Polymers 0.000 description 1
- 239000011151 fibre-reinforced plastic Substances 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- GVVPGTZRZFNKDS-JXMROGBWSA-N geranyl diphosphate Chemical compound CC(C)=CCC\C(C)=C\CO[P@](O)(=O)OP(O)(O)=O GVVPGTZRZFNKDS-JXMROGBWSA-N 0.000 description 1
- 229920001903 high density polyethylene Polymers 0.000 description 1
- 239000004700 high-density polyethylene Substances 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000001802 infusion Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 229910052742 iron Inorganic materials 0.000 description 1
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 229920001684 low density polyethylene Polymers 0.000 description 1
- 239000004702 low-density polyethylene Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- JDSHMPZPIAZGSV-UHFFFAOYSA-N melamine Chemical compound NC1=NC(N)=NC(N)=N1 JDSHMPZPIAZGSV-UHFFFAOYSA-N 0.000 description 1
- 239000002905 metal composite material Substances 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002572 peristaltic effect Effects 0.000 description 1
- 229920001084 poly(chloroprene) Polymers 0.000 description 1
- 229920000573 polyethylene Polymers 0.000 description 1
- 239000005020 polyethylene terephthalate Substances 0.000 description 1
- 229920000139 polyethylene terephthalate Polymers 0.000 description 1
- ZRHANBBTXQZFSP-UHFFFAOYSA-M potassium;4-amino-3,5,6-trichloropyridine-2-carboxylate Chemical compound [K+].NC1=C(Cl)C(Cl)=NC(C([O-])=O)=C1Cl ZRHANBBTXQZFSP-UHFFFAOYSA-M 0.000 description 1
- ZLIBICFPKPWGIZ-UHFFFAOYSA-N pyrimethanil Chemical compound CC1=CC(C)=NC(NC=2C=CC=CC=2)=N1 ZLIBICFPKPWGIZ-UHFFFAOYSA-N 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- HBMJWWWQQXIZIP-UHFFFAOYSA-N silicon carbide Chemical compound [Si+]#[C-] HBMJWWWQQXIZIP-UHFFFAOYSA-N 0.000 description 1
- 229910010271 silicon carbide Inorganic materials 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 229910052718 tin Inorganic materials 0.000 description 1
- MTPVUVINMAGMJL-UHFFFAOYSA-N trimethyl(1,1,2,2,2-pentafluoroethyl)silane Chemical compound C[Si](C)(C)C(F)(F)C(F)(F)F MTPVUVINMAGMJL-UHFFFAOYSA-N 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61G—TRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
- A61G5/00—Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
- A61G5/04—Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs motor-driven
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/028—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/08—Payment architectures
- G06Q20/12—Payment architectures specially adapted for electronic shopping systems
- G06Q20/127—Shopping or accessing services according to a time-limitation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/08—Payment architectures
- G06Q20/14—Payment architectures specially adapted for billing systems
- G06Q20/145—Payments according to the detected use or quantity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/30—Payment architectures, schemes or protocols characterised by the use of specific devices or networks
- G06Q20/32—Payment architectures, schemes or protocols characterised by the use of specific devices or networks using wireless devices
- G06Q20/322—Aspects of commerce using mobile devices [M-devices]
- G06Q20/3224—Transactions dependent on location of M-devices
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07F—COIN-FREED OR LIKE APPARATUS
- G07F17/00—Coin-freed apparatus for hiring articles; Coin-freed facilities or services
- G07F17/0042—Coin-freed apparatus for hiring articles; Coin-freed facilities or services for hiring of objects
- G07F17/0057—Coin-freed apparatus for hiring articles; Coin-freed facilities or services for hiring of objects for the hiring or rent of vehicles, e.g. cars, bicycles or wheelchairs
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61G—TRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
- A61G2203/00—General characteristics of devices
- A61G2203/10—General characteristics of devices characterised by specific control means, e.g. for adjustment or steering
- A61G2203/14—Joysticks
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61G—TRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
- A61G2203/00—General characteristics of devices
- A61G2203/10—General characteristics of devices characterised by specific control means, e.g. for adjustment or steering
- A61G2203/18—General characteristics of devices characterised by specific control means, e.g. for adjustment or steering by patient's head, eyes, facial muscles or voice
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61G—TRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
- A61G2203/00—General characteristics of devices
- A61G2203/10—General characteristics of devices characterised by specific control means, e.g. for adjustment or steering
- A61G2203/22—General characteristics of devices characterised by specific control means, e.g. for adjustment or steering for automatically guiding movable devices, e.g. stretchers or wheelchairs in a hospital
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61G—TRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
- A61G2203/00—General characteristics of devices
- A61G2203/30—General characteristics of devices characterised by sensor means
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Automation & Control Theory (AREA)
- Accounting & Taxation (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Theoretical Computer Science (AREA)
- Finance (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Development Economics (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Computer Networks & Wireless Communication (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Electromagnetism (AREA)
- Medical Informatics (AREA)
- Game Theory and Decision Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
- Motorcycle And Bicycle Frame (AREA)
- Traffic Control Systems (AREA)
Abstract
公开用于机器人移动平台的系统和方法。在一个示例性实施方案中,公开一种用于实现移动平台的自主导航的系统。所述系统可包含:存储器,其具有存储在其上的计算机可读指令;和至少一个处理器,其配置成执行所述计算机可读指令。所述计算机可读指令的所述执行使所述系统:接收对应于用户的第一位置的第一组坐标;确定所述移动平台的不同的第二位置;在所述第二位置与所述第一位置之间导航所述移动平台;以及接收不同的第二组坐标。还公开方法、设备和计算机可读媒体。
Description
优先权
本申请要求2018年2月7日提交的具有相同标题的第15/891,202号美国专利申请的优先权,所述美国专利申请要求2017年2月8日提交的第62/456,254号美国临时专利申请的优先权,所述美国临时专利申请以全文引用的方式并入本文中。
版权
此专利文献的一部分公开内容含有受版权保护的材料。版权所有者不反对任何人对此专利文献或专利公开内容进行传真复制,因为它出现在专利和商标局的专利文件或记录中,但是在其他方面保留所有版权。
技术领域
本申请大体上涉及机器人技术,且更具体来说,涉及用于机器人移动平台的系统和方法。
背景技术
目前,移动平台可用于将物品、人、动物、货品、货物和/或物件从一个位置运输到另一个位置。这些移动平台可使用电动机、轨道、电力和/或移动引起系统来操作在一些情况下,移动平台可以是机械的和/或手动的,例如由人移动的那些移动平台(例如,轮椅、自行车、划艇等)。通常,此类移动平台需要用户操作,以便转向、驱动和/或移动移动平台。
轮椅是移动平台的一个实例。常规轮椅具有多种形式。手动轮椅常常是自行推进的,由乘员或其他人推动。在一些情况下,可使用电池和/或电动机的推进器为轮椅供电。然而,在一些情况下,由于例如部分乘员残疾和/或受伤和/或不愿意,由轮椅的乘员操作,无论是手动操作还是使用动力轮椅,可能是困难的。因此,在一些情况下,另一个人可辅助他人使用轮椅。
一般来说,使用移动平台可能需要使用除了正在使用移动平台进行运输的乘员之外的操作员。因此,从时间和劳动力的角度,移动平台操作起来可能成本较高。此外,即使当乘员可控制移动平台时,此类控制可能比较费力。因此,本领域中需要改进的用于移动平台的系统和方法。
发明内容
本公开满足上述需要,它特别提供了用于机器人移动平台的系统和方法。在一些实施方案中,机器人移动平台可包括机器人轮椅。机器人轮椅可配置成搭载乘客并将乘客运送到目的地。
本文中所描述的实例实施方案具有创新特征,其中没有一个是必不可少的或仅对其所需属性负责。在不限制权利要求的范围的情况下,现在将概述一些有利特征。
在一个方面,公开用于制造机器人的方法。在一个示例性实施方案中,方法包含:获得轮椅;将包括一个或多个传感器和一个或多个控制器的机器人模块附接到轮椅;以及将自主性特征加载在机器人模块上以实现轮椅的自主导航。
在一个变体中,所述方法进一步包括:确定轮椅是否具有至少部分地由控制器操作的用于移动的致动器;以及如果轮椅不具有致动器或控制器,那么安装此类致动器或控制器。
在另一方面中,公开一种机器人移动平台。在一个示例性实施方案中,机器人移动平台包含:座椅组件,其配置成为乘客提供座椅;一个或多个传感器,其配置成生成环境周围的传感器数据;一个或多个致动器,其配置成将机器人移动平台从一个位置移动到另一位置;用户界面,其配置成显示和接收信息;以及处理器,其配置成:使用一个或多个传感器读取与开始位置相关联的制造商,接收座椅组件中的乘客,通过用户界面接收目的地,且使一个或多个致动器将机器人移动平台从标记移动到目的地。
在一个变体中,机器人移动平台进一步包括通信单元,所述通信单元配置成接收至少部分地指示标记的位置的信号,其中一个或多个致动器至少部分地基于信号将机器人移动平台移动到标记。在另一变体中,机器人移动平台包括轮椅。
在另一变体中,处理器进一步配置成检测传感器数据中的人。在另一变体中,处理器进一步配置成至少部分地基于对人的检测而调整机器人移动平台的移动。
在又一方面中,公开利用机器人轮椅移动人的方法。在一个示例性实施方案中,方法包含:前往位置搭载人;接收人作为轮椅乘员;接收目的地指令;以及行进到目的地。
在一个变体中,方法包含接收指示搭载位置的部分的信号。在另一变体中,接收目的地指令包含接收目的地的选择。
在又一方面中,公开一种机器人系统。在一个示例性实施方案中,机器人系统包含:多个机器人;一个或多个接入点;通信地耦合到多个机器人和一个或多个接入点的网络,所述网络配置成:从与多个机器人中的第一机器人的乘客搭载位置相关的一个或多个接入点接收信息,使第一机器人移动到搭载位置,并协调多个机器人中的其他机器人的移动,以考虑第一机器人的移动。
在一个变体中,一个或多个接入点包含控制台和电子装置中的至少一个。在另一变体中,多个机器人中的第一机器人和第二机器人串列操作,其中第一机器人和第二机器人一起行进。
在又一方面中,公开一种非暂时性计算机可读存储媒体。在一个示例性实施方案中,非暂时性计算机可读存储媒体具有存储在其上的多个指令,所述指令可由处理设备执行以操作机器人。在一个示例性实施方案中,所述指令配置成当由处理设备执行时使处理设备:前往位置搭载人;接收人作为轮椅乘员;接收目的地指令;以及行进到目的地。
在一个变体中,所述指令进一步使处理设备接收指示搭载位置的部分的信号。在另一变体中,接收目的地指令包含接收目的地的选择。
在另一实例性实施中,非暂时性计算机可读
存储媒体具有存储在其上的多个指令,所述指令可由处理设备执行以:接收对应于乘客的第一位置的第一组坐标的坐标;确定第一移动平台的不同的第二位置;在第二位置与第一位置之间导航第一移动平台;以及接收乘客的目的地坐标。
在一个变体中,至少一个处理器进一步配置成执行计算机可读指令以:将对应于第一移动平台的坐标的信息传输到第二移动平台上的至少一个处理器。
在另一变体中,第一移动平台上的至少一个处理器进一步配置成执行计算机可读指令以:从一个或多个传感器接收信息,接收到的信息配置成沿着第一路径导航第一移动平台。
在又一变体中,第一移动平台上的至少一个处理器进一步配置成执行计算机可读指令以:响应于从一个或多个传感器接收到的信息而更改第一移动平台的导航的第一路径。
在又一变体中,从一个或多个传感器接收到的信息与移动平台的乘客相关;且第一移动平台上的至少一个处理器进一步配置成执行计算机可读指令以基于第一路径的更改而输出命令,所述命令对应于第一移动平台的停止移动。
在又一变体中,从一个或多个传感器接收到的信息是基于第一移动平台的环境中的一个或多个物体,且第一移动平台上的至少一个处理器配置成执行计算机可读指令以基于第一路径的更改而输出命令,所述路径对应于避免与一个或多个物体发生碰撞。
在又一方面中,公开一种用于实现移动平台的自主导航的系统。在一个示例性实施方案中,系统包含:存储器,其具有存储在其上的计算机可读指令;和至少一个处理器,其配置成执行计算机可读指令以:接收对应于用户的第一位置的第一组坐标;确定移动平台的不同的第二位置;在第二位置与第一位置之间导航移动平台;以及接收不同的第二组坐标。
在一个变体中,在导航之后进行不同的第二组坐标的接收。
在另一变体中,至少一个处理器进一步配置成执行计算机可读指令以:将一个或多个命令传输到移动平台上的一个或多个致动器,所述一个或多个命令配置成实现移动平台的导航。
在又一变体中,至少一个处理器进一步配置成执行计算机可读指令以:接收模式选择命令,所述模式选择命令配置成启用移动平台的第一模式和不同的第二模式中的至少一个,所述第一模式对应于手动模式且所述第二模式对应于自主模式。
在又一变体中,至少一个处理器进一步配置成执行计算机可读指令以:从一个或多个传感器接收数据,所述数据对应于移动平台在第一组坐标处的到达时间。
在又一变体中,数据是基于移动平台的环境内的标记的视觉识别。
在又一变体中,数据是基于移动平台的环境内的标记的无线电识别。
在又一变体中,至少一个处理器进一步配置成执行计算机可读指令以:使多个位置显示在显示装置上,所述多个位置包含用户的第二组坐标。
在又一方面中,公开一种用于实现移动平台的自主导航的方法。在一个示例性实施方案中,方法包含接收对应于用户的第一位置的第一组坐标;确定移动平台的不同的第二位置;在第二位置与第一位置之间导航移动平台;以及接收用户的不同的第二组坐标。
在一个变体中,在到达第一位置之前进行用户的第二组坐标的接收。
在另一变体中,所述方法进一步包含将一个或多个命令提供到移动平台上的一个或多个致动器,所述一个或多个命令配置成实现移动平台的导航。
在又一变体中,所述方法进一步包含从一个或多个传感器接收数据,所述数据配置成能够确定用户在第一位置处的到达时间。
在又一变体中,数据的接收包含识别移动平台的环境内的标记。
在又一变体中,所述方法进一步包含将第二组坐标发布到用户;且用户的第二组坐标的接收包括扫描发布的第二组坐标。
本公开的这些和其他目的、特征和特性,以及结构的相关元件的操作方法和功能以及部件的组合和制造经济性将在参考附图考虑以下描述和所附权利要求时变得显而易见,所有这些均形成本说明书的一部分,其中相同的附图标记表示各附图中的对应部分。然而,应该清楚地理解,附图仅用于说明和描述的目的,并不旨在作为本公开的限制的定义。除非上下文另外明确规定,否则在本说明书和权利要求书中使用时,单数形式“一”和“所述”包含复数个指示物。
附图说明
将在下文中结合附图来描述所公开的方面,提供附图是为了说明但不限制所公开的方面,其中相同标识表示相同元件。
图1A是根据本公开的一些实施方案的制造轮椅的示例性方法的过程流程图。
图1B是根据本公开的一些实施方案的示例性主体形状的轮椅的成斜视侧视图。
图2A是根据本公开的一些实施方案的包括机器人轮椅的机器人的前视图。
图2B是根据本公开的一些实施方案的包括机器人轮椅的机器人的后视图。
图2C是根据本公开的一些实施方案的机器人的功能框图。
图3是根据本公开的一些实施方案的系统的功能框图,所述系统包含可通信地和/或可操作地耦合到网络的机器人。
图4是根据本公开的一些实施方案的用于操作机器人的示例性方法的过程流程图。
图5A是根据本公开的一些实施方案的检测标记的机器人的前视图。
图5B是根据本公开的一些实施方案的用于输入目的地的显示器。
图5C是根据本公开的一些实施方案的可针对用户用以输入目的地和/或呼叫机器人的控制台的斜视侧视图。
图5D是根据本公开的一些实施方案的电子装置的显示器。
图5E是根据本公开的一些实施方案的可扫描通行证。
图5F是根据本公开的一些实施方案的包含与机器人通信的电子装置的系统。
图6A是根据本公开的一些实施方案的机器人在其中行进的走廊的正视图。
图6B是根据本公开的一些实施方案的在大环境中利用车道的机器人的正视图。
具体实施方式
在下文中参考附图更全面地描述了本文公开的新颖系统、设备和方法的各个方面。然而,本公开可以许多不同的形式体现,并且不应该被解释为限于贯穿本公开内容给出的任何特定结构或功能。相反,提供这些方面是以使得本公开彻底且完整,并将本公开的范围完全传达给本领域技术人员。基于本文中的教示,本领域技术人员应当理解,本公开的范围旨在覆盖本文公开的新颖系统、设备和方法的任何方面,无论是独立实施还是与本公开的任何其他方面组合实施。举例来说,可使用本文阐述的任何数目个方面来实施设备或者实践方法。另外,本公开的范围旨在涵盖使用其他结构、功能性或补充或不同于本文所阐述的本公开的各个方面的结构和功能性来实践的此设备或方法。应理解,本文公开的任何方面均可通过权利要求的一个或多个要素来实施。
尽管本文描述了特定方面,但这些方面的许多变化和排列落入本公开的范围内。尽管提到优选方面的一些益处和优点,但本公开的范围并不旨在限于特定益处、用途和/或目标。详细描述和附图仅说明本公开而非是限制性的,本公开的范围由所附权利要和及其等效物限定。
本公开提供了改良型移动平台。具体地说,本公开的一些实施方案涉及机器人,例如机器人移动平台。如本文中所使用,机器人可包含配置成自动执行复杂的一系列动作的机械实体或虚拟实体。在一些情况下,机器人可以是由计算机程序或电子电路系统引导的机器。在一些情况下,机器人可包含配置成用于导航的机电组件,其中机器人可以从一个位置移动到另一个位置。这种机器人可包含自主和/或半自主汽车、地板清洁器、流动站、无人驾驶飞机、飞机、船、推车、电车、轮椅、工业设备、储料机、移动平台、个人运输装置(例如,悬停板、)等)、储料机、拖车搬运车、车辆等。机器人还可包含用于将物品、人、动物、货品、货物、行李箱和/或任何所需物品从一个位置运输到另一个位置的任何自主和/或半自主机器。在一些情况下,用于运输的此类机器人可以包机器人移动平台,这是因为机器人是可以导航和/或自主地和/或半自主地移动的移动系统。这些机器人移动平台可包含自主和/或半自主轮椅、自行车、划艇、踏板车、叉车、电车、火车、推车、车辆、拖船和/或用于运输的任何机器。
如本文所提到,轮椅可包含手动控制(例如,驱动、推动或远程控制),动力(例如,使用电动机和/或致动器运行)和/或自主(例如,使用很少甚至不使用直接用户控制)的轮椅。例如,轮椅可包含由于疾病、伤害、残疾、虚弱等而难以或不可能行走的人使用的设备。轮椅可包含任何数目个不同大小的轮。例如,轮椅可具有1、2、3、4、5、6、7或更多个轮。在许多情况下,轮椅具有乘员可以坐在上面的座椅。在一些情况下,轮椅还可包含通常由其他名称引用的装置,例如座椅、电动椅、踏板车、医院病床、巡警器、旋转器、推车、升降椅、电动斜倚器、吊舱和/或任何其他基本类似的设备。
本文中参考轮椅或移动平台、或机器人轮椅或机器人移动平台描述了某些实例。这些实例仅用于说明,且本文描述的原理通常可易于应用于机器人。
在一些情况下,机器人可包含自动执行一个或多个任务的电气设备、机器和/或装备。例如,模块可以附接到电气设备、机器和/或装备以允许它们自主操作。在一些实施方案中,模块可包含电气设备、机器和/或装备的自主运动的电动机。在一些情况下,模块使得电气设备、机器和/或装备至少部分地基于欺骗来操作,例如通过将控制信号发送到电气设备、机器和/或装备的预先存在的控制器、致动器、单元和/或组件。模块可包含传感器和/或处理器以接收并生成数据。模块还可包含处理器、致动器和/或本文描述的任何组件,以处理传感器数据,发送控制信号,和/或以其他方式控制电气设备、机器和/或装备的预先存在的控制器、单元和/或组件这种电气设备、机器和/或装备可包含汽车、地板清洁器、流动站、无人驾驶飞机、飞机、船、推车、电车、轮椅、工业设备、储料机、移动平台、个人运输装置(例如、悬停板、)等等)、储料机、拖车搬运车、车辆和/或任何类型的机器。/>
现提供对本公开的系统和方法的各种实施方案和变型的详细描述。虽然本文讨论的许多实例可以涉及机器人地板清洁器,但应理解,本文中所含的所描述系统和方法适用于任何种类的机器人。鉴于本公开的内容,本领域的普通技术人员将易于设想本文中所描述的技术的无数其他示例性实施方案或用途。
有利地,本公开的系统和方法至少:(i)允许机器人在环境中安全地操作;(ii)通过允许机器人表现出预期的行为来提供机器人的舒适性(例如,通过人和/或动物);(iii)允许机器人的处理流程在器对应环境中工作;(iv)降低资源成本,例如劳动力、时间和能源;(v)提高效率、成本效益和/或运输时间。鉴于本公开的内容,本领域的普通技术人员可以易于辨别出其他优点。
例如,在一些实施方案中,公开了一种轮椅。轮椅可包含机器人轮椅,这在于它可以根据本公开的系统和方法而自主地导航。有利地,机器人轮椅可以允许机器人轮椅从一个位置有效地导航到另一个位置,而几乎没有直接的操作员控制。在一些情况下,机器人轮椅可以携带人,例如老年人、残疾人、残疾人、患病者、受损人员和/或不能或不愿走路的人。机器人轮椅还可以携带任何物品、动物和/或所需事物,例如人的宠物、个人物品和/或其他物品。在某些情况下,此类物品、动物或所需事物可以是人的补充或替代。因此,本公开的优点是人、物品、动物和/或事物被有效地运输。此外,此运输可以减少对劳动力(例如,乘员和/或其他操作者)的劳动力的依赖性,从而减少运输的时间、能量和/或成本。
作为另一实例,根据本公开的一些实施方案的机器人轮椅也可以在船上没有人、物品、动物和/或所需事物的情况下导航。这在定位机器人轮椅时可能是理想的。举例来说,需要坐轮椅的人可能在远离轮椅的位置。传统的轮椅可能要求想要轮椅的人去轮椅的位置,或另一个人将轮椅带给需要轮椅的人。然而,根据本公开的一些实施方案的机器人轮椅可以导航到此人,以便允许此人使用机器人轮椅。类似地,一旦人离开轮椅,传统的轮椅可能需要有人将轮椅推到另一个位置以供进一步使用、存储、维修和/或任何其他所需的动作。然而,根据本公开的一些实施方案的机器人轮椅可以在几乎没有直接操作员控制的情况下导航到此类位置。因此,本公开的系统和方法的优点是高效地管理移动平台(例如,轮椅),同时减此管理所需的劳动力。
作为另一实例,使用轮椅的某些位置(例如,购物中心、医院、退休社区、机场、办公楼、市中心、学校和/或公共或私人场所)可能严重拥挤和/或混乱。因此,在此情形下的人类导航可能是困难的甚至是不可能的。作为说明,操作轮椅的人(无论是作为乘员还是其他人)可能需要做出反应以避免其路径中的人、行李、障碍物、结构、机器人、显示器、运输车辆、动物、物品和/或其他事物:其中一些可能是动态移动的。在一些情况下,在操作轮椅的人受损和/或注意力不集中的情况下,可能由于操作员而发生碰撞。在一些情况下,即使在操作轮椅的人完全警惕的情况下,由于人类感知的限制、第三方的行动和/或不受人类操作员控制的事件,也可能发生碰撞。本公开的系统和方法有利地使得能够较少依赖人类进行导航,这有可能减少碰撞。
此外,在使用多个机器人移动平台(例如,机器人轮椅)的情况下,系统组织和秩序可以增加,从而允许进一步减少碰撞。例如,在本公开的一些实施方案中,多个机器人移动平台(例如,机器人轮椅)可以彼此检测、通信和/或集中控制。因此,机器人移动平台可同步、协调移动和/或发送/接收信号,从而增强机器人移动平台相互躲闪的能力。有利地,此能力可以减少碰撞。此外,此能力可以改善机器人移动平台正在操作的环境,同时增强机器人移动平台对人和/或动物的感知,从而使得人和/或动物在机器人移动平台周围更舒适。此增强的感知可以增强人类和/或动物体验。
作为另一实例,本公开的系统和方法可以结合机器人移动平台来增强工作流程。此增强的工作流程可:灌输机器人移动平台的信心;允许人、物品、动物和事物的有效运输;提高机器人的可用性。
作为另一实例,系统和方法可以允许使用对环境进行相对较少修改或不修改的机器人技术。涉及机器人的某些当代解决方案可能要求用户安装导轨、信标、标记、线和/或提示以供机器人导航。在一些情况下,从时间、金钱和/或美学角度来看,此类安装可能是昂贵的。此类安装还可能需要维护资源。此外,安装可以在机器人解决方案中产生故障点,从而在安装的一个或多个方面不按预期运行的情况下导致解决方案的至少一部分失败。有利地,本公开的系统和方法可以允许机器人在一些情况下相对较少依赖或不依赖安装。然而,在一些情况下,可以根据本公开的方面对环境进行改变,以便提高效率和工作流程。
图1A是根据本公开的一些实施方案的用于制造轮椅的示例性方法100的过程流程图。出于说明性目的,方法100涉及轮椅;然而,在给出本公开的内容的情况下,本领域的普通技术人员可以考虑其他机器人且方法100可以易于应用于其他机器人。
框102包含获得现有轮椅。例如,轮椅可包含本公开中描述的任何轮椅,包含动力和手动轮椅。作为说明,图1B是根据本公开的一些实施方案的轮椅的示例性主体形状的侧视图。主体形状122是具有座椅和四个轮的标准轮椅。主体形状122具有两个大轮和两个较小轮。通常,坐在主体形状122的座椅上的人将物理地转动轮以使轮椅移动。人可以向前转动大轮以使主体形状122向前移动,或者向后转动大轮以使主体形状122向后移动。可以将差动力施加到大轮上以使主体形状122转动。主体形状122具有面向后的把手,以使不坐在主体形状122中的人推或拉主体形状122。不坐在主体形状122中的这个人可以推或拉空的轮椅以将其从一个位置移动到另一个位置,或者推或拉有人乘员的主体形状122以便将人和轮椅122从一个地方运送到另一个地方。
主体形状112基本上类似于主体形状122。主体形状112说明运动和/或越野轮椅。主体形状112的座椅较小并且没有扶手以允许主体形状112中的人更自由地移动。
主体形状114是示例性动力轮椅,这在于其具有允许主体形状114在没有人手动移动主体形状114的情况下移动的电动机。主体形状114具有六个轮和一个大座椅。主体形状114具有用于占据主体形状114的人(和/或任何其他人)的操纵杆以引导轮椅114的移动。
主体形状116基本上类似于主体形状122,但也是动力的。主体形状116还具有用于主体形状116的乘员(和/或任何其他人)的操纵杆以引导主体形状116的移动。
主体形状118示出了具有四方形状的轮椅。主体形状118具有用于主体形状116的乘员的操纵杆以引导主体形状116的移动。它还有一个座椅和用于让乘员放置他/她的脚的扩大平台。主体形状118也是动力轮椅。
主体形状120是包括踏板车的动力轮椅。踏板车可包含较大的底座和转向柱。有利地,踏板车可以具有增大的占据面积,以获得更高的稳定性、速度和支撑(例如,用于更多的物品和/或重量)。然而,较大的占据面积也会限制主体形状120可横穿的位置。
在一些实施方案中,轮椅甚至可能不是传统轮椅。举例来说,推车、骑乘式地板清洁器和/或车辆可以或者被修改为与轮椅基本上相似的用途。本文中呈现图1B以给出轮椅的几个说明性实例,然而,本领域的普通技术人员将了解,根据本公开的内容可存在任何数目的不同主体形状的轮椅。
返回到图1A,框104包含确定轮椅是否具有至少部分地由控制器(和/或多个控制器)操作的用于移动的致动器(和/或多个致动器)。举例来说,轮椅114、116、118和120具有电动机。电动机允许将轮椅从一个地方移动到另一个地方。电动机可以基本上类似于参看致动器单元220所描述的电动机,所述电动机随后参看图2C描述。
在一些情况下,电动机受控制器控制。控制器可向轮椅的致动器提供命令。举例来说,控制器可向轮椅的致动器发送命令以执行原始动作或复合动作,例如至少部分地与向前移动、向后移动、转动、加速度、减速度、停止等相关的动作。控制器可基本上类似于随后参看图2C所描述的控制器204。
如果轮椅不具有致动器和/或控制器中的一个或多个(和/或轮椅的致动器和/或控制器由于功能性、性能、位置和/或任何其他特性而不足),那么框106包含安装至少部分地由控制器(和/或多个控制器)操作的用于移动的致动器(和/或多个致动器)。举例来说,电动机可基本上类似于致动器单元220的致动器且控制器可基本上类似于控制器204。
框108包含附接机器人模块。机器人模块可包括一个或多个传感器,例如传感器单元212。机器人模块也可包括控制器以处理来自传感器的数据。机器人模块的控制器可与轮椅的控制器通信。
框110包含加载自主性特征以实现轮椅的自主导航。自主性特征可在例如固件、源代码、目标代码、软件等中实例化。在一些情况下,某些计算机逻辑可在例如通过逻辑门、开关、电线等硬件中实例化。
自主性特征可包含处理来自传感器的数据。自主性特征可运行绘图和/或定位方法,以便机器人围绕机器人的环境导航。此外,自主性特征可包含向轮椅(例如,框104或框106中确定和/或安装的轮椅的控制器)发送/接收命令、状态、识别信息、信息和其他信号。以此方式,机器人模块可监测轮椅且还控制轮椅(例如,通过发送命令信号和/或欺骗)。
在一些实施方案中,可在机器人模块上加载自主性。举例来说,自主性特征可在附接到轮椅之前预加载在模块上。作为另一实例,自主性特征可在附接机器人模块之后加载到机器人模块上。
在一些实施方案中,机器人轮椅可以手动和/或自主模式操作。举例来说,以此方式,当机器人轮椅遇到机器人轮椅将难以自主导航、遇到错误和/或具有任何其他问题的情况时,用户可利用操纵杆和/或其他控制器控制机器人轮椅。此外,当用户需要时,例如当用户从驾驶中获得享受和/或没有特定目的地时(例如,徘徊或移动以观看、探索、娱乐等),他/她也可以手动模式使用机器人轮椅。
尽管方法100给出将机器人模块附接到现有轮椅的实例,本公开的系统和方法容易地适用于机器人轮椅,所述机器人轮椅与基本上类似于关于机器人模块所描述的那些能力的能力集成。本公开不限于根据方法100制造的机器人。
图2A是根据本公开的一些实施方案的包括机器人轮椅的机器人200的前视图。机器人200包括轮椅的座椅206,其具有乘员座椅、轮、脚踏和轮椅上的其他特征。机器人200也可具有多个侧面,例如顶侧240A、左侧240B、底侧240C、右侧240D、前侧240F和后侧240G(图2B中所描绘)。本领域的普通技术人员将通过本公开的内容理解,机器人200也可具有对应于机器人200的表面的其他侧面,其可根据形状(例如,矩形、方锥形、人形或任何其他设计的形状)而变化。作为说明,前侧240F可定位在机器人200的前向侧上,其中前向侧在机器人200的向前移动方向上向前。后侧240G可定位在机器人200的后向侧上,其中后向侧为面向前向侧的基本相反方向的侧面。右侧240D可为相对于前侧240F的右侧,并且左侧240B可为相对于前侧240F的左侧。
机器人200具有控件208,从而允许乘员和/或用户控制机器人200。作为说明,控件208可包括操纵杆、按钮、拨号盘、触控板、控制器、轨迹板、旋钮、手势感测机构、麦克风(例如,以接受语言命令)和/或任何其他控制机构。在一些情况下,控件208可定位在除说明之外的其他处。举例来说,由于残疾和/或舒适性,乘员可能更喜欢控件208被特定手,例如右手和/或左手获取。因此,控件208可定位在机器人200的右侧240D或左侧240B的近侧。此外,在一些情况下,人可能无法手动控制机器人200,且控件208可通过人乘员的脚和/或其他部分或官能来获取。因此,控件208可位于脚垫和/或其他位置上。在一些情况下,控件可由语音命令或手势执行。
机器人200具有支撑结构230。有利的是,支撑结构230可支持机器人200的传感器和/或其他组件。支撑结构可包括金属(例如,钢、铝、锡、铁和/或任何结构金属)、塑料(例如,纤维增强聚合物、聚对苯二甲酸伸乙酯、高密度聚乙烯、聚氯乙烯、低密度聚乙烯、聚丙烯、聚苯乙烯和/或任何其他塑料)、聚合物(例如,聚乙烯、聚丙烯、聚氯乙烯、铁氟龙、聚苯乙烯、电木、历新、三聚氰胺、珀斯佩克斯、乙烯橡胶、氯丁橡胶、聚苯乙烯-丁二烯,和/或其他聚合物)、陶瓷(例如,氮化硼、陶器、瓷器、赛隆、碳化硅、块滑石、碳化钛、氧化锆和/或其他陶瓷)、复合材料(例如,水泥、混凝土、金属复合材料、陶瓷复合材料和/或其他复合材料)、有机物(例如,木材和/或其他有机物),和/或任何其他材料。在一些实施方案中,支撑结构230可包覆在例如盒子、机壳和/或壳体中。
举例来说,支撑结构230可从座椅206向远侧延伸。如所说明,支撑结构在座椅206上方延伸。举例来说,座椅206可具有至少部分地指示座椅206的竖直平面的竖轴。支撑结构200可包括与座椅206的竖直平面的竖轴轴向对准的第一梁。此竖直梁可允许一个或多个传感器从座椅竖直地延伸,使得传感器可定位于坐在座椅206中的乘员上方。有利的是,位置在乘员上方可以允许传感器具有视场,所述视场不会被坐在座椅206中的人和/或机器人200的任何其他组件完全阻挡。在一些实施方案中,可存在多个此类竖直延伸的梁,其从机器人200轴向向远侧延伸,由此具有支持多个传感器的能力。在一些实施方案中,支撑结构230的竖直延伸的组件可设定成与竖轴成角度,以便允许传感器的所需放置。可至少部分地基于传感器的所需位置、支撑结构230到座椅206的连接点、支撑结构230的材料强度、支撑结构230的其他部分(例如,横梁、传感器等)的放置、支撑结构230的耐久性、支撑结构230的其他部分的重量和/或其他结构考虑因素来确定角度。举例来说,梁可从座椅206的侧面延伸,由此还得到未受阻挡的视图。
在一些实施方案中,竖直延伸的梁中的一个或多个可具有一个或多个横梁,例如图2A和2B中所说明。一个或多个横梁可以一个或多个角度在一个或多个方向上延伸。举例来说,横梁可在一个方向上延伸,从而形成“L”。作为另一实例,横梁可在两个方向上延伸,从而形成“T”形状等等。作为另一实例,横梁可垂直于从座椅206的竖直延伸的梁的梁的轴线延伸。作为另一实例,横梁可以锐角或钝角延伸,从而形成其他形状,包含对称和不对称形状。
传感器212A到212F可分散在整个机器人200中。传感器212A到212F中的一个或多个可以是传感器单元212的至少部分(随后参看图2C所描述)。举例来说,传感器212C和212F可包括本体感受传感器(如随后参看图2C中的传感器单元212将描述),例如里程表。传感器212A到212C和212E可包括外感受传感器,其配置成感测机器人200的环境(如随后参看图2C中的传感器单元212将描述)。在一些实施方案中,传感器212A到212F中的一个或多个可定位成使得传感器的视场覆盖所需区域。举例来说,其中212B是倾斜LIDAR,其可向下成角度(例如,30、45、60或任何其他角度)以覆盖在机器人200的前方延伸的区域。作为另一实例,传感器212E可以是平面LIDAR,其定位于距横轴上的地面一定距离处,以便检测机器人200前方或后方的物体(例如,物品、人、动物、障碍物等)。因此,传感器可定位成相对于机器人200和/或支撑结构230成所要角度。
用户界面218A可定位在机器人200上以允许用户与机器人200的交互。举例来说,用户界面218A可供用户用以输入路线、发送/接收信息、查看状态、控制机器人200(例如,速度、反向、加速度、转动等)、配置机器人200、校准机器人200(例如,机器人200的传感器)、驱动机器人200、发送/或接收通信、调整机器人200的方面(例如,机动调整座椅水平、扶手水平、脚垫水平、轮角度等),和/或执行与机器人200的任何交互。用户界面218A可以是用户界面单元218的至少部分。
图2B是根据本公开的一些实施方案的包括机器人轮椅的机器人200的后视图。机器人200可具有单元210,其可容纳机器人200的额外组件,例如机器人模块的组件。举例来说,单元210可容纳配置成处理来自传感器212A到212F的数据的控制器、用户界面218A、电动机226和/或机器人200的组件。举例来说,单元210可包括参考图2C所描述的一个或多个组件。致动器220A可包含用于移动机器人200的致动器,例如用于移动机器人200的轮的电动机。致动器220A可以是参考图2C所描述的致动器单元220的致动器。
尽管图2A和2B说明一个特定主体形状,但预期其他主体形状。举例来说,机器人200可包含乘员的舱、外壳和/或盖板。此外,座椅206可以不同角度定位,例如以一定角度,以使人站立、坐下或处于站立或坐下之间的任何位置。以此方式,机器人200可具有较窄深度,但允许机器人200运送人。在一些情况下,座椅206可定位成使人倾斜。对于残疾、受伤和/或不能(或不想)坐着或站立的人来说,可能是这种情况。
此外,在一些实施方案中,机器人组件可完全集成到机器人200的主体中(例如,集成到座椅206中)。作为说明,传感器212A到212F可定位在座椅206内侧,例如在头枕、靠背、座椅、扶手、腿垫、轮等中。有利的是,这可提供更集成的外观。然而,此类集成可增加单元的成本和/或人阻挡传感器的风险。
在一些情况下,结构可定位于机器人200的前方处,例如保险杆和/或柱。保险杆和/或柱可定位成使得其不妨碍人乘员,但可容纳传感器,使得传感器视场不被人乘员阻挡。
图2C是根据本公开的一些原理的机器人200的功能框图。如图2C中所说明,机器人200可包含控制器204、存储器202、用户界面单元218、绘图和定位单元224、传感器单元212、致动器单元220和通信单元222,以及其他组件和子组件(例如,其中的一些可能并未说明)。鉴于本公开的内容,本领域的普通技术人员将容易显而易见,尽管在图2C中说明特定实施方案,但是应了解,架构在某些实施方案中可变化。如本文中所使用,机器人200可至少部分地代表本公开中描述的任何机器人。
控制器204可控制由机器人200执行的各种操作。控制器204可包含一个或多个处理器(例如,微处理器)和其他外围设备。如本文中所使用,处理器、微处理器和/或数字处理器可包含任何类型的数字处理装置,例如且不限于数字信号处理器(“DSP”)、精简指令集计算机(“RISC”)、通用(“CISC”)处理器、微处理器、门阵列(例如,现场可编程门阵列(“FPGA”))、可编程逻辑装置(“PLD”)、可重新配置的计算机结构(“RCF”)、阵列处理器、安全微处理器、专用处理器(例如,神经形态处理器)和专用集成电路(“ASIC”)。这类数字处理器可含在单个整体集成电路裸片上或分布在多个组件上。
控制器204可以操作方式和/或以通信方式耦合到存储器202。存储器202可包含任何类型的集成电路或配置成存储数字数据的其他存储装置,包含但不限于只读存储器(“ROM”)、随机存取存储器(“RAM”)、非易失性随机存取存储器(“NVRAM”)、可编程只读存储器(“PROM”)、电可擦除可编程只读存储器(“EEPROM”)、动态随机存取存储器(“DRAM”)、移动DRAM、同步DRAM(“SDRAM”)、双倍数据速率SDRAM(“DDR/2SDRAM”)、扩展数据输出(“EDO”)RAM、快速页面模式RAM(“FPM”)、减少时延DRAM(“RLDRAM”)、静态RANI(“SRAM”)、快闪存储器(例如,NAND/NOR)、忆阻器存储器、伪静态RANI(“PSRAM”)等。存储器202可向控制器204提供指令和数据。举例来说,存储器202可为其上存储有多个指令的非暂时性计算机可读存储设备和/或媒体,指令可由处理设备(例如,控制器204)执行以操作机器人200。在一些情况下,指令可配置成在由处理设备执行时使处理设备执行本公开中描述的各种方法、特征和/或功能性。因此,控制器204可基于存储在存储器202内的程序指令来执行逻辑和算术运算。在一些情况下,存储器202的指令和/或数据可存储在硬件的组合中,一些位于机器人200内的本地,并且一些位于远离机器人200处(例如,在云、服务器、网络等中)。
在一些实施方案中,传感器单元212可包括可检测机器人200内和/或周围的特性的系统和/或方法。传感器单元212可包括多个传感器和/或传感器的组合。传感器单元212可包含在机器人200内部或外部的传感器,和/或具有部分在内部和/或部分在外部的组件。在一些情况下,传感器单元212可包含一个或多个外感受传感器,如声纳、光检测与测距(“LIDAR”)传感器、雷达、激光器、相机(包含摄像机(例如,红-蓝-绿(“RBG”)相机、红外相机、3D相机、热相机等)、飞行时间(“TOF”)相机、结构光相机、天线、运动检测器、麦克风和/或本领域中已知的任何其他传感器。在一些实施方案中,传感器单元212可收集原始测量结果(例如,电流、电压、电阻、门逻辑等)和/或变换后的测量结果(例如,距离、角度、障碍物中的检测点等)。在一些情况下,可合计和/或汇总测量结果。传感器单元212可至少部分地基于测量结果而生成数据。这类数据可以数据结构形式存储,如矩阵、阵列、队列、列表、阵列、堆栈、包等。在一些实施方案中,传感器数据的数据结构可被称作图像。
在一些实施方案中,传感器单元212可包含可测量机器人200的内部特性的传感器。举例来说,传感器单元212可测量机器人200的温度、功率电平、状态和/或任何特性。在一些情况下,传感器单元212可配置成确定机器人200的里程计。举例来说,传感器单元212可包含本体感受传感器,其可包括传感器,如加速度计、惯性测量单元(“IMU”)、里程表、陀螺仪、速度计、相机(例如,使用视觉里程计)、时钟/定时器等。里程计可促进机器人200的自主导航和/或自主动作。此里程计可包含机器人200相对于初始位置的方位(例如,其中方位可包含机器人的位置、移位和/或定向,并且有时可与如本文所使用的术语位姿互换)。这类数据可以数据结构形式存储,如矩阵、阵列、队列、列表、阵列、堆栈、包等。在一些实施方案中,传感器数据的数据结构可被称作图像。
绘图和定位单元224可从传感器单元212接收传感器数据以在地图中定位机器人200。在一些实施方案中,绘图和定位单元224可包含定位系统和方法,其允许机器人200在地图的坐标中和/或相对于位置(例如,初始位置、结束位置、信标、参照点等)定位自身。绘图和定位单元224还可如通过生成图形和/或地图来处理机器人200获取的测量结果。在一些实施方案中,绘图和定位单元224可以不是单独单元,但实际上是传感器单元212和/或控制器204的部分。
在一些实施方案中,机器人200可通过学习过程绘制和学习路线。举例来说,操作员可通过沿着环境中的路线驱动机器人200来教示机器人200在环境中向何处行进。通过来自传感器单元212的传感器数据的组合,机器人200可确定机器人200的相对姿势和环境中物品的姿势。以此方式,机器人200可确定其在环境中的位置和其已行进的位置。机器人200可随后回想其已行进和以基本上相似的方式行进的位置(尽管其在后续行进中可避免某些障碍物)。机器人可例如通过网络302(将参考图3对其进行描述)彼此共享此类经历。
在一些实施方案中,用户界面单元218可配置成使得用户能够与机器人200交互。举例来说,用户界面218可包含触控面板、按钮、小键盘/键盘、端口(例如,通用串行总线(“USB”)、数字视频接口(“DVI”)、显示器端口、E-Sata、火线、PS/2、串行、VGA、SCSI、音频端口、高清多媒体接口(“HDMI”)、个人计算机内存卡国际协会(“PCMCIA”)端口、存储卡端口(例如,安全数字(“SD”)和miniSD),和/或计算机可读媒体的端口)、鼠标、滚球、控制台、振动器、音频转换器和/或供用户输入和/或接收数据和/或命令的任何界面,不管是以无线方式耦合还是通过导线耦合。用户可通过语音命令或手势交互。用户界面单元218可包含显示器,例如但不限于液晶显示器(“LCD”)、发光二极管(“LED”)显示器、LED LCD显示器、平面内切换(“IPS”)显示器、阴极射线管、等离子显示器、高清(“HD”)面板、4K显示器、视网膜显示器、有机LED显示器、触摸屏、表面、画布和/或任何显示器、电视、监视器、面板和/或本领域中已知的用于视觉呈现的装置。在一些实施方案中,用户界面单元218可定位在机器人200的主体上。在一些实施方案中,用户界面单元218可远离机器人200的主体定位,但是可直接或间接(例如,通过网络、服务器和/或云)通信地耦合到机器人200(例如,经由通信单元,包含传输器、接收器和/或收发器)。在一些实施方案中,用户界面单元218可包含接近机器人定位的表面(例如,地板)上的图像的一个或多个投影,例如以向乘员或机器人周围的人提供信息。信息可以是机器人的未来成角度地移动方向,例如指示向前、左、右、后和/或任何其他方向移动。在一些情况下,此类信息可利用箭头、颜色、符号等。
作为说明,机器人200可具有投影仪、灯和/或其他投影系统。机器人200可在地板上投射图像且让人知道移动方向和/或接下来的动作。举例来说,机器人200可将路径的图像投射到地板上以让人知道机器人将向何处行进。投射在地板上的其他图像可向人指示机器人200计划在何处停止、其计划何时开始移动、其在何处移动和/或使机器人座椅周围的人感到更舒适和安全的有用信息。此类投影可利用与标题为“用于机器人装置的安全导航的设备和方法(APPARATUS AND METHODS FOR SAFE NAVIGATION OF ROBOTIC DEVICES)”的第2016/0375592号美国专利公开基本上相似的系统和方法,所述美国专利公开由此以全文引用的方式并入本文中。
在一些实施方案中,通信单元222可包含一个或多个接收器、传输器和/或收发器。通信单元222可配置成发送/接收传输协议,例如Wi-Fi、感应无线数据传输、射频、无线电传输、射频标识(“RFID”)、近场通信(“NFC”)、红外、网络接口、例如3G(3GPP/3GPP2)的蜂窝技术、高速下行链路包接入(“HSDPA”)、高速上行链路包接入(“HSUPA”)、时分多址(“TDMA”)、码分多址(“CDMA”)(例如,IS-95A、宽带码分多址(“WCDMA”)等)、跳频扩频(“FHSS”)、直接序列扩频(“DSSS”)、全球移动通信系统(“GSM”)、个人局域网(“PAN”)(例如,PAN/802.15)、全球微波接入互操作性(“WiMAX”)、802.20、长期演进(“LTE”)(例如,LTE/LTE-A)、时分LTE(“TD-LTE”)、全球移动通信系统(“GSM”)、窄带/频分多址(“FDMA”)、正交频分复用(“OFDM”)、模拟蜂窝、蜂窝数字包数据(“CDPD”)、卫星系统、毫米波或微波系统、声学、红外(例如,红外数据协会(“IrDA”)),和/或任何其他形式的无线数据传输。
如本文中所使用,网络接口可包含具有组件、网络或过程的任何信号、数据或软件接口,包含但不限于那些火线接口(例如,FW400、FW800、FWS800T、FWS1600、FWS3200等)、通用串行总线(“USB”)(例如,USB 1.X、USB 2.0、USB 3.0、USB C型等)、以太网(例如,10/100、10/100/1000(千兆以太网)、10-Gig-E等)、同轴电缆多媒体联盟技术(“MoCA”)、Coaxsys(例如,TVNETTM)、射频调谐器(例如,带内或00B、电缆调制解调器等)、Wi-Fi(802.11)、WiMAX(例如,WiMAX(802.16))、PAN(例如,PAN/802.15)、蜂窝(例如,3G、LTE/LTE-A/TD-LTE/TD-LTE、GSM等)、IrDA系列等。如本文中所使用,Wi-Fi可包含以下中的一个或多个:IEEE-Std.802.11、IEEE-Std.802.11的变化形式、与IEEE-Std.802.11相关的标准(例如,802.11a/b/g/n/ac/ad/af/ah/ai/aj/aq/ax/ay),和/或其他无线标准。
通信单元222还可配置成在有线连接上利用传输协议发送/接收信号,所述有线连接例如具有信号线和接地的任何电缆。举例来说,此类电缆可包含以太网电缆、同轴电缆、通用串行总线(“USB”)、火线接口和/或本领域中已知的任何连接。这类协议可供通信单元222使用以与外部系统通信,所述外部系统如计算机、智能电话、平板电脑、数据捕获系统、移动电信网络、云、服务器等。通信单元222可配置成发送和接收信号,所述信号包括数字、字母、字母数字字符和/或符号。在一些情况下,信号可以使用例如128位或256位密钥的算法和/或遵守各标准的其他加密算法进行加密,所述标准例如高级加密标准(“AES”)、RSA、数据加密标准(“DES”)、三重DES等等。通信单元222可配置成发送和接收状态、命令和其他数据/信息。举例来说,通信单元222可与用户操作员通信以允许用户控制机器人200。通信单元222可与服务器/网络(例如,网络)通信,以便允许机器人200向服务器发送数据、状态、命令和其他通信。服务器还可通信地耦合到可用于远程监测和/或控制机器人200的计算机和/或装置。通信单元222还可从机器人200的服务器接收更新(例如,固件或数据更新)、数据、状态、命令和其他通信。
致动器单元220可包含用于致动,在一些情况下用于执行任务的任何系统。举例来说,致动器单元220可包含驱动磁体系统、电动机/发动机(例如,电动机、内燃机、蒸汽发动机和/或本领域中已知的任何类型的电动机/发动机)、螺线管/棘轮系统、压电系统(例如,蠕动电动机)、磁致伸缩元件、手势和/或本领域中已知的任何致动器。在一些实施方案中,致动器单元220可包含允许机器人200移动例如机动推进的系统。举例来说,机动推进可向前或向后移动机器人200,和/或至少部分地用于转动机器人200(例如,向左、向右和/或任何其他方向)。作为说明,致动器单元220可控制机器人200是否正在移动或停止和/或允许机器人200从一个位置导航到另一个位置。
关于图3描述的单元中的一个或多个(包含存储器202、控制器204、传感器单元212、用户界面单元218、致动器单元220、通信单元222、绘图和定位单元224和/或其他单元)可集成到机器人200上,如集成在集成系统中。然而,在一些实施方案中,这些单元中的一个或多个可为可附接模块的一部分。此模块可附接到现有设备以自动化,使得其表现为机器人。因此,参考机器人200在本公开中描述的特征可在模块中实例化,所述模块可附接到现有设备和/或集成到集成系统中的机器人200上。此外,在一些情况下,本领域的普通技术人员将从本公开的内容了解到,本公开中所描述的特征的至少一部分也可远程运行,如在云、网络和/或服务器中。
在一些实施方案中,机器人200可通信地耦合到网络。图3是根据本公开的一些实施方案的系统300的功能框图,所述系统300包含通信地和/或操作性地耦合到网络302的机器人200。网络302可包括硬件、软件、服务和/或资源的集合,其可被调用以在有限或限定的持续时间或无限制或未限定的持续时间内实例化虚拟机、过程或其他资源。网络302可通信地和/或操作性地耦合到多个装置、系统和/或服务器,包含访问因特网的装置和/或服务器。接入点中的一个或多个,如接入点304A和304B,可以是装置、系统和/或服务器,包含但不限于计算机、移动装置、平板电脑、智能电话、蜂窝电话、个人数字助理、平板手机、电子阅读器、智能手表、机顶盒、因特网流式传输装置、游戏控制台、智能电气设备和/或可接入互联网和/或任何网络协议的任何装置。尽管说明两个接入点,但是可根据需要存在更多或更少的接入点。
如本文中所使用,可操作网络302:网络302可具有可接收、处理和/或发送信息的机载计算机。这些计算机可自主地操作和/或由一个或多个人类操作员在控制下操作。类似地,网络302可具有接入点(例如,接入点304A和304B),其可类似地用于操作网络302。接入点可具有可接收、处理和/或发送信息的计算机和/或人类操作员。因此,本文中对网络302的操作的引用可适用于人类操作员和/或计算机操作员。
在一些实施方案中,基本上类似于机器人200的一个或多个机器人可通信地和/或操作性地耦合到网络302。这些机器人中的每一个可将状态、命令和/或操作数据传达到网络302。网络302还可将状态、命令和/或操作数据存储和/或传达到所述一个或多个机器人。在一些情况下,网络302可存储地图、传感器数据和来自机器人200和/或其他机器人的其他信息。网络302可接着彼此共享多个连接的机器人的经历。此外,通过汇总信息,网络302可执行机器学习算法以改善机器人的性能。
本领域的普通技术人员将从本公开的内容了解到,本公开的一些部分可由机器人200、网络302和/或接入点304A和/或304B执行。尽管可参考机器人200、网络302和/或接入点304A和/或304B中的一个或多个来描述某些实例,但是应理解,实例的特征可分布在机器人200、网络302和/或接入点304A和/或304B之间,以实现基本上类似的结果。
图4是根据本公开的一些实施方案的操作机器人轮椅的示例性方法400的过程流程图。虽然此实例在轮椅的上下文中描述机器人技术,但是鉴于本公开的内容,本领域的普通技术人员将了解,方法400可容易地适用于其他机器人,包含适用于运送人、物品、动物等的移动平台。
框402包含前往位置搭载人。举例来说,机器人200可前往等待轮椅的人聚集的集中位置,例如搭载站、进口、出口、指定搭载站,和/或可预先确定的任何其他位置。作为另一实例,机器人200可前往特定位置,以便等待或搭载一个或多个人。
在一些实施方案中,机器人200可至少部分地基于标记的检测而确定其在搭载位置处。举例来说,图5A是根据本公开的一些实施方案的检测标记500的机器人200的前视图。标记500还可包含有形物体,例如座椅、柱、饰品等。标记500可包含人类可读符号,例如文本。举例来说,文本可描述标记500的特性,例如位置、与位置相关联的字母数字(例如,包含位置1、2、3、4、位置A、B、C、D、位置1A、1B、1C等),描述至少部分地与标记500相关联的目的地(例如,在此类目的地受限的情况下),和/或标记500的任何特性和/或方面。在一些实施方案中,标记500可显示在屏幕上。例如,屏幕可包含显示器,例如但不限于LCD、LED显示器、LED LCD显示器、IPS显示器、阴极射线管、等离子显示器、HD面板、4K显示器、视网膜显示器、有机LED显示器、触摸屏、表面、画布、丝网油墨技术和/或任何显示器、电视、监视器、面板和/或本领域中已知的用于视觉呈现的装置。有利的是,屏幕可以显示可以变化的图像。在每一种情况下,标记500可以是机器人200可通过例如传感器212A的一个或多个传感器单元212辨识的物体。
在一些实施方案中,其中标记500是图像,标记500可在可见光谱(例如,人类可见)中实例化,如同传感器212A是RGB相机的情况一样,或其可在可见光谱(例如,人类不可见)外实例化,其中传感器212A可使用红外相机、超光谱相机和/或可成像或检测可见光谱外的能量的其他相机和/或传感器来检测标记500。
在一些实施方案中,标记500可传输信号,例如无线电传输(例如,)和/或其他信号协议,以使机器人200能够检测标记500。在一些实施方案中,在搭载位置处或基本上接近搭载位置处可存在传输器(例如,使用RFID、NFC、无线电传输、射频场和/或本公开中所描述的任何其他通信协议传输通信的传输器)。此类通信也可传输搭载位置周围的信息,例如其乘客、坐标、标识等。当机器人200检测到其在传输器顶部上和/或基本上接近传输器时,机器人200可检测机器人200在搭载位置处。在一些情况下,传输器可具有可操作范围,使得机器人200可以仅在它处于开始位置时检测来自传输器的通信。作为说明性实例,NFC的传输范围可以是十厘米或更小。因此,当机器人200经由NFC接收传输时,机器人200可以检测它定位在搭载位置中。在一些实施方案中,机器人200可从传输器接收传输,并至少部分地基于信号强度的衰减来计算到传输器的距离。通过这种方式,机器人200可以检测它与传输器之间的接近度,并因此检测机器人200相对于传输器和/或搭载位置的方位。在一些实施方案中,机器人200可以通过对多个传输器的信号强度进行三角测量来确定它的位置。在一些实施方案中,搭载位置可以由地板上的标志(例如,标记、符号、线等)标定。当机器人200的(例如,传感器单元212的)一个或多个传感器检测到地板上的标志时,机器人200可以检测到机器人200定位在搭载位置处。
在一些实施方案中,标记500可发出声音,例如啁啾、哔哔声、噪声和/或任何其他声音(无论是人类、动物和/或其他收听者可听见还是不可听见)。在一些情况下,声音对于标记500可以是唯一的,其中其他标记可发出其他声音。声音可以由传感器单元212的传感器(例如,麦克风)检测,所述传感器可以使用所述声音来对标记500的位置进行识别和/或三角测量。在一些实施方案中,标记500可包含人类可见和不可见元件两者。有利的是,具有人类可见和不可见元件两者可促进用户指导机器人200检测标记500。在一些情况下,可见部分可能比不可见部分更小和/或更不显眼。如所说明,传感器212A可距地面一定距离和/或以预先确定的角度定位,其中可至少部分地基于标记500的预期位置和/或传感器212A可能所在位置来确定高度和/或角度,以便捕获视场502内的标记500。
在一些实施方案中,外部传感器可检测机器人200何时处于搭载位置。外部传感器可通信地耦合到机器人200和/或网络302,从而传达机器人200处于搭载位置。作为说明,外部传感器可以是看到机器人200处于搭载位置的相机。在一些实施方案中,外部传感器可具有除检测机器人200外的其他功能性,例如充当安全相机或在智能建筑的物联网(“IOT”)中。举例来说,相机也可用以控制照明、温度、人数、寻找堵塞(例如,人、动物、机器人、车辆等的堵塞),和/或所要的任何功能性。
返回到图4的方法400,框404包含将人接纳为轮椅乘员。举例来说,人可坐在机器人200的座椅206中。在一些情况下,人可以靠他/她自己的力量坐在机器人200中。在一些情况下,人可利用来自人、机器人和/或设备的辅助来使其能够坐在机器人200中。
在一些实施方案中,当用户到达时机器人200可在搭载位置处等待。在其他实施方案中,可招呼机器人200,在一些情况下,所述操作可与框406同时进行(例如,使用参看图5B到5F所描述的系统和方法)。在一些实施方案中,机器人200的招呼过程可基本上类似于UBERTM、LYFTTM和其他出租车招呼服务的招呼过程,其中用户发送乘坐通信(例如,通过编程应用程序)。
框406包含接收目的地指令。举例来说,用户和/或操作员可通过机器人200(例如,用户界面单元218),通过通信地耦合到机器人200和/或网络302的控制台和/或任何输入机构来输入机器人200的目的地。
举例来说,图5B是根据本公开的一些实施方案的用于输入目的地的显示器508。显示器508可实施于用户界面单元218和/或机器人200的外部显示器(例如,控制台)上。
显示器508可包含搜索栏504,其中用户可输入目的地。显示器508也可显示可选位置,例如可由面板506A到506C选择的位置。可选位置可至少部分地基于使机器人200行进的可用选项来填充。在一些情况下,可至少部分地基于用户将行进到的可能位置来对可选位置进行优先级区分(例如,排序和/或显示)。在一些情况下,用户和/或操作员可输入位置(例如,通过名称、坐标(相对和/或通用)),和/或在示出于显示器508上的地图上选择目的地。
作为另一实例,图5C是根据本公开的一些实施方案的可供用户用以输入目的地和/或呼叫机器人200的控制台的侧斜视图。控制台512可以是配置成扫描例如纸、电子装置上的条形码和/或信息和/或用于传递信息的其他模态的扫描仪。
在一些实施方案中,控制台512可作为接入点连接(例如,有线和/或无线)到网络302,从而从网络302发送和/或接收信息。在一些实施方案中,网络302可含有关于多个机器人(例如,机器人200)和机器人可能行进到的多个位置的信息。因此,网络302可将来自控制台512(例如,通过通信协议从控制台512发送到网络302)的信息处理成关于机器人200行进到何处的指令。网络302可接着经由通信协议(例如,经由通信单元222)将此类指令传送到机器人200。
电子装置510可包括一个或多个个人计算机(“PC”)和微型计算机,不论是台式电脑、笔记本电脑还是其他,大型计算机、工作站、服务器、个人数字助理(“PDA”)、手持式计算机、嵌入式计算机、可编程逻辑装置、个人通信器、平板电脑、移动装置、便携式助航设备、配备J2ME的装置、蜂窝电话、智能电话、个人集成通信或娱乐装置,和/或能够执行指令集的任何其他装置。用户和/或操作员可利用电子装置510与控制台512通信,例如通过扫描、有线和/或无线数据传送(例如,使用RFID、NFC、无线电传输、射频场和/或任何其他通信协议)、声音和/或任何其他输入机构。
作为说明,图5D是根据本公开的一些实施方案的电子装置510的显示器516。显示器516包含可扫描标记514,其当被控制台512扫描时可向控制台512传达关于例如机器人200的目的地、机器人200行进到搭载位置的需要、乘客/用户的位置的信息和/或用户的任何其他相关信息。
在一些实施方案中,电子装置510可运行应用程序,例如可通过苹果公司、亚马逊和/或谷歌的应用程序商店下载的应用程序。应用程序可允许用户招呼机器人轮椅、为轮椅付款、选择目的地、查看轮椅等待时间和/或可能相关的任何状态和/或任务。
作为另一实例,图5E是根据本公开的一些实施方案的可扫描通行证518。通行证518可以在售票柜台(例如,在例如控制台512的控制台处)或其他接口处发行、打印,可通过个人计算机或小型计算机获取,和/或以其他方式制作。通行证518可包括条形码520,其可向控制台512传达关于例如机器人200的目的地、机器人200行进到搭载位置的需要、乘客/用户的位置的信息和/或用户的任何相关信息。
作为另一实例,图5F包含根据本公开的一些实施方案的与机器人200连接的电子装置510。电子装置510可直接连接到机器人200和/或网络302。电子装置510可通过信号522与机器人200和/或网络302通信,其可包括有线和/或无线数据传送(例如,使用RFID、NFC、无线电传输、射频场和/或任何其他通信协议)、声音和/或任何其他输入机构。响应于通信,机器人200可移动到位置,如由实例轨迹524所说明,所述实例轨迹示出机器人200朝向电子装置510移动(也可指定其他位置)。
在一些实施方案中,电子装置510可通过用作信标来招呼机器人200。举例来说,电子装置可发出信号(例如,使用RFID、NFC、无线电传输、射频场和/或任何其他通信协议)、声音和/或可被机器人200检测到的任何其他信号。机器人200可配置成前往发出的信号的来源,其是电子装置510和/或乘客所在位置。
在一些实施方案中,电子装置510可向机器人200发送关于在何处搭载和/或何处为目的地的其他信息。举例来说,电子装置510可发送坐标(例如,全球定位系统(“GPS”)坐标、相对或通用坐标)、位置名称、标记目的地和/或任何其他识别信息作为机器人200的搭载位置和/或目的地位置。
返回到图4,框408可接着包含行进到目的地。在一些实施方案中,机器人200可至少部分地基于如关于框402和/或图5A到5F所描述的基本上相似的系统和方法来确定其已到达目的地位置。
在一些实施方案中,在到达目的地之后,机器人200可停留在目的地以搭载另一乘客。在一些实施方案中,机器人200可移动到其他位置,例如:维护区域以接收维护、存储位置、乘客聚集的位置(例如,环境的进口、乘客等待区和/或指定区域)、存在其他机器人的地方、存在较少机器人的地方(例如,以便增大机器人的区域覆盖)、并非特定位置(例如,徘徊以搭载招呼的乘员)和/或任何指定位置和/或移动模式。
在一些实施方案中,可存在多个协同作用的机器人。举例来说,一些环境(例如,购物中心、医院、退休社区、机场、办公楼、市中心、学校和/或其他公共和私人场所)可在空间中具有多个人和/或机器人。在一些情况下,举例来说,多个机器人可以是经协调和/或连接到基本上类似于网络302的一个或多个网络。举例来说,网络302可管理机器人200中的一个或多个和/或其他机器人的位置。在一些情况下,网络302可充当交通控制,控制位置密度、轨迹、避免碰撞、流量和/或与网络302通信的聚集的机器人集合的其他特性。举例来说,网络302可辅助机器人以有序方式行进,确保机器人以最佳路线行进,确保机器人自身分布在其可快速/有效地服务乘客的位置中(例如,可快速地达到搭载地方),安全行为,避免碰撞,远离紧急车辆,和/或其他宏观和/或微观的管理。
为了辅助此种协调,多个机器人可通信地耦合到彼此。举例来说,使用通信单元222,机器人200可向一个或多个其他机器人发送指示机器人200的位置、速度、加速度、停止/断开、状态(例如,打开、关闭、良好状态、不良状态、故障、错误、需要辅助)、目的地等中的一个或多个的信号。在一个实施方案中,机器人通过例如在云中的公共集线器进行通信。在一些情况下,在网络302不完全起作用的情况下,机器人可彼此通信,和/或彼此用作中继器以获取信息。举例来说,机器人可经由分布网络、移动特用网路(“MANET”)和/或任何连接网络进行通信。接着可通过此类网络传输本公开中所描述的任何通信和/或信号。
在一些情况下,可调整机器人200操作的环境以更高效地和/或有效地容纳机器人200和/或其他机器人。举例来说,图6A是根据本公开的一些实施方案的机器人200行进的通道的正视图。人604可以是机器人200上从一个位置移动到另一位置的乘客。在此说明中,机器人200是机器人轮椅,但还设想其他设备(例如本公开中所描述的其他设备)。
在一些环境中,可存在车道602A,其可具有一个或多个指定特性。举例来说,车道602A可具有方向、行进类型(例如,仅轮椅、仅行走、仅推车、仅行李、仅车辆、仅机器人等)、速度(慢、中等、快、预先确定的速度等),和/或任何其他预定特性。有利的是,在车道602A是仅机器人轮椅车道的情况下,机器人轮椅可更高效地操作。其他车道可存在其他特性。作为说明,车道602B可以是超车道,其所述区域中的中人、机器人和/或任何其他移动实体可超越车道602A中的实体。还可存在其他车道,例如车道602C,其可具有不同特性。举例来说,人606在车道602C中与推车一起行走。作为说明,车道602C可在一个方向上指定用于推车和行人。
在一些实施方案中,机器人200可实施物体和/或人辨识。如所使用,在此实例中,在期望检测动物的情况下,人也可与动物互换。有利的是,检测人可允许机器人200在人周围更安全和/或能够检测乘客(和/或可能的乘客)所在位置。在一些情况下,机器人200可例如通过检测物体和/或人的特性和/或将来自传感器单元212的传感器的数据与传感器数据库中的所识别物体和/或人匹配来识别物体和/或人。在一些情况下,机器人200可不具体地识别物体和/或人,而是仅检测物体和/或人的存在。在一些情况下,机器人200可以辨识人的某些特征,例如面部、四肢、步态、移动模式、热量和/或人与物体之间的任何区别特征。
在一些情况下,存储器202可以存储传感器数据库。在一些情况下,传感器数据可以至少部分地与物体和/或人相关联。在一些实施方案中,此库可包含与不同条件下的物体和/或人相关的传感器数据,如与具有不同成分(例如,材料、反射特性、分子组成等)的物体和/或人、不同光照条件、角度、大小、距离、清晰度(例如,模糊、阻碍/遮挡、部分偏离框架等)、颜色、周围环境和/或其他条件相关的传感器数据。库中的传感器数据可由传感器(例如,传感器单元212的传感器或任何其他传感器)获取和/或自动生成,如利用计算机程序,其配置成从不同光照条件、角度、大小、距离、清晰度(例如,模糊、阻碍/遮挡、部分偏离框架等)、颜色、周围环境和/或其他条件生成/模拟(例如,在虚拟世界中)库传感器数据(例如,其可完全数字地和/或从实际传感器数据开始生成/模拟这些库数据)。库中的图像数量可以至少部分地取决于可用数据量、机器人200操作的周围环境的可变性、物体和/或人的复杂性、物体外观的可变性、机器人的物理特性、传感器的特性和/或可用存储空间的量(例如,在库、存储器202和/或本地或远程存储装置中)中的一个或多个。在一些实施方案中,库的至少一部分可存储在网络(例如,云、服务器、分布式网络等)上和/或可不完全存储在存储器202中。作为又一实例,各种机器人(例如,通常相关联的机器人,如由共同制造商、用户、网络等创建的机器人)可联网,使得由单个机器人捕获的数据与其他机器人共同共享。以这种方式,这些机器人可配置成学习和/或共享传感器数据,以便促进容易地检测和/或识别错误和/或辅助事件的能力。
在一些实施方案中,机器人200可以配置为在人和/或物体周围减慢和/或停止。此动作可以为机器人200的乘员(如果有的话)和环境中的人提供额外的安全性。在一些实施方案中,机器人200可配置成围绕人和/或物体转动和/或转向,以避免碰撞和/或不被阻挡。
图6B是根据本公开的一些实施方案的在大环境中利用车道的机器人的侧视图。公共空间可以根据需要具有沿多个方向行进的多个车道。机器人200和其他机器人可以使用这些车道进行引导。车道可汇聚、发散和/或以任何期望的模式进行。在一些情况下,例如目的地608的目的地可以靠近车道,使得机器人200可以沿着车道行进以到达目的地608。
在一些实施方案中,机器人200可以配备有可以检测乘员和其动作的相机和/或传感器。举例来说,相机或其他传感器可以定位成使得此类相机和/或传感器的视场包含乘员。因此,在一些实施方案中,机器人200可以在乘员试图站起来、将其肢体伸出机器人200外和/或做出可能导致机器人200不安全操作、对乘员造成伤害、与障碍物或其他人碰撞的任何动作和/或至少部分地指示人正在从机器人200中离开时停止。
在一些实施方案中,相机和/或传感器可检测到物体留在机器人200中。例如,相机和/或传感器可以检测到乘员离开座椅时留下的物体,从而防止个人财产的损失。
相机和/或传感器可检测控制机器人200的操作的手势。举例来说,此类手势可以是预先确定的,表示例如停止、左转、右转、反转和/或任何其他指令。在一些实施方案中,手势可以指示宏指令,从而组合更基本指令串。
在一些实施方案中,机器人200可以具有麦克风并检测乘员的语音命令。举例来说,此类语音命令可以是预先确定的,表示例如停止、左转、右转、反转和/或任何其他指令。在一些实施方案中,手势可以指示宏指令,从而组合更基本指令串。
在一些实施方案中,麦克风可以允许乘员与操作员进行对话和/或请求帮助。如果请求,那么操作员可以向机器人200提供方向、指令和/或其他命令,和/或远程控制机器人200的运动。
在一些实施方案中,当乘员离开机器人200时,机器人200的至少一个传感器可以检测乘员的新位置和姿势,使得机器人200可以自主地移开或继续保持在当前位置并等待进一步的动作或说明。举例来说,乘员可能想要暂时站立一段短时间,并意图坐回机器人200中。在一些实施方案中,如果乘员站在机器人200的前面,例如当机器人200利用至少一个相机检测到站立的乘员时,那么机器人200不移动。
在一些实施方案中,如果乘员做出手势,那么机器人200将不移动。举例来说,可以确定手势,其向机器人200至少部分地指示机器人200不应移动。作为说明,人可以引向机器人200的方式握住他/她的手,就好像将机器人200保持在皮带上一样。在一些实施方案中,除非按下按钮以将其保持在适当位置,否则机器人200将在短暂的一段时间之后移动。按钮可以是机器上的物理按钮和/或显示在用户界面单元218的用户界面上的数字按钮。
通过触摸屏界面、语音命令和/或用户界面单元218,机器人200的乘员可以指示他们想要在他们的路线中间停下来。有利的是,停止可以允许乘员四处移动、伸展、使用洗手间、购物、与某人交谈和/或执行期望的任何活动。在一些情况下,机器人200可以允许乘员临时离开,和/或在乘员离开机器人200的位置和/或在乘员指定的新位置等待乘员(例如,借助通过用户界面单元218进行通信)。
在一些实施方案中,人可以使用例如移动电话的电子装置来招呼机器人200。此外,机器人200可以具有一个或多个相机和/或传感器,其可以检测到使用手势招呼机器人200的人。在一些情况下,可以预先确定手势,例如指示乘坐欲望的手势。举例来说,这些手势可包含指向机器人200和/或使用其他习惯手势,就像招呼出租车或搭便车一样。
在一些实施方案中,多个机器人可以串列操作,例如,当他们运输一个家庭或一组两个或更多人时彼此靠近。在一些情况下,如果一个机器人停止,例如,由于乘员的阻挡和/或动作,串列中的其他机器人可以暂停以等待停滞的机器人,即使它们可能并未受到阻挡和/或可以自由前进。串列的此类机器人之间的通信可通过基本上类似于通信单元222的通信单元进行。举例来说,此类通信可通过局部无线链路、通过中央集线器和/或服务器直接进行,和/或通过前向和后向相机借助于视觉感知(例如,灯、符号、移动等)来进行。
如本文中所使用,计算机和/或计算装置可包含但不限于
个人计算机(“PC”)和微型计算机,不论是台式电脑、笔记本电脑还是其他,大型计算机、工作站、服务器、个人数字助理(“PDA”)、手持式计算机、嵌入式计算机、可编程逻辑装置、个人通信器、平板电脑、移动装置、便携式助航设备、配备J2ME的装置、蜂窝电话、智能电话、个人集成通信或娱乐装置,和/或能够执行指令集并处理传入数据信号的任何其他装置。
如本文中所使用,计算机程序和/或软件可包含执行功能的任何序列或人类或机器可识别的步骤。这类计算机程序和/或软件可用任何编程语言或环境来呈现,包含例如C/C++、C#、Fortran、COBOL、MATLABTM、PASCAL、GO、RUST、SCALA、Python、汇编语言、标记语言(例如,HTML、SGML、XML、VoXML)等,以及面向物体的环境,如公共对象请求代理结构(“CORBA”)、JAVATM(包含J2ME、Java Bean等)、二进制运行环境(例如,“BREW”)等。
如本文中所使用,连接、链路和/或无线链路可包含任何两个或更多个实体(不论是物理的还是逻辑/虚拟的)之间的因果关系,它使得能够在实体之间信息交换。
将认识到,虽然按照方法的步骤的特定序列描述本公开的某些方面,但这些描述仅说明本公开中的较广泛方法,并且可根据具体应用的需要加以修改。在某些情况下,某些步骤可显得不必要或可选。此外,可将某些步骤或功能性添加到所公开的实施方案,或置换两个或更多个步骤的执行顺序。认为所有此些变化皆涵盖于所公开的本公开内并在本文中要求。
虽然以上详细描述已经示出、描述并且指出施加到各种实施方案的本公开的新颖特征,但是应理解,在不脱离本公开的情况下,本领域技术人员可对所说明的装置或过程的形式和细节进行各种省略、替换和改变。前面的描述为目前预期的进行本公开的最佳模式。本说明书绝不意味着限制,而是应被视为对本公开的一般原理的说明。应该参考权利要求确定本公开的范围。
虽然已经在图式和上述说明中详细说明并描述了本公开,但是此类说明和描述应该视为说明性或示例性而不是限制性的。本公开不限于所公开实施例。通过研究附图、本公开和所附权利要求,本领域技术人员在实践所要求保护的公开内容时可理解和实现对所公开的实施例和/或实施方案的变化。
应该指出,当描述本公开的某些特征或方面时特定术语的使用不应被视为暗示所述术语在本文中重新定义以限于包含本公开的与那个术语相关联的特征或方面的任何特殊特性。除非另有明确说明,否则本申请中使用的术语和短语及其变型,尤其是所附权利要求中的术语和短语及其变型,应被解释为开放式的而非限制性的。作为上述内容的实例,术语“包含”应理解为“包含且不限于”、“包含但不限于”等等;如本文所使用的术语“包括”与“包含”、“含有”或“特征在于”同义,且是包含性或开放式的,并不排除额外的、未列出的元件或方法步骤;术语“具有”应解译为“至少具有”;术语“例如”应理解为“例如且不限于”;术语“包含”应理解为“包含但不限于”;术语“实例”用于在论述时提供物品的示例性实例,而不是物品的穷举性或限制性列表,并且应理解为“例如但不限于”;例如“熟知的”、“通常的”、“标准的”的形容词和具有类似含义的术语不应被理解为将所描述的物品限于给定时间段或限于截至给定时间可用的物品,而是应理解为涵盖现在或在将来的任何时间可为可用的或已知的熟知的、通常的或标准的技术;以及如“优选地”、“优选的”、“期望”或“合乎需要的”的术语及具有类似含义的词语的使用不应理解为暗示某些特征对于本公开的结构或功能来说是关键的、必不可少的或甚至是至关重要的,而是仅仅旨在突显可以用于也可以不用于特定实施例的替代方案或额外特征。同样地,除非另外明确陈述,否则用连接词“和”连在一起的一组项不应被理解为要求那些项中的每个项都存在于所述组中,而是应被理解为“和/或”。类似地,除非另外明确陈述,否则用连接词“或”连在一起的一组项不应被理解为在那一组中需要相互排斥,而是应被理解为“和/或”。术语“约”或“大致”等等是同义的,且用于指示由所述术语修饰的值具有与其相关联的理解范围,其中所述范围可以是±20%、±15%、±10%、±5%或±1%。术语“基本上”用于指示结果(例如,测量值)接近目标值,其中接近可意味着例如结果在值的80%内、值的90%内、值的95%内或值的99%内。并且,如本文所使用,“定义”或“确定”可包含“预定义”或“预定”和/或以其他方式确定的值、条件、阈值、测量等等。
Claims (26)
1.一种用于实现移动平台的自主导航的系统,所述系统包括:
存储器,其包括存储在其上的计算机可读指令;以及
至少一个处理装置,其能配置成执行所述计算机可读指令以:
从通信地耦合至所述至少一个处理装置的电子装置接收对应于用户的第一位置的第一组坐标;
基于检测所述移动平台的环境中的至少一个标记来确定所述移动平台的不同的第二位置,所述至少一个标记能被配置成在被所述移动平台检测到之际传达信息,对所述至少一个标记的检测对应于所述移动平台在所述环境中的初始位置,所述移动平台对应于轮椅;
将所述移动平台从所述第二位置导航到所述第一位置;
从所述用户接收不同的第二组坐标;以及
将其中有所述用户的所述移动平台操纵到从所述用户接收的所述第二组坐标,其中在将所述移动平台从所述第二位置导航到所述第一位置之后或者所述电子装置在将所述移动平台从所述第二位置导航到所述第一位置前传送所述第二组坐标之后,由所述移动平台接收不同的第二组坐标。
2.根据权利要求1所述的系统,其中所述至少一个处理装置进一步能配置成执行所述计算机可读指令以,
将一个或多个命令传输到所述移动平台上的一个或多个致动器,所述一个或多个命令能配置成实现所述移动平台的所述导航。
3.根据权利要求2所述的系统,其中所述至少一个处理装置进一步能配置成执行所述计算机可读指令以,
接收模式选择命令,所述模式选择命令能配置成对所述移动平台启用第一模式和不同的第二模式中的至少一个,所述第一模式对应于手动模式,且
所述第二模式对应于自主模式。
4.根据权利要求2所述的系统,其中所述至少一个处理装置进一步能配置成执行所述计算机可读指令以,
从一个或多个传感器接收数据,所述数据对应于所述移动平台在所述第一组坐标处的到达时间。
5.根据权利要求4所述的系统,其中所述数据是基于由所述一个或多个传感器对至少一个标记的视觉识别,所述标记在所述移动平台的外部并且在所述移动平台的环境内。
6.根据权利要求4所述的系统,其中所述数据是基于所述移动平台的环境内的至少一个标记的无线电传输。
7.根据权利要求2所述的系统,其中所述至少一个处理装置进一步能配置成执行所述计算机可读指令以,
在显示装置上显示多个位置,所述多个位置包括所述用户的所述第二组坐标。
8.根据权利要求1所述的系统,其中所述移动平台包括用于支撑所述一个或多个传感器的支撑结构。
9.根据权利要求8所述的系统,其中所述支撑结构包括竖直梁和横梁,所述横梁在与所述竖直梁相反的方向上延伸。
10.根据权利要求8所述的系统,其中所述一个或多个传感器包括本体感受传感器和外感受传感器中的至少一者。
11.根据权利要求1所述的系统,其中所述移动平台是用于辅助用户从所述第一位置导航到所述第二组坐标的轮椅。
12.根据权利要求11所述的系统,其中所述轮椅包括用于支撑所述一个或多个传感器的支撑结构,所述支撑结构包括竖直梁和横梁,所述横梁在与所述竖直梁相反的方向上延伸。
13.根据权利要求1所述的系统,其中所述轮椅对应于自主轮椅。
14.根据权利要求1所述的系统,其中所述轮椅包括至少一个轮和用于所述用户的至少座椅。
15.根据权利要求1所述的系统,其中所述移动平台能配置成在购物中心、医院、退休社区、机场、办公楼和学校中的至少一者内部导航。
16.一种非暂时性计算机可读介质,包括存储在其上的计算机可读指令,所述指令在由至少一个处理装置执行时配置所述至少一个处理装置以,
从通信地耦合至所述至少一个处理装置的电子装置接收对应于乘客的第一位置的第一组坐标的坐标;
基于检测第一移动平台的环境中的至少一个标记来确定第一移动平台的不同的第二位置,所述至少一个标记能被配置成在被所述移动平台检测到之际传达信息,对所述至少一个标记的检测对应于所述移动平台在所述环境中的初始位置,所述第一移动平台对应于轮椅;
在所述第二位置与所述第一位置之间导航所述第一移动平台;
接收所述乘客的目的地坐标;以及
将其中有所述乘客的所述第一移动平台操纵到从所述乘客接收的所述目的地坐标,其中在将所述移动平台从所述第二位置导航到所述第一位置之后或者所述电子装置在将所述移动平台从所述第二位置导航到所述第一位置前传送所述第二组坐标之后,由所述移动平台接收不同的第二组坐标。
17.根据权利要求16所述的非暂时性计算机可读介质,其中所述至少一个处理装置进一步能配置成执行所述计算机可读指令以,
将对应于所述第一移动平台的坐标的信息传输到耦合到第二移动平台的至少一个处理装置,所述第二移动平台对应于不同的轮椅。
18.根据权利要求16所述的非暂时性计算机可读介质,其中耦合到所述第一移动平台的所述至少一个处理装置进一步能配置成执行所述计算机可读指令以,
从一个或多个传感器接收信息,接收到的信息能配置成沿着第一路径导航所述第一移动平台。
19.根据权利要求18所述的非暂时性计算机可读介质,其中耦合到所述第一移动平台的所述至少一个处理装置进一步能配置成执行所述计算机可读指令以,
响应于从所述一个或多个传感器接收到的信息而更改用于所述第一移动平台的导航的所述第一路径。
20.根据权利要求19所述的非暂时性计算机可读介质,其中,
从所述一个或多个传感器接收到的信息与所述第一移动平台的所述乘客相关;且
耦合到所述第一移动平台的所述至少一个处理装置进一步能配置成执行所述计算机可读指令以基于所述第一路径的所述更改而输出命令,所述命令对应于所述第一移动平台的停止移动。
21.根据权利要求19所述的非暂时性计算机可读介质,其中,
从所述一个或多个传感器接收到的信息是基于所述第一移动平台的环境中的一个或多个物体,且
所述第一移动平台上的所述至少一个处理装置进一步能配置成执行所述计算机可读指令以基于所述第一路径的所述更改而输出命令,所述路径对应于避免与所述一个或多个物体发生碰撞。
22.一种用于实现移动平台的自主导航的方法,所述方法包括:
从通信地耦合至至少一个处理装置的电子装置接收对应于用户的第一位置的第一组坐标;
基于检测所述移动平台的环境中的至少一个标记来确定所述移动平台的不同的第二位置,所述至少一个标记能被配置成在被所述移动平台检测到之际传达信息,对所述至少一个标记的检测对应于所述移动平台在所述环境中的初始位置,所述移动平台对应于轮椅;
将所述移动平台从所述第二位置导航到所述第一位置;
从所述用户接收不同的第二组坐标;以及
将其中有所述用户的所述移动平台操纵到从所述用户接收的所述第二组坐标,其中在将所述移动平台从所述第二位置导航到所述第一位置之后或者所述电子装置在将所述移动平台从所述第二位置导航到所述第一位置前传送所述第二组坐标之后,由所述移动平台接收不同的第二组坐标。
23.根据权利要求22所述的方法,其进一步包括:
将一个或多个命令提供到所述移动平台上的一个或多个致动器,所述一个或多个命令能配置成实现所述移动平台的所述导航。
24.根据权利要求23所述的方法,其进一步包括:
从一个或多个传感器接收数据,所述数据能配置成使得能够确定在所述用户的所述第一位置处的到达时间。
25.根据权利要求24所述的方法,其中所述数据的所述接收包括识别所述移动平台的环境内的至少一个标记,所述标记在所述移动平台的外部。
26.根据权利要求22所述的方法,其进一步包括:
将所述第二组坐标发布给所述用户;且
所述用户的所述第二组坐标的接收包括扫描所发布的第二组坐标。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762456254P | 2017-02-08 | 2017-02-08 | |
US62/456,254 | 2017-02-08 | ||
US15/891,202 | 2018-02-07 | ||
US15/891,202 US10852730B2 (en) | 2017-02-08 | 2018-02-07 | Systems and methods for robotic mobile platforms |
PCT/US2018/017403 WO2018148396A1 (en) | 2017-02-08 | 2018-02-08 | Systems and methods for robotic mobile platforms |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110476134A CN110476134A (zh) | 2019-11-19 |
CN110476134B true CN110476134B (zh) | 2023-06-06 |
Family
ID=63037611
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880021717.0A Active CN110476134B (zh) | 2017-02-08 | 2018-02-08 | 用于机器人移动平台的系统和方法 |
Country Status (8)
Country | Link |
---|---|
US (1) | US10852730B2 (zh) |
EP (1) | EP3580626B1 (zh) |
JP (1) | JP2020509476A (zh) |
KR (1) | KR20190118175A (zh) |
CN (1) | CN110476134B (zh) |
SA (1) | SA519402461B1 (zh) |
SG (1) | SG11201907368SA (zh) |
WO (1) | WO2018148396A1 (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180164106A1 (en) * | 2016-12-13 | 2018-06-14 | Lenovo (Singapore) Pte. Ltd. | Systems and methods for identification of location for rendezvous of vehicle with person for pickup |
US10852730B2 (en) * | 2017-02-08 | 2020-12-01 | Brain Corporation | Systems and methods for robotic mobile platforms |
US20180256422A1 (en) * | 2017-03-10 | 2018-09-13 | Jesse Leaman | Intelligent power wheelchair and related methods |
CN109936819B (zh) * | 2017-12-15 | 2021-04-30 | 北京嘀嘀无限科技发展有限公司 | 上车点推荐方法、装置及设备 |
US10751232B1 (en) * | 2018-05-18 | 2020-08-25 | Erwin Ilao | Mobile application-controlled undercarriage |
US11198218B1 (en) * | 2018-06-27 | 2021-12-14 | Nick Gorkavyi | Mobile robotic system and method |
CN112236116B (zh) * | 2018-07-13 | 2023-07-07 | Whill株式会社 | 电动移动车 |
US10675205B1 (en) * | 2018-11-20 | 2020-06-09 | Toyota Mobility Foundation | Transportation support for a user having chronic or acute mobility needs |
US11730645B1 (en) * | 2019-04-26 | 2023-08-22 | Patroness, LLC | Systems and methods to upgrade a motorized mobile chair to a smart motorized mobile chair |
US11793695B2 (en) * | 2019-06-25 | 2023-10-24 | University Of Washington | Multifunction toilet wheelchair |
IT201900016730A1 (it) * | 2019-09-19 | 2021-03-19 | Moschini Spa | Dispositivo per la movimentazione autonoma di apparati a rotelle e relativi sistema e metodo |
IT202000000025A1 (it) * | 2020-01-02 | 2021-07-02 | Alba Robot Srl | Dispositivo per la movimentazione autonoma di apparati a rotelle e relativo metodo di installazione |
CN111857127B (zh) * | 2020-06-12 | 2021-10-01 | 珠海市一微半导体有限公司 | 一种机器人沿边行走的清洁分区规划方法、芯片及机器人 |
CN111907215A (zh) * | 2020-08-06 | 2020-11-10 | 王金星 | 基于移动物联网环保作业系统 |
GB2598596B (en) * | 2020-09-03 | 2022-08-24 | Theia Guidance Systems Ltd | Mobility assistance device and method of providing mobility assistance |
EP3967285A1 (fr) * | 2020-09-14 | 2022-03-16 | Tridon de Rey, Hubert | Appareillage mobile pour handicapes moteurs et systeme de guidage impliquant un tel appareillage |
CN113955136B (zh) * | 2021-09-02 | 2024-04-05 | 浙江图盛输变电工程有限公司温州科技分公司 | 一种电网自动巡检无人机目标挂点校准中转站 |
IT202200006230A1 (it) * | 2022-03-30 | 2023-09-30 | Alba Robot S R L | Procedimento per localizzare un veicolo, e relativo sistema |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003139555A (ja) * | 2001-11-01 | 2003-05-14 | Nissan Motor Co Ltd | ナビゲーションシステム、データサーバ、経路設定方法及びデータサーバの情報提供方法 |
Family Cites Families (224)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5280179A (en) | 1979-04-30 | 1994-01-18 | Sensor Adaptive Machines Incorporated | Method and apparatus utilizing an orientation code for automatically guiding a robot |
US4638445A (en) | 1984-06-08 | 1987-01-20 | Mattaboni Paul J | Autonomous mobile robot |
US5121497A (en) | 1986-03-10 | 1992-06-09 | International Business Machines Corporation | Automatic generation of executable computer code which commands another program to perform a task and operator modification of the generated executable computer code |
US4763276A (en) | 1986-03-21 | 1988-08-09 | Actel Partnership | Methods for refining original robot command signals |
US4852018A (en) | 1987-01-07 | 1989-07-25 | Trustees Of Boston University | Massively parellel real-time network architectures for robots capable of self-calibrating their operating parameters through associative learning |
US5155684A (en) | 1988-10-25 | 1992-10-13 | Tennant Company | Guiding an unmanned vehicle by reference to overhead features |
FR2648071B1 (fr) | 1989-06-07 | 1995-05-19 | Onet | Procede et appareil autonomes de nettoyage automatique de sol par execution de missions programmees |
WO1991006050A1 (en) | 1989-10-17 | 1991-05-02 | Applied Biosystems, Inc. | Robotic interface |
US5646843A (en) | 1990-02-05 | 1997-07-08 | Caterpillar Inc. | Apparatus and method for surface based vehicle control system |
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US5673367A (en) | 1992-10-01 | 1997-09-30 | Buckley; Theresa M. | Method for neural network control of motion using real-time environmental feedback |
CA2081519C (en) | 1992-10-27 | 2000-09-05 | The University Of Toronto | Parametric control device |
KR0161031B1 (ko) | 1993-09-09 | 1998-12-15 | 김광호 | 로보트의 위치오차보정장치 |
US5602761A (en) | 1993-12-30 | 1997-02-11 | Caterpillar Inc. | Machine performance monitoring and fault classification using an exponentially weighted moving average scheme |
CN1067001C (zh) | 1995-09-11 | 2001-06-13 | 株式会社安川电机 | 机器人控制方法 |
US6581048B1 (en) | 1996-06-04 | 2003-06-17 | Paul J. Werbos | 3-brain architecture for an intelligent decision and control system |
US6366293B1 (en) | 1998-09-29 | 2002-04-02 | Rockwell Software Inc. | Method and apparatus for manipulating and displaying graphical objects in a computer display device |
US6243622B1 (en) | 1998-10-16 | 2001-06-05 | Xerox Corporation | Touchable user interface using self movable robotic modules |
EP1037134A2 (en) | 1999-03-16 | 2000-09-20 | Matsushita Electric Industrial Co., Ltd. | Virtual space control data receiving apparatus and method |
US6124694A (en) | 1999-03-18 | 2000-09-26 | Bancroft; Allen J. | Wide area navigation for a robot scrubber |
KR20010053322A (ko) | 1999-04-30 | 2001-06-25 | 이데이 노부유끼 | 전자 페트 시스템, 네트워크 시스템, 로봇, 및 기억 매체 |
JP3537362B2 (ja) | 1999-10-12 | 2004-06-14 | ファナック株式会社 | ロボットシステム用グラフィック表示装置 |
EP1297691A2 (en) | 2000-03-07 | 2003-04-02 | Sarnoff Corporation | Camera pose estimation |
KR20020008848A (ko) | 2000-03-31 | 2002-01-31 | 이데이 노부유끼 | 로봇 장치, 로봇 장치의 행동 제어 방법, 외력 검출 장치및 외력 검출 방법 |
US8543519B2 (en) | 2000-08-07 | 2013-09-24 | Health Discovery Corporation | System and method for remote melanoma screening |
JP4765155B2 (ja) | 2000-09-28 | 2011-09-07 | ソニー株式会社 | オーサリング・システム及びオーサリング方法、並びに記憶媒体 |
US6678413B1 (en) | 2000-11-24 | 2004-01-13 | Yiqing Liang | System and method for object identification and behavior characterization using video analysis |
JP2002197437A (ja) | 2000-12-27 | 2002-07-12 | Sony Corp | 歩行検出システム、歩行検出装置、デバイス、歩行検出方法 |
US6442451B1 (en) | 2000-12-28 | 2002-08-27 | Robotic Workspace Technologies, Inc. | Versatile robot control system |
JP2002239960A (ja) | 2001-02-21 | 2002-08-28 | Sony Corp | ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置 |
US20020175894A1 (en) | 2001-03-06 | 2002-11-28 | Vince Grillo | Hand-supported mouse for computer input |
US6917925B2 (en) | 2001-03-30 | 2005-07-12 | Intelligent Inference Systems Corporation | Convergent actor critic-based fuzzy reinforcement learning apparatus and method |
JP2002301674A (ja) | 2001-04-03 | 2002-10-15 | Sony Corp | 脚式移動ロボット及びその運動教示方法、並びに記憶媒体 |
DE60118317T2 (de) | 2001-04-30 | 2006-12-14 | Sony France S.A. | Autonom Roboter |
US6584375B2 (en) | 2001-05-04 | 2003-06-24 | Intellibot, Llc | System for a retail environment |
US6636781B1 (en) | 2001-05-22 | 2003-10-21 | University Of Southern California | Distributed control and coordination of autonomous agents in a dynamic, reconfigurable system |
JP3760186B2 (ja) | 2001-06-07 | 2006-03-29 | 独立行政法人科学技術振興機構 | 二脚歩行式移動装置及びその歩行制御装置並びに歩行制御方法 |
JP4188607B2 (ja) | 2001-06-27 | 2008-11-26 | 本田技研工業株式会社 | 二足歩行移動体の床反力推定方法及び二足歩行移動体の関節モーメント推定方法 |
WO2003007129A2 (en) | 2001-07-13 | 2003-01-23 | Broks Automation, Inc. | Trajectory planning and motion control strategies for a planar three-degree-of-freedom robotic arm |
JP3931598B2 (ja) * | 2001-07-18 | 2007-06-20 | スズキ株式会社 | 自走式電動車椅子の貸し出しシステム |
US6710346B2 (en) | 2001-08-02 | 2004-03-23 | International Business Machines Corporation | Active infrared presence sensor |
US7457698B2 (en) | 2001-08-31 | 2008-11-25 | The Board Of Regents Of The University And Community College System On Behalf Of The University Of Nevada, Reno | Coordinated joint motion control system |
US6812846B2 (en) | 2001-09-28 | 2004-11-02 | Koninklijke Philips Electronics N.V. | Spill detector based on machine-imaging |
US7243334B1 (en) | 2002-01-16 | 2007-07-10 | Prelude Systems, Inc. | System and method for generating user interface code |
JP3790816B2 (ja) | 2002-02-12 | 2006-06-28 | 国立大学法人 東京大学 | 人型リンク系の運動生成方法 |
US8010180B2 (en) | 2002-03-06 | 2011-08-30 | Mako Surgical Corp. | Haptic guidance system and method |
WO2004003680A2 (en) | 2002-04-22 | 2004-01-08 | Neal Solomon | System, method and apparatus for automated collective mobile robotic vehicles used in remote sensing surveillance |
US7505604B2 (en) | 2002-05-20 | 2009-03-17 | Simmonds Precision Prodcuts, Inc. | Method for detection and recognition of fog presence within an aircraft compartment using video images |
US20080300777A1 (en) * | 2002-07-02 | 2008-12-04 | Linda Fehr | Computer-controlled power wheelchair navigation system |
US6842692B2 (en) * | 2002-07-02 | 2005-01-11 | The United States Of America As Represented By The Department Of Veterans Affairs | Computer-controlled power wheelchair navigation system |
US7834754B2 (en) | 2002-07-19 | 2010-11-16 | Ut-Battelle, Llc | Method and system for monitoring environmental conditions |
US6904335B2 (en) | 2002-08-21 | 2005-06-07 | Neal Solomon | System, method and apparatus for organizing groups of self-configurable mobile robotic agents in a multi-robotic system |
AU2003900861A0 (en) | 2003-02-26 | 2003-03-13 | Silverbrook Research Pty Ltd | Methods,systems and apparatus (NPS042) |
JP3950805B2 (ja) | 2003-02-27 | 2007-08-01 | ファナック株式会社 | 教示位置修正装置 |
US7313279B2 (en) | 2003-07-08 | 2007-12-25 | Computer Associates Think, Inc. | Hierarchical determination of feature relevancy |
SE0301531L (sv) | 2003-05-22 | 2004-11-23 | Abb Ab | A Control method for a robot |
US7212651B2 (en) | 2003-06-17 | 2007-05-01 | Mitsubishi Electric Research Laboratories, Inc. | Detecting pedestrians using patterns of motion and appearance in videos |
US7769487B2 (en) | 2003-07-24 | 2010-08-03 | Northeastern University | Process and architecture of robotic system to mimic animal behavior in the natural environment |
WO2005028166A1 (ja) | 2003-09-22 | 2005-03-31 | Matsushita Electric Industrial Co., Ltd. | 弾性体アクチュエータの制御装置及び制御方法 |
US7342589B2 (en) | 2003-09-25 | 2008-03-11 | Rockwell Automation Technologies, Inc. | System and method for managing graphical data |
JP4592276B2 (ja) | 2003-10-24 | 2010-12-01 | ソニー株式会社 | ロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラム |
WO2005081082A1 (ja) | 2004-02-25 | 2005-09-01 | The Ritsumeikan Trust | 浮遊移動体の制御システム |
JP4661074B2 (ja) | 2004-04-07 | 2011-03-30 | ソニー株式会社 | 情報処理システム、情報処理方法、並びにロボット装置 |
EP1622072B1 (en) | 2004-07-27 | 2010-07-07 | Sony France S.A. | An automated action-selection system and method and application thereof for training prediction machines and for driving the development of self-developing devices |
SE0402672D0 (sv) | 2004-11-02 | 2004-11-02 | Viktor Kaznov | Ball robot |
JP2006226962A (ja) * | 2005-02-21 | 2006-08-31 | Saxa Inc | 車両の行き先指示システム及びそのセンタ装置 |
US8930023B2 (en) * | 2009-11-06 | 2015-01-06 | Irobot Corporation | Localization by learning of wave-signal distributions |
US7211979B2 (en) | 2005-04-13 | 2007-05-01 | The Broad Of Trustees Of The Leland Stanford Junior University | Torque-position transformer for task control of position controlled robots |
US7765029B2 (en) * | 2005-09-13 | 2010-07-27 | Neurosciences Research Foundation, Inc. | Hybrid control device |
JP4876511B2 (ja) | 2005-09-29 | 2012-02-15 | 株式会社日立製作所 | ロジック抽出支援装置 |
EP1941411B1 (en) | 2005-09-30 | 2011-09-14 | iRobot Corporation | Companion robot for personal interaction |
US7668605B2 (en) | 2005-10-26 | 2010-02-23 | Rockwell Automation Technologies, Inc. | Wireless industrial control user interface |
US7912633B1 (en) * | 2005-12-01 | 2011-03-22 | Adept Mobilerobots Llc | Mobile autonomous updating of GIS maps |
ES2378138T3 (es) * | 2005-12-02 | 2012-04-09 | Irobot Corporation | Movilidad de robot de cubrimiento |
US7741802B2 (en) | 2005-12-20 | 2010-06-22 | Intuitive Surgical Operations, Inc. | Medical robotic system with programmably controlled constraints on error dynamics |
US8239083B2 (en) * | 2006-01-18 | 2012-08-07 | I-Guide Robotics, Inc. | Robotic vehicle controller |
US8224018B2 (en) | 2006-01-23 | 2012-07-17 | Digimarc Corporation | Sensing data from physical objects |
US7576639B2 (en) | 2006-03-14 | 2009-08-18 | Mobileye Technologies, Ltd. | Systems and methods for detecting pedestrians in the vicinity of a powered industrial vehicle |
US8924021B2 (en) | 2006-04-27 | 2014-12-30 | Honda Motor Co., Ltd. | Control of robots from human motion descriptors |
JP4320363B2 (ja) | 2006-05-25 | 2009-08-26 | 豪洋 石崎 | 作業ロボット |
KR100791382B1 (ko) | 2006-06-01 | 2008-01-07 | 삼성전자주식회사 | 로봇의 이동 경로에 따라 소정 영역의 특성에 관한 정보를수집하고 분류하는 방법 및 상기 영역 특성에 따라제어되는 로봇, 상기 영역 특성을 이용한 ui 구성 방법및 장치 |
US20100026555A1 (en) | 2006-06-09 | 2010-02-04 | Whittaker William L | Obstacle detection arrangements in and for autonomous vehicles |
US8843244B2 (en) | 2006-10-06 | 2014-09-23 | Irobot Corporation | Autonomous behaviors for a remove vehicle |
JP4699426B2 (ja) | 2006-08-08 | 2011-06-08 | パナソニック株式会社 | 障害物回避方法と障害物回避移動装置 |
US8174568B2 (en) | 2006-12-01 | 2012-05-08 | Sri International | Unified framework for precise vision-aided navigation |
JP4267027B2 (ja) | 2006-12-07 | 2009-05-27 | ファナック株式会社 | ロボット制御装置 |
EP2479627A3 (en) | 2007-03-29 | 2013-03-06 | iRobot Corporation | Robot operator control unit configuration system and method |
US20080274683A1 (en) | 2007-05-04 | 2008-11-06 | Current Energy Controls, Lp | Autonomous Ventilation System |
US8255092B2 (en) * | 2007-05-14 | 2012-08-28 | Irobot Corporation | Autonomous behaviors for a remote vehicle |
JP5213023B2 (ja) | 2008-01-15 | 2013-06-19 | 本田技研工業株式会社 | ロボット |
JP4445038B2 (ja) | 2008-02-06 | 2010-04-07 | パナソニック株式会社 | ロボット、ロボットの制御装置及び制御方法、並びに、ロボットの制御装置の制御プログラム |
JP5181704B2 (ja) | 2008-02-07 | 2013-04-10 | 日本電気株式会社 | データ処理装置、姿勢推定システム、姿勢推定方法およびプログラム |
US8175992B2 (en) | 2008-03-17 | 2012-05-08 | Intelliscience Corporation | Methods and systems for compound feature creation, processing, and identification in conjunction with a data analysis and feature recognition system wherein hit weights are summed |
KR101358477B1 (ko) | 2008-04-02 | 2014-02-05 | 아이로보트 코퍼레이션 | 로보틱스 시스템 |
JP4715863B2 (ja) | 2008-05-01 | 2011-07-06 | ソニー株式会社 | アクチュエータ制御装置及びアクチュエータ制御方法、アクチュエータ、ロボット装置、並びにコンピュータ・プログラム |
JP5215740B2 (ja) | 2008-06-09 | 2013-06-19 | 株式会社日立製作所 | 移動ロボットシステム |
WO2010027968A2 (en) | 2008-09-04 | 2010-03-11 | Iwalk, Inc. | Hybrid terrain-adaptive lower-extremity systems |
CA2775675C (en) | 2008-10-29 | 2019-04-16 | The Regents Of The University Of Colorado | Long term active learning from large continually changing data sets |
US20100114372A1 (en) | 2008-10-30 | 2010-05-06 | Intellibot Robotics Llc | Method of cleaning a surface using an automatic cleaning device |
JP5242342B2 (ja) | 2008-10-31 | 2013-07-24 | 株式会社東芝 | ロボット制御装置 |
US8428781B2 (en) | 2008-11-17 | 2013-04-23 | Energid Technologies, Inc. | Systems and methods of coordination control for robot manipulation |
EP2209018A1 (en) | 2009-01-15 | 2010-07-21 | Nederlandse Organisatie voor toegepast-natuurwetenschappelijk Onderzoek TNO | A method for estimating an object motion characteristic from a radar signal, a computer system and a computer program product |
US8120301B2 (en) | 2009-03-09 | 2012-02-21 | Intuitive Surgical Operations, Inc. | Ergonomic surgeon control console in robotic surgical systems |
US8423182B2 (en) | 2009-03-09 | 2013-04-16 | Intuitive Surgical Operations, Inc. | Adaptable integrated energy control system for electrosurgical tools in robotic surgical systems |
US8364314B2 (en) | 2009-04-30 | 2013-01-29 | GM Global Technology Operations LLC | Method and apparatus for automatic control of a humanoid robot |
US8694449B2 (en) | 2009-05-29 | 2014-04-08 | Board Of Trustees Of Michigan State University | Neuromorphic spatiotemporal where-what machines |
JP4676544B2 (ja) | 2009-05-29 | 2011-04-27 | ファナック株式会社 | 工作機械に対してワークの供給及び取り出しを行うロボットを制御するロボット制御装置 |
US8774970B2 (en) | 2009-06-11 | 2014-07-08 | S.C. Johnson & Son, Inc. | Trainable multi-mode floor cleaning device |
US8706297B2 (en) | 2009-06-18 | 2014-04-22 | Michael Todd Letsky | Method for establishing a desired area of confinement for an autonomous robot and autonomous robot implementing a control system for executing the same |
JP4768086B2 (ja) | 2009-07-02 | 2011-09-07 | パナソニック株式会社 | ロボット、ロボットアームの制御装置、及びロボットアームの制御プログラム |
EP2284769B1 (en) | 2009-07-16 | 2013-01-02 | European Space Agency | Method and apparatus for analyzing time series data |
US20110026770A1 (en) | 2009-07-31 | 2011-02-03 | Jonathan David Brookshire | Person Following Using Histograms of Oriented Gradients |
US8250901B2 (en) | 2009-09-22 | 2012-08-28 | GM Global Technology Operations LLC | System and method for calibrating a rotary absolute position sensor |
TW201113815A (en) | 2009-10-09 | 2011-04-16 | Primax Electronics Ltd | QR code processing method and apparatus thereof |
US8679260B2 (en) | 2009-11-11 | 2014-03-25 | Intellibot Robotics Llc | Methods and systems for movement of an automatic cleaning device using video signal |
US8423225B2 (en) | 2009-11-11 | 2013-04-16 | Intellibot Robotics Llc | Methods and systems for movement of robotic device using video signal |
US8521328B2 (en) | 2009-12-10 | 2013-08-27 | The Boeing Company | Control system for robotic vehicles |
TW201123031A (en) | 2009-12-24 | 2011-07-01 | Univ Nat Taiwan Science Tech | Robot and method for recognizing human faces and gestures thereof |
JP5506618B2 (ja) | 2009-12-28 | 2014-05-28 | 本田技研工業株式会社 | ロボットの制御装置 |
JP5506617B2 (ja) | 2009-12-28 | 2014-05-28 | 本田技研工業株式会社 | ロボットの制御装置 |
US8668638B2 (en) | 2010-02-11 | 2014-03-11 | Intuitive Surgical Operations, Inc. | Method and system for automatically maintaining an operator selected roll orientation at a distal tip of a robotic endoscope |
KR101169674B1 (ko) | 2010-03-11 | 2012-08-06 | 한국과학기술연구원 | 원격현전 로봇, 이를 포함하는 원격현전 시스템 및 이의 제어 방법 |
US8660355B2 (en) | 2010-03-19 | 2014-02-25 | Digimarc Corporation | Methods and systems for determining image processing operations relevant to particular imagery |
US9405975B2 (en) | 2010-03-26 | 2016-08-02 | Brain Corporation | Apparatus and methods for pulse-code invariant object recognition |
US9311593B2 (en) | 2010-03-26 | 2016-04-12 | Brain Corporation | Apparatus and methods for polychronous encoding and multiplexing in neuronal prosthetic devices |
US9122994B2 (en) | 2010-03-26 | 2015-09-01 | Brain Corporation | Apparatus and methods for temporally proximate object recognition |
US8336420B2 (en) | 2010-06-02 | 2012-12-25 | Disney Enterprises, Inc. | Three-axis robotic joint using four-bar linkages to drive differential side gears |
FR2963132A1 (fr) | 2010-07-23 | 2012-01-27 | Aldebaran Robotics | Robot humanoide dote d'une interface de dialogue naturel, methode d'utilisation et de programmation de ladite interface |
US20120045068A1 (en) | 2010-08-20 | 2012-02-23 | Korea Institute Of Science And Technology | Self-fault detection system and method for microphone array and audio-based device |
US8594971B2 (en) | 2010-09-22 | 2013-11-26 | Invensense, Inc. | Deduced reckoning navigation without a constraint relationship between orientation of a sensor platform and a direction of travel of an object |
EP2619724A2 (en) | 2010-09-23 | 2013-07-31 | Stryker Corporation | Video monitoring system |
KR20120035519A (ko) | 2010-10-05 | 2012-04-16 | 삼성전자주식회사 | 먼지 유입 감지 유닛 및 이를 구비하는 로봇 청소기 |
US20120143495A1 (en) | 2010-10-14 | 2012-06-07 | The University Of North Texas | Methods and systems for indoor navigation |
US9015093B1 (en) | 2010-10-26 | 2015-04-21 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
US8726095B2 (en) | 2010-12-02 | 2014-05-13 | Dell Products L.P. | System and method for proactive management of an information handling system with in-situ measurement of end user actions |
JP5185358B2 (ja) | 2010-12-13 | 2013-04-17 | 株式会社東芝 | 行動履歴検索装置 |
JP5074640B2 (ja) | 2010-12-17 | 2012-11-14 | パナソニック株式会社 | 弾性体アクチュエータ駆動機構の制御装置及び制御方法、並びに、制御プログラム |
US9323250B2 (en) * | 2011-01-28 | 2016-04-26 | Intouch Technologies, Inc. | Time-dependent navigation of telepresence robots |
US8380652B1 (en) | 2011-05-06 | 2013-02-19 | Google Inc. | Methods and systems for autonomous robotic decision making |
US8639644B1 (en) | 2011-05-06 | 2014-01-28 | Google Inc. | Shared robot knowledge base for use with cloud computing system |
US9566710B2 (en) | 2011-06-02 | 2017-02-14 | Brain Corporation | Apparatus and methods for operating robotic devices using selective state space training |
US9189891B2 (en) | 2011-08-16 | 2015-11-17 | Google Inc. | Systems and methods for navigating a camera |
US9015092B2 (en) | 2012-06-04 | 2015-04-21 | Brain Corporation | Dynamically reconfigurable stochastic learning apparatus and methods |
US8798840B2 (en) | 2011-09-30 | 2014-08-05 | Irobot Corporation | Adaptive mapping with spatial summaries of sensor data |
US20130096719A1 (en) | 2011-10-13 | 2013-04-18 | The U.S.A. As Represented By The Administrator Of The National Aeronautics And Space Administration | Method for dynamic optimization of a robot control interface |
JP6305673B2 (ja) | 2011-11-07 | 2018-04-04 | セイコーエプソン株式会社 | ロボット制御システム、ロボットシステム及びロボット |
JP5399593B2 (ja) | 2011-11-10 | 2014-01-29 | パナソニック株式会社 | ロボット、ロボットの制御装置、制御方法、及び制御プログラム |
KR101305819B1 (ko) | 2012-01-04 | 2013-09-06 | 현대자동차주식회사 | 착용식 로봇의 사용자 조작 의도 토크 추출방법 |
US8958911B2 (en) | 2012-02-29 | 2015-02-17 | Irobot Corporation | Mobile robot |
JP5895628B2 (ja) | 2012-03-15 | 2016-03-30 | 株式会社ジェイテクト | ロボットの制御方法及びロボット制御装置、並びにロボット制御システム |
US9221177B2 (en) | 2012-04-18 | 2015-12-29 | Massachusetts Institute Of Technology | Neuromuscular model-based sensing and control paradigm for a robotic leg |
US9031779B2 (en) | 2012-05-30 | 2015-05-12 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for hazard detection and sharing |
US9208432B2 (en) | 2012-06-01 | 2015-12-08 | Brain Corporation | Neural network learning and collaboration apparatus and methods |
WO2013188597A2 (en) | 2012-06-12 | 2013-12-19 | Amrit Bandyopadhyay | Irregular feature mapping |
US9434072B2 (en) | 2012-06-21 | 2016-09-06 | Rethink Robotics, Inc. | Vision-guided robots and methods of training them |
US20130346347A1 (en) | 2012-06-22 | 2013-12-26 | Google Inc. | Method to Predict a Communicative Action that is Most Likely to be Executed Given a Context |
JP5645885B2 (ja) | 2012-06-29 | 2014-12-24 | 京セラドキュメントソリューションズ株式会社 | 画像形成装置 |
US9205828B1 (en) * | 2012-06-29 | 2015-12-08 | Google Inc. | Method and apparatus for determining vehicle location based on motor feedback |
WO2014006234A1 (es) | 2012-07-04 | 2014-01-09 | Repsol, S.A. | Sistema integrado de detección temprana de hidrocarburos en un medio acuoso |
US8977582B2 (en) | 2012-07-12 | 2015-03-10 | Brain Corporation | Spiking neuron network sensory processing apparatus and methods |
JP5891306B2 (ja) * | 2012-08-07 | 2016-03-22 | 株式会社日立製作所 | 自律走行装置の利用支援ツール、運用管理センタ、運用システム及び自律走行装置 |
US20150350614A1 (en) * | 2012-08-31 | 2015-12-03 | Brain Corporation | Apparatus and methods for tracking using aerial video |
US8793205B1 (en) | 2012-09-20 | 2014-07-29 | Brain Corporation | Robotic learning and evolution apparatus |
US9367798B2 (en) | 2012-09-20 | 2016-06-14 | Brain Corporation | Spiking neuron network adaptive control apparatus and methods |
DE102012109004A1 (de) | 2012-09-24 | 2014-03-27 | RobArt GmbH | Roboter und Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen |
US8972061B2 (en) | 2012-11-02 | 2015-03-03 | Irobot Corporation | Autonomous coverage robot |
US9020637B2 (en) | 2012-11-02 | 2015-04-28 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
EP2928649A4 (en) | 2012-12-06 | 2016-08-10 | Int Electronic Machines Corp | HUMAN REINFORCEMENT OF A ROBOTIC WORK |
US20140187519A1 (en) | 2012-12-27 | 2014-07-03 | The Board Of Trustees Of The Leland Stanford Junior University | Biomarkers for predicting major adverse events |
EP2752726B1 (de) | 2013-01-08 | 2015-05-27 | Cleanfix Reinigungssysteme AG | Bodenbehandlungsmaschine und Verfahren zum Behandeln von Bodenflächen |
WO2014113091A1 (en) | 2013-01-18 | 2014-07-24 | Irobot Corporation | Environmental management systems including mobile robots and methods using same |
JP6132659B2 (ja) | 2013-02-27 | 2017-05-24 | シャープ株式会社 | 周囲環境認識装置、それを用いた自律移動システムおよび周囲環境認識方法 |
US8958937B2 (en) | 2013-03-12 | 2015-02-17 | Intellibot Robotics Llc | Cleaning machine with collision prevention |
KR102218243B1 (ko) | 2013-03-15 | 2021-02-22 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 소프트웨어 구성가능한 매니퓰레이터 자유도 |
US9764468B2 (en) | 2013-03-15 | 2017-09-19 | Brain Corporation | Adaptive predictor apparatus and methods |
US9008840B1 (en) | 2013-04-19 | 2015-04-14 | Brain Corporation | Apparatus and methods for reinforcement-guided supervised learning |
US9292015B2 (en) | 2013-05-23 | 2016-03-22 | Fluor Technologies Corporation | Universal construction robotics interface |
US20140358828A1 (en) | 2013-05-29 | 2014-12-04 | Purepredictive, Inc. | Machine learning generated action plan |
US9242372B2 (en) | 2013-05-31 | 2016-01-26 | Brain Corporation | Adaptive robotic interface apparatus and methods |
WO2014196925A1 (en) | 2013-06-03 | 2014-12-11 | Ctrlworks Pte. Ltd. | Method and apparatus for offboard navigation of a robotic device |
US9792546B2 (en) | 2013-06-14 | 2017-10-17 | Brain Corporation | Hierarchical robotic controller apparatus and methods |
US9384443B2 (en) | 2013-06-14 | 2016-07-05 | Brain Corporation | Robotic training apparatus and methods |
US20150032258A1 (en) | 2013-07-29 | 2015-01-29 | Brain Corporation | Apparatus and methods for controlling of robotic devices |
JP6227948B2 (ja) | 2013-09-18 | 2017-11-08 | 村田機械株式会社 | 自律走行式床洗浄機、清掃スケジュールのデータ構造、記憶媒体、清掃スケジュールの生成方法、及びプログラム |
SG2013071808A (en) | 2013-09-24 | 2015-04-29 | Ctrlworks Pte Ltd | Offboard navigation apparatus capable of being coupled to a movable platform |
US9579789B2 (en) | 2013-09-27 | 2017-02-28 | Brain Corporation | Apparatus and methods for training of robotic control arbitration |
US9296101B2 (en) | 2013-09-27 | 2016-03-29 | Brain Corporation | Robotic control arbitration apparatus and methods |
US9315192B1 (en) | 2013-09-30 | 2016-04-19 | Google Inc. | Methods and systems for pedestrian avoidance using LIDAR |
US9144907B2 (en) | 2013-10-24 | 2015-09-29 | Harris Corporation | Control synchronization for high-latency teleoperation |
GB2521415B (en) * | 2013-12-19 | 2020-03-04 | Here Global Bv | An apparatus, method and computer program for controlling a vehicle |
US10612939B2 (en) | 2014-01-02 | 2020-04-07 | Microsoft Technology Licensing, Llc | Ground truth estimation for autonomous navigation |
US10078712B2 (en) | 2014-01-14 | 2018-09-18 | Energid Technologies Corporation | Digital proxy simulation of robotic hardware |
US10067510B2 (en) | 2014-02-14 | 2018-09-04 | Accenture Global Services Limited | Unmanned vehicle (UV) movement and data control system |
DE102014002150B3 (de) * | 2014-02-15 | 2015-07-23 | Audi Ag | Verfahren zur Ermittlung der absoluten Position einer mobilen Einheit und mobile Einheit |
WO2015151862A1 (ja) * | 2014-04-01 | 2015-10-08 | みこらった株式会社 | 自動車及び自動車用プログラム |
US20150283703A1 (en) | 2014-04-03 | 2015-10-08 | Brain Corporation | Apparatus and methods for remotely controlling robotic devices |
US9346167B2 (en) | 2014-04-29 | 2016-05-24 | Brain Corporation | Trainable convolutional network apparatus and methods for operating a robotic vehicle |
US10255319B2 (en) | 2014-05-02 | 2019-04-09 | Google Llc | Searchable index |
US20150339589A1 (en) | 2014-05-21 | 2015-11-26 | Brain Corporation | Apparatus and methods for training robots utilizing gaze-based saliency maps |
US9436182B2 (en) * | 2014-05-23 | 2016-09-06 | Google Inc. | Autonomous vehicles |
JP6308052B2 (ja) * | 2014-07-01 | 2018-04-11 | 株式会社豊田自動織機 | 病院における患者搬送システム |
GB2528953A (en) | 2014-08-07 | 2016-02-10 | Nokia Technologies Oy | An apparatus, method, computer program and user device for enabling control of a vehicle |
US9314928B2 (en) * | 2014-08-21 | 2016-04-19 | Elwha Llc | Systems, devices, and methods including a wheelchair-assist robot |
US9314929B2 (en) * | 2014-08-21 | 2016-04-19 | Elwha Llc | Systems, devices, and methods including a wheelchair-assist robot |
US9475195B2 (en) | 2014-09-12 | 2016-10-25 | Toyota Jidosha Kabushiki Kaisha | Anticipatory robot navigation |
US20160121487A1 (en) | 2014-11-03 | 2016-05-05 | Qualcomm Incorporated | Communicating Configurable Instruction Sets to Robots for Controlling Robot Behavior |
US9420741B2 (en) * | 2014-12-15 | 2016-08-23 | Irobot Corporation | Robot lawnmower mapping |
US9541409B2 (en) * | 2014-12-18 | 2017-01-10 | Nissan North America, Inc. | Marker aided autonomous vehicle localization |
US9628477B2 (en) | 2014-12-23 | 2017-04-18 | Intel Corporation | User profile selection using contextual authentication |
US9448559B2 (en) * | 2015-01-15 | 2016-09-20 | Nissan North America, Inc. | Autonomous vehicle routing and navigation using passenger docking locations |
US20160231746A1 (en) * | 2015-02-06 | 2016-08-11 | Delphi Technologies, Inc. | System And Method To Operate An Automated Vehicle |
US9801517B2 (en) * | 2015-03-06 | 2017-10-31 | Wal-Mart Stores, Inc. | Shopping facility assistance object detection systems, devices and methods |
US10667664B2 (en) | 2015-04-24 | 2020-06-02 | Avidbots Corp. | Apparatus and methods for semi-autonomous cleaning of surfaces |
US9840003B2 (en) | 2015-06-24 | 2017-12-12 | Brain Corporation | Apparatus and methods for safe navigation of robotic devices |
US10867277B2 (en) * | 2015-07-08 | 2020-12-15 | Ebay Inc. | Public transport infrastructure facilitated drone delivery |
KR101637842B1 (ko) * | 2015-07-08 | 2016-07-07 | 현대자동차주식회사 | 주차장 내 자율주행 시스템 및 방법 |
US9934688B2 (en) * | 2015-07-31 | 2018-04-03 | Ford Global Technologies, Llc | Vehicle trajectory determination |
US9463794B1 (en) * | 2015-09-04 | 2016-10-11 | Google Inc. | Stop sign detection and response |
US9412280B1 (en) * | 2015-11-05 | 2016-08-09 | Daniel Ian Zwillinger | Cooperative system and method for precise autonomous delivery |
US20170139551A1 (en) | 2015-11-16 | 2017-05-18 | Bank Of America Corporation | System for determining user interfaces to display based on user location |
US10052246B2 (en) * | 2016-03-15 | 2018-08-21 | Denso International America, Inc. | Autonomous wheelchair |
US10241514B2 (en) | 2016-05-11 | 2019-03-26 | Brain Corporation | Systems and methods for initializing a robot to autonomously travel a trained route |
US20170329347A1 (en) | 2016-05-11 | 2017-11-16 | Brain Corporation | Systems and methods for training a robot to autonomously travel a route |
US10852730B2 (en) * | 2017-02-08 | 2020-12-01 | Brain Corporation | Systems and methods for robotic mobile platforms |
-
2018
- 2018-02-07 US US15/891,202 patent/US10852730B2/en active Active
- 2018-02-08 SG SG11201907368SA patent/SG11201907368SA/en unknown
- 2018-02-08 JP JP2019543045A patent/JP2020509476A/ja active Pending
- 2018-02-08 EP EP18706155.1A patent/EP3580626B1/en active Active
- 2018-02-08 WO PCT/US2018/017403 patent/WO2018148396A1/en unknown
- 2018-02-08 CN CN201880021717.0A patent/CN110476134B/zh active Active
- 2018-02-08 KR KR1020197026446A patent/KR20190118175A/ko unknown
-
2019
- 2019-08-18 SA SA519402461A patent/SA519402461B1/ar unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003139555A (ja) * | 2001-11-01 | 2003-05-14 | Nissan Motor Co Ltd | ナビゲーションシステム、データサーバ、経路設定方法及びデータサーバの情報提供方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3580626B1 (en) | 2021-01-06 |
US10852730B2 (en) | 2020-12-01 |
SA519402461B1 (ar) | 2022-03-23 |
KR20190118175A (ko) | 2019-10-17 |
CN110476134A (zh) | 2019-11-19 |
SG11201907368SA (en) | 2019-09-27 |
JP2020509476A (ja) | 2020-03-26 |
US20180224853A1 (en) | 2018-08-09 |
WO2018148396A1 (en) | 2018-08-16 |
EP3580626A1 (en) | 2019-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110476134B (zh) | 用于机器人移动平台的系统和方法 | |
US11468395B2 (en) | Modular delivery vehicle with access lockers | |
US10606275B2 (en) | System for accurate object detection with multiple sensors | |
US11376992B2 (en) | Automated vehicle seats | |
US11731261B2 (en) | Moving robot and operating method for the same | |
US20220221867A1 (en) | Determining drop-off or pick-up locations for passengers of vehicles | |
US11332160B2 (en) | On-demand predefined route automated driving vehicle | |
CN107850895A (zh) | 通过引导协助操作的自动驾驶车辆 | |
US20200156256A1 (en) | Mobile robot operation method and mobile robot | |
WO2020010047A1 (en) | Systems and methods for operating autonomous tug robots | |
KR20180040839A (ko) | 공항 로봇 및 그를 포함하는 공항 로봇 시스템 | |
US20240140492A1 (en) | Identifying a customer of an autonomous vehicle | |
JP7012241B2 (ja) | 映像表示システム及び映像表示方法 | |
US11440440B2 (en) | Modular autonomous-vehicle interior | |
JP2022030594A (ja) | 管理装置、管理システム、管理方法、およびプログラム | |
US20220155092A1 (en) | Method of navigating a visually impaired user, a navigation system for the same, and a guiding robot | |
CN115068230A (zh) | 一种电动轮椅控制方法、装置、设备及存储介质 | |
US20210178934A1 (en) | Autonomous Vehicle Having a Configurable Passenger Seat | |
JP7149568B2 (ja) | 移動体制御システム、移動体システム、移動体制御方法、及びプログラム | |
JP2021064241A (ja) | 物品搬送システム | |
US20190375093A1 (en) | Moving robot and operating method for the same | |
US20240118713A1 (en) | System and method for navigation support for a motorized mobile system | |
WO2023276399A1 (ja) | 電動モビリティ | |
WO2021085446A1 (ja) | 施設内におけるシステムおよび電動モビリティ | |
US20220035008A1 (en) | Multi-Channel Light Detection and Ranging (LIDAR) Unit Having a Telecentric Lens Assembly and Single Circuit Board For Emitters and Detectors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |