KR20190118175A - 로봇식 모바일 플랫폼을 위한 시스템 및 방법 - Google Patents

로봇식 모바일 플랫폼을 위한 시스템 및 방법 Download PDF

Info

Publication number
KR20190118175A
KR20190118175A KR1020197026446A KR20197026446A KR20190118175A KR 20190118175 A KR20190118175 A KR 20190118175A KR 1020197026446 A KR1020197026446 A KR 1020197026446A KR 20197026446 A KR20197026446 A KR 20197026446A KR 20190118175 A KR20190118175 A KR 20190118175A
Authority
KR
South Korea
Prior art keywords
mobile platform
robot
computer readable
coordinates
location
Prior art date
Application number
KR1020197026446A
Other languages
English (en)
Inventor
유진 이즈히케비치
Original Assignee
브레인 코퍼레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 브레인 코퍼레이션 filed Critical 브레인 코퍼레이션
Publication of KR20190118175A publication Critical patent/KR20190118175A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G5/00Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
    • A61G5/04Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs motor-driven
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/12Payment architectures specially adapted for electronic shopping systems
    • G06Q20/127Shopping or accessing services according to a time-limitation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/14Payment architectures specially adapted for billing systems
    • G06Q20/145Payments according to the detected use or quantity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/30Payment architectures, schemes or protocols characterised by the use of specific devices or networks
    • G06Q20/32Payment architectures, schemes or protocols characterised by the use of specific devices or networks using wireless devices
    • G06Q20/322Aspects of commerce using mobile devices [M-devices]
    • G06Q20/3224Transactions dependent on location of M-devices
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/0042Coin-freed apparatus for hiring articles; Coin-freed facilities or services for hiring of objects
    • G07F17/0057Coin-freed apparatus for hiring articles; Coin-freed facilities or services for hiring of objects for the hiring or rent of vehicles, e.g. cars, bicycles or wheelchairs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/10General characteristics of devices characterised by specific control means, e.g. for adjustment or steering
    • A61G2203/14Joysticks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/10General characteristics of devices characterised by specific control means, e.g. for adjustment or steering
    • A61G2203/18General characteristics of devices characterised by specific control means, e.g. for adjustment or steering by patient's head, eyes, facial muscles or voice
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/10General characteristics of devices characterised by specific control means, e.g. for adjustment or steering
    • A61G2203/22General characteristics of devices characterised by specific control means, e.g. for adjustment or steering for automatically guiding movable devices, e.g. stretchers or wheelchairs in a hospital
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/30General characteristics of devices characterised by sensor means

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Automation & Control Theory (AREA)
  • Accounting & Taxation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Development Economics (AREA)
  • Electromagnetism (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Motorcycle And Bicycle Frame (AREA)
  • Traffic Control Systems (AREA)

Abstract

로봇식 모바일 플랫폼을 위한 시스템 및 방법이 개시된다. 예시적인 일 구현예에서, 모바일 플랫폼의 자율 주행을 가능하게 하는 시스템이 개시된다. 상기 시스템은 컴퓨터 판독 가능 명령들이 저장된 메모리와, 상기 컴퓨터 판독 가능 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함할 수 있다. 상기 컴퓨터 판독 가능 명령들은, 상기 시스템으로 하여금, 사용자의 제1 위치에 대응하는 제1 세트의 좌표들을 수신하게 하고, 모바일 플랫폼을 위한 다른 제2 위치를 결정하게 하고, 모바일 플랫폼을 상기 제1 위치와 상기 제2 위치 사이에서 주행시키게 하고, 그리고 다른 제2 세트의 좌표들을 수신하게 한다. 방법, 장치, 및 컴퓨터 판독 가능 매체도 또한 개시된다.

Description

로봇식 모바일 플랫폼을 위한 시스템 및 방법
우선권
본 출원은 2017년 2월 8일자로 출원된 미국 가특허출원 일련번호 62/456,254호의 우선권의 이익을 주장하면서 이와 동일한 발명의 명칭으로 2018년 2월 7일자로 출원된 미국 특허출원 일련번호 15/891,202호의 우선권의 이익을 주장하며, 이는 그 내용 전체가 본원에 참고로 원용되어 포함된다.
저작권
본 특허 문서의 개시내용의 일부는 저작권 보호를 받는 자료를 포함한다. 저작권 소유자는 누구라도 본 특허 문서 또는 특허 개시내용을 특허 및 상표청의 특허 파일들 또는 기록들에 나타나 있는 대로 팩스 복제하는 것에 대해서는 이의를 제기하지 않지만, 그 이외에는 무엇이든지 간에 모든 저작권 권리를 보유한다.
기술분야
본 출원은 일반적으로 로봇 공학에 관련된 것으로, 보다 구체적으로는 로봇식 모바일 플랫폼을 위한 시스템 및 방법에 관련된 것이다.
현재, 모바일 플랫폼은 물품, 사람, 동물, 선박·항공 화물, 육상 화물 및/또는 물건을 한 위치에서 다른 위치로 수송하는 데 사용될 수 있다. 이러한 모바일 플랫폼은 자동차, 철도, 전기 및/또는 움직임을 일으키는 시스템을 사용하여 작동할 수 있다. 일부 경우에서, 모바일 플랫폼은 사람에 의해 움직이는 것(예를 들어, 휠체어, 자전거, 노로 젓는 배 등)과 같은 기계식 및/또는 수동식일 수 있다. 일반적으로, 이러한 모바일 플랫폼은 모바일 플랫폼을 조종, 운전 및/또는 이동시키기 위해서는 사용자의 조작이 필요하다.
휠체어는 모바일 플랫폼의 한 예입니다. 기존 휠체어는 다양한 형태로 판매되고 있다. 수동 휠체어는 대체로 탑승자 또는 다른 사람들에 의해 자체적으로 추진된다. 일부 경우에서, 휠체어는 배터리 및/또는 전기 모터의 추진력을 사용하여 동력을 공급받을 수 있다. 그러나, 일부 경우에서, 수동 조작이든 전동 휠체어를 사용하든지 간에 휠체어 탑승자에 의한 조작은 예를 들어 탑승자 측의 장애 및/또는 부상 및/또는 의지 부재로 인해 어려울 수 있다. 따라서 일부 경우에서는 다른 사람이 휠체어를 사용하는 사람을 도울 수 있다.
일반적으로, 모바일 플랫폼을 사용하는 데 있어서는 운송을 위해 모바일 플랫폼을 사용하는 바로 그 탑승자 이외의 조작자에 의한 사용이 필요할 수 있다. 그 결과, 모바일 플랫폼은 조작하는 데 있어서 시간과 노동 관점에서 비용이 많이 들 수 있다. 또한, 탑승자가 모바일 플랫폼을 제어할 수 있는 경우라 해도 그러한 제어는 부담이 될 수 있다. 따라서, 당업계에서는 모바일 플랫폼을 위한 개선된 시스템 및 방법을 필요로 하고 있다.
전술한 필요성은 특히 모바일 플랫폼을 위한 장치 및 방법을 제공하는 본 개시내용에 의해 충족된다. 일부 구현예들에서, 로봇식 모바일 플랫폼은 로봇식 휠체어를 포함할 수 있다. 로봇식 휠체어는 승객을 태워서 승객을 목적지까지 데려다주도록 구성될 수 있다.
본원에 설명된 예시적인 구현예들은 혁신적인 특징들을 가지며, 그 특징들 중 단일의 특징만이 그들의 바람직한 속성을 위해 필수불가결한 것이 아니거나 단독으로 그 속성들을 위해 역할을 하는 것이 아니다. 청구범위의 범위를 제한하지 않으면서, 유리한 특징들 중 일부가 이제 요약될 것이다.
한 양태에서, 로봇을 제작하는 방법이 개시된다. 예시적인 일 구현예에서, 상기 방법은 휠체어를 획득하는 단계; 하나 이상의 센서 및 하나 이상의 제어기를 포함하는 로봇식 모듈을 상기 휠체어에 부착하는 단계; 및 상기 휠체어의 자율 주행(autonomous navigation)을 가능하게 하기 위해 상기 로봇식 모듈에 자율 기능들을 탑재하는 단계를 포함한다.
한 변형례에서, 상기 방법은 휠체어에 제어기에 의해 적어도 부분적으로 작동되는 이동을 위한 액추에이터가 구비되어 있는지 여부를 결정하는 단계; 및 휠체어에 액추에이터 또는 제어기가 구비되어 있지 않는 경우 액추에이터 또는 제어기를 설치하는 단계를 추가로 포함한다.
다른 양태에서, 로봇식 모바일 플랫폼이 개시된다. 예시적인 일 구현예에서, 상기 로봇식 모바일 플랫폼은 승객이 앉도록 구성된 의자 구성요소; 환경에 관한 센서 데이터를 생성하도록 구성된 하나 이상의 센서; 당해 로봇식 모바일 플랫폼을 한 위치에서부터 다른 위치까지 이동시키도록 구성된 하나 이상의 액추에이터; 정보를 표시하고 수신하도록 구성된 사용자 인터페이스; 및 상기 하나 이상의 센서를 사용하여 시작 위치와 관련된 표지를 판독하고, 상기 의자 구성요소에서 승객을 수신하고, 상기 사용자 인터페이스를 통해 목적지를 수신하고, 상기 하나 이상의 액추에이터로 하여금 당해 로봇식 모바일 플랫폼을 표지에서부터 목적지까지 이동하게 하도록 구성된 프로세서를 포함한다.
한 변형례에서, 상기 로봇식 모바일 플랫폼은 표지의 위치의 적어도 일부를 나타내는 신호를 수신하도록 구성된 통신 유닛을 추가로 포함하고, 상기 하나 이상의 액추에이터는 당해 로봇식 모바일 플랫폼을 상기 신호에 적어도 부분적으로 기초하여 상기 표지로 이동시킨다. 다른 변형례에서, 상기 로봇식 모바일 플랫폼은 휠체어를 포함한다.
또 다른 변형례에서, 상기 프로세서는, 추가로, 센서 데이터에서 사람을 검출하도록 구성된다. 또 다른 변형례에서, 상기 프로세서는, 추가로, 사람 검출에 적어도 부분적으로 기초하여 로봇식 모바일 플랫폼의 움직임을 적응시키도록 구성된다.
또 다른 양태에서, 사람을 로봇식 휠체어로 이동시키는 방법이 개시된다. 예시적인 일 구현예에서, 상기 방법은 사람을 픽업하러 갈 위치로 가는 단계; 상기 사람을 휠체어 탑승자로서 수용하는 단계; 목적지에 대한 지시를 수신하는 단계; 및 목적지로 이동하는 단계를 포함한다.
한 변형례에서, 상기 방법은 픽업 위치의 일부를 나타내는 신호를 수신하는 단계를 포함한다. 다른 변형례에서, 상기 목적지에 대한 지시를 수신하는 단계는 목적지 선택을 수신하는 단계를 포함한다.
또 다른 양태에서, 로봇식 시스템이 개시된다. 예시적인 일 구현예에서, 상기 로봇식 시스템은 복수의 로봇; 하나 이상의 액세스 지점; 상기 복수의 로봇 및 상기 하나 이상의 액세스 지점에 통신 가능하게 연결된 네트워크를 포함하고, 상기 네트워크는 승객 픽업 위치에 관한 하나 이상의 액세스 지점으로부터 상기 복수의 로봇 중 제1 로봇에 대한 정보를 수신하고, 상기 제1 로봇으로 하여금 픽업 위치로 이동하게 하고, 상기 복수의 로봇 중 다른 로봇들의 이동을 상기 제1 로봇의 이동의 일정 비율을 차지하게끔 조화시키도록 구성된다.
한 변형례에서, 하나 이상의 액세스 지점은 콘솔 및 전자 장치 중 적어도 하나를 포함한다. 다른 변형례에서, 상기 복수의 로봇 중 제1 로봇과 제2 로봇은 직렬 방식으로 작동하고, 이 경우 상기 제1 로봇과 상기 제2 로봇은 함께 이동한다.
또 다른 양태에서, 비일시적 컴퓨터 판독 가능 저장 매체가 개시된다. 예시적인 일 구현예에서, 상기 비일시적 컴퓨터 판독 가능 저장 매체에는 로봇을 작동시키기 위해 프로세싱 장치에 의해 실행될 수 있는 복수의 명령들이 저장된다. 예시적인 일 구현예에서, 상기 명령들은 프로세싱 장치에 의해 실행될 때 그 프로세싱 장치로 하여금 사람을 픽업할 위치로 이동하게 하고; 상기 사람을 휠체어 탑승자로서 수용하게 하고; 목적지까지 이동하게 하도록 구성된다.
한 변형례에서, 상기 명령들은, 추가로, 프로세싱 장치로 하여금 픽업 위치의 일부를 나타내는 신호를 수신하게 한다. 다른 변형례에서, 목적지 명령을 수신하기는 목적지 선택을 수신하기를 포함한다.
또 다른 예시적인 구현예에서, 상기 비일시적 컴퓨터 판독 가능 저장 매체에는, 프로세싱 장치에 의해 실행될 수 있는 것으로서 그 프로세싱 장치로 하여금 승객의 제1 위치에 대응하는 제1 세트의 좌표들에 대한 좌표를 수신하게 하고; 제1 모바일 플랫폼의 다른 제2 위치를 결정하게 하고; 제1 모바일 플랫폼을 상기 제1 위치와 상기 제2 위치 사이에서 주행(navigate)하게 하고; 승객의 목적지 좌표를 수신하게 하는 명령들이 저장된다.
한 변형례에서, 상기 적어도 하나의 프로세서는, 추가로, 제1 모바일 플랫폼의 좌표에 대응하는 정보를 제2 모바일 플랫폼 상의 적어도 하나의 프로세서로 전송하기 위해 상기 컴퓨터 판독 가능 명령들을 실행하도록 구성된다.
다른 변형례에서, 제1 모바일 플랫폼 상의 적어도 하나의 프로세서는, 추가로, 하나 이상의 센서로부터 정보를 수신하기 위해 상기 컴퓨터 판독 가능 명령들을 실행하도록 구성되고, 수신된 정보는 제1 모바일 플랫폼을 제1 경로를 따라 주행시키도록 구성된다.
또 다른 변형례에서, 제1 모바일 플랫폼 상의 적어도 하나의 프로세서는, 추가로, 하나 이상의 센서로부터 수신된 정보에 응답하여 제1 모바일 플랫폼을 위한 제1 네비게이션 경로를 변경하도록 구성된다.
또 다른 변형례에서, 하나 이상의 센서로부터 수신된 정보는 모바일 플랫폼의 승객과 관련이 있고; 제1 모바일 플랫폼 상의 적어도 하나의 프로세서는, 추가로, 상기 제1 네비게이션 경로의 변경에 기초하여 제1 모바일 플랫폼의 정지 움직임에 대응하는 명령을 출력하기 위해 상기 컴퓨터 판독 가능 명령들을 실행하도록 구성된다.
또 다른 변형례에서, 하나 이상의 센서로부터 수신된 정보는 제1 모바일 플랫폼의 환경 내의 하나 이상의 물체에 기초한 것이고, 제1 모바일 플랫폼 상의 적어도 하나의 프로세서는, 추가로, 상기 제1 네비게이션 경로의 변경에 기초하여 명령을 출력하기 위해 상기 컴퓨터 판독 가능 명령들을 실행하도록 구성되고, 상기 경로는 하나 이상의 물체와의 충돌을 피하는 것에 대응한다.
또 다른 양태에서, 모바일 플랫폼의 자율 주행을 가능하게 하는 시스템이 개시된다. 예시적인 일 구현예에서, 상기 시스템은 컴퓨터 판독 가능 명령들이 저장된 메모리; 및 사용자의 제1 위치에 대응하는 제1 세트의 좌표들을 수신하고, 모바일 플랫폼을 위한 다른 제2 위치를 결정하고, 모바일 플랫폼을 상기 제1 위치와 상기 제2 위치 사이에서 주행시키고, 그리고 다른 제2 세트의 좌표들을 수신하기 위해, 상기 컴퓨터 판독 가능 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함한다.
한 변형례에서, 상기 다른 제2 세트의 좌표들을 수신하기는 주행 후에 이루어진다.
다른 변형례에서, 적어도 하나의 프로세서는, 추가로, 모바일 플랫폼의 주행을 가능하게 하도록 구성된 하나 이상의 명령을 모바일 플랫폼 상의 하나 이상의 액추에이터에 전송하기 위해 상기 컴퓨터 판독 가능 명령들을 실행하도록 구성된다.
또 다른 변형례에서, 적어도 하나의 프로세서는, 추가로, 모바일 플랫폼을 위한 제1 모드 및 다른 제2 모드 중 적어도 하나를 가능하게 하도록 구성된 모드 선택 명령을 수신하기 위해 컴퓨터 판독 가능 명령들을 실행하도록 구성되고, 상기 제1 모드는 동력-수동 모드에 대응하고 상기 제2 모드는 자율 모드에 대응한다.
또 다른 변형례에서, 적어도 하나의 프로세서는, 추가로, 제1 세트의 좌표들에서 모바일 플랫폼의 도착 시간에 대응하는 데이터를 하나 이상의 센서로부터 수신하기 위해 상기 컴퓨터 판독 가능 명령들을 실행하도록 구성된다.
또 다른 변형례에서, 상기 데이터는 모바일 플랫폼의 환경 내 표지의 시각적 식별에 기초한 것이다.
또 다른 변형례에서, 상기 데이터는 모바일 플랫폼의 환경 내 표지의 무선 식별에 기초한 것이다.
또 다른 변형례에서, 적어도 하나의 프로세서는, 추가로, 디스플레이 장치 상에 사용자를 위한 제2 세트의 좌표들을 포함하는 복수의 위치를 표시하기 위해 상기 컴퓨터 판독 가능 명령들을 실행하도록 구성된다.
또 다른 양태에서, 모바일 플랫폼의 자율 주행을 가능하게 하는 방법이 개시된다. 예시적인 일 구현예에서, 상기 방법은 사용자의 제1 위치에 대응하는 제1 세트의 좌표들을 수신하는 단계; 모바일 플랫폼을 위한 다른 제2 위치를 결정하는 단계; 모바일 플랫폼을 상기 제1 위치와 상기 제2 위치 사이에서 주행시키는 단계; 및 사용자를 위한 다른 제2 세트의 좌표들을 수신하는 단계를 포함한다.
한 변형례에서, 사용자를 위한 제2 세트의 좌표들을 수신하는 단계는 제1 위치에 도달하기 전에 이루어진다.
다른 변형례에서, 상기 방법은 모바일 플랫폼 상의 하나 이상의 액추에이터에 모바일 플랫폼의 주행을 가능하게 하도록 구성된 하나 이상의 명령을 제공하는 단계를 추가로 포함한다.
또 다른 변형례에서, 상기 방법은 사용자를 위한 제1 위치에서의 도착 시간을 결정할 수 있게 구성된 데이터를 하나 이상의 센서로부터 수신하는 단계를 추가로 포함한다.
또 다른 변형례에서, 상기 데이터를 수신하는 단계는 모바일 플랫폼의 환경 내의 표지를 식별하는 것을 포함한다.
또 다른 변형례에서, 상기 방법은 제2 세트의 좌표들을 사용자에게 발행하는 단계를 추가로 포함하고, 사용자를 위한 제2 세트의 좌표들을 수신하는 상기 단계는 상기 발행된 제2 세트의 좌표들을 스캐닝하는 단계를 포함한다.
본 개시내용의 이들 및 다른 목적들, 특징들 및 특성들과, 이뿐만 아니라, 관련된 구조 요소들 및 부품들의 조합의 작동 방법들 및 기능들과 제조의 경제는, 첨부 도면들을 참조하여 다음의 설명 및 첨부된 청구범위를 고려할 때 더 명백해지게 될 것이며, 그 첨부 도면들 모두는 본 명세서의 일부를 형성하며, 첨부 도면들에 있어서 유사한 참조 번호들은 여러 도면에서 대응하는 부분들을 가리킨다. 그러나, 도면들은 예시 및 설명의 목적만을 위한 것이고, 본 개시내용의 제한들의 정의로서 의도되지 않는다는 것이 명백히 이해될 것이다. 본 명세서 및 청구 범위에서 사용되는 바와 같이, "a", "an" 및 "the"와 같은 단수 형태는 문맥 상 명확하게 다르게 지시하지 않는 한 복수 대상들을 포함한다.
개시되는 양태들은, 개시되는 양태들을 제한하는 것이 아니라 개시되는 양태들을 예시하기 위해 제공되는 첨부된 도면들과 관련하여, 이하에서 설명될 것이며, 여기서, 유사한 호칭들은 유사한 구성요소들을 나타낸다.
도 1a는 본 개시내용의 일부 구현예에 따른 휠체어를 제작하는 예시적인 방법의 프로세스 흐름도이다.
도 1b는 본 개시내용의 일부 구현예에 따른 휠체어의 예시적인 본체 형태들의 기울인 측면도이다.
도 2a는 본 개시내용의 일부 구현예에 따른 로봇식 휠체어를 포함하는 로봇의 정면도이다.
도 2b는 본 개시내용의 일부 구현예에 따른 로봇식 휠체어를 포함하는 로봇의 배면도이다.
도 2c는 본 개시내용의 일부 구현예에 따른 로봇의 기능 블록선도이다.
도 3은 본 개시내용의 일부 구현예에 따른 것으로, 네트워크에 통신 가능하고/하거나 작동 가능하게 연결된 로봇을 포함하는 시스템의 기능 블록선도이다.
도 4는 본 개시내용의 일부 구현예에 따른 것으로, 로봇식 휠체어를 작동하는 예시적 방법의 프로세스 흐름도이다.
도 5는 본 개시내용의 일부 구현예에 따른 것으로, 표지를 검출하는 로봇의 정면도이다.
도 5b는 본 개시내용의 일부 구현예에 따른 것으로, 목적지를 입력하기 위한 디스플레이를 도시한 도면이다.
도 5c는 본 개시내용의 일부 구현예에 따른 것으로, 사용자가 목적지를 입력하고/하거나 로봇을 호출하기 위해 사용될 수 있는 콘솔의 기울인 측면도이다.
도 5d는 본 개시내용의 일부 구현예에 따른 것으로, 전자 장치의 디스플레이를 도시한 도면이다.
도 5e는 본 개시내용의 일부 구현예에 따른 것으로, 스캔 가능한 탑승권을 도시한 도면이다.
도 5f는 본 개시내용의 일부 구현예에 따른 것으로, 로봇과 통신하는 전자 장치를 포함하는 시스템을 도시한 도면이다.
도 6a는 본 개시내용의 일부 구현예에 따른 것으로, 로봇이 이동하고 있는 복도의 입면 정면도이다.
도 6b는 본 개시내용의 일부 구현예에 따른 것으로, 넓은 환경에서 레인을 이용하는 로봇들의 입면 정면도이다.
본원에 개시되는 모든 도면들은 브레인 코포레이션(Brain Corporation)의 2018년 발효 저작권(ⓒ Copyright 2018)이다. 모든 권리 유보됨.
본원에서 개시되는 신규한 시스템들, 장치들 및 방법들의 다양한 양태들이 첨부 도면들을 참조하여 이하에서 더 완전히 설명된다. 그러나, 본 개시내용은 다수의 상이한 형태들로 구현될 수 있고, 본 개시내용 전반에 걸쳐 제시되는 임의의 특정 구조 또는 기능으로 제한되는 것으로 해석되지 않아야 한다. 오히려, 이러한 양태들은 본 개시내용이 철저하고 완전하게 되도록 제공되며, 본 개시내용의 범위를 당해 기술분야에서 통상의 지식을 가진 자(이하, 당업자)에게 충분히 전달할 것이다. 본원의 교시들에 기초하여, 본 개시내용의 범위가, 독립적으로 구현되든지 또는 본 개시내용의 임의의 다른 양태와 조합되든지, 본원에서 개시되는 신규한 시스템들, 장치들 및 방법들의 임의의 양태를 커버하도록 의도된다는 것을 당업자는 이해할 것이다. 예를 들어, 본원에서 제시되는 임의의 수의 양태들을 사용하여, 장치가 구현될 수 있거나 또는 방법이 실시될 수 있다. 또한, 본 개시내용의 범위는 본원에서 제시되는 개시내용의 다양한 양태들에 부가하여 또는 그 이외에 다른 구조, 기능성, 또는 구조와 기능성을 사용하여 실시되는 그러한 장치 또는 방법을 포괄하도록 의도되어 있다. 본원에서 개시되는 임의의 양태는 청구항의 하나 이상의 구성요소들에 의해 구현될 수 있다는 것이 이해되어야 한다.
특정 양태들이 본원에서 설명되지만, 이들 양태들의 다수의 변형들 및 변경들은 본 개시내용의 범위 내에 속한다. 바람직한 양태들의 일부 이점들 및 장점들이 언급되지만, 본 개시내용의 범위는 특정 이점들, 용도들 및/또는 목적들로 제한되도록 의도되지 않는다. 상세한 설명 및 도면들은 본 개시내용을 제한하기 보다는 단지 예시하는 것일 뿐이며, 본 개시내용의 범위는 첨부된 청구범위 및 그 등가물들에 의해 정의된다.
본 개시내용은 개선된 모바일 플랫폼을 제공한다. 특히, 본 개시내용의 일부 구현예는 로봇식 모바일 플랫폼과 같은 로봇에 관련된 것이다. 본원에서 사용되는 바와 같은 로봇에는 복잡한 일련의 동작들을 자동적으로 수행하도록 구성된 기계적 및/또는 가상적 엔티티(entity)들이 포함될 수 있다. 일부 경우에서, 로봇은 컴퓨터 프로그램들 및/또는 전자 회로에 의해 유도되는 기계일 수 있다. 일부 경우들에서, 로봇은 네비게이션을 위해 구성된 전기-기계 구성요소들을 포함할 수 있으며, 이 경우, 로봇은 한 위치에서 다른 위치로 이동할 수 있다. 이러한 로봇은 자율 및/또는 반자율 자동차, 바닥 청소기, 로버, 드론, 비행기, 보트, 카트, 트램, 휠체어, 산업 장비, 적재기(stocking machine), 모바일 플랫폼, 개인 교통 장치(예를 들어, 호버 보드, SEGWAYS® 등), 적재기, 트레일러 발동기, 차량 등을 포함한다. 로봇은 또한 물품, 사람, 동물, 선박·항공 화물, 육상 화물, 물건, 수화물 및/또는 한 장소에서 다른 장소로 보내지기를 희망하는 것들을 운송하기 위한 임의의 자율 및/또는 반자율 기계를 포함할 수 있다. 일부 경우에서, 운송에 사용되는 이러한 로봇은 자율적으로 및/또는 반자율적으로 주행 및/또는 이동할 수 있는 모바일 시스템이기 때문에 로봇식 모바일 플랫폼을 포함할 수 있다. 이러한 로봇식 모바일 플랫폼은 자율 및/또는 반자율 휠체어, 자전거, 노로 젓는 배, 스쿠터, 지게차, 트램, 기차, 카트, 차량, 예인선, 및/또는 운송에 사용되는 임의의 기계를 포함할 수 있다.
본원에서 언급되는 휠체어는 수동으로 제어되는(예를 들어, 구동되는, 밀리는, 또는 원격 제어되는) 휠체어, 동력으로 구동되는(예를 들어, 모터 및/또는 액추에이터를 사용하여 주행하는) 휠체어, 및/또는 자율(예를 들어, 사용자 제어를 거의 또는 전혀 사용하지 않는) 휠체어를 포함할 수 있다. 예를 들어, 휠체어는 질병, 부상, 장애, 결점 등으로 인해 걷기가 어렵거나 불가능한 사람들이 사용하는 장치를 포함할 수 있다. 휠체어는 임의의 개수의 바퀴 및 다양한 크기의 바퀴를 포함할 수 있다. 예를 들어, 휠체어는 1, 2, 3, 4, 5, 6, 7 개 또는 그 이상의 바퀴를 구비할 수 있다. 많은 경우에서, 휠체어는 탑승자가 앉을 수 있는 의자를 구비한다. 일부 경우에서, 휠체어는 또한 의자, 전동식 의자, 스쿠터, 병상, 크루저, 스피너, 카트, 승강 의자, 전동식 리클라이너, 포드 및/또는 임의의 그 밖의 다른 실질적으로 유사한 장치 등과 같이 일반적으로 다른 명칭으로 불리는 장치들을 포함할 수 있다.
여기에서는 특정 실시예들을 휠체어 또는 모바일 플랫폼, 또는 로봇식 휠체어 또는 로봇식 모바일 플랫폼 기준으로 설명한다. 이러한 실시예들은 단지 예시를 위해 사용되는 것이고, 여기에 설명된 원리는 일반적으로 로봇에 쉽게 적용될 수 있다.
일부 경우에서, 로봇은 하나 이상의 작업을 수행하도록 자동화된 기기, 기계 및/또는 장비를 포함할 수 있다. 예를 들어, 상기 기기, 기계 및/또는 장비에 이들을 자율적으로 작동할 수 있게 하기 위한 모듈이 부착될 수 있다. 일부 구현예들에서, 상기 모듈은 기기, 기계 및/또는 장비의 자율 동작을 구동하는 모터를 포함할 수 있다. 일부 경우에서, 상기 모듈은 기기, 기계 및/또는 장비를, 이들 기기, 기계 및/또는 장비의 기존 제어기, 액추에이터, 유닛 및/또는 구성요소들로 제어 신호를 송신하는 것과 같은 스푸핑에 적어도 부분적으로 기초하여, 작동시킨다. 상기 모듈은 데이터를 수신하고 생성하기 위한 센서 및/또는 프로세서를 포함할 수 있다. 상기 모듈은 또한 센서 데이터를 처리하고, 제어 신호를 보내고, 그리고/또는 기기, 기계 및/또는 장비의 기존 제어기, 유닛 및/또는 구성요소들을 제어하기 위해, 본원에 기술된 프로세서, 액추에이터 및/또는 임의의 구성요소들을 포함할 수 있다. 이러한 기기, 기계 및/또는 장비에는 자동차, 바닥 청소기, 로버, 드론, 비행기, 보트, 카트, 트램, 휠체어, 산업 장비, 적재기, 모바일 플랫폼, 개인 운송 장치(예를 들어, 호버 보드, SEGWAYS® 등), 적재기, 트레일러 발동기, 차량 및/또는 임의의 유형의 기계가 포함될 수 있다.
본 개시내용의 시스템 및 방법들의 다양한 구현예들 및 변형례들의 상세한 설명들이 이제 제공된다. 본원에서 논의된 많은 실시예들은 로봇식 바닥 청소기를 가리킬 수 있지만, 본원에 포함되어 있는 기술된 시스템들 및 방법들은 임의의 종류의 로봇에도 적용될 수 있다는 것을 이해할 것이다. 본원에서 설명되는 기술에 있어서의 그 밖의 다른 무수한 예시적인 구현예들 또는 용도들은 본 개시의 내용들이 주어지면 당업자에 의해 쉽게 구상될 수 있을 것이다.
유리하게는, 본 발명의 시스템들 및 방법들은, 적어도, (i) 로봇이 환경에서 안전하게 작동하게 하고; (ii) 로봇이 예상되는 행동을 내보일 수 있게 함으로써 로봇으로 편안함(예를 들어, 인간 및/또는 동물에게 편안함)을 제공하고; (iii) 로봇을 위한 프로세스 흐름이 그 로봇에 해당하는 환경에서 작동할 수 있게 하고; (iv) 노동, 시간 및 에너지와 같은 자원 비용을 감소시키며; (v) 효율성, 비용 효율성 및/또는 운송 시간을 개선한다. 다른 이점들은 본 개시의 내용들이 주어지면 당업자들이 쉽게 알아차릴 수 있다.
예를 들어, 일부 구현예에서 휠체어가 개시된다. 휠체어는 본 개시내용의 시스템 및 방법에 따라 자율적으로 주행할 수 있는 로봇식 휠체어를 포함할 수 있다. 유리하게는, 상기 로봇식 휠체어는 조작자의 직접적인 제어가 거의 없거나 전혀 없이 그를 한 위치에서 다른 위치로 효과적으로 주행할 수 있게 한다. 일부 경우에서, 로봇식 휠체어는 노인, 신체장애인, 불구자, 질병을 앓는 사람, 신체 결함을 가진 사람, 및/또는 걸을 수 없거나 걸을 의지가 없는 사람과 같은 사람을 운반할 수 있다. 로봇식 휠체어는 또한 사람의 애완동물, 개인 소지품 및/또는 그 밖의 것들과 같은 임의의 물품, 동물 및/또는 원하는 것을 운반할 수 있다. 일부 경우에서, 그러한 물품, 동물, 또는 원하는 것은 사람에 추가되는 것 또는 사람을 대신하는 것일 수 있다. 따라서, 본 개시내용의 이점은 사람, 물품, 동물 및/또는 물건의 효과적인 운송이다. 더욱이, 이러한 운송은 노동(예를 들어, 탑승자 및/또는 다른 운영자의 노동)에 대한 의존성이 감소되어 운송 시간, 운송 에너지 및/또는 운송 비용이 감소된 상태에서 이루어질 수 있다.
다른 예로서, 본 개시내용의 일부 구현예에 따른 로봇식 휠체어는 또한 사람, 물품, 동물 및/또는 원하는 물건이 탑승하지 않은 상태에서도 주행할 수 있다. 이는 로봇식 휠체어를 위치시키는 데 바람직할 수 있다. 예를 들어, 휠체어를 원하는 사람은 휠체어에서 떨어진 위치에 있을 수 있다. 종래의 휠체어는 휠체어를 원하는 사람이 휠체어의 위치로 이동하거나 다른 사람이 휠체어를 원하는 사람에게 휠체어를 가져가도록 요구할 수 있다. 그러나, 본 개시내용의 일부 구현예들에 따른 로봇식 휠체어는 사람에게까지 주행해서 그 사람이 로봇식 휠체어를 사용할 수 있게 할 수 있다. 유사하게, 종래의 휠체어는 그 휠체어에서 사람이 떠난 후에는 누군가가 그 휠체어를 추가 사용, 보관, 서비스 및/또는 다른 원하는 행동을 위한 다른 장소로 밀어내는 것이 필요할 수 있다. 그러나, 본 개시내용의 일부 구현예들에 따른 로봇식 휠체어는 조작자의 직접적 제어 없이 그러한 위치로 주행할 수 있다. 따라서, 본 개시내용의 시스템 및 방법의 이점은 모바일 플랫폼(예를 들어, 휠체어)을 효율적으로 관리하면서 그러한 관리에 필요한 노동을 감소시킨다는 것이다.
다른 예로서, 휠체어가 사용되는 특정 위치(예를 들어, 쇼핑몰, 병원, 퇴직자 커뮤니티, 공항, 사무실 건물, 도심, 학교 및/또는 공공 또는 개인 장소)는 심히 혼잡하거나 혼란스러울 수 있다. 따라서, 그러한 상황에서의 사람에 의한 네비게이션은 어렵거나 심지어 불가능할 수 있다. 예를 들어, 휠체어를 조작하는 사람(탑승자이든 아니든 무관)은 그의 경로에 있는 사람, 수화물, 장애물, 구조물, 로봇, 디스플레이, 수송 차량, 동물, 물품 및/또는 그 밖의 다른 물건 - 이들 중 일부는 동적으로 움직일 수 있음 - 을 피하기 위해 반응해야 할 필요가 있다. 경우에 따라서는, 휠체어를 조작하는 사람이 신체결함을 갖는 자이고/이거나 부주의한 경우, 사람인 조작자로 인해 충돌이 발생할 수 있다. 경우에 따라서는, 휠체어를 조작하는 사람이 완전히 경계하고 있는 경우에도, 사람의 인식 한계, 제3자의 행동 및/또는 사람인 조작자가 통제할 수 없는 사건으로 인해 충돌이 발생할 수도 있다. 본 개시내용의 시스템 및 방법은 유리하게는 내비게이션을 위해 사람에 의존하는 것을 덜 수 있게 하여, 충돌을 감소시킬 수 있는 잠재력을 갖는다.
더욱이, 복수의 로봇식 모바일 플랫폼(예를 들어, 로봇식 휠체어)이 사용되는 경우, 체계적인 구성 및 순서가 증가하여 충돌의 추가 감소를 허용할 수 있다. 예를 들어, 본 개시내용의 일부 구현예에서, 복수의 로봇식 모바일 플랫폼(예를 들어, 로봇식 휠체어)은 서로를 검출하고, 통신하고 및/또는 중앙 제어될 수 있다. 따라서, 로봇식 모바일 플랫폼은 동기화 할 수 있고, 협력하여 움직일 수 있고, 그리고/또는 서로를 피하기 위해 로봇식 모바일 플랫폼의 능력을 향상시키는 신호를 송/수신할 수 있다. 유리하게는, 이러한 능력은 충돌을 감소시킬 수 있다. 또한, 이러한 능력은 로봇식 모바일 플랫폼이 동작하는 환경을 개선하여 인간 및/또는 동물에 대한 로봇식 모바일 플랫폼의 인식을 향상시켜서, 로봇식 모바일 플랫폼 주위에서 인간 및/또는 동물을 보다 편안하게 만든다. 이 향상된 인식은 인간 및/또는 동물 경험을 향상시킬 수 있다.
다른 예로서, 본 개시내용의 시스템 및 방법은 로봇식 모바일 플랫폼과 함께 워크 플로우를 향상시킬 수 있다. 이러한 향상된 워크 플로우는 로봇식 모바일 플랫폼에 신뢰성을 심어줄 수 있고; 사람, 물품, 동물 및 물건을 효율적으로 운송할 수 있게 하며; 로봇의 유용성을 향상시킬 수 있다.
다른 예로서, 시스템 및 방법은 환경에 대한 수정이 비교적 적거나 없는 로봇 공학의 사용을 허용할 수 있다. 로봇과 관련된 일부 최신 솔루션을 사용하려면 로봇이 네비게이션할 수 있도록 레일, 비콘, 표지, 라인 및/또는 큐를 설치해야 한다. 일부 경우에서, 이러한 설치는 시간, 비용 및/또는 미적 관점에서 비용이 많이 들 수 있다. 이러한 설치는 유지 관리에 필요한 비용/자원이 필요할 수도 있다. 더욱이, 설치는 로봇식 솔루션에서 장애 지점을 생성하여, 하나 이상의 설치 양상이이 의도한 대로 작동하지 않으면 솔루션의 적어도 일부가 실패할 수 있다. 유리하게는, 본 개시내용의 시스템 및 방법은 로봇 공학이 일부 경우에 상대적으로 적은 설치에 의존하거나 전혀 설치에 의존하지 못하게 할 수 있다. 그러나, 일부 경우에서, 효율 및 작업 흐름을 향상시키기 위해 본 개시내용의 양태에 따라 환경에 대한 변경이 이루어질 수 있다.
도 1a는 본 개시내용의 일부 구현예에 따른 휠체어를 제작하는 예시적인 방법(100)의 프로세스 흐름도이다. 예시적인 목적으로, 방법(100)은 휠체어를 참조하지만, 다른 로봇이 고려되는데, 본 개시내용을 받아들인 당업자는 방법(100)을 다른 로봇에 쉽게 적용시킬 수 있다.
블록 102는 기존 휠체어를 획득하는 것을 포함한다. 예를 들어, 휠체어는 전동 휠체어 및 수동 휠체어를 포함하여 본 명세서에 기술된 임의의 휠체어를 포함할 수 있다. 도 1b는 본 개시내용의 일부 구현예들에 따른 것으로, 휠체어의 예시적인 본체 형태들의 기울인 측면도이다. 본체 형태(122)는 하나의 좌석 및 4 개의 바퀴를 갖는 표준 휠체어이다. 본체 형태(122)는 2 개의 큰 바퀴 및 2 개의 작은 바퀴를 갖는다. 일반적으로, 본체 형태(122)의 좌석에 앉아 있는 사람은 휠체어를 움직이기 위해 바퀴를 물리적으로 돌릴 것이다. 사람은 본체 형태(122)를 전방으로 이동시키기 위해 큰 바퀴를 전방으로 돌리거나, 본체 형태(122)를 후방으로 이동시키기 위해 큰 바퀴를 후방으로 돌릴 수 있다. 본체 형태(122)를 회전시키기 위해 큰 바퀴들에 다른 힘이 적용될 수 있다. 본체 형태(122)는 본체 형태(122)에 앉아 있지 않은 사람이 본체 형태(122)를 밀거나 당기기 위해 후방을 향하는 핸들을 갖는다. 본체 형태(122)에 앉아 있지 않은 이 사람은 빈 휠체어를 밀거나 당겨서 한 위치에서 다른 위치로 이동시키거나, 사람이 탑승해 있는 본체 형태(122)를 밀거나 당겨서 탑승자와 휠체어(122)를 한 장소에서 다른 장소로 운송할 수 있다.
본체 형태(112)는 본체 형태(122)와 실질적으로 유사하다. 본체 형태(112)는 스포츠 및/또는 오프로드 휠체어를 예시한다. 본체 형태(112)의 좌석은 본체 형태(112) 내의 사람에게 더 많은 이동의 자유를 허용하기 위해 더 작고 팔걸이가 없다.
본체 형태(114)는 사람이 수동으로 본체 형태(114)를 움직이지 않고도 본체 형태(114)를 움직일 수 있게 하는 모터를 갖는 점에서 전동 휠체어의 일례이다. 본체 형태(114)는 6 개의 바퀴 및 큰 시트를 갖는다. 본체 형태(114)는 본체 형태(114)를 점유하는 사람(및/또는 다른 사람)이 휠체어(114)의 움직임을 지시하기 위한 조이스틱을 갖는다.
본체 형태(116)는 본체 형태(122)와 실질적으로 유사하지만, 동력도 공급받는다. 본체 형태(116)는 또한 본체 형태(116)(및/또는 다른 사람)의 탑승자가 본체 형태(116)의 움직임을 지시하기 위한 조이스틱을 갖는다.
본체 형태(118)는 복서 형상을 갖는 휠체어를 도시한다. 본체 형태(118)는 본체 형태(116)의 탑승자가 본체 형태(116)의 움직임을 지시하기 위한 조이스틱을 갖는다. 이는 또한 좌석과, 탑승자가 발을 놓을 수 있도록 구성된 확장 플랫폼도 구비한다. 본체 형태(118)는 또한 전동 휠체어이다.
본체 형태(120)는 스쿠터를 포함하는 전동 휠체어이다. 스쿠터는 더 큰 베이스와 스티어링 컬럼을 포함할 수 있다. 유리하게는, 스쿠터는 보다 높은 안정성, 속도 및 지지(예를 들어, 더 많은 물품 및/또는 무게)를 위해 증대된 풋 프린트를 가질 수 있다. 그러나, 더 큰 풋 프린트는 또한 본체 형태(120)가 횡단할 수 있는 곳을 제한할 수 있다.
일부 구현예들에서, 휠체어는 심지어 전통적인 휠체어가 아닐 수도 있다. 예를 들어, 카트, 탑승식 바닥 청소기 및/또는 차량은 휠체어와 실질적으로 유사한 유틸리티를 제공하도록 수정될 수 있다. 도 1b는 휠체어의 몇몇 예시적인 예를 제공하기 위해 여기에 제공되지만, 당업자는 본 발명의 내용에 따라 휠체어의 다양한 본체 형태가 있을 수 있음을 이해할 것이다.
도 1a를 참조하면, 블록 104는 휠체어가 제어기(및/또는 복수의 제어기)에 의해 적어도 부분적으로 작동되는 운동을 위한 액추에이터(및/또는 복수의 액추에이터)를 갖는지를 결정하는 단계를 포함한다. 예를 들어, 휠체어(114, 116, 118 및 120)는 모터를 갖는다. 모터를 사용하면 휠체어를 한 곳에서 다른 곳으로 이동할 수 있다. 모터는 액추에이터 유닛(220)과 관련하여 설명된 모터와 실질적으로 유사할 수 있으며, 이는 도 2c를 참조하여 후술한다.
일부 경우에서, 모터는 제어기에 의해 제어된다. 제어기는 휠체어의 액추에이터에 명령을 제공할 수 있다. 예를 들어, 제어기는 휠체어의 액추에이터에 전진, 후진, 회전, 가속, 감속, 정지 등과 적어도 부분적으로 관련된 기본 또는 복합 동작을 수행하도록 하는 명령을 전송할 수 있다. 제어기는 도 2c를 참조하여 후술하는 제어기(204)와 실질적으로 유사할 수 있다.
휠체어에 하나 이상의 액추에이터 및/또는 제어기가 없는 경우(및/또는 휠체어의 액추에이터 및/또는 제어기가 기능, 성능, 위치 및/또는 기타 특성으로 인해 부적절한 경우), 블록 106은 제어기(및/또는 복수의 제어기)에 의해 적어도 부분적으로 이동 작동되는 액추에이터(및/또는 복수의 액추에이터)를 설치하는 단계를 포함한다. 예를 들어, 모터는 액추에이터 유닛(220)의 액추에이터와 실질적으로 유사할 수 있고 제어기는 제어기(204)와 실질적으로 유사할 수 있다.
블록 108은 로봇식 모듈을 부착하는 것을 포함한다. 로봇식 모듈은 예를 들어 센서 유닛(212)과 같은 하나 이상의 센서를 포함할 수 있다. 로봇식 모듈은 또한 센서(들)로부터 데이터를 처리하기 위한 제어기를 포함할 수 있다. 로봇식 모듈의 제어기는 휠체어의 제어기와 통신할 수 있다.
블록 110은 휠체어의 자율 주행을 가능하게 하는 자율 기능들을 탑재하는 것을 포함한다. 자율 기능은 펌웨어, 소스 코드, 객체 코드, 소프트웨어 등으로 인스턴스화 할 수 있다. 일부 경우에서, 로직 게이트, 스위치, 와이어 등을 통해 특정 컴퓨터 로직을 하드웨어에서 인스턴스화 할 수 있다.
자율 기능에는 센서의 데이터 처리가 포함될 수 있다. 자율 기능들은 로봇이 로봇 환경을 네비게이션할 수 있도록 맵핑(mapping) 및/또는 위치결정(localization) 방법을 실행할 수 있다. 또한, 자율 기능들은 휠체어(예를 들어, 블록 104 또는 블록 106에 결정 및/또는 설치되어 있는 휠체어의 제어기)에 명령, 상태, 식별 정보, 정보 및 기타 신호를 전송/수신하는 것을 포함할 수 있다. 이러한 방식으로, 로봇식 모듈은 휠체어를 모니터하고 휠체어를(예를 들어, 명령 신호 및/또는 스푸핑을 통해) 제어할 수 있다.
일부 구현예들에서, 자율성은 로봇식 모듈 상에 로딩될 수 있다. 예를 들어, 자율 기능들은 휠체어에 부착하기 전에 모듈에 사전 탑재될 수 있다. 다른 예로서, 자율 기능들은 로봇식 모듈이 부착된 후 로봇식 모듈에 탑재될 수 있다.
일부 구현예들에서, 로봇식 모바일 플랫폼은 동력-수동 모드 및/또는 자율 모드를 포함할 수 있다. 예를 들어, 이러한 방식으로, 로봇식 휠체어가 자율적으로 항해하는 데 어려움을 겪고, 오류가 발생하고/하거나 다른 문제가 있는 시나리오에 로봇식 휠체어가 직면할 때 사용자는 조이스틱 및/또는 다른 제어기로 로봇식 휠체어를 제어할 수 있다. 또한, 사용자는 원하는 경우, 예컨대 운전에서 벗어나 즐거움을 얻고/얻거나 특정 목적지를 염두에 두지 않는 경우(예를 들어, 무엇을 보고, 찾고, 오락하기 위해 돌아다니거나 이동하는 등의 경우), 수동 휠체어 모드에서 로봇식 휠체어를 사용할 수 있다.
방법(100)은 로봇식 모듈을 기존 휠체어에 부착하는 예를 제공하지만, 본 개시내용의 시스템 및 방법은 로봇식 모듈에 대해 설명된 것과 실질적으로 유사한 기능으로 통합된 로봇식 휠체어에 쉽게 적용 가능하다. 본 개시내용은 방법(100)에 따라 제작된 로봇으로 제한되지 않는다.
도 2a는 본 개시내용의 일부 구현예에 따른 것으로, 로봇식 휠체어를 포함하는 로봇(200)의 정면도이다. 로봇(200)은 탑승자 용 좌석, 바퀴, 발판 및 휠체어에서 발견되는 다른 특징을 갖는 휠체어의 의자(206)를 포함한다. 로봇(200)은 또한 상부 측면(240A), 좌측(240B), 하부 측면(240C), 우측(240D), 전면(240F) 및 후면(240G)과 같은 복수의 측면을 가질 수 있다(도 2b에 도시됨). 당업자는 로봇(200)이 형상(예를 들어, 직사각형, 피라미드, 인간형, 또는 임의의 다른 설계된 형상)에 따라 변할 수 있는 로봇(200)의 표면에 대응하는 것들을 포함하여 다른 측면도 가질 수 있음을 본 개시의 내용에 의해 이해하게 될 것이다. 예시로서, 정면(240F)은 로봇(200)의 전방을 향하는 측에 위치될 수 있으며, 전방을 향한 측은 로봇(200)의 전방 이동 방향으로 전방이다. 후방 측(240G)은 로봇(200)의 후방 측에 위치될 수 있으며, 후방 측은 실질적으로 전방 측의 반대 방향으로 향하는 측이다. 우측(240D)은 전면(240F)에 대해 우측일 수 있고, 좌측(240B)은 전면(240F)에 대해 좌측일 수 있다.
로봇(200)은 탑승자 및/또는 사용자에 의한 로봇(200)의 제어를 허용하는 제어기(208)를 갖는다. 예시로서, 제어기(208)는 조이스틱, 버튼, 다이얼, 터치 패드, 제어기, 트랙 패드, 노브, 몸짓 감지 메커니즘, 마이크로폰(예를 들어, 구두 명령을 수용하기 위한) 및/또는 다른 제어 메커니즘을 포함할 수 있다. 일부 경우에서, 제어기(208)는 도시된 것과 다른 곳에 위치될 수 있다. 예를 들어, 장애 및/또는 편안함으로 인해, 탑승자는 오른손 및/또는 왼손과 같은 특정 손에 의해 접근 가능한 제어기(208)를 선호할 수 있다. 따라서, 제어기(208)는 로봇(200)의 우측(240D) 또는 좌측(240B)에 근접하게 위치될 수 있다. 더욱이, 일부 경우에서는, 사람이 손으로 로봇(200)을 제어하지 못할 수 있고, 제어기(208)가 사람 탑승자의 발 및/또는 다른 부분 또는 능력에 의해 액세스 가능할 수 있다. 따라서, 제어기(208)는 발판 및/또는 다른 위치에 위치될 수 있다. 일부 경우에서, 제어는 음성 명령이나 몸짓으로 수행될 수 있다.
로봇(200)은 지지 구조체(230)를 갖는다. 유리하게, 지지 구조체(230)는 센서(들) 및/또는 로봇(200)의 다른 구성요소들을 지지할 수 있다. 지지 구조체는 금속(예를 들어, 강, 알루미늄, 주석, 철 및/또는 임의의 구조용 금속), 플라스틱(예를 들어, 섬유 강화 중합체, 폴리에틸렌 테레프탈레이트, 고밀도 폴리에틸렌, 폴리염화비닐, 저밀도 폴리에틸렌, 폴리프로필렌, 폴리스티렌 및/또는 임의의 다른 플라스틱), 중합체(예를 들어, 폴리텐, 폴리프로펜, 폴리염화비닐, 테프론, 폴리스티렌, 베이클라이트, 렉산, 멜라민, 퍼스펙스, 비닐고무, 네오프렌, 폴리스티렌-부타디엔 및/또는 기타 폴리머), 세라믹(예를 들어, 질화붕소, 토기, 도자기, 사이알론, 실리콘 카바이드, 스테아 타이트, 티타늄 카바이드, 지르코니아 및/또는 기타 세라믹), 복합재(예를 들어, 시멘트, 콘크리트, 금속 복합재, 세라믹 복합재 및/또는 기타 복합재), 유기재(예를 들어, 목재 및/또는 기타 유기재), 및/또는 임의의 다른 재료를 포함할 수 있다. 일부 구현예들에서, 지지 구조체(230)는 예를 들어 박스, 섀시 및/또는 하우징 안에 싸일 수 있다.
예를 들어, 지지 구조체(230)는 의자(206)로부터 원위로 연장될 수 있다. 도시된 바와 같이, 지지 구조체는 의자(206) 위로 연장된다. 예를 들어, 의자(206)는 의자(206)의 수직 평면의 적어도 일부를 나타내는 수직 축을 가질 수 있다. 지지 구조체(200)는 의자(206)의 수직 평면의 수직 축에 축 방향으로 정렬된 제1 빔을 포함할 수 있다. 이 수직 빔은 하나 이상의 센서가 의자로부터 수직으로 연장될 수 있게 하여, 센서가 의자(206)에 앉아있는 탑승자 위에 위치될 수 있다. 유리하게는, 탑승자 위에 위치하게 하는 것은 센서가 의자(206)에 앉아 있는 사람 및/또는 로봇(200)의 임의의 다른 구성요소에 의해 완전히 방해받지 않는 시야를 갖도록 할 수 있다. 일부 구현예들에서, 로봇(200)으로부터 축 방향으로 원위 방향으로 연장되는 복수의 이러한 수직 연장 빔들이 존재할 수 있으며, 이에 의해 복수의 센서들을 지지할 수 있는 능력을 갖는다. 일부 구현예들에서, 지지 구조체(230)의 수직 방향으로 연장되는 구성요소들은 센서의 원하는 배치를 허용하기 위해 수직 축에 대해 소정 각도로 설정될 수 있다. 상기 각도는 센서의 원하는 위치, 지지 구조체(230)의 의자(206)로의 연결점, 지지 구조체(230)의 재료의 강도, 지지 구조체(230)의 다른 부분들(예를 들어, 크로스빔, 센서 등)의 배치, 지지 구조체(230)의 내구성, 지지 구조체(230)의 다른 부분들의 중량 및/또는 그 밖의 다른 구조적 고려 사항에 적어도 부분적으로 기초하여 결정될 수 있다. 예를 들어, 빔은 의자(206)의 측면으로부터 연장될 수 있고, 이에 따라 방해받지 않는 시야를 제공하기도 한다.
일부 구현예들에서, 하나 이상의 수직으로 연장되는 빔들은 도 2a 및 도 2b에 도시된 바와 같이 하나 이상의 크로스빔을 가질 수 있다. 하나 이상의 크로스빔은 하나 이상의 각도로 하나 이상의 방향으로 연장될 수 있다. 예를 들어, 크로스빔은 한 방향으로 연장되어 "L"자를 형성할 수 있다. 다른 예로서, 크로스빔은 두 방향으로 연장되어 "T"자 등등을 형성할 수 있다. 다른 예로서, 크로스빔은 의자(206)로부터 빔을 수직으로 연장하는 빔의 축에 수직으로 연장될 수 있다. 다른 예로서, 크로스빔은 예각 또는 둔각으로 연장되어 대칭 및 비대칭 형상을 포함하는 다른 형상을 형성할 수 있다.
센서(212A 내지 212F)는 로봇(200) 전체에 분산될 수 있다. 센서들(212A 내지 212F) 중 하나 이상은 센서 유닛(212)의 적어도 일부일 수 있다(도 2c를 참조하여 후술함). 예를 들어, 센서(212C 및 212F)는 주행 거리계와 같은(도 2c의 센서 유닛(212)을 참조하여 후술하는 바와 같이) 고유 수용 센서(proprioceptive sensor)를 포함할 수 있다. 센서들(212A 내지 212C 및 212E)은(도 2c에서 센서 유닛(212)을 참조하여 후술되는 바와 같이) 로봇(200)의 환경을 감지하도록 구성된 외삽식 센서들을 포함할 수 있다. 일부 구현예들에서, 하나 이상의 센서들(212A 내지 212F)은 그 센서의 시야가 원하는 영역을 커버하도록 위치될 수 있다. 예를 들어, 센서(212B)가 기울어진 LIDAR인 경우, 그 센서는 로봇(200)의 전방으로 연장되는 영역을 덮기 위해 아래쪽으로(예를 들어, 30, 45, 60 또는 임의의 다른 각도로) 기울어질 수 있다. 다른 예로서, 센서(212E)는 로봇(200)의 전방 및/또는 후방의 물체(예를 들어, 물품, 사람, 동물, 장애물 등)를 검출하기 위해 수평 축 상에서 지면으로부터 소정의 거리를 두고 위치된 평면형 LIDAR일 수 있다. 따라서, 센서는 로봇(200) 및/또는 지지 구조체(230)에 대해 원하는 각도로 위치될 수 있다.
사용자 인터페이스(218A)는 로봇(200)과 사용자 상호 작용을 허용하기 위해 로봇(200) 상에 위치될 수 있다. 예를 들어, 사용자 인터페이스(218A)는 사용자가 경로를 입력하고, 정보를 전송/수신하고, 상태를 보고, 로봇(200)을 제어하고(예를 들어, 속도, 후진, 가속, 회전 등), 로봇(200)을 구성하고, 로봇(200)(예를 들어, 로봇(200)의 센서들)을 교정하고, 로봇(200)을 구동하고, 송신/수신 통신을 하고, 로봇(200)의 양상(예를 들어, 좌석 레벨, 팔걸이 레벨, 발판 레벨, 휠 각도 등)을 조정하고, 그리고/또는 로봇(200)과의 임의의 상호 작용을 수행하는 데 사용될 수 있다. 사용자 인터페이스(218A)는 사용자 인터페이스 유닛(218)의 적어도 일부일 수 있다.
도 2b는 본 개시내용의 일부 구현예에 따른 로봇식 휠체어를 포함하는 로봇(200)의 배면도이다. 로봇(200)은 로봇식 모듈의 구성요소와 같은 로봇(200)의 추가 구성요소를 수용할 수 있는 유닛(210)을 가질 수 있다. 예를 들어, 유닛(210)은 센서(212A-212F), 사용자 인터페이스(218A), 모터(226) 및/또는 로봇(200)의 구성요소로부터의 데이터를 처리하도록 구성된 제어기를 수용할 수 있다. 예를 들어, 유닛(210)은 도 2c를 참조하여 설명된 하나 이상의 구성요소를 포함할 수 있다. 액추에이터(220A)는, 로봇(200)의 바퀴를 이동시키기 위한 전기 모터와 같은, 로봇(200)을 이동시키기 위한 액추에이터를 포함할 수 있다. 액추에이터(220A)는 도 2c를 참조하여 설명된 액추에이터 유닛(220)의 액추에이터일 수 있다.
도 2a 및 도 2b는 하나의 특정 본체 형태를 도시하고 있지만, 다른 본체 형태가 고려된다. 예를 들어, 로봇(200)은 탑승자를 위한 포드, 인클로저 및/또는 커버를 포함할 수 있다. 더욱이, 의자(206)는 사람이 서거나, 앉거나, 서거나 앉는 것 사이의 어떤 위치에 있도록 하는 각도와 같은 상이한 각도들로 위치될 수 있다. 이러한 방식으로, 로봇(200)은 더 좁은 깊이를 가질 수 있지만, 로봇(200)이 사람을 운송하도록 허용한다. 일부 경우에서, 의자(206)는 사람을 기울이도록 위치될 수 있다. 이러한 것은 불구자, 부상자 및/또는 앉거나 서지 못하는(또는 그렇게 하는 걸 원하지 않는) 사람을 위한 사례가 될 수 있다.
또한, 일부 구현예들에서, 로봇식 구성요소들은 로봇(200)의 바디(예를 들어, 의자(206))에 완전히 통합될 수 있다. 예시로서, 센서(212A 내지 212F)는 머리받침대, 등받이, 좌석, 팔걸이, 다리받침대, 바퀴 등과 같은 의자(206) 내부에 위치될 수 있다. 유리하게는, 이것은 보다 더 통합적인 외관을 제공할 수 있다. 그러나, 이러한 통합은 장치 및/또는 센서를 차단하는 위험을 증가시킬 수 있다.
일부 경우에서, 범퍼 및/또는 컬럼과 같은 구조가 로봇(200)의 전방에 위치될 수 있다. 범퍼 및/또는 컬럼은 사람 탑승자를 방해하지 않도록 위치될 수 있지만, 사람 탑승자에 의해 센서들의 시야가 차단되지 않도록 센서들을 수용할 수 있다.
도 2c는 본 개시내용의 일부 원리에 따른 것으로, 로봇(200)의 기능 블록선도이다. 도 2c에 도시된 바와 같이, 로봇(200)은 제어기(204), 메모리(202), 사용자 인터페이스 유닛(218), 맵핑 및 위치결정 유닛(mapping and localization unit)(224), 센서 유닛(212), 액추에이터 유닛(220), 및 통신 유닛(222)을 포함할 수 있고, 이뿐만 아니라 그 밖의 다른 컴포넌트 및 서브컴포넌트(예를 들어, 이들 중 몇몇은 예시되지 않을 수 있음)를 포함할 수 있다. 도 2c에 특정 구현예가 예시되어 있지만, 본 개시내용의 내용들이 주어지는 경우 당업자에게 쉽게 자명해지게 되는 바와 같이, 특정 구현예들에서 아키텍처가 변화될 수 있다는 것이 이해된다. 로봇(200)은 본 개시내용에 설명된 임의의 로봇의 적어도 일부를 대표할 수 있다.
제어기(204)는 로봇(200)에 의해 수행되는 다양한 동작들을 제어할 수 있다. 제어기(204)는 하나 이상의 프로세서들(예를 들어, 마이크로프로세서들) 및 다른 주변 장치들을 포함할 수 있다. 본원에서 사용되는 프로세서, 마이크로프로세서 및 디지털 프로세서라는 용어들은 이를테면, 비제한적으로, 디지털 신호 프로세서("DSP"), 축소 명령 세트 컴퓨터("RISC"), 범용("CISC") 프로세서, 마이크로프로세서, 게이트 어레이(예를 들어, 필드 프로그래머블 게이트 어레이("FPGA")), 프로그래머블 로직 디바이스("PLD"), 재구성 가능 컴퓨터 패브릭("RCF"), 어레이 프로세서, 보안 마이크로프로세서, 특수 프로세서(예를 들어, 뉴로모픽 프로세서) 및 주문형 반도체("ASIC") 등과 같은 임의의 유형의 디지털 프로세싱 디바이스를 포함할 수 있다. 이러한 디지털 프로세서들은 단일 유니터리 집적 회로 다이 상에 포함될 수 있거나, 또는 다수의 컴포넌트들에 걸쳐 분포될 수 있다.
제어기(204)는 메모리(202)에 동작 가능하게 그리고/또는 통신 가능하게 연결될 수 있다. 메모리(202)는, 판독 전용 메모리("ROM"), 랜덤 액세스 메모리("RAM"), 비휘발성 랜덤 액세스 메모리("NVRAM"), 프로그래머블 판독 전용 메모리("PROM"), 전기적 소거 가능 프로그래머블 판독 전용 메모리("EEPROM"), 동적 랜덤 액세스 메모리("DRAM"), 모바일 DRAM, 동기식 DRAM("SDRAM"), 더블 데이터 레이트 SDRAM("DDR/2 SDRAM"), 확장 데이터 출력("EDO") RAM, 고속 페이지 모드("FPM") RAM, 감소된 레이턴시 DRAM("RLDRAM"), 정적 RAM("SRAM"), 플래시 메모리(예를 들어, NAND/NOR), 멤리스터 메모리, 의사정적 RAM("PSRAM") 등을 비제한적으로 포함하는, 디지털 데이터를 저장하도록 구성된 임의의 유형의 집적 회로 또는 그 밖의 다른 저장 디바이스를 포함할 수 있다. 메모리(202)는 명령들 및 데이터를 제어기(204)에 제공할 수 있다. 예를 들어, 메모리(202)는 복수의 명령들이 저장된 비-일시적 컴퓨터-판독가능 저장 장치 및/또는 매체일 수 있으며, 명령들은 로봇(200)을 동작시키도록 프로세싱 장치(예를 들어, 제어기(204))에 의해 실행 가능하다. 일부 경우들에서, 명령들은, 프로세싱 장치에 의해 실행될 때, 프로세싱 장치로 하여금 본 개시내용에서 설명되는 다양한 방법들, 특징들, 및/또는 기능성을 수행하게 하도록 구성될 수 있다. 따라서, 제어기(204)는 메모리(202) 내에 저장된 프로그램 명령들에 기초하여 논리 및/또는 산술 연산들을 수행할 수 있다. 일부 경우에서, 메모리(202)의 명령 및/또는 데이터는, 일부는 로봇(200) 내에 로컬로 위치되고 일부는 로봇(200)으로부터 원격에 위치되는(예를 들어, 클라우드, 서버, 네트워크 등) 하드웨어의 조합에 저장될 수 있다.
일부 구현예에서, 센서 유닛(212)은 로봇(200) 내의 및/또는 주변의 특징들을 감지할 수 있는 시스템들 및/또는 방법들을 포함할 수 있다. 센서 유닛(212)은 복수의 센서 및/또는 센서들의 조합을 포함할 수 있다. 센서 유닛(212)은 로봇(200) 내부 또는 외부에 있는 센서들을 포함할 수 있고, 그리고/또는 부분적으로 내부 및/또는 부분적으로 외부에 있는 컴포넌트들을 가질 수 있다. 일부 경우에서, 센서 유닛(212)은 음파탐지기, 광 검출 및 거리 측정("LIDAR") 센서, 레이더, 레이저, 카메라(비디오 카메라(예를 들어, 적색-청색-녹색("RBG") 카메라, 적외선 카메라, 3차원("3D") 카메라, 열화상 카메라 등)를 포함함), 비행시간("TOF") 카메라, 구조화된 라이트 카메라, 안테나, 동작 탐지기, 마이크 및/또는 당업계에 공지된 그 밖의 다른 임의의 센서를 포함할 수 있다. 일부 구현예에서, 센서 유닛(212)은 미가공 측정치들(예를 들어, 전류, 전압, 저항 게이트 로직 등) 및/또는 변환된 측정치들(예를 들어, 거리, 각도, 장애물 감지 지점 등)을 수집할 수 있다. 일부 경우에서, 측정치들이 집계 및/또는 요약될 수 있다. 센서 유닛(212)은 측정치들에 적어도 부분적으로 기초하여 데이터를 생성할 수 있다. 이러한 데이터는 행렬, 어레이, 큐, 리스트, 어레이, 스택, 백 등과 같은 데이터 구조로 저장될 수 있다. 일부 구현예에서, 상기 센서 데이터의 데이터 구조는 이미지라고 부를 수 있다.
일부 구현예에서, 센서 유닛(212)은 로봇(200)의 내부 특성들을 측정할 수 있는 센서들을 포함할 수 있다. 예를 들어, 센서 유닛(212)은 로봇(200)의 온도, 전력 레벨, 상태 및/또는 임의의 특성을 측정할 수 있다. 일부 경우에서, 센서 유닛(212)은 로봇(200)의 오도메트리(odometry)를 결정하도록 구성될 수 있다. 예를 들어, 센서 유닛(212)에는, 가속도계, 관성 측정 유닛(IMU), 주행거리계, 자이로스코프, 속도계, 카메라(예를 들어, 시각적 오도메트리(visual odometry)를 사용하는 것), 시계/타이머 등과 같은 센서들을 포함할 수 있는 고유수용성 센서가 포함될 수 있다. 오도메트리는 로봇(200)의 자율 주행 및/또는 자율 동작을 용이하게 할 수 있다. 이 오도메트리에는 초기 위치에 대한 로봇(200)의 자세(예를 들어, 위치는 로봇의 위치, 변위 및/또는 방향을 포함하는 경우에는 때로는 본원에 사용된 용어인 자세로 치환할 수 있음)가 포함될 수 있다. 이러한 데이터는 행렬, 어레이, 큐, 리스트, 어레이, 스택, 백 등과 같은 데이터 구조로 저장될 수 있다. 일부 구현예에서, 상기 센서 데이터의 데이터 구조는 이미지라고 부를 수 있다.
맵핑 및 위치결정 유닛(224)은 센서 유닛(212)으로부터 센서 데이터를 수신하여 로봇(200)을 지도 내에 위치시킬 수 있다. 일부 구현예에서, 맵핑 및 위치결정 유닛(224)은 로봇(200)으로 하여금 지도의 좌표에 자신을 위치시킬 수 있게 하고/하거나 소정 위치(예를 들어, 초기화 위치, 종료 위치, 비컨, 기준 위치 등)에 대해 자신을 위치시킬 수 있게 하는 위치결정 시스템들 및 방법들을 포함할 수 있다. 맵핑 및 위치결정 유닛(224)은 또한 그래프 및/또는 지도를 생성하는 등의 것에 의해 로봇(200)에 의해서 취해진 측정치들을 처리할 수도 있다. 일부 구현예들에서, 맵핑 및 위치 결정 유닛(224)은 개별 유닛이 아니라 센서 유닛(212) 및/또는 제어기(204)의 일부일 수 있다.
일부 구현예에서, 로봇(200)은 학습 프로세스를 통해 경로를 맵핑하고 학습할 수 있다. 예를 들어, 조작자는 환경의 경로를 따라 로봇(200)을 구동함으로써 로봇(200)이 환경에서 어디로 이동해야 하는지를 가르쳐줄 수 있다. 센서 유닛(212)으로부터의 센서 데이터의 조합을 통해, 로봇(200)은 로봇(200)의 환경에서의 아이템의 포즈 및 포즈를 결정할 수 있다. 이러한 방식으로, 로봇(200)은 환경 내 위치 및 이동한 위치를 결정할 수 있다. 로봇(200)은 나중에 어디로 이동했는지를 기억하고 실질적으로 유사한 방식으로 이동할 수 있다(그러나 후속한 이동에서 특정 장애물은 피할 수 있음). 로봇들은 이러한 경험을, 예컨대(도 3을 참조하여 설명되는) 네트워크(302)를 통해서, 서로 공유할 수 있다.
일부 구현예에서, 사용자 인터페이스 유닛(218)은 사용자가 로봇(200)과 상호 작용할 수 있도록 구성될 수 있다. 예를 들어, 사용자 인터페이스 유닛(218)은 터치 패널, 버튼, 키패드/키보드, 포트(예를 들어, 범용 직렬 버스(USB), 디지털 비주얼 인터페이스(DVI), 디스플레이 포트, E-Sata, Firewire, PS/2, 시리얼, VGA, SCSI, 오디오 포트, 고화질 멀티미디어 인터페이스("HDMI"), 개인용 컴퓨터 메모리 카드 국제 협회("PCMCIA") 포트, 메모리 카드 포트(예를 들어, 보안 디지털(SD: secure digital) 및 miniSD) 및/또는 컴퓨터 판독가능 매체용 포트), 마우스, 롤러볼, 콘솔, 바이브레이터, 오디오 변환기, 및/또는 사용자가 데이터 및/또는 명령을 입력 및/또는 수신할 수 있도록 한 것으로서 무선 연결 또는 유선 연결을 막론한 임의의 인터페이스를 포함할 수 있다. 사용자는 음성 명령 또는 몸짓을 통해 상호 작용할 수 있다. 사용자 인터페이스 유닛(218)에는, 예컨대 비제한적으로 액정 디스플레이("LCD"), 발광 다이오드("LED") 디스플레이, LED LCD 디스플레이, 인-플레인 스위칭("IPS") 디스플레이, 음극선관, 플라즈마 디스플레이, 고화질("HD") 패널, 4K 디스플레이, 망막 디스플레이, 유기 LED 디스플레이, 터치스크린, 표면, 캔버스, 및/또는 임의의 디스플레이, 텔레비전, 모니터, 패널, 스크린, 및/또는 당업계에 공지된 시각적 표현을 위한 장치 등과 같은, 디스플레이들이 포함될 수 있다. 일부 구현예에서, 사용자 인터페이스 유닛(218)은 로봇(200)의 본체에 위치될 수 있다. 일부 구현예에서, 사용자 인터페이스 유닛(218)은 로봇(200)의 본체로부터 멀리 떨어져 위치될 수 있지만, 로봇(200)에(예를 들어, 송신기, 수신기, 및/또는 송수신기를 포함한 통신 유닛을 거쳐서) 직접적으로 또는 간접적으로(예를 들어, 네트워크, 서버, 및/또는 클라우드를 통해) 통신 가능하게 연결될 수 있다. 일부 구현예들에서, 사용자 인터페이스 유닛(218)은, 예를 들어 탑승자 또는 로봇 주변 사람들에게 정보를 제공하기 위해, 로봇에 근접하게 위치된 표면(예를 들어, 바닥) 상에 하나 이상의 이미지를 투영하는 것을 포함할 수 있다. 상기 정보는 앞으로, 왼쪽, 오른쪽, 뒤로, 비스듬히 및/또는 임의의 다른 방향으로 이동한다는 표시와 같이 로봇의 향후의 이동 방향일 수 있다. 일부 경우에서, 이러한 정보는 화살표, 색상, 기호 등을 활용할 수 있다.
예시로서, 로봇(200)은 프로젝터, 조명 및/또는 다른 투영 시스템을 가질 수 있다. 로봇(200)은 사람들에게 움직임의 방향 및/또는 다음 행동을 알리기 위해 바닥에 이미지를 투영할 수 있다. 예를 들어, 로봇(200)은 경로의 이미지를 바닥에 투영하여 사람들이 어디로 이동할 것인지 알게 할 수 있다. 바닥에 투영된 그 밖의 다른 이미지들은 로봇(200)이 멈출 계획인 곳, 이동을 시작할 계획인 시기, 및/또는 로봇식 의자 주변의 사람들이 보다 편안하고 안전하게 느끼도록 하는 유용한 정보를 나타낼 수 있다. 이러한 투영은 "로봇식 장치의 안전 주행을 위한 장치 및 방법"이라는 발명의 명칭의 미국 특허출원공개 제2016/0375592호와 실질적으로 유사한 시스템 및 방법을 사용할 수 있으며, 이는 그 전문이 본원에 참조로 원용되어 포함된다.
일부 구현예에서, 통신 유닛(222)에는 하나 이상의 수신기, 송신기 및/또는 송수신기가 포함될 수 있다. 통신 유닛(222)은, 예컨대 블루투스(BLUETOOTH®), 지그비(ZIGBEE®), 와이파이(Wi-Fi), 유도 무선 데이터 전송, 무선 주파수, 무선 전송, 무선 주파수 식별("RFID"), 근거리 통신("NFC"), 적외선, 네트워크 인터페이스, 3G(3GPP/3GPP2)와 같은 셀룰러 기술, 고속 다운링크 패킷 액세스("HSDPA"), 고속 업링크 패킷 액세스("HSUPA"), 시분할 다중 액세스("TDMA"), 코드 분할 다중 액세스("CDMA")(예를 들어, IS-95A, 광대역 코드 분할 다중 접속("WCDMA") 등), 주파수 호핑 확산 스펙트럼("FHSS"), 직접 시퀀스 확산 스펙트럼("DSSS"), 글로벌 이동 통신 시스템("GSM"), 개인 영역 네트워크("PAN")(예를 들어, PAN/802.15), 마이크로웨이브 액세스를 위한 전세계 상호 운용성("WiMAX"), 802.20, 롱텀 에볼류션("LTE")(예를 들어, LTE/LTE-A), 시분할 LTE("TD-LTE"), 글로벌 이동 통신 시스템("GSM"), 협대역/주파수 분할 다중 액세스("FDMA"), 직교 주파수 분할 다중화("OFDM"), 아날로그 셀룰러, 셀룰러 디지털 패킷 데이터("CDPD"), 위성 시스템, 밀리미터파 또는 마이크로웨이브 시스템, 음향, 적외선(예를 들어, 적외선 데이터 통신("IrDA")), 및/또는 임의의 다른 형태의 무선 데이터 전송과 같은, 전송 프로토콜을 송신/수신하도록 구성될 수 있다.
본원에 사용된 네트워크 인터페이스는, 파이어와이어(FireWire)(예를 들어, FW400, FW800, FWS800T, FWS1600, FWS3200 등), 범용 직렬 버스(USB)(예를 들어, USB 1.X, USB 2.0, USB 3.0, USB 타입-C 등), 이더넷(예를 들어, 10/100, 10/100/1000(기가비트 이더넷), 10-Gig-E 등), 케이블 기반 멀티미디어 연합("MoCA") 기술, Coaxsys(예를 들어, TVNET™), 무선 주파수 튜너(예를 들어, 인-밴드 또는 00B, 케이블 모뎀 등), Wi-Fi(802.11), WiMAX(예를 들어, WiMAX(802.16)), PAN(예를 들어, PAN/802.15), 셀룰러(예를 들어, 3G, LTE/LTE-A/TD-LTE/TD-LTE, GSM 등), IrDA 제품군 등을 비제한적으로 포함하는, 컴포넌트, 네트워크, 또는 프로세스와의 임의의 신호, 데이터, 또는 소프트웨어 인터페이스를 포함할 수 있다. 본원에 사용된 Wi-Fi는 IEEE 표준 802.11, IEEE 표준 802.11의 변형, IEEE 표준 802.11과 관련된 표준(예를 들어, 802.11 a/b/g/n/ac/ad/af/ah/ai/aj/aq/ax/ay) 및/또는 기타 무선 표준 중 하나 이상을 포함할 수 있다.
통신 유닛(222)은 또한 신호선 및 접지를 갖는 임의의 케이블과 같은 유선 접속을 통해서 전송 프로토콜을 사용하는 신호를 송신/수신하도록 구성될 수 있다. 예를 들어, 위와 같은 케이블에는 이더넷 케이블, 동축 케이블, 범용 직렬 버스("USB"), 파이어와이어(FireWire) 및/또는 당업계에 공지된 임의의 접속 수단이 포함될 수 있다. 이러한 프로토콜은 통신 유닛(222)에 의해 사용되어서 컴퓨터, 스마트폰, 태블릿, 데이터 갈무리 시스템, 이동 통신 네트워크, 클라우드, 서버 등과 같은 외부 시스템과 통신할 수 있도록 한다. 통신 유닛(222)은 숫자, 문자, 영숫자 문자 및/또는 기호를 포함하는 신호를 송신 및 수신하도록 구성될 수 있다. 일부 경우에서, 신호는 128 비트 또는 256 비트 키 및/또는 고급 암호화 표준(AES: Advanced Encryption Standard), RSA, 데이터 암호화 표준(DES: Data Encryption Standard), 트리플 DES 등과 같은 표준을 준수하는 그 밖의 다른 암호화 알고리즘과 같은, 알고리즘을 사용하여 암호화될 수 있다. 통신 유닛(222)은 상태, 명령, 및 그 밖의 다른 데이터/정보를 송신 및 수신하도록 구성될 수 있다. 예를 들어, 통신 유닛(222)은 사용자가 로봇(200)을 제어할 수 있게 하기 위해 사용자 조작기(user operator)와 통신할 수 있다. 통신 유닛(222)은 로봇(200)이 데이터, 상태, 명령 및 그 밖의 다른 통신 정보들을 서버에 송신할 수 있게 하기 위해 서버/네트워크(예를 들어, 네트워크)와 통신할 수 있다. 상기 서버는 또한 로봇(200)을 원격으로 모니터링 및/또는 제어하는 데 사용될 수 있는 컴퓨터(들) 및/또는 장치(들)에 통신 가능하게 결합될 수도 있다. 통신 유닛(222)은 또한 로봇(200)을 위해 서버로부터 업데이트(예를 들어, 펌웨어 또는 데이터 업데이트), 데이터, 상태, 명령 및 그 밖의 다른 통신 정보도 수신할 수 있다.
액추에이터 유닛(220)은 작동을 위해, 일부 경우에서는 작업을 수행하기 위해, 사용되는 임의의 시스템을 포함할 수 있다. 예를 들어, 액추에이터 유닛(220)은 피동 자석 시스템, 모터/엔진(예를 들어, 전기 모터, 연소 엔진, 증기 엔진 및/또는 당업계에 공지된 임의의 유형의 모터/엔진), 솔레노이드/래칫 시스템, 압전 시스템(예를 들어, 인치웜 모터), 자기변형 요소, 몸짓, 및/또는 당업계에 공지된 임의의 액추에이터를 포함할 수 있다. 일부 구현예들에서, 액추에이터 유닛(220)은 전동화 추진과 같은 로봇(200)의 이동이 이루어질 수 있게 하는 시스템을 포함할 수 있다. 예를 들어, 전동 추진은 로봇(200)을 전방 또는 후방으로 이동시킬 수 있고/있거나 로봇(200)을 회전시키는 데 적어도 부분적으로 사용될 수 있다(예를 들어, 좌측, 우측 및/또는 임의의 다른 방향). 예로서, 액추에이터 유닛(220)은 로봇(200)이 이동하는지 또는 정지되는지를 제어할 수 있고/있거나 로봇(200)이 한 위치에서 다른 위치로 이동할 수 있게 한다.
도 3과 관련하여 설명된 하나 이상의 유닛(메모리(202), 제어기(204), 센서 유닛(212), 사용자 인터페이스 유닛(218), 액추에이터 유닛(220), 통신 유닛(222), 맵핑 및 위치결정 유닛(224) 및/또는 기타 유닛을 포함)은 통합형 시스템에서와 같이 로봇(200)에 통합될 수 있다. 그러나, 일부 구현예들에서, 이들 유닛들 중 하나 이상은 부착 가능한 모듈의 일부일 수 있다. 이 모듈은 기존 장치에 부착되어 로봇처럼 작동하도록 자동화 할 수 있다. 따라서, 로봇(200)과 관련하여 본 개시내용에서 설명된 특징들은 기존 장치에 부착될 수 있고/있거나 통합 시스템에서 로봇(200)에 통합될 수 있는 모듈에서 인스턴스화될 수 있다. 또한, 일부 경우에서, 당업자는 본 개시내용에 설명된 기능들 중 적어도 일부가 클라우드, 네트워크 및/또는 서버에서와 같이 원격으로 실행될 수도 있다는 것을 본 개시의 내용으로부터 이해하게 될 것이다.
일부 구현예들에서, 로봇(200)은 네트워크에 통신 가능하게 연결될 수 있다. 도 3은 본 개시내용의 일부 구현예에 따른 것으로, 네트워크(302)에 통신 가능하고/하거나 작동 가능하게 연결된 로봇(200)을 포함하는 시스템(300)의 기능 블록선도이다. 네트워크(302)는 제한된 또는 정의된 기간, 또는 무제한 또는 정의되지 않은 기간 동안 가상 머신, 프로세스 또는 다른 리소스를 인스턴스화하기 위해 호출될 수 있는 하드웨어, 소프트웨어, 서비스 및/또는 리소스의 집합을 포함할 수 있다. 네트워크(302)는 인터넷에 액세스할 수 있는 장치 및/또는 서버를 포함하는 복수의 장치, 시스템 및/또는 서버에 통신 및/또는 동작 가능하게 연결될 수 있다. 액세스 지점들(304A 및 304B)과 같은 액세스 지점들 중 하나 이상은 컴퓨터, 모바일 디바이스, 태블릿, 스마트폰, 셀 폰, 개인용 디지털 비서(personal digital assistant), 패블릿(phablet), 전자 판독기, 스마트 시계, 셋톱 박스, 인터넷 스트리밍 디바이스, 게임 콘솔, 스마트 기기, 및/또는 인터넷 및/또는 임의의 네트워크 프로토콜로의 접속을 갖춘 임의의 디바이스를 이에 제한되지 않고 포함하는, 디바이스, 시스템, 및/또는 서버일 수 있다. 2 개의 액세스 지점이 도시되어 있지만, 액세스 지점은 원하는 대로 더 많거나 더 적을 수 있다.
본원에서 사용된 바와 같이, 네트워크(302)는 작동될 수 있는 것으로, 네트워크(302)는 정보를 수신, 처리 및/또는 전송할 수 있는 온보드 컴퓨터를 가질 수 있다. 이들 컴퓨터는 하나 이상의 작업자에 의해 자율적으로 및/또는 제어할 수 있다. 유사하게, 네트워크(302)는 네트워크(302)를 동작시키기 위해 유사하게 사용될 수 있는 액세스 지점(예를 들어, 액세스 지점(304A 및 304B))을 가질 수 있다. 액세스 지점은 정보를 수신, 처리 및/또는 전송할 수 있는 컴퓨터 및/또는 작업자를 가질 수 있다. 따라서, 본 명세서에서 네트워크(302)의 동작에 대한 언급은 인간 운영자 및/또는 컴퓨터 운영자에게 적용될 수 있다.
일부 구현예에서, 로봇(200)과 실질적으로 유사한 하나 이상의 로봇은 네트워크(302)에 통신 및/또는 동작 가능하게 연결될 수 있다. 이들 로봇 각각은 상태, 명령 및/또는 동작 데이터를 네트워크(302)에 전달할 수 있다. 네트워크(302)는 또한 하나 이상의 로봇에 상태, 명령 및/또는 작동 데이터를 저장 및/또는 통신할 수 있다. 일부 경우에서, 네트워크(302)는 로봇(200) 및/또는 다른 로봇으로부터의 맵, 센서 데이터 및 다른 정보를 저장할 수 있다. 네트워크(302)는 서로 연결된 복수의 로봇들의 경험을 공유할 수 있다. 더욱이, 정보의 집합으로, 네트워크(302)는 로봇의 성능을 향상시키기 위해 기계 학습 알고리즘을 수행할 수 있다.
당업자는 본 개시내용의 일부가 로봇(200), 네트워크(302), 및/또는 액세스 지점(304A 및/또는 304B)에 의해 수행될 수 있다는 것을 본 개시의 내용으로부터 이해하게 될 것이다. 특정 예들이 로봇(200), 네트워크(302) 및/또는 액세스 지점들(304A 및/또는 304B) 중 하나 이상을 참조하여 설명될 수 있지만, 그 특정 예들의 특징들은 로봇(200), 네트워크(302), 및/또는 액세스 지점들(304A 및/또는 304B) 사이에서 분배되어 실질적으로 유사한 결과를 달성할 수 있다는 것이 이해될 것이다.
도 4는 본 개시내용의 일부 구현예에 따른 것으로, 로봇식 휠체어를 작동하는 예시적 방법(400)의 프로세스 흐름도이다. 이 예는 휠체어와 관련하여 로봇 공학을 설명하지만, 당업자는 본 개시의 내용이 주어지면 이 방법(400)이 사람, 물품, 동물 등을 운송하는 모바일 플랫폼에 적용되는 것을 포함하여 다른 로봇에 쉽게 적용될 수 있음을 이해할 수 있다.
블록 402는 사람을 픽업할 위치로 가는 것을 포함한다. 예를 들어, 로봇(200)은 픽업 스테이션, 입구, 출구, 지정된 픽업 위치 및/또는 미리 결정될 수 있는 임의의 다른 장소와 같이 휠체어를 기다리는 사람들이 모이는 중앙 위치로 갈 수 있다. 다른 예로서, 로봇(200)은 하나 이상의 사람을 기다리거나 픽업하기 위해 특정 위치로 갈 수 있다.
일부 구현예들에서, 로봇(200)은 표지의 검출에 적어도 부분적으로 기초하여 그것이 픽업 위치에 있다고 결정할 수 있다. 예를 들어, 도 5는 본 개시내용의 일부 구현예에 따른 것으로, 표지(500)를 검출하는 로봇(200)의 정면도이다. 표지(500)는 또한 의자, 기둥, 장식품 등과 같은 유형의 물체를 포함할 수도 있다. 표지(500)는 텍스트와 같은 사람이 읽을 수 있는 기호를 포함할 수 있다. 예를 들어, 상기 텍스트는 위치, 위치와 관련된 영숫자(예를 들어, 위치 1, 2, 3, 4, 위치 A, B, C, D, 위치 1A, 1B, 1C 등을 포함함), 표지(500)와 적어도 부분적으로 연관된 목적지에 대한 서술(예를 들어, 그러한 목적지가 제한되는 경우), 및/또는 표지(500)의 임의의 특성 및/또는 양태에 대한 서술과 같은 표지(500)의 특성을 서술할 수 있다. 일부 구현예들에서, 표지(500)는 스크린 상에 디스플레이될 수 있다. 예를 들어, 상기 스크린은 LCD, LED 디스플레이, LED LCD 디스플레이, IPS 디스플레이, 음극선관, 플라즈마 디스플레이, HD 패널, 4K 디스플레이, 망막 디스플레이, 유기 LED 디스플레이, 터치스크린, 표면, 캔버스, 스크린 잉크 기술, 및/또는 임의의 디스플레이, 텔레비전, 모니터, 패널, 및/또는 시각적 표현을 위해 당업계에 알려진 장치를 포함할 수 있다. 유리하게는, 상기 스크린은 변경될 수 있는 이미지를 표시할 수 있다. 각각의 예에서, 표지(500)는 로봇(200)이 센서(212A)와 같은 하나 이상의 센서 유닛(212)을 통해 인식할 수 있는 물체일 수 있다.
일부 구현예들에서, 표지(500)가 이미지인 경우에는, 센서(212A)가 RGB 카메라이거나 가시 스펙트럼 외부에서(예를 들어, 인간이 볼 수 없는 범위) 인스턴스화될 수 있는 경우, 센서(212A)가 적외선 카메라, 초분광 카메라 및/또는 가시 스펙트럼 외부의 에너지를 이미지화 하거나 검출할 수 있는 다른 카메라 및/또는 센서를 사용하여 표지(500)를 검출할 수 있는 경우와 같이, 표지(500)는 가시 스펙트럼에서(예를 들어, 인간이 볼 수 있는 범위) 인스턴스화될 수 있다.
일부 구현예들에서, 표지(500)는 로봇(200)에 의해 표지(500)의 검출을 가능하게 하기 위해 무선 전송(예를 들어, BLUETOOTH®) 및/또는 다른 신호 프로토콜과 같은 신호를 전송할 수 있다. 일부 구현예들에서, 픽업 장소에, 또는 실질적으로 픽업 장소에 근접하게, 송신기(예를 들어, RFID, NFC, BLUETOOTH®, 무선 전송, 무선 주파수 필드 및/또는 본 개시내용에서 설명된 임의의 다른 통신 프로토콜을 사용하여 정보를 전송하는 송신기)가 있을 수 있다. 이러한 통신은 또한 승객, 좌표, 식별 등과 같은 픽업 위치에 관한 정보를 전송할 수 있다. 로봇(200)이 송신기의 상부에 있거나 및/또는 실질적으로 근접한 것을 검출하면, 로봇(200)은 로봇(200)이 픽업 위치에 있음을 검출할 수 있다. 일부 경우에서, 송신기는 로봇(200)이 송신기가 시작 위치에 있을 때에만 송신기로부터의 통신을 검출할 수 있도록 작동 가능한 범위를 가질 수 있다. 예시적인 예로서, NFC의 전송 범위는 10 센티미터 이하일 수 있다. 따라서, 로봇(200)이 NFC를 통해 전송을 수신하면, 로봇(200)은 그것이 픽업 위치에 위치하고 있음을 검출할 수 있다. 일부 구현예들에서, 로봇(200)은 송신기로부터 전송을 수신하고 신호 강도의 감쇠에 적어도 부분적으로 기초하여 송신기까지의 거리를 계산할 수 있다. 이러한 방식으로, 로봇(200)은 그것이 송신기에 얼마나 가까운지, 그리고 결과적으로 송신기 및/또는 픽업 위치에 대한 로봇(200)의 위치를 검출할 수 있다. 일부 구현예들에서, 로봇(200)은 복수의 송신기들의 신호 강도를 삼각 측량함으로써 그의 위치를 결정할 수 있다. 일부 구현예들에서, 픽업 위치는 바닥 상의 기호(예를 들어, 표지, 기호, 선 등)에 의해 경계 설정될 수 있다. 로봇(200)의 센서(예를 들어, 센서 유닛(212))의 하나 이상의 센서가 바닥의 사인을 검출할 때, 로봇(200)은 로봇(200)이 픽업 위치에 위치되는 것을 검출할 수 있다.
일부 구현예들에서, 표지(500)는 처프(chirp), 비프 음, 잡음 및/또는 임의의 다른 소리(인간, 동물 및/또는 다른 청취자가 들을 수 있는 소리 또는 들을 수 없는 소리)와 같은 소리를 낼 수 있다. 일부 경우에서, 사운드는 표지(500)에 고유할 수 있고, 다른 표지는 다른 사운드를 만들 수 있다. 사운드는 표지(500)의 위치를 식별 및/또는 삼각 측량하기 위해 사운드를 사용할 수 있는 센서 유닛(212)의 센서(예를 들어, 마이크로폰)에 의해 검출될 수 있다. 일부 구현예들에서, 표지(500)는 사람이 볼 수 있는 요소와 볼 수 없는 요소 모두를 포함할 수 있다. 유리하게는, 사람이 볼 수 있는 요소와 볼 수 없는 요소를 모두 갖는 것은 로봇(200)을 향한 사용자가 표지(500)를 검출하는 것을 용이하게 할 수 있다. 일부 경우에서, 볼 수 있는 부분은 볼 수 없는 부분보다 작거나 눈에 띄지 않을 수 있다. 도시된 바와 같이, 센서(212A)는 지면으로부터 소정 거리에 및/또는 미리 설정된 각도로 위치될 수 있고, 여기서 높이 및/또는 각도는, 적어도 부분적으로 표지(500)의 예상 위치에서, 및/또는 시야(502) 내 표지(500)를 캡처하기 위해 센서(212A)가 위치할 수 있는 곳에서, 결정될 수 있다.
일부 구현예들에서, 외부 센서는 로봇(200)이 픽업 위치에 있을 때를 검출할 수 있다. 외부 센서는 로봇(200)이 픽업 위치에 있음을 통신하면서 로봇(200) 및/또는 네트워크(302)에 통신 가능하게 연결될 수 있다. 예를 들어, 외부 센서는 픽업 위치에서 로봇(200)을 보는 카메라일 수 있다. 일부 구현예들에서, 외부 센서는 보안 카메라로서 또는 스마트 빌딩의 사물 인터넷("TOT")에서 동작하는 것과 같이 로봇(200)을 검출하는 것 이외의 다른 기능을 가질 수 있다. 예를 들어, 카메라는 조명, 온도, 사람 수 계산, 혼잡도(예를 들어, 사람, 동물, 로봇, 차량 등) 확인 및/또는 원하는 기능을 제어하는 데 사용될 수 있다.
다시 도 4의 방법(400)으로 되돌아가면, 블록 404는 사람을 휠체어 탑승자로서 수용하는 것을 포함한다. 예를 들어, 사람은 로봇(200)의 의자(206)에 앉을 수 있다. 일부 경우에서, 사람은 자신의 힘으로 로봇(200)에 앉을 수 있다. 일부 경우에서, 사람은 로봇(200)에 앉을 수 있도록 사람, 로봇 및/또는 장치의 도움을 이용할 수 있다.
일부 구현예들에서, 로봇(200)은 픽업 위치에서 사용자가 도달할 때를 기다릴 수 있다. 다른 구현예들에서, 로봇(200)을 부를 수 있으며, 이는 일부 경우에서는 블록 406과 동시에 수행될 수 있다(예를 들어, 도 5b 내지 도 5f를 참조하여 설명된 시스템 및 방법을 사용하여 수행). 일부 구현예들에서, 로봇(200)을 부르는 과정은 사용자가 승차를 위해 정보를 보내는(예를 들어, 프로그램 애플리케이션을 통해) UBERTM, LYFTTM의 부르는 과정 및 다른 택시 부름 서비스와 실질적으로 유사할 수 있다.
블록 406은 목적지 명령을 수신하는 단계를 포함한다. 예를 들어, 사용자 및/또는 운영자는 로봇(200) 및/또는 네트워크(302)에 통신 가능하게 연결된 콘솔 및/또는 임의의 입력 메커니즘을 통해 로봇(200)(예를 들어, 사용자 인터페이스 유닛(218))을 통해 로봇(200)의 목적지를 입력할 수 있다.
예를 들어, 도 5b는 본 개시내용의 일부 구현예에 따른 것으로, 목적지를 입력하기 위한 디스플레이(508)이다. 디스플레이(508)는 사용자 인터페이스 유닛(218) 및/또는 로봇(200)의 외부 디스플레이(예를 들어, 콘솔) 상에 구현될 수 있다.
디스플레이(508)는 사용자가 목적지를 입력할 수 있는 검색 바(504)를 포함할 수 있다. 디스플레이(508)는 또한 패널(506A 내지 506C)에 의해 선택 가능한 위치와 같은 선택 가능한 위치를 표시할 수 있다. 선택 가능한 위치는 로봇(200)이 이동할 수 있는 옵션에 적어도 부분적으로 기초하여 채워질 수 있다. 일부 경우에서, 선택 가능한 위치는 사용자가 이동할 가능성이 있는 위치에 적어도 부분적으로 기초하여 우선순위를 매길 수 있다(예를 들어, 순서 지정 및/또는 표시). 일부 경우에서, 사용자 및/또는 운영자는 위치(예를 들어, 이름, 좌표(상대 및/또는 범용))를 입력하고/하거나 디스플레이(508)에 도시된 지도에서 목적지를 선택할 수 있다.
도 5c는 본 개시내용의 일부 구현예에 따른 것으로, 사용자가 목적지를 입력하고/하거나 로봇(200)을 호출하기 위해 사용될 수 있는 콘솔의 기울인 측면도이다. 콘솔(512)은 예를 들어 종이, 전자 장치 및/또는 정보를 전달하기 위한 다른 양식에 대한 바코드 및/또는 정보를 스캔하도록 구성된 스캐너일 수 있다.
일부 구현예들에서, 콘솔(512)은 네트워크(302)에 대한 액세스 지점으로서 연결되고(예를 들어, 유선 및/또는 무선), 네트워크(302)로부터 정보를 전송 및/또는 수신할 수 있다. 일부 구현예들에서, 네트워크(302)는 복수의 로봇들(예를 들어, 로봇(200)) 및 로봇들이 이동할 수 있는 복수의 위치들에 대한 정보를 포함할 수 있다. 따라서, 네트워크(302)는 콘솔(512)로부터의 정보(예를 들어, 통신 프로토콜에 의해 콘솔(512)로부터 네트워크(302)로 전송됨)를 어디로 이동할지에 대한 로봇(200)에 대한 명령으로 처리할 수 있다. 네트워크(302)는 통신 프로토콜을 통해(예를 들어, 통신 유닛(222)을 통해) 이러한 명령을 로봇(200)으로 전송할 수 있다.
전자 장치(510)는, 데스크톱, 랩톱, 또는 다른 어떤 것인지의 여부와는 무관하게 하나 이상의 퍼스널 컴퓨터(PC) 및/또는 마이크로컴퓨터, 메인 프레임 컴퓨터, 워크스테이션, 서버, 개인 디지털 비서(PDA: personal digital assistant), 휴대용 컴퓨터, 내장형 컴퓨터, 프로그래머블 로직 디바이스, 개인 통신기, 태블릿 컴퓨터, 모바일 디바이스, 휴대용 네비게이션 보조 장치, J2ME 장비 디바이스, 셀룰러 폰, 스마트 폰, 개인 통합 통신 또는 엔터테인먼트 디바이스, 및/또는 한 세트의 명령들을 실행할 수 있는 임의의 다른 디바이스를 포함할 수 있다. 사용자 및/또는 조작자는 전자 장치(510)를 사용해서, 예컨대 스캔, 유선 및/또는 무선 데이터 전송(예를 들어, RFID, NFC, BLUETOOTH®, 무선 전송, 무선 주파수 필드 및/또는 임의의 기타 통신 프로토콜 사용), 소리 및/또는 기타 입력 메커니즘을 통해, 콘솔(512)과 통신할 수 있다.
예시로서, 도 5d는 본 개시내용의 일부 구현예에 따른 것으로, 전자 장치(510)의 디스플레이(516)를 도시한 것이다. 디스플레이(516)는, 콘솔(512)에 의해 스캔될 때 예를 들어 로봇(200)의 목적지, 로봇(200)이 픽업 위치로 이동할 필요성, 승객/사용자의 위치, 및/또는 사용자와 관련된 기타 정보와 관련된 정보를 콘솔(512)에 전달할 수 있는 스캔 가능한 표지(514)를 포함한다.
일부 구현예들에서, 전자 디바이스(510)는 APPLE INC., AMAZON 및/또는 GOOGLE의 앱스토어(App Store)를 통해 다운로드 가능한 애플리케이션과 같은 애플리케이션을 실행할 수 있다. 이 응용 프로그램을 통해 사용자는 로봇식 휠체어를 부르고, 휠체어를 지불하고, 목적지를 선택하고, 휠체어 대기 시간을 보고, 관심 있는 모든 상태 및/또는 작업을 수행할 수 있다.
다른 예로서, 도 5e는 본 개시내용의 일부 구현예에 따른 것으로, 스캔 가능한 탑승권(518)을 도시한 것이다. 탑승권(518)은 티켓 카운터에서 발행되고, 인쇄(예를 들어, 콘솔(512)과 같은 콘솔에서) 또는 다른 인터페이스, 개인용 컴퓨터 또는 미니컴퓨터를 통해 액세스 가능하고 및/또는 다른 방식으로 생성될 수 있다. 패스(518)는 바코드(520)를 포함할 수 있고, 이 바코드는 예를 들어 로봇(200)의 목적지, 로봇(200)이 픽업 위치로 이동하기를 바라는 요망, 승객/사용자의 위치, 및/또는 사용자와 관련된 임의의 정보에 관한 정보를 콘솔(512)에 전달할 수 있다.
다른 예로서, 도 5f는 본 개시내용의 일부 구현예에 따른 것으로, 로봇(200)에 연결되는 전자 장치(510)를 포함한다. 전자 장치(510)는 로봇(200) 및/또는 네트워크(302)에 직접 연결될 수 있다. 전자 장치(510)는 유선 및/또는 무선 데이터 전송(예를 들어, RFID, NFC, BLUETOOTH®, 무선 전송, 무선 주파수 필드 및/또는 임의의 기타 통신 프로토콜 사용), 소리 및/또는 기타 입력 메커니즘을 포함할 수 있는 신호(522)를 통해 로봇(200) 및/또는 네트워크(302)와 통신할 수 있다. 로봇(200)은 통신에 응답하여 소정 위치로, 예로서 예시되는 바와 같이, 로봇(200)이 전자 장치(510) 쪽으로 이동하는 것을 보여주는 궤적(524)으로, 이동할 수 있다(다른 위치들도 지정될 수 있음).
일부 구현예들에서, 전자 장치(510)는 비콘으로서 작용함으로써 로봇(200)을 부를 수 있다. 예를 들어, 전자 장치는 신호(예를 들어, RFID, NFC, BLUETOOTH®, 무선 전송, 무선 주파수 필드 및/또는 임의의 기타 통신 프로토콜 사용), 소리 및/또는 로봇(200)에 의해 검출될 수 있는 임의의 기타 신호를 방출할 수 있다. 로봇(200)은 전자 장치(510) 및/또는 승객이 위치할 수 있는 방출된 신호의 발생원으로 가도록 구성될 수 있다.
일부 구현예들에서, 전자 장치(510)는 어디서 픽업하는지 및/또는 목적지로 올 곳에 관한 그 밖의 다른 정보를 로봇(200)에 전송할 수 있다. 예를 들어, 전자 장치(510)는 좌표(예를 들어, 글로벌 위치 결정 시스템("GPS") 좌표, 상대 또는 범용 좌표), 위치 이름, 표지 목적지 및/또는 임의의 다른 식별 정보를 로봇(200)을 위한 픽업 및/또는 목적지 위치로서 전송할 수 있다.
도 4를 다시 참조하면, 그 다음 블록 408은 목적지로 이동하는 것을 포함할 수 있다. 일부 구현예들에서, 로봇(200)은 블록 402 및/또는 도 5a 내지 도 5f와 관련하여 설명된 것과 실질적으로 유사한 시스템 및 방법에 적어도 부분적으로 기초하여 목적지 위치에 도달한 것을 결정할 수 있다.
일부 구현예들에서, 로봇(200)은 목적지에 도착한 후 다른 승객을 픽업하기 위해 그 목적지에 머무를 수 있다. 일부 구현예에서, 로봇(200)은 다른 위치로, 예컨대 유지 보수를 받을 유지 보수 구역, 보관 위치, 승객들이 모이는 장소(예를 들어, 소정 환경의 입구, 승객 정류장 및/또는 지정 구역), 다른 로봇들이 있는 장소, 로봇 수가 적은 장소(예를 들어, 로봇의 구역 범위를 늘리기 위해), 특정되지 않은 위치(예를 들어, 소리로 부르는 탑승자를 픽업하기 위해 돌아다니기), 및/또는 임의의 지정된 위치 및/또는 이동 패턴으로 이동할 수 있다.
일부 구현예들에서, 협력하여 동작하는 복수의 로봇이 있을 수 있다. 예를 들어, 일부 환경(예를 들어, 쇼핑몰, 병원, 은퇴자 커뮤니티, 공항, 사무실 건물, 도심, 학교 및/또는 기타 공공 또는 개인 장소)은 한 공간에 복수의 사람 및/또는 로봇이 있을 수 있다. 일부 경우에서, 예를 들어, 복수의 로봇은 네트워크(302)와 실질적으로 유사한 하나 이상의 네트워크에 통합 및/또는 연결될 수 있다. 예를 들어, 네트워크(302)는 하나 이상의 로봇(200) 및/또는 다른 로봇의 위치를 관리할 수 있다. 일부 경우에서, 네트워크(302)는 네트워크(302)와 통신하는 집단을 이루는 집합의 로봇들의 위치 밀도, 궤적, 충돌 회피, 흐름 및/또는 그 밖의 다른 특성을 제어하는 트래픽 제어로서 작용할 수 있다. 예를 들어, 네트워크(302)는, 로봇들이 최적의 경로로 이동하도록, 즉 로봇들이 승객에게 신속하고/효과적으로 서비스할 수 있고(예를 들어, 픽업 장소에 빠르게 도착할 수 있고), 안전하게 행동할 수 있고, 충돌을 피할 수 있고, 긴급 차량의 길을 벗어나서 이동할 수 있고, 그리고/또는 다른 거시적 수준 및/또는 미시적 수준의 관리를 할 수 있는 장소에 로봇들을 분포시킬 수 있도록, 로봇이 순서대로 이동하는 것을 보조할 수 있다.
이러한 조정을 돕기 위해, 복수의 로봇들이 서로 통신 가능하게 연결될 수 있다. 예를 들어, 로봇(200)은 통신 유닛(222)을 사용하여 로봇(200)의 위치, 속도, 가속도, 정지/제동, 상태(예를 들어, 온, 오프, 양호한 상태, 불량 상태, 고장, 오류, 도움 필요), 목적지 등 중에서 하나 이상을 나타내는 신호를 하나 이상의 다른 로봇에게 송신할 수 있다. 한 구현예에서, 로봇은 예를 들어 클라우드에서 공통 허브를 통해 통신한다. 일부 경우에서, 네트워크(302)가 완전하게 기능하지 않는 경우, 로봇들은 정보를 위한 중계로서 서로 통신하고/하거나 서로를 사용할 수 있다. 예를 들어, 로봇들은 분배 네트워크, 모바일 애드혹 네트워크("MANET") 및/또는 임의의 연결 네트워크를 통해 통신할 수 있다. 본 개시내용에 설명된 임의의 통신 및/또는 신호는 이러한 네트워크를 통해 전송될 수 있다.
일부 경우에서, 로봇(200)이 작동하는 환경은 로봇(200) 및/또는 다른 로봇들을 보다 효율적으로 및/또는 효과적으로 수용하도록 조정될 수 있다. 예를 들어, 도 6a는 본 개시내용의 일부 구현예에 따른 것으로, 로봇(200)이 이동하고 있는 복도의 입면 정면도이다. 사람(604)은 한 위치에서 다른 위치로 이동하기 위해 로봇(200)상에 있는 승객일 수 있다. 이 예시에서, 로봇(200)은 로봇식 휠체어이지만, 다른 장치(본 개시내용에 기술된 다른 장치 등)도 고려된다.
일부 환경에서, 하나 이상의 지정된 특성을 가질 수 있는 레인(602A)이 있을 수 있다. 예를 들어, 레인(602A)은 방향, 이동 유형(예를 들어, 휠체어 전용, 걷기 전용, 카트 전용, 수화물 전용, 차량 전용, 로봇 전용 등), 속도(저속, 중속, 빠름, 미리 설정된 속도 등), 및/또는 임의의 다른 미리 설정된 특성을 가질 수 있다. 유리하게는, 레인(602A)이 로봇식 휠체어 전용 레인인 경우, 로봇식 휠체어는 보다 효율적으로 작동할 수 있다. 그 밖의 다른 특성을 가진 기타 레인이 있을 수 있다. 예시로서, 레인(602B)은 지나가는 레인일 수 있는데, 이 경우 그 구역 내의 사람, 로봇, 및/또는 임의의 다른 이동 실체는 레인(602A) 내의 실체를 지나갈 수 있다. 상이한 특성을 가질 수 있는 레인(602C)과 같은 기타 레인도 있을 수 있다. 예를 들어, 레인(602C)에서는 사람(606)이 카트와 함께 걷는다. 예시로서, 레인(602C)은 카트와 보행자용으로 한 방향으로 지정될 수 있다.
일부 구현예들에서, 로봇(200)은 물체 및/또는 사람 인식을 구현할 수 있다. 이 예에서 사용된 바와 같은 사람은 또한 동물이 검출되기를 원하는 경우에는 동물로 상호 대체될 수 있다. 유리하게는, 사람을 검출하는 것은 로봇(200)이 사람 주위에서 더 안전해질 수 있게 하고 그리고/또는 승객(및/또는 잠재적 승객)이 어디에 위치하는지를 검출할 수 있게 한다. 일부 경우에서, 물체 및/또는 사람은, 예컨대 물체 및/또는 사람의 특성을 검출함으로써, 그리고/또는 센서 유닛(212)의 센서로부터 나온 데이터를 센서 데이터의 라이브러리 내의 식별된 물체 및/또는 사람에 매칭시킴으로써, 로봇(200)에 의해 식별될 수 있다. 일부 경우에서, 로봇(200)은 물체 및/또는 사람을 구체적으로 식별하는 것이 아니라 단지 물체 및/또는 사람의 존재를 검출하는 것일 수 있다. 일부 경우에서, 로봇(200)은, 얼굴, 손발, 걸음걸이, 움직임 패턴, 열 및/또는 사람과 물체 간의 임의의 구별 특성의 존재와 같은, 사람의 특정 특성들을 인식할 수 있다.
일부 경우에서, 메모리(202)는 센서 데이터의 라이브러리를 저장할 수 있다. 일부 경우에서, 센서 데이터는 적어도 부분적으로 물체 및/또는 사람과 연관될 수 있다. 일부 구현예들에서, 이 라이브러리는 상이한 조건에 있는 물체들 및/또는 사람들과 관련된 센서 데이터, 예컨대 상이한 성분(예를 들어, 재료, 반사 특성, 분자 구성 등), 상이한 조명 조건, 각도, 크기, 거리, 선명도(예를 들어, 희미함, 막힘/차단, 부분적으로 벗어난 프레임 등), 색상, 주변 환경, 및/또는 기타 조건을 가진 물체들 및/또는 사람들과 관련된 센서 데이터를 포함할 수 있다. 라이브러리 내의 센서 데이터는 센서(예를 들어, 센서 유닛(212)의 센서 또는 임의의 다른 센서)에 의해 취해지고/취해지거나, 예컨대 라이브러리 센서 데이터를 생성/시뮬레이션하도록(예를 들어, 가상 세계에서) 구성된 컴퓨터 프로그램(예를 들어, 이 라이브러리 데이터를 완전히 디지털 방식으로 및/또는 실제 센서 데이터에서 시작하여 생성/시뮬레이션할 수 있는 것)을 이용하여, 상이한 조명 조건, 각도, 크기, 거리, 선명도(예를 들어, 희미함, 막힘/차단, 부분적으로 벗어난 프레임 등), 색상, 주변 환경 및/또는 기타 조건으로부터 자동으로 생성될 수 있다. 라이브러리 내의 이미지의 수는 이용 가능한 데이터의 양, 로봇(200)이 작동하는 주변 환경의 변동성, 물체들 및/또는 사람들의 복잡성, 물체들의 외관의 변동성, 로봇들의 물리적 특성, 센서들의 특성, 및/또는 이용 가능한 저장 공간의 크기(예를 들어, 라이브러리, 메모리(202) 및/또는 로컬 또는 원격 저장 장치) 중에서 하나 이상에 적어도 부분적으로 의존할 수 있다. 일부 구현예들에서, 라이브러리의 적어도 일부가 네트워크(예를 들어, 클라우드, 서버, 분산 네트워크 등)에 저장될 수 있고/있거나 메모리(202) 내에 완전히 저장되지 않을 수 있다. 또 다른 예로서, 각 로봇에 의해 캡처된 데이터가 다른 로봇들과 전체적으로 공유될 수 있도록, 다양한 로봇들(예를 들어, 공통 제조업체, 사용자, 네트워크 등에 의한 로봇들과 같이 공통적으로 연관된 로봇들)이 네트워킹될 수 있다. 이러한 방식으로, 이들 로봇은 오류를 용이하게 검출 및/또는 식별하고/하거나 이벤트를 지원하는 능력을 촉진하기 위해 센서 데이터를 학습 및/또는 공유하도록 구성될 수 있다.
일부 구현예들에서, 로봇(200)은 사람 및/또는 물체 주위에서 속도를 늦추고/늦추거나 정지하도록 구성될 수 있다. 이러한 동작은 로봇(200)의 탑승자가 있는 경우 그 탑승자와 환경에 있는 사람들에게 추가적인 안전을 허용할 수 있다. 일부 구현예들에서, 로봇(200)은 사람 및/또는 물체 주위에서 선회하고/하거나 벗어나서 충돌을 피하도록 하고/하거나 길을 막지 않도록 구성될 수 있다.
도 6b는 본 개시내용의 일부 구현예에 따른 것으로, 넓은 환경에서 레인을 이용하는 로봇들의 측면도이다. 공공 공간은 원하는 대로 복수의 방향으로 진행하는 복수의 레인을 가질 수 있다. 로봇(200) 및 기타 로봇들은 이러한 안내 레인들을 사용할 수 있다. 상기 레인들은 임의의 원하는 패턴으로 수렴, 분기 및/또는 나아갈 수 있다. 일부 경우에서, 목적지(608)와 같은 목적지는, 로봇(200)이 레인을 따라 이동하여 목적지(608)에 도달할 수 있도록, 레인들에 근접해 있을 수 있다.
일부 구현예들에서, 로봇(200)은 탑승자들과 그들의 행동을 검출할 수 있는 카메라 및/또는 센서를 구비할 수 있다. 예를 들어, 카메라 또는 다른 센서는 그 카메라 및/또는 센서의 시야에 탑승자가 포함되도록 위치될 수 있다. 따라서, 일부 구현예들에서, 탑승자들이 일어서려고 할 때, 그들의 손발을 로봇(200) 외부로 내밀려고 할 때, 그리고/또는 로봇(200)의 안전하지 않은 작동, 탑승자의 상해, 장애물 또는 다른 사람들과의 충돌을 유발할 수 있고 그리고/또는 사람이 로봇(200)에서 내리려고 하고 있음을 적어도 부분적으로 나타내는 어떤 행동을 하려고 할 때, 로봇(200)은 정지할 수 있다.
일부 구현예들에서, 카메라 및/또는 센서는 로봇(200)에 남겨진 물체들을 검출할 수 있다. 예를 들어, 카메라 및/또는 센서는 탑승자가 의자를 떠날 때 남은 물체를 검출할 수 있어서, 개인 재산의 손실을 방지할 수 있다.
카메라 및/또는 센서는 로봇(200)의 작동을 제어하는 몸짓을 검출할 수 있다. 예를 들어, 그러한 몸짓은 일례로 정지, 좌회전, 우회전, 후진 및/또는 임의의 다른 명령을 나타내는 것으로 미리 설정될 수 있다. 일부 구현예들에서, 몸짓은 보다 기본적인 명령들의 열을 결합한 매크로 명령들을 지령할 수 있다.
일부 구현예들에서, 로봇(200)은 마이크로폰을 구비하여 탑승자의 음성 명령을 검출할 수 있다. 예를 들어, 그러한 음성은 일례로 정지, 좌회전, 우회전, 후진 및/또는 임의의 다른 명령을 나타내는 것으로 미리 설정될 수 있다. 일부 구현예들에서, 몸짓은 보다 기본적인 명령들의 열을 결합한 매크로 명령들을 지령할 수 있다.
일부 구현예들에서, 마이크로폰은 탑승자가 조작자와 대화하고/하거나 지원을 요청하게 할 수 있다. 요청이 있는 경우, 조작자는 로봇(200)에 방향, 명령 및/또는 다른 명령을 제공하고/하거나 로봇(200)의 동작을 원격으로 제어할 수 있다.
일부 구현예들에서, 탑승자가 로봇(200)을 떠날 때, 로봇(200)의 적어도 하나의 센서가 탑승자의 새로운 위치 및 자세를 검출할 수 있어서, 로봇(200)이 자율적으로 떨어져 이동하거나 현재 위치에서 계속 머물면서 추가 동작 또는 명령을 기다릴 수 있다. 예를 들어, 탑승자는 로봇(200)에 앉으려는 의도로 짧은 시간 동안 잠깐 일어서려고 할 수 있다. 일부 구현예들에서, 로봇(200)이 적어도 하나의 카메라로 서 있는 탑승자를 검출한 경우와 같이, 탑승자가 로봇(200) 앞에 서 있는 경우, 로봇(200)은 움직이지 않는다.
일부 구현예들에서, 탑승자가 몸짓을 하면 로봇(200)은 움직이지 않는다. 일부 구현예들에서, 로봇(200)이 움직이지 않아야 하는 것을 로봇(200)에게 적어도 부분적으로 나타내는 몸짓이 결정될 수 있다. 예시로서, 사람은 마치 로봇(200)을 가죽 끈에 붙들어 놓은 것처럼 손을 로봇(200) 쪽으로 향하게 유지할 수 있다. 일부 구현예들에서, 로봇(200)은 버튼이 눌려서 제자리에 유지되지 않으면 짧은 시간 후에 움직일 것이다. 버튼은 기계 상의 물리적 버튼 및/또는 사용자 인터페이스 유닛(218)의 사용자 인터페이스 상에 표시된 디지털 버튼일 수 있다.
로봇(200)의 탑승자는 그의 경로 중간에 정지하고 싶다는 표시를 터치스크린 인터페이스, 음성 명령 및/또는 사용자 인터페이스 유닛(218)을 통해 할 수 있다. 유리하게는, 정지는 탑승자가 주변에서 움직이고, 스트레칭하고, 화장실을 사용하고, 쇼핑하고, 누군가와 이야기하고, 그리고/또는 원하는 임의의 활동을 행할 수 있게 한다. 일부 경우에서, 로봇(200)은 탑승자가 일시적으로 떠날 수 있게 할 수 있고/있거나, 탑승자가 로봇(200)을 떠난 위치 및/또는 탑승자가(예를 들어, 사용자 인터페이스 유닛(218)을 통한 통신에 의해서) 지정한 새로운 위치에서 기다릴 수 있게 할 수 있다.
일부 구현예들에서, 사람들은 휴대 전화와 같은 전자 장치를 사용하여 로봇(200)을 부를 수 있다. 또한, 로봇(200)은 몸짓을 사용하여 로봇(200)을 부르는 사람을 검출할 수 있는 하나 이상의 카메라 및/또는 센서를 구비할 수 있다. 일부 경우에서, 탑승 희망을 나타내는 몸짓과 같은 몸짓들이 미리 설정될 수 있다. 예를 들어, 그 몸짓들에는 로봇(200)을 가리키는 것, 및/또는 택시를 부르거나 탈 것에 편승 요청하는 것처럼 다른 통상적인 몸짓을 이용하는 것이 포함될 수 있다.
일부 구현예들에서, 복수의 로봇들은 직렬 방식으로, 예를 들어 로봇들이 가족 또는 둘 이상의 사람들의 그룹을 운송할 때 서로 가까이에서, 작동할 수 있다. 일부 경우에서, 한 로봇이 예를 들어 장애물 및/또는 탑승자의 행동으로 인해 정지되면, 직렬로 있는 다른 로봇(들)은 그들에게는 장애물이 없고/없거나 자유롭게 앞으로 나아갈 수 있다 해도 정지된 로봇을 기다리기 위해 일시 정지할 수 있다. 직렬로 있는 이러한 로봇들 사이의 통신은 통신 유닛(222)과 실질적으로 유사한 통신 유닛을 통해 발생할 수 있다. 예를 들어, 이러한 통신은 로컬 무선 링크를 통해, 중앙 허브 및/또는 서버를 통해, 그리고/또는 전방 지향 카메라 및 후방 지향 카메라를 통한 시각적 인식(예를 들어, 조명, 기호, 움직임 등)에 의해 직접 발생할 수 있다.
본원에서 사용되는 바와 같이, 컴퓨터 및/또는 컴퓨팅 디바이스는, 데스크톱, 랩톱 또는 다른 방식의 개인용 컴퓨터("PC")들 및 미니컴퓨터들, 메인 프레임 컴퓨터들, 워크스테이션들, 서버들, PDA(Personal Digital Assistant)들, 핸드헬드 컴퓨터들, 내장형 컴퓨터들, 프로그래머블 로직 디바이스들, 개인 통신기들, 태블릿 컴퓨터들, 모바일 디바이스들, 휴대형 내비게이션 보조 장치들, J2ME 장비 디바이스들, 셀룰러 폰들, 스마트 폰들, 개인 통합 통신 또는 엔터테인먼트 디바이스들, 및/또는 명령들의 세트를 실행하고 인입 데이터 신호를 프로세싱할 수 있는 임의의 다른 디바이스를 이에 제한되지는 않고 포함할 수 있다.
본원에서 사용되는, 컴퓨터 프로그램 및/또는 소프트웨어는 임의의 시퀀스, 또는 기능을 수행하는 인간 또는 머신 인식 가능 단계들을 포함할 수 있다. 그러한 컴퓨터 프로그램 및/또는 소프트웨어는, 예를 들어, C/C++, C#, Fortran, COBOL, MATLABTM, PASCAL, GO, RUST, SCALA, Python, 어셈블리 언어, 마크업 언어들(예를 들어, HTML, SGML, XML, VoXML) 등을 포함하는 임의의 프로그래밍 언어 또는 환경과, 이뿐만 아니라, 객체-지향 환경들, 이를테면, CORBA(Common Object Request Broker Architecture), JAVATM(J2ME, 자바 빈스 등을 포함함), 바이너리 런타임 환경(예를 들어, BREW) 등으로 렌더링될 수 있다.
본원에서 사용되는, 연결, 링크, 및/또는 무선 링크는 엔티티들 사이의 정보 교환을 가능하게 하는, 임의의 2개 이상의 엔티티들(물리적 엔티티이든지 혹은 논리적/가상 엔티티이든지 무관) 사이의 인과 관계(causal link)를 포함할 수 있다.
본 개시내용의 특정 양태들이 방법의 단계들의 특정 시퀀스에 관하여 설명되지만, 이들 설명들은 본 개시내용의 더 광범위한 방법들의 예시일 뿐이고, 특정 애플리케이션에 의해 요구되는 대로 수정될 수 있다는 것이 인식될 것이다. 특정 단계들은 특정 상황들 하에서 불필요하게 또는 선택적으로 렌더링될 수 있다. 부가적으로, 특정 단계들 또는 기능성이 개시된 구현예들에 부가될 수 있거나, 또는 2 개 이상의 단계들의 수행 순서가 치환될 수 있다. 이러한 모든 변형들은 본원에서 개시되고 청구되는 본 개시내용 내에 포함되는 것으로 간주된다.
위의 상세한 설명이 다양한 구현예들에 적용된 본 개시내용의 신규한 특징들을 나타내고, 설명하고, 지적하였지만, 예시된 디바이스 또는 프로세스의 형태 및 세부사항들의 다양한 생략들, 치환들 및 변경들이 본 개시내용으로부터 벗어나지 않으면서 당업자에 의해 이루어질 수 있다는 것이 이해될 것이다. 전술된 설명은 본 개시내용을 수행하기 위해 현재 고려되는 최상의 모드이다. 이러한 설명은 결코 제한하는 것으로 의도되는 것이 아니라, 본 개시내용의 일반적인 원리들을 예시하는 것으로 간주되어야 한다. 본 개시내용의 범위는 청구범위를 참조하여 결정되어야 한다.
본 개시내용이 도면들 및 전술된 설명에서 상세히 예시 및 설명되었지만, 그러한 예시 및 설명은 예시 또는 예시적인 것으로 고려되어야 하며 제한적인 것이 아니다. 본 개시내용은 개시된 실시예들로 제한되지 않는다. 개시된 실시예들에 대한 변형들은, 청구된 개시내용을 실시할 시, 도면과 본 개시내용과 첨부된 청구범위의 연구로부터, 당업자에 의해 이해 및 실시될 수 있다.
본 개시내용의 특정 특징들 또는 양태들을 기술할 때의 특정 용어의 사용은, 그 용어와 관련된 본 개시내용의 특징들 또는 양태들의 임의의 특정 특성들을 포함하도록 제한되게 하기 위해 그 용어가 본원에서 재정의되고 있다고 암시하는 것으로 받아들여져서는 안 된다는 것을 주지해야 한다. 본 출원에서 사용되는 용어들 및 어구들과 이들의 변형들은, 특히 첨부된 청구범위에 있어서는, 명시적으로 달리 언급되지 않는 한, 제한과 반대로 개방형으로서 해석되어야 한다. 전술된 바의 예들로서, "구비하는"이라는 용어는 "제한되지 않게 구비하는", "구비하지만 이에 제한되지 않는" 등을 의미하는 것으로 해석되어야 하고; 본원에서 사용되는 바와 같은 "포함하는"이라는 용어는 "구비하는", "함유하는", 또는 "특징으로 하는"과 동의어이고, 포괄적이거나 또는 개방형이고, 부가적인 기재되지 않은 구성요소들 또는 방법 단계들을 배제하지 않고; "갖는"이라는 용어는 "적어도 갖는"으로 해석되어야 하고; "그와 같은"이라는 용어는 "제한되지 않게 그와 같은"으로 해석되어야 하고; "구비한다"라는 용어는 "구비하지만 이에 제한되지 않음"으로 해석되어야 하고; "예"라는 용어는 논의 중인 아이템의 예시적인 인스턴스들을 제공하기 위해 사용되고, 그 아이템의 철저한 또는 제한적인 리스트가 아니고, "예이지만 제한되지 않음"으로 해석되어야 하고; 형용사들, 이를테면 "알려진", "일반적인", "표준", 및 유사한 의미의 용어들은 설명되는 아이템을 주어진 시간 기간으로, 또는 주어진 시간으로부터 이용 가능한 아이템으로 제한하는 것으로 해석되는 것이 아니라, 대신, 현재 또는 향후의 임의의 시간에 이용 가능할 수 있거나 알려질 수 있는 알려진, 일반적인, 또는 표준 기술들을 포함하는 것으로 해석되어야 하고; 그리고 "바람직하게", "바람직한", "원하는", 또는 "원함직한"과 같은 용어들 및 유사한 의미의 단어들의 사용은 특정 특징들이 본 개시내용의 구조 또는 기능에 결정적이거나, 필수적이거나, 또는 심지어 중요하다는 것을 암시하는 것이 아니고, 대신, 특정 실시예에서 활용될 수 있거나 활용되지 않을 수 있는 대안적인 또는 부가적인 특징들을 단지 강조하도록 의도된 것으로 이해되어야 한다. 마찬가지로, 접속사 "및"으로 링크된 아이템들의 그룹은 이들 아이템들 각각 및 모든 각각이 그룹에 존재하는 것을 요구하는 것으로 해석되는 것이 아니라, 명시적으로 다르게 언급되지 않는 한, "및/또는"으로 해석되어야 한다. 유사하게, 접속사 "또는"으로 링크된 아이템들의 그룹은 그 그룹 간에 상호 배타성을 요구하는 것으로 해석되는 것이 아니라, 명시적으로 다르게 언급되지 않는 한, "및/또는"으로 해석되어야 한다. "약" 또는 "대략" 등이라는 용어들은 동의어이며, 용어에 의해 수정된 값이 그와 연관된 이해 범위를 갖는 것을 나타내기 위해 사용되며, 여기서, 범위는 ±20%, ±15%, ±10%, ±5% 또는 ±1%일 수 있다. "실질적으로"라는 용어는 결과(예를 들어, 측정 값)가 목표 값에 근접한 것을 나타내기 위해 사용되며, 여기서, 근접은, 예를 들어, 결과가 값의 80% 내, 값의 90% 내, 값의 95% 내 또는 값의 99% 내에 있는 것을 의미할 수 있다. 또한, 본원에서 사용되는 바와 같이, "정의된" 또는 "결정된"은 "미리 정의된" 또는 "미리 결정된" 및/또는 다른 방식으로 결정된 값들, 조건들, 임계치들, 측정치들 등을 포함할 수 있다.

Claims (20)

  1. 모바일 플랫폼의 자율 주행을 가능하게 하는 시스템으로서,
    컴퓨터 판독 가능 명령들이 저장된 메모리; 및
    사용자의 제1 위치에 대응하는 제1 세트의 좌표들을 수신하고, 모바일 플랫폼을 위한 다른 제2 위치를 결정하고, 모바일 플랫폼을 상기 제1 위치와 상기 제2 위치 사이에서 주행시키고, 그리고 다른 제2 세트의 좌표들을 수신하기 위해, 상기 컴퓨터 판독 가능 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하는, 시스템.
  2. 제1항에 있어서, 상기 다른 제2 세트의 좌표들을 수신하기는 주행 후에 이루어지는, 시스템.
  3. 제1항에 있어서, 상기 적어도 하나의 프로세서는, 추가로, 모바일 플랫폼의 주행을 가능하게 하도록 구성된 하나 이상의 명령을 모바일 플랫폼 상의 하나 이상의 액추에이터에 전송하기 위해 상기 컴퓨터 판독 가능 명령들을 실행하도록 구성된, 시스템.
  4. 제3항에 있어서, 상기 적어도 하나의 프로세서는, 추가로, 모바일 플랫폼을 위한 제1 모드 및 다른 제2 모드 중 적어도 하나를 가능하게 하도록 구성된 모드 선택 명령을 수신하기 위해 상기 컴퓨터 판독 가능 명령들을 실행하도록 구성되고, 상기 제1 모드는 동력-수동 모드에 대응하고 상기 제2 모드는 자율 모드에 대응하는, 시스템.
  5. 제3항에 있어서, 상기 적어도 하나의 프로세서는, 추가로, 제1 세트의 좌표들에서 모바일 플랫폼의 도착 시간에 대응하는 데이터를 하나 이상의 센서로부터 수신하기 위해 상기 컴퓨터 판독 가능 명령들을 실행하도록 구성된, 시스템.
  6. 제5항에 있어서, 상기 데이터는 모바일 플랫폼의 환경 내 표지의 시각적 식별에 기초한 것인, 시스템.
  7. 제5항에 있어서, 상기 데이터는 모바일 플랫폼의 환경 내 표지의 무선 식별에 기초한 것인, 시스템.
  8. 제3항에 있어서, 상기 적어도 하나의 프로세서는, 추가로, 디스플레이 장치 상에 사용자를 위한 제2 세트의 좌표들을 포함하는 복수의 위치를 표시하기 위해 상기 컴퓨터 판독 가능 명령들을 실행하도록 구성된, 시스템.
  9. 컴퓨터 판독 가능 명령들이 저장된 비일시적 컴퓨터 판독 가능 매체로서,
    상기 명령들은, 제1 플랫폼 상의 적어도 하나의 프로세서에 의해 실행될 때, 상기 적어도 하나의 프로세서로 하여금,
    승객을 위한 제1 위치에 대응하는 제1 세트의 좌표들에 대한 좌표를 수신하게 하고,
    제1 모바일 플랫폼의 다른 제2 위치를 결정하게 하고,
    제1 모바일 플랫폼을 상기 제1 위치와 상기 제2 위치 사이에서 주행하게 하고,
    승객의 목적지 좌표를 수신하게 하도록 구성된, 비일시적 컴퓨터 판독 가능 매체.
  10. 제9항에 있어서, 상기 적어도 하나의 프로세서는, 추가로, 제1 모바일 플랫폼의 좌표에 대응하는 정보를 제2 모바일 플랫폼 상의 적어도 하나의 프로세서로 전송하기 위해 상기 컴퓨터 판독 가능 명령들을 실행하도록 구성된, 비일시적 컴퓨터 판독 가능 매체.
  11. 제9항에 있어서, 제1 모바일 플랫폼 상의 적어도 하나의 프로세서는, 추가로, 하나 이상의 센서로부터 정보를 수신하기 위해 상기 컴퓨터 판독 가능 명령들을 실행하도록 구성되고, 수신된 정보는 제1 모바일 플랫폼을 제1 경로를 따라 주행시키도록 구성된, 비일시적 컴퓨터 판독 가능 매체.
  12. 제11항에 있어서, 제1 모바일 플랫폼 상의 적어도 하나의 프로세서는, 추가로, 하나 이상의 센서로부터 수신된 정보에 응답하여 제1 모바일 플랫폼을 위한 제1 네비게이션 경로를 변경하도록 구성된, 비일시적 컴퓨터 판독 가능 매체.
  13. 제12항에 있어서, 하나 이상의 센서로부터 수신된 정보는 모바일 플랫폼의 승객과 관련이 있고,
    제1 모바일 플랫폼 상의 적어도 하나의 프로세서는, 추가로, 상기 제1 네비게이션 경로의 변경에 기초하여 제1 모바일 플랫폼의 정지 움직임에 대응하는 명령을 출력하기 위해 상기 컴퓨터 판독 가능 명령들을 실행하도록 구성된, 비일시적 컴퓨터 판독 가능 매체.
  14. 제12항에 있어서,
    하나 이상의 센서로부터 수신된 정보는 제1 모바일 플랫폼의 환경 내의 하나 이상의 물체에 기초한 것이고,
    제1 모바일 플랫폼 상의 적어도 하나의 프로세서는, 추가로, 상기 제1 네비게이션 경로의 변경에 기초하여 명령을 출력하기 위해 상기 컴퓨터 판독 가능 명령들을 실행하도록 구성되고, 상기 경로는 하나 이상의 물체와의 충돌을 피하는 것에 대응하는, 비일시적 컴퓨터 판독 가능 매체.
  15. 모바일 플랫폼의 자율 주행을 가능하게 하는 방법으로서,
    사용자의 제1 위치에 대응하는 제1 세트의 좌표들을 수신하는 단계;
    모바일 플랫폼을 위한 다른 제2 위치를 결정하는 단계;
    모바일 플랫폼을 상기 제1 위치와 상기 제2 위치 사이에서 주행시키는 단계; 및
    사용자를 위한 다른 제2 세트의 좌표들을 수신하는 단계를 포함하는, 모바일 플랫폼의 자율 주행을 가능하게 하는 방법.
  16. 제15항에 있어서, 사용자를 위한 제2 세트의 좌표들을 수신하는 단계는 제1 위치에 도달하기 전에 이루어지는, 모바일 플랫폼의 자율 주행을 가능하게 하는 방법.
  17. 제15항에 있어서, 모바일 플랫폼 상의 하나 이상의 액추에이터에 모바일 플랫폼의 주행을 가능하게 하도록 구성된 하나 이상의 명령을 제공하는 단계를 추가로 포함하는, 모바일 플랫폼의 자율 주행을 가능하게 하는 방법.
  18. 제17항에 있어서, 사용자를 위한 제1 위치에서의 도착 시간을 결정할 수 있게 구성된 데이터를 하나 이상의 센서로부터 수신하는 단계를 추가로 포함하는, 모바일 플랫폼의 자율 주행을 가능하게 하는 방법.
  19. 제18항에 있어서, 상기 데이터를 수신하는 단계는 모바일 플랫폼의 환경 내의 표지를 식별하는 것을 포함하는, 모바일 플랫폼의 자율 주행을 가능하게 하는 방법.
  20. 제15항에 있어서, 제2 세트의 좌표들을 사용자에게 발행하는 단계를 추가로 포함하고,
    사용자를 위한 제2 세트의 좌표들을 수신하는 상기 단계는 상기 발행된 제2 세트의 좌표들을 스캔하는 단계를 포함하는, 모바일 플랫폼의 자율 주행을 가능하게 하는 방법.
KR1020197026446A 2017-02-08 2018-02-08 로봇식 모바일 플랫폼을 위한 시스템 및 방법 KR20190118175A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762456254P 2017-02-08 2017-02-08
US62/456,254 2017-02-08
US15/891,202 US10852730B2 (en) 2017-02-08 2018-02-07 Systems and methods for robotic mobile platforms
US15/891,202 2018-02-07
PCT/US2018/017403 WO2018148396A1 (en) 2017-02-08 2018-02-08 Systems and methods for robotic mobile platforms

Publications (1)

Publication Number Publication Date
KR20190118175A true KR20190118175A (ko) 2019-10-17

Family

ID=63037611

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197026446A KR20190118175A (ko) 2017-02-08 2018-02-08 로봇식 모바일 플랫폼을 위한 시스템 및 방법

Country Status (8)

Country Link
US (1) US10852730B2 (ko)
EP (1) EP3580626B1 (ko)
JP (1) JP2020509476A (ko)
KR (1) KR20190118175A (ko)
CN (1) CN110476134B (ko)
SA (1) SA519402461B1 (ko)
SG (1) SG11201907368SA (ko)
WO (1) WO2018148396A1 (ko)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180164106A1 (en) * 2016-12-13 2018-06-14 Lenovo (Singapore) Pte. Ltd. Systems and methods for identification of location for rendezvous of vehicle with person for pickup
US10852730B2 (en) * 2017-02-08 2020-12-01 Brain Corporation Systems and methods for robotic mobile platforms
US20180256422A1 (en) * 2017-03-10 2018-09-13 Jesse Leaman Intelligent power wheelchair and related methods
CN109936819B (zh) * 2017-12-15 2021-04-30 北京嘀嘀无限科技发展有限公司 上车点推荐方法、装置及设备
US20230356728A1 (en) * 2018-03-26 2023-11-09 Nvidia Corporation Using gestures to control machines for autonomous systems and applications
US10751232B1 (en) * 2018-05-18 2020-08-25 Erwin Ilao Mobile application-controlled undercarriage
US11198218B1 (en) * 2018-06-27 2021-12-14 Nick Gorkavyi Mobile robotic system and method
WO2020013043A1 (ja) * 2018-07-13 2020-01-16 Whill株式会社 電動モビリティ
US10675205B1 (en) * 2018-11-20 2020-06-09 Toyota Mobility Foundation Transportation support for a user having chronic or acute mobility needs
US11730645B1 (en) * 2019-04-26 2023-08-22 Patroness, LLC Systems and methods to upgrade a motorized mobile chair to a smart motorized mobile chair
US11793695B2 (en) * 2019-06-25 2023-10-24 University Of Washington Multifunction toilet wheelchair
IT201900016730A1 (it) * 2019-09-19 2021-03-19 Moschini Spa Dispositivo per la movimentazione autonoma di apparati a rotelle e relativi sistema e metodo
IT202000000025A1 (it) * 2020-01-02 2021-07-02 Alba Robot Srl Dispositivo per la movimentazione autonoma di apparati a rotelle e relativo metodo di installazione
CN113826053B (zh) * 2020-02-20 2023-11-21 Whill株式会社 电动移动设备以及设施内的系统
CN111857127B (zh) * 2020-06-12 2021-10-01 珠海市一微半导体有限公司 一种机器人沿边行走的清洁分区规划方法、芯片及机器人
CN111907215A (zh) * 2020-08-06 2020-11-10 王金星 基于移动物联网环保作业系统
GB2598596B (en) * 2020-09-03 2022-08-24 Theia Guidance Systems Ltd Mobility assistance device and method of providing mobility assistance
EP3967285A1 (fr) * 2020-09-14 2022-03-16 Tridon de Rey, Hubert Appareillage mobile pour handicapes moteurs et systeme de guidage impliquant un tel appareillage
CN113955136B (zh) * 2021-09-02 2024-04-05 浙江图盛输变电工程有限公司温州科技分公司 一种电网自动巡检无人机目标挂点校准中转站
IT202200006230A1 (it) * 2022-03-30 2023-09-30 Alba Robot S R L Procedimento per localizzare un veicolo, e relativo sistema
TWI822096B (zh) 2022-06-08 2023-11-11 和碩聯合科技股份有限公司 用於控制電動助行裝置的控制系統以及控制方法
WO2024130296A1 (en) * 2022-12-23 2024-06-27 Control Bionics Ltd Wheelchair navigation system

Family Cites Families (225)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5280179A (en) 1979-04-30 1994-01-18 Sensor Adaptive Machines Incorporated Method and apparatus utilizing an orientation code for automatically guiding a robot
US4638445A (en) 1984-06-08 1987-01-20 Mattaboni Paul J Autonomous mobile robot
US5121497A (en) 1986-03-10 1992-06-09 International Business Machines Corporation Automatic generation of executable computer code which commands another program to perform a task and operator modification of the generated executable computer code
US4763276A (en) 1986-03-21 1988-08-09 Actel Partnership Methods for refining original robot command signals
US4852018A (en) 1987-01-07 1989-07-25 Trustees Of Boston University Massively parellel real-time network architectures for robots capable of self-calibrating their operating parameters through associative learning
US5155684A (en) 1988-10-25 1992-10-13 Tennant Company Guiding an unmanned vehicle by reference to overhead features
FR2648071B1 (fr) 1989-06-07 1995-05-19 Onet Procede et appareil autonomes de nettoyage automatique de sol par execution de missions programmees
ATE150879T1 (de) 1989-10-17 1997-04-15 Perkin Elmer Corp Robotische schnittstelle
US5956250A (en) 1990-02-05 1999-09-21 Caterpillar Inc. Apparatus and method for autonomous vehicle navigation using absolute data
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US5673367A (en) 1992-10-01 1997-09-30 Buckley; Theresa M. Method for neural network control of motion using real-time environmental feedback
CA2081519C (en) 1992-10-27 2000-09-05 The University Of Toronto Parametric control device
KR0161031B1 (ko) 1993-09-09 1998-12-15 김광호 로보트의 위치오차보정장치
US5602761A (en) 1993-12-30 1997-02-11 Caterpillar Inc. Machine performance monitoring and fault classification using an exponentially weighted moving average scheme
CN1067001C (zh) 1995-09-11 2001-06-13 株式会社安川电机 机器人控制方法
WO1997046929A2 (en) 1996-06-04 1997-12-11 Werbos Paul J 3-brain architecture for an intelligent decision and control system
US6366293B1 (en) 1998-09-29 2002-04-02 Rockwell Software Inc. Method and apparatus for manipulating and displaying graphical objects in a computer display device
US6243622B1 (en) 1998-10-16 2001-06-05 Xerox Corporation Touchable user interface using self movable robotic modules
EP1037134A2 (en) 1999-03-16 2000-09-20 Matsushita Electric Industrial Co., Ltd. Virtual space control data receiving apparatus and method
US6124694A (en) 1999-03-18 2000-09-26 Bancroft; Allen J. Wide area navigation for a robot scrubber
EP1092458A1 (en) 1999-04-30 2001-04-18 Sony Corporation Electronic pet system, network system, robot, and storage medium
JP3537362B2 (ja) 1999-10-12 2004-06-14 ファナック株式会社 ロボットシステム用グラフィック表示装置
EP1297691A2 (en) 2000-03-07 2003-04-02 Sarnoff Corporation Camera pose estimation
CN1283428C (zh) 2000-03-31 2006-11-08 索尼公司 机器人设备、控制机器人设备动作的方法
US8543519B2 (en) 2000-08-07 2013-09-24 Health Discovery Corporation System and method for remote melanoma screening
JP4765155B2 (ja) 2000-09-28 2011-09-07 ソニー株式会社 オーサリング・システム及びオーサリング方法、並びに記憶媒体
US6678413B1 (en) 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
JP2002197437A (ja) 2000-12-27 2002-07-12 Sony Corp 歩行検出システム、歩行検出装置、デバイス、歩行検出方法
US6442451B1 (en) 2000-12-28 2002-08-27 Robotic Workspace Technologies, Inc. Versatile robot control system
JP2002239960A (ja) 2001-02-21 2002-08-28 Sony Corp ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
US20020175894A1 (en) 2001-03-06 2002-11-28 Vince Grillo Hand-supported mouse for computer input
US6917925B2 (en) 2001-03-30 2005-07-12 Intelligent Inference Systems Corporation Convergent actor critic-based fuzzy reinforcement learning apparatus and method
JP2002301674A (ja) 2001-04-03 2002-10-15 Sony Corp 脚式移動ロボット及びその運動教示方法、並びに記憶媒体
DE60118317T2 (de) 2001-04-30 2006-12-14 Sony France S.A. Autonom Roboter
US6584375B2 (en) 2001-05-04 2003-06-24 Intellibot, Llc System for a retail environment
US6636781B1 (en) 2001-05-22 2003-10-21 University Of Southern California Distributed control and coordination of autonomous agents in a dynamic, reconfigurable system
JP3760186B2 (ja) 2001-06-07 2006-03-29 独立行政法人科学技術振興機構 二脚歩行式移動装置及びその歩行制御装置並びに歩行制御方法
JP4188607B2 (ja) 2001-06-27 2008-11-26 本田技研工業株式会社 二足歩行移動体の床反力推定方法及び二足歩行移動体の関節モーメント推定方法
AU2002322504A1 (en) 2001-07-13 2003-01-29 Broks Automation, Inc. Trajectory planning and motion control strategies for a planar three-degree-of-freedom robotic arm
JP3931598B2 (ja) * 2001-07-18 2007-06-20 スズキ株式会社 自走式電動車椅子の貸し出しシステム
US6710346B2 (en) 2001-08-02 2004-03-23 International Business Machines Corporation Active infrared presence sensor
WO2003021365A2 (en) 2001-08-31 2003-03-13 The Board Of Regents Of The University And Community College System, On Behalf Of The University Of Nevada, Reno Coordinated joint motion control system
US6812846B2 (en) 2001-09-28 2004-11-02 Koninklijke Philips Electronics N.V. Spill detector based on machine-imaging
JP3797196B2 (ja) * 2001-11-01 2006-07-12 日産自動車株式会社 ナビゲーションシステム、データサーバ、経路設定方法及びデータサーバの情報提供方法
US7243334B1 (en) 2002-01-16 2007-07-10 Prelude Systems, Inc. System and method for generating user interface code
JP3790816B2 (ja) 2002-02-12 2006-06-28 国立大学法人 東京大学 人型リンク系の運動生成方法
US8010180B2 (en) 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
AU2003272193A1 (en) 2002-04-22 2004-01-19 Neal Solomon System, method and apparatus for automated collective mobile robotic vehicles used in remote sensing surveillance
US7505604B2 (en) 2002-05-20 2009-03-17 Simmonds Precision Prodcuts, Inc. Method for detection and recognition of fog presence within an aircraft compartment using video images
US6842692B2 (en) * 2002-07-02 2005-01-11 The United States Of America As Represented By The Department Of Veterans Affairs Computer-controlled power wheelchair navigation system
US20080300777A1 (en) * 2002-07-02 2008-12-04 Linda Fehr Computer-controlled power wheelchair navigation system
US7834754B2 (en) 2002-07-19 2010-11-16 Ut-Battelle, Llc Method and system for monitoring environmental conditions
US6904335B2 (en) 2002-08-21 2005-06-07 Neal Solomon System, method and apparatus for organizing groups of self-configurable mobile robotic agents in a multi-robotic system
AU2003900861A0 (en) 2003-02-26 2003-03-13 Silverbrook Research Pty Ltd Methods,systems and apparatus (NPS042)
JP3950805B2 (ja) 2003-02-27 2007-08-01 ファナック株式会社 教示位置修正装置
US7313279B2 (en) 2003-07-08 2007-12-25 Computer Associates Think, Inc. Hierarchical determination of feature relevancy
SE0301531L (sv) 2003-05-22 2004-11-23 Abb Ab A Control method for a robot
US7212651B2 (en) 2003-06-17 2007-05-01 Mitsubishi Electric Research Laboratories, Inc. Detecting pedestrians using patterns of motion and appearance in videos
US7769487B2 (en) 2003-07-24 2010-08-03 Northeastern University Process and architecture of robotic system to mimic animal behavior in the natural environment
WO2005028166A1 (ja) 2003-09-22 2005-03-31 Matsushita Electric Industrial Co., Ltd. 弾性体アクチュエータの制御装置及び制御方法
US7342589B2 (en) 2003-09-25 2008-03-11 Rockwell Automation Technologies, Inc. System and method for managing graphical data
JP4592276B2 (ja) 2003-10-24 2010-12-01 ソニー株式会社 ロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラム
EP1724653B1 (en) 2004-02-25 2014-05-07 The Ritsumeikan Trust Control system of floating mobile body
JP4661074B2 (ja) 2004-04-07 2011-03-30 ソニー株式会社 情報処理システム、情報処理方法、並びにロボット装置
DE602004028005D1 (de) 2004-07-27 2010-08-19 Sony France Sa Ein automatisiertes System zur Aktionsanwahl, sowie das Verfahren und dessen Anwendung, um Prognosemaschinen auszubilden und die Entwicklung sich selbst entwickelnder Geräte zu unterstützen
SE0402672D0 (sv) 2004-11-02 2004-11-02 Viktor Kaznov Ball robot
JP2006226962A (ja) * 2005-02-21 2006-08-31 Saxa Inc 車両の行き先指示システム及びそのセンタ装置
US8930023B2 (en) * 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
US7211979B2 (en) 2005-04-13 2007-05-01 The Broad Of Trustees Of The Leland Stanford Junior University Torque-position transformer for task control of position controlled robots
US7765029B2 (en) * 2005-09-13 2010-07-27 Neurosciences Research Foundation, Inc. Hybrid control device
JP4876511B2 (ja) 2005-09-29 2012-02-15 株式会社日立製作所 ロジック抽出支援装置
ATE522330T1 (de) 2005-09-30 2011-09-15 Irobot Corp Robotersystem mit kabelloser kommunikation mittels tcp/ip übertragung
US7668605B2 (en) 2005-10-26 2010-02-23 Rockwell Automation Technologies, Inc. Wireless industrial control user interface
US7912633B1 (en) * 2005-12-01 2011-03-22 Adept Mobilerobots Llc Mobile autonomous updating of GIS maps
KR101214715B1 (ko) * 2005-12-02 2012-12-21 아이로보트 코퍼레이션 커버리지 로봇 이동성
US7741802B2 (en) 2005-12-20 2010-06-22 Intuitive Surgical Operations, Inc. Medical robotic system with programmably controlled constraints on error dynamics
US8239083B2 (en) * 2006-01-18 2012-08-07 I-Guide Robotics, Inc. Robotic vehicle controller
US8224018B2 (en) 2006-01-23 2012-07-17 Digimarc Corporation Sensing data from physical objects
US7576639B2 (en) 2006-03-14 2009-08-18 Mobileye Technologies, Ltd. Systems and methods for detecting pedestrians in the vicinity of a powered industrial vehicle
US8924021B2 (en) 2006-04-27 2014-12-30 Honda Motor Co., Ltd. Control of robots from human motion descriptors
US8930025B2 (en) 2006-05-25 2015-01-06 Takehiro Ishizaki Work robot
KR100791382B1 (ko) 2006-06-01 2008-01-07 삼성전자주식회사 로봇의 이동 경로에 따라 소정 영역의 특성에 관한 정보를수집하고 분류하는 방법 및 상기 영역 특성에 따라제어되는 로봇, 상기 영역 특성을 이용한 ui 구성 방법및 장치
WO2007143757A2 (en) 2006-06-09 2007-12-13 Carnegie Mellon University Software architecture for high-speed traversal of prescribed routes
US8843244B2 (en) 2006-10-06 2014-09-23 Irobot Corporation Autonomous behaviors for a remove vehicle
JP4699426B2 (ja) 2006-08-08 2011-06-08 パナソニック株式会社 障害物回避方法と障害物回避移動装置
US8174568B2 (en) 2006-12-01 2012-05-08 Sri International Unified framework for precise vision-aided navigation
JP4267027B2 (ja) 2006-12-07 2009-05-27 ファナック株式会社 ロボット制御装置
US20090037024A1 (en) 2007-03-29 2009-02-05 Irobot Corporation Robot Operator Control Unit Configuration System and Method
US20080274683A1 (en) 2007-05-04 2008-11-06 Current Energy Controls, Lp Autonomous Ventilation System
US8255092B2 (en) * 2007-05-14 2012-08-28 Irobot Corporation Autonomous behaviors for a remote vehicle
JP5213023B2 (ja) 2008-01-15 2013-06-19 本田技研工業株式会社 ロボット
WO2009098855A1 (ja) 2008-02-06 2009-08-13 Panasonic Corporation ロボット、ロボットの制御装置及び制御方法、並びに、ロボットの制御装置の制御プログラム
JP5181704B2 (ja) 2008-02-07 2013-04-10 日本電気株式会社 データ処理装置、姿勢推定システム、姿勢推定方法およびプログラム
US8175992B2 (en) 2008-03-17 2012-05-08 Intelliscience Corporation Methods and systems for compound feature creation, processing, and identification in conjunction with a data analysis and feature recognition system wherein hit weights are summed
AU2008353981B2 (en) 2008-04-02 2013-01-31 Irobot Corporation Robotics systems
JP4715863B2 (ja) 2008-05-01 2011-07-06 ソニー株式会社 アクチュエータ制御装置及びアクチュエータ制御方法、アクチュエータ、ロボット装置、並びにコンピュータ・プログラム
JP5215740B2 (ja) 2008-06-09 2013-06-19 株式会社日立製作所 移動ロボットシステム
EP2349120B1 (en) 2008-09-04 2017-03-22 Iwalk, Inc. Hybrid terrain-adaptive lower-extremity systems
CA2775675C (en) 2008-10-29 2019-04-16 The Regents Of The University Of Colorado Long term active learning from large continually changing data sets
US20100114372A1 (en) 2008-10-30 2010-05-06 Intellibot Robotics Llc Method of cleaning a surface using an automatic cleaning device
JP5242342B2 (ja) 2008-10-31 2013-07-24 株式会社東芝 ロボット制御装置
US8428781B2 (en) 2008-11-17 2013-04-23 Energid Technologies, Inc. Systems and methods of coordination control for robot manipulation
EP2209018A1 (en) 2009-01-15 2010-07-21 Nederlandse Organisatie voor toegepast-natuurwetenschappelijk Onderzoek TNO A method for estimating an object motion characteristic from a radar signal, a computer system and a computer program product
US8120301B2 (en) 2009-03-09 2012-02-21 Intuitive Surgical Operations, Inc. Ergonomic surgeon control console in robotic surgical systems
US8423182B2 (en) 2009-03-09 2013-04-16 Intuitive Surgical Operations, Inc. Adaptable integrated energy control system for electrosurgical tools in robotic surgical systems
US8364314B2 (en) 2009-04-30 2013-01-29 GM Global Technology Operations LLC Method and apparatus for automatic control of a humanoid robot
US8694449B2 (en) 2009-05-29 2014-04-08 Board Of Trustees Of Michigan State University Neuromorphic spatiotemporal where-what machines
JP4676544B2 (ja) 2009-05-29 2011-04-27 ファナック株式会社 工作機械に対してワークの供給及び取り出しを行うロボットを制御するロボット制御装置
US8774970B2 (en) 2009-06-11 2014-07-08 S.C. Johnson & Son, Inc. Trainable multi-mode floor cleaning device
US8706297B2 (en) 2009-06-18 2014-04-22 Michael Todd Letsky Method for establishing a desired area of confinement for an autonomous robot and autonomous robot implementing a control system for executing the same
CN102448683B (zh) 2009-07-02 2014-08-27 松下电器产业株式会社 机器人、机器人手臂的控制装置及机器人手臂的控制程序
EP2284769B1 (en) 2009-07-16 2013-01-02 European Space Agency Method and apparatus for analyzing time series data
US20110026770A1 (en) 2009-07-31 2011-02-03 Jonathan David Brookshire Person Following Using Histograms of Oriented Gradients
US8250901B2 (en) 2009-09-22 2012-08-28 GM Global Technology Operations LLC System and method for calibrating a rotary absolute position sensor
TW201113815A (en) 2009-10-09 2011-04-16 Primax Electronics Ltd QR code processing method and apparatus thereof
US8423225B2 (en) 2009-11-11 2013-04-16 Intellibot Robotics Llc Methods and systems for movement of robotic device using video signal
US8679260B2 (en) 2009-11-11 2014-03-25 Intellibot Robotics Llc Methods and systems for movement of an automatic cleaning device using video signal
US8521328B2 (en) 2009-12-10 2013-08-27 The Boeing Company Control system for robotic vehicles
TW201123031A (en) 2009-12-24 2011-07-01 Univ Nat Taiwan Science Tech Robot and method for recognizing human faces and gestures thereof
JP5506617B2 (ja) 2009-12-28 2014-05-28 本田技研工業株式会社 ロボットの制御装置
JP5506618B2 (ja) 2009-12-28 2014-05-28 本田技研工業株式会社 ロボットの制御装置
US8668638B2 (en) 2010-02-11 2014-03-11 Intuitive Surgical Operations, Inc. Method and system for automatically maintaining an operator selected roll orientation at a distal tip of a robotic endoscope
KR101169674B1 (ko) 2010-03-11 2012-08-06 한국과학기술연구원 원격현전 로봇, 이를 포함하는 원격현전 시스템 및 이의 제어 방법
US8660355B2 (en) 2010-03-19 2014-02-25 Digimarc Corporation Methods and systems for determining image processing operations relevant to particular imagery
US9122994B2 (en) 2010-03-26 2015-09-01 Brain Corporation Apparatus and methods for temporally proximate object recognition
US9405975B2 (en) 2010-03-26 2016-08-02 Brain Corporation Apparatus and methods for pulse-code invariant object recognition
US9311593B2 (en) 2010-03-26 2016-04-12 Brain Corporation Apparatus and methods for polychronous encoding and multiplexing in neuronal prosthetic devices
US8336420B2 (en) 2010-06-02 2012-12-25 Disney Enterprises, Inc. Three-axis robotic joint using four-bar linkages to drive differential side gears
FR2963132A1 (fr) 2010-07-23 2012-01-27 Aldebaran Robotics Robot humanoide dote d'une interface de dialogue naturel, methode d'utilisation et de programmation de ladite interface
US20120045068A1 (en) 2010-08-20 2012-02-23 Korea Institute Of Science And Technology Self-fault detection system and method for microphone array and audio-based device
US8594971B2 (en) 2010-09-22 2013-11-26 Invensense, Inc. Deduced reckoning navigation without a constraint relationship between orientation of a sensor platform and a direction of travel of an object
WO2012040554A2 (en) 2010-09-23 2012-03-29 Stryker Corporation Video monitoring system
KR20120035519A (ko) 2010-10-05 2012-04-16 삼성전자주식회사 먼지 유입 감지 유닛 및 이를 구비하는 로봇 청소기
US20120143495A1 (en) 2010-10-14 2012-06-07 The University Of North Texas Methods and systems for indoor navigation
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8726095B2 (en) 2010-12-02 2014-05-13 Dell Products L.P. System and method for proactive management of an information handling system with in-situ measurement of end user actions
JP5185358B2 (ja) 2010-12-13 2013-04-17 株式会社東芝 行動履歴検索装置
CN103038030B (zh) 2010-12-17 2015-06-03 松下电器产业株式会社 弹性体致动器驱动机构的控制装置及控制方法
US9323250B2 (en) * 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US8380652B1 (en) 2011-05-06 2013-02-19 Google Inc. Methods and systems for autonomous robotic decision making
US8639644B1 (en) 2011-05-06 2014-01-28 Google Inc. Shared robot knowledge base for use with cloud computing system
US9566710B2 (en) 2011-06-02 2017-02-14 Brain Corporation Apparatus and methods for operating robotic devices using selective state space training
US9189891B2 (en) 2011-08-16 2015-11-17 Google Inc. Systems and methods for navigating a camera
US9015092B2 (en) 2012-06-04 2015-04-21 Brain Corporation Dynamically reconfigurable stochastic learning apparatus and methods
US8798840B2 (en) 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
US20130096719A1 (en) 2011-10-13 2013-04-18 The U.S.A. As Represented By The Administrator Of The National Aeronautics And Space Administration Method for dynamic optimization of a robot control interface
JP6305673B2 (ja) 2011-11-07 2018-04-04 セイコーエプソン株式会社 ロボット制御システム、ロボットシステム及びロボット
WO2013069291A1 (ja) 2011-11-10 2013-05-16 パナソニック株式会社 ロボット、ロボットの制御装置、制御方法、及び制御プログラム
KR101305819B1 (ko) 2012-01-04 2013-09-06 현대자동차주식회사 착용식 로봇의 사용자 조작 의도 토크 추출방법
US8958911B2 (en) 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
JP5895628B2 (ja) 2012-03-15 2016-03-30 株式会社ジェイテクト ロボットの制御方法及びロボット制御装置、並びにロボット制御システム
US9221177B2 (en) 2012-04-18 2015-12-29 Massachusetts Institute Of Technology Neuromuscular model-based sensing and control paradigm for a robotic leg
US9031779B2 (en) 2012-05-30 2015-05-12 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for hazard detection and sharing
US9208432B2 (en) 2012-06-01 2015-12-08 Brain Corporation Neural network learning and collaboration apparatus and methods
US9746327B2 (en) 2012-06-12 2017-08-29 Trx Systems, Inc. Fusion of sensor and map data using constraint based optimization
US9092698B2 (en) 2012-06-21 2015-07-28 Rethink Robotics, Inc. Vision-guided robots and methods of training them
US20130346347A1 (en) 2012-06-22 2013-12-26 Google Inc. Method to Predict a Communicative Action that is Most Likely to be Executed Given a Context
US9205828B1 (en) * 2012-06-29 2015-12-08 Google Inc. Method and apparatus for determining vehicle location based on motor feedback
JP5645885B2 (ja) 2012-06-29 2014-12-24 京セラドキュメントソリューションズ株式会社 画像形成装置
CA2878107A1 (en) 2012-07-04 2014-01-09 Repsol, S.A. Infrared image based early detection of oil spills in water
US8977582B2 (en) 2012-07-12 2015-03-10 Brain Corporation Spiking neuron network sensory processing apparatus and methods
WO2014024254A1 (ja) * 2012-08-07 2014-02-13 株式会社日立製作所 自律走行装置の利用支援ツール、運用管理センタ、運用システム及び自律走行装置
US20150350614A1 (en) * 2012-08-31 2015-12-03 Brain Corporation Apparatus and methods for tracking using aerial video
US9367798B2 (en) 2012-09-20 2016-06-14 Brain Corporation Spiking neuron network adaptive control apparatus and methods
US8793205B1 (en) 2012-09-20 2014-07-29 Brain Corporation Robotic learning and evolution apparatus
DE102012109004A1 (de) 2012-09-24 2014-03-27 RobArt GmbH Roboter und Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen
US9020637B2 (en) 2012-11-02 2015-04-28 Irobot Corporation Simultaneous localization and mapping for a mobile robot
US8972061B2 (en) 2012-11-02 2015-03-03 Irobot Corporation Autonomous coverage robot
WO2014089316A1 (en) 2012-12-06 2014-06-12 International Electronic Machines Corporation Human augmentation of robotic work
US20140187519A1 (en) 2012-12-27 2014-07-03 The Board Of Trustees Of The Leland Stanford Junior University Biomarkers for predicting major adverse events
EP2752726B1 (de) 2013-01-08 2015-05-27 Cleanfix Reinigungssysteme AG Bodenbehandlungsmaschine und Verfahren zum Behandeln von Bodenflächen
WO2014113091A1 (en) 2013-01-18 2014-07-24 Irobot Corporation Environmental management systems including mobile robots and methods using same
JP6132659B2 (ja) 2013-02-27 2017-05-24 シャープ株式会社 周囲環境認識装置、それを用いた自律移動システムおよび周囲環境認識方法
US8958937B2 (en) 2013-03-12 2015-02-17 Intellibot Robotics Llc Cleaning machine with collision prevention
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
KR102218243B1 (ko) 2013-03-15 2021-02-22 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 소프트웨어 구성가능한 매니퓰레이터 자유도
US9008840B1 (en) 2013-04-19 2015-04-14 Brain Corporation Apparatus and methods for reinforcement-guided supervised learning
US9292015B2 (en) 2013-05-23 2016-03-22 Fluor Technologies Corporation Universal construction robotics interface
US20140358828A1 (en) 2013-05-29 2014-12-04 Purepredictive, Inc. Machine learning generated action plan
US9242372B2 (en) 2013-05-31 2016-01-26 Brain Corporation Adaptive robotic interface apparatus and methods
WO2014196925A1 (en) 2013-06-03 2014-12-11 Ctrlworks Pte. Ltd. Method and apparatus for offboard navigation of a robotic device
US9792546B2 (en) 2013-06-14 2017-10-17 Brain Corporation Hierarchical robotic controller apparatus and methods
US9384443B2 (en) 2013-06-14 2016-07-05 Brain Corporation Robotic training apparatus and methods
US20150032258A1 (en) 2013-07-29 2015-01-29 Brain Corporation Apparatus and methods for controlling of robotic devices
JP6227948B2 (ja) 2013-09-18 2017-11-08 村田機械株式会社 自律走行式床洗浄機、清掃スケジュールのデータ構造、記憶媒体、清掃スケジュールの生成方法、及びプログラム
SG2013071808A (en) 2013-09-24 2015-04-29 Ctrlworks Pte Ltd Offboard navigation apparatus capable of being coupled to a movable platform
US9579789B2 (en) 2013-09-27 2017-02-28 Brain Corporation Apparatus and methods for training of robotic control arbitration
US9296101B2 (en) 2013-09-27 2016-03-29 Brain Corporation Robotic control arbitration apparatus and methods
US9315192B1 (en) 2013-09-30 2016-04-19 Google Inc. Methods and systems for pedestrian avoidance using LIDAR
US9144907B2 (en) 2013-10-24 2015-09-29 Harris Corporation Control synchronization for high-latency teleoperation
GB2521415B (en) * 2013-12-19 2020-03-04 Here Global Bv An apparatus, method and computer program for controlling a vehicle
US10612939B2 (en) 2014-01-02 2020-04-07 Microsoft Technology Licensing, Llc Ground truth estimation for autonomous navigation
US10078712B2 (en) 2014-01-14 2018-09-18 Energid Technologies Corporation Digital proxy simulation of robotic hardware
US9567077B2 (en) 2014-02-14 2017-02-14 Accenture Global Services Limited Unmanned vehicle (UV) control system
DE102014002150B3 (de) * 2014-02-15 2015-07-23 Audi Ag Verfahren zur Ermittlung der absoluten Position einer mobilen Einheit und mobile Einheit
JP5877574B1 (ja) * 2014-04-01 2016-03-08 みこらった株式会社 自動車及び自動車用プログラム
US20150283703A1 (en) 2014-04-03 2015-10-08 Brain Corporation Apparatus and methods for remotely controlling robotic devices
US9346167B2 (en) 2014-04-29 2016-05-24 Brain Corporation Trainable convolutional network apparatus and methods for operating a robotic vehicle
US10255319B2 (en) 2014-05-02 2019-04-09 Google Llc Searchable index
US20150339589A1 (en) 2014-05-21 2015-11-26 Brain Corporation Apparatus and methods for training robots utilizing gaze-based saliency maps
US9436182B2 (en) * 2014-05-23 2016-09-06 Google Inc. Autonomous vehicles
JP6308052B2 (ja) * 2014-07-01 2018-04-11 株式会社豊田自動織機 病院における患者搬送システム
GB2528953A (en) 2014-08-07 2016-02-10 Nokia Technologies Oy An apparatus, method, computer program and user device for enabling control of a vehicle
US9314929B2 (en) * 2014-08-21 2016-04-19 Elwha Llc Systems, devices, and methods including a wheelchair-assist robot
US9314928B2 (en) * 2014-08-21 2016-04-19 Elwha Llc Systems, devices, and methods including a wheelchair-assist robot
US9475195B2 (en) 2014-09-12 2016-10-25 Toyota Jidosha Kabushiki Kaisha Anticipatory robot navigation
US20160121487A1 (en) 2014-11-03 2016-05-05 Qualcomm Incorporated Communicating Configurable Instruction Sets to Robots for Controlling Robot Behavior
US9420741B2 (en) * 2014-12-15 2016-08-23 Irobot Corporation Robot lawnmower mapping
US9541409B2 (en) * 2014-12-18 2017-01-10 Nissan North America, Inc. Marker aided autonomous vehicle localization
US9628477B2 (en) 2014-12-23 2017-04-18 Intel Corporation User profile selection using contextual authentication
US9448559B2 (en) * 2015-01-15 2016-09-20 Nissan North America, Inc. Autonomous vehicle routing and navigation using passenger docking locations
US20160231746A1 (en) * 2015-02-06 2016-08-11 Delphi Technologies, Inc. System And Method To Operate An Automated Vehicle
US20160259344A1 (en) * 2015-03-06 2016-09-08 Wal-Mart Stores, Inc. Shopping facility assistance systems, devices, and methods to facilitate responding to a user's request for product pricing information
EP4306027A2 (en) 2015-04-24 2024-01-17 Avidbots Corp. Apparatus and methods for semi-autonomous cleaning of surfaces
US9840003B2 (en) 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices
KR101637842B1 (ko) * 2015-07-08 2016-07-07 현대자동차주식회사 주차장 내 자율주행 시스템 및 방법
US10867277B2 (en) * 2015-07-08 2020-12-15 Ebay Inc. Public transport infrastructure facilitated drone delivery
US9934688B2 (en) * 2015-07-31 2018-04-03 Ford Global Technologies, Llc Vehicle trajectory determination
US9463794B1 (en) * 2015-09-04 2016-10-11 Google Inc. Stop sign detection and response
US9412280B1 (en) * 2015-11-05 2016-08-09 Daniel Ian Zwillinger Cooperative system and method for precise autonomous delivery
US20170139551A1 (en) 2015-11-16 2017-05-18 Bank Of America Corporation System for determining user interfaces to display based on user location
US10052246B2 (en) * 2016-03-15 2018-08-21 Denso International America, Inc. Autonomous wheelchair
US10241514B2 (en) 2016-05-11 2019-03-26 Brain Corporation Systems and methods for initializing a robot to autonomously travel a trained route
US20170329347A1 (en) 2016-05-11 2017-11-16 Brain Corporation Systems and methods for training a robot to autonomously travel a route
US10852730B2 (en) * 2017-02-08 2020-12-01 Brain Corporation Systems and methods for robotic mobile platforms

Also Published As

Publication number Publication date
US20180224853A1 (en) 2018-08-09
JP2020509476A (ja) 2020-03-26
EP3580626A1 (en) 2019-12-18
EP3580626B1 (en) 2021-01-06
SA519402461B1 (ar) 2022-03-23
CN110476134A (zh) 2019-11-19
WO2018148396A1 (en) 2018-08-16
CN110476134B (zh) 2023-06-06
US10852730B2 (en) 2020-12-01
SG11201907368SA (en) 2019-09-27

Similar Documents

Publication Publication Date Title
KR20190118175A (ko) 로봇식 모바일 플랫폼을 위한 시스템 및 방법
US11684526B2 (en) Patient support apparatuses with navigation and guidance systems
US10576994B1 (en) Autonomous system operator cognitive state detection and alerting
US12030757B2 (en) Systems and methods for operating autonomous tug robots
US10946868B2 (en) Methods and devices for autonomous vehicle operation
US20180188726A1 (en) Autonomous override safety
US9902069B2 (en) Mobile robot system
US20200047641A1 (en) Automated Vehicle Seats
US8930019B2 (en) Mobile human interface robot
US11332160B2 (en) On-demand predefined route automated driving vehicle
KR20180040839A (ko) 공항 로봇 및 그를 포함하는 공항 로봇 시스템
WO2021166317A1 (ja) 電動モビリティおよび施設内におけるシステム
KR102303422B1 (ko) 자율성 극대화를 위한 자율주행차량 제어 시스템 및 이를 위한 자율성 제공 서버
KR20180040907A (ko) 공항 로봇
US11951984B2 (en) Open vehicle and operation management system thereof
US20210346556A1 (en) Internal cleaning for autonomous vehicles
US11318865B2 (en) Autonomous vehicle having a configurable passenger seat
US11897406B2 (en) Systems and methods for a moveable cover panel of an autonomous vehicle
US11938936B2 (en) Stand-up vehicle having safety posture determination process and upper limit speed management process
JP7533253B2 (ja) 自律移動システム、自律移動方法及び自律移動プログラム
JP7220274B1 (ja) 無人機、情報処理方法、プログラム及び物流管理システム
WO2023276399A1 (ja) 電動モビリティ
WO2021085446A1 (ja) 施設内におけるシステムおよび電動モビリティ
JP2016013213A (ja) 電動車両