KR20190024962A - 이동 바디들 주위의 로봇 행동을 위한 시스템들 및 방법들 - Google Patents

이동 바디들 주위의 로봇 행동을 위한 시스템들 및 방법들 Download PDF

Info

Publication number
KR20190024962A
KR20190024962A KR1020197001472A KR20197001472A KR20190024962A KR 20190024962 A KR20190024962 A KR 20190024962A KR 1020197001472 A KR1020197001472 A KR 1020197001472A KR 20197001472 A KR20197001472 A KR 20197001472A KR 20190024962 A KR20190024962 A KR 20190024962A
Authority
KR
South Korea
Prior art keywords
moving body
robot
person
sensor data
sensor
Prior art date
Application number
KR1020197001472A
Other languages
English (en)
Other versions
KR102361261B1 (ko
Inventor
올레그 신야브스키
보르하 가바르도스
장 밥티스트 파소
Original Assignee
브레인 코퍼레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 브레인 코퍼레이션 filed Critical 브레인 코퍼레이션
Publication of KR20190024962A publication Critical patent/KR20190024962A/ko
Application granted granted Critical
Publication of KR102361261B1 publication Critical patent/KR102361261B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4061Avoiding collision or forbidden zones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39082Collision, real time collision avoidance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40442Voxel map, 3-D grid map
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/49Nc machine tool, till multiple
    • G05B2219/49141Detect near collision and slow, stop, inhibit movement tool
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/49Nc machine tool, till multiple
    • G05B2219/49143Obstacle, collision avoiding control, move so that no collision occurs
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/49Nc machine tool, till multiple
    • G05B2219/49157Limitation, collision, interference, forbidden zones, avoid obstacles
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

사람들의 검출을 위한 시스템들 및 방법들이 개시된다. 일부 예시적인 구현예들에서, 로봇은 복수의 센서 유닛들을 가질 수 있다. 각각의 센서 유닛은 복수의 시간들에서 이동 바디의 일부를 나타내는 센서 데이터를 생성하도록 구성될 수 있다. 적어도 센서 데이터에 기초하여, 로봇은, 적어도, 이동 바디의 모션을 검출하는 것, 및 이동 바디가 사람의 특성들을 갖는 것으로 결정하는 것에 의해, 이동 바디가 사람인 것으로 결정할 수 있다. 이어서, 로봇은 이동 바디가 사람이라는 결정에 적어도 부분적으로 기초하여 액션을 수행할 수 있다.

Description

이동 바디들 주위의 로봇 행동을 위한 시스템들 및 방법들
우선권
본 출원은 2016년 6월 30일자로 출원된 동일한 제목의 미국 특허 출원 일련 번호 제15/199,224호의 우선권의 이익을 주장하며, 그 내용은 전체가 본원에 참고로 포함된다.
저작권
본 특허 문서의 개시내용의 일부는 저작권 보호를 받는 자료를 포함한다. 저작권 소유자는, 특허 및 상표청의 특허 파일들 또는 기록들에 나타나 있듯이, 특허 문서 또는 특허 개시내용의 임의의 것에 의한 팩스 복제물에 대해 이의를 제기하지 않지만, 그 이외에는 무엇이든 모든 저작권 권리들을 보유한다.
기술분야
본 출원은 일반적으로, 로봇 공학에 관한 것으로, 더 구체적으로는 사람들 및/또는 물체들을 검출하기 위한 시스템들 및 방법들에 관한 것이다.
로봇들이 자율적으로 동작하기 시작함에 따라, 하나의 난제는 이들 로봇들이 이동 바디(moving body)들, 이를테면 사람들, 동물들 및/또는 물체들(예를 들어, 비-인간, 비-동물 물체들)과 상호 작용하는 방법이다. 예를 들어, 로봇들이 감속되지 않고, 의도적으로 이동하고, 그리고/또는 그렇지 않으면, 사람들 및/또는 동물들이 원하지 않는 그리고/또는 예상하지 않은 특정 특성들로 행동하는 경우, 로봇들은 사람들 및/또는 동물들에게 피해를 입히고 그리고/또는 겁을 줄 수 있다. 그러나, 이러한 동일한 행동들은 비-인간들 및/또는 비-동물들과 상호 작용하는 경우 비효율적일 수 있다. 예를 들어, 물체들과 상호 작용하는 경우 항상 감속하는 것은 로봇이 매우 느리게 내비게이팅하게 할 수 있고, 그리고/또는 그렇지 않으면, 비효율적이게 할 수 있다. 또한, 또한 이동하고 있는 이동 바디들 주위에서 내비게이팅하려고 시도하는 것은, 로봇이 로봇의 경로로부터 크게 벗어나게 할 수 있으며, 여기서, 단순히 정지하고 이동 바디가 통과하기를 기다리는 것이 더 효과적이고 그리고/또는 효율적일 수 있다.
더욱이, 다수의 경우들에서, 사람들은 로봇들이 사람들을 인식할 수 있다는 것을 알면 더 편안해질 수 있다. 따라서, 로봇들이 물체들 주위에서와 상이하게, 인간들 및/또는 동물들 주위에서 행동하게 하는 것은, 안전에 대한 인식을 생성할 수 있고, 로봇의 자율적 동작에서 신뢰성이 생기게 할 수 있다.
현재, 다수의 로봇들이 이동 바디들 주위에서 상이하게 행동하지 않고, 사람들 및/또는 동물들의 존재 시 상이하게 행동하지 않는다. 실제로, 다수의 로봇들은 이들이 어떠한 세팅에서도 수행하는 행동들의 세트로 프로그래밍된다. 로봇들이 사람들을 인식할 수 있는 경우에도, 알고리즘들이 느릴 수 있고, 구현하는데 고가일 수 있고, 그리고/또는 그렇지 않으면, 로봇이 태스크들을 수행하고 있는 동적으로 변화되는 환경에서 비효과적일 수 있다. 따라서, 사람들, 동물들 및/또는 물체들의 검출을 위한 개선된 시스템들 및 방법들이 필요하다.
전술된 필요성들은 본 개시내용에 의해 충족되며, 본 개시내용은 특히, 자율적인 내비게이션을 위한 로봇을 동작시키기 위한 장치 및 방법들을 제공한다. 본원에서 설명되는 예시적인 구현예들은 혁신적인 특징들을 가지며, 그 중 하나라도 이들의 바람직한 속성들에 대해 필수적이거나 또는 단독으로 담당하지 않는다. 청구항들의 범위를 제한하지 않으면서, 유리한 특징들 중 일부가 이제 요약될 것이다.
일부 구현예들에서, 로봇은 복수의 센서 유닛들을 가질 수 있다. 각각의 센서 유닛은 복수의 시간들에서 이동 바디의 일부를 나타내는 센서 데이터를 생성하도록 구성될 수 있다. 적어도 센서 데이터에 기초하여, 로봇은, 적어도, 이동 바디의 모션을 검출하는 것, 및 이동 바디가 사람의 특성들을 갖는 것으로 결정하는 것에 의해, 이동 바디가 사람인 것으로 결정할 수 있다. 이어서, 로봇은 이동 바디가 사람이라는 결정에 적어도 부분적으로 기초하여 액션을 수행할 수 있다.
제1 양태에서, 로봇이 개시된다. 일 예시적인 구현예에서, 로봇은, 제1 복수의 시간들에 걸쳐 이동 바디의 제1 부분을 나타내는 제1 센서 데이터를 생성하도록 구성된 제1 센서 유닛; 제2 복수의 시간들에 걸쳐 이동 바디의 제2 부분을 나타내는 제2 센서 데이터를 생성하도록 구성된 제2 센서 유닛; 및 프로세서를 포함한다. 프로세서는, 제1 복수의 시간들 중 제1 시간에서의 제1 센서 데이터 및 제1 복수의 시간들 중 제2 시간에서의 제1 센서 데이터에 적어도 기초하여, 이동 바디의 모션을 검출하도록, 적어도 제1 센서 데이터 및 제2 센서 데이터로부터 이동 바디가 연속적인 형태를 포함하는 것으로 결정하도록, 제1 센서 데이터와 제2 센서 데이터 중 적어도 하나로부터, 이동 바디가 사람에 해당하는 것을 나타내는 이동 바디의 적어도 하나의 특성들을 검출하도록, 검출된 적어도 하나의 특성, 및 이동 바디가 연속적인 형태를 포함한다는 결정에 적어도 기초하여, 이동 바디를 사람으로서 식별하도록, 그리고 사람으로서의 이동 바디의 식별에 대한 응답으로 액션을 수행하도록 구성된다.
일 변형예에서, 이동 바디의 적어도 하나의 특성은 사람에 대한 보행 패턴을 포함한다. 다른 변형예에서, 보행 패턴은 사람의 다리들의 교번 스윙들을 포함한다. 다른 변형예에서, 이동 바디의 적어도 하나의 특성은 사람의 팔 스윙을 포함한다. 다른 변형예에서, 사람의 특성은 이동 바디의 사이즈 및 형상에 적어도 기초한다.
다른 변형예에서, 이동 바디의 모션의 검출은, 제1 시간에서의 제1 센서 데이터 및 제2 시간에서의 제1 센서 데이터로부터 결정되는 차이 신호에 적어도 부분적으로 기초한다.
다른 변형예에서, 액션은 로봇에 대한 정지 액션을 포함하며, 정지 액션은 이동 바디가 통과할 수 있게 하도록 구성된다. 다른 변형예에서, 로봇은 로봇의 후방을 향하는 측 상에 배치된 제3 센서 유닛을 더 포함하며, 여기서, 프로세서는 추가로, 이동 바디가 제3 센서 유닛에 의해 검출되는 것에 적어도 기초하여, 이동 바디가 사람에 해당하는 것으로 결정하도록 구성된다. 다른 변형예에서, 제1 센서 유닛은 광 검출 및 레인징 센서를 포함한다.
제2 양태에서, 비-일시적 컴퓨터-판독가능 저장 매체가 개시된다. 일 예시적인 구현에서, 비-일시적 컴퓨터-판독가능 저장 매체에는 복수의 명령들이 저장되고, 명령들은 사람들을 검출하기 위해 프로세싱 장치에 의해 실행 가능하다. 명령들은, 프로세싱 장치에 의해 실행되는 경우, 프로세싱 장치로 하여금, 센서 데이터로부터 생성되는 차이 신호에 적어도 기초하여 이동 바디의 모션을 검출하는 것; 센서 데이터로부터, 이동 바디가 실질적으로 동일한 수직 평면 내의 적어도 2개의 포인트들을 갖는 것으로 결정하는 것; (i) 사람을 나타내는 적어도 하나의 특성의 검출, 및 (ii) 이동 바디가 실질적으로 동일한 수직 평면 내의 적어도 2개의 포인트들을 갖는다는 결정에 적어도 부분적으로 기초하여, 이동 바디를 사람으로서 식별하는 것; 및 사람으로서의 이동 바디의 식별에 대한 응답으로 액션을 실행하는 것을 행하게 하도록 구성된다.
일 변형예에서, 사람의 적어도 하나의 특성은 보행 패턴이다. 다른 변형예에서, 보행 패턴은 사람의 하나의 정지 다리 및 하나의 스윙 다리를 포함한다. 다른 변형예에서, 액션은 정지 액션을 포함하며, 실행된 정지 액션은 이동 바디가 통과할 수 있게 하도록 구성된다.
다른 변형예에서, 명령들은 추가로, 프로세싱 장치로 하여금, 센서 데이터로부터 동물을 나타내는 이동 바디의 적어도 하나의 특성을 검출하는 것; 동물을 나타내는 이동 바디의 검출된 적어도 하나의 특성에 적어도 기초하여, 이동 바디를 동물로서 식별하는 것; 및 이동 바디가 동물인 것에 대한 응답으로 액션을 수행하는 것을 행하게 하도록 구성된다.
다른 변형예에서, 센서 데이터는 복수의 센서 유닛들로부터 생성된다.
제3 양태에서, 사람, 동물 및/또는 물체와 같은 이동 바디를 검출하기 위한 방법이 개시된다. 일 예시적인 구현예에서, 방법은, 센서 데이터로부터 생성되는 차이 신호에 적어도 기초하여, 이동 바디의 모션을 검출하는 단계; 적어도 이동 바디의 보행 패턴을 검출하는 것에 적어도 기초하여, 이동 바디가 사람인 것을 식별하는 단계; 및 사람으로서의 이동 바디의 식별에 대한 응답으로 액션을 수행하는 단계를 포함한다.
일 변형예에서, 검출된 보행 패턴은 사람의 다리들의 교번 스윙들을 검출하는 것을 포함한다. 다른 변형예에서, 수행된 액션은 이동 바디가 통과할 수 있게 하기 위해 로봇을 정지시키는 것을 포함한다.
다른 변형예에서, 센서 데이터로부터 이동 바디가 실질적으로 기둥-형 형상을 갖는 것으로 결정된다. 다른 변형예에서, 복수의 센서 유닛들로부터 센서 데이터가 생성된다. 다른 변형예에서, 모션의 검출은 차이 신호가 차이 임계치보다 더 큰지를 결정하는 것을 포함한다. 다른 변형예에서, 검출된 보행 패턴은 사람의 하나의 정지 다리를 검출하고 하나의 스윙 다리를 검출하는 것을 포함한다.
본 개시내용의 이들 및 다른 목적들, 특징들 및 특성들, 뿐만 아니라, 구조의 관련된 구성요소들 및 파트들의 조합의 동작 및 기능들의 방법들, 및 제조의 절약들은, 첨부 도면들을 참조하여 다음의 설명 및 첨부된 청구 범위를 고려할 시에 더 명백하게 될 것이며, 그 첨부 도면들 모두는 본 명세서의 일부를 형성하고, 여기서, 유사한 참조 번호들은 다양한 도면들 내의 대응하는 파트들을 지정한다. 그러나, 도면들은 예시 및 설명의 목적만을 위한 것이고, 본 개시내용의 제한들의 정의로서 의도되지 않는다는 것이 명백히 이해될 것이다. 본 명세서 및 청구 범위에서 사용되는 바와 같이, "a", "an" 및 "the"와 같은 단수 형태는 문맥 상 명확하게 다르게 지시하지 않는 한 복수 대상들을 포함한다.
개시되는 양태들은, 개시되는 양태들을 제한하는 것이 아니라 개시되는 양태들을 예시하기 위해 제공되는 첨부된 도면들과 함께 이하에서 설명될 것이며, 여기서, 유사한 부호들은 전반에 걸쳐 유사한 구성요소들을 나타낸다.
도 1은 본 개시내용의 일부 구현예들에 따른, 사람과 상호 작용하는 예시적인 로봇의 입면 측면도이다.
도 2는 본 개시내용의 원리들에 따른, 로봇을 위한 예시적인 바디 형태들의 다양한 측면 입면도들을 예시한다.
도 3a는 본 개시내용의 일부 구현예들에 따른 하나의 예시적인 로봇의 기능 블록도이다.
도 3b는 본 개시내용의 일부 구현예들에 따른, 평면형 LIDAR를 포함하는 예시적인 센서 유닛을 예시한다.
도 4는 본 개시내용의 일부 구현예들에 따른, 사람들, 동물들 및/또는 물체들과 같은 이동 바디들을 로봇이 식별할 수 있는 예시적인 방법의 프로세스 흐름도이다.
도 5a는 본 개시내용의 일부 구현예들에 따른, 이동 바디를 검출하는 예시적인 센서 유닛들의 입면 측면도를 예시하는 기능 블록도이다.
도 5b 및 도 5c는 본 개시내용의 일부 원리들에 따른, 사람을 검출하는 도 5a에 예시된 센서 유닛들의 기능 블록도들이다.
도 6은 본 개시내용의 일부 구현예들에 따른, 다리들의 스윙 모션을 검출하는 예시적인 센서 유닛의 각진 평면도이다.
도 7은 본 개시내용의 일부 구현예들에 따른, 복수의 센서 유닛들을 갖는 예시적인 로봇의 평면도이다.
도 8a는 본 개시내용의 일부 구현들에 따른, 물체 주위에서 내비게이팅하기 위해 예시적인 로봇이 사용할 수 있는 경로의 기능도의 부감도이다.
도 8b는 본 개시내용의 일부 구현예들에 따른, 사람 주위에서 내비게이팅하기 위해 예시적인 로봇이 사용할 수 있는 경로의 기능도의 부감도이다.
도 9는 본 개시내용의 일부 구현예들에 따른, 사람을 검출하고 사람에 응답하기 위한 예시적인 방법의 프로세스 흐름도이다.
본원에서 개시되는 모든 도면들은 ⓒ Copyright 2017 Brain Corporation이다. 판권 소유.
본원에서 개시되는 신규한 시스템들, 장치들 및 방법들의 다양한 양태들이 첨부 도면들을 참조하여 이하에서 더 완전히 설명된다. 그러나, 본 개시내용은 다수의 상이한 형태들로 구현될 수 있고, 본 개시내용 전반에 걸쳐 제시되는 임의의 특정 구조 또는 기능으로 제한되는 것으로 해석되지 않아야 한다. 오히려, 이러한 양태들은 본 개시내용이 철저하고 완전하게 되도록 제공되며, 본 개시내용의 범위를 당업자에게 충분히 전달할 것이다. 본원의 교시들에 기초하여, 본 개시내용의 범위가, 독립적으로 구현되든지 또는 본 개시내용의 임의의 다른 양태와 조합되든지, 본원에서 개시되는 신규한 시스템들, 장치들 및 방법들의 임의의 양태를 커버하도록 의도된다는 것을 당업자는 이해해야 한다. 예를 들어, 본원에서 제시되는 임의의 수의 양태들을 사용하여, 장치가 구현될 수 있거나 또는 방법이 실시될 수 있다. 부가하여, 본 개시내용의 범위는 본원에서 제시되는 본 개시내용의 다양한 양태들에 부가하여 또는 그 이외에 다른 구조, 기능성, 또는 구조와 기능성을 사용하여 실시되는 그러한 장치 또는 방법을 커버하도록 의도된다. 본원에서 개시되는 임의의 양태는 청구항의 하나 이상의 구성요소들에 의해 구현될 수 있다는 것이 이해되어야 한다.
특정 양태들이 본원에서 설명되지만, 이들 양태들의 다수의 변형들 및 변경들이 본 개시내용의 범위 내에 속한다. 바람직한 양태들의 일부 이점들 및 장점들이 언급되지만, 본 개시내용의 범위는 특정 이점들, 용도들 및/또는 목적들로 제한되도록 의도되지 않는다. 상세한 설명 및 도면들은 제한하기 보다는 본 개시내용의 단지 예시일 뿐이며, 본 개시내용의 범위는 첨부된 청구 범위 및 그 등가물들에 의해 정의된다.
본 개시내용은 사람들, 동물들 및/또는 물체들의 검출을 위한 개선된 시스템들 및 방법들을 제공한다. 본원에서 사용되는 바와 같이, 로봇은 복잡한 일련의 액션들을 자동적으로 수행하도록 구성된 기계적 또는 가상적 엔티티들을 포함할 수 있다. 일부 경우들에서, 로봇들은 컴퓨터 프로그램들 또는 전자 회로에 의해 가이딩되는 전기-기계 머신들일 수 있다. 일부 경우들에서, 로봇들은 내비게이션을 위해 구성된 전기-기계 컴포넌트들을 포함할 수 있으며, 여기서, 로봇은 하나의 위치로부터 다른 위치로 이동할 수 있다. 그러한 내비게이팅 로봇들은 자율 차량들, 플로어 청소기들, 로버들, 드론들 등을 포함할 수 있다. 일부 경우들에서, 로봇들, 이를테면 로봇 암들, 리프트들, 그레인들 등은 정지되어 있을 수 있다. 본원에서 언급되는 바와 같이, 플로어 청소기들은 수동 제어형(예를 들어, 구동 또는 원격 제어됨) 및/또는 자율형(예를 들어, 사용자 제어가 거의 사용되지 않거나 전혀 사용되지 않음)인 플로어 청소기들을 포함할 수 있다. 예를 들어, 플로어 청소기들은 관리인, 관리자 또는 다른 사람이 동작시키는 플로어 스크러버들, 및/또는 환경을 자율적으로 내비게이팅하고 그리고/또는 청소하는 로봇 플로어 스크러버들을 포함할 수 있다. 일부 구현예들에서, 본 개시내용에서 설명되는 시스템들 및 방법들의 일부는 가상 환경에서 구현될 수 있으며, 여기서, 가상 로봇은 물질계의 특성들을 갖는 (예를 들어, 컴퓨터 시뮬레이션 내의) 시뮬레이팅된 환경에서 사람들, 동물들 및/또는 물체들을 검출할 수 있다. 일부 경우들에서, 로봇은 가상 환경에서 사람들, 동물들 및/또는 물체들을 검출하기 위해 트레이닝될 수 있고, 현실 세계에서 유출들을 검출하기 위해 그 학습을 적용할 수 있다.
본 개시내용에서의 일부 예들은 사람들을 묘사할 수 있으며, 사람들의 해부학적 특징들, 이를테면 다리들, 상체들, 몸통, 팔들, 손들 등에 대한 언급들을 포함할 수 있다. 동물들이 유사한 해부학적 특징들을 가질 수 있고, 사람들을 참조하여 본 개시내용에서 설명되는 동일한 시스템들 및 방법들 중 다수가 동물들에도 마찬가지로 쉽게 적용될 수 있다는 것을 당업자는 이해할 것이다. 따라서, 본 개시내용 전반에 걸친 다수의 경우들에서, 사람들을 설명하는 애플리케이션들은 또한, 동물들에도 적용되는 것으로 이해될 수 있다.
본 개시내용에서의 일부 예들은 이동 바디들 및 정적 바디들을 참조할 수 있다. 이동 바디들은 사람들, 동물들 및/또는 물체들(예를 들어, 비-인간, 비-동물 물체들)과 같은 동적 바디들, 이를테면 모션 중인 동적 바디들을 포함할 수 있다. 정적 바디들은 정지 바디들, 이를테면 정지 물체들 및/또는 실질적으로 움직임이 없는 물체들을 포함한다. 일부 경우들에서, 일반적으로 동적인 바디들, 이를테면 사람들, 동물들 및/또는 물체들(예를 들어, 비-인간, 비-동물 물체들)이 또한, 적어도, 이들이 움직임을 거의 나타내지 않거나 전혀 나타내지 않을 수 있는 시간 기간 동안, 정적일 수 있다.
본 개시내용의 시스템 및 방법들의 다양한 구현예들 및 변형예들의 상세한 설명들이 이제 제공된다. 일부 예들이 내비게이션을 참조할 것이지만, 로봇들이 내비게이션 이외의 다른 액션들을 수행할 수 있고, 본 출원이 단지 내비게이션에 제한되지 않는다는 것이 이해되어야 한다. 본원에서 설명되는 기술을 위한 다수의 다른 예시적인 구현예들 또는 사용들은, 본 개시내용의 내용들이 주어지면, 당업자에 의해 쉽게 구상될 수 있을 것이다.
유리하게, 본 개시내용의 시스템들 및 방법들은, 적어도, (i) 사람들, 동물들 및/또는 물체들의 자동적인 검출을 제공하고; (ii) 사람들, 동물들 및/또는 물체들의 로봇 검출을 가능하게 하고; (iii) 이동 바디들과의 더 안전한 상호 작용들을 가능하게 함으로써 부상들을 감소시키거나 또는 제거하고; (iv) 로봇들의 자율적인 동작에서 신뢰성이 생기게 하고; (v) 사람들, 동물들 및/또는 물체들의 신속하고 효율적인 검출을 가능하게 하고; 그리고 (vi) 사람들, 동물들 및/또는 물체가 존재할 수 있는 동적 환경들에서 로봇들이 동작할 수 있게 한다. 다른 이점들은 본 개시내용의 내용들이 주어지면, 당업자에 의해 쉽게 인식 가능하다.
예를 들어, 사람들 및/또는 동물들은 예기치 않게 그리고/또는 갑작스럽게 행동할 수 있다. 예시로서, 사람 및/또는 동물은 방향들을 갑자기 변경할 수 있다. 사람 및/또는 동물은 또한, 속도들을 신속하게 변경할 수 있으며, 일부 경우들에서는 거의 예고 없이 변경할 수 있다. 사람들/동물들과 물체들을 구별하지 않는 현재 시스템들은 사람들/동물들의 행동들에 적절하게 반응하지 않을 수 있다. 따라서, 자율적으로 동작하는 로봇이 사람들 및/또는 동물들을 인식할 수 있고, 그에 따라 액션들을 수행 할 수 있는 것이 바람직하다.
다른 예로서, 사람들 및/또는 동물들은 로봇들을 조심할 수 있다. 예를 들어, 사람들 및/또는 동물들은 로봇들이 이들에게로 달려 들거나 또는 이들이 물체들인 것처럼 이들에 대해 액션들을 실수로 수행하는 것과 같이, 유해한 방식들로 행동하게 될 것을 두려워 할 수 있다. 이러한 두려움은 로봇들과 인간들 및/또는 동물들 사이의 상호 작용들 사이에 긴장감을 유발할 수 있으며, 특정 시나리오들에서 로봇들이 배치되는 것을 방지할 수 있다. 따라서, 인간, 동물들 및/또는 물체들의 로봇들에 의한 인식을 개선하고, 그 인식에 적어도 기초하여 로봇들의 행동을 개선할 필요가 있다.
다른 예로서, 로봇들에 의해 사람들 및/또는 동물들을 인식하기 위한 현재의 시스템들 및 방법들은 종종, 고해상도 이미징 및/또는 리소스가 많은 머신 학습에 의존할 수 있다. 일부 경우들에서, 이러한 의존은 구현하는데 있어서 (예를 들어, 금전적 비용들 및/또는 시스템 자원들의 측면에서) 고가일 수 있다. 따라서, 효율적이고 효과적인 방식들로 사람들, 동물들 및/또는 물체들을 검출하기 위한 시스템들 및 방법들을 개선할 필요가 있다.
다른 예로서, 이동 바디들은 로봇들에 의한 루트들의 내비게이션에 혼란들을 야기할 수 있다. 예를 들어, 현재의 다수의 로봇들은 로봇이 조우하는 물체들 주위에서 방향을 전환하려고 시도할 수 있다. 그러나, 일부 경우들에서, 로봇들이 이동 바디들 주위에서 방향을 전환하려고 시도하는 경우, 이동 바디들이 또한, 로봇들이 방향을 전환하려고 시도하는 방향으로 이동하고 있을 수 있고, 그에 따라, 로봇들의 코스가 더 벗어나게 되도록 할 수 있다. 일부 경우들에서, 이동 바디들 주위에서 방향을 전환하기 보다는, 로봇이 정지하고 이동 바디들이 통과하기를 기다리는 것이 더 효과적이고 그리고/또는 효율적일 것이다. 따라서, 이동 바디들의 존재에 응답하는 로봇들의 개선된 액션들이 본 기술분야에 필요하다.
도 1은 본 개시내용의 일부 구현예들에 따른 사람(102)과 상호 작용하는 로봇(100)의 입면 측면도이다. 사람(102)의 외관은 단지 예시적인 목적들을 위한 것일 뿐이다. 사람(102)은 키, 성별, 사이즈, 인종, 국적, 연령, 신체 형상, 또는 여기서 명시적으로 논의되는 특성들 이외의 인간의 다른 특성들과 상관 없이 임의의 사람을 표현하는 것으로 이해되어야 한다. 또한, 사람(102)은 사람이 전혀 아닐 수 있다. 대신, 사람(102)은 로봇(100)과 상호 작용할 수 있는 동물 및/또는 다른 살아 있는 생물을 표현할 수 있다. 사람(102)은 또한, 살아 있는 것이 아니라 사람 및/또는 동물의 외관을 가질 수 있다. 예를 들어, 사람(102)은 인간 및/또는 동물과 같이 보이도록 그리고/또는 행동하도록 설계된 로봇과 같은 로봇일 수 있다.
일부 구현예들에서, 로봇(100)은 동시적인 사용자 제어가 거의 또는 전혀 없이 자율적으로 동작할 수 있다. 그러나, 일부 구현예들에서, 로봇(100)은 인간에 의해 구동될 수 있고 그리고/또는 원격-제어될 수 있다. 로봇(100)은 센서 유닛(104A) 및 센서 유닛(104B)과 같은 복수의 센서 유닛들을 가질 수 있으며, 이는 도 3a 및 도 3b를 참조하여 더 상세히 설명될 것이다. 센서 유닛(104A) 및 센서 유닛(104B)은 주변에 있는 임의의 물체들, 사람들, 동물들 및/또는 그 이외의 임의의 것을 포함하는, 로봇(100)의 주변들을 검출하기 위해 사용될 수 있다. 현재 기술에서 발생할 수 있는 난제는, 현재의 센서 유닛 시스템들 및 이들을 사용하는 방법들이 주변에 있는 물체들, 사람들, 동물들 및/또는 그 이외의 임의의 것의 존재를 검출할 수 있지만, 이들을 구별하지 않을 수 있다는 것이다. 본원에서 설명되는 바와 같이, 센서 유닛(104A) 및 센서 유닛(104B)은 사람들/동물들의 존재를 다른 물체들과 구별하기 위해 사용될 수 있다. 일부 구현예들에서, 센서 유닛(104A) 및 센서 유닛(104B)은 이들의 시야가 로봇(100)의 전방 측(700B)으로부터 연장되도록 위치될 수 있다.
로봇(100)이 임의의 수의 상이한 외관들/형태들을 가질 수 있고, 본 개시내용 내의 예시들이 로봇(100)을 임의의 특정 바디 형태로 제한하는 것으로 의도되지 않는다는 것을 당업자는 이해할 것이다. 도 2는 본 개시내용의 원리들에 따른 로봇(100)에 대한 예시적인 바디 형태들의 다양한 입면 측면도들을 예시한다. 이들은 다양한 바디 형태들을 추가로 예시하지만 로봇(100)을 임의의 특정 바디 형태로 제한하지 않도록 의도된 비-제한적인 예들이다. 예를 들어, 바디 형태(250)는 로봇(100)이 입식 상점 진공 청소기인 예를 예시한다. 바디 형태(252)는 로봇(100)이 인체와 실질적으로 유사한 외관을 갖는 휴머노이드 로봇인 예를 예시한다. 바디 형태(254)는 로봇(100)이 프로펠러들을 갖는 드론인 예를 예시한다. 바디 형태(256)는 로봇(100)이 휠들 및 승객 객실을 갖는 차량 형상을 갖는 예를 예시한다. 바디 형태(258)는 로봇(100)이 로버(rover)인 예를 예시한다.
바디 형태(260)는 스티어링 이외에 바디 형태(260)에 사용자의 노력이 거의 또는 전혀 발휘되지 않으면서 바디 형태(260)가 이동할 수 있게 하는 전동식 플로어 스크러버일 수 있다. 사용자는 바디 형태(260)가 이동할 때 바디 형태(260)를 조종할 수 있다. 바디 형태(262)는 좌석, 페달들 및 스티어링 휠을 갖는 전동식 플로어 스크러버일 수 있으며, 여기서, 사용자는 바디 형태(262)가 청소할 때 바디 형태(262)를 차량처럼 운전할 수 있다.
도 3a는 본 개시내용의 일부 구현예들에 따른 하나의 예시적인 로봇(100)의 기능 블록도이다. 도 3a에 예시된 바와 같이, 로봇(100)은 제어기(304), 메모리(302) 및 센서 유닛들(104A-104N)을 포함하며, 이들 각각은 서로에 대해 그리고 서로의 컴포넌트들 및/또는 서브컴포넌트들에 대해 동작 가능하게 그리고/또는 통신 가능하게 커플링될 수 있다. 본원에서 사용되는 바와 같이, 센서 유닛들(104A-104N)의 "N"은 임의의 수의 센서 유닛들이 있을 수 있음을 적어도 부분적으로 나타내며, 본 개시내용은 임의의 특정 수의 센서 유닛들로 제한되지 않고 또한 본 개시내용은 임의의 수의 센서 유닛들을 요구하지도 않는다. 제어기(304)는 로봇(100)에 의해 수행되는 다양한 동작들을 제어한다. 도 3a에 특정 구현예가 예시되어 있지만, 본 개시내용의 내용들이 주어지는 경우 당업자에게 쉽게 자명하게 될 바와 같이, 특정 구현예들에서 아키텍처가 변화될 수 있다는 것이 이해된다.
제어기(304)는 하나 이상의 프로세서들(예를 들어, 마이크로프로세서들) 및 다른 주변 장치들을 포함 할 수 있다. 본원에서 사용되는 바와 같이, 프로세서, 마이크로프로세서 및 디지털 프로세서라는 용어들은 임의의 타입의 디지털 프로세싱 디바이스들, 이를테면, 디지털 신호 프로세서("DSP")들, 축소 명령 세트 컴퓨터( "RISC")들, 범용("CISC") 프로세서들, 마이크로프로세서들, 게이트 어레이들(예를 들어, 필드 프로그래머블 게이트 어레이("FPGA"))들, 프로그래머블 로직 디바이스("PLD")들, 재구성 가능 컴퓨터 패브릭("RCF")들, 어레이 프로세서들, 보안 마이크로프로세서들 및 애플리케이션-특정 집적 회로("ASIC")들을 포함할 수 있다(이에 제한되지 않음). 이러한 디지털 프로세서들은 단일 유니터리 집적 회로 다이 상에 포함될 수 있거나, 또는 다수의 컴포넌트들에 걸쳐 분산될 수 있다.
제어기(304)는 메모리(302)에 동작 가능하게 그리고/또는 통신 가능하게 커플링될 수 있다. 메모리(302)는, 판독-전용 메모리("ROM"), 랜덤 액세스 메모리("RAM"), 비-휘발성 랜덤 액세스 메모리("NVRAM"), 프로그래머블 판독-전용 메모리("PROM"), 전기적 소거 가능 프로그래머블 판독-전용 메모리("EEPROM"), 동적 랜덤-액세스 메모리("DRAM"), 모바일 DRAM, 동기식 DRAM("SDRAM"), 더블 데이터 레이트 SDRAM("DDR/2 SDRAM"), 확장 데이터 출력 RAM("EDO"), 고속 페이지 모드 RAM("FPM"), 감소된 레이턴시 DRAM("RLDRAM"), 정적 RAM("SRAM"), 플래시 메모리(예를 들어, NAND/NOR), 멤리스터 메모리, 의사정적 RAM("PSRAM") 등을 포함하는(이에 제한되지 않음), 디지털 데이터를 저장하도록 구성된 임의의 타입의 집적 회로 또는 다른 저장 디바이스를 포함할 수 있다. 메모리(302)는 명령들 및 데이터를 제어기(304)에 제공할 수 있다. 예를 들어, 메모리(302)는 복수의 명령들이 저장된 비-일시적 컴퓨터-판독가능 저장 매체일 수 있으며, 명령들은 로봇(100)을 동작시키도록 프로세싱 장치(예를 들어, 제어기(304))에 의해 실행 가능하다. 일부 경우들에서, 명령들은, 프로세싱 장치에 의해 실행되는 경우, 프로세싱 장치로 하여금 본 개시내용에서 설명되는 다양한 방법들, 특징들, 및/또는 기능을 수행하게 하도록 구성될 수 있다. 따라서, 제어기(304)는 메모리(302) 내에 저장된 프로그램 명령들에 기초하여 논리 및 산술 연산들을 수행 할 수 있다.
본 개시내용 전반에 걸쳐, 다양한 제어기들 및/또는 프로세서들이 참조될 수 있다. 일부 구현예들에서, 단일 제어기(예를 들어, 제어기 (304))는 설명되는 다양한 제어기들 및/또는 프로세서들로서 역할할 수 있다. 다른 구현예들에서, 센서 유닛들(104A-104N) 중 하나 이상에 대해 특히 사용되는 제어기들 및/또는 프로세서들과 같은 상이한 제어기들 및/또는 프로세서들이 사용될 수 있다. 제어기(304)는 이산 및 아날로그 신호들을 포함하는 신호들, 이를테면, 전력 신호들, 제어 신호들, 센서 신호들, 질의 신호들, 상태 신호들, 데이터 신호들, 전기 신호들 및/또는 임의의 다른 바람직한 신호들을 센서 유닛들(104A-104N)로 전송할 수 있고, 그리고/또는 센서 유닛들(104A-104N)로부터 수신할 수 있다. 제어기(304)는 센서 유닛들(104A-104N) 및 다른 컴포넌트들/서브컴포넌트들을 조정 및/또는 관리할 수 있고, 그리고/또는 (예를 들어, 동기식으로 또는 비동기식으로) 타이밍들을 세팅할 수 있고, 턴 온/오프시킬 수 있고, 전력 버짓들을 제어할 수 있고, 네트워크 명령들 및/또는 업데이트들을 수신/전송할 수 있고, 펌웨어를 업데이트할 수 있고, 질의 신호들을 전송할 수 있고, 상태들을 수신 및/또는 전송할 수 있고, 그리고/또는 로봇(100)의 특징들을 실행하기 위한 임의의 동작들을 수행할 수 있다.
일부 구현예들에서, 센서 유닛들(104A-104N) 중 하나 이상은 로봇(100) 내의 그리고/또는 로봇(100) 주위의 특성들을 검출할 수 있는 시스템들을 포함 할 수 있다. 센서 유닛들(104A-104N) 중 하나 이상은 로봇(100) 내부 또는 외부에 있는 센서들을 포함할 수 있고, 그리고/또는 부분적으로 내부 및/또는 부분적으로 외부에 있는 컴포넌트들을 가질 수 있다. 센서 유닛들(104A-104N) 중 하나 이상은 센서들, 이를테면, 소나, 광 검출 및 레인징("LIDAR")(예를 들어, 2D 또는 3D LIDAR), 레이더, 레이저들, 비디오 카메라들, 적외선 카메라들, 3D 센서들, 3D 카메라들, 및/또는 본 기술분야에 알려져 있는 임의의 다른 센서를 포함할 수 있다. 일부 구현예들에서, 하나 이상의 센서 유닛들(104A-104N)은, 수동형 적외선("PIR"), 마이크로파, 초음파들, 단층 촬영 모션 검출기, 또는 비디오 카메라 소프트웨어 중 하나 이상을 사용하는 모션 검출기를 포함하는 모션 검출기를 포함 할 수 있다. 일부 구현예들에서, 센서 유닛들(104A-104N) 중 하나 이상은 미가공 측정치들(예를 들어, 전류들, 전압들, 저항들, 게이트 로직 등), 및/또는 변환된 측정치들(예를 들어, 사람들/동물들/물체들 등의 거리들, 각도들, 검출된 포인트들)을 수집할 수 있다. 일부 구현예들에서, 센서 유닛들(104A-104N) 중 하나 이상은 로봇(100)으로부터의 하나 이상의 시야(306)를 가질 수 있으며, 여기서, 시야(306)는 센서 유닛들(104A-104N)의 검출 가능 영역일 수 있다. 일부 경우들에서, 시야(306)는 시야(306) 내의 환경에 관하여 적어도 일부 정보를 감지하기 위해 센서 유닛들(104A-104N) 중 하나 이상의 센서들이 데이터를 전송 및/또는 수신할 수 있는 3차원 영역이다. 시야(306)는 또한, 센서 유닛(104A-104N)이 어떻게 위치되는지에 따라 로봇(100)으로부터 복수의 방향들로 있을 수 있다. 일부 구현예들에서, 사람(102)은 적어도 부분적으로 시야(306) 내에 있을 수 있다.
도 3b는 본 개시내용의 일부 구현예들에 따른 평면형 LIDAR를 포함하는 예시적인 센서 유닛(104)을 예시한다. 본 개시내용 전반에 걸쳐 사용되는 바와 같은 센서 유닛(104)은 센서 유닛들(104A-104N) 중 임의의 하나를 표현한다. LIDAR는 LIDAR의 시야(350) 내의 아이템들(예를 들어, 사람들, 동물들, 물체들, 바디들 등)을 이미징하기 위해 광(예를 들어, 자외선, 가시, 근적외선 광 등)을 사용할 수 있다. 시야(350) 내에서, LIDAR는 아이템들을 검출할 수 있고, 그 아이템들의 위치들을 결정할 수 있다. LIDAR는, 이를테면, 532 nm, 600 내지 1000 nm, 1064 nm, 1550 nm 또는 광의 다른 파장들을 포함하는 파장들을 갖는 광의 펄스들(예를 들어, 마이크로펄스들 또는 고 에너지 시스템들)을 전송함으로써, 광을 방출할 수 있다. LIDAR는 코히런트 또는 인코히런트 검출 체계들을 사용할 수 있다. LIDAR의 광 검출기 및/또는 수신 전자 기기들은, LIDAR로부터 방출된 반사된 광 및/또는 다른 반사 및/또는 방출된 광과 같은(이에 제한되지 않음) 광 신호들을 판독 및/또는 레코딩할 수 있다. 이러한 방식으로, 센서 유닛(104) 및 내부의 LIDAR는 데이터의 포인트 클라우드를 생성 할 수 있고, 여기서, 포인트 클라우드의 각각의 포인트는, 예를 들어, 주변에 있는 플로어들, 장애물들, 벽들, 물체들, 사람들, 동물들 등에 대한 검출의 포인트의 적어도 일부를 나타낸다.
예시로서, 이동 바디 또는 정지 바디를 표현할 수 있는 바디(352)는 적어도 부분적으로 센서 유닛(104)의 시야(350) 내에 있을 수 있다. 바디(352)는 센서 유닛(104) 근처에 위치된 표면(354)을 가질 수 있고, 그에 따라, 센서 유닛(104)은 적어도 표면(354)을 검출한다. 센서 유닛(104)의 LIDAR가 표면(354)으로부터 반사된 광을 검출함에 따라, 센서 유닛(104)은 적어도 부분적으로 바디(352)의 위치를 나타낼 수 있는 표면(354)의 위치를 검출할 수 있다. LIDAR가 평면형 LIDAR 인 경우, 포인트 클라우드는 평면 상에 있을 수 있다. 일부 경우들에서, 포인트 클라우드의 각각의 포인트는 LIDAR로부터의 연관된 대략적인 거리를 갖는다. LIDAR가 3D LIDAR와 같이 평면형이 아닌 경우, 포인트 클라우드는 3D 영역에 걸쳐 있을 수 있다.
도 4는 본 개시내용의 일부 구현예들에 따른, 로봇(100)이 이동 바디들, 이를테면 사람들, 동물들, 및/또는 물체들을 식별할 수 있는 예시적인 방법(400)의 프로세스 흐름도이다.
부분(402)은 이동 바디의 모션을 검출하는 것을 포함한다. 예시로서, 모션은 하나 이상의 센서 유닛들(104A-104N)에 의해 검출될 수 있다. 일부 구현예들에서, 하나 이상의 센서 유닛들(104A-104N)은, 도 3a를 참조하여 뿐만 아니라 본 개시내용 전반에 걸친 다른 곳에서 설명되는 모션 검출기들과 같은 모션 검출기에 적어도 부분적으로 기초하여 모션을 검출할 수 있다. 일부 구현예들에서, 센서 유닛들(104A-104N) 중 하나 이상은, 차이 신호에 적어도 부분적으로 기초하여 모션을 검출할 수 있으며, 여기서, 로봇(100)은 (예를 들어, 제어기(304)를 사용하여) 제1 시간에서 하나 이상의 센서 유닛들(104A-104N)에 의해 수집된 데이터와 제2 시간에서 동일한 하나 이상의 센서 유닛들(104A-104N)에 의해 수집된 데이터 사이의 차이에 적어도 부분적으로 기초하여(예를 들어, 감산을 사용하여) 차이 신호를 결정한다. 차이 신호는 물체들이 이동하였는지를 적어도 부분적으로 반영할 수 있는데, 이는 하나 이상의 센서 유닛들(104A-104N)이 데이터를 수집한 시간들 사이에 이동이 존재하는 경우, 그 물체들의 위치 측정치들이 변화될 것이기 때문이다.
일부 경우들에서, 로봇(100) 그 자체가 정지되어 있을 수 있거나 또는 이동할 수 있다. 예를 들어, 로봇(100)은 전방, 후방, 우측, 좌측, 상방, 하방, 또는 임의의 다른 방향 및/또는 방향들의 조합으로 이동하고 있을 수 있다. 로봇(100)이 이동함에 따라, 로봇(100)은 연관된 속도, 가속도 및/또는 이동의 임의의 다른 측정치를 가질 수 있다. 따라서, 일부 경우들에서, 제1 시간 및 제2 시간에서 취해진 센서 유닛들(104A-104N)로부터의 센서 데이터에 적어도 부분적으로 기초한 차이 신호는 적어도 부분적으로 모션을 나타낼 수 있는데, 이는 주변 물체들이 정지되어 있는 경우에도 로봇(100)은 실제로 이동하고 있기 때문이다. 로봇(100)은 물체들이 나타낼 것으로 예상되는 이동들(예컨대, 속도, 가속도 등)을 고려함으로써 그 자체의 이동을 고려할 수 있다. 예를 들어, 로봇(100)은 적어도 차이 신호들에 기초하여 이동을 검출 할 시 그 자체의 이동들을 보상할 수 있다. 따라서, 로봇(100)은 센서 유닛들(104A-104N)로부터의 센서 데이터에 적어도 부분적으로 기초한 차이 신호들의 적어도 일부가 로봇(100)의 이동에 의해 야기된 것으로 고려할 수 있다. 다수의 경우들에서, 로봇(100)은 속도계, 가속도계, 자이로스코프 등과 같은 주행 거리계를 사용하여 그 자체의 속도, 가속도 등을 결정할 수 있다.
부가적인 견고성을 위해, 일부 구현예들에서, 복수의 시간들이 사용될 수 있고, 제1 시간, 제2 시간, 제3 시간, 제4 시간, 제5 시간 및/또는 임의의 다른 시간 사이에 취해진 데이터와 같이, 이들 중 하나 이상 사이에서 차이들이 취해질 수 있다. 일부 경우들에서, 일정 시간에서 취해진 데이터는 또한, 프레임에서 취해진 데이터로서 설명될 수 있는데, 이는 디지털 센서들이 이산 프레임들에서 데이터를 수집할 수 있기 때문이다. 본원에서 사용되는 바와 같이, 시간은 시간 값, 시간 간격, 시간 기간, 시간 인스턴스 등을 포함 할 수 있다. 시간은 표준 단위들(예를 들어, 일중 시간) 및/또는 상대 시간들(예를 들어, 시간들 사이의 초, 분, 시간 등)로 측정될 수 있다.
예시적인 예로서, 센서 유닛(104)은 제1 시간 및 제2 시간에서 데이터(예를 들어, 센서 데이터)를 수집할 수 있다. 이 데이터는 센서 측정치, 이미지 및/또는 센서 유닛(104)에 의해 생성되는 임의의 다른 형태의 데이터일 수 있다. 예를 들어, 데이터는 하나 이상의 LIDAR들, 레이더들, 레이저들, 비디오 카메라들, 적외선 카메라들, 3D 센서들, 3D 카메라들 및/또는 본 기술분야에 알려져 있는 임의의 다른 센서들, 이를테면 도 3a를 참조하여 뿐만 아니라 본 개시내용 전반에 걸친 다른 곳에서 설명되는 센서들에 의해 생성되는 데이터를 포함할 수 있다. 제1 시간에서 수집된 데이터는 적어도 부분적으로 사람, 동물 및/또는 물체를 나타내는 데이터의 적어도 일부를 포함할 수 있다. 일부 구현예들에서, 사람, 동물 및/또는 물체를 적어도 부분적으로 나타내는 데이터는 또한, 공간 내의 제1 위치와 적어도 부분적으로 연관될 수 있다. 위치는, 표준 단위들, 이를테면 인치, 피트, 미터 또는 임의의 다른 측정 단위(예를 들어, 메트릭 US 또는 다른 측정 시스템의 측정치들)를 사용하는 절대적 거리 측정치들과 같은 거리 측정치들, 또는 상대적 및/또는 비-절대적 단위들, 이를테면 틱, 픽셀, 센서 범위의 퍼센티지 등을 갖는 거리 측정치들을 포함할 수 있다. 일부 구현예들에서, 위치는 (x, y) 및/또는 (x, y, z)와 같은 좌표들로서 표현될 수 있다. 이러한 좌표들은 미리 결정된 고정 위치(예를 들어, 시작 위치 및/또는 원점으로서 식별된 임의의 위치)에 대한 전역적 좌표들일 수 있다. 일부 구현예들에서, 이러한 좌표들은 이동 위치에 대한 것일 수 있고, 이를테면 로봇(100)에 대한 것일 수 있다.
일부 경우들에서, 제2 시간에서 수집된 데이터는 사람, 동물 및/또는 물체를 적어도 부분적으로 나타내는 데이터의 부분을 포함하지 않을 수 있다. 사람, 동물 및/또는 물체를 적어도 부분적으로 나타내는 데이터가 제1 시간에는 존재하였지만 제2 시간에는 존재하지 않기 때문에, 일부 경우들에서, 제어기(304)는 모션을 검출할 수 있다. 반대도 또한 모션을 나타낼 수 있으며, 여기서, 제2 시간에서 수집된 데이터는 사람, 동물 및/또는 물체를 적어도 부분적으로 나타내는 데이터의 부분을 포함하고, 제1 시간에서 수집된 데이터는 사람, 동물 및/또는 물체를 적어도 부분적으로 나타내는 데이터의 부분을 포함하지 않는다. 이전에 언급된 바와 같이, 로봇(100)은 또한, 그 자체의 이동을 고려할 수 있으며, 여기서, 로봇(100)은 로봇(100)의 모션으로 인해 물체들이 센서(104)의 시야 밖으로 이동하게 될 것을 예상할 수 있다. 따라서, 로봇(100)은 로봇(100)의 이동으로 인해 사야 내로/밖으로 이동한 경우, 물체가 시야 내로/밖으로 이동한 모션을 검출하지 않을 수 있다.
일부 경우들에서, 제2 시간에서 수집된 데이터는 공간 내의 제2 위치와 적어도 부분적으로 연관된 사람, 동물 및/또는 물체를 적어도 부분적으로 나타내는 데이터의 부분을 포함하며, 여기서, 제2 위치는 제1 위치와 실질적으로 유사하지 않다. 따라서, 로봇(100)(예를 들어, 제어기(304))은 제1 위치와 제2 위치 사이의 변화에 적어도 부분적으로 기초하여 모션을 검출할 수 있으며, 여기서, 그 변화는 로봇(100)에 의한 이동으로 인한 것만이 아니다.
일부 구현예들에서, 위치 임계치가 사용될 수 있다. 유리하게, 위치 임계치는 긍정 오류들을 감소시킬 수 있는데, 이는 물체들의 검출된 위치들의 차이들이 노이즈, 로봇(100)에 의한 이동, 측정 아티팩트들 등을 받을 수 있기 때문이다. 예시로서, 위치 임계치는 센서 노이즈, 긍정 오류들의 경험적 결정들, 로봇(100)의 속도/가속도, 환경의 알려진 특징들 등에 적어도 부분적으로 기초하여, 사용자에 의해 세팅될 수 있고, 미리 프로그래밍될 수 있고, 그리고/또는 다른 방식으로 결정될 수 있다. 위치 임계치는 로봇(100)이 모션을 검출하지 않게 되도록 하는 바디의 제1 위치와 제2 위치 사이의 위치 차이량을 적어도 부분적으로 나타낼 수 있다. 일부 구현예들에서, 위치 임계치는 퍼센티지(예를 들어, 위치들 사이의 퍼센티지 차이) 또는 절대적 및/또는 상대적 거리 측정치들과 같은 값일 수 있다. 시간들 사이의(예를 들어, 제1 위치와 제2 위치 사이의) 바디, 이를테면 사람, 동물 및/또는 물체의 위치 변화의 측정치가 위치 임계치 이상인 경우, 로봇(100)은 모션을 검출할 수 있다.
유사하게, 제1 시간, 제2 시간, 제3 시간, 제4 시간, 제5 시간 및/또는 임의의 다른 시간과 같은 복수의 전술된 시간들 각각 사이에서 수집된 데이터를 비교하는 것과 같이, 상이한 시간들에서 수집된 데이터가 또한 비교될 수 있다. 그러한 시간들에서, 로봇(100)은 제1 위치, 제2 위치, 제3 위치, 제4 위치, 제5 위치 및/또는 제1 위치 및 제2 위치를 참조하여 본원에서 설명된 방식과 실질적으로 유사한 방식의 임의의 다른 위치를 감지할 수 있다. 유리하게, 복수의 시간들에서의 데이터를 비교하는 것은 이동 바디의 모션을 검출하기 위해 비교하기 위한 데이터의 부가적인 세트들을 제공함으로써, 견고성을 증가시킬 수 있다. 예를 들어, 위치들의 특정 이동들은 시간들 사이에서 작을 수 있고, 위치 임계치 미만에 속할 수 있다. 예시로서, 제2 위치와 제1 위치 사이의 차이는 위치 임계치 내에 있을 수 있고, 그에 의해, 로봇이 모션을 검출하지 않는 허용오차 내에 있을 수 있다. 그러나, 복수의 시간들을 사용하는 것은 로봇(100)이 다수의 시간 인스턴스들에 걸쳐 비교할 수 있게 하여, 모션을 검출하는 능력을 추가로 향상시킬 수 있다. 예시로서, 제1 시간, 제2 시간, 제3 시간, 제4 시간, 제5 시간 등은 주기적일 수 있거나(예를 들어, 실질적으로 균등하게 이격될 수 있거나), 또는 이들 중 하나 이상 사이의 시간 차이들이 변화 가능하게 취해질 수 있다. 일부 구현예들에서, 특정 시간들은 서로 중 하나 이상으로부터 1초-이하의 시간 차이들을 가질 수 있다. 일부 구현예들에서, 시간들은 서로 중 하나 이상으로부터 1초 초과의 차이를 가질 수 있다. 예시로서, 제1 시간은 200 ms일 수 있고, 제2 시간은 0.5초일 수 있고, 제3 시간은 1초일 수 있다. 그러나, 다른 시간들이 또한 사용될 수 있으며, 여기서, 시간들은 적어도 센서 유닛들(104A-104N) 중 하나 이상의 분해능, (예를 들어, 환경 또는 센서 유닛들(104A-104N) 중 하나 이상의) 노이즈, 긍정 오류들에 대한 허용 오차 및/또는 머신 학습에 기초하여 결정될 수 있다.
예를 들어, 벽들은 긍정 오류들에 더 취약할 수 있는데, 이는 벽들이 노이즈에 대한 더 많은 영역을 제공할 수 있는 대형 물체들이기 때문이다. 일부 경우들에서, 오류 검출들은 정지 벽들이 이동하고 있는 것처럼 보이게 할 수 있는 로봇(100)의 이동으로 인한 것일 수 있다. 또한, 정지 물체들 주위에, 센서 노이즈에 의해 생성되는 모션 아티팩트들이 있을 수 있다. 다른 예들은 시야(306) 내의 정지 물체들을 포함한다.
일부 구현예들에서, 로봇(100)은 로봇(100)이 동작하고 있는(예를 들어, 일부 구현예들에서는 내비게이팅하는) 환경의 맵을 가질 수 있다. 예를 들어, 로봇(100)은 사용자 업로드, 서버로부터의 다운로드, 및/또는 센서 유닛들(104A-104N) 중 하나 이상 및/또는 다른 센서들로부터의 데이터에 적어도 부분적으로 기초하여 맵을 생성하는 것을 통해 맵을 획득할 수 있다. 맵은 벽들, 박스들, 선반들 및/또는 환경의 다른 특징들을 포함하는, 환경 내의 물체들의 위치의 표시들을 포함할 수 있다. 따라서, 로봇(100)이 환경에서 동작할 때, 로봇(100)은 환경 내의 물체들의 위치를 결정하고, 그에 따라, 맵 내의 환경 내의 이들 물체들 중 적어도 일부의 모션의 검출들을 노이즈로서 무시하기 위해 맵을 활용할 수 있다. 일부 경우들에서, 로봇(100)은 또한, 맵들 내의 정지 물체들에 상당히 근접한(예를 들어, 미리 결정된 거리 임계치 내에 있는), 로봇(100)이 검출한 바디들이 또한 이동 바디들이 아닌 것으로 결정할 수 있다. 유리하게, 정지 물체들 주위에서 노이즈가 더 클 수 있다. 이들 정지 물체들에 상당히 근접한 모션을 무시함으로써, 로봇(100)은 긍정 오류들을 감소시킬 수 있다. 예를 들어, 미리 결정된 거리 임계치는 0.5, 1, 2, 3 또는 그 이상의 피트일 수 있다. 이동 바디들로부터 미리 결정된 거리 임계치 내에서 모션이 검출되는 경우, 모션은 무시될 수 있다. 이러한 미리 결정된 거리 임계치는, 긍정 오류들 및/또는 부정 오류들에 대한 경험적 데이터, 로봇(100)이 이동하는 속도/가속도, 맵의 품질, 센서 분해능, 센서 노이즈 등에 적어도 부분적으로 기초하여 결정될 수 있다.
일부 구현예들에서, 로봇(100)이 이동하고 있는 경우, 차이 신호의 결정은 또한 로봇의 이동을 고려할 수 있다. 예를 들어, 로봇(100)은 적어도 이동 바디와 연관된 데이터의 부분과 연관된 차이 신호를 동일한 시간들로부터의 데이터의 다른 부분들과 연관된 차이 신호들과 비교할 수 있다(예를 들어, 데이터 세트의 서브세트를 동일한 시간들에서의 데이터 세트의 다른 서브세트들과 비교할 수 있음). 이동 바디가 동일한 시간 기간에서 로봇(100)에 의해 취해진 데이터의 나머지에 비하여 편중된 이동을 가질 수 있기 때문에, 로봇(100)은 이동 바디의 모션을 검출할 수 있다. 일부 구현예들에서, 로봇(100)은, 적어도 이동 바디와 연관된 데이터의 부분과 연관된 차이 신호와 동일한 시간들로부터의 다른 데이터와 연관된 차이 신호들 사이의 차이가 미리 결정된 임계치, 이를테면 미리 결정된 차이 임계치 이상인 경우, 모션을 검출할 수 있다. 따라서, 로봇(100)은 로봇(100)이 모션을 검출하지 않는 차이들에 대해 적어도 일부 허용 오차를 가질 수 있다. 예를 들어, 차이들은 모션 아티팩트들, 노이즈, 분해능 등으로 인해 생성될 수 있는 노이즈로 인한 것일 수 있다. 미리 결정된 차이 임계치는, 센서 유닛들(104A-104N) 중 하나 이상의 분해능, (예를 들어, 환경 또는 센서 유닛들(104A-104N) 중 하나 이상의) 노이즈, 긍정 오류들에 대한 허용 오차 및/또는 머신 학습에 적어도 기초하여 결정될 수 있다.
일부 구현예들에서, 로봇(100)은 로봇(100)의 모션을 계획할 수 있고, 하나의 시간과 다른 시간 사이에서 정지 바디들이 어떻게 나타날지를 예측할 수 있다. 예를 들어, 로봇(100)은 로봇(100)이 그 정지 바디에 대해 더 근접하게, 더 멀리, 또는 일정 각도를 이루어 이동함에 따른 정지 바디의 사이즈의 변화, 및/또는 로봇(100)이 이들에 대하여 이동함에 따른 정지 바디들의 위치를 예측할 수 있다(예를 들어, 적어도 삼각법에 기초하여 계산할 수 있음). 일부 구현예들에서, 로봇(100)은, 바디의 예상된 사이즈와 바디의 감지된 사이즈 사이의 차이가 미리 결정된 임계치, 이를테면 미리 결정된 사이즈 차이 임계치 이상인 경우, 모션을 검출할 수 있다. 따라서, 로봇(100)은 로봇(100)이 모션을 검출하지 않는 차이들에 대한 일부 허용 오차를 가질 수 있다. 예를 들어, 실제 사이즈와 예측된 사이즈 사이의 차이들은 모션 아티팩트들, 노이즈, 분해능 등으로 인해 생성되는 결과적인 노이즈일 수 있다. 미리 결정된 사이즈 임계치는 센서 유닛들(104A-104N) 중 하나 이상의 분해능, (예를 들어, 환경 또는 센서 유닛들(104A-104N) 중 하나 이상의) 노이즈, 긍정 오류들에 대한 허용 오차 및/또는 머신 학습에 적어도 기초하여 결정될 수 있다.
일부 구현예들에서, 로봇(100)은 머신 학습을 추가로 활용할 수 있으며, 여기서, 로봇(100)은 모션 인스턴스들을 관찰함으로써 모션 인스턴스들을 검출하는 것을 학습할 수 있다. 예를 들어, 사용자는 로봇(100)에 의한 모션의 식별에 기초하여 로봇(100)에게 피드백을 제공할 수 있다. 이러한 방식으로, 적어도 피드백에 기초하여, 로봇(100)은 이동 바디들의 모션의 특성들을 모션의 식별과 연관시키는 것을 학습할 수 있다. 유리하게, 머신 학습은 로봇(100)이 동작하는 동안 학습할 수 있는 이동 바디들의 더 많은 모션 인스턴스들에 적응할 수 있게 한다.
부분(404)은 검출된 모션이 사람, 동물 및/또는 물체와 연관되는지를 식별하는 것을 포함할 수 있다. 예를 들어, 로봇(100)은 센서 유닛들(104A-104N) 중 하나 이상으로부터의 데이터를 프로세싱하여, 사이즈, 형상 및/또는 다른 특유의 특징들 중 하나 이상을 결정할 수 있다. 사람 및/또는 동물을 검출하는 경우, 그러한 특유의 특징들은 발들, 팔들, 기둥-형 형상들 등을 포함할 수 있다.
기둥-형 형상들의 검출의 예시로서, 도 5a는 본 개시내용의 일부 구현예들에 따른, 이동 바디(500)를 검출하는 센서 유닛들(104A-104B)의 입면 측면도를 예시하는 기능 블록도이다. 기둥-형 형상들은 수직으로 세장형이고 적어도 부분적으로 연속적인(예를 들어, 연결된) 형상들을 포함한다. 일부 경우들에서, 기둥-형 형상은 완전히 연속적일 수 있다. 일부 경우들에서, 기둥-형 형상은 실질적으로 튜브형 및/또는 타원형일 수 있다. 센서 유닛(104A)은 각도(520)로 각을 이루는 평면형 LIDAR를 포함할 수 있으며, 그 각도(520)는 수평 평면에 대한 각도 또는 임의의 다른 기준 각도에 대한 각도일 수 있다. 각도(520)는 제조된 센서 유닛(104A)의 각도일 수 있거나, 또는 각도(520)는 사용자에 의해 조정될 수 있다. 일부 경우들에서, 각도(520)는, LIDAR의 원하는 수평 범위(예를 들어, 로봇(100)이 측정하는데 있어서 전방으로 얼마나 먼 것이 바람직한지), 정지 또는 이동 바디들의 예상 높이, 로봇(100)의 속도, 로봇(100) 상의 물리적 마운트들 및 로봇(100)의 다른 특징들의 설계들, LIDAR, 및 원하는 측정 성능들에 적어도 부분적으로 기초하여 결정될 수 있다. 예시로서, 각도(520)는 대략 20도, 25 도, 30 도, 35 도, 40 도, 45 도, 50 도 또는 다른 각도일 수 있다. 따라서, 센서 유닛(104A)의 평면형 LIDAR는 평면(502A)을 따라 감지할 수 있다(도 5a의 예시된 도면으로부터 라인으로서 예시되지만, 실제로는 도 3b에 예시된 바와 같은 평면임). 유사하게, 센서 유닛(104B)은 대략 수평으로 위치된 평면형 LIDAR를 포함할 수 있으며, 여기서, 센서 유닛(104B)은 평면(502B)을 따라 감지할 수 있다(도 5a의 예시된 도면으로부터 라인으로서 예시되지만, 실제로는 도 3b에 예시된 바와 같은 평면임). 예시된 바와 같이, 평면(502A)과 평면(502B) 둘 모두는 이동 바디(500)와 교차한다(예를 들어, 감지함). 예를 들어, 평면(502A)은 교차점(524A)에서 이동 바디(500)와 교차할 수 있다. 평면(502B)은 교차점(524B)에서 이동 바디(500)와 교차할 수 있다. 도 5a의 입면 측면도로부터 교차점들(524A-524B)이 포인트들로서 보이지만, 교차점들(524A-524B)은 실제로, 도 3b에 예시된 바와 같이 실질적으로 표면에 걸친 평면이다. 더욱이, LIDAR가 예시적인 목적들을 위해 설명되지만, 도 3a을 참조하여 뿐만 아니라 본 개시내용 전반에 걸친 다른 곳에서 설명되는 임의의 센서를 포함하는 임의의 바람직한 다른 센서가 사용될 수 있다는 것을 당업자는 인식할 것이다.
발생될 수 있는 하나의 난제는, 교차점(524A) 및 교차점(524B)에서 입수된 데이터가 적어도 부분적으로 연속적인 바디(예를 들어, 복수의 바디들이 아닌 단일 바디)에 속하는지를 결정하는 것이다. 일부 구현예들에서, 로봇(100)은 교차점(524A) 및 교차점(524B)의 위치를 결정할 수 있다. 교차점(524A) 및 교차점(524B)이 대략 평면에 놓인 경우(예를 들어, 실질적으로 유사한 x-, y- 및/또는 z- 좌표들을 갖는 경우), 로봇(100)은 포인트들이 적어도 교차점(524A) 및 교차점(524B) 사이에 걸쳐 있는 적어도 부분적으로 연속적인 바디의 부분일 수 있는 것으로 검출할 수 있다. 예를 들어, 교차점(524A) 및 교차점(524B)은 실질적으로 동일한 수직 평면 내에 적어도 2개의 포인트들을 포함할 수 있다.
일부 구현예들에서, 로봇(100)(예를 들어, 제어기(304))은 이동 바디(500)가 수직 형상, 이를테면 기둥-형 바디를 갖는 것으로 결정하기 위해, 센서 유닛(104A) 및 센서 유닛(104B)의 데이터를 프로세싱, 비교 및/또는 병합할 수 있다. 예를 들어, 일부 구현예들에서, 센서 유닛(104A) 및 센서 유닛(104B)은 각각, 교차점(524A) 및 교차점(524B)까지의 거리들을 각각 결정할 수 있다. 수평 방향의 거리(예를 들어, 로봇(100)으로부터의 거리)가 교차점(524A) 및 교차점(524B) 내의 적어도 일부 포인트들 사이에서 실질적으로 유사한 경우, 로봇(100)은 교차점(524A) 및 교차점(524B)이 교차점(524A)과 교차점(524B) 사이에서 적어도 부분적으로 연속적인 기둥-형 바디의 일부인 것으로 결정할 수 있다. 일부 구현예들에서, 수평 거리들이 얼마나 많이 상이한지를 결정하기 위한 허용 오차 및/또는 미리 결정된 임계치, 이를테면 거리 임계치는, 로봇(100) 전에, 이들이 실질적으로 유사한지를 더 이상 결정하지 않을 수 있다. 차이 임계치는, 센서 유닛들(104A-104B)의 분해능들, 노이즈, 바디들의 변동들(예를 들어, 사람들은 팔들, 다리들 및 정확히 평탄하지 않을 수 있는 다른 신체 부분들을 가짐), 긍정 오류들 및/또는 부정 오류들에 대한 경험적 데이터 등에 적어도 기초하여 결정될 수 있다.
일부 구현예들에서, 로봇(100)은 전술된 것에 대한 대안으로 또는 전술된 것에 부가하여, 복수의 방식들로 이동 바디(500)를 기둥-형 바디로서 검출할 수 있다. 예를 들어, 로봇(100)은, 로봇(100)이 센서 유닛(104A) 및 센서 유닛(104B) 둘 모두로 물체를 검출하는 경우, 물체가 교차점(524A)와 교차점(524B) 사이에서 적어도 부분적으로 연속적인 기둥-형 바디인 것으로 가정할 수 있다. 일부 경우들에서, 예를 들어, 벽들, 플로어들 및/또는 다른 정지 물체들을 검출할 시에 긍정 오류들이 있을 수 있다. 로봇(100)은, 로봇(100)이 센서 유닛들(104A-104N) 중 하나 이상을 사용하여 벽들, 플로어들 및 다른 정지 물체들과 조우하는 경우, 기둥-형 바디를 검출하지 않음으로써, 그러한 벽들, 플로어들 및 다른 정지 물체들의 검출을 무시할 수 있고, 그리고/또는 로봇(100)은 환경의 맵에 적어도 부분적으로 기초하여 이들 벽들, 플로어들 및 다른 정지 물체들의 검출을 인식할 수 있다.
다른 예로서, 로봇(100)은 교차점(524A) 및 교차점(524B)으로부터 입수된 데이터가 적어도 부분적으로 연속적인 이동 바디(500)에 대응하는지를 결정하기 위해, 시간에 걸쳐 취해진 데이터를 활용할 수 있다. 예를 들어, 상이한 시간 인스턴스들 동안, 로봇(100)은 이동하고 있을 수 있고 그리고/또는 이동 바디(500)는 이동하고 있을 수 있다. 따라서, 감지 평면들(502A-502B)과 이동 바디(500) 사이의 교차는 센서 유닛들(104A-104B)이 상이한 시간들에서 이동 바디(500)를 따라 상이한 포인트들로부터 데이터를 수집하게 할 수 있고, 그에 따라, 로봇(100)이 데이터를 병합하고, 이동 바디가 적어도 부분적으로 연속적인 것으로 결정할 수 있게 한다.
예시로서, 도 5b 및 5c는 본 개시내용의 일부 원리들에 따른, 사람(102)을 검출하는 도 5a에 예시된 센서 유닛들의 기능 블록도들이다. 사람(102)은 도 5a로부터 이동 바디(500)의 특정 인스턴스일 수 있다. 도 5b에서, 센서 유닛들(104A-104B)은 제1 시간에서 사람(102)을 검출한다. 이러한 제1 시간에서, 센서 유닛(104A)은 교차점(504A)으로부터 데이터를 수집하고, 센서 유닛(104B)은 교차점(504B)으로부터 데이터를 수집한다. 도 5c에서, 센서 유닛들(104A-104B)은 제2 시간에서 사람(102)을 검출한다. 센서 유닛(104A)은 교차점(514A)으로부터 데이터를 수집하고, 센서 유닛(104B)은 교차점(514B)으로부터 데이터를 수집한다. 예시된 바와 같이, 교차점(504A) 및 교차점(514A)은 사람(102) 상의 상이한 위치들에 있을 수 있고, 교차점(504B) 및 교차점(514B)은 사람(102) 상의 상이한 위치들에 있을 수 있다. 따라서, 로봇(100)은 상이한 시간들에서 사람(102)에 관한 부가적인 데이터를 입수할 수 있는데, 이는 센서 유닛들(104A-104B)이 사람(102) 상의 상이한 포인트들을 측정할 수 있기 때문이다. 로봇(100)은 복수의 시간들에서 부가적인 측정들을 추가로 행하여, 한층 더 많은 포인트들에서 데이터를 수집할 수 있다. 따라서, 로봇(100)은 복수의 시간들에서 센서 유닛들(104A-104B)에 의해 행해진 측정들로부터 이동 바디(500), 이를테면 사람(102)의 특성을 결정하기 위해 데이터를 병합할 수 있다.
일부 구현예들에서, 로봇(100)은 이동 바디(500)의 특성들을 결정할 수 있다. 예를 들어, 이동 바디(500)가 사람(102)인 경우, 사람(102)은 사람을 다른 이동 바디들과 구별할 수 있는 특징들을 갖는다. 예를 들어, 사람(102)은 팔(530)과 같은 팔들을 가질 수 있다. 사람(102)은 다리(532)와 같은 다리들을 가질 수 있으며, 여기서, 다리들은 또한 발들을 가질 수 있다. 따라서, 로봇(100)은 이동 바디(500)가 사람(102)(또는 동물, 또는 인간 또는 동물과 실질적으로 유사한 바디 형태를 갖는 로봇)인 것으로 결정하기 위해 사람(102)의 이들 특징들을 검출할 수 있다. 또는 그러한 특징들이 없는 경우, 이동 바디(500)는 사람(102)이 아닌 것으로(또는 동물, 또는 인간 또는 동물과 실질적으로 유사한 바디 형태를 갖는 로봇이 아닌 것으로) 결정된다.
예를 들어, 로봇(100)은 센서 유닛들(104A-104B)에 의해 수집된 데이터의 적어도 부분들로부터 사람(102)의 특징들을 검출할 수 있다. 일부 구현예들에서, 센서 유닛들(104A-104B)에 의해 수집된 데이터의 부분들은 팔들, 다리들, 발들 등과 같은 특징들을 적어도 부분적으로 나타낼 수 있다. 일부 구현예들에서, 로봇(100)은 측정들의 시간(예를 들어, 프레임)에서 이들 특징들의 특성들을 검출할 수 있다. 예를 들어, 도 5b에서, 센서(104A)는 팔(530)(예를 들어, 둥글고 그리고/또는 난원형, 손을 가짐, 사람(102)으로부터 연장됨 및/또는 임의의 다른 특성) 및 다리(532)(예를 들어, 둥글고 그리고/또는 난원형, 발을 가짐, 사람(102)으로부터 하방으로 연장됨 및/또는 임의의 다른 특성)의 형상을 검출할 수 있다. 이들 형상들은 센서 데이터로부터 결정될 수 있다. 예를 들어, 센서 데이터로부터 생성된 이미지는 사람(102)의 형상들 및/또는 특성들을 나타낼 수 있다. 로봇(100)은 시각 시스템들, 이미지 프로세싱 및/또는 머신 학습을 사용하여 이들 형상들 및/또는 특성들을 식별 할 수 있다.
일부 구현예들에서, 로봇(100)은 전술된 제1 시간, 제2 시간, 제3 시간, 제4 시간, 제5 시간 등과 같은 복수의 시간들(예를 들어, 프레임들)에 걸쳐 특징들의 특성들을 검출할 수 있다. 예를 들어, 도 5b 내지 도 5c를 참조하여 이전에 설명된 바와 같이, 센서 유닛들(104A-104B)이 사람(102) 상의 상이한 포인트들을 측정할 수 있기 때문에, 로봇(100)은 상이한 시간들에서 사람(102)에 관한 부가적인 데이터를 입수할 수 있다. 로봇(100)은 복수의 시간들에서 부가적인 측정들을 추가로 행하여, 한층 더 많은 포인트들에서 데이터를 수집할 수 있다. 따라서, 로봇(100)은 복수의 시간들에서 센서 유닛들(104A-104B)에 의해 행해진 측정들로부터 이동 바디(500)(예를 들어, 사람(102))의 특성들을 결정하기 위해 데이터를 병합할 수 있다. 복수의 측정들로부터, 로봇(100)은 사람(102)의 특징들(예를 들어, 팔들, 다리들, 손들, 발들 등)의 형상들과 같은 특성들을 결정할 수 있고, 사람(102)이 사람(또는 동물, 또는 인간 또는 동물과 실질적으로 유사한 바디 형태를 갖는 로봇)인 것으로 결정할 수 있다.
다른 예로서, 사지들의 모션은 이동 바디(500)가 사람(102)인 것을 적어도 부분적으로 나타낼 수 있다. 일부 경우들에서, 사람(102)은 이동하는 동안 그/그녀의 팔(들), 다리들 및/또는 다른 바디 부분들을 스윙할 수 있다. 도 5a, 도 5b 및 도 5c를 참조하여 뿐만 아니라 본 개시내용 전반에 걸쳐 설명되는 것들과 같은 모션을 검출하는 시스템들 및 방법들은 사람(102)의 부분들, 이를테면 팔들, 다리들 및/또는 다른 바디 부분들과 연관된 모션을 검출하기 위해 사용될 수 있다.
예시로서, 도 6은 본 개시내용의 일부 구현예들에 따른, 다리들(600A-600B)의 스윙 모션을 검출하는 센서 유닛(104)의 각진 상면도이다. 다리들(600A-600B)은 사람(102) (및/또는 다른 동물들, 로봇들 등)의 다리들일 수 있다. 일부 경우들에서, 다리들(600A-600B) 중 하나 이상은 자연 다리들일 수 있다. 일부 경우들에서, 다리들(600A-600B) 중 하나 이상은 의족 및/또는 사람(102)의 모션을 용이하게 하기 위한 다른 컴포넌트들을 포함할 수 있다. 따라서, 사람(102)이 걷고, 달리고, 그리고/또는 하나의 위치에서 다른 위치로 이동하는 경우, 사람(102)은 다리들(600A-600B)을 움직일 수 있다. 일부 경우들에서, 사람(102)은 보행 패턴을 가질 수 있다. 예를 들어, 사람(102)이 전방으로 걷기 때문에, 다리들(600A-600B) 중 하나는 다리들(600A-600B) 중 다른 하나가 스윙 모션에 있을 수 있는 동안 플랜팅될 수 있다. 예시로서, 보행 사이클은 뒤꿈치 스트라이크, 평탄한 발, 중간-스탠스 및 푸시-오프를 포함하는 스탠스 페이즈, 및 가속, 중간-스윙 및 감속을 포함하는 스윙 페이즈를 수반할 수 있다.
도 3b를 참조하여 그리고 본 개시내용의 다른 곳에서 이전에 설명된 바와 같이, 센서 유닛(104)은 시야(350)를 가질 수 있다. 예를 들어, 도 5a 내지 도 5c를 참조하여 뿐만 아니라 본 개시내용 전반에 걸친 다른 곳에서 전술된 모션을 검출하기 위한 방법들 중 임의의 방법을 사용하여, 센서 유닛(104)은 다리들(600A-600B) 중 스윙 다리의 모션을 검출할 수 있다. 또한, 도 5a 내지 도 5c를 참조하여 뿐만 아니라 본 개시내용 전반에 걸친 다른 곳에서 설명된 바와 같이, 센서 유닛(104)은 또한, 모션을 검출하기 위해 사용될 수 있는 LIDAR를 포함할 수 있다. 유사한 스윙 모션들은 사람(102)의 팔들 및/또는 다른 부분들에서 검출될 수 있다. 일부 구현예들에서, 센서 유닛(104)은 또한, 다리들(600A-600B) 중 정지 다리를 검출할 수 있다. 따라서, 로봇(100)은 다리들(600A-600B) 중 스윙 다리 및/또는 다리들(600A-600B) 중 정지 다리에 적어도 부분적으로 기초하여 사람(102)의 존재를 결정할 수 있다. 유리하게, 사람(102)의 스윙 다리와 정지 다리의 조합은 센서 유닛(104)이 검출 할 수 있는 특유의 패턴을 제공할 수 있다.
예를 들어, 센서 유닛(104)으로부터의 데이터에 기초하여, 제어기(304)는 기둥-형 이동 바디(500)의 적어도 일부, 이를테면 다리들(600A-600B) 중 스윙 다리의 스윙 모션에 적어도 부분적으로 기초하여 이동 바디(500)를 사람(102)으로서 식별할 수 있다.
다른 예로서, 제어기(304)는 바로 곁에 정지 부분을 갖는 기둥-형 이동 바디(500)의 스윙 부분을 검출할 수 있다. 예시로서, 스윙 부분은 다리들(600A-600B) 중 스윙 다리일 수 있으며, 이는 모션 중의 이동 바디(500)의 실질적으로 튜브형인 부분으로서 센서 유닛(104)에 의해 검출될 수 있다. 로봇(100)은 시각 시스템, 이미지 프로세싱 및/또는 머신 학습을 사용하여 이들 형상들 및/또는 특성들을 식별 할 수 있다. 다리들(600A-600B) 중 정지 다리는 이동 바디(500)의 실질적으로 수직이고 실질적으로 튜브형인 부분으로서 센서 유닛(104)에 의해 검출될 수 있다. 모션 중의 이동 바디(500)의 실질적으로 튜브형인 부분과 이동 바디(500)의 실질적으로 수직이고 실질적으로 튜브형인 부분 둘 모두를 검출하는 것은, 적어도 부분적으로, 로봇(100)이 사람(102)을 검출하게 할 수 있다. 일부 경우들에서, 제어기(304)를 사용하여, 로봇(100)은 다리 거리 임계치를 가질 수 있으며, 여기서, 모션 중의 이동 바디(500)의 실질적으로 튜브형인 부분의 적어도 일부와 이동 바디(500)의 실질적으로 수직이고 실질적으로 튜브형인 부분 사이의 거리가 미리 결정된 다리 거리 임계치 이하인 경우, 로봇(100)은 실질적으로 튜브형인 부분들이 사람(102)에 속하는 다리들인 것으로 결정할 수 있고, 사람(102)을 검출할 수 있다. 미리 결정된 다리 거리 임계치는 사람의 사이즈, 시야(350), 센서 데이터의 분해능 및/또는 다른 인자들에 적어도 부분적으로 기초하여 결정될 수 있다. 이러한 결정은 적어도 2개의 시간들로부터의 데이터를 사용할 시(예를 들어, 2개 이상의 시간들에서 취해진 센서(104)로부터의 데이터에 적어도 부분적으로 기초하여) 발생할 수 있다.
일부 구현예들에서, 로봇(100)은 복수의 시간들, 일부 경우들에서는 2개 초과의 시간들에서 취해진 센서 유닛(104)으로부터의 데이터를 사용할 수 있다. 예를 들어, 제어기(304)는 보행의 교번 스윙 패턴에 의해 사람(102)을 식별할 수 있다. 예를 들어, 걷기, 달리기 및/또는 다른 방식으로 이동하는 동안, 사람(102)은 다리들(600A-600B) 중 스윙하는 다리와 다리들(600A-600B) 중 정지 다리를 교번할 수 있다. 실제로, 이러한 교번 모션은 사람(102)이 이동할 수 있게 한다. 따라서, 제어기(304)는 센서 유닛(104)으로부터의 데이터로부터 다리들의 교번 모션을 식별 할 수 있다. 예시로서, 도 6을 참조하여 뿐만 아니라 본 개시내용 전반에 걸친 다른 곳에서 설명되는 전술된 시스템들 및 방법들을 사용하여, 로봇(100)은 제1 시간 및/또는 시간들의 세트에서 다리(600A)가 스윙하고 있고 다리(600B)가 정지되어 있는 것을 검출할 수 있다. 제2 시간 및/또는 시간들의 세트에서, 이들 동일한 시스템들 및 방법들을 사용하여, 로봇(100)은 다리(600A)가 정지되어 있고 다리(600B)가 스윙하고 있는 것을 검출 할 수 있다. 따라서, 이러한 교번으로 인해, 로봇(100)은 이동 바디(500)가 사람(102)인 것으로 결정할 수 있다. 부가적인 견고성을 위해, 더 많은 교번들이 고려될 수 있다. 예를 들어, 교번 임계치가 사용될 수 있으며, 여기서, 로봇(100)이 다리(600A)와 다리(600B) 사이의 미리 결정된 수의 교번 스윙 상태들을 검출하는 경우, 로봇(100)은 이동 바디(500)가 사람(102)인 것으로 결정할 수 있다. 미리 결정된 수의 교번 스윙 상태들은, 로봇(100)이 이동하고 있는 속도, 시야(350)의 사이즈, 긍정 오류들에 대한 허용 오차, 센서 감도, 경험적으로 결정된 파라미터들 및/또는 다른 인자들에 적어도 부분적으로 기초하여 결정될 수 있다. 예로서, 미리 결정된 수의 교번 스윙 상태들은 2회, 3회, 4회, 5회 또는 그 이상의 교번들일 수 있다.
다른 예로서, 로봇(100)에 대한 이동 바디(500)의 검출의 위치는 또한, 사람(102)으로서 이동 바디(500)를 식별하기 위해 로봇(100)에 의해 사용될 수 있다. 예를 들어, 도 7은 본 개시내용의 일부 구현예들에 따른, 복수의 센서 유닛들(104C-104E)을 갖는 예시적인 로봇(100)의 평면도이다. 예를 들어, 센서 유닛(104C)은 로봇(100)의 좌측(700C)에 위치될 수 있고, 센서 유닛(104C)으로부터의 시야(702C)는 적어도 후방 측(700D)을 향하는 방향으로 연장된다. 유리하게, 시야(702C)는 센서 유닛(104C)이 로봇(100)의 좌측(700C)으로 접근하는 이동 바디(500)를 검출할 수 있게 하는데, 이는 그러한 이동 바디(500)가 시야(702C) 내에서 검출될 수 있기 때문이다. 유사하게, 센서 유닛(104E)은 로봇(100)의 우측(700E)에 위치될 수 있고, 센서 유닛(104E)으로부터의 시야(702E)는 적어도 후방 측(700D)을 향하는 방향으로 연장된다. 유리하게, 시야(702E)는 센서 유닛(104E)이 로봇(100)의 우측(700E)으로 접근하는 이동 바디(500)를 검출할 수 있게 하는데, 이는 그러한 이동 바디(500)가 시야(702E) 내에서 검출될 수 있기 때문이다. 센서 유닛(104D)은 로봇(100)의 후방 측(700D)에 위치될 수 있고, 센서 유닛(104D)으로부터의 시야(702D)는 후방 측(700D)으로부터 적어도 멀리 향하는 방향으로 연장된다. 유리하게, 시야(702D)는 센서 유닛(104D)이 후방 측(700D)으로부터 접근하는 이동 바디(500)를 검출할 수 있게 할 수 있다.
일부 구현예들에서, 로봇(100)은 센서 유닛들(104C-104E) 중 적어도 하나에 의해 이동 바디(500)가 검출되는 것에 적어도 부분적으로 기초하여 이동 바디(500)가 사람(102)인 것으로 결정할 수 있다. 이러한 검출 시, 일부 구현예들에서, 로봇(100)은 이동하고 있을 수 있거나 또는 정지되어 있을 수 있다. 예를 들어, 일부 구현예들에서, (센서 유닛들(104C, 104D 및 104E) 각각의) 시야들(702C, 702D 및 702E)에서의 임의의 검출은 사람(102)으로부터 유래한 것으로 로봇 (100)에 의해 결정될 수 있다. 유리하게, 시야들(702C, 702D 및 702E) 중 하나 내에서 이동 바디(500)가 로봇(100)에 매우 근접하기 때문에, 적어도 안전상의 이유들로, 로봇(100)은 이동 바디(500)가 사람(102)인 것으로 가정할 수 있다. 더욱이, 로봇(100)이 이동하고 있는 경우, 시야들(702C, 702D 및 702E) 중 하나에서의 이동 바디(500)의 검출은 사람(102)이 로봇(102)을 캐치하기 위해 이동하는 것을 적어도 부분적으로 나타낼 수 있다. 부가하여 또는 대안으로, 일부 구현예들에서, 센서들(104C, 104D 및 104E) 각각은 센서(104)를 참조하여 본 개시내용에서 설명되는 것들과 실질적으로 유사한 시스템들 및 방법들을 사용하여 모션을 검출할 수 있고 그리고/또는 사람(102)을 식별할 수 있다.
다른 예로서, 제어기(304)는 하나 이상의 시간들에서 취해진 센서 유닛(104)으로부터의 센서 데이터에 적어도 부분적으로 기초하여, 다리들(600A-600B)의 보행 모션을 식별하기 위해 머신 학습을 활용할 수 있다. 예시적인 예로서, 서버 및/또는 메모리(302) 상에 저장된 라이브러리는 사람들(또는 동물들, 또는 인간 또는 동물과 실질적으로 유사한 바디 형태를 갖는 로봇들)의 예시적인 센서 데이터, 이를테면 사람을 나타내는 LIDAR 데이터를 포함할 수 있다. 이를테면 도 3a를 참조하여 본 개시내용에서 설명된 임의의 다른 센서의 임의의 다른 데이터는 라이브러리에 있을 수 있다. 그 LIDAR 데이터는 사람의 팔들, 다리들 및/또는 다른 특징들 중 하나 이상의 모션 및/또는 존재에 적어도 부분적으로 관련된 데이터를 포함할 수 있다. 이어서, 제어기(304)가 센서 데이터 내의 패턴들을 식별하고/ 사람들과 연관시키는 것을 학습하기 위한 감독형 또는 비감동형 머신 학습 알고리즘에서 라이브러리가 사용될 수 있다. 라이브러리의 센서 데이터는 식별될 수 있다(예를 들어, 사용자에 의해(예를 들어, 핸드-레이블링됨), 또는 이를 테면 라이브러리 센서 데이터를 생성/시뮬레이팅하고 그리고/또는 그 데이터를 레이블링하도록 구성된 컴퓨터 프로그램에 의해 자동적으로 레이블링됨). 일부 구현예들에서, 라이브러리는 또한, 상이한 조명 조건들, 각도들, 사이즈들(예를 들어, 거리들), 선명도(예를 들어, 블러링됨, 방해됨/폐색됨, 부분적으로 오프 프레임됨 등), 컬러들, 온도들, 주변들 등의 사람들(또는 동물들, 또는 인간 또는 동물과 실질적으로 유사한 바디 형태를 갖는 로봇들)의 데이터를 포함할 수 있다. 그 라이브러리 데이터로부터, 제어기(304)는 먼저 사람들을 식별하기 위해 트레이닝될 수 있다. 이어서, 제어기(304)는 부분(402) 및/또는 부분(404)에서 획득된 데이터에서 사람들을 식별하기 위해 그 트레이닝을 사용할 수 있다.
예를 들어, 일부 구현예들에서, 제어기(304)는 라이브러리 데이터에서 패턴들을 식별하고 이들 패턴들을 사람들과 연관시키기 위해 라이브러리로부터 트레이닝될 수 있다. 제어기(304)가 식별하였고 사람들과 연관시켰던 패턴들을 부분(402) 및/또는 부분(404)에서 획득된 데이터가 갖는 경우, 제어기(304)는 부분(402) 및/또는 부분(404)에서 획득된 데이터가 사람에 해당하는 것으로 결정할 수 있고, 그리고/또는 획득된 데이터 내의 사람의 위치를 결정할 수 있다. 일부 구현예들에서, 제어기(304)는 부분(402) 및 부분(404)에서 획득된 데이터를 프로세싱할 수 있고, 그 데이터를 라이브러리 내의 적어도 일부 데이터와 비교할 수 있다. 일부 경우들에서, 획득된 데이터가 라이브러리 내의 데이터와 실질적으로 매칭하는 경우, 제어기(304)는 사람에 해당하는 것으로서 획득된 데이터를 식별할 수 있고, 그리고/또는 획득된 데이터 내의 사람의 위치를 식별할 수 있다.
일부 구현예들에서, 사람들은 사이즈 및/또는 형상 정보에 적어도 기초하여 센서 데이터로부터 식별될 수 있으며, 여기서, 센서 데이터에서 표현되는 바와 같은 이동 물체의 사이즈 및/또는 형상은 사람의 외관을 갖는다.
일부 경우들에서, 검출에 부가적인 견고성이 구축될 수 있다. 이러한 견고성은, 예를 들어, 오류 검출들이 발생할 수 있는 센서 유닛들(104A-104B)에서의 노이즈 및/또는 수차로 인해, 유용할 수 있다. 예시로서, 센서 유닛들(104A-104B) 중 하나 또는 둘 모두는 존재하지 않는 검출을 행할 수 있다. 다른 예시로서, 물체는 센서 유닛들(104A-104B)의 시야 밖으로 신속하게 이동할 수 있다. 적어도 오류 검출에 기초하여, 로봇(100)은 사람(102)의 존재를 부정확하게 식별할 수 있고 그에 따라 행동할 수 있다. 그러한 상황들에서, 일부 구현들에서, 로봇(100)은 오류 검출이 발생하였던 시간에서 하나 이상의 센서 유닛들(104A-104B)과 연관된 데이터를 클리어링할 수 있고, 이를테면, 도 5a 내지 도 5c를 참조하여 뿐만 아니라 본 개시내용 전반에 걸친 다른 곳에서 설명된 방식으로 일정 시간에서 수집된 데이터를 클리어링할 수 있다. 이 능력은 로봇(100)이 오류 검출을 행하는 것을 방지할 수 있게 한다. 일부 경우들에서, 센서 유닛들(104A-104B) 중 하나는 검출들을 클리어링하기 위해 사용될 수 있다.
일부 구현예들에서, 일정 시간에서 이동 바디(500)의 적어도 일부를 검출할 시, 로봇(100)은 이동 바디의 이동을 예측할 수 있다. 예를 들어, 로봇(100)은 일정 시간 또는 복수의 시간들에서 이동 바디(500)의 가속도, 위치 및/또는 속도를 결정할 수 있다. 가속도, 위치 및/또는 속도에 적어도 부분적으로 기초하여, 로봇(100)은 이동 바디(500)가 어디에 있게 될지를 예측할 수 있다. 일부 구현예들에서, 예측은 이동 바디(500)의 가속도, 위치 및/또는 속도 및 이동 사이의 미리 결정된 연관들에 기초할 수 있다. 일부 경우들에서, 연관들은 일반적인 물리적 특성들 등에 기초하여 경험적으로 결정될 수 있다. 예를 들어, 이동 바디(500)가 제1 시간에서 우측으로 이동하고 있는 경우, 로봇(100)은, 후속 시간에서, 이동 바디(500)가 제1 시간에 있었던 위치의 우측에 이동 바디(500)가 있게 될 것을 예측할 수 있다. 이동 바디(500)의 속도 및/또는 가속도 및 경과된 시간량에 기초하여, 로봇(100)은 이동 바디(500)가 얼마나 많이 이동할지를 예측할 수 있다.
일부 경우들에서, 로봇(100)은 다양한 위치들에 대한 확률을 결정할 수 있다. 유리하게, 다양한 위치들에 확률을 할당하는 것은 이동 바디(500)의 이동들의 변화들을 고려할 수 있다. 예를 들어, 이동 바디(500)가 사람(102)인 경우, 사람(102)은 방향들을 변경하는 것, 갑자기 멈추는 것 등을 행할 수 있다. 따라서, 로봇(100)은 이동 바디(500)가 위치될 수 있는 상이한 위치들과 연관된 확률들을 할당할 수 있다. 일부 경우들에서, 그러한 확률들은 경험적으로 결정된 이동들, 일반적인 물리적 특성들 등에 적어도 부분적으로 기초하여 베이지안 통계 모델들을 사용하여 결정될 수 있다. 일부 경우들에서, 확률들은 볼륨 이미지로 표현될 수 있으며, 여기서, 공간 내의(예를 들어, 2D 이미지 내 또는 3D 이미지 내의) 위치들이 확률과 연관될 수 있다. 일부 경우들에서, 높은 확률들을 갖는 위치들이 있을 수 있으며, 여기서, 확률들은 확률이 더 낮은 위치들에서 소실되는 확률 테일을 형성한다.
로봇(100)에 의해 결정된 바와 같은 높은 확률을 갖는 위치로 이동 바디(500)가 이동하는 경우, 로봇(100)은 로봇(100)이 오류 검출을 행하지 않은 것으로 결정할 수 있다(그리고/또는 로봇(100)이 오류 검출을 행한 것으로 결정하지 않을 수 있음). 낮은 확률을 갖는 위치에서 이동 바디(500)가 검출된 경우, 로봇(100)은 더 많은 데이터를 수집할 수 있고(예를 들어, 상이한 시간들에서 더 많은 측정들을 행하고 그리고/또는 이미 취해진 더 많은 데이터를 고려할 수 있고) 그리고/또는 로봇(100)이 오류 검출을 행한 것으로 결정할 수 있다.
도 4로 돌아가면, 부분(406)은 부분(404)으로부터의 식별에 적어도 부분적으로 기초하여 액션을 행하는 것을 포함할 수 있다. 예를 들어, 부분(404)에서 사람(102)을 검출하는 것에 대한 응답으로, 로봇(100)은 그에 따라 감속할 수 있고, 정지할 수 있고 그리고/또는 플랜들을 수정할 수 있다.
예시적인 예로서, 도 8a는 본 개시내용의 일부 구현예들에 따른, 물체(800A) 주위에서 내비게이팅하기 위해 로봇(100)이 사용할 수 있는 경로의 기능도의 부감도이다. 로봇(100)은 물체(800A) 내로 진행하는 것을 피하기 위해 물체(800A) 주위의 경로(802)로 이동할 수 있다. 그러나, 물체(800A)가 이동하고 있는 경우 난제들이 발생할 수 있다. 예를 들어, 물체(800A)의 이동은 로봇(100)이 로봇(100)의 변경되지 않은 경로로부터 더 멀리 내비게이팅하게 할 수 있고, 그리고/또는 로봇(100)이 물체(800A) 내로 진행하게 할 수 있다.
도 8b는 본 개시내용의 일부 구현예들에 따른, 사람(102) 주위에서 내비게이팅하기 위해 로봇(100)이 사용할 수 있는 경로의 기능도의 부감도이다. 사람(102)은 위치(806)로 이동할 수 있다. 로봇(100)이 부분(404)에서 사람(102)으로서 이동 바디(500)를 식별한 경우, 로봇(100)은 그 결정에 적어도 부분적으로 기초하여 액션을 수행 할 수 있다. 예를 들어, 로봇(100)은 경로(804)를 따라 감속 및/또는 정지할 수 있고, 사람(102)이 통과할 수 있게 한다. 일부 구현예들에서, 경로(804)는 사람(102)이 존재하지 않을 시 로봇(100)이 이동하고 있었던 경로일 수 있다.
예를 들어, 일부 구현예들에서, 로봇(100)은 사람(102)이 통과할 수 있게 하는 속도로 로봇(100)이 사람(102)에 접근하도록 충분히 감속될 수 있다. 로봇(100)이 사람(102)을 통과시키면, 로봇(100)은 가속될 수 있다. 다른 예로서, 로봇(100)은 완전한 정지에 이를 수 있고, 사람(102)이 통과 할 때까지 대기할 수 있다. 유리하게, 사람(102)이 통과할 수 있게 하는 것은 로봇(100)이 사람(102)으로 진행하는 것을 피할 수 있게 하고, 로봇(100)이 이동하고 있던 경로로부터 이탈하는 것을 피할 수 있게 하고, 그리고/또는 로봇(100)이 그/그녀를 검출한 것을 사람(102)이 알 수 있게 한다.
일부 구현예들에서, 로봇(100)은 사람(102)의 모션을 모니터링할 수 있다. 사람(102)이 센서 유닛들(104A-104N)의 시야 밖으로 이동하면, 로봇(100)은 경로(804)를 따라 정지 위치로부터 가속 및/또는 재개할 수 있다. 일부 구현예들에서, 로봇(100)은 경로(804)를 계속하기 위해 시도하기 전에, 미리 결정된 시간 동안 대기할 수 있다. 미리 결정된 시간은, 로봇(100)의 속도(예를 들어, 감속, 정지, 또는 그 이외), 사람(102)의 속도, 로봇(100)의 가속도, 사람(102)이 통과하는데 걸리는 시간들에 대한 경험적 데이터, 및/또는 임의의 다른 정보에 적어도 부분적으로 기초하여 결정될 수 있다. 미리 결정된 시간 후, 로봇(100)은 다시 통과를 시도할 수 있다. 일부 경우들에서, 경로(804) 또는 실질적으로 유사한 경로가 클리어링될 수 있다. 일부 경우들에서, 로봇(100)은 경로(804)가 여전히 차단되어 있는 경우, 미리 결정된 시간 후 다시 대기할 수 있다. 일부 경우들에서, 미리 결정된 시간 후 경로(804)가 여전히 차단되어 있는 경우, (예를 들어, 도 8a에 예시된 바와 같은 경로(802)와 유사한 방식으로) 로봇(100)은 물체 주위로 방향을 전환할 수 있다.
일부 구현예들에서, 도 7을 참조하여 뿐만 아니라 본 개시내용 전반에 걸친 다른 곳에 설명된 바와 같이, 사람(102)이 후방 또는 측면으로부터 접근하는 경우, 로봇(100)은 감속 및/또는 정지할 수 있다.
도 9는 본 개시내용의 일부 구현예들에 따른, 사람(102)을 검출하고 사람(102)에 응답하기 위한 예시적인 방법(900)의 프로세스 흐름도이다. 부분(902)은 센서 데이터로부터 생성된 차이 신호에 적어도 기초하여 이동 바디의 모션을 검출하는 것을 포함한다. 부분(904)은 적어도 사람의 보행 패턴을 검출하는 것에 적어도 기초하여 이동 바디가 사람인 것을 식별하는 것을 포함한다. 부분(906)은 이동 바디가 사람인 것에 대한 응답으로 액션을 수행하는 것을 포함한다.
본원에서 사용되는 바와 같이, 컴퓨터 및/또는 컴퓨팅 디바이스는, 데스크톱, 랩톱 또는 다른 방식의 개인용 컴퓨터("PC")들 및 미니컴퓨터들, 메인 프레임 컴퓨터들, 워크스테이션들, 서버들, PDA(Personal Digital Assistant)들, 핸드헬드 컴퓨터들, 내장형 컴퓨터들, 프로그래머블 로직 디바이스들, 개인 통신기들, 태블릿 컴퓨터들, 모바일 디바이스들, 휴대형 내비게이션 보조 장치들, J2ME 장비 디바이스들, 셀룰러 폰들, 스마트 폰들, 개인 통합 통신 또는 엔터테인먼트 디바이스들, 및/또는 명령들의 세트를 실행하고 인입 데이터 신호를 프로세싱할 수 있는 임의의 다른 디바이스를 포함할 수 있다(그러나 이에 제한되지는 않음).
본원에서 사용되는 바와 같이, 컴퓨터 프로그램 및/또는 소프트웨어는 임의의 시퀀스, 또는 기능을 수행하는 인간 또는 머신 인식 가능 단계들을 포함할 수 있다. 그러한 컴퓨터 프로그램 및/또는 소프트웨어는, 예를 들어, C/C++, C#, Fortran, COBOL, MATLABTM, PASCAL, Python, 어셈블리 언어, 마크업 언어들(예를 들어, HTML, SGML, XML, VoXML) 등을 포함하는 임의의 프로그래밍 언어 또는 환경, 뿐만 아니라, 객체-지향 환경들, 이를테면, CORBA(Common Object Request Broker Architecture), JAVATM(J2ME, 자바 빈스 등을 포함함), 바이너리 런타임 환경(예를 들어, BREW) 등으로 렌더링될 수 있다.
본원에서 사용되는 바와 같이, 연결, 링크, 송신 채널, 지연 라인 및/또는 무선은 엔티티들 사이의 정보 교환을 가능하게 하는, 임의의 2개 이상의 엔티티들(물리적 또는 논리적/가상) 사이의 인과 관계를 포함할 수 있다.
본 개시내용의 특정 양태들이 방법의 단계들의 특정 시퀀스에 관하여 설명되지만, 이들 설명들은 본 개시내용의 더 광범위한 방법들의 예시일 뿐이고, 특정 애플리케이션에 의해 요구되는 대로 수정될 수 있다는 것이 인식될 것이다. 특정 단계들은 특정 상황들 하에서 불필요하거나 또는 선택적으로 렌더링될 수 있다. 부가적으로, 특정 단계들 또는 기능성이 개시된 구현들에 부가될 수 있거나, 또는 2개 이상의 단계들의 수행의 순서가 치환될 수 있다. 이러한 모든 변형들은 본원에서 개시되고 청구되는 본 개시내용 내에 포함되는 것으로 간주된다.
위의 상세한 설명이 다양한 구현예들에 적용된 본 개시내용의 신규한 특징들을 나타내고, 설명하고, 지적하였지만, 예시된 디바이스 또는 프로세스의 형태 및 세부사항들의 다양한 생략들, 치환들 및 변화들이 본 개시내용으로부터 벗어나지 않으면서 당업자에 의해 이루어질 수 있다는 것이 이해될 것이다. 전술된 설명은 본 개시내용을 수행하기 위해 현재 고려되는 최상의 모드이다. 이러한 설명은 어떠한 방식으로도 제한하는 것으로 의도되는 것이 아니라, 본 개시내용의 일반적인 원리들의 예시로서 간주되어야 한다. 본 개시내용의 범위는 청구 범위를 참조하여 결정되어야 한다.
본 개시내용이 도면들 및 전술된 설명에서 상세히 예시 및 설명되었지만, 그러한 예시 및 설명은 예시 또는 예시적인 것으로 고려되어야 하며 제한적인 것이 아니다. 본 개시내용은 개시된 실시예들로 제한되지 않는다. 개시된 실시예들에 대한 변형들은, 도면들, 본 개시내용 및 첨부된 청구 범위의 연구로부터, 청구된 개시내용을 실시할 시, 당업자에 의해 이해 및 실시될 수 있다.
본 개시내용의 특정 특징들 또는 양태들을 설명하는 경우의 특정 용어의 사용은, 용어와 연관된 본 개시내용의 특징들 또는 양태들의 임의의 특정 특성들을 포함하는 것으로 제한되도록 용어가 본원에서 재-정의되는 것을 암시하는 것으로 취해지지 않아야 한다는 것이 유의되어야 한다. 특히 첨부된 청구 범위 내의 본 출원에서 사용되는 용어들 및 어구들 및 이들의 변형들은, 다르게 명시적으로 언급되지 않는 한, 제한과 반대로 개방형으로서 해석되어야 한다. 전술된 바의 예들로서, "구비하는"이라는 용어는 "제한되지 않게 구비하는", "구비하지만 이에 제한되지 않는" 등을 의미하는 것으로 해석되어야 하고; 본원에서 사용되는 바와 같은 "포함하는"이라는 용어는 "구비하는", "함유하는", 또는 "특징으로 하는"과 동의어이고, 포괄적이거나 또는 개방형이고, 부가적인 기재되지 않은 구성요소들 또는 방법 단계들을 배제하지 않고; "갖는"이라는 용어는 "적어도 갖는"으로서 해석되어야 하고; "그와 같은"이라는 용어는 "제한되지 않게 그와 같은"으로서 해석되어야 하고; "구비한다"라는 용어는 "구비하지만 이에 제한되지 않음"으로서 해석되어야 하고; "예"라는 용어는 논의 중인 아이템의 예시적인 인스턴스들을 제공하기 위해 사용되고, 그 아이템의 철저한 또는 제한적인 리스트가 아니고, "예이지만 제한되지 않음"으로서 해석되어야 하고; 형용사들, 이를테면 "알려진", "일반적인", "표준", 및 유사한 의미의 용어들은 설명되는 아이템을 주어진 시간 기간으로, 또는 주어진 시간으로부터 이용 가능한 아이템으로 제한하는 것으로 해석되는 것이 아니라, 대신, 현재 또는 향후의 임의의 시간에 이용 가능할 수 있거나 알려질 수 있는 알려진, 일반적인, 또는 표준 기술들을 포함하는 것으로 해석되어야 하고; 그리고 "바람직하게", "바람직한", "원하는", 또는 "원함직한"과 같은 용어들 및 유사한 의미의 단어들의 사용은 특정 특징들이 본 개시내용의 구조 또는 기능에 결정적이거나, 필수적이거나, 또는 심지어 중요하다는 것을 암시하는 것이 아니고, 대신, 특정 실시예에서 활용될 수 있거나 활용되지 않을 수 있는 대안적인 또는 부가적인 특징들을 단지 강조하도록 의도된 것으로 이해되어야 한다. 마찬가지로, 접속사 "및"으로 링크된 아이템들의 그룹은 이들 아이템들 각각 및 모든 각각이 그룹에 존재하는 것을 요구하는 것으로 해석되는 것이 아니라, 명시적으로 다르게 언급되지 않는 한, "및/또는"으로서 해석되어야 한다. 유사하게, 접속사 "또는"으로 링크된 아이템들의 그룹은 그 그룹 간에 상호 배타성을 요구하는 것으로 해석되는 것이 아니라, 명시적으로 다르게 언급되지 않는 한, "및/또는"으로서 해석되어야 한다. "약" 또는 "대략" 등이라는 용어들은 동의어이며, 용어에 의해 수정된 값이 그와 연관된 이해 범위를 갖는 것을 나타내기 위해 사용되며, 여기서, 범위는 ±20%, ±15%, ±10%, ±5% 또는 ±1%일 수 있다. "실질적으로"라는 용어는 결과(예를 들어, 측정 값)가 목표 값에 근접한 것을 나타내기 위해 사용되며, 여기서, 근접은, 예를 들어, 결과가 값의 80% 내, 값의 90% 내, 값의 95% 내 또는 값의 99% 내에 있는 것을 의미할 수 있다. 또한, 본원에서 사용되는 바와 같이, "정의된" 또는 "결정된"은 "미리 정의된" 또는 "미리 결정된" 및/또는 다른 방식으로 결정된 값들, 조건들, 임계치들, 측정치들 등을 포함할 수 있다.

Claims (20)

  1. 로봇을 이용하여 사람을 검출하기 위한 방법으로서,
    센서 데이터로부터 생성되는 차이 신호에 적어도 기초하여, 이동 바디(moving body)의 모션을 검출하는 단계;
    상기 이동 바디의 보행 패턴을 검출하는 것에 적어도 기초하여, 상기 이동 바디를 사람으로서 식별하는 단계; 및
    사람으로서의 상기 이동 바디의 식별에 대한 응답으로 액션(action)을 수행하는 단계를 포함하는, 방법.
  2. 제1항에 있어서,
    검출된 상기 보행 패턴은 사람의 다리들의 교번 스윙(swing)들을 검출하는 것을 포함하는, 방법.
  3. 제1항에 있어서,
    수행되는 상기 액션은 상기 이동 바디가 통과할 수 있게 하기 위해, 상기 로봇을 정지시키는 것을 포함하는, 방법.
  4. 제1항에 있어서,
    상기 센서 데이터로부터 상기 이동 바디가 실질적으로 기둥-형 형상을 갖는 것으로 결정하는 단계를 더 포함하는, 방법.
  5. 제1항에 있어서,
    복수의 센서 유닛들로부터 센서 데이터를 생성하는 단계를 더 포함하는, 방법.
  6. 제1항에 있어서,
    상기 모션의 검출은 상기 차이 신호가 차이 임계치보다 더 큰지를 결정하는 것을 포함하는, 방법.
  7. 제1항에 있어서,
    검출된 상기 보행 패턴은 사람의 하나의 정지 다리를 검출하고 사람의 하나의 스윙 다리를 검출하는 것을 포함하는, 방법.
  8. 로봇으로서,
    제1 복수의 시간들에 걸쳐 이동 바디의 제1 부분을 나타내는 제1 센서 데이터를 생성하도록 구성된 제1 센서 유닛;
    제2 복수의 시간들에 걸쳐 상기 이동 바디의 제2 부분을 나타내는 제2 센서 데이터를 생성하도록 구성된 제2 센서 유닛; 및
    프로세서를 포함하며,
    상기 프로세서는,
    상기 제1 복수의 시간들 중 제1 시간에서의 상기 제1 센서 데이터, 및 상기 제1 복수의 시간들 중 제2 시간에서의 상기 제1 센서 데이터에 적어도 기초하여, 상기 이동 바디의 모션을 검출하도록;
    적어도 상기 제1 센서 데이터 및 상기 제2 센서 데이터로부터 상기 이동 바디가 연속적인 형태를 포함하는 것으로 결정하도록;
    상기 제1 센서 데이터와 상기 제2 센서 데이터 중 적어도 하나로부터, 상기 이동 바디가 사람에 해당하는 것을 나타내는 상기 이동 바디의 적어도 하나의 특성을 검출하도록;
    검출된 상기 적어도 하나의 특성, 및 상기 이동 바디가 상기 연속적인 형태를 포함한다는 결정에 적어도 기초하여, 상기 이동 바디를 사람으로서 식별하도록; 그리고
    사람으로서의 상기 이동 바디의 식별에 대한 응답으로 액션을 수행하도록 구성되는, 로봇.
  9. 제8항에 있어서,
    상기 이동 바디의 상기 적어도 하나의 특성은 사람에 대한 보행 패턴을 포함하는, 로봇.
  10. 제9항에 있어서,
    상기 보행 패턴은 사람의 다리들의 교번 스윙들을 포함하는, 로봇.
  11. 제8항에 있어서,
    상기 이동 바디의 모션의 검출은, 상기 제1 시간에서의 상기 제1 센서 데이터 및 상기 제2 시간에서의 상기 제1 센서 데이터로부터 결정되는 차이 신호에 적어도 부분적으로 기초하는, 로봇.
  12. 제8항에 있어서,
    상기 액션은 상기 로봇에 대한 정지 액션을 포함하며, 상기 정지 액션은 상기 이동 바디가 통과할 수 있게 하도록 구성되는, 로봇.
  13. 제8항에 있어서,
    상기 로봇은 상기 로봇의 후방을 향하는 측 상에 배치된 제3 센서 유닛을 더 포함하며, 상기 프로세서는 추가로, 상기 이동 바디가 상기 제3 센서 유닛에 의해 검출되는 것에 적어도 기초하여, 상기 이동 바디가 사람에 해당하는 것으로 결정하도록 구성되는, 로봇.
  14. 제8항에 있어서,
    상기 제1 센서 유닛은 광 검출 및 레인징(ranging) 센서를 포함하는, 로봇.
  15. 복수의 명령들이 저장된 비-일시적 컴퓨터-판독가능 저장 매체로서, 상기 명령들은 사람들을 검출하기 위해 프로세싱 장치에 의해 실행 가능하고, 상기 명령들은, 상기 프로세싱 장치에 의해 실행되는 경우, 상기 프로세싱 장치로 하여금,
    센서 데이터로부터 생성되는 차이 신호에 적어도 기초하여, 이동 바디의 모션을 검출하게 하고;
    상기 센서 데이터로부터, 상기 이동 바디가 실질적으로 동일한 수직 평면 내의 적어도 2개의 포인트들을 갖는 것으로 결정하게 하고;
    (i) 사람을 나타내는 적어도 하나의 특성의 검출, 및 (ii) 상기 이동 바디가 실질적으로 동일한 수직 평면 내의 적어도 2개의 포인트들을 갖는다는 결정에 적어도 부분적으로 기초하여, 상기 이동 바디를 사람으로서 식별하게 하고; 그리고
    사람으로서의 상기 이동 바디의 식별에 대한 응답으로 액션을 실행하게 하도록 구성되는, 비-일시적 컴퓨터-판독가능 저장 매체.
  16. 제15항에 있어서,
    상기 사람을 나타내는 적어도 하나의 특성은 보행 패턴인, 비-일시적 컴퓨터-판독가능 저장 매체.
  17. 제16항에 있어서,
    상기 보행 패턴은 하나의 정지 다리 및 하나의 스윙 다리를 포함하는, 비-일시적 컴퓨터-판독가능 저장 매체.
  18. 제15항에 있어서,
    상기 액션은 정지 액션을 포함하며, 실행되는 상기 정지 액션은 상기 이동 바디가 통과할 수 있게 하도록 구성되는, 비-일시적 컴퓨터-판독가능 저장 매체.
  19. 제15항에 있어서,
    상기 명령들은 추가로, 상기 프로세싱 장치로 하여금,
    상기 센서 데이터로부터 동물을 나타내는 상기 이동 바디의 적어도 하나의 특성을 검출하게 하고;
    동물을 나타내는 상기 이동 바디의 검출된 적어도 하나의 특성에 적어도 기초하여, 상기 이동 바디를 동물로서 식별하게 하고; 그리고
    동물로서의 상기 이동 바디의 식별에 대한 응답으로 액션을 실행하게 하도록 구성되는, 비-일시적 컴퓨터-판독가능 저장 매체.
  20. 제15항에 있어서,
    상기 센서 데이터는 복수의 센서 유닛들로부터 생성되는, 비-일시적 컴퓨터-판독가능 저장 매체.
KR1020197001472A 2016-06-30 2017-06-30 이동 바디들 주위의 로봇 행동을 위한 시스템들 및 방법들 KR102361261B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/199,224 2016-06-30
US15/199,224 US10016896B2 (en) 2016-06-30 2016-06-30 Systems and methods for robotic behavior around moving bodies
PCT/US2017/040324 WO2018005986A1 (en) 2016-06-30 2017-06-30 Systems and methods for robotic behavior around moving bodies

Publications (2)

Publication Number Publication Date
KR20190024962A true KR20190024962A (ko) 2019-03-08
KR102361261B1 KR102361261B1 (ko) 2022-02-10

Family

ID=60787629

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197001472A KR102361261B1 (ko) 2016-06-30 2017-06-30 이동 바디들 주위의 로봇 행동을 위한 시스템들 및 방법들

Country Status (7)

Country Link
US (2) US10016896B2 (ko)
EP (1) EP3479568B1 (ko)
JP (1) JP6924782B2 (ko)
KR (1) KR102361261B1 (ko)
CN (1) CN109565574B (ko)
CA (1) CA3028451A1 (ko)
WO (1) WO2018005986A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210083094A (ko) * 2019-12-26 2021-07-06 주식회사 제타뱅크 이동 로봇 및 그 서비스 안내 방법

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10471904B2 (en) * 2016-08-08 2019-11-12 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for adjusting the position of sensors of an automated vehicle
KR102624560B1 (ko) * 2017-01-31 2024-01-15 엘지전자 주식회사 청소기
US20230107110A1 (en) * 2017-04-10 2023-04-06 Eys3D Microelectronics, Co. Depth processing system and operational method thereof
WO2018213931A1 (en) 2017-05-25 2018-11-29 Clearpath Robotics Inc. Systems and methods for process tending with a robot arm
WO2019041043A1 (en) 2017-08-31 2019-03-07 Clearpath Robotics Inc. SYSTEMS AND METHODS FOR GENERATING A MISSION FOR A SELF-CONTAINING MATERIAL TRANSPORT VEHICLE
US11064168B1 (en) * 2017-09-29 2021-07-13 Objectvideo Labs, Llc Video monitoring by peep hole device
US20190100306A1 (en) * 2017-09-29 2019-04-04 Intel IP Corporation Propeller contact avoidance in an unmanned aerial vehicle
WO2019084686A1 (en) 2017-10-31 2019-05-09 Clearpath Robotics Inc. Systems and methods for operating robotic equipment in controlled zones
US10775793B2 (en) * 2017-12-22 2020-09-15 The Boeing Company Systems and methods for in-flight crew assistance
US11099558B2 (en) * 2018-03-27 2021-08-24 Nvidia Corporation Remote operation of vehicles using immersive virtual reality environments
KR102067600B1 (ko) * 2018-05-16 2020-01-17 엘지전자 주식회사 청소기 및 그 제어방법
EP3702866B1 (en) * 2019-02-11 2022-04-06 Tusimple, Inc. Vehicle-based rotating camera methods and systems
WO2019172733A2 (ko) * 2019-05-08 2019-09-12 엘지전자 주식회사 감지대상체와 상호작용이 가능한 이동로봇 및 이동로봇과 감지대상체의 상호작용 방법
US11565411B2 (en) * 2019-05-29 2023-01-31 Lg Electronics Inc. Intelligent robot cleaner for setting travel route based on video learning and managing method thereof
CN112428269B (zh) * 2020-11-11 2022-03-08 合肥学院 一种巡检机器人用障碍报警系统
EP4108390B1 (de) * 2021-06-25 2023-08-02 Sick Ag Verfahren zum sicheren betrieb eines beweglichen maschinenteils
KR20230095585A (ko) * 2021-12-22 2023-06-29 엘지전자 주식회사 안내 로봇 및 그것의 동작 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003109001A (ja) 2001-09-27 2003-04-11 Ced System Inc 人物検出システム、及び人物検出プログラム
JP2006110072A (ja) * 2004-10-14 2006-04-27 Mitsubishi Heavy Ind Ltd 非接触歩行検出方法とシステム及び該システムを用いた個人認証方法とシステム
JP2007283434A (ja) * 2006-04-17 2007-11-01 Toyota Motor Corp 自律移動装置
JP2015016549A (ja) * 2010-05-20 2015-01-29 アイロボット コーポレイション 移動式ヒューマンインターフェースロボット

Family Cites Families (204)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5280179A (en) 1979-04-30 1994-01-18 Sensor Adaptive Machines Incorporated Method and apparatus utilizing an orientation code for automatically guiding a robot
US4638445A (en) 1984-06-08 1987-01-20 Mattaboni Paul J Autonomous mobile robot
US5121497A (en) 1986-03-10 1992-06-09 International Business Machines Corporation Automatic generation of executable computer code which commands another program to perform a task and operator modification of the generated executable computer code
US4763276A (en) 1986-03-21 1988-08-09 Actel Partnership Methods for refining original robot command signals
US4852018A (en) 1987-01-07 1989-07-25 Trustees Of Boston University Massively parellel real-time network architectures for robots capable of self-calibrating their operating parameters through associative learning
US5155684A (en) 1988-10-25 1992-10-13 Tennant Company Guiding an unmanned vehicle by reference to overhead features
FR2648071B1 (fr) 1989-06-07 1995-05-19 Onet Procede et appareil autonomes de nettoyage automatique de sol par execution de missions programmees
DE69030318T2 (de) 1989-10-17 1997-10-16 Perkin Elmer Corp Robotische schnittstelle
US5646843A (en) 1990-02-05 1997-07-08 Caterpillar Inc. Apparatus and method for surface based vehicle control system
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US5673367A (en) 1992-10-01 1997-09-30 Buckley; Theresa M. Method for neural network control of motion using real-time environmental feedback
CA2081519C (en) 1992-10-27 2000-09-05 The University Of Toronto Parametric control device
KR0161031B1 (ko) 1993-09-09 1998-12-15 김광호 로보트의 위치오차보정장치
US5602761A (en) 1993-12-30 1997-02-11 Caterpillar Inc. Machine performance monitoring and fault classification using an exponentially weighted moving average scheme
DE69636230T2 (de) 1995-09-11 2007-04-12 Kabushiki Kaisha Yaskawa Denki, Kitakyushu Robotersteuerung
AU3477397A (en) 1996-06-04 1998-01-05 Paul J. Werbos 3-brain architecture for an intelligent decision and control system
US6366293B1 (en) 1998-09-29 2002-04-02 Rockwell Software Inc. Method and apparatus for manipulating and displaying graphical objects in a computer display device
US6243622B1 (en) 1998-10-16 2001-06-05 Xerox Corporation Touchable user interface using self movable robotic modules
EP1037134A2 (en) 1999-03-16 2000-09-20 Matsushita Electric Industrial Co., Ltd. Virtual space control data receiving apparatus and method
US6124694A (en) 1999-03-18 2000-09-26 Bancroft; Allen J. Wide area navigation for a robot scrubber
KR20010053322A (ko) 1999-04-30 2001-06-25 이데이 노부유끼 전자 페트 시스템, 네트워크 시스템, 로봇, 및 기억 매체
JP3537362B2 (ja) 1999-10-12 2004-06-14 ファナック株式会社 ロボットシステム用グラフィック表示装置
EP1297691A2 (en) 2000-03-07 2003-04-02 Sarnoff Corporation Camera pose estimation
JP2001260063A (ja) * 2000-03-21 2001-09-25 Sony Corp 多関節型ロボット及びその動作制御方法
KR20020008848A (ko) 2000-03-31 2002-01-31 이데이 노부유끼 로봇 장치, 로봇 장치의 행동 제어 방법, 외력 검출 장치및 외력 검출 방법
JP4480843B2 (ja) * 2000-04-03 2010-06-16 ソニー株式会社 脚式移動ロボット及びその制御方法、並びに、脚式移動ロボット用相対移動測定センサ
US8543519B2 (en) 2000-08-07 2013-09-24 Health Discovery Corporation System and method for remote melanoma screening
JP4765155B2 (ja) 2000-09-28 2011-09-07 ソニー株式会社 オーサリング・システム及びオーサリング方法、並びに記憶媒体
US6678413B1 (en) 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
JP2002197437A (ja) * 2000-12-27 2002-07-12 Sony Corp 歩行検出システム、歩行検出装置、デバイス、歩行検出方法
US6442451B1 (en) 2000-12-28 2002-08-27 Robotic Workspace Technologies, Inc. Versatile robot control system
JP2002239960A (ja) 2001-02-21 2002-08-28 Sony Corp ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
US20020175894A1 (en) 2001-03-06 2002-11-28 Vince Grillo Hand-supported mouse for computer input
US6917925B2 (en) 2001-03-30 2005-07-12 Intelligent Inference Systems Corporation Convergent actor critic-based fuzzy reinforcement learning apparatus and method
JP2002301674A (ja) 2001-04-03 2002-10-15 Sony Corp 脚式移動ロボット及びその運動教示方法、並びに記憶媒体
DE60118317T2 (de) 2001-04-30 2006-12-14 Sony France S.A. Autonom Roboter
US6584375B2 (en) 2001-05-04 2003-06-24 Intellibot, Llc System for a retail environment
US6636781B1 (en) 2001-05-22 2003-10-21 University Of Southern California Distributed control and coordination of autonomous agents in a dynamic, reconfigurable system
JP3760186B2 (ja) 2001-06-07 2006-03-29 独立行政法人科学技術振興機構 二脚歩行式移動装置及びその歩行制御装置並びに歩行制御方法
JP4188607B2 (ja) 2001-06-27 2008-11-26 本田技研工業株式会社 二足歩行移動体の床反力推定方法及び二足歩行移動体の関節モーメント推定方法
AU2002322504A1 (en) 2001-07-13 2003-01-29 Broks Automation, Inc. Trajectory planning and motion control strategies for a planar three-degree-of-freedom robotic arm
US6710346B2 (en) 2001-08-02 2004-03-23 International Business Machines Corporation Active infrared presence sensor
AU2002331786A1 (en) 2001-08-31 2003-03-18 The Board Of Regents Of The University And Community College System, On Behalf Of The University Of Coordinated joint motion control system
US6812846B2 (en) 2001-09-28 2004-11-02 Koninklijke Philips Electronics N.V. Spill detector based on machine-imaging
US7243334B1 (en) 2002-01-16 2007-07-10 Prelude Systems, Inc. System and method for generating user interface code
JP3790816B2 (ja) 2002-02-12 2006-06-28 国立大学法人 東京大学 人型リンク系の運動生成方法
US20040134337A1 (en) 2002-04-22 2004-07-15 Neal Solomon System, methods and apparatus for mobile software agents applied to mobile robotic vehicles
US7505604B2 (en) 2002-05-20 2009-03-17 Simmonds Precision Prodcuts, Inc. Method for detection and recognition of fog presence within an aircraft compartment using video images
US7834754B2 (en) 2002-07-19 2010-11-16 Ut-Battelle, Llc Method and system for monitoring environmental conditions
US6904335B2 (en) 2002-08-21 2005-06-07 Neal Solomon System, method and apparatus for organizing groups of self-configurable mobile robotic agents in a multi-robotic system
JP2004170166A (ja) * 2002-11-19 2004-06-17 Eiji Shimizu グレイコードを用いた相対移動距離と相対ずれ角の測定方法およびそれを応用した装置とシステム
AU2003900861A0 (en) 2003-02-26 2003-03-13 Silverbrook Research Pty Ltd Methods,systems and apparatus (NPS042)
JP3950805B2 (ja) 2003-02-27 2007-08-01 ファナック株式会社 教示位置修正装置
US7313279B2 (en) 2003-07-08 2007-12-25 Computer Associates Think, Inc. Hierarchical determination of feature relevancy
GB2400353A (en) * 2003-04-09 2004-10-13 Autoliv Dev Pedestrian detecting system provided on a motor vehicle
SE0301531L (sv) 2003-05-22 2004-11-23 Abb Ab A Control method for a robot
US7212651B2 (en) 2003-06-17 2007-05-01 Mitsubishi Electric Research Laboratories, Inc. Detecting pedestrians using patterns of motion and appearance in videos
US7769487B2 (en) 2003-07-24 2010-08-03 Northeastern University Process and architecture of robotic system to mimic animal behavior in the natural environment
WO2005028166A1 (ja) 2003-09-22 2005-03-31 Matsushita Electric Industrial Co., Ltd. 弾性体アクチュエータの制御装置及び制御方法
US7342589B2 (en) 2003-09-25 2008-03-11 Rockwell Automation Technologies, Inc. System and method for managing graphical data
JP4592276B2 (ja) 2003-10-24 2010-12-01 ソニー株式会社 ロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラム
WO2005081082A1 (ja) 2004-02-25 2005-09-01 The Ritsumeikan Trust 浮遊移動体の制御システム
JP4661074B2 (ja) 2004-04-07 2011-03-30 ソニー株式会社 情報処理システム、情報処理方法、並びにロボット装置
EP1622072B1 (en) 2004-07-27 2010-07-07 Sony France S.A. An automated action-selection system and method and application thereof for training prediction machines and for driving the development of self-developing devices
DE102004043514A1 (de) * 2004-09-08 2006-03-09 Sick Ag Verfahren und Vorrichtung zum Steuern einer sicherheitsrelevanten Funktion einer Maschine
SE0402672D0 (sv) 2004-11-02 2004-11-02 Viktor Kaznov Ball robot
US7211979B2 (en) 2005-04-13 2007-05-01 The Broad Of Trustees Of The Leland Stanford Junior University Torque-position transformer for task control of position controlled robots
US7765029B2 (en) 2005-09-13 2010-07-27 Neurosciences Research Foundation, Inc. Hybrid control device
JP4876511B2 (ja) 2005-09-29 2012-02-15 株式会社日立製作所 ロジック抽出支援装置
WO2007041295A2 (en) 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
US7668605B2 (en) 2005-10-26 2010-02-23 Rockwell Automation Technologies, Inc. Wireless industrial control user interface
EP2120122B1 (en) 2005-12-02 2013-10-30 iRobot Corporation Coverage robot mobility
US7741802B2 (en) 2005-12-20 2010-06-22 Intuitive Surgical Operations, Inc. Medical robotic system with programmably controlled constraints on error dynamics
US8239083B2 (en) 2006-01-18 2012-08-07 I-Guide Robotics, Inc. Robotic vehicle controller
US8224018B2 (en) 2006-01-23 2012-07-17 Digimarc Corporation Sensing data from physical objects
US7576639B2 (en) 2006-03-14 2009-08-18 Mobileye Technologies, Ltd. Systems and methods for detecting pedestrians in the vicinity of a powered industrial vehicle
US8924021B2 (en) 2006-04-27 2014-12-30 Honda Motor Co., Ltd. Control of robots from human motion descriptors
JP4320363B2 (ja) 2006-05-25 2009-08-26 豪洋 石崎 作業ロボット
KR100791382B1 (ko) 2006-06-01 2008-01-07 삼성전자주식회사 로봇의 이동 경로에 따라 소정 영역의 특성에 관한 정보를수집하고 분류하는 방법 및 상기 영역 특성에 따라제어되는 로봇, 상기 영역 특성을 이용한 ui 구성 방법및 장치
JP4699426B2 (ja) 2006-08-08 2011-06-08 パナソニック株式会社 障害物回避方法と障害物回避移動装置
JP4267027B2 (ja) 2006-12-07 2009-05-27 ファナック株式会社 ロボット制御装置
WO2008127863A2 (en) 2007-03-29 2008-10-23 Irobot Corporation Robot operator control unit configuration system and method
US20080274683A1 (en) 2007-05-04 2008-11-06 Current Energy Controls, Lp Autonomous Ventilation System
US8255092B2 (en) 2007-05-14 2012-08-28 Irobot Corporation Autonomous behaviors for a remote vehicle
US8206325B1 (en) * 2007-10-12 2012-06-26 Biosensics, L.L.C. Ambulatory system for measuring and monitoring physical activity and risk of falling and for automatic fall detection
JP5213023B2 (ja) 2008-01-15 2013-06-19 本田技研工業株式会社 ロボット
WO2009098855A1 (ja) 2008-02-06 2009-08-13 Panasonic Corporation ロボット、ロボットの制御装置及び制御方法、並びに、ロボットの制御装置の制御プログラム
JP5181704B2 (ja) 2008-02-07 2013-04-10 日本電気株式会社 データ処理装置、姿勢推定システム、姿勢推定方法およびプログラム
US8175992B2 (en) 2008-03-17 2012-05-08 Intelliscience Corporation Methods and systems for compound feature creation, processing, and identification in conjunction with a data analysis and feature recognition system wherein hit weights are summed
EP2266077A1 (en) 2008-04-02 2010-12-29 iRobot Corporation Robotics systems
JP4715863B2 (ja) 2008-05-01 2011-07-06 ソニー株式会社 アクチュエータ制御装置及びアクチュエータ制御方法、アクチュエータ、ロボット装置、並びにコンピュータ・プログラム
JP5215740B2 (ja) 2008-06-09 2013-06-19 株式会社日立製作所 移動ロボットシステム
KR20110074520A (ko) 2008-09-04 2011-06-30 아이워크, 아이엔씨. 하이브리드 지형-적응형 의족 시스템
CA2775675C (en) 2008-10-29 2019-04-16 The Regents Of The University Of Colorado Long term active learning from large continually changing data sets
US20100114372A1 (en) 2008-10-30 2010-05-06 Intellibot Robotics Llc Method of cleaning a surface using an automatic cleaning device
JP5242342B2 (ja) 2008-10-31 2013-07-24 株式会社東芝 ロボット制御装置
US8428781B2 (en) 2008-11-17 2013-04-23 Energid Technologies, Inc. Systems and methods of coordination control for robot manipulation
EP2209018A1 (en) * 2009-01-15 2010-07-21 Nederlandse Organisatie voor toegepast-natuurwetenschappelijk Onderzoek TNO A method for estimating an object motion characteristic from a radar signal, a computer system and a computer program product
US8423182B2 (en) 2009-03-09 2013-04-16 Intuitive Surgical Operations, Inc. Adaptable integrated energy control system for electrosurgical tools in robotic surgical systems
US8120301B2 (en) 2009-03-09 2012-02-21 Intuitive Surgical Operations, Inc. Ergonomic surgeon control console in robotic surgical systems
US8364314B2 (en) 2009-04-30 2013-01-29 GM Global Technology Operations LLC Method and apparatus for automatic control of a humanoid robot
US8694449B2 (en) 2009-05-29 2014-04-08 Board Of Trustees Of Michigan State University Neuromorphic spatiotemporal where-what machines
JP4676544B2 (ja) 2009-05-29 2011-04-27 ファナック株式会社 工作機械に対してワークの供給及び取り出しを行うロボットを制御するロボット制御装置
US8774970B2 (en) 2009-06-11 2014-07-08 S.C. Johnson & Son, Inc. Trainable multi-mode floor cleaning device
US8706297B2 (en) 2009-06-18 2014-04-22 Michael Todd Letsky Method for establishing a desired area of confinement for an autonomous robot and autonomous robot implementing a control system for executing the same
CN102448683B (zh) 2009-07-02 2014-08-27 松下电器产业株式会社 机器人、机器人手臂的控制装置及机器人手臂的控制程序
EP2284769B1 (en) 2009-07-16 2013-01-02 European Space Agency Method and apparatus for analyzing time series data
US20110026770A1 (en) 2009-07-31 2011-02-03 Jonathan David Brookshire Person Following Using Histograms of Oriented Gradients
US8250901B2 (en) 2009-09-22 2012-08-28 GM Global Technology Operations LLC System and method for calibrating a rotary absolute position sensor
TW201113815A (en) 2009-10-09 2011-04-16 Primax Electronics Ltd QR code processing method and apparatus thereof
US8679260B2 (en) 2009-11-11 2014-03-25 Intellibot Robotics Llc Methods and systems for movement of an automatic cleaning device using video signal
US8423225B2 (en) 2009-11-11 2013-04-16 Intellibot Robotics Llc Methods and systems for movement of robotic device using video signal
US8521328B2 (en) 2009-12-10 2013-08-27 The Boeing Company Control system for robotic vehicles
US8460220B2 (en) * 2009-12-18 2013-06-11 General Electric Company System and method for monitoring the gait characteristics of a group of individuals
TW201123031A (en) 2009-12-24 2011-07-01 Univ Nat Taiwan Science Tech Robot and method for recognizing human faces and gestures thereof
JP5506618B2 (ja) 2009-12-28 2014-05-28 本田技研工業株式会社 ロボットの制御装置
JP5506617B2 (ja) 2009-12-28 2014-05-28 本田技研工業株式会社 ロボットの制御装置
CN102711586B (zh) 2010-02-11 2015-06-17 直观外科手术操作公司 在机器人内窥镜的远侧尖端自动维持操作者选择的滚动取向的方法和系统
KR101169674B1 (ko) 2010-03-11 2012-08-06 한국과학기술연구원 원격현전 로봇, 이를 포함하는 원격현전 시스템 및 이의 제어 방법
US8660355B2 (en) 2010-03-19 2014-02-25 Digimarc Corporation Methods and systems for determining image processing operations relevant to particular imagery
US9311593B2 (en) 2010-03-26 2016-04-12 Brain Corporation Apparatus and methods for polychronous encoding and multiplexing in neuronal prosthetic devices
US9405975B2 (en) 2010-03-26 2016-08-02 Brain Corporation Apparatus and methods for pulse-code invariant object recognition
US9122994B2 (en) 2010-03-26 2015-09-01 Brain Corporation Apparatus and methods for temporally proximate object recognition
US9014848B2 (en) * 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
US8336420B2 (en) 2010-06-02 2012-12-25 Disney Enterprises, Inc. Three-axis robotic joint using four-bar linkages to drive differential side gears
FR2963132A1 (fr) 2010-07-23 2012-01-27 Aldebaran Robotics Robot humanoide dote d'une interface de dialogue naturel, methode d'utilisation et de programmation de ladite interface
US20120045068A1 (en) 2010-08-20 2012-02-23 Korea Institute Of Science And Technology Self-fault detection system and method for microphone array and audio-based device
US8594971B2 (en) * 2010-09-22 2013-11-26 Invensense, Inc. Deduced reckoning navigation without a constraint relationship between orientation of a sensor platform and a direction of travel of an object
WO2012040554A2 (en) 2010-09-23 2012-03-29 Stryker Corporation Video monitoring system
KR20120035519A (ko) 2010-10-05 2012-04-16 삼성전자주식회사 먼지 유입 감지 유닛 및 이를 구비하는 로봇 청소기
US20120143495A1 (en) 2010-10-14 2012-06-07 The University Of North Texas Methods and systems for indoor navigation
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8726095B2 (en) 2010-12-02 2014-05-13 Dell Products L.P. System and method for proactive management of an information handling system with in-situ measurement of end user actions
JP5185358B2 (ja) 2010-12-13 2013-04-17 株式会社東芝 行動履歴検索装置
WO2012081197A1 (ja) 2010-12-17 2012-06-21 パナソニック株式会社 弾性体アクチュエータ駆動機構の制御装置及び制御方法、並びに、制御プログラム
EP2668008A4 (en) * 2011-01-28 2018-01-24 Intouch Technologies, Inc. Interfacing with a mobile telepresence robot
US8639644B1 (en) 2011-05-06 2014-01-28 Google Inc. Shared robot knowledge base for use with cloud computing system
US8380652B1 (en) 2011-05-06 2013-02-19 Google Inc. Methods and systems for autonomous robotic decision making
US9566710B2 (en) 2011-06-02 2017-02-14 Brain Corporation Apparatus and methods for operating robotic devices using selective state space training
US9189891B2 (en) 2011-08-16 2015-11-17 Google Inc. Systems and methods for navigating a camera
US9015092B2 (en) 2012-06-04 2015-04-21 Brain Corporation Dynamically reconfigurable stochastic learning apparatus and methods
US8798840B2 (en) 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
US20130096719A1 (en) 2011-10-13 2013-04-18 The U.S.A. As Represented By The Administrator Of The National Aeronautics And Space Administration Method for dynamic optimization of a robot control interface
JP6305673B2 (ja) 2011-11-07 2018-04-04 セイコーエプソン株式会社 ロボット制御システム、ロボットシステム及びロボット
WO2013069291A1 (ja) 2011-11-10 2013-05-16 パナソニック株式会社 ロボット、ロボットの制御装置、制御方法、及び制御プログラム
KR101305819B1 (ko) 2012-01-04 2013-09-06 현대자동차주식회사 착용식 로봇의 사용자 조작 의도 토크 추출방법
US8958911B2 (en) 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
JP5895628B2 (ja) 2012-03-15 2016-03-30 株式会社ジェイテクト ロボットの制御方法及びロボット制御装置、並びにロボット制御システム
US8824733B2 (en) * 2012-03-26 2014-09-02 Tk Holdings Inc. Range-cued object segmentation system and method
US9221177B2 (en) 2012-04-18 2015-12-29 Massachusetts Institute Of Technology Neuromuscular model-based sensing and control paradigm for a robotic leg
US9031779B2 (en) 2012-05-30 2015-05-12 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for hazard detection and sharing
US9208432B2 (en) 2012-06-01 2015-12-08 Brain Corporation Neural network learning and collaboration apparatus and methods
US9297658B2 (en) 2012-06-12 2016-03-29 Trx Systems, Inc. Wi-Fi enhanced tracking algorithms
US20130343640A1 (en) 2012-06-21 2013-12-26 Rethink Robotics, Inc. Vision-guided robots and methods of training them
US20130346347A1 (en) 2012-06-22 2013-12-26 Google Inc. Method to Predict a Communicative Action that is Most Likely to be Executed Given a Context
JP5645885B2 (ja) * 2012-06-29 2014-12-24 京セラドキュメントソリューションズ株式会社 画像形成装置
WO2014006234A1 (es) 2012-07-04 2014-01-09 Repsol, S.A. Sistema integrado de detección temprana de hidrocarburos en un medio acuoso
US8977582B2 (en) 2012-07-12 2015-03-10 Brain Corporation Spiking neuron network sensory processing apparatus and methods
US9367798B2 (en) 2012-09-20 2016-06-14 Brain Corporation Spiking neuron network adaptive control apparatus and methods
US8793205B1 (en) 2012-09-20 2014-07-29 Brain Corporation Robotic learning and evolution apparatus
DE102012109004A1 (de) 2012-09-24 2014-03-27 RobArt GmbH Roboter und Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen
US9020637B2 (en) 2012-11-02 2015-04-28 Irobot Corporation Simultaneous localization and mapping for a mobile robot
US8972061B2 (en) 2012-11-02 2015-03-03 Irobot Corporation Autonomous coverage robot
CN103020890B (zh) * 2012-12-17 2015-11-04 中国科学院半导体研究所 基于多层次并行处理的视觉处理装置
US20140187519A1 (en) 2012-12-27 2014-07-03 The Board Of Trustees Of The Leland Stanford Junior University Biomarkers for predicting major adverse events
EP2752726B1 (de) 2013-01-08 2015-05-27 Cleanfix Reinigungssysteme AG Bodenbehandlungsmaschine und Verfahren zum Behandeln von Bodenflächen
JP6132659B2 (ja) 2013-02-27 2017-05-24 シャープ株式会社 周囲環境認識装置、それを用いた自律移動システムおよび周囲環境認識方法
US8958937B2 (en) 2013-03-12 2015-02-17 Intellibot Robotics Llc Cleaning machine with collision prevention
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
US10561470B2 (en) 2013-03-15 2020-02-18 Intuitive Surgical Operations, Inc. Software configurable manipulator degrees of freedom
JP5668770B2 (ja) * 2013-03-15 2015-02-12 株式会社安川電機 ロボットシステム、及び、ロボットシステムの制御方法
US9008840B1 (en) 2013-04-19 2015-04-14 Brain Corporation Apparatus and methods for reinforcement-guided supervised learning
US9292015B2 (en) 2013-05-23 2016-03-22 Fluor Technologies Corporation Universal construction robotics interface
US20140358828A1 (en) 2013-05-29 2014-12-04 Purepredictive, Inc. Machine learning generated action plan
US9242372B2 (en) 2013-05-31 2016-01-26 Brain Corporation Adaptive robotic interface apparatus and methods
TWI585561B (zh) 2013-06-03 2017-06-01 新智控私人有限公司 機器人裝置的離機式導航方法與裝置
US9384443B2 (en) 2013-06-14 2016-07-05 Brain Corporation Robotic training apparatus and methods
US9792546B2 (en) 2013-06-14 2017-10-17 Brain Corporation Hierarchical robotic controller apparatus and methods
US20150032258A1 (en) 2013-07-29 2015-01-29 Brain Corporation Apparatus and methods for controlling of robotic devices
JP6227948B2 (ja) 2013-09-18 2017-11-08 村田機械株式会社 自律走行式床洗浄機、清掃スケジュールのデータ構造、記憶媒体、清掃スケジュールの生成方法、及びプログラム
SG2013071808A (en) 2013-09-24 2015-04-29 Ctrlworks Pte Ltd Offboard navigation apparatus capable of being coupled to a movable platform
US9579789B2 (en) 2013-09-27 2017-02-28 Brain Corporation Apparatus and methods for training of robotic control arbitration
US9296101B2 (en) 2013-09-27 2016-03-29 Brain Corporation Robotic control arbitration apparatus and methods
US9315192B1 (en) 2013-09-30 2016-04-19 Google Inc. Methods and systems for pedestrian avoidance using LIDAR
US9144907B2 (en) 2013-10-24 2015-09-29 Harris Corporation Control synchronization for high-latency teleoperation
CN103610568B (zh) * 2013-12-16 2015-05-27 哈尔滨工业大学 一种拟人化的下肢助力外骨骼机器人
CN103680142B (zh) * 2013-12-23 2016-03-23 苏州君立软件有限公司 一种交通路口智能监控方法
US10612939B2 (en) 2014-01-02 2020-04-07 Microsoft Technology Licensing, Llc Ground truth estimation for autonomous navigation
US9567077B2 (en) 2014-02-14 2017-02-14 Accenture Global Services Limited Unmanned vehicle (UV) control system
US9346167B2 (en) 2014-04-29 2016-05-24 Brain Corporation Trainable convolutional network apparatus and methods for operating a robotic vehicle
US10255319B2 (en) 2014-05-02 2019-04-09 Google Llc Searchable index
US20150339589A1 (en) 2014-05-21 2015-11-26 Brain Corporation Apparatus and methods for training robots utilizing gaze-based saliency maps
US9497592B2 (en) * 2014-07-03 2016-11-15 Qualcomm Incorporated Techniques for determining movements based on sensor measurements from a plurality of mobile devices co-located with a person
GB2528953A (en) * 2014-08-07 2016-02-10 Nokia Technologies Oy An apparatus, method, computer program and user device for enabling control of a vehicle
WO2016022155A1 (en) * 2014-08-08 2016-02-11 Robotic Vision Technologies, LLC Sensor-based safety features for robotic equipment
US9475195B2 (en) 2014-09-12 2016-10-25 Toyota Jidosha Kabushiki Kaisha Anticipatory robot navigation
US9925980B2 (en) * 2014-09-17 2018-03-27 Magna Electronics Inc. Vehicle collision avoidance system with enhanced pedestrian avoidance
US20160121487A1 (en) 2014-11-03 2016-05-05 Qualcomm Incorporated Communicating Configurable Instruction Sets to Robots for Controlling Robot Behavior
US9628477B2 (en) * 2014-12-23 2017-04-18 Intel Corporation User profile selection using contextual authentication
US20160188977A1 (en) * 2014-12-24 2016-06-30 Irobot Corporation Mobile Security Robot
CN104605859B (zh) * 2014-12-29 2017-02-22 北京工业大学 一种基于移动终端传感器的室内导航步态检测方法
CN104729507B (zh) * 2015-04-13 2018-01-26 大连理工大学 一种基于惯性传感器的步态识别方法
DE102015114883A1 (de) * 2015-09-04 2017-03-09 RobArt GmbH Identifizierung und Lokalisierung einer Basisstation eines autonomen mobilen Roboters
US20170139551A1 (en) 2015-11-16 2017-05-18 Bank Of America Corporation System for determining user interfaces to display based on user location

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003109001A (ja) 2001-09-27 2003-04-11 Ced System Inc 人物検出システム、及び人物検出プログラム
JP2006110072A (ja) * 2004-10-14 2006-04-27 Mitsubishi Heavy Ind Ltd 非接触歩行検出方法とシステム及び該システムを用いた個人認証方法とシステム
JP2007283434A (ja) * 2006-04-17 2007-11-01 Toyota Motor Corp 自律移動装置
JP2015016549A (ja) * 2010-05-20 2015-01-29 アイロボット コーポレイション 移動式ヒューマンインターフェースロボット

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210083094A (ko) * 2019-12-26 2021-07-06 주식회사 제타뱅크 이동 로봇 및 그 서비스 안내 방법

Also Published As

Publication number Publication date
US20190047147A1 (en) 2019-02-14
EP3479568A4 (en) 2020-02-19
EP3479568C0 (en) 2023-08-16
KR102361261B1 (ko) 2022-02-10
CA3028451A1 (en) 2018-01-04
EP3479568A1 (en) 2019-05-08
US11691289B2 (en) 2023-07-04
US20180001474A1 (en) 2018-01-04
CN109565574B (zh) 2022-03-01
US10016896B2 (en) 2018-07-10
CN109565574A (zh) 2019-04-02
WO2018005986A1 (en) 2018-01-04
JP2019522854A (ja) 2019-08-15
EP3479568B1 (en) 2023-08-16
JP6924782B2 (ja) 2021-08-25

Similar Documents

Publication Publication Date Title
KR102361261B1 (ko) 이동 바디들 주위의 로봇 행동을 위한 시스템들 및 방법들
KR102235003B1 (ko) 충돌 검출, 추정 및 회피
US10102429B2 (en) Systems and methods for capturing images and annotating the captured images with information
CA2950978C (en) Method for building a map of probability of one of absence and presence of obstacles for an autonomous robot
KR102577785B1 (ko) 청소 로봇 및 그의 태스크 수행 방법
KR20240063820A (ko) 청소 로봇 및 그의 태스크 수행 방법
JP2019500693A (ja) 自律視覚ナビゲーション
JP2010061484A (ja) 移動体および移動体の位置推定誤り状態からの復帰方法
KR20230134109A (ko) 청소 로봇 및 그의 태스크 수행 방법
JP7342664B2 (ja) ロボット、制御方法、およびプログラム
WO2019202878A1 (en) Recording medium, information processing apparatus, and information processing method
Chrzanowski et al. Intelligent Autonomous Robot Supporting Small Pets in Domestic Environment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant