KR20190082674A - 로봇이 볼 수 있는 비밀 식별 태그 및 로봇 장치 - Google Patents

로봇이 볼 수 있는 비밀 식별 태그 및 로봇 장치 Download PDF

Info

Publication number
KR20190082674A
KR20190082674A KR1020180172914A KR20180172914A KR20190082674A KR 20190082674 A KR20190082674 A KR 20190082674A KR 1020180172914 A KR1020180172914 A KR 1020180172914A KR 20180172914 A KR20180172914 A KR 20180172914A KR 20190082674 A KR20190082674 A KR 20190082674A
Authority
KR
South Korea
Prior art keywords
robot
indicia
marking
objects
spectrum
Prior art date
Application number
KR1020180172914A
Other languages
English (en)
Other versions
KR102244975B1 (ko
Inventor
프레이저 엠. 스미스
Original Assignee
사르코스 코퍼레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 사르코스 코퍼레이션 filed Critical 사르코스 코퍼레이션
Publication of KR20190082674A publication Critical patent/KR20190082674A/ko
Application granted granted Critical
Publication of KR102244975B1 publication Critical patent/KR102244975B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/90335Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06046Constructional details
    • G06K19/06131Constructional details the marking comprising a target pattern, e.g. for indicating the center of the bar code or for helping a bar code reader to properly orient the scanner or to retrieve the bar code inside of an image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06046Constructional details
    • G06K19/0614Constructional details the marking being selective to wavelength, e.g. color barcode or barcodes only visible under UV or IR
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10712Fixed beam scanning
    • G06K7/10722Photodetector array or CCD scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/10861Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices sensing of data fields affixed to objects or articles, e.g. coded labels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/12Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using a selected wavelength, e.g. to sense red marks and ignore blue marks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/49Protective device

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Toxicology (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Toys (AREA)

Abstract

시스템 및 방법은 인간에게 보이지 않거나 실질적으로 보이지 않지만, 로봇에게 인지되는 객체를 마킹하거나 식별하는 것을 포함한다. 이러한 마킹은 로봇에 의한 상호작용 및 내비게이션을 가능하게 할 수 있고, 로봇을 위한 기계 또는 로봇 가항적 환경을 생성할 수 있다. 기계 판독 가능한 표식은 로봇에 의해 인지되고 해석될 수 있는 심볼을 포함할 수 있다. 로봇은 표식을 보기 위해 이미지 센서가 있는 카메라를 이용할 수 있다. 게다가, 표식은 육안으로 보이지 않거나 실질적으로 보이지 않아서, 이러한 표식이 인간에게 불쾌한 환경을 조성하지 않으며, 인간에게 미학적으로 만족스러운 채로 유지될 수 있다. 예를 들어, 표식은 UV 광을 반사할 수 있고, 로봇의 이미지 센서는 UV 광을 검출할 수 있다. 따라서, 표식은 환경의 미학을 간섭하지 않으면서, 로봇에 의해 인지될 수 있다.

Description

로봇이 볼 수 있는 비밀 식별 태그 및 로봇 장치{COVERT IDENTIFICATION TAGS VIEWABLE BY ROBOTS AND ROBOTIC DEVICES}
아래 실시예들은 로봇을 위한 기계 또는 로봇 가항적 환경을 생성하는 기법에 관한 것이다.
로봇이 공간을 가로 질러 객체와 상호작용하는 것은 어려운 작업이 될 수 있다. 로봇은 로봇을 손상시킬 수 있거나 로봇에 의해 손상될 수 있는 장애물을 식별할 수 있어야 한다. 게다가, 로봇은 지침을 수행하기 위해 상호작용해야 하는 객체를 식별할 수 있어야 한다. 더욱이, 일부 객체는 냉동실과 냉장고 도어 사이의 차이 또는 스토브의 노브가 어느 버너와 일치하는지 등과 같은 상호작용에 위험 또는 어려움을 나타낼 수 있다.
기술 실시예들의 초기 개요가 아래에 제공되고, 그 다음에 특정 기술 실시예가 나중에 더 상세히 설명된다. 이 초기 요약은 독자가 기술을 더 빨리 이해할 수 있도록 돕기 위한 것이지만 기술의 핵심 기능이나 필수 기능을 식별하기 위한 것이 아니며 청구 대상의 범위를 제한하기 위한 것이 아니다.
여기서 개시되는 것은 인간에게 보이지 않거나(invisible) 실질적으로 보이지 않지만(substantially invisible), 로봇에게 인지 가능하거나(perceptible), 또는 기계-판독 가능한(machine-readable) 객체를 마킹하거나 식별하기 위한 시스템 및 방법이다. 이러한 마킹은 로봇에 의한 식별, 상호작용(interaction) 및 내비게이션을 가능하게(facilitate) 할 수 있으며, 로봇을 위한 기계 또는 로봇 가항적(navigable) 환경을 생성할 수 있다. 예로서, 이러한 객체는 아이템(예: 음료수)을 검색하는 등의 작업(task)을 완료하기 위해 로봇이 접근하고 상호작용하는 냉장고와 같은 가전일 수 있다. 따라서, 가전 또는 냉장고는 기계-판독 가능한 마킹, 라벨, 태그 또는 표식(indicia)를 구비할 수 있으며, 이는 가전을 냉장고로 식별할 수 있고, 따라서 기계 또는 로봇이 아이템을 검색하기 위해 객체와 상호작용할 수 있다. 여기서 사용되는 "표식(indicia)"이라는 용어는 하나 또는 하나 이상의 "표식(indicium)"을 의미한다. 더욱이, 표식은 로봇이 상호작용할 핸들과 같은 냉장고의 부분을 식별할 수 있다. 냉장고 핸들, 냉동기 핸들, 제빙기 디스펜서, 물 디스펜서, 다른 선반 또는 쓰레기통 등과 같이 냉장고의 다수의 다른 부분을 구별하기 위해 다수의(multiple) 다른 마킹, 라벨, 태그 또는 표식이 사용될 수 있다. 게다가, 표식은 또한 로봇이 객체와 어떻게 상호작용할지의 관점에서 로봇에 유용한 방향, 크기(magnitude) 또는 다른 파라미터를 나타낼 수 있다. 예를 들어, 표식은 도어가 어느 방향으로 열리는지, 도어를 여는데 얼마나 많은 힘이 가해져야 하는지, 수행될 회전 정도를 나타낼 수 있다.
기계 판독 가능한 표식은 로봇에 의해 인지 및 해석될 수 있지만 육안으로는 볼 수 없는 심볼을 포함할 수 있다. 일례로, 로봇은 표식을 보기 위해 이미지 센서를 갖는 카메라를 이용할 수 있다. 게다가, 표식은 육안으로 보이지 않거나 실질적으로 보이지 않아서 이러한 표식은 인간에게 불쾌한 환경을 조성하지 않으며, 인간에게 미학적으로 만족스러운 채로 남을 수 있다. 예를 들어, 표식은 UV 광을 반사할 수 있고, 로봇의 이미지 센서는 이러한 UV 광을 검출할 수 있다. 따라서, 표식은 환경의 미학을 간섭하지 않으면서 로봇에 의해 인지될 수 있다.
본 발명의 특징 및 이점은 본 발명의 특징을 예시적으로 도시하는 첨부된 도면과 함께 이하의 상세한 설명으로부터 명백해질 것이다.
도 1은 일 실시예에 따른, 로봇이 항해하고 상호작용할 수 있는 기계 가항적(machine navigable) 환경을 정의하는, 기계-판독 가능하지만(machine-readable), 인간-인지 불가능한(human-imperceptible), 표식(indicia)으로 마킹된 객체가 있는 공간의 개략적인 사시도이다.
도 2a는 일 실시예에 따른 도 1의 객체를 마킹하기 위한, 기계-판독 가능하지만, 인간-인지 불가능한, 라벨 또는 표식의 개략적인 정면도이며, 명료성을 위해 가시적으로 도시되어 있다.
도 2b는 일 실시예에 따른 도 1의 객체를 마킹하기 위한 라벨 또는 표식의 개략적인 정면도이며, 비가시성을 나타내는 방식으로 도시되어 있다.
도 3은 일 실시예에 따른 도 1의 객체를 마킹하기 위한 라벨 또는 표식의 개략적인 측면도이다.
도 4는 일 실시예에 따른 도 1의 객체를 마킹하기 위한 라벨 또는 표식의 개략적인 측 단면도이다.
도 5는 일 실시예에 따른 도 1의 객체의 개략적인 정면도이다.
도 6은 일 실시예에 따른 도 1의 객체의 개략적인 정면도이다.
도 7은 일 실시예에 따른 도 1의 객체의 개략적인 정면도이다.
도 8은 표식의 룩-업 테이블 또는 라이브러리의 개략도이다.
이제 도시된 실시예를 참조할 것이고, 특정 표현(language)이 여기서 동일하게 기술될 것이다. 그럼에도 불구하고, 본 발명의 범위를 제한하려는 의도는 없다는 것이 이해될 것이다.
여기에서 사용되는, "실질적으로(substantially)"라는 용어는 액션(action), 특성(characteristic), 속성(property), 상태(state), 구조(structure), 아이템(item) 또는 결과(result)의 완전하거나 거의 완전한 정도를 나타낸다. 예를 들어, "실질적으로" 둘러싸인 객체는 객체가 완전히 둘러싸이거나 거의 완전히 둘러싸여 있음을 의미할 수 있다. 절대적 완전성으로부터의 이탈의 정확한 허용 정도는 어떤 경우 특정 상황에 의존할 수 있다. 그러나 일반적으로 완성의 근접성은 절대적 완성과 전체 완성이 얻어진 것처럼 전반적인 결과가 같을 수 있다. "실질적으로"라는 용어의 사용은 액션, 특성, 속성, 상태, 구조, 아이템 또는 결과의 완전하거나 거의 완전한 부족을 언급하기 위해 부정적 의미로 사용되는 경우 동일하게 적용될 수 있다.
여기에서 사용되는, "인접한(adjacent)"이라는 용어는 두 개의 구조 또는 요소의 근접성을 지칭한다. 특히, "인접한" 것으로 식별된 요소는 인접하거나(abutting) 연결될(connected) 수 있다 . 이러한 요소들은 반드시 서로 접촉하지 않고 서로 가까이(near) 있거나 가까이(close) 있을 수 있다. 근접성의 정확한 정도는 어떤 경우 특정 상황에 의존할 수 있다.
여기에서 사용되는, "가시적(visible)"이라는 용어는 육안으로 볼 수 있고, 약 400 내지 750 나노미터의 파장을 갖는 가시 스펙트럼에서 빛으로 볼 수 있음을 의미한다.
여기에서 사용되는, "표식(indicia)"은 다르게 명시되지 않는 한, 표식(indicia) 및 표식(indicium)을 의미한다.
도 1은 일 실시예에 따른, 로봇(22)이 항해하고 상호작용할 수 있는 기계 가항적(machine navigable) 환경을 정의하는, 기계-판독 가능하지만(machine-readable), 인간-인지 불가능한(human-imperceptible), 표식(indicia, 18)으로 마킹된 예시적 객체(14)가 있는 공간(10)의 개략적인 사시도를 도시한다. 로봇(22)은 당업자가 이해하는 바와 같이 바퀴 및 모터, 원격-작동, 휴머노이드 로봇, 등과 같이 이동 가능하고 자체-추진될 수 있다. 로봇(22)은 객체를 파지 또는 결합하기 위해 그리퍼 또는 핑거 등을 갖는 하나 이상의 암(arm)을 구비할 수 있다. 게다가, 로봇(22)은 객체 및 환경을 보거나 감지하기 위한 이미지 센서가 있는 카메라(26)를 구비할 수 있다. 일 측면에서, 카메라(26) 또는 이미지 센서는 UV 스펙트럼에서 작동 가능할 수 있으며, UV 광을 보거나 감지할 수 있다. 게다가, 로봇(22)은 객체 및 환경을 조명하고 반사시키기 위해 자외선을 방출할 수 있는 자외선 광원(30)을 구비할 수 있다. 일 측면에서, 380 내지 200 나노미터 사이의 파장을 갖는 근 UV 광(NUV)을 UV 광원(30)은 방출할 수 있고, UV 카메라(26) 또는 그 이미지 센서는 검출할 수 있다.
객체(14)는 환경 또는 공간에 따라 다양할 수 있다. 일 측면에서, 환경 또는 공간(10)은 집 또는 부엌 일 수 있다. 따라서, 객체는 냉장고(14b), 레인지(14c) 또는 스토브 및 쿡탑, 마이크로파 오븐(14d), 식기세척기, 쓰레기 압축기 등과 같은 빌트-인 가전을 포함할 수 있다. 다른 측면에서, 객체는 블렌더, 밥솥, 야채 찜통, 도기 냄비, 압력솥 등과 같은 카운터탑 가전을 포함할 수 있다. 게다가, 객체는 핸들, 노브, 버튼, 액추에이터 등과 같은 인터페이스를 구비할 수 있다. 게다가, 객체는 벽(14f), 카운터 또는 아일랜드(14g) 등과 같은 로봇의 움직임 또는 액션에 대한 물리적 경계 또는 장벽일 수 있거나 이를 나타낼 수 있다. 게다가, 객체는 외부 윈도우(14h), 오븐 윈도우, 마이크로파 윈도우, 거울, 캐비닛의 유리 도어 등과 같은 로봇에 의해 객체의 데미지를 받는 물리적 경계 또는 장벽일 수 있거나 이를 나타낼 수 있다. 객체 등을 포함할 수 있다. 게다가, 계단 등과 같은 로봇에 위험한 물리적 경계 또는 장벽일 수 있거나 이를 나타낼 수 있다. 더욱이, 객체는 계단 의자(14i), 도어(14j) 등과 같이 빈번한 움직임을 겪는 물리적 경계 또는 장벽일 수 있거나 이를 나타낼 수 있다. 객체는 표면상으로 공간(10)을 향하고(face outwardly and into the space), 냉장고(14b)의 34b로 표시되고, 외부의, 외부로 향하는 표면(exterior, outfacing surface) 구비할 수 있다.
표식(18)은 외부의, 외부로 향하는 표면 상 등과 같이 객체(14) 상에 배치되어 운반될 수 있다. 일 측면에서, 표식(18)은 객체, 로봇과 객체의 상호작용, 환경 등과 관련된 정보를 포함할 수 있다. 예를 들어, 표식(18)은 객체, 객체의 인터페이스의 위치를 식별할 수 있거나, 물리적 경계 또는 장벽을 나타낼 수 있거나, 또는 직접적으로 특정 상호작용 정보를 포함할 수 있거나, 링크를 제공하는 것, 열거나 또는 열도록 하는 것, 또는 상기의 정보를 포함하는 컴퓨터 데이터베이스로의 다른 액세스 시작 표식과 같은, 이러한 상호작용 정보로의 액세스를 가능하게 하는 데이터베이스-관련 또는 링크(linking) 정보를 포함할 수 있고, 로봇(또는 오퍼레이터)는 로봇이 객체, 환경 등과 어떻게 상호작용할지 돕도록 설계된 정보를 획득하기 위해 컴퓨터 데이터베이스와 상호작용할 수 있다. 이 것은 아래에서 보다 상세히 설명된다.
여기서 사용되는 "상호작용 정보"라는 어구는, 하나 이상의 방법으로 객체와 상호작용하기 위해 로봇에 의해 필요하거나 유용한, 마킹 표식을 판독함으로써 촉진되어 로봇에 전달되는 정보를 의미할 수 있으며, 상호작용 정보는 로봇에 의한 객체와의 효율적이고 정확하며 유용한 상호작용을 가능하게 한다. 보다 구체적으로, 상호작용 정보는 로봇과 객체와의 소정의 의도된 상호작용과 관련된 정보, 및 하나 이상의 방법으로 객체와의 소정의 의도된 로봇 상호작용을 수행하는데 유용할 수 있는, 본 개시 내용을 읽은 당업자가 쉽게 알 수 있는 임의의 다른 유형의 정보를 포함할 수 있다. 상호작용 정보는 객체의 식별에 관련된 정보(예: 객체가 무엇인지, 객체의 제조사 또는 모델 등), 객체의 속성에 관한 정보(예: 객체의 재료 구성(material makeup), 크기, 형상, 구성(configuration), 방향, 무게, 구성 부품(component part), 표면 특성, 재료 특성 등에 관한 정보), 로봇이 객체, 또는 구성 부품 또는 객체의 요소(element)를 조작할 수 있는 특정 방법에 관한 컴퓨터 판독-가능 명령어(예: 객체 및 상호작용 방법(예: 이 작업이라면, 이 명령어)과 관련된 작업-기반 명령어 또는 알고리즘, 로봇이 객체와 상호작용할 수 있는 방법에 관한 정보(예: 방향, 크기(magnitude), 지속 시간(time duration) 등), 객체와 관련된 상대 정보(예: 환경과 관련된 객체에 관한 정보(예: 벽으로부터의 거리, 이동해야 할 위치 등) 또는 하나 이상의 다른 객체, 그 것의 위치에 관한 정보(예: GPS 또는 다른 네비게이션 정보에 기초한 좌표) 등), 다중 마킹 표식을 이용하는 작업에 관한 정보(예: 시퀀스의 식별을 포함할 수 있는 시퀀스 명령어, 다음 순서의 마킹 표식을 찾으러 갈 곳, 등)를 포함할 수 있으나, 이에 제한되지 않는다. 상호작용 정보의 본질(nature), 양(amount) 및 세부사항은 다양할 수 있으며, 로봇이 이미 알고 있는 것, 로봇이 자율적으로, 반-자율적으로 기능할지 의도되었는지, 또는 컴퓨터 프로그램 또는 인간 제어를 통한 완전하거나 부분적인 제어 하에 있을 것인지 등과 같은 로봇이 동작하는 방식과 같은 다양한 것들에 의존할 수 있다. 여기서 설명되고 식별되는 상호작용 정보는 어떠한 방식으로도 제한하려고 의도되지 않는다. 실제로, 당업자는 표식을 통해 작동되는 로봇 또는 로봇 장치 또는 로봇 또는 로봇 장치(robotic device)가 시스템(예: 오퍼레이터 또는 가상 환경에서 또는 가상 환경과 함께 동작하는 시스템)에 이용 가능하게 할 수 있는 다른 상호작용 정보를 인식할 수 있을 것이다. 이러한 상호작용 정보는 로봇, 로봇 장치 등이 임의의 주어진 객체와 상호작용하기 위해 필요하거나 요구될 수 있는 임의의 것일 수 있으며, 모든 가능한 시나리오가 여기서 식별되고 논의될 수 있는 것은 아님이 고려된다. 일 측면에서, 표식은 로봇 또는 그의 컴퓨터 프로세서에 의해 인식되고 이해되는 기계 언어를 나타낼 수 있다. 다른 측면에서, 표식은 룩-업 테이블 또는 라이브러리와 비교될 수 있는 코드 또는 숫자를 나타낼 수 있다. 따라서, 룩-업 테이블 또는 라이브러리는 상호작용 정보와 연관된 코드 또는 숫자를 포함할 수 있다. 일 측면에서, 룩-업 테이블 또는 라이브러리는 로봇 내부에 있을 수 있다. 다른 측면에서, 룩-업 테이블 또는 라이브러리는 로봇의 외부에 있을 수 있고, 로봇이 동작 중에 통신할 수 있다(예: 로봇에 의해 액세스 가능한 컴퓨터 네트워크 또는 클라우드 기반 시스템).
다른 예에서, 환경 또는 공간은 사무실일 수 있다. 따라서, 객체는 벽, 큐비클, 책상, 복사기 등을 포함할 수 있다. 다른 예에서, 환경 또는 공간은 산업 또는 제조 창고, 공장, 조선소 등일 수 있다. 게다가, 객체는 제품, 기계 등을 포함할 수 있다. 기본적으로, 여기서 라벨 또는 표식은 로봇이 동작 할 수 있는 임의의 가능한 환경에서 이용될 수 있고, 그러한 환경 내의 임의의 객체 또는 아이템 또는 구조적 요소에 이용될 수 있으며, 이들은 환경, 객체, 이들 서로 간의 상호작용 등과 관련된 임의의 유형의 정보를 포함할 수 있는 것으로 고려될 수 있다.
도 2a는 일 실시예에 따른 객체에 적용되도록 구성된 표식(indicia, 18)을 포함하는 라벨의 형태의 마커의 개략적인 정면도를 도시한다. 이와 같이, 마커는 마킹 표식을 지지하거나 운반할 수 있는 물리적 매체 또는 캐리어를 포함할 수 있다. 표식(18)은 육안으로 보이지 않게(인간-인지 불가능한, human-imperceptible) 구성되고 가시 광에 대해 실질적으로 투명하지만, 명료성을 위해 가시적인 것으로 도시된다. 도 2b는 라벨 및 표식(18)의 개략적인 정면도를 도시하지만, 육안으로 보이지 않고, 가시 광에 대한 실질적인 투명성을 나타내는 방식으로 도시되어 있다. 표식(18)은 기계-판독 가능(machine-readable)하다. 따라서, 표식(18)은 카메라(26) 또는 이미지 센서(또는 다른 센서 또는 검출기)에 의해 인지될 수 있고 로봇(22)에 의해 인식될 수 있는 심볼 또는 패턴(38) 또는 양자(both)를 포함할 수 있다. 일 측면에서, 표식(18)은 고유한 코드를 제공하기 위해 가변 두께 또는 간격을 갖는 일련의 평행선을 갖는 선형 또는 1차원 바코드, 또는 직사각형 또는 정사각형 도트의 패턴을 갖는 2 차원 맥시코드(MaxiCode) 또는 QR 코드이거나, 또는 이를 포함할 수 있다. 다른 측면에서, 표식은 심볼, 문자 및 심지어 화살표(42) 등을 포함할 수 있다. 다른 측면에서, 표식(18)은 무선 주파수 식별(RFID) 장치 또는 태그와 같은 능동 식별자와는 반대로 수동적일 수 있다.
게다가, 표식(18)은 도 2b에 도시된 바와 같이, 인간-인지 불가능하거나, 육안으로 보이지 않거나, 또는 실질적으로 보이지 않을 수 있다. 일 측면에서, 표식(18)은 가시 스펙트럼에서 보이지 않을 수 있고, 따라서 가시 광을 실질적으로 반사하지 않는다. 일 측면에서, 표식(18)은 투명하거나 반투명이어서, 가시 광이 실질적으로 이를 통과한다. 일 측면에서, 표시는 자외선일 수 있고, 태양과 같은 주변 광원으로부터 또는 로봇(22)의 UV 광원(30)으로부터 비춰진 자외선을 반사할 수 있다. 따라서, 표식(18)은 UV 스펙트럼에서 가시적일 수 있다. 그러므로, 표식(18)은 객체에 적용될 수 있고, 반투명 또는 투명하거나 가시 광에 대해 투명하게 인간의 눈에 보일 수 있으며, 따라서 객체의 미적 외관을 유지하기 위해 실질적으로 육안으로 인지되지 않을 수 있다. 그러나 표식(18)은, UV 스펙트럼에서와 같이, 로봇(22)의 카메라(16)에게 보일 수 있다.
표식은 가시 스펙트럼 외부에서 보일 수 있다. 일 측면에서, 표식은 적외선 또는 IR(근(near), 중간(mid) 및/또는 원(far))로 형광(fluoresce) 또는 가시화될 수 있다. 예를 들어, 객체는 IR 반사성이며 IR 스펙트럼에서 보이는 표식으로 마킹될 수 있다. 로봇은 IR 스펙트럼 및 IR 광원에서 동작 가능한 이미지 센서를 갖는 카메라를 구비할 수 있다. 다른 측면에서, 표식은 인간의 가청 범위를 벗어나는 파장의 무선 주파수 또는 소리일 수 있다. 예를 들어, 객체는 RF 반사성인 표식으로 마킹될 수 있고, 로봇은 RF 스펙트럼에서 동작 가능한 센서를 구비할 수 있다. 다른 예로서, 로봇은 초음파 방출기로 객체를 터치하고 특성 리턴 신호를 수신하거나, 내부 메커니즘이 식별을 제공하는 주어진 주파수에서 공진하도록 하는 소리를 방출할 수 있다. 따라서, 객체는 초음파 파장을 방출하는 표식으로 마킹될 수 있고, 로봇은 초음파 스펙트럼에서 작동 가능한 센서를 가질 수 있다.
도 1을 다시 참조하면, 레인지(14c)의 윈도우 또는 마이크로파(14d)의 윈도우 또는 외부 윈도우(14h)와 같은 객체(14)는 투명 부분(transparent portion)을 가질 수 있다. 표식(18)은 투명 부분 상에 배치 될 수 있고, 표식이 객체 또는 투명 부분의 동작을 방해하지 않도록 투명할 수 있다. 따라서, 윈도우(14h) 또는 레인지(14c) 또는 마이크로파(14d)의 투명 부분에 적용된 표식(18)은 윈도우 또는 투명 부분을 통한 뷰를 방해하지 않는다.
도 3은 객체(14)를 마킹하기 위한 라벨 또는 표식(18)의 측 단면도를 도시한다. 일 측면에서, 표식(18)은 객체(14)의 마감 표면(46) 상에 배치될 수 있다. 일 측면에서, 표식(18)은 객체(14)의 최 외측(outermost) 마감 표면(46)에 제거 가능하게 배치되거나 적용된 제거 가능한 라벨 또는 제거 가능한 아플리케(removable applique, 50)일 수 있거나 이를 포함할 수 있다. 예를 들어, 표식(18)은 라벨 또는 아플리케(50) 상에 인쇄될 수 있다. 아플리케(50)는 탈착 가능(releasable)하거나 영구적인(permanent) 접착제와 같은 것으로 객체의 마감 표면(46)에 부착될 수 있다. 따라서, 객체를 제조 및 공간으로 운송한 후에, 표식(18)은 기존의 공간에서 객체(14)에 적용될 수 있다. 표식(18) 또는 라벨(50)은 기존의 공간(10) 및 그 내부의 객체에 적용될 수 있다.
도 4는 객체(14)를 마킹하기 위한 라벨 또는 표식(18)의 측 단면도를 도시한다. 일 측면에서, 표식(18)은 객체(14)의 최 외측 마감 표면(46) 아래에 배치 될 수 있다. 예를 들어, 표식(18)은 인쇄 또는 페인팅에 의해 객체 상에 직접 배치 될 수 있고, 클리어 코트 등과 같은 최 외곽 마감 표면(46)이 표식(18) 위에 도포될 수 있다. 따라서, 표식(18)은 표식(18) 상에 배치된 외측(out layer, 46)을 갖는 라미네이트(laminate)이거나, 이를 포함할 수 있다. 일 측면에서, 외측(46)은 클리어 코트와 같이 가시광에 대해 투명하거나 반투명할 수 있다. 다른 측면에서, 외측(46)은 가시 광에 대해 불투명할 수 있다. 다른 측면에서, 외측(46)은 UV 광에 대해 투명하거나 반투명할 수 있다. 따라서, 물체의 마감된 외측(46)에 의해 덮여 있더라도, 표식(18)은 로봇(22) 또는 카메라(26) 또는 그것의 이미지 센서에서 보일 수 있다. 따라서, 객체의 미적 외관이 유지될 수 있다. 게다가, 표식(18)은 제조 동안 및 제조 장소에서 객체에 도포될 수 있다.
다른 예에서, 표식은 캐리어 매체(예를 들어, 라벨과 같은)를 사용하지 않고 객체에 직접 적용될 수 있다. 일 예시에서, 표식은 적절한 잉크를 사용하여 객체 상에 인쇄함으로써 적용될 수 있다. 특정 파장에서 형광을 내는 잉크와 같이 다양한 종류의 잉크를 사용될 수 있다.
다른 측면에서, 표식은 객체의 생산 중에 적용되거나 도장(painted)될 수 있다. 일 측면에서, 전체 객체는 형광 페인트 또는 커버링으로 도장될 수 있고, 표식은 도장되지 않은 또는 커버되지 않은 부분에 의해 형성될 수 있다. 다른 측면에서, 표식 또는 객체는 다른 화학 물질이 페인트에 적용될 때 형광성이 될 수 있는 페인트를 포함할 수 있다.
다른 측면에서, 형광성 마커가 사용될 수 있다. 예를 들어, 형광성 마커는 형광 도핑된 실리카(fluorescently doped silicas) 및 졸-겔(sol-gels), 친수성 폴리머(hydrophilic polymers, 하이드로 겔(hydrogels)), 소수성 유기 폴리머(hydrophobic organic polymers), 반도체 도트(semiconducting polymer dots), 양자 도트(quantum dots), 탄소 도트(carbon dots), 기타 탄소질 나노 물질(carbonaceous nanomaterials), 상향 변환 NP(upconversion NPs), 귀금속 NP(noble metal NPs, 주로 금 및 은), 다양한 기타 나노물질(nanomaterials) 및 덴드리머(dendrimers)를 포함할 수 있다.
다른 측면에서, 표식은 부착된 부분(piece)의 일부일 수 있다. 예를 들어, 표식은 객체에 기계적으로 고정되거나 화학적으로 부착되는 핸들 또는 트림에 있을 수 있다. 다른 예로서, 표식은 핸들, 트림 또는 다른 부분의 중합체(polymer)로 성형될(molded) 수 있다.
도 5는 일 실시예에 따른 객체, 다시 말해 냉장고(14b)의 개략적인 정면도를 도시한다. 객체(14b)는 하나 이상의 핸들(54) 또는 하나 이상의 버튼, 노브 또는 액추에이터(58)와 같은 인터페이스를 구비할 수 있다. 게다가, 객체(14b)는 다수의(multiple) 라벨 또는 표식(18)를 구비할 수 있다. 일 측면에서, 표식(18)은 객체(14b)를 냉장고로 식별한다. 다른 측면에서, 다른 표식(62 및 64)는 각각 인터페이스 또는 핸들(54) 또는 액추에이터(58)의 위치를 식별할 수 있다. 따라서, 객체(14b)는 단일 객체의 상이한 부분들(54 및 58) 및 이들과 어떻게 상호 작용하는지에 대한 정보를 식별하는, 단일 객체의 다른 부분들 상에 다수의 다른 표식(18, 62, 64)을 가질 수 있다. 상술된 것처럼, 표식(18)은 인터페이스의 위치를 나타내기 위한 화살표(42)(도 2a 및 도 2b)를 포함할 수 있다. 표식(62 및 64)은 화살표(42)가 인터페이스의 근위에 있도록 객체의 인터페이스 또는 핸들(54) 및 액추에이터(58)에 인접하여 배치되거나 위치될 수 있다. 게다가, 표식은 인터페이스 또는 핸들의 조작 방향(예: 바깥쪽으로, 안쪽으로, 아래쪽으로, 오른쪽으로 또는 왼쪽으로), 또는 인터페이스를 작동하는데 필요한 힘의 크기 또는 제한과 같은 다른 정보를 포함할 수 있거나, 다른 정보(상호작용 정보)로의 액세스를 가능하게 할 수 있다. 예를 들어, 도 5의 표식(62)은 객체(14b)가 냉장고인 것을 나타내거나, 나타내는 정보로의 액세스를 가능하게 할 수 있고, 도어를 열기 위해 10-20 파운드의 힘이 필요하고, 가해지는 힘이 30 파운드를 초과해서는 안되며, 도어가 오른쪽으로 열려야 하거나 도어가 최대로 회전하는 각도가 120도를 초과해서는 안되거나, 또는 두 가지 모두 충족되어야 하는 핸들(54)의 위치를 식별할 수 있다. 이러한 정보는 로봇이 작업을 완료하는데 필요한 계산 시간 및 계산 능력을 감소시킬 수 있으며, 객체와 상호 작용하기 위해 유용하거나 필요한 특정 측면을 학습할 필요성을 줄일 수 있다.
표식(18, 62, 64)은 객체(14c)의 둘레(perimeter, 68) 또는 외측 둘레(lateral perimeter) 내에 위치하거나 배치될 수 있다. 다른 측면에서, 표식(72)은 객체의 경계를 식별하는 것을 돕기 위해 객체(14c)의 둘레(68) 또는 외측 둘레에 배치될 수 있다. 표식(72)은 객체의 둘레를 실질적으로 둘러쌀(substantially circumscribe) 수 있다.
도 6은 일 실시예에 따른 인터페이스, 다시 말해 드나드는 개구(opening, 80)를 갖는 객체, 다시 말해 출입구(78)의 개략적인 정면도를 도시한다. 표식(82)은 벽 또는 출입구(doorway, 78)를 식별하고, 그 인터페이스 또는 개구(80) 및 다른 관련 정보를 나타내기 위해, 벽(14f) 상에 배치될 수 있다. 표식(82)은 그 둘레에서 개구(80)에 인접하거나 그 부근에 위치할 수 있다.
유사하게, 도 7은 일 실시예에 따른 인터페이스, 다시 말해 도어노브(doorknob, 88)를 갖는 객체, 다시 말해 도어(86)의 개략적인 정면도를 도시한다. 표식(90)은 도어를 식별하고, 그 인터페이스 또는 도어노브(88) 및 다른 관련 정보를 나타내기 위해, 도어(86) 상에 배치될 수 있다. 그렇게 하기 위해, 표식(90)은 각각 인터페이스 또는 도어노브(90)에 인접하거나 그 부근에 위치할 수 있다. 또한, 표식(90)은 객체 또는 도어의 조작 방향(예: 안쪽으로, 바깥쪽으로, 왼쪽으로, 오른쪽으로), 인터페이스 또는 도어노브의 작동 방향(예: 시계 방향 또는 반 시계 방향), 도어나 도어노브를 여는데 필요한 힘 등을 나타내거나, 나타낼 수 있는 정보로의 액세스를 가능하게 할 수 있다.
도 8은 룩-업 테이블(100) 또는 표식(18)에 대응하는 정보의 라이브러리의 개략도를 도시하며, 룩-업 테이블(100) 또는 정보의 라이브러리는 컴퓨터 데이터베이스에 저장될 수 있고, 당 업계에 알려진 하나 이상의 방법을 통해 로봇에 의해 액세스 가능하다. 상술된 것처럼, 표식(18)은 객체, 객체의 인터페이스의 위치를 식별하거나 식별 가능하게 할 수 있고, 물리적 경계 또는 장벽을 표시하거나 표시 가능하게 할 수 있고, 로봇 상호작용(또는 상호작용 정보 또는 명령)에 관한 정보로의 액세스를 포함하거나 가능하게 할 수 있다.
상술된 것처럼, 일 측면에서, 표식(18)은 단일 객체 상에 다수의 표식(18)를 포함할 수 있다. 다른 측면에서, 표식(18)은 일련의 객체 또는 단일 객체 상에 일련의 표식을 포함할 수 있다. 따라서, 표식(18)은 시리즈 내의 그 것의 위치를 나타내기 위한 일련의 식별자를 포함할 수 있다. 일련의 표식은 로봇이 연속적으로(series) 또는 순차적으로(sequence) 상호 작용해야 하는, 일련의 객체 또는 하나 이상의 객체의 측면(aspects)에 해당할 수 있다. 예를 들어, 제1 표식은 냉장고 도어와 연관될 수 있고, 일련의 표식에서 제1 표식임을 나타내는 표식을 포함할 수 있고, 제2 표식은 냉장고의 서랍과 관련될 수 있고, 일련의 표식에서 제2 표식임을 나타내는 표식을 포함할 수 있고, 제3 표식은 서랍 내의 컨테이너와 관련될 수 있고, 일련의 표식에서 제3 표식임을 나타내는 표식을 포함할 수 있다. 따라서, 로봇이 냉장고 도어를 열고, 서랍을 통해 컨테이너를 보면, 제3 표식을 보게 되고, 로봇은 순서 상 스킵(skip)이 있었음을 알 수 있고 제2 표식을 찾아야 한다는 것을 알게 된다. 이러한 표식의 순서는 로봇이 올바른 작업을 수행하는 것을 도울 수 있으며, 또한 객체와 로봇에 안전을 제공할 수 있다.
다른 측면에서, 표식은 추가 명령어를 제공할 수 있다. 예를 들어, 표식은 객체와 상호 작용하는데 필요한 센서를 켜도록 로봇에게 명령하는 명령어를 나타낼 수 있다.
로봇(22)을 위한 기계 가항적 환경을 생성하기 위한 방법은, 상술된 것처럼, 로봇(22)이 동작할(예: 집 또는 주방) 원하는(desired) 공간(10)을 식별하는 단계; 공간(10)에 위치하거나 위치할 하나 이상의 객체(예: 냉장고 14d)를 선택하는 단계; 기계-판독 가능하고 인간-인지 불가능한 표식(18)으로 하나 이상의 객체(14)를 마킹하는 단계; 및 로봇(22)을 공간(10) 안으로 도입(introducing)하는 단계를 포함한다. 로봇(22)은 공간(10) 내에서 이동 가능하고, 로봇(22)은 표식(18)을 인지할 수 있는 센서(26)를 구비한다. 실제로, 냉장고(14b)로부터 음료를 얻는 것과 같이, 로봇(22)에 주어질 하나 이상의 원하는 또는 가능한 작업이 식별될 수 있다. 게다가, 원하는 또는 가능한 작업에 대응하는 하나 이상의 객체(14b)가 식별될 수 있다. 더욱이, 하나 이상의 객체(14b) 중 적어도 하나를 포함하는 명령이 로봇(22)에 주어질 수 있다.
도면에 도시된 예시가 참조되었고, 특정 표현이 동일한 것을 설명하기 사용되었다. 그럼에도 불구하고, 기술 범위에 대한 제한이 의도되지 않는다는 것이 이해될 수 있다. 여기에 도시된 특징의 개조 및 추가 변형 및 여기서 도시된 예시들의 부가적인 적용은 설명의 범위 내에서 고려되어야 한다.
여기서 설명된 일부 실시예 또는 특징이 여기서 설명된 다른 실시예 또는 특징과 결합될 수 있다는 것을 명시적으로 밝히지는 않을지라도, 본 개시는 당업자가 실시할 수 있는 그러한 임의의 조합을 설명하는 것으로 읽혀야 한다. 본원에서 "또는"의 사용은 달리 명시되지 않는 한 비 배타적인, 즉 "및/또는"을 의미하는 것으로 이해되어야 한다.
더욱이, 설명 된 특징, 구조 또는 특성은 하나 이상의 예에서 임의의 적절한 방식으로 결합될 수 있다. 상술된 것처럼, 설명된 기술의 예에 대한 철저한 이해를 제공하기위한 다양한 구성 예와 같은 다수의 구체적인 세부 사항이 제공되었다. 그러나, 이 기술은 하나 이상의 특정 세부 사항없이, 또는 다른 방법, 구성 요소, 장치 등과 함께 실시 될 수 있다는 것을 인식할 것이다. 다른 경우에, 기술의 모호한 측면을 피하기 위해 잘 알려진 구조 또는 동작은 상세히 도시되거나 기술되지 않는다.
비록 구성이 구조적 특징들 및/또는 동작들에 특정한 언어로 기술되었지만, 첨부된 청구항들에 정의된 구성이 반드시 상술 한 특정 특징들 및 동작들에 반드시 제한되는 것은 아니라는 것을 이해해야 한다. 오히려, 상술된 특정한 특징 및 동작은 청구범위를 구현하는 예시적인 형태로서 개시된다. 설명된 기술의 사상 및 범위를 벗어나지 않으면서 다양한 변형 및 대안적인 방식이 고안될 수 있다.

Claims (54)

  1. 로봇을 위한 기계 가항적(machine navigable) 환경을 생성하기 위한 방법에 있어서,
    상기 로봇이 동작할 원하는 공간(desired space)을 식별하는 단계;
    상기 공간에 위치하거나 위치할 하나 이상의 객체를 선택하는 단계;
    기계-판독 가능하고(machine-readable) 인간-인지 불가능한(human-imperceptible) 표식(indicia)으로 상기 하나 이상의 객체를 마킹하는 단계; 및
    상기 로봇을 상기 공간 안으로 도입하는 단계
    를 포함하고,
    상기 로봇은 상기 공간 내에서 이동 가능하고, 상기 로봇은 상기 표식을 인지할 수 있는 센서를 구비하는, 방법.
  2. 제1항에 있어서,
    상기 표식은 상기 로봇이 상기 객체와 상호작용하도록 돕는 상호작용 정보를 포함하는, 방법.
  3. 제1항에 있어서,
    상기 표식은 컴퓨터 데이터베이스에 저장된 상호작용 정보에 대한 액세스를 가능하게 하는, 방법.
  4. 제1항에 있어서,
    상기 표식으로 상기 하나 이상의 객체를 마킹하는 단계는
    상기 하나 이상의 객체를 UV 반사성이고 UV 스펙트럼에서 가시적인 표식으로 마킹하는 단계를 더 포함하고,
    상기 로봇은 상기 UV 스펙트럼에서 동작 가능한 이미지 센서가 있는 카메라 및 UV 광원을 구비하는, 방법.
  5. 제1항에 있어서,
    상기 하나 이상의 객체를 마킹하는 단계는
    상기 공간 내를 향하는 상기 객체의 외부의, 외부로 향하는 표면(external, outfacing surface) 상에 상기 표식을 적용하는 단계를 더 포함하는, 방법.
  6. 제1항에 있어서,
    상기 하나 이상의 객체를 마킹하는 단계는
    상기 객체의 마감 표면(finished surface) 상에 상기 표식을 적용하는 단계를 더 포함하는, 방법.
  7. 제1항에 있어서,
    상기 하나 이상의 객체를 마킹하는 단계는
    상기 객체의 최 외측 마감 표면(outermost finished surface)에 상기 표식이 있는 제거 가능한 아플리케(removable applique)를 적용하는 단계를 더 포함하는, 방법.
  8. 제1항에 있어서,
    상기 하나 이상의 객체를 마킹하는 단계는
    상기 객체의 최 외측 마감 표면(outermost finished surface) 아래에 상기 표식을 배치하는 단계를 더 포함하는, 방법.
  9. 제1항에 있어서,
    상기 표식은 상기 표식 상에 배치된 외층(outer layer)이 있는 라미네이트 내에 배치되고, 상기 외층은 가시광에 대해 불투명한, 방법.
  10. 제1항에 있어서,
    상기 하나 이상의 객체를 마킹하는 단계는
    상기 하나 이상의 객체를 가시광에 대해 투명한 표지로 마킹하는 단계를 더 포함하는, 방법.
  11. 제1항에 있어서,
    상기 하나 이상의 객체를 선택하는 단계는 투명 객체(transparent object)를 선택하는 단계를 더 포함하고,
    상기 하나 이상의 객체를 마킹하는 단계는 상기 객체의 투명성을 방해하지 않으면서 상기 투명 객체 상에 상기 표식을 적용하는 단계를 더 포함하는, 방법.
  12. 제1항에 있어서,
    상기 표식은 상기 객체를 식별하는, 방법.
  13. 제1항에 있어서,
    상기 표식은 상기 객체의 인터페이스의 위치를 식별하는, 방법.
  14. 제1항에 있어서,
    상기 표식은 상기 객체의 인터페이스의 위치 및 상기 인터페이스의 동작의 방향을 식별하는, 방법.
  15. 제1항에 있어서,
    상기 하나 이상의 객체를 마킹하는 단계는
    상기 객체의 둘레(perimeter) 내의 객체를 마킹하는 단계를 더 포함하는, 방법.
  16. 제1항에 있어서,
    상기 하나 이상의 객체를 마킹하는 단계는
    상기 객체의 인터페이스에 인접한(adjacent) 객체를 마킹하는 단계를 더 포함하는, 방법.
  17. 제1항에 있어서,
    상기 하나 이상의 객체를 마킹하는 단계는
    상기 객체의 둘레(perimeter)를 실질적으로 둘러싸는(substantially circumscribing) 객체를 마킹하는 단계를 더 포함하는, 방법.
  18. 제1항에 있어서,
    상기 표식으로 상기 하나 이상의 객체를 마킹하는 단계는
    단일 객체의 다른 부분들을 식별하기 위해 상기 단일 객체의 다른 부분들 상에 다수의 다른 표식들로 상기 하나 이상의 객체의 상기 단일 객체를 마킹하는 단계를 더 포함하는, 방법.
  19. 제1항에 있어서,
    상기 하나 이상의 객체를 선택하는 단계는 상기 로봇의 움직임 또는 액션에 대한 물리적 경계 또는 장벽을 나타내는 객체를 선택하는 단계를 더 포함하고,
    상기 하나 이상의 객체를 마킹하는 단계는 상기 물리적 경계 또는 장벽을 나타내도록 상기 객체를 마킹하는 단계를 더 포함하는, 방법.
  20. 제1항에 있어서,
    상기 하나 이상의 객체를 선택하는 단계는 상기 로봇에 의해 상기 객체의 데미지를 받는 물리적 경계 또는 장벽을 나타내는 객체를 선택하는 단계를 더 포함하고,
    상기 하나 이상의 객체를 마킹하는 단계는 상기 물리적 경계 또는 장벽을 나타내도록 상기 객체를 마킹하는 단계를 더 포함하는, 방법.
  21. 제1항에 있어서,
    상기 하나 이상의 객체를 선택하는 단계는 상기 로봇의 데미지를 받는 물리적 경계 또는 장벽을 나타내는 객체를 선택하는 단계를 더 포함하고,
    상기 하나 이상의 객체를 마킹하는 단계는 상기 물리적 경계 또는 장벽을 나타내도록 상기 객체를 마킹하는 단계를 더 포함하는, 방법.
  22. 제1항에 있어서,
    상기 하나 이상의 객체를 선택하는 단계는 빈번한 움직임을 겪는 물리적 경계 또는 장벽을 나타내는 객체를 선택하는 단계를 더 포함하고,
    상기 하나 이상의 객체를 마킹하는 단계는 상기 물리적 경계를 나타내도록 상기 객체를 마킹하는 단계를 더 포함하는, 방법.
  23. 제1항에 있어서,
    로봇에게 주어질 원하는(desired) 또는 가능한(probable) 작업을 식별하는 단계; 및
    상기 원하는 또는 가능한 작업에 대응하는 하나 이상의 객체를 식별하는 단계
    를 더 포함하는, 방법.
  24. 제1항에 있어서,
    상기 하나 이상의 객체들의 적어도 하나를 포함하는 명령어를 상기 로봇에 제공하는 단계를 더 포함하는 방법.
  25. 제1항에 있어서,
    상기 표식으로 상기 하나 이상의 객체를 마킹하는 단계는
    상기 하나 이상의 객체를 IR 반사성이고 IR 스펙트럼에서 가시적인 표식으로 마킹하는 단계를 더 포함하고,
    상기 로봇은 상기 IR 스펙트럼에서 동작 가능한 이미지 센서가 있는 카메라 및 IR 광원을 구비하는, 방법.
  26. 제1항에 있어서,
    표식으로 상기 하나 이상의 객체를 마킹하는 단계는
    상기 하나 이상의 객체를 RF 반사성인 표식으로 마킹하는 단계를 더 포함하고,
    상기 로봇은 상기 RF 스펙트럼에서 동작 가능한 센서를 구비하는, 방법.
  27. 제1항에 있어서,
    상기 표식으로 상기 하나 이상의 객체를 마킹하는 단계는
    상기 하나 이상의 객체를 초음파 파장(ultrasonic wavelengths)을 방출하는 표식으로 마킹하는 단계를 더 포함하고,
    상기 로봇은 상기 초음파 스펙트럼에서 동작 가능한 센서를 구비하는, 방법.
  28. 기계 가항적(machine navigable) 환경을 정의하는 공간에서 센서를 갖는 로봇과 함께 사용하도록 구성된 객체에 있어서,
    표면; 및
    상기 표면 상에 배치되고, 상기 로봇의 상기 센서에 의해 기계-판독 가능하고(machine-readable) 인간-인지 불가능한(human-imperceptible) 표식(indicia)
    을 포함하고,
    상기 표식은 상기 객체를 식별하고, 상기 객체와 상기 로봇의 상호작용에 관한 정보를 포함하는, 객체.
  29. 제28항에 있어서,
    상기 표식은 상기 로봇이 상기 객체와 상호작용하는 방법을 적어도 부분적으로 나타내는 상호작용 정보를 포함하는, 객체.
  30. 제28항에 있어서,
    상기 상호작용 정보는 나중에 상기 로봇에 전달되도록 컴퓨터 데이터베이스에 저장되는, 객체.
  31. 제28항에 있어서,
    상기 표식은 UV 스펙트럼에서 가시적이고, 상기 로봇은 상기 UV 스펙트럼에서 동작 가능한 이미지 센서가 있는 카메라 및 UV 광원을 구비하는, 객체.
  32. 제28항에 있어서,
    상기 표식은 상기 객체의 마감 표면(finished surface) 상에 배치되는, 객체.
  33. 제28항에 있어서,
    상기 표식은 상기 객체의 최 외측 마감 표면(outermost finished surface)에 제거 가능하게 배치된 아플리케(applique)를 포함하는, 객체.
  34. 제28항에 있어서,
    상기 표식은 상기 객체의 최 외측 마감 표면(outermost finished surface) 아래에 배치되는, 객체.
  35. 제28항에 있어서,
    상기 표식은 상기 표식 상에 배치된 외층(outer layer)이 있는 라미네이트를 포함하고, 상기 외층은 가시광에 대해 불투명한, 객체.
  36. 제28항에 있어서,
    상기 표식은 가시광에 대해 투명한, 객체.
  37. 제28항에 있어서,
    투명 부분(transparent portion)을 더 포함하고,
    상기 표식은 상기 부분의 투명성을 방해하지 않으면서 상기 투명 부분 상에 배치되는, 객체.
  38. 제28항에 있어서,
    상기 표식은 상기 객체의 인터페이스의 위치 및 상기 인터페이스의 동작의 방향을 식별하는, 객체.
  39. 제28항에 있어서,
    상기 표식은 상기 객체의 둘레(perimeter) 내에 배치되는, 객체.
  40. 제28항에 있어서,
    상기 표식은 상기 객체의 인터페이스의 인접하여(adjacent) 배치되는, 객체.
  41. 제28항에 있어서,
    상기 표식은 상기 객체의 둘레(perimeter)를 실질적으로 둘러싸는 (substantially circumscribing), 객체.
  42. 제28항에 있어서,
    상기 표식은 단일 객체의 다른 부분들 상에 상기 단일 객체의 상기 다른 부분들을 식별하는 다수의 다른 표식들을 더 포함하는, 객체.
  43. 제28항에 있어서,
    상기 객체는 상기 로봇의 움직임 또는 동작에 대한 물리적 경계 또는 액션에 대한 물리적 경계 또는 장벽을 나타내고,
    상기 표식은 상기 물리적 경계 또는 장벽을 지시하는, 객체.
  44. 상기 객체는 상기 로봇에 의해 상기 객체의 데미지를 받는 물리적 경계 또는 장벽을 나타내고,
    상기 표식은 상기 물리적 경계 또는 장벽을 지시하는, 객체.
  45. 제28항에 있어서,
    상기 객체는 상기 로봇의 데미지를 받는 물리적 경계 또는 장벽을 나타내고,
    상기 표식은 상기 물리적 경계 또는 장벽을 지시하는, 객체.
  46. 제28항에 있어서,
    상기 객체는 빈번한 움직임을 겪는 물리적 경계 또는 장벽을 나타내고,
    상기 표식은 상기 물리적 경계 또는 장벽을 지시하는, 객체.
  47. 제28항에 있어서,
    상기 표식은 IR 스펙트럼에서 가시적이고, 상기 로봇은 상기 IR 스펙트럼에서 동작 가능한 이미지 센서가 있는 카메라 및 IR 광원을 구비하는, 객체.
  48. 제28항에 있어서,
    상기 표식은 RF 반사성이고, 상기 로봇은 상기 RF 스펙트럼에서 동작 가능한 센서를 구비하는, 객체.
  49. 제28항에 있어서,
    상기 표식은 초음파 파장(ultrasonic wavelengths)을 방출하고, 상기 로봇은 상기 초음파 스펙트럼에서 동작 가능한 센서를 구비하는, 객체.
  50. 기계-판독 가능한(machine-readable) 마커에 있어서,
    인간-인지 불가능한(human-imperceptible) 마킹 표식(marking indicia)
    를 포함하고,
    상기 마킹 표식은 객체에 적용되도록 설정되고, 상기 객체와의 로봇 상호작용에 관한 정보를 포함하는, 기계-판독 가능한 마커.
  51. 제50항에 있어서,
    상기 정보는 상기 로봇이 상기 객체와 상호작용하도록 돕는 상호작용 정보를 포함하는, 기계-판독 가능한 마커.
  52. 제50항에 있어서,
    상기 정보는 컴퓨터 데이터베이스에 저장된 상호작용 정보에 대한 액세스를 가능하게 하는 링크를 포함하고, 상기 상호작용 정보는 상기 로봇이 상기 객체와 상호작용하도록 돕는, 기계-판독 가능한 마커.
  53. 링크 정보(linking information)를 포함하고, 로봇이 동작하는 환경 내의 객체와 관련된 인간-인지 불가능한 표식(human-imperceptible indicia);
    상기 인간-인지 불가능한 표식 및 상기 링크 정보를 감지하도록 동작하는 적어도 하나의 센서를 구비하는 로봇; 및
    상기 링크 정보와 관련되고, 상기 로봇의 상기 객체와의 소정의 의도된 상호작용에 관한 것인, 상기 로봇에 의해 접근 가능한 데이터베이스에 저장된 상호작용 정보
    를 포함하고,
    상기 링크 정보는 상기 로봇에 의한 상기 데이터베이스 및 상기 상호작용 정보로의 액세스가 가능하도록 동작하고, 상기 상호작용 정보는 상기 로봇이 상기 소정의 의도된 상호작용에 따라 상기 객체와 상호작용하게 명령하도록 동작하는, 로봇 시스템(robotic system).
  54. 로봇이 동작하는 환경 내의 객체와 관련되어, 상기 로봇의 상기 객체와의 소정의 의도된 상호작용과 직접적으로 관련된 상호작용 정보를 포함하는 인간-인지 불가능한 표식(human-imperceptible indicia); 및
    상기 인간-인지 불가능한 표식 및 상기 상호작용 정보를 감지하도록 동작하는 적어도 하나의 센서를 구비하는 상기 로봇
    을 포함하고,
    상기 상호작용 정보는 상기 로봇이 상기 소정의 의도된 상호작용에 따라 상기 객체와 상호작용하게 명령하도록 동작하는, 로봇 시스템(robotic system).
KR1020180172914A 2017-12-31 2018-12-28 로봇이 볼 수 있는 비밀 식별 태그 및 로봇 장치 KR102244975B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/859,618 US11413755B2 (en) 2017-12-31 2017-12-31 Covert identification tags viewable by robots and robotic devices
US15/859,618 2017-12-31

Publications (2)

Publication Number Publication Date
KR20190082674A true KR20190082674A (ko) 2019-07-10
KR102244975B1 KR102244975B1 (ko) 2021-04-27

Family

ID=65036577

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180172914A KR102244975B1 (ko) 2017-12-31 2018-12-28 로봇이 볼 수 있는 비밀 식별 태그 및 로봇 장치

Country Status (4)

Country Link
US (1) US11413755B2 (ko)
EP (2) EP3508939A1 (ko)
JP (1) JP6901463B2 (ko)
KR (1) KR102244975B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021221343A1 (ko) * 2020-04-29 2021-11-04 주식회사 트위니 실내 이동 로봇이 엘리베이터에서 환경을 인식하기 위한 장치 및 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체 및 이를 구현하기 위해 매체에 저장된 컴퓨터프로그램
KR20220114147A (ko) * 2021-02-08 2022-08-17 네이버랩스 주식회사 로봇 이동을 위한 가이드 장치

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10078908B2 (en) * 2016-08-12 2018-09-18 Elite Robotics Determination of relative positions
US11413755B2 (en) 2017-12-31 2022-08-16 Sarcos Corp. Covert identification tags viewable by robots and robotic devices
WO2020256179A1 (ko) * 2019-06-18 2020-12-24 엘지전자 주식회사 공간 인식을 위한 마커, 공간을 인식하여 카트로봇을 정렬하고 이동시키는 방법 및 카트로봇
JP7248900B2 (ja) * 2019-06-28 2023-03-30 サミー株式会社 弾球遊技機
JP7248899B2 (ja) * 2019-06-28 2023-03-30 サミー株式会社 弾球遊技機
US11192248B2 (en) 2019-07-11 2021-12-07 Invia Robotics, Inc. Predictive robotic obstacle detection
US11511423B2 (en) 2020-03-31 2022-11-29 Uvd Robots Aps Method of plotting ultraviolet (UV) radiation for disinfection
WO2022010944A1 (en) * 2020-07-04 2022-01-13 Sarcos Corp. Augmented reality system and method for conveying to a human operator information associated with human-imperceptible indicia within an operating environment of a robot
GB2599159A (en) * 2020-09-28 2022-03-30 Mastercard International Inc Location determination
DE102022109047A1 (de) 2022-04-13 2023-10-19 B-Horizon GmbH Verfahren zum automatischen Anpassen des Verhaltens eines mobilen Benutzerendgeräts, insbesondere zur Messung von Druck, Gas und/oder Feuchtigkeit auf Basis einer Umgebungsfeuchtigkeit

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63116286A (ja) * 1986-11-05 1988-05-20 Nippon Shashin Insatsu Kk 透明バ−コ−ド
WO2002023297A1 (fr) * 2000-09-11 2002-03-21 Kunikatsu Takase Systeme de commande de mouvement de corps mobiles
JP2007233533A (ja) * 2006-02-28 2007-09-13 Dainippon Printing Co Ltd Icタグの取付構造
JP2008264901A (ja) * 2007-04-17 2008-11-06 Ihi Corp 移動ロボット及びその自動連結方法、並びにパラレルリンク機構の駆動制御方法
JP2013025351A (ja) * 2011-07-15 2013-02-04 Hitachi Industrial Equipment Systems Co Ltd 位置・姿勢推定可能な移動体システム及び自律移動ロボットシステム
KR20170009103A (ko) * 2015-07-15 2017-01-25 (주) 한호기술 자율주행로봇 및 이의 네비게이션 방법

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6062907A (ja) 1983-09-17 1985-04-11 甲陽建設工業株式会社 芝刈りロボツト
WO1992020748A1 (en) 1991-05-17 1992-11-26 Dai Nippon Printing Co., Ltd. Invisible ink composition, invisible printed matter, and invisible printing application system
US20020158921A1 (en) 2001-04-30 2002-10-31 Silverstein D. Amnon Method and apparatus for virtual oversized display using a small panel display as a movable user interface
EP1606121A4 (en) 2003-03-27 2010-05-05 Graphic Security Systems Corp SYSTEM AND METHOD FOR AUTHENTICATING OBJECTS
CA2469598A1 (en) * 2004-06-01 2005-12-01 Daniel W. Onischuk Computerized voting system
US7407106B2 (en) * 2004-09-28 2008-08-05 Microsoft Corporation Method and system for hiding visible infrared markings
JP4718987B2 (ja) * 2005-12-12 2011-07-06 本田技研工業株式会社 インターフェース装置およびそれを備えた移動ロボット
JP4448497B2 (ja) 2006-03-23 2010-04-07 本田技研工業株式会社 移動体の自己位置検出装置および位置検出システム
JP2007319989A (ja) 2006-06-01 2007-12-13 Matsushita Electric Ind Co Ltd ロボットおよびロボットを用いた扉開閉方法
JP5037248B2 (ja) 2007-07-17 2012-09-26 株式会社日立製作所 情報収集システムおよび情報収集ロボット
JP2010176203A (ja) * 2009-01-27 2010-08-12 Panasonic Electric Works Co Ltd 自律移動ロボットシステム
US20110196563A1 (en) 2010-02-09 2011-08-11 Carefusion 303, Inc. Autonomous navigation and ink recognition system
JP5842248B2 (ja) * 2010-12-24 2016-01-13 国立研究開発法人産業技術総合研究所 マーカ
JP5905031B2 (ja) * 2011-01-28 2016-04-20 インタッチ テクノロジーズ インコーポレイテッド モバイルテレプレゼンスロボットとのインタフェーシング
US9323250B2 (en) * 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US20130106833A1 (en) * 2011-10-31 2013-05-02 Wey Fun Method and apparatus for optical tracking of 3d pose using complex markers
US9538892B2 (en) * 2012-10-05 2017-01-10 Irobot Corporation Robot management systems for determining docking station pose including mobile robots and methods using same
US10262429B2 (en) * 2013-09-30 2019-04-16 National Institute Of Advanced Industrial Science Marker image processing system
JP6257258B2 (ja) 2013-09-30 2018-01-10 株式会社ソニー・インタラクティブエンタテインメント 画像投影システム
EP3084540B1 (en) 2013-12-19 2021-04-14 Aktiebolaget Electrolux Robotic cleaning device and operating method
US9471912B2 (en) * 2014-02-06 2016-10-18 Verto Analytics Oy Behavioral event measurement system and related method
JP2015225014A (ja) 2014-05-29 2015-12-14 日本電信電話株式会社 位置推定装置、位置推定方法、およびプログラム
WO2015191058A1 (en) 2014-06-11 2015-12-17 Assa Abloy Ab Intermediate transfer film having substantially transparent alignment marks
US9449295B2 (en) * 2014-06-25 2016-09-20 Amazon Technologies, Inc. Tracking transactions by confluences and sequences of RFID signals
US10655966B2 (en) 2015-01-30 2020-05-19 Singapore University Of Technology And Design Vehicles, vehicle controller systems, methods for controlling a vehicle, and methods for controlling a plurality of vehicles
US9868211B2 (en) 2015-04-09 2018-01-16 Irobot Corporation Restricting movement of a mobile robot
US9916506B1 (en) 2015-07-25 2018-03-13 X Development Llc Invisible fiducial markers on a robot to visualize the robot in augmented reality
US9971572B2 (en) * 2015-10-30 2018-05-15 International Business Machines Corporation GUI-driven symbol management and code generator
US10471611B2 (en) 2016-01-15 2019-11-12 Irobot Corporation Autonomous monitoring robot systems
JP2017204062A (ja) * 2016-05-10 2017-11-16 株式会社ミツバ 自律搬送システム
US10377042B2 (en) 2016-06-17 2019-08-13 Intel Corporation Vision-based robot control system
KR20180039977A (ko) * 2016-10-11 2018-04-19 엘지전자 주식회사 공항용 보조 로봇 및 그의 동작 방법
US10207411B2 (en) * 2017-02-01 2019-02-19 Toyota Research Institute, Inc. Systems and methods for servicing a vehicle
US20190080170A1 (en) * 2017-09-14 2019-03-14 Intel Corporation Icon-ize identified objects in a known area to add more context to 3d computer vision
US10649460B2 (en) * 2017-11-14 2020-05-12 Facebook, Inc. Interactive robots positionable for optimal interactions
US11413755B2 (en) 2017-12-31 2022-08-16 Sarcos Corp. Covert identification tags viewable by robots and robotic devices
US11878421B2 (en) 2018-04-23 2024-01-23 Purdue Research Foundation Robot navigation and robot-IoT interactive task planning using augmented reality

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63116286A (ja) * 1986-11-05 1988-05-20 Nippon Shashin Insatsu Kk 透明バ−コ−ド
WO2002023297A1 (fr) * 2000-09-11 2002-03-21 Kunikatsu Takase Systeme de commande de mouvement de corps mobiles
JP2007233533A (ja) * 2006-02-28 2007-09-13 Dainippon Printing Co Ltd Icタグの取付構造
JP2008264901A (ja) * 2007-04-17 2008-11-06 Ihi Corp 移動ロボット及びその自動連結方法、並びにパラレルリンク機構の駆動制御方法
JP2013025351A (ja) * 2011-07-15 2013-02-04 Hitachi Industrial Equipment Systems Co Ltd 位置・姿勢推定可能な移動体システム及び自律移動ロボットシステム
KR20170009103A (ko) * 2015-07-15 2017-01-25 (주) 한호기술 자율주행로봇 및 이의 네비게이션 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021221343A1 (ko) * 2020-04-29 2021-11-04 주식회사 트위니 실내 이동 로봇이 엘리베이터에서 환경을 인식하기 위한 장치 및 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체 및 이를 구현하기 위해 매체에 저장된 컴퓨터프로그램
KR20220114147A (ko) * 2021-02-08 2022-08-17 네이버랩스 주식회사 로봇 이동을 위한 가이드 장치
KR20220114452A (ko) * 2021-02-08 2022-08-17 네이버랩스 주식회사 로봇의 이동을 위한 가이드 태그를 포함하는 가이드 장치가 설치된 건물

Also Published As

Publication number Publication date
US20190202057A1 (en) 2019-07-04
JP2019121393A (ja) 2019-07-22
JP6901463B2 (ja) 2021-07-14
US11413755B2 (en) 2022-08-16
EP4124925A1 (en) 2023-02-01
KR102244975B1 (ko) 2021-04-27
EP3508939A1 (en) 2019-07-10

Similar Documents

Publication Publication Date Title
KR102244975B1 (ko) 로봇이 볼 수 있는 비밀 식별 태그 및 로봇 장치
US20210031368A1 (en) Robotic system for picking and placing objects from and into a constrained space
ES2951128T3 (es) Sistema de gestión de almacenes, con detección de posición de artículos y áreas de almacén asociadas
ES2615107T3 (es) Entrada de instrucciones de bloqueo por medio de gestos
JP5140725B2 (ja) パッケージ及び商品化システム
CN106061802B (zh) 用于操纵用于车辆的闭合元件的方法和装置
CN108344442B (zh) 一种物体状态检测识别方法、存储介质及系统
US20160103500A1 (en) System and method for a human machine interface utilizing near-field quasi-state electrical field sensing technology
US20110082668A1 (en) Systems and methods for establishing an environmental representation
US20100044120A1 (en) Input device
CN109789560A (zh) 餐具操纵系统和方法
JP2018049592A (ja) 人間運動センサを使用して油圧ロボットの近くにいるときの動きを検出すること
Stückler et al. Mobile manipulation, tool use, and intuitive interaction for cognitive service robot cosero
EP1490749A2 (en) Low cost interactive program control system and method
JP2018106695A (ja) 自律走行する移動車の動作方法
US11416081B1 (en) Integral 3D structure for creating UI, related device and methods of manufacture and use
CN107015657A (zh) 一种基于交互方式限制移动机器人运动空间的方法
CN104395003A (zh) 用于物体表面处理的方法
US20220001538A1 (en) Augmented Reality System and Method for Conveying To a Human Operator Information Associated With Human-Imperceptible Indicia within an Operating Environment of a Robot
Chong et al. Knowledge distributed robot control framework
Kang et al. Implementation of Smart Floor for multi-robot system
TWI324101B (en) Autonomous robot and position system and method thereof
Aytac et al. Simultaneous extraction of geometry and surface properties of targets using simple infrared sensors
Murakami et al. Position tracking and recognition of everyday objects by using sensors embedded in an environment and mounted on mobile robots
Marchionni et al. Reem service robot: how may i help you?

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant