KR102302239B1 - 이동 제한 구역에서 카트로봇을 제어하는 방법 및 이를 구현하는 카트로봇 - Google Patents

이동 제한 구역에서 카트로봇을 제어하는 방법 및 이를 구현하는 카트로봇 Download PDF

Info

Publication number
KR102302239B1
KR102302239B1 KR1020190087087A KR20190087087A KR102302239B1 KR 102302239 B1 KR102302239 B1 KR 102302239B1 KR 1020190087087 A KR1020190087087 A KR 1020190087087A KR 20190087087 A KR20190087087 A KR 20190087087A KR 102302239 B1 KR102302239 B1 KR 102302239B1
Authority
KR
South Korea
Prior art keywords
cart robot
cart
robot
movement
transmission module
Prior art date
Application number
KR1020190087087A
Other languages
English (en)
Other versions
KR20190103074A (ko
Inventor
이돈근
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020190087087A priority Critical patent/KR102302239B1/ko
Priority to US16/547,232 priority patent/US11256266B2/en
Publication of KR20190103074A publication Critical patent/KR20190103074A/ko
Application granted granted Critical
Publication of KR102302239B1 publication Critical patent/KR102302239B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • G05D1/0282Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal generated in a local control room
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62BHAND-PROPELLED VEHICLES, e.g. HAND CARTS OR PERAMBULATORS; SLEDGES
    • B62B3/00Hand carts having more than one axis carrying transport wheels; Steering devices therefor; Equipment therefor
    • B62B3/14Hand carts having more than one axis carrying transport wheels; Steering devices therefor; Equipment therefor characterised by provisions for nesting or stacking, e.g. shopping trolleys
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62BHAND-PROPELLED VEHICLES, e.g. HAND CARTS OR PERAMBULATORS; SLEDGES
    • B62B5/00Accessories or details specially adapted for hand carts
    • B62B5/0026Propulsion aids
    • B62B5/0069Control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0225Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow

Abstract

본 발명은 이동 제한 구역에서 카트로봇을 제어하는 방법 및 이를 구현하는 카트로봇에 관한 것으로, 본 발명의 일 실시예에 의한 이동 제한 구역에서 이동을 제어하는 카트로봇은 송신모듈로부터 신호를 수신하는 측위 센서와 카트로봇을 이동시키는 이동부와 측위 센서가 송신모듈로부터 이동 제한 구역으로 진입함을 통지하는 데이터를 수신하면, 카트로봇을 이동 제한 구역의 주변에 주차시키도록 이동부를 제어하는 제어부를 포함한다.

Description

이동 제한 구역에서 카트로봇을 제어하는 방법 및 이를 구현하는 카트로봇{METHOD OF CONTROLLING CART-ROBOT IN RESTRICTED AREA AND CART-ROBOT OF IMPLEMENTING THEREOF}
본 발명은 이동 제한 구역에서 카트로봇을 제어하는 방법 및 이를 구현하는 카트로봇에 관한 기술이다.
대형 마트, 백화점, 공항, 골프장 등 인적, 물적 교류가 활발하게 발생하는 대형 공간에서 다양한 사람들이 다양한 물건을 소지하고 이동한다. 이 경우, 사용자의 편의를 제공하기 위해 물건을 이동시킴에 있어서 카트와 같은 장치가 사용자를 보조할 수 있다.
종래에는 사용자가 카트를 직접 핸들링하여 이동시켰다. 그러나 카트 내에 다양한 물품이 적재되거나 카트 자체의 무게로 인해 카트에 전기적인 동력을 결합시켜 사용자의 제어에 기반하여 이동하는 카트에 대한 필요성이 증가되었다. 또는 카트는 사용자를 추종하여 자율적으로 이동하는 기술의 필요성이 대두되었다.
카트의 자율적인 동작에는 다양한 상황에서 대처 동작을 포함한다. 예를 들어, 사용자가 잠시 카트를 두고 이동하는 경우에, 카트는 사용자를 추종하여 이동할 것인지 혹은 대기할 것인지를 판단하고 그에 따라 자율 동작을 수행해야 한다. 이에, 카트가 배치된 공간이 가지는 다양한 특수성을 반영하여 카트가 공간에 필요한 동작을 수행하는 방안에 대해 살펴본다.
전술한 문제점을 해결하기 위한 것으로, 본 명세서에서는 카트로봇이 사용자가 이동 제한 구역으로 진입하였는지를 확인하는 기술들을 제시한다.
또한, 본 명세서에서는 도난 방지용으로 설치된 RF 게이트를 이용하여 사용자의 이동 여부를 확인하는 기술들을 제시한다.
또한, 본 명세서에서는 카트로봇이 이동 제한 구역 주변의 주차 가능한 구역으로 이동하여 일시 주차하여 공간 내의 복잡도를 줄이는 기술들을 제시한다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
본 발명의 일 실시예에 의한 이동 제한 구역에서 이동을 제어하는 카트로봇은 송신모듈로부터 신호를 수신하는 측위 센서와 카트로봇을 이동시키는 이동부와 측위 센서가 송신모듈로부터 이동 제한 구역으로 진입함을 통지하는 데이터를 수신하면, 카트로봇을 이동 제한 구역의 주변에 주차시키도록 이동부를 제어하는 제어부를 포함한다.
본 발명의 일 실시예에 의한 이동 제한 구역에서 이동을 제어하는 카트로봇의 제어부는 이동 제한 구역의 진입 폭 및 거리를 이용하여 중립 구역을 설정하며, 송신모듈이 중립 구역 내에 있는 경우 측위 센서는 송신 모듈과의 거리를 측정하며, 제어부는 카트로봇을 일시 정지시킨다.
본 발명의 일 실시예에 의한 이동 제한 구역에서 이동을 제어하는 카트로봇은 카트로봇의 주변을 촬영하는 카메라 센서와 이미지를 비교 또는 분석하여 디스크립션 정보를 생성하는 인공지능 모듈을 더 포함하며, 카메라 센서는 주변의 이미지를 촬영하고, 제어부는 촬영한 이미지를 인공지능 모듈에 입력한 후, 인공지능 모듈이 출력하는 디스크립션 정보를 이용하여 카트로봇 주변의 이동 제한 구역 또는 주차 구역을 판단한다.
본 발명의 일 실시예에 의한 이동 제한 구역에서 이동을 제어하는 카트로봇은 카트로봇은 수납부 내의 사물의 움직임을 센싱하는 수납부 센서를 더 포함하며, 제어부는 카트로봇을 주차시키는 과정 또는 카트로봇의 주차 후 수납부 센서를 제어하여 수납부 내를 모니터링하는 보안 모드를 수행한다.
본 발명의 일 실시예에 의한 이동 제한 구역에서 카트로봇을 제어하는 방법은 카트로봇의 측위센서가 송신모듈로부터 이동 제한 구역으로 진입함을 통지하는 데이터를 수신하는 단계와, 카트로봇의 제어부가 이동 제한 구역의 주변의 주차 구역을 검색하는 단계와, 제어부가 검색된 주차 구역에 카트로봇을 이동시켜 주차시키는 단계를 포함한다.
본 발명의 실시예들을 적용할 경우, 카트로봇이 사용자의 이동을 추적하여 사용자가 이동 제한 구역으로 진입하였는지를 확인할 수 있다.
본 발명의 실시예들을 적용할 경우, 카트로봇은 도난 방지용으로 설치된 RF 게이트를 통과하는 송신모듈의 신호에 기반하여 사용자의 이동 여부를 확인할 수 있으며, 카트로봇은 이에 대응하여 주차 모드로 전환할 수 있다.
본 발명의 실시예들을 적용할 경우, 카트로봇은 이동 제한 구역에서는 별도의 사용자 제어 없이도 추종 모드를 중단하고 주변의 주차 가능한 구역으로 이동 후 일시 주차하여 공간 내의 복잡도를 줄이며 사용자의 편의성을 높일 수 있다.
본 발명의 효과는 전술한 효과에 한정되지 않으며, 본 발명의 당업자들은 본 발명의 구성에서 본 발명의 다양한 효과를 쉽게 도출할 수 있다.
도 1은 본 발명의 일 실시예에 의한 카트의 외관을 보여준다.
도 2는 본 발명의 일 실시예에 의한 카트의 제어모듈의 세부 구성을 보여준다.
도 3은 본 발명의 일 실시예에 의한 카트로봇의 동작 과정을 보여준다.
도 4는 본 발명의 일 실시예에 의한 송신모듈의 구성을 보여준다.
도 5는 본 발명의 일 실시예에 의한 사용자가 이동 제한 구역으로 진입하는 경우 카트로봇의 동작 과정을 보여준다.
도 6은 본 발명의 일 실시예에 의한 카트로봇이 송신 모듈이 이동 제한 구역으로 진입하였는지를 판단하는 과정을 보여준다.
도 7은 본 발명의 일 실시예에 의한 카트로봇이 주차하는 과정을 보여준다.
도 8은 본 발명의 일 실시예에 의한 신규 주차 과정에서 카트로봇들이 정렬된 상태를 보여준다.
도 9는 본 발명의 일 실시예에 의한 카트로봇이 보안 모드 상태에서의 동작을 보여준다.
도 10은 본 발명의 일 실시예에 의한 카트로봇이 추종 모드로 전환하는 과정을 보여준다.
도 11은 본 발명의 일 실시예에 의한 주차된 카트로봇들이 정렬하는 과정을 보여준다.
도 12는 본 발명의 일 실시예에 의한 카트로봇이 빈 공간을 센싱하는 순위를 보여준다.
도 13은 본 발명의 일 실시예에 의한 주차 후 정렬하는 과정을 보여준다.
도 14는 본 발명의 일 실시예에 의한 카트로봇이 이동 금지 구역에서 중립 구역을 확인하는 과정을 보여준다.
도 15는 본 발명의 일 실시예에 의한 카트로봇이 벽면의 이미지를 센싱하여 구역을 판별하는 과정을 보여준다.
도 16은 본 발명의 일 실시예에 의한 AI 서버의 구성을 보여준다.
도 17은 본 발명의 일 실시예에 의한 이미지 획득 후 인공지능 모듈이 이미지에 대한 디스크립션 정보를 생성하는 과정을 보여준다.
이하, 도면을 참조하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다. 또한, 본 발명의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다.
본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 다른 구성 요소가 "개재"되거나, 각 구성 요소가 다른 구성 요소를 통해 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.
또한, 본 발명을 구현함에 있어서 설명의 편의를 위하여 구성요소를 세분화하여 설명할 수 있으나, 이들 구성요소가 하나의 장치 또는 모듈 내에 구현될 수도 있고, 혹은 하나의 구성요소가 다수의 장치 또는 모듈들에 나뉘어져서 구현될 수도 있다.
이하, 본 명세서에서 사용자를 추종하며 자율적으로 이동하거나 사용자의 제어에 따라 전기적 에너지에 기반하여 이동하는 장치들을 스마트 카트로봇, 카트로봇 로봇 혹은 줄여서 카트라고 한다. 카트로봇은 대형 마트나 백화점 등 매장 내에서 사용할 수 있다. 또는 공항이나 항만과 같이 여행객들이 많이 이동하는 공간 내에서 사용자들이 카트로봇을 사용할 수 있다. 그리고 카트로봇은 골프장과 같은 레저 공간에서도 사용될 수 있다.
또한, 카트로봇은 사용자의 위치를 추적하여 사용자를 따르면서 소정의 보관 공간을 가지는 모든 장치를 포함한다. 카트로봇은 사용자가 밀거나 당기는 등의 제어에 따라 전기적 동력을 이용하여 이동하는 모든 장치를 포함한다. 그 결과, 사용자는 카트로봇을 전혀 조정할 필요 없이 카트로봇을 이동시킬 수 있다. 또한 사용자는 매우 작은 힘을 들여서 카트로봇을 이동시킬 수 있다.
또한, 본 명세서에서의 카트로봇은 사용자의 제어에 기반하여 전기적 동력을 이용하여 이동할 수 있다. 이를 위해 카트로봇은 사용자가 제어하는 힘을 미세하기 분석하여 카트의 이동 속도, 이동 방향 또는 이동/정지의 기능을 수행할 수 있다.
본 명세서에서 카트로봇은 카트로봇이 이동할 수 있는 구역과 이동할 수 없는 구역, 즉 이동이 제한되는 구역을 판단한다. 그리고 카트로봇은 이동이 제한되는 구역에서는 그에 적합한 동작을 수행한다. 예를 들어 카트로봇은 보안 모드로 상태를 변경하여 카트로봇을 타인이 조작하지 못하도록 한다. 또는 카트로봇은 주차모드로 상태를 변경하여 이동하지 않고 정지한 상태를 유지할 수 있다.
도 1은 본 발명의 일 실시예에 의한 카트의 외관을 보여준다. 도 2는 본 발명의 일 실시예에 의한 카트의 제어모듈(150)의 세부 구성을 보여준다.
카트로봇(100)은 수납부(110)와 핸들 어셈블리(120), 제어모듈(150), 이동부(190a, 190b)를 포함한다. 수납부(110)는 사용자에 의해 사물이 수납되거나 적재되는 공간이다. 핸들 어셈블리(120)는 사용자가 카트로봇(100)를 수동으로 이동을 제어하거나, 반자동으로 이동을 제어할 수 있도록 한다.
핸들 어셈블리(120)는 카트로봇의 일면에 배치되며, 사용자가 카트로봇(100)를 제어하는 과정에서 힘을 가할 경우, 사용자가 가한 힘을 센싱한다. 제어모듈(150)는 카트로봇(100)의 이동을 제어한다. 제어모듈(150)은 핸들 어셈블리(120)가 센싱한 힘에 대응하여 카트의 이동 방향이나 이동 속도 등을 결정하여 이동부(190)를 이동시킨다. 따라서, 사용자는 핸들 어셈블리(120)를 이용하여 카트로봇(100)를 전후로 밀거나 방향을 변경할 수 있다. 제어모듈(150)는 카트로봇(100)의 이동을 제어한다.
제어모듈(150)는 자율주행 모드에서 사용자를 송신모듈(500)을 이용하여 추종할 수 있도록 카트로봇(100)의 자율 주행을 제어한다. 또한, 제어모듈(150)은 파워 어시스트 모드에서 사용자가 작은 힘으로 카트로봇을 밀거나 당길 때 사용자의 힘을 보조하여 카트로봇이 주행하는 반자율 주행(파워 어시스트)을 제어한다.
따라서, 사용자가 카트를 제어하기 위해 핸들 어셈블리(120)에 힘을 가하는 경우, 포스 센서(210)가 핸들 어셈블리(120)에 가해진 힘을 센싱한다. 포스 센서(210)는 핸들 어셈블리(120)에 가해진 힘의 크기 또는 단위 시간 내의 힘의 변화를 센싱할 수 있다 포스 센서(210)는 핸들 어셈블리(120) 내에 배치된다. 포스 센서(210)가 센싱한 힘의 크기나 방향, 힘의 증가 속도 등은 제어 모듈(150)의 제어부(250)가 확인한다. 즉, 포스 센서(210)는 물리적으로 핸들 어셈블리(120) 내에 배치되며, 논리적으로 제어 모듈(150)의 제어부(250)와 상호 동작한다.
핸들 어셈블리(120)에는 사용자에게 소정의 정보를 출력하는 인터페이스부(230)가 배치될 수 있으며, 인터페이스부(230) 역시 제어모듈(150)의 제어를 받는 구성요소가 될 수 있다. 인터페이스부(230)는 사용자에게 카트로봇(100)와 핸들 어셈블리(120)를 제어하는 방법을 표시할 수 있다. 또는 인터페이스부(230)는 사용자에게 카트로봇(100)와 핸들 어셈블리(120)를 제어하는 과정에서 경고 메시지를 출력할 수 있다.
카트로봇(100)의 특정 영역에는 카트 주변에 배치된 장애물을 센싱하기 위한 장애물 센서(220)가 배치될 수 있다. 장애물 센서(220)는 카트로봇(100)의 하단, 상단 등 다양한 영역에 배치될 수 있다. 예를 들어 155에서 지시되는 영역에 카트의 전/좌/우/후방의 장애물을 센싱하기 위해 다수의 장애물 센서(220)들이 배치될 수 있다.
일 실시예로 전면/양측면과 같이 카트로봇(100)이 이동하는 방향으로 장애물 센서가 배치될 수 있다. 또는 카트로봇(100)이 후진할 경우, 전면 및 후면, 양측면에 장애물 센서가 배치될 수 있다.
또한 카트로봇(100)의 여러 영역에 사용자의 추종을 위한 사용자 위치를 추적하는 측위 센서(210)가 배치될 수 있다. 측위 센서(210)는 특정한 신호를 출력하는 송신 모듈(500)로부터 신호를 수신하여 사용자의 위치를 확인할 수 있다.
즉, 카트로봇(100)은 원격에 배치되어 사용자가 소지하는 소정의 송신모듈(500)의 위치를 확인하여 사용자를 추종하며 이동할 수 있다. 카트로봇(100)이 사용자의 위치를 확인하여 추종하는 기능을 선택적으로 구현할 수 있다.
이동부(190)는 제어부의 제어에 따라 카트를 이동시킨다. 또한 제어부(250)가 생성한 소정의 경로를 따라 이동부(190)는 카트를 이동시킬 수 있다. 이동부(190)의 이동은 휠의 회전속도와 회전한 횟수, 방향 등에 기반하여 카트로봇(100)의 이동 상태를 제어부(250)가 확인할 수 있도록 한다. 이동부(190)는 소정의 브레이크 장치가 포함되며 제어부(250)는 이동부(190)의 브레이크 장치를 제어하여 이동 중인 카트로봇(100)를 정지시킬 수 있다.
뿐만 아니라 제어부(250)는 이동부(190)를 구성하는 바퀴의 수평을 확인하여 카트로봇(100)이 경사로에 위치하는지 평지에 위치하는지를 확인할 수 있다. 물론, 제어부(250)는 수평 센서를 이용하여 카트의 현재 위치가 평지인지 혹은 경사로인지를 확인하는 것을 다른 실시예로 한다.
포스센서(210)는 핸들 어셈블리(120)에 배치되며, 사용자가 핸들 어셈블리(120)에 힘을 가할 경우, 힘의 크기나 힘의 변화 동을 센싱한다.
포스 센서(210)는 홀 센서, 마그네틱 타입 센서, 버튼식 센서 등 다양한 센서를 포함한다.
제어모듈(150)은 이동부(190a, 190b)를 제어할 수 있다. 이동부(190)는 제어부(250)가 생성한 이동 경로를 따라 카트로봇을 이동시킨다. 이동부(190)는 이동부(190)를 구성하는 바퀴를 회전시킴으로써 카트로봇(100)을 이동시킬 수 있다. 이동부(190)에 의한 카트로봇 이동은 휠의 회전속도와 회전한 횟수, 방향 등에 기반하여 카트로봇(100)의 위치를 제어부(250)가 확인할 수 있도록 한다. 제어부(250)가 생성한 이동 경로는 카트로봇의 좌측 바퀴와 우측 바퀴에 인가하는 각속도를 포함한다.
제어모듈(150)의 상세 구성은 도 2와 같이 논리적 구성요소들인 측위센서(210), 포스센서(240), 장애물 센서(220), 수납부 센서(225), 인터페이스부(230), 제어부(250), 카메라 센서(260), 통신부(280)이 배치되었다.
장애물 센서(220)는 카트로봇의 주변에 배치된 장애물을 센싱한다. 장애물 센서(220)는 사람, 벽, 사물, 고정물 또는 설치물(installed object) 등과 카트로봇과의 거리를 센싱할 수 있다.
장애물 센서(220) 한 종류로 수납부 센서(225)가 도 1의 121이 지시하는 위치에 배치될 수 있다. 도 1의 121은 수납부(110) 경계 영역이다. 수납부 센서(225)는 수납부(110) 내에 물건이 투입되거나 사람의 손이 들어오는 등의 경우를 센싱한다. 일 실시예로 수납부 센서(225)는 초음파 센서 또는 적외선 센서 등을 포함할 수 있다.
장애물 센서(220)는 카트로봇의 주변에 배치된 장애물을 센싱한다. 장애물 센서는 거리를 측정하거나 영상을 취득하여 영상 내에서 장애물을 확인하는 센서를 포함한다. 거리 측정을 위한 장애물 센서(220)는 적외선 센서나 초음파 센서, 라이다 센서 등을 일 실시예로 한다.
또한 장애물 센서(220)는 뎁스 센서 혹은 RGB 센서를 포함한다. RGB 센서의 경우 영상 내에서 장애물과 설치물을 감지할 수 있다. 뎁스 센서는 영상 내에서 각 지점 별 뎁스 정보를 산출한다. 그리고, 장애물 센서(220)는 TOF(Time of Flight) 센서를 포함한다.
측위 센서(210)는 자율 주행을 지원하는 카트로봇에 필수 구성요소이다. 측위 센서(210)는 송신모듈(500)을 소지하는 사용자의 위치를 추적할 수 있으며, 카트로봇(100)의 상단 또는 측면 등에 배치될 수 있다. 그러나 이들 센서들의 위치는 실시예에 따라 다양하게 변경될 수 있으며 본 발명이 이에 한정되지 않는다. 그리고 센서들의 위치와 무관하게 제어모듈(150)은 센서들을 제어하거나 센서들이 센싱한 정보를 활용한다. 즉, 센서들은 물리적 위치에 상관없이 논리적으로 제어모듈(150)의 구성요소이다.
측위센서(210)는 송신모듈(500)로부터 신호를 수신하여 송신모듈(500)의 위치를 측정한다. 측위 센서(210)가 UWB(Ultra-wideband)를 이용할 경우, 사용자는 측위 센서(210)에게 소정의 신호를 송신하는 송신모듈(500)을 소지할 수 있다. 그리고 측위 센서(210)는 송신모듈(500)의 위치로 사용자의 위치를 확인할 수 있다. 일 실시예로 사용자는 손목에 부착하는 밴드 형태의 송신모듈(500)을 소지할 수 있다.
또한, 핸들 어셈블리(120)에는 사용자에게 소정의 정보를 출력하는 인터페이스부가 배치될 수 있으며, 인터페이스부 역시 제어모듈(150)의 제어를 받는 구성요소가 될 수 있다. 그리고 핸들 어셈블리(120)는 사용자가 카트로봇을 밀거나 당기는 힘을 센싱하는 포스 센서(240)를 포함한다.
포스센서(240)는 핸들 어셈블리(120)의 조작에 의해 힘의 변화가 가해지는 카트로봇(100)의 외부 또는 내부에 배치될 수 있다. 포스 센서(240)의 위치나 구성은 다양하게 적용될 수 있으며 본 발명의 실시예들은 특정한 포스 센서(240)에 한정되지 않는다.
포스센서(240)는 핸들 어셈블리(120)에 배치되거나 핸들 어셈블리(120)에 연결된 카트로봇(100)의 외부 또는 내부에 배치된다. 포스센서(240)는 사용자가 핸들 어셈블리(120)에 힘을 가할 경우, 힘의 크기나 힘의 변화 등을 센싱한다. 포스 센서(240)는 홀 센서, 마그네틱 타입 센서, 버튼식 센서 등 다양한 센서를 포함한다. 포스 센서(240)는 좌측 포스센서와 우측 포스센서로 각각 핸들 어셈블리(120) 또는 카트로봇(100) 내부 또는 외부에 배치될 수 있다.
제어부(250)는 송신모듈(500)의 위치정보를 누적하여 저장하고, 저장된 송신모듈의 위치정보에 대응하는 이동 경로를 생성한다. 누적하여 위치정보를 저장하기 위해서 제어부(250)는 송신모듈(500) 및 카트로봇(100)의 위치정보를 일정한 기준점을 기반으로 하는 절대위치정보(절대좌표)로 저장할 수 있다.
또는 제어부(250)는 장애물 센서(220)와 카메라 센서(260)를 이용하여 카트로봇의 이동을 제어할 수 있다. 카메라 센서(260)는 카트로봇의 주변을 촬영한다.
또한 제어부(250)는 포스 센서(240)가 센싱한 힘의 변화 또는 크기에 따라, 이동부의 이동 방향 또는 이동 속도를 제어한다. 또는 제어부(250)는 이동 속도를 제어하기 위해 이동부의 모터에 더 많은 전기에너지가 제공되도록 이동부(190)를 제어할 수 있다.
또한, 제어부(250)는 장애물 센서(220)가 센싱한 값을 이용하여 카트로봇 주변에 배치된 설치물을 검출한다. 제어부(250)는 카트로봇의 측면 및 전면에 배치된 장애물 센서(220)를 이용하여 설치물을 확인할 수 있다.
특히, 제어부(250)는 측위 센서(210)가 송신모듈(500)로부터 이동 제한 구역으로 진입함을 통지하는 데이터를 수신하면, 카트로봇(100)을 이동 제한 구역의 주변에 주차시키도록 이동부(190)를 제어한다.
본 명세서에서 카트로봇(100)은 사용자를 추종하며 이동하는 과정에서 사용자가 특정 구역으로 진입한 것이 확인되면, 사용자 추종을 중지하고 주차할 수 있다. 이는 카트로봇(100)의 진입이 금지된 구역(이동 제한 구역)으로 사용자가 진입한 경우, 카트로봇(100)은 해당 구역으로의 이동을 중단하고, 사용자가 이동 제한 구역에서 나올 때까지 대기할 수 있다.
도 3은 본 발명의 일 실시예에 의한 카트로봇의 동작 과정을 보여준다. 카트로봇은 추종 모드에서 이동 중(S11) 송신 모듈(500)이 RF 게이트를 통과하였음을 확인한다(S12). 이는 송신 모듈(500)을 소지한 사용자가 이동 제한 구역으로 이동하는 과정에서 송신 모듈(500)을 이동 제한 구역의 출입문 쪽에 설치된 RF 게이트로부터 소정의 무선 신호를 수신하고 송신 모듈(500)이 이를 카트로봇(100)에게 전송하는 세부 프로세스로 이루어진다.
송신모듈(500)이 이동 제한 구역으로 진입하였으므로, 카트로봇(100)은 이동을 중단하고 정지한다(S13). 이때, 카트로봇(100)은 송신 모듈(500)과의 거리를 지속적으로 확인하여, 거리가 증가하지 않는 경우에는(S14), 사용자가 다시 RF 게이트를 나왔을 가능성이 있으므로 추종 모드(S11)로 진입한다.
한편 S14에서 송신모듈(500)과 카트로봇(100) 사이의 거리가 증가할 경우 사용자가 이동 제한 구역 내로 완전히 진입을 한 상태이므로 카트로봇(100)은 주차 모드로 진입한다(S15). 주차를 위해 카트로봇의 제어부(250)는 이동 제한 구역의 주변의 주차 구역을 검색한다.
일 실시예로, 주차를 위해 카트로봇(100)은 주변에 주차용 비콘을 검색한다(S16). 검색 결과 주차용 비콘이 검색되지 않으면 특정 위치(예를 들어 오른쪽 벽면, 또는 후방 벽면 등)까지 카트로봇(100)이 이동한다(S17).
그리고, 검색 결과 주차용 비콘이 검색되면 카트로봇(100)은 주차용 비콘으로 이동한다(S18).
S17 또는 S18과 같이 주차할 수 있는 영역으로 이동한 카트로봇(100)은 보안 모드로 진입한다(S20). 보안 모드는 카트로봇이 다른 사용자에 의해 제어되지 않도록 주차를 유지하는 모드를 의미한다. 또한 카트로봇은 보안 모드 상태에서 수납부(110)내의 상품이 외부로 반출되지 않도록 모니터링할 수 있다. 그 외에도 카트로봇은 보안 모드 상태에서 카메라 센서(260)를 제어하여 사람이 주변에 올 경우 사진을 촬영할 수 있다.
보안 모드 상태에서 송신모듈이 RF게이트를 통과하면(S21) 카트로봇(100)은 송신모듈과 카트로봇 사이의 거리가 감소하는지를 확인한다(S22). 확인 결과 감소하지 않는 경우 지속적으로 송신모듈과의 거리를 측정하며(S23) 카트로봇(100)과 송신모듈(500) 사이의 거리가 줄어드는지를 모니터링한다.
그리고 거리가 감소하는 경우, 카트로봇(100)은 송신모듈(500)쪽으로 이동하기 위해, 추종 모드로 진입하고(S24), 사용자의 이동, 즉 송신 모듈의 이동을 따라 카트로봇(100) 역시 이동한다(S25).
도 4는 본 발명의 일 실시예에 의한 송신모듈의 구성을 보여준다. 송신모듈(500)은 사용자에 의해 착용되거나 사용자가 휴대하는 태그를 일 실시예로 한다.
송신모듈(500)의 주요 구성요소로는 제1프로토콜(일 실시예로 UWB)에 기반한 신호를 제1로봇(추종 로봇)에게 송신하는 측위부(510), 이동 제한 구역에 설치된 장치가 송신하는 신호를 감지하는 태그(530)를 포함한다. 송신모듈(500)은 일종의 비콘으로 카트로봇(100)에게 자신의 위치를 알리기 위한 정보를 송신한다.
또한, 송신모듈(500)의 모듈제어부(550)는 태그(530)가 특정한 신호를 수신하면 측위부(510)가 신호 수신 상황을 카트로봇(100)에게 전달하도록 제어한다.
도 4의 송신모듈(500)의 태그(530)가 이동 제한 구역에 설치된 소정의 신호 송신기(예를 들어 RF 리더나 RF 신호 송신장치 등)가 송신하는 신호를 수신할 수 있다. 그리고 모듈제어부(550)는 이러한 사항을 측위부(510)를 통해 카트로봇(100)에게 전송하면, 카트로봇(100)은 송신모듈(500)이 이동 제한 구역으로 진입하거나 혹은 진출하는 것을 확인할 수 있다.
도 5는 본 발명의 일 실시예에 의한 사용자가 이동 제한 구역으로 진입하는 경우 카트로봇의 동작 과정을 보여준다.
31에 도시된 바와 같이, 카트로봇(100)이 추종하는 송신모듈(500)은 사용자가 소지하고 있다. 31은 사용자가 이동 제한 구역의 출입구 쪽에 배치된 게이트(1a, 1b)를 통과하는 장면을 보여준다. 이동 제한 구역은 카트로봇이 진입할 수 없는 진입 금지 구역이다.
32와 같이 송신모듈(500)을 중심으로 살펴본다. 송신모듈(500)이 이동 제한 구역에 설치된 구조물안 게이트(1a, 1b)를 통과하면, 게이트(1a, 1b) 내의 신호송신기(5a, 5b)가 송신하는 신호를 송신모듈(500)이 수신한다.
여기서 신호송신기(5a, 5b)의 일 실시예로 RF(Radio Frequency) 송신기를 일 실시예로 한다. 이 경우 RF 송신기는 이동 제한 구역에 배치된 물건에 배치된 RF 태그를 센싱한다. RF 태그는 물건의 도난 방지 태그로 사용되거나, 물건의 이송 추적에 사용될 수 있다. 따라서, RF 태그가 송신모듈(500) 내에 태그(530)로 배치될 수 있다.
예를 들어, 신호송신기(5a, 5b)가 RF 신호(RF Signal)를 송신하면 송신모듈(500)의 태그(530)가 이 신호를 감지할 수 있다. 송신모듈(500)은 사용자가 이동 제한 구역에 배치된 게이트(1a, 1b)를 통과하는 것으로 감지하고 통과에 대한 정보를 카트로봇(100)에게 전송할 수 있다.
즉, 송신모듈(500)은 신호가 감지되었음을 카트로봇(100)에게 알리면, 카트로봇(100)은 도 3에 도시된 바와 같이 추종 모드를 종료하고 주차모드로 진입한다. 또한 다른 사용자가 카트로봇(100)을 제어하지 못하도록 카트로봇(100)은 보안 모드로 진입할 수 있다.
즉, 도 5를 정리하면, 송신모듈(500)을 소지한 사용자가 카트로봇이 진입할 수 없는 구역인 이동 제한 구역으로 진입하며, 이 과정에서 RF 게이트(1a, 1b)를 통과한다. 이 게이트는 사용자의 이동을 확인하거나, 이동 제한 구역 내의 물건 도난을 방지하기 위한 RF 게이트인 것을 일 실시예로 한다.
송신모듈(500)은 RF 게이트(1a, 1b)를 통과하는 과정에서 게이트를 감지하고 이를 카트로봇(100)에게 전송한다. 카트로봇(100)은 송신모듈(500)과의 거리나 신호의 세기 등에 따라 주차 모드로 전환하고 대기할 수 있다.
도 5에서 RF 게이트 사이의 폭(d), 즉 게이트 사이의 간격이거나, 통과할 수 있는 영역의 크기에 대한 정보는 카트로봇(100)이 미리 저장할 수 있다. 또는 카트로봇(100)이 게이트 주변에서 게이트 사이의 폭을 산출할 수 있다.
도 6은 본 발명의 일 실시예에 의한 카트로봇이 송신 모듈이 이동 제한 구역으로 진입하였는지를 판단하는 과정을 보여준다.
카트로봇(100)은 게이트 간의 폭을 확인할 수 있다. 예를 들어 두 개의 벽(2a, 2b) 사이의 통과 가능한 공간의 거리에 대한 정보를 카트로봇(100)이 저장하거나 혹은 메모리에서 독출할 수 있다. 각 공간에 설치된 게이트 사이의 폭이 일정한 경우, 카트로봇(100)은 폭에 대한 정보를 미리 저장한다. 그리고 사용자가 게이트를 통과할 경우 카트로봇(100)은 이 값을 추출할 수 있다.
또는, 각 공간에 설치된 게이트들 사이의 폭이 각각 상이할 경우에도 카트로봇(100)은 각 위치 별 게이트들 사이의 폭에 대한 정보를 저장할 수 있다. 이때, 카트로봇(100)은 현재 위치를 이용하여 인접한 이동 제한 구역에 대한 정보를 로딩하는 과정에서 통과 영역에 대한 정보를 함께 추출할 수 있다.
또는, 카트로봇(100)은 게이트들을 촬영하고 이를 이미지 매칭하여 게이트 사이의 폭(두 개의 양쪽 게이트 사이의 거리)을 산출할 수 있다.
카트로봇(100)은 전술한 과정에서 게이트 사이의 간격, 즉 폭에 대한 정보를 산출하거나 저장된 값을 독출할 수 있으며, 이를 바탕으로 중립 구역을 설정할 수 있다.
중립 구역은 사용자가 게이트를 통과할 경우, 즉, 송신모듈(500)로부터 Gate 통과 신호가 발생하면, 카트로봇(100)은 송신모듈(500)의 위치(사용자의 위치)가 중립 구역에 속하는지 판단한다. 그리고 중립 구역에 속할경우 카트로봇(100)은 사용자가 실제 게이트를 통과하여 이동 제한 구역으로 진입했는지 판단하기 위해 대기한다.
중립 구역은 다양한 방식으로 설정될 수 있으며, 일 실시예로 도 6과 같이 제어부(250)는 이동 제한 구역의 진입 폭 및 거리를 이용하여 중립 구역을 설정할 수 있다. 예를 들어, 이동 제한 구역의 진입 폭은 게이트의 간격을 기준으로, 이동 제한 구역과의 거리는 이들 이동 제한 구역과 카트로봇 사이의 거리가 될 수 있다. 제어부(250)는 이들 폭 및 거리를 이용하여 삼각형을 만들어서 중립 구역을 설정할 수 있다.
보다 상세히, 카트로봇(100)은 사전에 저장된 게이트의 간격(d) + 여분거리를 밑변(d + alpha)으로 하고 게이트를 통과할 때 감지된 길이(A)를 높이로 하는 삼각형을 중립 구역으로 설정한다.
그리고 제어부(250)는 송신모듈이 중립 구역 내에 있는 경우 측위 센서(210)는 송신 모듈(500)과의 거리를 측정하고, 제어부(250)는 카트로봇을 일시 정지시킨다. 보다 상세히, 살펴본다.
카트로봇(100)은 다음과 같이 송신모듈(500)이 이동 제한 구역으로 진입하였는지 여부를 결정한다.
먼저, 다음의 경우에는 카트로봇(100)은 송신모듈(500)이 게이트를 통과하여 이동 제한 구역으로 진입한 것으로 판단한다.
예를 들어, 카트로봇(100)은 송신모듈(500)의 위치가 방위각 a 안에서 최대 거리인 C 이상 벌어질 경우(B로 표시된 화살표) 매장 안으로 진입하였다고 판단한다.
또한, 카트로봇(100)은 사용자의 위치가 방위각 a 바깥에 위치한 경우 현재의 각도와 게이트까지의 거리 A 를 기준으로 가상의 삼각형을 그린다. 즉, 제어부(250)는 카트로봇의 현재 위치를 한 점으로 하며, 이동 제한 구역의 진입 폭의 양끝단을 두 점으로 하는 삼각형을 중립 구역으로 설정한다.
이동 제한 구역의 진입 폭의 양끝단이란 도 5의 두 게이트(1a, 1b)를 양끝단을 일 실시예로 한다. 또한, 이동 제한 구역의 진입 폭의 양끝단이란 도 6의 두 벽(2a, 2b)의 단절된 부분을 일 실시예로 한다.
그리고, 카트로봇(100)과 송신모듈(500)까지의 거리가 가상의 삼각형의 최대값인 F 이상 되는 경우 매장 안으로 들어갔다고 간주한다.
또한, 벽 등의 장애물에 의해 송신모듈(500)의 측위부(510)의 신호, 예를 들어 UWB 신호가 끊겼을 경우 카트로봇(100)은 송신모듈(500)이 매장 안으로 진입한 것으로 판단한다.
한편, 카트로봇(100)은 다음과 같은 경우 사용자의 행동을 판단할 때까지 대기한다. 즉, 송신모듈(500)이 이동 제한 구역으로 진입하지 않을 가능성이 높은 경우 카트로봇(100)은 일단 대기 상태를 유지한다.
일 실시예로, 사용자의 위치, 즉 송신모듈(500)의 위치가 중립 구역 안에 있을 경우 송신모듈(500)의 움직임이 명확해 질 때까지 카트로봇(100)은 대기한다.
또한, 다음과 같은 경우 카트로봇(100)은 송신모듈(500)이 게이트에 들어가지 않고 나온 것으로 간주한다. 즉, 송신모듈(500)이 방위각 a를 벗어난 상태의 위치가 최대 거리 F 미만(D의 경우)일 때, 카트로봇(100)은 송신모듈(500)이 이동 제한 구역으로 진입하지 않은 것으로 판단한다.
반면, 송신모듈(500)이 방위각 a를 벗어난 상태의 위치가 최대 거리 F 이상(E의 경우)일 때, 카트로봇(100)은 송신모듈(500)이 이동 제한 구역으로 진입한 것으로 판단한다.
도 6과 같이 카트로봇(100)은 주변의 고정물(2a, 2b) 또는 게이트(도 5의 1a, 1b)의 간격을 확인하고, 이들과의 거리에 기반하여 중립 구역을 설정하고, 중립 구역을 기준으로 송신모듈(500)이 이동 제한 구역으로 진입했는지 여부를 판단한다. 그리고 송신모듈(500)이 이동 제한 구역으로 진입한 경우, 카트로봇(100)은 주차 모드를 수행한다.
도 7은 본 발명의 일 실시예에 의한 카트로봇이 주차하는 과정을 보여준다.
도 3에서 살펴본 바와 같이 송신모듈(500)이 이동 제한 구역 내로 진입(S14)함을 확인한 카트로봇(100)은 주차 모드로 진입하며(S15), 진입 가능한 것으로 지정된 주차 구역으로 이동한다. 예를 들어, 35와 같이 주차용 비콘(3)이 검색된 경우, 카트로봇은 주차용 비콘(3)으로 이동한다(S18).
또는, 주차용 비콘(3)이 검색되지 않은 경우, 36과 같이 지정된 주차 구역(예를 들어 벽면 등)으로 이동한다. 주차 모드 진입시 카트로봇(100)은 특정한 벽면(예를 들어 오른쪽 끝 벽)으로 계속 이동한다. 그리고 카트로봇(100)은 해당 벽면에 주차한다.
주차용 비콘(3)으로 이동하여 주차하거나, 벽면에 주차하는 경우, 다른 카트로봇과의 거리, 그리고 벽면과의 거리를 센싱하여 이후에 주차 모드 해제 후 추종 모드로 진입시 원활하게 송신모듈(500)을 추종하여 이동할 수 있도록 다른 사물과의 거리, 즉 일정 공간을 확보한다.
도 7에 도시된 바와 같이 송신 모듈이 게이트를 통과하는 것이 확인되면, 카트로봇(100)이 주차 모드로 진입한다. 카트로봇(100)은 자동 주차 모드로 진입하여 송신모듈(500)을 따라 이동하지 않고, 지정된 주차구역으로 이동한다. 지정된 주차 구역은 주차용 비콘(3)이 배치된 영역 또는 인접한 벽면 등이 될 수 있다. 또는 주차 구역을 표시하는 이미지가 벽면에 부착된 경우, 카트로봇(100)은 이러한 이미지 주변을 주차구역으로 판단할 수 있다.
도 8은 본 발명의 일 실시예에 의한 신규 주차 과정에서 카트로봇들이 정렬된 상태를 보여준다. 벽면(9) 주변에 카트로봇들이 주차한 상태이다. 또한, 주차용 비콘(3) 역시 배치된 상태이다.
벽쪽에 s1이라는 간격으로 카트로봇들(C1, C2, C3)이 주차된 상태이다. 이 과정에서 새로운 카트로봇(100)이 주차 모드로 진입하여 지정된 주차 구역으로 이동 시 다음과 같은 방법으로 정렬한다.
먼저, 카트로봇(100)은 주차 모드 진입 시 벽을 기준으로 일정 거리(s1) 이상 떨어진 상태로 이동한다.
예를 들어, 37과 같이, 카트로봇(100)은 전방을 카메라 센서(260)로 촬영하여 다른 카트로봇들이 주차된 상태인지 확인한다. 카트로봇들이 이미 주차되어 있을 경우 그 뒤쪽 혹은 그 앞쪽에 카트로봇을 위치시킨다. 37은 뒤쪽으로 주차된 예시이다. 37에서 카트로봇(100)은 벽면과 s1이라는 간격을 유지하고 있는 상태이다.
한편, 주차 시도 중 주차를 위한 비콘(3)과의 거리가 일정 이상이거나 벽 따라 이동한 거리가 얼마 되지 않은 경우 카트로봇(100)은 38과 같이 다음 열로 이동한다. 그리고 다음 열로 이동 시 옆의 카트와의 거리는 충분히 빠져나올 수 있도록 일정 거리(s2)를 유지하도록 한다.
s2는 카트로봇의 폭 보다 큰 값이다. 즉, 두번째 열에 다수의 카트로봇이 배치된 경우에도 충분히 C1/C2와 같은 위치의 카트로봇들이 빠져나올 수 있다.
제어부(250)는 카트로봇(100)을 주차시키는 과정에서 카트로봇(100)의 전후좌우의 사물과의 거리를 미리 설정된 거리 이상 유지하여, 이후 주차 모드를 종료하는 해당 카트로봇(100) 또는 다른 카트로봇들이 주차 구역을 용이하게 진출할 수 있도록 한다. 거리 유지를 위해 제어부(250)는 전술한 일정 거리 이상으로 다른 카트로봇 또는 벽면과 거리를 유지하도록 이동부(190)를 제어할 수 있다.
도 9는 본 발명의 일 실시예에 의한 카트로봇이 보안 모드 상태에서의 동작을 보여준다. 주차구역에 이동한 카트는 도난방지를 위한 보안 모드를 작동시킬 수 있다.
주차 구역으로 이동한 카트로봇(100)은 보안 모드로 진입한다(S41). 보안모드 상태에서 카트로봇(100)은 카트로봇(100)의 제어부(250)는 이동부(190)를 정지시키고 수납부(110)를 모니터링한다(S42). 또는 주차 구역으로 이동하는 중에도 카트로봇(100)은 수납부(110)를 모니터링할 수 있다.
도 1의 121의 위치에 배치된 수납부 센서(225)가 수납부 (110) 내의 사물의 움직임 또는 주변의 사물의 움직임 등을 센싱한다. 즉, 수납부 센서(225)는 수납부(110) 내에 물건이 투입 또는 수납된 물건이 배출되거나 사람의 손이 들어오는 등의 경우를 센싱한다. 수납부 센서(225)는 초음파 센서 또는 적외선 센서 등을 포함할 수 있다. 수납부 센서(225)가 수납부 모니터링 중 도난 상태를 감지한다(S43).
도난 상태가 발생하면 카트로봇(100)은 송신모듈에게 알람을 송부한다(S44). 뿐만 아니라, 이동부(190)를 정지시킨 상태에서 외부에서 강한 힘으로 카트로봇(100)을 이동시키려는 상황 역시 도난 상태로 감지하여 카트로봇(100)은 송신모듈에게 알람을 송부한다(S44).
도 9에 제시된 바와 같이 주차구역에 이동한 카트는 도난방지를 위한 보안 모드를 작동시켜서 수납부(110) 내의 물품을 안전하게 보관할 수 있다. 이를 위해 제어부(250)는 카트로봇(100)을 주차시키는 과정 또는 카트로봇(100)이 주차한 후 수납부 센서(225)를 제어하여 수납부 내(110)를 모니터링하는 보안 모드를 수행할 수 있다.
도 10은 본 발명의 일 실시예에 의한 카트로봇이 추종 모드로 전환하는 과정을 보여준다. 사용자가 이동 제한 구역을 벗어날 경우, 즉 게이트를 통과하여 나올 경우에 송신모듈(500)은 게이트에서 특정한 신호를 수신할 수 있고 이를 카트로봇(100)에게 전송할 수 있다.
또는 송신모듈(500)의 위치를 지속적으로 센싱하던 카트로봇(100)은 사용자가 이동 제한 구역을 벗어날 경우, 송신모듈(500)의 측위부(510)가 전송하는 신호를 수신하여 사용자의 이동을 확인할 수 있다.
카트로봇(100)은 주차 모드를 종료하고(S46), 주차 구역에서 이탈한다(S47). 그리고 카트로봇(100)은 추종 모드로 전환하여 송신모듈의 위치를 따라 이동한다(S48).
주차된 카트로봇들은 도 10과 같이 어느 하나의 카트로봇이 주차 구역을 이탈하면 새롭게 정렬할 수 있다. 예를 들어, 카트로봇들은 주차된 상태에서 전후좌우의 다른 카트로봇들과의 거리 또는 벽과의 거리 등을 모니터링하고, 인접한 다른 카트로봇이 주차 구역을 이탈하여 나간 경우에는 새로운 공간이 발생함을 확인할 수 있다.
즉, 카트로봇이 주차한 후에 측위 센서(210)가 송신모듈(500)로부터 이동 제한 구역에서 진출함을 통지하는 데이터를 수신한다. 이는 송신모듈(500)이 이동 제한 구역을 벗어났음을 의미한다.
이에 제어부(250)는 측위 센서(210)를 제어하여 송신모듈(500)의 위치를 추적하고, 송신모듈(500)을 추종하도록 카트로봇(100)을 이동시킨다. 이 경우, 카트로봇들은 미리 정해진 방향으로 이동하여 빈 공간을 제거하고 정렬할 수 있다.
도 11은 본 발명의 일 실시예에 의한 주차된 카트로봇들이 정렬하는 과정을 보여준다. C1~C6는 각각 카트로봇을 지시한다.
51에서 C1인 카트로봇이 주차 구역을 이탈하여 이동한다. 이 경우 C1이 주차한 영역은 빈 자리가 된다. 따라서 근접한 C2인 카트로봇의 센서들이 C1의 빈자리를 센싱하고 C1의 위치로 이동한다. 이때, C2인 카트로봇은 주차용 비콘(3)과의 거리를 확인하여 정지할 위치를 확인할 수 있다.
마찬가지로 C3인 카트로봇의 센서들 역시 C2의 이동으로 빈 공간을 센싱하고 51의 C2의 위치로 이동한다. 그 결과 52와 같이 제1열의 카트로봇들이 빈 공간을 채운 상태이다.
한편, 52에서 C6인 카트로봇은 C3의 이동으로 인해 벽과의 거리가 s3과 같이 증가하였다. 51에서는 C6과 C3 사이의 거리는 s2였다. 따라서, C6 역시 벽쪽의 빈 공간으로 이동할 수 있다.
53은 C6인 카트로봇이 빈 공간으로 이동한 결과를 보여준다. 카트로봇(C6)은 벽면과 s1의 간격을 유지할 때까지 이동한다.
카트로봇들이 재정렬하며 이동하는 과정에서 동일한 빈 공간을 둘 이상의 카트로봇들이 진입할 수 있다. 따라서, 카트로봇들이 주차 영역에서 빈 공간을 발견할 때에는 일정한 시간 이상 대기 후 빈 공간이 그대로 유지되는 것을 확인한 후, 이동하며 다른 카트로봇들을 센싱한다.
또한, 주차구역에 주차할 경우, 카트로봇들이 반드시 특정한 방향으로 향하도록 배치하고, 빈 공간에 대한 센싱시 센싱된 공간의 우선 순위를 두어 이동할 수 있다.
도 12는 본 발명의 일 실시예에 의한 카트로봇이 빈 공간을 센싱하는 순위를 보여준다.
장애물 센서(220)는 주차 후 주변의 카트로봇 또는 벽면과의 거리를 측정한다. 일정 시간 간격으로 측정할 수 있으며, 이 과정에서 제어부(250)는 주차된 다른 카트로봇이 이동하여 빈 공간이 발생하였음을 확인할 수 있다.
즉, 주변의 카트로봇이 이동한 후 발생한 빈 공간을 장애물 센서(220)가 감지한 경우, 제어부(250)는 장애물 센서(220)가 센싱하는 방향에 따라 대기 시간을 달리 설정한 후 빈 공간이 유지되면 빈 공간으로 카트로봇을 이동시킨다. 이는 동일한 빈 공간을 인식한 두 이상의 서로 다른 카트로봇이 빈 공간으로 진입하여 발생하는 충돌을 방지하기 위함이다.
일 실시예로, 카트로봇(100)이 벽면을 따라 주차할 경우에 다음과 같이 예시적으로 우선 순위를 설정할 수 있다. 즉, 카트로봇(100)의 전면을 중심으로 후방 방향의 센싱의 우선순위가 가장 높다(B1). 다음으로 우측 방향의 센싱이 우선 순위가 높다(R2). 다음으로 전방 방향의 센싱이 다음으로 우선 순위가 높다(F2). 다음으로 후방 방향의 센싱의 우선순위가 낮다(F3). 마지막으로 좌측 방향의 센싱이 가장 낮은 우선 순위를 가진다(L4).
그리고 제어부(250)는 가장 높은 우선 순위인 B1 방향으로 주차영역에서 빈 공간을 확인한 경우에는 즉시 빈 공간으로 이동한다. 반면 제어부(250)는 두번째 우선 순위인 R2방향으로 주차영역에서 빈 공간을 확인한 경우에는 일정 시간 대기한 후, 다른 카트로봇이 진입하지 않으면 이동한다.
예를 들어 각 센서들이 빈 공간을 확인 후, 이동을 시작하기 전까지의 대기 시간은 다음 표 1과 같다.
센서 방향 대기시간
B1 5초
R2 15초
F3 30초 (또는 우측 벽면으로 후방으로 주차하는 경우 빈 공간을 센싱해도 이동하지 않음).
L4 1분 (또는 우측 벽면으로 후방으로 주차하는 경우 빈 공간을 센싱해도 이동하지 않음).
도 13은 본 발명의 일 실시예에 의한 주차 후 정렬하는 과정을 보여준다. 모든 카트로봇들이 동일한 방향으로 주차할 수 있다. 예를 들어 벽면을 오른쪽으로 두도록 주차하는 식으로 제어부(250)는 카트로봇의 주차를 제어할 수 있다.
55에서 카트로봇 중 C1이 주차구역을 이탈하여 56과 같이 빈 공간이 남는다. 여기서 C2의 후방 센서(B1) 또는 C3의 우측 센서(R2)가 빈 공간을 확인한다.
각각의 카트로봇 마다 도 12에 도시된 센서의 우선순위가 있다. 즉, C2의 후방 센서(B1)가 빈 공간을 확인한 경우에는 우선 순위가 높으므로 즉시 빈 공간을 향해 이동한다.
반면, C3의 우측 센서(C2)가 빈 공간을 확인한 경우에는 우선 순위가 두번째이므로, 일정한 시간 동안 대기 후 다시 빈 공간을 확인한다. 일정 시간이 흐른 후 C2가 후진하여 57과 같이 이동한 후 C3의 우측 센서(R2)는 C2를 센싱하므로 더 이상 빈 공간이 없는 것으로 판단하고 이동하지 않는다.
한편, 57 에서 C4의 우측 센서(R2)는 빈 공간이 발생함을 확인한다. 마찬가지로 일정 시간이 흐른 후에도 해당 공간이 여전히 빈 공간임을 확인한 C4는 58과 같이 우측으로 이동한다.
전술한 실시예를 적용할 경우, 추종 모드의 카트로봇가 이동할 수 없는 공간에서 카트로봇이 자동으로 주차 상태로 진입할 수 있다. 특히, 대형 마트나 공항 등의 대규모 공간에서는 카트로봇이 진입할 수 있는 공간과 그렇지 않은 공간으로 구분될 수 있다. 사용자가 이러한 공간으로 진입할 경우 사용자가 송신모듈(500)을 제어할 필요 없이, 카트로봇(100)이 자동으로 상황을 인식할 수 있다.
또한, 송신 모듈(500)이 태그(530)를 포함할 경우, 기존에 사용하는 RF 태그 기반 도난방지 게이트를 그대로 이용하면, 송신모듈(500)이 이동 제한 구역을 감지할 수 있다.
즉, 송신모듈(500) 내에 배치된 RF 태그는 사용자가 이동 제한 구역에 설치된 게이트를 통과했는지 여부를 확인할 수 있고, 확인한 사항을 카트로봇(100)에게 전송할 수 있다.
전술한 실시예를 적용할 경우, 카트로봇(100)이 진입할 수 있는지 여부를 카트로봇(100)과 송신모듈(500)이 확인할 수 있다. 이는 사용자가 카트로봇(100)을 가지고 진입할 수 없는 영역에서 카트로봇(100)이 자동으로 주차하는 편의를 제공한다.
또한, 카트로봇(100)은 별도의 맵 없이도 이동이 금지된 구역을 확인할 수 있다. 또한, 카트로봇(100)은 주차 상태 또는 주차 구역으로 이동하는 과정에서 수납부(110)를 보안 모드 상태에서 모니터링하여 수납부 내의 짐을 보관할 수 있다.
도 14는 본 발명의 일 실시예에 의한 카트로봇이 이동 금지 구역에서 중립 구역을 확인하는 과정을 보여준다.
이동 금지 구역에는 사용자 1인이 통과할 수 있도록 다수의 게이트가 배치될 수 있다. 도 14는 3개의 게이트(1a, 1b, 1c)가 배치된 상태이며 각 게이트 사이의 간격은 d1이고, 양끝단의 게이트(1a, 1c) 사이의 간격은 d2이다.
따라서 카트로봇(100)은 양끝단의 게이트의 간격(d2) + 여분거리를 밑변(d2 + alpha)으로 하고 송신모듈(500)이 게이트를 통과할 때 감지된 길이(A)를 높이로 하는 삼각형을 중립 구역(61)으로 설정할 수 있다.
또한, 카트로봇(100)은 카메라 센서(260)를 이용하여 이동 금지 구역과 주차 구역을 확인하는 과정을 보여준다. 이에 대해 도 15에서 살펴본다.
도 15는 본 발명의 일 실시예에 의한 카트로봇이 벽면의 이미지를 센싱하여 구역을 판별하는 과정을 보여준다.
63은 카트로봇이 진입할 수 없음을 알려주는 이미지이다. 이 이미지는 벽면 또는 바닥면에 배치되어 카트로봇(100)이 이동 중에 카메라 센서(260)를 이용하여 확인할 수 있다. 이 경우, 카트로봇(100)은 송신 모듈의 이동, 게이트의 유무 등을 확인하여 이동 금지 구역으로 판단할 수 있다.
64는 카트로봇이 주차할 수 있는 영역을 알려주는 이미지이다. 카트로봇(100)은 주차를 위해 벽면으로 이동하는 중에 64와 같이 카트가 배열된 이미지를 확인할 경우, 해당 구역이 주차 구역인 것으로 판단한다.
또한, 카트로봇이 주차할 수 있는 길이만큼 64의 이미지를 반복 배치하여 카트로봇이 이를 확인하고 주차할 수 있도록 한다.
특히, 카트로봇은 이동 제한 구역 및 주차 구역에 대한 이미지를 다수 저장할 수 있다. 그리고 이동 과정에서 촬영한 주변의 이미지가, 앞서 저장된 이동 제한 구역과 동일하거나 유사한 경우에 이동 제한 구역으로 판단할 수 있다.
이는 카트로봇(100)의 제어부(250) 또는 인공지능모듈(255)이 이미지를 학습 및 처리하여 이동 제한 구역인지 아닌지를 판별할 수 있다.
본 명세서의 일 실시예에서 카트로봇(100)은 카메라 센서(260)를 이용하여 이동 제한 구역 및 주차 구역을 판단하고, 이에 기반하여 주차 모드를 수행할 수 있다. 이를 위해 촬영된 이미지에서 해당 구역의 특성을 식별하기 위해 인공지능모듈(255)이 촬영된 이미지와 기존의 이동제한구역/주차구역의 이미지를 비교하여 이동 제한 구역 또는 주차 구역에 대한 정확도 정보를 산출하고 이에 기반하여 제어부(250)는 추종 모드를 유지할 것인지 또는 주차 모드로 진입할 것인지 등을 판단할 수 있다.
인공 지능은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미하며, 머신 러닝(기계 학습, Machine Learning)은 인공 지능 분야에서 다루는 다양한 문제를 정의하고 그것을 해결하는 방법론을 연구하는 분야를 의미한다. 머신 러닝은 어떠한 작업에 대하여 꾸준한 경험을 통해 그 작업에 대한 성능을 높이는 알고리즘으로 정의하기도 한다.
인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로써, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.
인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)를 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. 인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함숫값을 출력할 수 있다.
모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 시냅스 연결의 가중치와 뉴런의 편향 등이 포함된다. 그리고, 하이퍼파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미하며, 학습률(Learning Rate), 반복 횟수, 미니 배치 크기, 초기화 함수 등이 포함된다.
인공 신경망의 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다. 손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다.
머신 러닝은 학습 방식에 따라 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning)으로 분류할 수 있다.
지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다.
인공 신경망 중에서 복수의 은닉층을 포함하는 심층 신경망(DNN: Deep Neural Network)으로 구현되는 머신 러닝을 딥 러닝(심층 학습, Deep Learning)이라 부르기도 하며, 딥 러닝은 머신 러닝의 일부이다. 이하에서, 머신 러닝은 딥 러닝을 포함하는 의미로 사용된다.
로봇(100)은 앞서 살펴보았던 제어부(250)를 구성하는 하위 구성요소인 인공지능모듈(255)이 인공지능 기능을 수행할 수 있다. 제어부(250) 내에 인공지능모듈(255)이 소프트웨어 또는 하드웨어로 구성될 수 있다.
이 경우, 카트로봇(100)의 통신부(280)는 유무선 통신 기술을 이용하여 다른 AI 기능을 제공하는 로봇이나 또는 도 9에서 살펴볼 AI 서버(700) 등의 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 통신부(280)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등을 송수신할 수 있다.
이때, 통신부(280)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.
인터페이스부(230)는 다양한 종류의 데이터를 획득할 수 있다.
이때, 인터페이스부(230)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력 받기 위한 사용자 입력부 등을 포함할 수 있다. 여기서, 장애물 센서(220), 카메라 센서(260) 또는 마이크로폰이 획득한 정보들은 센싱 데이터 또는 센서 정보 등을 지칭한다.
인터페이스부(230) 및 각종 센서들(220, 260)과 이동부(190)의 휠 인코더 등은 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때 사용될 입력 데이터 등을 획득할 수 있다. 전술한 구성요소들은 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 제어부(250) 또는 인공지능부는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.
인공지능모듈(255)은 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있다. 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 카트로봇(100)이 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.
이때, 인공지능모듈(255)은 AI 서버(700)의 러닝 프로세서(740)과 함께 AI 프로세싱을 수행할 수 있다.
이때, 인공지능모듈(255)은 카트로봇(100)에 통합되거나 구현된 메모리를 포함할 수 있다. 또는, 인공지능모듈(255)은 별도의 메모리 또는 카트로봇(100)에 결합된 외부 메모리 또는 외부 장치에서 유지되는 메모리를 사용하여 구현될 수도 있다.
카트로봇(100)은 다양한 센서들을 이용하여 카트로봇(100)의 내부 정보, 카트로봇(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.
이때, 카트로봇(100)에 포함되는 센서에는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다 센서, 장애물 센서(220), 카메라 센서(260), 레이더 등이 있다.
또한, 앞서 살펴본 인터페이스부(230)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다.
이때, 인터페이스부(230)는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.
카트로봇(100)에 내장된 메모리는 카트로봇(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 카트로봇(100)에 내장된 각종 센서들이나 인터페이스부(230) 등이 획득한 입력 데이터, 학습 데이터, 학습 모델, 학습 히스토리 등을 저장할 수 있다.
제어부(250)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, 카트로봇(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 제어부(250)는 카트로봇(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.
이를 위해, 제어부(250)는 인공지능부 또는 메모리의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 카트로봇(100)의 구성 요소들을 제어할 수 있다.
이때, 제어부(250)는 결정된 동작을 수행하기 위하여 외부 장치의 연계가 필요한 경우, 해당 외부 장치를 제어하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 해당 외부 장치에 전송할 수 있다.
제어부(250)는 사용자 입력에 대하여 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 사용자의 요구 사항을 결정할 수 있다.
이때, 제어부(250)는 음성 입력을 문자열로 변환하기 위한 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다.
이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 인공지능부에 의해 학습된 것이나, AI 서버(700)의 러닝 프로세서(740)에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.
제어부(250)는 카트로봇(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리 또는 인공지능부에 저장하거나, AI 서버(700) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
제어부(250)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 카트로봇(100)의 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(250)는 는 응용 프로그램의 구동을 위하여, 카트로봇(100)에 포함된 구성 요소들 중 둘 이상을 서로 조합하여 동작시킬 수 있다.
또는 카트로봇(100)과 통신하는 별도의 인공지능 서버(AI server)가 배치되고 카트로봇(100)이 제공하는 정보를 처리할 수 있다.
도 16은 본 발명의 일 실시예에 의한 AI 서버의 구성을 보여준다.
인공 지능 서버, 즉 AI 서버(700)는 머신 러닝 알고리즘을 이용하여 인공 신경망을 학습시키거나 학습된 인공 신경망을 이용하는 장치를 의미할 수 있다. 여기서, AI 서버(700)는 복수의 서버들로 구성되어 분산 처리를 수행할 수도 있고, 5G 네트워크로 정의될 수 있다. 이때, AI 서버(700)는 AI 장치(100)의 일부의 구성으로 포함되어, AI 프로세싱 중 적어도 일부를 함께 수행할 수도 있다.
AI 서버(700)는 통신부(710), 메모리(730), 러닝 프로세서(740) 및 프로세서(760) 등을 포함할 수 있다.
통신부(710)는 카트로봇(100) 등의 외부 장치와 데이터를 송수신할 수 있다.
메모리(730)는 모델 저장부(731)를 포함할 수 있다. 모델 저장부(731)는 러닝 프로세서(740)을 통하여 학습 중인 또는 학습된 모델(또는 인공 신경망, 231a)을 저장할 수 있다.
러닝 프로세서(740)는 학습 데이터를 이용하여 인공 신경망(731a)을 학습시킬 수 있다. 학습 모델은 인공 신경망의 AI 서버(700)에 탑재된 상태에서 이용되거나, 카트로봇(100)등의 외부 장치에 탑재되어 이용될 수도 있다.
학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다. 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어(instruction)는 메모리(730)에 저장될 수 있다.
프로세서(760)는 학습 모델을 이용하여 새로운 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수 있다.
특히, 본 명세서에서 인공지능모듈(255) 또는 AI 서버(700)는 입력된 이미지에 대해 공간에 대한 정보를 출력할 수 있다. 예를 들어 카트로봇이 진행하는 공간을 촬영한 이미지가 인공지능모듈(255) 또는 AI 서버(700)에 입력되면 이들은 이미지에 대한 분석을 수행하여 이미지에 대한 디스크립션 정보를 생성한다.
디스크립션 정보(Discription data)는 이미지 내의 공간을 설명하는 것으로 "카트 이동 제한 구역" 또는 "카트 주차 구역" 등과 같은 설명 자료를 포함한다. 제어부(250)는 출력된 정보를 이용하여 주차 모드 또는 추종 모드를 선택할 수 있다.
도 17은 본 발명의 일 실시예에 의한 이미지 획득 후 인공지능 모듈이 이미지에 대한 디스크립션 정보를 생성하는 과정을 보여준다.
카메라부(260)가 이미지를 획득하면(S71), 제어부(250)는 이미지에서 특징 추출(Feature Extraction)을 수행하고 특징 벡터(Feature Vector)를 산출한다(S72).
제어부(250)의 인공지능모듈(255)이 머신 러닝(Machine Learning)의 일종인 딥러닝(Deep Learning)을 이용할 수 있으며, 이 과정에서 딥러닝 기반 인공 신경망(뉴럴 네트워크, Artificial Neural Network, ANN)인 학습 네트워크를 이용하여 특징을 추출할 수 있다.
이는 데이터를 기반으로 다단계로 깊은 수준까지 내려가 학습하는 것이다. 딥러닝(Deep learning)은 단계를 높여갈수록 복수의 데이터들로부터 핵심적인 데이터를 추출하는 머신 러닝(Machine Learning) 알고리즘의 집합을 나타낼 수 있다.
딥러닝 구조는 인공신경망(ANN)를 포함할 수 있으며, 예를 들어 딥러닝 구조는 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), DBN(Deep Belief Network) 등 심층신경망(DNN)으로 구성될 수 있으며 이는 인공지능모듈(255) 또는 AI 서버(700)에 구현될 수 있다.
또한, 이들 인공신경망(ANN)은 입력 레이어(Input Layer), 히든 레이어(Hiddent Layer), 및 출력 레이어(Output Layer)를 포함할 수 있다. 각 레이어는 복수의 노드들을 포함하고, 각 레이어는 다음 레이어와 연결된다. 인접한 레이어 사이의 노드들은 웨이트(weight)를 가지고 서로 연결될 수 있다.
제어부(250)는 이미지에서 특징이 되는 구성요소를 추출하고 이들 구성요소들을 하나의 벡터로 구성할 수 있다.
S72는 제어부(250)를 구성하는 인코더(encoder)가 수행할 수 있다. 디코더(decoder)는 인코더(encoder)가 추출한 특징 벡터를 입력받아 디스크립션(Description)으로 변환한다(S73). 디코더는 변환한 디스크립션을 이용하여 S71에서 획득한 이미지을 설명하는 이미지 디스크립션(Image Description)을 생성한다(S74).
즉, 디코더는 특징 벡터를 입력받고, 이미지 내의 공간의 특성을 분석하는데 필요한 이미지 디스크립션을 생성한다.
그리고 제어부(250)는 이미지 디스크립션 부분에서 공간 특성 정보를 추출한다(S75). 제여부(250)는 카트로봇(100)이 추종 모드인 경우에 공간 특성 정보가 이동 제한 구역이거나 또는 주차 모드에서 이동하는 주변 영역이 주차 구역인 것을 확인하면, 카트로봇의 이동 또는 주차를 제어한다(S76).
인공지능모듈(255)를 구성하는 학습 네트워크의 일 실시예로 RNN(Recurrent Neural Network)은, 자연어 처리 등에 많이 이용되고 있으며, 시간의 흐름에 따라 변하는 시계열 데이터(Time-series data) 처리에 효과적인 구조로 매 순간마다 레이어를 쌓아올려 인공신경망 구조를 구성할 수 있다.
인공지능모듈(255)를 구성하는 학습 네트워크의일 실시예로 DBN(Deep Belief Network)은 딥러닝 기법인 RBM(Restricted Boltzman Machine)을 다층으로 쌓아 구성되는 딥러닝 구조이다. RBM(Restricted Boltzman Machine) 학습을 반복하여, 일정 수의 레이어가 되면 해당 개수의 레이어를 가지는 DBN(Deep Belief Network)를 구성할 수 있다.
인공지능모듈(255)를 구성하는 학습 네트워크의일 실시예로 CNN(Convolutional Neural Network)은, 특히 객체 인식 분야에서 많이 사용되는 구조이다. CNN(Convolutional Neural Network)은 사람이 물체를 인식할 때 물체의 기본적인 특징들을 추출한 다음 뇌 속에서 복잡한 계산을 거쳐 그 결과를 기반으로 물체를 인식한다는 가정을 기반으로 만들어진 사람의 뇌 기능을 모사한 모델이다.
일 실시예로 제어부(250)의 인코더는 기계학습 기반의 뉴럴 네트워크 중 CNN을 사용할 수 있다.
또한, 일 실시예로 제어부(250)의 디코더는 기계학습 기반의 뉴럴 네트워크 중 RNN 혹은 LSTM을 사용할 수 있다.
제어부(150)는 디코더가 산출한 이미지에 대한 서술을 이용하여 사용자의 특성 정보를 산출할 수 있다.
도 17의 과정은 인공지능모듈(255)이 이미지에 포함된 공간의 게이트의 배치, 벽면에 배치된 픽토그램이나 문자 등을 분석한 결과를 출력하고 카트로봇이 이를 이용하여 이동 또는 주차하는 실시예를 보여준다. 마찬가지로 인공지능모듈(255)은 이동 과정에서 주변에 주차된 카트로봇이 다수인 경우, 주변에 이동 제한 구역이 있는 것으로 판단할 수 있다.
정리하면, 카메라 센서(260)가 주변의 이미지를 촬영하고 제어부(250)는 촬영한 이미지를 인공지능 모듈(255)에 입력한다. 인공지능모듈(255)은 입력된 이미지를 비교 또는 분석하여 디스크립션 정보를 생성한다.
그리고 제어부(250)는 인공지능 모듈(255)이 출력하는 디스크립션 정보를 이용하여 카트로봇(100) 주변의 이동 제한 구역 또는 주차 구역을 판단한다.
본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니며, 본 발명의 목적 범위 내에서 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 반도체 기록소자를 포함하는 저장매체를 포함한다. 또한 본 발명의 실시예를 구현하는 컴퓨터 프로그램은 외부의 장치를 통하여 실시간으로 전송되는 프로그램 모듈을 포함한다.
이상에서는 본 발명의 실시예를 중심으로 설명하였지만, 통상의 기술자의 수준에서 다양한 변경이나 변형을 가할 수 있다. 따라서, 이러한 변경과 변형이 본 발명의 범위를 벗어나지 않는 한 본 발명의 범주 내에 포함되는 것으로 이해할 수 있을 것이다.
100: 카트로봇 110: 수납부
120: 핸들 어셈블리 150: 제어모듈
190: 이동부 210: 측위센서
220: 장애물 센서 225: 수납부 센서
240: 포스센서 250: 제어부
255: 인공지능모듈 260: 카메라 센서
500: 송신모듈

Claims (20)

  1. 카트로봇의 주변에 배치된 장애물을 감지하는 장애물 센서;
    송신모듈로부터 신호를 수신하는 측위 센서;
    상기 카트로봇을 이동시키는 이동부; 및
    상기 측위 센서가 상기 송신모듈로부터 이동 제한 구역으로 진입함을 통지하는 데이터를 수신하면, 상기 카트로봇을 상기 이동 제한 구역의 주변에 주차시키도록 상기 이동부를 제어하는 제어부를 포함하며,
    상기 제어부는 상기 이동 제한 구역의 진입 폭 및 거리를 이용하여 중립 구역을 설정하며,
    상기 송신모듈이 상기 중립 구역 내에 있는 경우
    상기 측위 센서는 상기 송신 모듈과의 거리를 측정하며, 상기 제어부는 상기 카트로봇을 일시 정지시키고,
    상기 제어부는 상기 카트로봇의 현재 위치를 한 점으로 하며, 상기 이동 제한 구역의 진입 폭의 양끝단을 두 점으로 하는 삼각형을 상기 중립 구역으로 설정하며,
    상기 송신 모듈의 위치가 상기 중립 구역 안에 있을 경우 상기 카트로봇은 대기한 후,
    상기 제어부는 상기 이동 제한 구역의 진입 폭과 상기 송신모듈과 상기 카트로봇이 형성하는 각도를 이용하여 상기 송신모듈의 상기 이동 제한 구역의 진입 여부를 판단하는, 이동 제한 구역에서 이동을 제어하는 카트로봇.
  2. 제1항에 있어서,
    상기 카트로봇은 상기 진입 폭의 양끝단의 간격 d와 여분 거리 alpha를 밑변으로 하고 상기 송신 모듈이 게이트를 통과할 때 감지된 길이 A를 높이로 하는 삼각형을 중립 구역으로 설정하며,
    상기 송신 모듈의 위치가 상기 카트로봇을 꼭지점으로 하는 삼각형의 각도 안에서 최대 거리 이상 벌어진 경우 상기 송신 모듈이 이동 제한 구역으로 진입한 것으로 판단하는, 이동 제한 구역에서 이동을 제어하는 카트로봇.
  3. 제2항에 있어서,
    상기 송신 모듈의 위치가 상기 카트로봇을 꼭지점으로 하는 삼각형의 각도 밖에서 최대 거리 미만인 경우 이동 제한 구역으로 진입하지 않은 것으로 판단하는, 이동 제한 구역에서 이동을 제어하는 카트로봇.
  4. 삭제
  5. 삭제
  6. 제1항에 있어서,
    상기 카트로봇의 주변을 촬영하는 카메라 센서; 및
    이미지를 비교 또는 분석하여 디스크립션 정보를 생성하는 인공지능 모듈을 더 포함하며,
    상기 카메라 센서는 주변의 이미지를 촬영하고,
    상기 제어부는 상기 촬영한 이미지를 상기 인공지능 모듈에 입력한 후, 상기 인공지능 모듈이 출력하는 디스크립션 정보를 이용하여 상기 카트로봇 주변의 이동 제한 구역 또는 주차 구역을 판단하는, 이동 제한 구역에서 이동을 제어하는 카트로봇.
  7. 삭제
  8. 삭제
  9. 삭제
  10. 제1항에 있어서,
    상기 카트로봇이 주차한 후, 상기 측위 센서가 상기 송신모듈로부터 이동 제한 구역에서 진출함을 통지하는 데이터를 수신하면,
    상기 제어부는 상기 측위 센서를 제어하여 상기 송신모듈의 위치를 추적하고, 상기 송신모듈을 추종하도록 상기 카트로봇을 이동시키는, 이동 제한 구역에서 이동을 제어하는 카트로봇.
  11. 카트로봇의 측위센서가 송신모듈로부터 이동 제한 구역으로 진입함을 통지하는 데이터를 수신하는 단계;
    상기 카트로봇의 제어부가 상기 이동 제한 구역의 주변의 주차 구역을 검색하는 단계; 및
    상기 제어부가 상기 검색된 주차 구역에 상기 카트로봇을 이동시켜 주차시키는 단계를 포함하며,
    상기 제어부는 상기 이동 제한 구역의 진입 폭 및 거리를 이용하여 중립 구역을 설정하는 단계;
    상기 송신모듈이 상기 중립 구역 내에 있는 경우
    상기 측위 센서는 상기 송신 모듈과의 거리를 측정하는 단계; 및
    상기 제어부는 상기 카트로봇을 일시 정지시키는 단계를 더 포함하며,
    상기 설정하는 단계는
    상기 제어부는 상기 카트로봇의 현재 위치를 한 점으로 하며, 상기 이동 제한 구역의 진입 폭의 양끝단을 두 점으로 하는 삼각형을 상기 중립 구역으로 설정하는 단계이며,
    상기 송신 모듈의 위치가 상기 중립 구역 안에 있을 경우 상기 카트로봇은 대기한 후,
    상기 제어부는 상기 이동 제한 구역의 진입 폭과 상기 송신모듈과 상기 카트로봇이 형성하는 각도를 이용하여 상기 송신모듈의 상기 이동 제한 구역의 진입 여부를 판단하는 단계를 더 포함하는, 이동 제한 구역에서 카트로봇을 제어하는 방법.
  12. 제11항에 있어서,
    상기 카트로봇은 상기 진입 폭의 양끝단의 간격 d와 여분 거리 alpha를 밑변으로 하고 상기 송신 모듈이 게이트를 통과할 때 감지된 길이 A를 높이로 하는 삼각형을 중립 구역으로 설정하며,
    상기 송신 모듈의 위치가 상기 카트로봇을 꼭지점으로 하는 삼각형의 각도 안에서 최대 거리 이상 벌어진 경우 상기 송신 모듈이 이동 제한 구역으로 진입한 것으로 판단하는 단계를 더 포함하는, 이동 제한 구역에서 카트로봇을 제어하는 방법.
  13. 제12항에 있어서,
    상기 송신 모듈의 위치가 상기 카트로봇을 꼭지점으로 하는 삼각형의 각도 밖에서 최대 거리 미만인 경우 이동 제한 구역으로 진입하지 않은 것으로 판단하는 단계를 더 포함하는, 이동 제한 구역에서 카트로봇을 제어하는 방법.
  14. 삭제
  15. 삭제
  16. 제11항에 있어서,
    상기 카트로봇의 주변을 촬영하는 카메라 센서; 및
    이미지를 비교 또는 분석하여 디스크립션 정보를 생성하는 인공지능 모듈을 더 포함하며,
    상기 카메라 센서는 상기 카트로봇의 주변을 촬영하여 이미지를 생성하는 단계;
    상기 제어부는 상기 촬영한 이미지를 인공지능 모듈에 입력하는 단계;
    상기 인공지능 모듈이 상기 이미지를 비교 또는 분석하여 디스크립션 정보를 생성하여 출력하는 단계; 및
    상기 제어부가 상기 디스크립션 정보를 이용하여 상기 카트로봇 주변의 이동 제한 구역 또는 주차 구역을 판단하는 단계를 더 포함하는, 이동 제한 구역에서 카트로봇을 제어하는 방법.
  17. 삭제
  18. 삭제
  19. 삭제
  20. 제11항에 있어서,
    상기 카트로봇이 주차한 후, 상기 측위 센서가 상기 송신모듈로부터 이동 제한 구역에서 진출함을 통지하는 데이터를 수신하는 단계; 및
    상기 제어부가 상기 측위 센서를 제어하여 상기 송신모듈의 위치를 추적하고, 상기 송신모듈을 추종하도록 상기 카트로봇을 이동시키는 단계를 더 포함하는, 이동 제한 구역에서 카트로봇을 제어하는 방법.
KR1020190087087A 2019-07-18 2019-07-18 이동 제한 구역에서 카트로봇을 제어하는 방법 및 이를 구현하는 카트로봇 KR102302239B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190087087A KR102302239B1 (ko) 2019-07-18 2019-07-18 이동 제한 구역에서 카트로봇을 제어하는 방법 및 이를 구현하는 카트로봇
US16/547,232 US11256266B2 (en) 2019-07-18 2019-08-21 Method of controlling cart robot in movement restricted area and cart robot for implementing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190087087A KR102302239B1 (ko) 2019-07-18 2019-07-18 이동 제한 구역에서 카트로봇을 제어하는 방법 및 이를 구현하는 카트로봇

Publications (2)

Publication Number Publication Date
KR20190103074A KR20190103074A (ko) 2019-09-04
KR102302239B1 true KR102302239B1 (ko) 2021-09-14

Family

ID=67950334

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190087087A KR102302239B1 (ko) 2019-07-18 2019-07-18 이동 제한 구역에서 카트로봇을 제어하는 방법 및 이를 구현하는 카트로봇

Country Status (2)

Country Link
US (1) US11256266B2 (ko)
KR (1) KR102302239B1 (ko)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3051279B1 (fr) * 2016-05-10 2021-01-29 Vincent Jacquemart Procede de gestion de deplacements d’une flotte d’objets mobiles autonomes, procede de deplacement d’un objet mobile autonome, dispositifs et produits programme d’ordinateur correspondants
CN107558414A (zh) * 2017-09-29 2018-01-09 珂伯特机器人(天津)有限公司 一种应用zigbee的跟随环卫车
US11613289B2 (en) * 2019-01-28 2023-03-28 Lg Electronics Inc. Cart following transmission module based on position information of transmission module and method for moving thereof
JP7234895B2 (ja) * 2019-10-15 2023-03-08 トヨタ自動車株式会社 ロボット利用システム
KR102268458B1 (ko) * 2019-11-28 2021-06-23 주식회사 비바엔에스 마그네틱 가변길이 자산태그 및 리드센서 이용한 랙 스페이스 자동 관리 방법 및 시스템
EP3838780B1 (en) * 2019-12-06 2024-05-01 Ei Beheer B.V. Dispenser for stretch film
KR102489483B1 (ko) * 2020-05-11 2023-01-17 엘지전자 주식회사 이동 로봇 시스템의 송출기 및 이의 이탈 감지 방법
CN111590574B (zh) * 2020-05-15 2021-12-10 深圳国信泰富科技有限公司 一种高智能机器人防盗方法及系统
CN111891017B (zh) * 2020-07-29 2022-10-21 同济大学 减震型焊接式跟随搬运机器人系统
KR20220082452A (ko) 2020-12-10 2022-06-17 삼성전자주식회사 펫 케어 시스템, 펫 케어 로봇 및 펫 케어 로봇의 제어 방법
CN112606014A (zh) * 2020-12-12 2021-04-06 安徽新博普曼智能科技股份有限公司 一种送餐机器人
US20220288778A1 (en) * 2021-03-15 2022-09-15 Blue Ocean Robotics Aps Methods of controlling a mobile robot device to follow or guide a person
CN113238561B (zh) * 2021-05-31 2022-10-14 河北工业大学 一种人体洗浴避障方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101787428B1 (ko) * 2016-06-01 2017-10-18 김한보 물품을 수용하는 장치

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101202398B1 (ko) * 2010-04-27 2012-11-16 목포대학교산학협력단 인간 작업자 추종 이동 로봇
US9323250B2 (en) * 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
CN103251360A (zh) * 2012-02-16 2013-08-21 恩斯迈电子(深圳)有限公司 扫地机器人的控制方法
US20170212511A1 (en) 2014-01-30 2017-07-27 Universidade Do Porto Device and method for self-automated parking lot for autonomous vehicles based on vehicular networking
US20180099846A1 (en) * 2015-03-06 2018-04-12 Wal-Mart Stores, Inc. Method and apparatus for transporting a plurality of stacked motorized transport units
MY187190A (en) * 2015-10-16 2021-09-09 Lemmings LLC Robotic golf caddy
US11163311B2 (en) * 2015-12-24 2021-11-02 Partnering 3.0 Robotic equipment including a mobile robot, method for recharging a battery of such mobile robot, and mobile robot docking station
US20200047337A1 (en) * 2016-07-13 2020-02-13 Discovery Robotics Robotic platform with event based mode change
KR102012548B1 (ko) * 2017-01-25 2019-08-20 엘지전자 주식회사 로봇의 진입 가능 영역을 식별하는 방법 및 이를 구현하는 로봇
US10710633B2 (en) * 2017-07-14 2020-07-14 Nio Usa, Inc. Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles
US11082667B2 (en) * 2018-08-09 2021-08-03 Cobalt Robotics Inc. Contextual automated surveillance by a mobile robot
JP2020129286A (ja) * 2019-02-08 2020-08-27 東芝テック株式会社 自走カートシステム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101787428B1 (ko) * 2016-06-01 2017-10-18 김한보 물품을 수용하는 장치

Also Published As

Publication number Publication date
US11256266B2 (en) 2022-02-22
KR20190103074A (ko) 2019-09-04
US20190377357A1 (en) 2019-12-12

Similar Documents

Publication Publication Date Title
KR102302239B1 (ko) 이동 제한 구역에서 카트로봇을 제어하는 방법 및 이를 구현하는 카트로봇
US20210405646A1 (en) Marker, method of moving in marker following mode, and cart-robot implementing method
AU2019335011B2 (en) Shopping basket monitoring using computer vision and machine learning
US11673269B2 (en) Method of identifying dynamic obstacle and robot implementing same
US9801517B2 (en) Shopping facility assistance object detection systems, devices and methods
US11565415B2 (en) Method of tracking user position using crowd robot, tag device, and robot implementing thereof
US11688081B2 (en) Method of performing simultaneous localization and mapping with respect to a salient object in an image
KR102300574B1 (ko) 사용자 신체 특성을 반영하여 파워 어시스트 모드로 이동하는 방법 및 이를 구현하는 카트로봇
KR102220564B1 (ko) 멀티 센서를 이용하여 위치를 추정하는 방법 및 이를구현하는 로봇
KR20190096849A (ko) 빌딩 관리 로봇 및 그를 이용한 서비스 제공 방법
US20200012287A1 (en) Cart robot and system for controlling robot
KR20190100085A (ko) 인공 지능을 이용하여, 위험 상황을 감지할 수 있는 로봇 및 그의 동작 방법
US11635759B2 (en) Method of moving robot in administrator mode and robot of implementing method
US20210097852A1 (en) Moving robot
US20210072759A1 (en) Robot and robot control method
KR20220002758A (ko) 멀티 센서를 동기화시켜 위치를 추정하는 방법 및 이를 구현하는 로봇
Kitade et al. Understanding suitable locations for waiting
US11686583B2 (en) Guidance robot and method for navigation service using the same
KR20210083812A (ko) 자율주행 이동로봇 및 이의 동작 방법
US11537137B2 (en) Marker for space recognition, method of moving and lining up robot based on space recognition and robot of implementing thereof
US20230161356A1 (en) Method of updating map in fusion slam and robot implementing same
US20210109541A1 (en) Method of estimating position in local area of large space and robot and cloud server implementing thereof
US11560158B2 (en) Robot and method for controlling the same
EP4060448A1 (en) Methods of controlling a mobile robot device to follow or guide a person
JP2023136972A (ja) 自律走行装置

Legal Events

Date Code Title Description
A201 Request for examination
G15R Request for early publication
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant