KR20240030733A - 운송 로봇 시스템 및 그 제어 방법 - Google Patents

운송 로봇 시스템 및 그 제어 방법 Download PDF

Info

Publication number
KR20240030733A
KR20240030733A KR1020220110138A KR20220110138A KR20240030733A KR 20240030733 A KR20240030733 A KR 20240030733A KR 1020220110138 A KR1020220110138 A KR 1020220110138A KR 20220110138 A KR20220110138 A KR 20220110138A KR 20240030733 A KR20240030733 A KR 20240030733A
Authority
KR
South Korea
Prior art keywords
processor
worker
robot system
obstacle
image data
Prior art date
Application number
KR1020220110138A
Other languages
English (en)
Inventor
윤삼진
Original Assignee
주식회사 웨이브에이아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 웨이브에이아이 filed Critical 주식회사 웨이브에이아이
Priority to KR1020220110138A priority Critical patent/KR20240030733A/ko
Publication of KR20240030733A publication Critical patent/KR20240030733A/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/12Target-seeking control

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Acoustics & Sound (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

운송 로봇 시스템 및 그 제어 방법이 개시된다. 본 발명의 일 측면에 따른 운송 로봇 시스템은, 촬영장치, 바퀴를 구동시키는 구동모듈, 및 촬영장치를 통해 획득된 영상 데이터에 기초하여 주변 환경 정보를 인식하고, 주변 환경 정보에 기초하여 주행 가능 영역을 구분하며, 주행 가능 영역을 이용하여 작업자 위치까지의 주행 경로를 생성하고, 주행 경로를 따라 주행하도록 구동모듈을 제어함으로써, 작업자를 추종하도록 하는 프로세서를 포함한다.

Description

운송 로봇 시스템 및 그 제어 방법{TRANSPOTATION ROBOT SYSTEM AND CONTROL METHOD THEREOF}
본 발명은 운송 로봇 시스템 및 그 제어 방법에 관한 것으로서, 보다 상세하게는 농작물 및 물류 등을 이송시키고, 로봇과 작업자 사이에 장애물이 위치하여도 로봇이 작업자를 용이하게 추종할 수 있도록 하는 운송 로봇 시스템 및 그 제어 방법에 관한 것이다.
최근에는 다양한 분야에서 인력으로 수행되던 작업들이 로봇 또는 기계를 통해 수행하는 것으로 점차 대체되고 있다. 이와 같이 현재까지 많은 분야에서 로봇이 적용되고 있으나, 일부 분야에서는 이러한 로봇의 도입이 늦어지고 있다.
대표적으로, 농업 분야는 이와 같은 로봇화가 더디게 이루어지고 있는 분야로서, 아직까지 농사 과정의 대부분의 작업은 인력을 통해 수행되고 있으며, 또한 작업기계들 역시 사람이 수동으로 직접 조종하는 형태로 운전되고 있다.
이에 최근에는 농업 분야 역시 밭에 필요한 작업을 자동으로 수행하며 주행하는 로봇에 대한 연구가 지속적으로 이루어지고 있는 추세이다.
하지만, 이러한 노력에도 밭의 작업은 자갈이나 모래 등에 의해 지형이 평탄하지 않기 때문에 기계가 주행하면서 진동이 발생하게 되며, 이는 정교한 작업에 방해가 되는 문제가 있다.
한편, 사람을 추종하는 로봇 기술과 관련해서는 대한민국 공개특허 제10-2011-0119438호 등에 나타나 있다.
이러한 추종 로봇 기술에서는, 초음파, 적외선, 비젼, 레이저 등을 사용하여 로봇이 사람을 추종하도록 하고 있다.
그러나, 종래의 추종 로봇은 사람과 로봇 사이에 장애물이 있는 경우 추종을 하는데 있어서 매우 취약하다. 예를 들면, 추종 로봇을 농작물, 물류 등의 운송에 사용할 경우, 사람과 로봇 사이에 장애물이 위치하게 되면, 로봇이 사람 즉, 작업자를 용이하게 추종하지 못하게 되는 문제점이 발생될 수 있다.
본 발명의 배경기술은 대한민국 공개특허공보 제10-2011-0119438호(2011.11.02. 공개)의 '인간 작업자 추종 이동 로봇'에 개시되어 있다.
본 발명은 전술한 문제점을 개선하기 위하여 안출된 것으로, 본 발명의 목적은 농작물 및 물류 등을 이송시키고, 로봇과 작업자 사이에 장애물이 위치하여도 로봇이 작업자를 용이하게 추종할 수 있도록 하는 운송 로봇 시스템 및 그 제어 방법을 제공하는 것이다.
본 발명의 다른 목적은 작업자의 다양한 자세(포즈)로 운송 로봇 시스템을 원격에서 제어할 수 있도록 하는 운송 로봇 시스템 및 그 제어 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 측면에 따른 운송 로봇 시스템은, 촬영장치, 바퀴를 구동시키는 구동모듈, 및 상기 촬영장치를 통해 획득된 영상 데이터에 기초하여 주변 환경 정보를 인식하고, 상기 주변 환경 정보에 기초하여 주행 가능 영역을 구분하며, 상기 주행 가능 영역을 이용하여 작업자 위치까지의 주행 경로를 생성하고, 상기 주행 경로를 따라 주행하도록 상기 구동모듈을 제어함으로써, 작업자를 추종하도록 하는 프로세서를 포함한다.
본 발명에서 상기 프로세서는, 상기 영상 데이터에 객체 인식 모델을 적용하여 주변 환경 정보를 인식하고, 상기 주변 환경 정보는 작업자, 노면, 장애물 중 적어도 하나를 포함할 수 있다.
본 발명에서 상기 프로세서는, 상기 주변 환경 정보에서 노면을 추출하고, 상기 추출된 노면에서 주행 가능 영역을 구분하며, 상기 주행 가능 영역 상의 장애물을 검출하고, 상기 장애물을 회피하여 작업자 위치까지의 주행 경로를 생성할 수 있다.
본 발명은 장애물을 처리하기 위한 작업모듈을 더 포함하고, 상기 프로세서는, 상기 주행 가능 영역에서 장애물의 회피가 불가능한 영역이 존재하는 경우, 해당 영역에 존재하는 장애물에 대한 분석을 수행하여, 상기 작업모듈을 통해 장애물 처리 가능 여부를 판단하고, 장애물 처리가 가능한 경우, 상기 작업모듈을 이용하여 상기 장애물을 처리하고, 장애물이 처리된 영역을 주행 경로 생성시 이용하며, 상기 작업모듈은 장애물을 들어서 이동시키는 작업을 위한 제1 처리장치, 노면을 고르게 하는 작업을 위한 제2 처리장치, 장애물을 자르는 작업을 위한 제3 처리장치 중 적어도 하나를 포함할 수 있다.
본 발명에서 상기 프로세서는, 상기 촬영장치와 연관된 복수의 파라미터들을 이용하여 상기 영상 데이터의 픽셀과 월드 좌표계(world coordinate system) 상의 좌표를 대응시킴으로써, 상기 작업자 또는 장애물의 위치를 추정할 수 있다.
본 발명은 상기 로봇의 하우징 높이를 조절하는 액추에이터를 더 포함하고, 상기 프로세서는, 상기 주행경로를 따라 주행 중, 돌발 장애물이 나타나는 경우, 상기 촬영장치를 통해 획득된 영상 데이터에 기초하여 상기 돌발 장애물에 대한 높이 및 폭 분석을 수행하여, 상기 하우징의 높이를 조절하여 돌발 장애물의 통과 여부를 판단하고, 통과 가능한 경우, 상기 액추에이터를 제어하여 상기 하우징의 높이를 조절할 수 있다.
본 발명에서 상기 프로세서는, 상기 영상 데이터에 기초하여 상기 작업자의 자세를 인식하고, 상기 인식된 자세가 수신호 명령을 나타내는 경우, 해당 수신호 명령에 대응하는 동작을 수행하도록 제어할 수 있다.
본 발명은 물품을 적재하는 적재부, 및 상기 적재부에 적재된 물품의 무게를 측정하는 무게센서를 더 포함하고, 상기 프로세서는, 상기 주행 경로를 따라 이동하는 중에, 상기 무게센서를 통해 측정된 무게값이 초기 무게값보다 기 설정된 일정값 이상 작은 경우, 물품이 노면에 떨어졌다는 것을 상기 작업자 또는 미리 설정된 관리자에게 알릴 수 있다.
본 발명은 음성 명령을 입력받는 마이크를 더 포함하고, 상기 프로세서는, 상기 마이크를 통해 입력된 음성 명령이 상기 작업자의 음성인 경우, 상기 음성 명령에 대응하는 동작을 수행하도록 제어할 수 있다.
본 발명에서 상기 프로세서는, 상기 작업자가 소지한 원격 제어 장치에서 발생되는 자기장의 강도를 측정하고, 상기 자기장의 강도에 기초하여 상기 작업자와 미리 설정된 일정 거리를 유지하도록 이동 속도를 제어할 수 있다.
본 발명의 다른 측면에 따른 운송 로봇 시스템의 제어 방법은, 프로세서가 촬영장치를 통해 획득된 영상 데이터에 기초하여 주변 환경 정보를 인식하는 단계, 상기 프로세서가 상기 주변 환경 정보에 기초하여 주행 가능 영역을 구분하고, 상기 주행 가능 영역을 이용하여 작업자 위치까지의 주행 경로를 생성하는 단계, 및 상기 프로세서가 상기 주행 경로를 따라 주행하도록 구동모듈을 제어함으로써, 작업자를 추종하도록 하는 단계를 포함한다.
본 발명은 상기 주행 경로를 생성하는 단계에서, 상기 프로세서는, 상기 주변 환경 정보에서 노면을 추출하고, 상기 추출된 노면에서 주행 가능 영역을 구분하며, 상기 주행 가능 영역 상의 장애물을 검출하고, 상기 장애물을 회피하여 작업자 위치까지의 주행 경로를 생성할 수 있다.
본 발명은 상기 작업자를 추종하도록 하는 단계에서, 상기 주행 경로를 따라 주행 중, 돌발 장애물이 나타나는 경우, 상기 프로세서는 상기 촬영장치를 통해 획득된 영상 데이터에 기초하여 상기 돌발 장애물에 대한 높이 및 폭 분석을 수행하여, 상기 하우징의 높이를 조절하여 돌발 장애물의 통과 여부를 판단하고, 통과 가능한 경우, 액추에이터를 제어하여 상기 하우징의 높이를 조절할 수 있다.
본 발명은 상기 작업자를 추종하도록 하는 단계 이후, 상기 프로세서가, 상기 영상 데이터에 기초하여 상기 작업자의 자세를 인식하고, 상기 인식된 자세가 수신호 명령을 나타내는 경우, 해당 수신호 명령에 대응하는 동작을 수행하도록 제어하는 단계를 더 포함할 수 있다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램이 더 제공될 수 있다.
본 발명의 일 실시예에 따른 운송 로봇 시스템 및 그 제어 방법은, 촬영장치를 통해 획득된 영상 데이터에 기초하여 인식되는 주변 환경 정보에 기초하여 작업자 위치까지의 주행 경로를 생성함으로써, 농작물 및 물류 등을 이송시키고, 로봇과 작업자 사이에 장애물이 위치하여도 로봇이 작업자를 용이하게 추종할 수 있다.
본 발명의 일 실시예에 따른 운송 로봇 시스템 및 그 제어 방법은, 작업자의 다양한 자세(포즈)와 각 자세(포즈)에 대한 수신호 명령을 설정함으로써, 작업자의 다양한 자세(포즈)로 운송 로봇 시스템을 원격에서 제어할 수 있다.
한편, 본 발명의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 효과들이 포함될 수 있다.
도 1은 본 발명의 일 실시예에 따른 운송 로봇 시스템을 개략적으로 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 운동 로봇 시스템의 사시도이다.
도 3은 본 발명의 일 실시예에 따른 운송 로봇 시스템이 작업자를 추종하는 방법을 설명하기 위한 예시도이다.
도 4는 본 발명의 일 실시예에 따른 수신호 명령에 대한 자세를 설명하기 위한 예시도이다.
도 5는 본 발명의 일 실시예에 따른 운송 로봇 시스템의 제어 방법을 설명하기 위한 흐름도이다.
이하, 첨부된 도면들을 참조하여 본 발명의 일 실시예에 따른 운송 로봇 시스템 및 그 제어 방법을 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다.
또한, 본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍 가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.
또한, 본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
이하, 본 발명에 따른 실시 예들을 첨부된 도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 본 발명의 일 실시예에 따른 운송 로봇 시스템을 개략적으로 나타낸 블록도, 도 2는 본 발명의 일 실시예에 따른 운동 로봇 시스템의 사시도, 도 3은 본 발명의 일 실시예에 따른 운송 로봇 시스템이 작업자를 추종하는 방법을 설명하기 위한 예시도, 도 4는 본 발명의 일 실시예에 따른 수신호 명령에 대한 자세를 설명하기 위한 예시도이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 운송 로봇 시스템(100)은, 하우징(101), 통신모듈(110), 촬영장치(120), 메모리(130), 구동모듈(140), 프로세서(160), 적재부(170) 및 센서(180)를 포함한다.
하우징(101)은 직사각형 등의 다양한 형상으로 형성되어 내부에 통신모듈(110), 메모리(130), 구동모듈(140), 프로세서(160) 및 센서(180) 등이 장착될 수 있는 공간이 마련될 수 있다. 이때, 하우징(101)의 형상이나 재질은 다양하게 변형될 수 있다. 또한, 하우징(101)의 상부에는 촬영장치(120)가 장착될 수 있고, 하우징(101)의 하부에는 바퀴(150)가 장착될 수 있다.
하우징(101)은 외부 환경의 변화, 예컨데 비 등의 날씨 변화에 대응할 수 있도록 방수 처리된 형태를 유지할 수 있다.
통신모듈(110)은 통신망과 연동하여 운송 로봇 시스템(100)과 원격 제어 장치(미도시) 송수신 신호를 패킷 데이터 형태로 제공하는 데 필요한 통신 인터페이스를 제공할 수 있다. 특히, 통신모듈(110)은 원격 제어 장치로부터 제어 명령을 수신할 수 있다. 여기서 통신망이라 함은, 운송 로봇 시스템(100)과 원격 제어 장치를 연결하는 역할을 수행하는 매개체일 수 있다. 또한 통신모듈(110)은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다. 또한, 통신모듈(110)은 근거리 통신모듈, 무선 통신모듈, 이동통신 모듈, 유선 통신모듈 등 다양한 형태로 구현될 수 있다.
메모리(130)는 운송 로봇 시스템(100)의 동작과 관련된 데이터들을 저장하는 구성이다. 특히, 메모리(130)에는 영상 데이터에 기초하여 주변 환경 정보를 인식하고, 주변 환경 정보에 기초하여 주행 가능 영역을 구분하며, 주행 가능 영역을 이용하여 작업자 위치까지의 주행 경로를 생성하고, 주행 경로를 따라 주행하도록 하는 어플리케이션(프로그램 또는 애플릿) 등이 저장될 수 있으며, 저장되는 정보들은 필요에 따라 프로세서(160)에 의해 취사 선택될 수 있다. 즉, 메모리(130)에는 운송 로봇 시스템(100)의 구동을 위한 운영 체제나 농작물 재배 게임 어플리케이션(프로그램 또는 애플릿)의 실행 과정에서 발생되는 여러 종류가 데이터가 저장된다. 이때, 메모리(130)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 저장된 정보를 유지하기 위하여 전력이 필요한 휘발성 저장장치를 통칭하는 것이다. 또한, 메모리(130)는 프로세서(160)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행할 수 있다. 여기서, 메모리(130)는 저장된 정보를 유지하기 위하여 전력이 필요한 휘발성 저장장치 외에 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
촬영장치(120)는 영상 데이터를 획득하여 프로세서(160)로 전송할 수 있다. 촬영장치(120)는 전방을 촬영할 수 있는 화각을 가지도록 설치될 수 있다.
이러한 촬영장치(120)는 카메라, RGB카메라, 딥러닝카메라, Depth카메라, 비전 카메라, 스테레오 카메라 등을 포함할 수 있다.
센서(180)는 위치센서(182) 및 무게센서(184)를 포함한다.
위치센서(182)는 운송 로봇 시스템(100)의 위치 정보를 수집하여 프로세서(160)로 전송할 수 있다. 이러한 위치센서(182)는 GPS, Glonass, Galileo 등을 포함할 수 있다.
무게센서(184)는 운송 로봇 시스템(100)이 운송하기 위해 적재부(170)에 적재한 물건의 무게를 측정할 수 있다.
본 발명에 따른 센서(180)는 거리 측정 센서(미도시)를 더 포함할 수 있다. 거리측정센서는 작업자(10)의 후방에서 작업자(10)를 인식할 수 있도록 한다. 거리측정센서는 레이저 스캐너 또는 초음파 센서 중 하나일 수 있으나 이에 대해 한정하는 것은 아니다. 레이저 스캐너는 0°~ 180°의 범위 내에서 4m 이내의 객체의 거리를 감지할 수 있다.
구동모듈(140)은 전원부(미도시)로부터 공급되는 전력을 이용하여 운송 로봇 시스템(100)을 이동시키는 역할을 하며, 운송 로봇 시스템(100)에 구비된 바퀴(150)를 구동시키는 모터 구동 드라이버일 수 있다. 구동모듈(140)은 바퀴(150)에 구동력을 제공하는 모터를 포함하고, 모터에 의해 생성되는 구동력에 따라 운송 로봇 시스템(100)을 구동시킬 수 있다.
바퀴(150)는 하우징(101)의 하부에 설치되어 운송 로봇 시스템(100)을 이동시킬 수 있다. 운송 로봇 시스템(100)은 도 3에 도시된 바와 같이 작업자(10)를 추종하면서 실외의 노지를 주행하는 바, 바퀴(150)는 우천 등의 환경에서도 원활한 주행을 보장하도록 구성될 수 있다.
적재부(170)는 운송 로봇 시스템(100)을 이용하여 운송하고자 하는 물품이 적재될 수 있다. 예컨대, 적재부(170)에는 농작물, 물류 등이 적재될 수 있다.
적재부(170)는 하우징(101)의 상부에 형성될 수 있고, 하우징(101)의 내부에 형성될 수도 있다. 또한, 적재부(170)는 물품을 수납하는 저장공간(미도시)과 저장공간의 일측에 설치된 도어(미도시)로 구성될 수 있다. 도어에 의해 개폐되는 저장공간을 설치하면, 운반 중 물품 도난이나 충돌에 의한 파손을 방지할 수 있는 이점이 있다. 또한, 적재부(170)는 물품을 자동으로 싣고 내리는 역할을 수행하는 컨베이어(미도시)를 더 포함할 수 있다.
프로세서(160)는 촬영장치(120)를 통해 획득된 영상 데이터에 기초하여 주변 환경 정보를 인식하고, 주변 환경 정보에 기초하여 주행 가능 영역을 구분하며, 주행 가능 영역을 이용하여 작업자 위치까지의 주행 경로를 생성하고, 주행 경로를 따라 주행하도록 구동모듈(140)을 제어함으로써, 작업자(10)를 추종하도록 할 수 있다.
이하, 프로세서(160)의 동작에 대해 구체적으로 설명하기로 한다.
프로세서(160)는 영상 데이터에 객체 인식 모델(주행 환경 인지 모델)을 적용하여 주변 환경 정보를 인식할 수 있다. 객체 인식 모델(주행 환경 인지 모델)은 영상 데이터로부터 주행 환경 정보를 검출하기 위한 딥러닝 모델로서, 영상 기반 객체 검출 모델이다. 여기서, 주변 환경 정보는 객체, 노면 등을 포함할 수 있고, 객체는 작업자(10), 장애물 등을 포함할 수 있다. 예를 들면, 프로세서(160)는 YOLO, Fast R-CNN 등 객체 인식 알고리즘을 이용하여 영상 데이터에서 객체를 검출할 수 있다.
프로세서(160)는 객체 인식 모델을 이용하여 통합적으로 주행 환경 정보를 검출하는 멀티태스크(Multi-Task)를 동시에 수행할 수 있다. 예를 들어 프로세서(160)는 객체 인식 모델을 실행하여 영상 데이터로부터 작업자(10)를 검출하는 태스크, 노면을 검출하는 태스크 등을 동시에 수행할 수 있다. 프로세서(160)는 작업자(10)가 검출되면, 작업자(10)와 다른 객체들을 구분하기 위해 작업자(10)와 다른 객체(장애물)들 각각에 ID를 부여하여 라벨링을 수행할 수 있다.
주변 환경 정보가 검출되면, 프로세서(160)는 주변 환경 정보에서 노면을 추출하고, 추출된 노면에서 주행 가능 영역을 구분하며, 주행 가능 영역 상의 장애물을 검출하고, 장애물을 회피하여 작업자 위치까지의 주행 경로를 생성할 수 있다.
구체적으로, 프로세서(160)는 이미지 세그멘테이션을 통해 도로, 바닥, 평지 등의 노면을 구분하여 주행 가능 영역을 검출하고, 주행 가능 영역 상의 객체 인식을 통해 장애물의 유무 및 장애물의 위치에 따라 주행 가능 여부를 판단할 수 있다. 즉, 주행 가능 영역에 장애물이 존재하지 않으면, 프로세서(160)는 해당 영역을 주행 가능한 것으로 판단하여 주행 경로 생성시 이용할 수 있다.
만약, 주행 가능 영역에 장애물이 존재하면, 프로세서(160)는 장애물의 위치를 파악할 수 있다. 이때, 프로세서(160)는 촬영장치(120)와 연관된 복수의 파라미터들을 이용하여 영상 데이터의 픽셀과 월드 좌표계(world coordinate system) 상의 좌표를 대응시킴으로써, 장애물(객체)의 위치를 추정할 수 있다.
즉, 프로세서(160)는 촬영장치(120) 관련 파라미터를 기반으로, 실제 위치 정보를 산출할 수 있다. 여기서, 실제 위치 정보는 현실 좌표와 연관된 위치일 수 있고, 월드 좌표계(WCS: World Coordinate System)와 연계된 좌표에 기반한 위치라고 할 수 있다. 이는 기본적으로 촬영장치(120)로부터의 상대적인 현실 거리로 산출된다. 즉, x=-2, y=1라면, 촬영장치(120)로부터 1미터 앞에 있으면서, 2미터 왼쪽에 있는 위치를 가리킬 수 있다. 촬영장치 관련 파라미터는 촬영장치(120)의 지면으로부터의 높이, 수직방향으로의 기울기(지면으로의 기울기), 수평방향으로의 기울기, 촬영장치(120)의 초점 거리, 틸트 각도, 수평/수직 촬영범위 등을 포함할 수 있다. 이러한 파라미터를 통해 프로세서(160)는 촬영 영역의 월드 좌표계 상의 위치(카메라로부터의 상대적인 위치)를 산출할 수 있고, 나아가 촬영 영상 내에서, 작업자(10)의 위치를 상대적 거리로 정밀하게 특정할 수 있다.
다시 말하면, 프로세서(160)는 촬영장치(120)를 통해 획득된 영상 데이터에서 대상 객체(작업자(10), 장애물 등)의 영상 내 좌표를 확인할 수 있다. 이때, 프로세서(160)는 기존의 영상 내 객체를 인식하는 간단한 영상 인식 기술을 활용하여, 촬영장치(120)가 촬영한 영상 데이터에서 대상 객체(예: 작업자(10), 장애들 등)의 영상 내 좌표를 확인할 수 있다. 그런 후, 프로세서(160)는 촬영장치 관련 파라미터를 근거로, 객체의 영상 내 좌표를 수직 촬영범위의 각도 비율이 반영된 촬영영상의 실제 촬영공간에 대한 공간 내 좌표로 변환할 수 있다.
예를 들면, 프로세서(160)는 촬영장치(120)의 설치 높이, 틸트 각도, 수직 촬영범위를 근거로, 촬영영상의 영상 내 y 좌표를 이용하여 수직 촬영범위의 각도 비율이 반영된 수직 촬영각도를 계산하고, 계산된 수직 촬영각도를 이용하여 영상 내 y 좌표와 매칭되는 촬영공간의 공간 내 y 좌표를 계산할 수 있다.
촬영장치(120)를 통해 획득된 영상 데이터는 디지털 영상으로서 픽셀(Pixel) 단위로 표현되는데, 프로세서(160)는 영상 데이터 및 이와 대응되는 실제 촬영공간의 형태가 다르다는 점을 반영하여, 영상 데이터 내 각 픽셀 단위의 위치를 실제 촬영공간의 실제 위치와 매핑시켜 변환할 수 있다.
만약, 촬영장치(120)의 절대적인 위치, 즉, GIS(geographic information system) 상의 위경도 위치를 알고 있다면, 프로세서(160)는 촬영장치 좌표계와 월드 좌표계를 대응시키는 방법을 통해, 촬영영역의 촬영장치(120)로부터의 상대적인 위치를 산출할 수 있고, 산출된 위치를 절대적인 촬영장치 위치와 합산함에 의해, 촬영영역의 절대적인 위치를 산출할 수 있다.
주행 가능 영역에 존재하는 장애물의 위치가 파악되면, 프로세서(160)는 현재 위치부터 작업자 위치까지 도달하는 주행 경로를 직선 또는 장애물을 회피하는 경로로 생성할 수 있다.
한편, 주행 가능 영역에서 장애물의 회피는 불가능하지만, 그 장애물을 운송 로봇 시스템(100)이 처리하여 주행 경로로 이용할 수도 있다.
이를 위해, 운송 로봇 시스템(100)은 장애물을 처리하기 위한 작업모듈(미도시)을 더 포함할 수 있다. 작업모듈은 제한 없이 운송 관련 작업을 수행하기 위한 다양한 장치일 수 있다. 이러한 작업모듈은 장애물을 들어서 다른 곳으로 이동시키는 작업을 위한 제1 처리장치(미도시), 노면을 고르게 하는 작업을 위한 제2 처리장치(미도시), 장애물을 자르는 작업을 위한 제3 처리장치(미도시) 등을 포함할 수 있다.
작업모듈이 구비되고, 주행 가능 영역에서 장애물의 회피가 불가능한 영역이 존재하는 경우, 프로세서(160)는 장애물에 대한 분석을 수행하여, 작업모듈을 통해 장애물의 처리가 가능한지를 판단할 수 있다. 작업모듈을 통해 처리가 가능한 장애물의 경우, 프로세서(160)는 작업모듈을 이용하여 해당 장애물을 처리하고, 그 영역을 주행 경로 생성시 이용할 수 있다. 만약, 장애물 처리가 가능하지 않은 경우 프로세서(160)는 장애물로 인한 이동 불가능 정보를 작업자(10)에게 알릴 수 있다.
또한, 운송 로봇 시스템(100)이 주행경로를 따라 주행하는 중에 돌발 장애물이 나타날 수 있다. 여기서, 돌발 장애물은 돌, 새, 고양이, 강아지 등을 포함할 수 있다. 주행 경로상에 돌발 장애물이 나타나는 경우, 운송 로봇 시스템(100)은 돌발 장애물을 회피하기 위해 하우징(101)(몸체) 높이를 조절하는 액추에이터(미도시)를 더 포함할 수 있다. 액추에이터는 프로세서(160)의 제어에 따라 하우징(101)을 수직 방향으로 신장 또는 수축시킴으로써, 장애물을 통과할 수 있도록 할 수 있다.
주행경로를 따라 주행 중, 돌발 장애물이 나타나면, 프로세서(160)는 촬영장치(120)를 통해 획득된 영상 데이터에 기초하여 돌발 장애물에 대한 높이 분석 및 폭 분석을 수행하여, 하우징(101)(몸체)의 높이를 조절하여 돌발 장애물의 통과 여부를 판단하고, 통과 가능한 경우, 액추에이터를 제어하여 하우징(101)(몸체)의 높이를 조절할 수 있다. 하우징(101)의 높이를 조절함으로써, 운송 로봇 시스템(100)은 돌발 장애물을 극복하고 주행 경로를 따라 주행할 수 있다.
한편, 상기와 같이 구성된 운송 로봇 시스템(100)의 경우, 작업자(10)가 운송 로봇 시스템(100)과 일정 거리 이상 떨어져 있어 운송 로봇 시스템(100)의 직접 조작이 어려울 수 있다. 또한, 작업자(10)가 장갑이나 물건을 들고 있어, 운송 로봇 시스템(100)을 스위치나 리모컨 등으로 조작하기 어려울 수 있다. 또한, 작업자(10)는 원거리에서 운송 로봇 시스템(100)을 특정 수신호 명령으로 제어하고 싶을 수 있다. 이러한 경우, 프로세서(160)는 촬영장치(120)를 통해 획득한 영상 데이터를 분석하여 작업자(10)의 자세를 인식하고, 인식된 자세가 수신호 명령을 나타낸 경우, 해당 수신호 명령에 대응하는 동작을 수행하도록 제어할 수 있다. 이때, 메모리(130)에는 다양한 자세(포즈)와 각 자세(포즈)에 대한 수신호 명령이 저장되어 있다. 예를 들면, 도 4의 (a)에 도시된 자세의 경우, "정지"를 나타내는 수신호 명령일 수 있다. 도 4의 (b)에 도시된 자세는 "이동"을 나타내는 수신호 명령일 수 있다.
촬영장치(120)를 통해 획득된 영상 데이터에는 다수의 사용자가 존재할 수 있다. 이 경우, 프로세서(160)는 다수의 사용자 중에서 작업자(10)를 검출하고, 검출된 작업자(10)의 자세를 인식해야 한다. 이에, 프로세서(160)는 얼굴 인식 알고리즘을 이용하여 각 사용자의 얼굴 이미지를 획득하고, 얼굴 이미지를 메모리(130)에 저장된 작업자 얼굴과 비교하여 작업자(10)를 검출할 수 있다.
또한, 운송 로봇 시스템(100)은 수신호 명령뿐만 아니라, 음성으로도 제어 명령을 수신할 수 있다. 이 경우, 운송 로봇 시스템(100)은 음성 명령을 입력받는 마이크(미도시)를 더 포함할 수 있다. 마이크로 통해 음성이 입력되면, 프로세서(160)는 마이크를 통해 입력된 음성 명령이 기 설정된 작업자(10)의 음성인지를 판단할 수 있다. 판단결과, 작업자(10)의 음성인 경우, 프로세서(160)는 음성 명령에 대응하는 동작을 수행하도록 제어할 수 있다.
주행 경로를 따라 이동하는 중에, 무게센서(184)를 통해 측정된 무게값이 초기 무게값보다 기 설정된 일정값 이상 작은 경우, 프로세서(160)는 작업자(10) 또는 미리 설정된 관리자에게 알릴 수 있다. 즉, 무게센서(184)를 통해 측정된 무게값이 초기 무게값보다 일정값 이상 작으면, 물품이 노면으로 떨어진 것으로 판단할 수 있다. 이에, 프로세서(160)는 물품이 노면이 떨어졌다는 것을 작업자(10) 또는 관리자에게 알릴 수 있다. 이때, 프로세서(160)는 소리, 문자 메시지 등을 이용하여 물품이 노면이 떨어졌음을 알릴 수 있다.
작업자(10)가 운송 로봇 시스템(100)을 원격에서 제어하는 원격 제어 장치를 가지고 이동하는 경우, 프로세서(160)는 원격 제어 장치에서 발생된 자기장의 강도를 측정하고, 자기장의 강도를 기초로 운송 로봇 시스템(100)이 작업자(10)와 미리 설정된 일정 거리를 유지하도록 운송 로봇 시스템(100)의 방향 또는 속도를 제어할 수 있다. 예를 들면, 자기장 강도를 미리 설정된 기준자기장값과 비교하여 오차가 커지면, 프로세서(160)는 운송 로봇 시스템(100)의 이동속도를 증가시킬 수 있다. 자기장 강도가 미기 기준자기장값과의 설정 허용 오차보다 낮아지게 되면, 프로세서(160)는 직전에 이동하던 방향으로 이송로봇을 계속하여 이동시킬 수 있다.
운송 로봇 시스템(100)이 자동으로 작업자(10)와 일정한 거리를 유지하도록 함으로써, 작업자(10)가 농작물 등을 수확한 위치에서 운송 로봇 시스템(100)에 쉽게 적재하여 이송시킬 수 있다.
도 5는 본 발명의 일 실시예에 따른 운송 로봇 시스템의 제어 방법을 설명하기 위한 흐름도이다.
도 5를 참조하면, 프로세서(160)는 촬영장치(120)를 통해 영상 데이터를 획득하고(S502), 획득된 영상 데이터에 기초하여 주변 환경 정보를 인식한다(S504). 이때, 프로세서(160)는 영상 데이터에 객체 인식 모델(주행 환경 인지 모델)을 적용하여 주변 환경 정보를 인식할 수 있다. 주변 환경 정보는 객체, 노면 등을 포함할 수 있고, 객체는 작업자(10), 장애물 등을 포함할 수 있다.
S504 단계가 수행되면, 프로세서(160)는 주변 환경 정보에 기초하여 주행 가능 영역을 구분하고(S506), 주행 가능 영역을 이용하여 작업자(10) 위치까지 주행 경로를 생성한다(S508). 즉, 프로세서(160)는 이미지 세그멘테이션을 통해 도로, 바닥, 평지 등의 노면을 구분하여 주행 가능 영역을 검출하고, 주행 가능 영역 상의 객체 인식을 통해 장애물의 유무 및 장애물의 위치에 따라 주행 가능 여부를 판단할 수 있다. 주행 가능 영역에 장애물이 존재하지 않으면, 프로세서(160)는 해당 영역을 주행 가능한 것으로 판단하여 주행 경로 생성시 이용할 수 있다. 만약, 주행 가능 영역에 장애물이 존재하면, 프로세서(160)는 장애물의 위치를 파악할 수 있다. 이때, 프로세서(160)는 촬영장치(120)와 연관된 복수의 파라미터들을 이용하여 영상 데이터의 픽셀과 월드 좌표계(world coordinate system) 상의 좌표를 대응시킴으로써, 장애물(객체)의 위치를 추정할 수 있다. 주행 가능 영역에 존재하는 장애물의 위치가 파악되면, 프로세서(160)는 현재 위치부터 작업자 위치까지 도달하는 주행 경로를 직선 또는 장애물을 회피하는 경로로 생성할 수 있다.
S508 단계가 수행되면, 프로세서(160)는 주행 경로를 따라 주행하도록 제어한다(S510). 주행 경로가 생성되면, 프로세서(160)는 주행 경로를 따라 주행하도록 구동모듈(140)을 제어함으로써, 운송 로봇 시스템(100)이 작업자(10)를 추종하도록 할 수 있다.
S510 단계를 수행하는 중에, 작업자(10)의 수신호 명령이 감지되면(S512), 프로세서(160)는 수신호 명령에 대응하는 동작을 수행한다(S514). 이때, 프로세서(160)는 촬영장치(120)를 통해 획득한 영상 데이터를 분석하여 작업자(10)의 자세를 인식하고, 인식된 자세가 수신호 명령을 나타낸 경우, 해당 수신호 명령에 대응하는 동작을 수행하도록 제어할 수 있다.
상술한 바와 같이 본 발명의 일 실시예에 따른 운송 로봇 시스템 및 그 제어 방법은, 촬영장치를 통해 획득된 영상 데이터에 기초하여 인식되는 주변 환경 정보에 기초하여 작업자 위치까지의 주행 경로를 생성함으로써, 농작물 및 물류 등을 이송시키고, 로봇과 작업자 사이에 장애물이 위치하여도 로봇이 작업자를 용이하게 추종할 수 있다.
본 발명의 일 실시예에 따른 운송 로봇 시스템 및 그 제어 방법은, 작업자의 다양한 자세(포즈)와 각 자세(포즈)에 대한 수신호 명령을 설정함으로써, 작업자의 다양한 자세(포즈)로 운송 로봇 시스템을 원격에서 제어할 수 있다.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의해서 정하여져야 할 것이다.
100 : 운송 로봇 시스템
101 : 하우징
110 : 통신모듈
120 : 촬영장치
130 : 메모리
140 : 구동모듈
150 : 바퀴
160 : 프로세서
170 : 적재부
180 : 센서

Claims (14)

  1. 촬영장치;
    바퀴를 구동시키는 구동모듈; 및
    상기 촬영장치를 통해 획득된 영상 데이터에 기초하여 주변 환경 정보를 인식하고, 상기 주변 환경 정보에 기초하여 주행 가능 영역을 구분하며, 상기 주행 가능 영역을 이용하여 작업자 위치까지의 주행 경로를 생성하고, 상기 주행 경로를 따라 주행하도록 상기 구동모듈을 제어함으로써, 작업자를 추종하도록 하는 프로세서
    를 포함하는 운송 로봇 시스템.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 영상 데이터에 객체 인식 모델을 적용하여 주변 환경 정보를 인식하고,
    상기 주변 환경 정보는 작업자, 노면, 장애물 중 적어도 하나를 포함하는 것을 특징으로 하는 운송 로봇 시스템.
  3. 제1항에 있어서,
    상기 프로세서는,
    상기 주변 환경 정보에서 노면을 추출하고, 상기 추출된 노면에서 주행 가능 영역을 구분하며, 상기 주행 가능 영역 상의 장애물을 검출하고, 상기 장애물을 회피하여 작업자 위치까지의 주행 경로를 생성하는 것을 특징으로 하는 운송 로봇 시스템.
  4. 제3항에 있어서,
    장애물을 처리하기 위한 작업모듈을 더 포함하고,
    상기 프로세서는,
    상기 주행 가능 영역에서 장애물의 회피가 불가능한 영역이 존재하는 경우, 해당 영역에 존재하는 장애물에 대한 분석을 수행하여, 상기 작업모듈을 통해 장애물 처리 가능 여부를 판단하고, 장애물 처리가 가능한 경우, 상기 작업모듈을 이용하여 상기 장애물을 처리하고, 장애물이 처리된 영역을 주행 경로 생성시 이용하며,
    상기 작업모듈은,
    장애물을 들어서 이동시키는 작업을 위한 제1 처리장치, 노면을 고르게 하는 작업을 위한 제2 처리장치, 장애물을 자르는 작업을 위한 제3 처리장치 중 적어도 하나를 포함하는 것을 특징으로 하는 운송 로봇 시스템.
  5. 제3항에 있어서,
    상기 프로세서는,
    상기 촬영장치와 연관된 복수의 파라미터들을 이용하여 상기 영상 데이터의 픽셀과 월드 좌표계(world coordinate system) 상의 좌표를 대응시킴으로써, 상기 작업자 또는 장애물의 위치를 추정하는 것을 특징으로 하는 운송 로봇 시스템.
  6. 제1항에 있어서,
    상기 로봇의 하우징 높이를 조절하는 액추에이터를 더 포함하고,
    상기 프로세서는,
    상기 주행경로를 따라 주행 중, 돌발 장애물이 나타나는 경우, 상기 촬영장치를 통해 획득된 영상 데이터에 기초하여 상기 돌발 장애물에 대한 높이 및 폭 분석을 수행하여, 상기 하우징의 높이를 조절하여 돌발 장애물의 통과 여부를 판단하고, 통과 가능한 경우, 상기 액추에이터를 제어하여 상기 하우징의 높이를 조절하는 것을 특징으로 하는 운송 로봇 시스템.
  7. 제1항에 있어서,
    상기 프로세서는,
    상기 영상 데이터에 기초하여 상기 작업자의 자세를 인식하고, 상기 인식된 자세가 수신호 명령을 나타내는 경우, 해당 수신호 명령에 대응하는 동작을 수행하도록 제어하는 것을 특징으로 하는 운송 로봇 시스템.
  8. 제1항에 있어서,
    물품을 적재하는 적재부; 및
    상기 적재부에 적재된 물품의 무게를 측정하는 무게센서를 더 포함하고,
    상기 프로세서는,
    상기 주행 경로를 따라 이동하는 중에, 상기 무게센서를 통해 측정된 무게값이 초기 무게값보다 기 설정된 일정값 이상 작은 경우, 물품이 노면에 떨어졌다는 것을 상기 작업자 또는 미리 설정된 관리자에게 알리는 것을 특징으로 하는 운송 로봇 시스템.
  9. 제1항에 있어서,
    음성 명령을 입력받는 마이크를 더 포함하고,
    상기 프로세서는,
    상기 마이크를 통해 입력된 음성 명령이 상기 작업자의 음성인 경우, 상기 음성 명령에 대응하는 동작을 수행하도록 제어하는 것을 특징으로 하는 운송 로봇 시스템.
  10. 제1항에 있어서,
    상기 프로세서는,
    상기 작업자가 소지한 원격 제어 장치에서 발생되는 자기장의 강도를 측정하고, 상기 자기장의 강도에 기초하여 상기 작업자와 미리 설정된 일정 거리를 유지하도록 이동 속도를 제어하는 것을 특징으로 하는 운송 로봇 시스템.
  11. 프로세서가 촬영장치를 통해 획득된 영상 데이터에 기초하여 주변 환경 정보를 인식하는 단계;
    상기 프로세서가 상기 주변 환경 정보에 기초하여 주행 가능 영역을 구분하고, 상기 주행 가능 영역을 이용하여 작업자 위치까지의 주행 경로를 생성하는 단계; 및
    상기 프로세서가 상기 주행 경로를 따라 주행하도록 구동모듈을 제어함으로써, 작업자를 추종하도록 하는 단계
    를 포함하는 운송 로봇 시스템의 제어 방법.
  12. 제11항에 있어서,
    상기 주행 경로를 생성하는 단계에서,
    상기 프로세서는, 상기 주변 환경 정보에서 노면을 추출하고, 상기 추출된 노면에서 주행 가능 영역을 구분하며, 상기 주행 가능 영역 상의 장애물을 검출하고, 상기 장애물을 회피하여 작업자 위치까지의 주행 경로를 생성하는 것을 특징으로 하는 운송 로봇 시스템의 제어 방법.
  13. 제11항에 있어서,
    상기 작업자를 추종하도록 하는 단계에서,
    상기 주행 경로를 따라 주행 중, 돌발 장애물이 나타나는 경우, 상기 프로세서는 상기 촬영장치를 통해 획득된 영상 데이터에 기초하여 상기 돌발 장애물에 대한 높이 및 폭 분석을 수행하여, 상기 하우징의 높이를 조절하여 돌발 장애물의 통과 여부를 판단하고, 통과 가능한 경우, 액추에이터를 제어하여 상기 하우징의 높이를 조절하는 것을 특징으로 하는 운송 로봇 시스템의 제어 방법.
  14. 제11항에 있어서,
    상기 작업자를 추종하도록 하는 단계 이후,
    상기 프로세서가, 상기 영상 데이터에 기초하여 상기 작업자의 자세를 인식하고, 상기 인식된 자세가 수신호 명령을 나타내는 경우, 해당 수신호 명령에 대응하는 동작을 수행하도록 제어하는 단계를 더 포함하는 것을 특징으로 하는 운송 로봇 시스템의 제어 방법.
KR1020220110138A 2022-08-31 2022-08-31 운송 로봇 시스템 및 그 제어 방법 KR20240030733A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220110138A KR20240030733A (ko) 2022-08-31 2022-08-31 운송 로봇 시스템 및 그 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220110138A KR20240030733A (ko) 2022-08-31 2022-08-31 운송 로봇 시스템 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20240030733A true KR20240030733A (ko) 2024-03-07

Family

ID=90271570

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220110138A KR20240030733A (ko) 2022-08-31 2022-08-31 운송 로봇 시스템 및 그 제어 방법

Country Status (1)

Country Link
KR (1) KR20240030733A (ko)

Similar Documents

Publication Publication Date Title
KR102347015B1 (ko) 창고 환경에서의 차량 추적
US10831213B2 (en) Targeted loading assistance system
CN108290294B (zh) 移动机器人及其控制方法
CN111630460A (zh) 自主移动装置的路径规划
US8679260B2 (en) Methods and systems for movement of an automatic cleaning device using video signal
CA3073920C (en) Collision detection, estimation, and avoidance
US20180133895A1 (en) Mobile robot system, mobile robot, and method of controlling the mobile robot system
US8423225B2 (en) Methods and systems for movement of robotic device using video signal
TW202013251A (zh) 在機器人設備上使用光流感測器進行vslam比例估計的系統和方法
JP6828579B2 (ja) 環境整備ロボットおよびその制御プログラム
WO2018228258A1 (zh) 一种移动电子设备以及该移动电子设备中的方法
KR100581086B1 (ko) RFID Tag LED를 이용한 로봇 위치 측정 방법 및장치
JP7160257B2 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2021157123A1 (ja) 測位装置及び移動体
KR20240030733A (ko) 운송 로봇 시스템 및 그 제어 방법
KR100590210B1 (ko) Rfid 를 이용한 이동로봇 위치 인식 및 주행방법과,이를 적용한 이동로봇 시스템
KR102408327B1 (ko) 자율주행 판매를 위한 제스처 인식을 지원하는 ai 기반 자율주행 로봇 시스템
KR20240069227A (ko) 자율주행 기반 다목적 추종 이동체 및 그 제어 방법
US20190314983A1 (en) Recording medium, information processing apparatus, and information processing method
US20220129006A1 (en) Spatial blind spot monitoring systems and related methods of use
Kotikalapudi et al. Obstacle avoidance and path finding for mobile robot navigation
WO2018119907A1 (en) A method, apparatus and computer program product for determining a stopping position of a vehicle
Balula et al. Drone-based Volume Estimation in Indoor Environments
KR20240020288A (ko) 움직임 인식 기반의 자율 주행 로봇 제어 시스템 및 이를 이용한 자율 주행 로봇 제어 방법
KR20240083199A (ko) 자율주행로봇의 이동성을 확장하기 위한 장치, 방법 및 컴퓨터 판독가능 저장매체