KR102665831B1 - 사람 추종 모드로 이동하는 방법 및 이를 구현하는 로봇 - Google Patents

사람 추종 모드로 이동하는 방법 및 이를 구현하는 로봇 Download PDF

Info

Publication number
KR102665831B1
KR102665831B1 KR1020230140173A KR20230140173A KR102665831B1 KR 102665831 B1 KR102665831 B1 KR 102665831B1 KR 1020230140173 A KR1020230140173 A KR 1020230140173A KR 20230140173 A KR20230140173 A KR 20230140173A KR 102665831 B1 KR102665831 B1 KR 102665831B1
Authority
KR
South Korea
Prior art keywords
information
robot
movement
coordinate
relative
Prior art date
Application number
KR1020230140173A
Other languages
English (en)
Inventor
최문석
전창훈
Original Assignee
(주)로보라이프
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)로보라이프 filed Critical (주)로보라이프
Priority to KR1020230140173A priority Critical patent/KR102665831B1/ko
Application granted granted Critical
Publication of KR102665831B1 publication Critical patent/KR102665831B1/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/12Target-seeking control

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

사람 추종 모드로 이동하는 방법 및 이를 구현하는 로봇이 제공된다. 본 발명의 실시예에 따른 사람 추종 모드로 이동하는 방법을 구현하는 로봇은, 로봇이 추종 대상을 인식하고 추종 대상과의 상대적 정보인 외부 정보를 획득하는 외부 정보 획득부; 상기 외부 정보를 이용하여 상기 추종 대상과의 상대 좌표를 획득하는 상대 좌표 획득부; 및 상기 상대 좌표와 상기 외부 정보를 이용하여 상기 로봇 동작 신호를 생성하고 출력하는 로봇 동작 신호 생성부;를 포함한다.

Description

사람 추종 모드로 이동하는 방법 및 이를 구현하는 로봇{Method of moving in person-following mode and robots that implement it}
본 발명은 사람 추종 모드로 이동하는 방법 및 이를 구현하는 로봇에 관한 것으로, 특히, 사람을 추종하여 반자율적으로 이동하는 로봇 및 이를 구현하는 방법에 관한 것이다.
2002년 11월 사스(SARS), 2012년 4월 메르스(MERS) 및 2019년 12월 코로나 19(COVID-19)에 이르기까지 치명적인 감염성 호흡기 질환은 우리 인류를 끊임없이 위협하고 있다.
이 외에도 에볼라, 인플루엔자, 결핵, 폐렴 및 수많은 변종 바이러스의 출현은 우리 인류의 삶을 낙후시키기 충분하다. 무엇보다 위와 같은 감염성 호흡기 질환이 무서운 파급력을 가지는 이유는 호흡기로 전염되는 질환이기 때문이며, 이는 일상 생활에서 나오는 타액 등의 비말에 의한 전염성 때문이다.
이에 따라, 감염자 또는 의증자의 동선을 파악하고 의료기관 도착 전/후로 특별한 관리가 절대적으로 필요하며, 이를 통해 가족 구급대 및 의료진 등의 밀/간접 접촉자의 2차 감염을 경감 예방할 뿐 아니라 누적 피로도의 일부 해소를 기대할 수 있다.
이러한 특별한 관리와 2차 감염을 방지하기 위해서는 의료 종사자, 이송 요원(등)의 이승 및 이송에 의한 피로 누적과 전염 위험을 경감하고 보호할 수 있는 안전하고 편의성이 강화된 반자율주행 로봇 플랫폼이 요구된다.
한국공개특허 제10-2021-0115985호
상기와 같은 종래 기술의 문제점을 해결하기 위해, 본 발명의 일 실시예는 사람을 추종하여 반자율적으로 이동하는 방법 및 이를 구현하는 로봇을 제공하고자 한다.
또, 본 발명의 일 실시예는 라이다 및 영상 정보의 조합을 기본으로 3채널 이상의 통신을 통해 추정 정확도와 장애물 회피 능력이 증가된 사람 추종 모드로 이동하는 방법 및 이를 구현하는 로봇을 제공하고자 한다.
위와 같은 과제를 해결하기 위한 본 발명의 일 측면에 따르면, 사람 추종 모드로 이동하는 방법을 구현하는 로봇이 제공된다. 상기 사람 추종 모드로 이동하는 방법을 구현하는 로봇은, 로봇이 추종 대상을 인식하고 추종 대상과의 상대적 정보인 외부 정보를 획득하는 외부 정보 획득부; 상기 외부 정보를 이용하여 상기 추종 대상과의 상대 좌표를 획득하는 상대 좌표 획득부; 및 상기 상대 좌표와 상기 외부 정보를 이용하여 상기 로봇 동작 신호를 생성하고 출력하는 로봇 동작 신호 생성부;를 포함한다.
상기 외부 정보 획득부는, 상기 추종 대상을 인식하기 위한 영상 정보를 획득하는 카메라 모듈; 상기 추종 대상이 보유한 태그의 위치를 인식하기 위해 UWB 정보를 획득하는 UWB 모듈; 및 상기 로봇이 위치한 공간의 환경 정보 및 장애물 정보를 포함하는 공간 정보를 획득하는 라이다 모듈;을 포함할 수 있다.
상기 상대 좌표 획득부는, 상기 영상 정보 및 상기 UWB 정보를 이용하여 상기 추종 대상 및 상기 태그와의 좌표 정보를 추출하는 좌표 정보 추출 모듈; 상기 좌표 정보에 기 설정된 가중치를 부여하여 상기 좌표 정보의 조합 및 보정을 수행하여 보정 좌표 정보를 획득하는 데이터 처리 모듈; 및 상기 보정 좌표 정보를 이용하여 상기 추종 대상과 상기 로봇 사이의 상기 상대 좌표를 계산하는 상대 좌표 계산 모듈;을 포함할 수 있다.
상기 로봇 동작 신호 생성부는, 상기 상대 좌표의 변화를 이용하여 상기 로봇이 이동하여야 하는 경로 및 속도를 포함하는 이동 정보를 획득하는 이동 정보 획득 모듈; 상기 이동 정보에 장애물이 포함되는지를 확인하고, 상기 장애물이 포함되는 경우 상기 장애물의 회피가 가능한지 판단하고, 상기 장애물의 회피가 가능하다고 판단되는 경우 상기 장애물을 회피하여 이동할 수 있는 회피 경로를 도출하는 장애물 회피 가능 여부 판단 모듈; 및 상기 이동 정보 또는 상기 회피 경로를 이동 동작 신호로 출력하거나, 상기 장애물의 회피가 불가능하다고 판단되는 경우 상기 로봇의 동작을 정지시키는 정지 동작 신호를 출력하는 동작 신호 출력 모듈;을 포함할 수 있다.
본 발명의 일 측면에 따르면, 사람 추종 모드로 이동하는 방법이 제공된다. 상기 사람 추종 모드로 이동하는 방법은, 외부 정보 획득부를 이용하여 로봇이 추종 대상을 인식하고 추종 대상과의 상대적 정보인 외부 정보를 획득하는 외부 정보 획득 단계; 상대 좌표 획득부를 통해 상기 외부 정보를 이용하여 상기 추종 대상과의 상대 좌표를 획득하는 상대 좌표 획득 단계; 및 로봇 동작 신호 생성부를 통해 상기 상대 좌표와 상기 외부 정보를 이용하여 상기 로봇 동작 신호를 생성하고 출력하는 로봇 동작 신호 생성 단계;를 포함한다.
본 발명의 일 실시예에 따른 사람 추종 모드로 이동하는 방법 및 이를 구현하는 로봇은, 라이다 및 영상 정보의 조합을 기본으로 3채널 이상의 통신을 통해 추정 정확도와 장애물 회피 능력이 증가되는 효과를 가진다.
도 1은 본 발명의 실시예에 따른 사람 추종 모드로 이동하는 방법을 구현하는 로봇의 블록도이다.
도 2는 도 1의 외부 정보 획득부의 블록도이다.
도 3은 도 1의 상대 좌표 획득부의 블록도이다.
도 4는 도 1의 로봇 동작 신호 생성부의 블록도이다.
도 5는 본 발명의 일 실시예에 따른 사람 추종 모드로 이동하는 방법의 순서도이다.
도 6은 도 5의 단계 S11의 순서도이다.
도 7은 도 5의 단계 S13의 순서도이다.
도 8은 도 5의 단계 S15의 순서도이다.
도 9는 도 1 및 도 5의 사람 추종 모드로 이동하는 방법의 예시도이다.
이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성 요소들에 참조부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 기술 사상의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다. 본 명세서 상에서 언급된 "포함한다", "갖는다", "이루어진다" 등이 사용되는 경우 "~만"이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별한 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함할 수 있다.
또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다.
구성 요소들의 위치 관계에 대한 설명에 있어서, 둘 이상의 구성 요소가 "연결", "결합" 또는 "접속" 등이 된다고 기재된 경우, 둘 이상의 구성 요소가 직접적으로 "연결", "결합" 또는 "접속" 될 수 있지만, 둘 이상의 구성 요소와 다른 구성 요소가 더 "개재"되어 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다. 여기서, 다른 구성 요소는 서로 "연결", "결합" 또는 "접속" 되는 둘 이상의 구성 요소 중 하나 이상에 포함될 수도 있다.
구성 요소들이나, 동작 방법이나 제작 방법 등과 관련한 시간적 흐름 관계에 대한 설명에 있어서, 예를 들어, "~후에", "~에 이어서", "~다음에", "~전에" 등으로 시간적 선후 관계 또는 흐름적 선후 관계가 설명되는 경우, "바로" 또는 "직접"이 사용되지 않는 이상 연속적이지 않은 경우도 포함할 수 있다.
한편, 구성 요소에 대한 수치 또는 그 대응 정보(예: 레벨 등)가 언급된 경우, 별도의 명시적 기재가 없더라도, 수치 또는 그 대응 정보는 각종 요인(예: 공정상의 요인, 내부 또는 외부 충격, 노이즈 등)에 의해 발생할 수 있는 오차 범위를 포함하는 것으로 해석될 수 있다.
도 1은 본 발명의 실시예에 따른 사람 추종 모드로 이동하는 방법을 구현하는 로봇의 블록도이고, 도 2는 도 1의 외부 정보 획득부의 블록도이며, 도 3은 도 1의 상대 좌표 획득부의 블록도이고, 도 4는 도 1의 로봇 동작 신호 생성부의 블록도이다. 이하에서는 도 1 내지 도 4를 이용하여 본 발명의 일 실시예에 따른 사람 추종 모드로 이동하는 방법을 구현하는 로봇(이하 편의상 로봇이라 함)에 대하여 설명하도록 한다.
본 발명의 일 실시예에 따른 로봇(1)은, 사람을 인식하여 좌표를 추출하고, 사람이 들고 있는 태그의 위치를 인식하여 좌표를 인식한 후, 두 좌표에 각각 가중치를 부여하고 이를 통해 상대 좌표를 획득한다. 이후, 주변 환경 및 장애물을 라이다를 통해 인식하고, 인식 정보를 이용하여 로봇의 동작 신호를 생성하도록 형성될 수 있다.
이를 위해 본 발명의 일 실시예에 따른 로봇(1)은 도 1에 도시된 바와 같이 외부 정보 획득부(11), 상대 좌표 획득부(13) 및 로봇 동작 신호 생성부(15)를 포함하도록 형성된다.
외부 정보 획득부(11)는 로봇이 추종 대상을 인식하고, 추종 대상과의 상대적 정보인 외부 정보를 획득하도록 구비된다. 외부 정보는 다양한 측정 정보를 포함할 수 있으며, 본 발명의 일 실시예에서 외부 정보는 추종 대상 정보 및 공간 정보를 포함할 수 있다. 추종 대상 정보는 후술되는 카메라 모듈(111) 및 UWB 모듈(113)을 통해 획득될 수 있으며, 공간 정보는 라이다 모듈(115)을 통해 획득될 수 있다.
카메라 모듈(111)은 추종 대상을 인식하기 위한 영상 정보를 획득하도록 형성되며, UWB 모듈(113)은 추종 대상이 보유 또는 소지하고 있는 태그의 위치를 인식하기 위한 UWB 정보를 획득하도록 형성될 수 있다. 본 발명의 일 실시예에서 UWB 모듈(113)은 적어도 3채널으로 형성될 수 있으며, 이를 통해 추종 정확도를 증가시킬 수 있다. UWB 모듈(113)이 1채널로 형성되는 경우에는 태그와의 거리 정보만을 획득할 수 있으며 2채널로 형성되는 경우에는 태그와의 거리와 더불어 방향 정보까지 획득할 수 있다. 또, UWB 모듈(113)이 3채널로 형성되는 경우에는 거리 정보 및 방향 정보를 이용하여 태그와의 좌표 정보를 도출할 수 있기 때문에, 상술한 바와 같이 본 발명의 일 실시예에서 UWB 모듈(113)은 적어도 3채널로 형성될 수 있다.
라이다 모듈(115)은 로봇이 위치한 공간의 환경 정보 및 장애물 정보를 포함하는 공간 정보를 획득하도록 형성된다. 라이다 모듈(115)은 레이저를 방출하고, 공간에서 반사되어 돌아오는 반사 레이저를 획득하여 분석을 수행하고, 분석 결과를 통해 공간 내의 환경 정보 및 장애물 정보를 획득할 수 있다.
상대 좌표 획득부(13)는 외부 정보를 이용하여 추종 대상과의 상대 좌표를 획득하도록 형성된다. 상대 좌표 획득부(13)는 외부 정보 획득부(11)에서 획득된 외부 정보를 이용하여 추종 대상인 사람과의 장대 좌표를 획득할 수 있으며, 이를 위해 도 3에 도시된 바와 같이 좌표 정보 추출 모듈(131), 데이터 처리 모듈(133) 및 상대 좌표 계산 모듈(135)을 포함하도록 형성될 수 있다.
좌표 정보 추출 모듈(131)은 외부 정보 중 영상 정보와 UWB 정보를 이용하여 추종 대상 및 태그와의 좌표 정보를 추출하도록 형성된다. 추종 대상과의 좌표 정보는 영상 정보를 처리하여 획득될 수 있으며, 태그와의 좌표 정보는 UWB 정보를 처리하여 획득될 수 있다. 일 예로 좌표 정보 추출 모듈(131)은 영상 정보의 크기 변화를 이용하여 추종 대상과의 좌표 정보를 획득할 수도 있으며, 태UWB 태그와의 신호 교환을 통해 태그와의 좌표 정보를 획득할 수도 있다.
데이터 처리 모듈(133)은 좌표 정보에 기 설정된 가중치를 부여하여 좌표 정보의 조합 및 보정을 수행하고, 이를 통해 보정된 좌표 정보를 획득하도록 형성된다. 데이터 처리 모듈(133)은 좌표 정보 추출 모듈(131)에서 추출된 추종 대상과의 좌표 정보 및 태그와의 좌표 정보를 각각 획득하고, 각 좌표 정보에 기 설정된 가중치를 부여하여 보정된 좌표 정보를 획득하도록 형성된다. 여기서, 기 설정된 가중치는 관리자가 직접 설정한 가중치일 수도 있고, 기 설정된 가중치 도출 알고리즘을 이용하여 도출되는 가중치일 수도 있다.
데이터 처리 모듈(133)은 각 좌표 정보에 가중치를 부여한 가중 좌표 정보를 생성하면, 두 가중 좌표 정보를 조합하여 보정된 좌표 정보를 획득하도록 형성될 수 있다. 여기서, 보정된 좌표 정보는 바람직하게는 두 가중 좌표 정보를 모두 사용하는 것으로 설명되고 있지만, 본 발명의 다른 실시예에서는 어느 하나의 가중 좌표 정보만을 이용하여 보정된 좌표 정보인 보정 좌표 정보를 생성할 수도 있다.
상대 좌표 계산 모듈(135)은 보정 좌표 정보를 획득하고, 보정 좌표 정보를 이용하여 추종 대상과 로봇 사이의 상대 좌표를 계산하도록 형성된다. 상대 좌표는 추종 대상 또는 로봇을 원점으로 하여 생성되는 좌표이며 본 발명의 일 실시예에서는 상대 좌표 계산 모듈(135)은 로봇을 원점으로 하여 추종 대상과의 상대 좌표를 계산하도록 형성될 수 있다. 상대 좌표 계산 모듈(135)은 보정 좌표 정보를 이용함으로써, 최초 획득된 추종 대상과의 좌표 정보 또는 태그와의 좌표 정보에 대한 정확도 보정이 수행되어 보다 정밀한 상대 좌표를 계산하도록 형성될 수 있다. 여기서, 상대 좌표 계산 모듈(135)은 일 예로 상대 좌표를 도출하기 위해 기 설정된 상대 좌표 도출 알고리즘에 상술한 보정 좌표 정보를 적용하도록 형성될 수도 있다.
상대 좌표를 도출하면, 본 발명의 일 실시예에 따른 로봇 동작 신호 생성부(15)는 상대 좌표 및 외부 정보를 이용하여 로봇 동작 신호를 생성하고 출력하도록 형성된다. 본 발명의 로봇 동작 신호 생성부(15)는 로봇 동작 신호를 생성하고 출력하기 위해 도 4에 도시된 바와 같이 이동 정보 획득 모듈(151), 장애물 회피 가능 여부 판단 모듈(153) 및 동작 신호 출력 모듈(155)을 포함하도록 형성된다.
이동 정보 획득 모듈(151)은 상대 좌표의 변화를 이용하여 로봇이 이동하여야 하는 경로 및 속도를 포함하는 이동 정보를 획득하도록 형성된다. 이동 정보 획득 모듈(151)은 상대 좌표의 변화를 이용하여 추종 대상의 이동 경로 및 이동 속도를 획득할 수 있다. 추종 대상의 이동 경로 및 이동 속도를 획득하면, 이동 정보 획득 모듈(151)은 추종 대상의 이동 경로와 이동 속도를 이동 정보로 획득할 수 있다. 여기서, 본 발명의 일 실시예에 따른 이동 정보 획득 모듈(151)은 이동 속도가 기 설정된 제한 속도 범위에 포함되는지 확인하고, 제한 속도 범위를 이용하여 이동 정보에 포함되는 이동 속도를 결정하도록 형성될 수 있다.
본 발명의 로봇(1)은 설정에 따라 환자와 함께 이동하도록 형성될 수도 있다. 이때, 환자가 병상(침대)에 누워서 이동하거나 휠체어 등에 앉아서 이동하게 되면, 속도가 빨라질수록 환자의 자세가 불안정해 질 뿐 아니라 전도 또는 전복으로 인해 낙상이 발생할 가능성도 증가한다. 따라서, 본 발명의 일 실시예에서 추종 대상이 기 설정된 제한 속도를 벗어나는 속도로 이동하는 경우, 이동 정보 획득 모듈(151)은 기 설정된 제한 속도만큼으로 이동하도록 이동 정보를 생성할 수 있다.
또, 본 발명의 일 실시예에서 이동 정보 획득 모듈(151)은 거리 범위를 이동 정보에 더 포함하도록 형성될 수 있다. 거리 범위는 추종 대상과 로봇(1) 사이의 거리를 의미한다. 이 거리가 멀어지게 되면 로봇(1)이 추종 대상을 추종하기 어려워지며, 이 거리가 기 설정된 거리보다 가까워지게 된다면 상술한 바와 같이 로봇(1)과 추종 대상의 접촉 및 충돌 사고가 발생할 수 있다. 따라서, 본 발명의 일 실시예에서 이동 정보 획득 모듈(151)은 거리 범위를 이동 정보에 더 포함하여 로봇(1)이 추종 대상과 접촉하는 사고를 예방할 수 있는 특정 거리 범위 만큼의 거리를 유지하면서 이동하도록 할 수 있다.
또한, 본 발명의 일 실시예에서 이동 정보 획득 모듈(151)은 외부 정보에 포함되는 공간 정보를 이동 정보에 더 포함시키도록 형성될 수도 있다. 공간 정보는 상술한 바와 같이 라이다 모듈(115)을 이용하여 획득되는 정보이다. 로봇(1)이 이동하는 과정에서 로봇(1)의 주행이 이루어지는 공간에 다양한 물체 또는 사람이 존재할 수 있기 때문에 공간 내에서 장애물 회피가 이루어져야 한다. 따라서, 본 발명의 이동 정보 획득 모듈(151)은 공간 정보를 이동 정보에 더 포함시켜 후술되는 장애물 회피 가능 여부 판단 모듈(153)에서 이동 정보에 구비되는 공간 정보를 사용하도록 할 수 있다.
장애물 회피 가능 여부 판단 모듈(153)은 이동 정보에 장애물이 포함되는지를 확인하고, 장애물이 포함되는 경우 장애물의 회피가 가능한지 판단하며, 장애물의 회피가 가능하다고 판단되는 경우 장애물을 회피하여 이동할 수 있는 회피 경로를 도출하도록 형성된다. 장애물 회피 가능 여부 판단 모듈(153)은, 이동 정보 중 이동 경로를 획득하고, 이동 정보에 포함되는 공간 정보로부터 장애물 정보를 획득하여 이동 경로 내에 장애물이 존재하는지를 확인한다.
이동 경로 내에 장애물이 존재하는 경우, 본 발명의 일 실시예에 따른 장애물 회피 가능 여부 판단 모듈(153)은 해당 장애물을 우회하는 로봇(1)이 이동 가능한 회피 경로를 도출하도록 형성된다. 여기서 회피 경로는 로봇(1)의 크기 및 속도 정보를 이용하여 도출될 수 있다. 회피 경로가 도출되는 경우, 다시 말해 장애물을 회피하여 이동이 가능한 경우 장애물 회피 가능 여부 판단 모듈(153)은 도출한 회피 경로를 반영한 이동 경로를 포함하는 이동 정보를 생성하여 후술되는 동작 신호 출력 모듈로 전달할 수 있다.
동작 신호 출력 모듈(155)은 이동 정보 또는 회피 경로를 이동 동작 신호로 출력하거나, 장애물의 회피가 불가능하다고 판단되는 경우 로봇의 동작을 정지시키는 정지 동작 신호를 출력하도록 형성된다. 동작 신호 출력 모듈(155)은 장애물 회피 가능 여부 판단 모듈(153)에서 전달되는 이동 정보를 이동 동작 신호로 출력할 수 있다. 장애물 회피 가능 여부 판단 모듈(153)에서 전달되는 이동 정보는 장애물이 존재하고 회피가 가능한 경우 회피 경로가 반영된 이동 정보이기 때문에, 본 발명의 동작 신호 출력 모듈(155)은 장애물 회피 가능 여부 판단 모듈(153)에서 전달되는 이동 정보를 이용하여 로봇(1)이 이동하는 공간 내의 장애물을 회피하여 이동할 수 있도록 형성될 수 있다.
또, 장애물의 회피가 불가능한 경우, 동작 신호 출력 모듈(155)은 로봇의 동작을 정지시키도록 형성된다. 장애물의 회피가 불가능하면 본 발명의 장애물 회피 가능 여부 판단 모듈(155)에서는 회피 불가 정보를 동작 신호 출력 모듈(155)로 전달하고, 동작 신호 출력 모듈(155)은 회피 불가 정보를 획득하면 로봇(1)의 동작을 정지시키는 정지 동작 신호를 출력하여 로봇(1)의 이동을 정지시킴과 동시에 추종 대상에게 장애물 회피 불가 신호를 출력하여 추종 대상에게 로봇(1)이 더 이상 자신을 추종하지 못한다는 사실을 인지시킬 수 있다.
한편, 도 5 내지 도 8에는 본 발명의 일 실시예에 따른 사람 추종 모드로 이동하는 방법이 도시되고 있다. 도 5는 본 발명의 일 실시예에 따른 사람 추종 모드로 이동하는 방법의 순서도이고, 도 6은 도 5의 단계 S11의 순서도이며, 도 7은 도 5의 단계 S13의 순서도이고, 도 8은 도 5의 단계 S15의 순서도이다. 이하에서는 설명의 편의상 도 1의 로봇을 이용하여 본 발명을 설명하도록 하지만, 본 발명은 반드시 이에 한정되는 것은 아니다.
본 발명의 일 실시예에 따른 로봇은, 사람을 인식하여 좌표를 추출하고, 사람이 들고 있는 태그의 위치를 인식하여 좌표를 인식한 후, 두 좌표에 각각 가중치를 부여하고 이를 통해 상대 좌표를 획득한다. 이후, 주변 환경 및 장애물을 라이다를 통해 인식하고, 인식 정보를 이용하여 로봇의 동작 신호를 생성하도록 형성될 수 있다.
이를 위해 본 발명의 일 실시예에 따른 로봇이 추종 대상을 추종하도록 하기 위한 방법인 사람 추종 모드로 이동하는 방법(10)은 도 5에 도시된 바와 같이 외부 정보 획득 단계(S11), 상대 좌표 획득 단계(S13) 및 로봇 동작 신호 생성 단계(S15)를 포함하도록 형성된다.
외부 정보 획득 단계(S11)는 외부 정보 획득부를 이용하여 로봇이 추종 대상을 인식하고, 추종 대상과의 상대적 정보인 외부 정보를 획득하도록 구비된다. 외부 정보는 다양한 측정 정보를 포함할 수 있으며, 본 발명의 일 실시예에서 외부 정보는 추종 대상 정보 및 공간 정보를 포함할 수 있다. 추종 대상 정보는 후술되는 카메라를 이용하여 영상 정보를 획득하는 단계(S111) 및 UWB를 이용하여 UWB 정보를 획득하는 단계(S113)를 통해 획득될 수 있으며, 공간 정보는 라이다를 이용하여 공간 정보를 획득하는 단계(S115)를 통해 획득될 수 있다.
카메라를 이용하여 영상 정보를 획득하는 단계(S111)는 추종 대상을 인식하기 위한 영상 정보를 획득하도록 형성되며, UWB를 이용하여 UWB 정보를 획득하는 단계(S113)는 추종 대상이 보유 또는 소지하고 있는 태그의 위치를 인식하기 위한 UWB 정보를 획득하도록 형성될 수 있다. 본 발명의 일 실시예에서 UWB를 이용하여 UWB 정보를 획득하는 단계(S113)는 적어도 3채널으로 형성될 수 있으며, 이를 통해 추종 정확도를 증가시킬 수 있다. UWB를 이용하여 UWB 정보를 획득하는 단계(S113)가 1채널로 형성되는 경우에는 태그와의 거리 정보만을 획득할 수 있으며 2채널로 형성되는 경우에는 태그와의 거리와 더불어 방향 정보까지 획득할 수 있다. 또, UWB를 이용하여 UWB 정보를 획득하는 단계(S113)가 3채널로 형성되는 경우에는 거리 정보 및 방향 정보를 이용하여 태그와의 좌표 정보를 도출할 수 있기 때문에, 상술한 바와 같이 본 발명의 일 실시예에서 UWB를 이용하여 UWB 정보를 획득하는 단계(S113)는 적어도 3채널로 형성될 수 있다.
라이다를 이용하여 공간 정보를 획득하는 단계(S115)는 로봇이 위치한 공간의 환경 정보 및 장애물 정보를 포함하는 공간 정보를 획득하도록 형성된다. 라이다를 이용하여 공간 정보를 획득하는 단계(S115)는 레이저를 방출하고, 공간에서 반사되어 돌아오는 반사 레이저를 획득하여 분석을 수행하고, 분석 결과를 통해 공간 내의 환경 정보 및 장애물 정보를 획득할 수 있다.
상대 좌표 획득 단계(S13)는 상대 좌표 획득부를 통해 외부 정보를 이용하여 추종 대상과의 상대 좌표를 획득하도록 형성된다. 상대 좌표 획득 단계(S13)는 외부 정보 획득 단계(S11)에서 획득된 외부 정보를 이용하여 추종 대상인 사람과의 장대 좌표를 획득할 수 있으며, 이를 위해 도 7에 도시된 바와 같이 좌표 정보 추출 단계(S131), 데이터 처리 단계(S133) 및 상대 좌표 계산 단계(S135)를 포함하도록 형성될 수 있다.
좌표 정보 추출 단계(S131)는 외부 정보 중 영상 정보와 UWB 정보를 이용하여 추종 대상 및 태그와의 좌표 정보를 추출하도록 형성된다. 추종 대상과의 좌표 정보는 영상 정보를 처리하여 획득될 수 있으며, 태그와의 좌표 정보는 UWB 정보를 처리하여 획득될 수 있다. 일 예로 좌표 정보 추출 단계(S131)는 영상 정보의 크기 변화를 이용하여 추종 대상과의 좌표 정보를 획득할 수도 있으며, 태UWB 태그와의 신호 교환을 통해 태그와의 좌표 정보를 획득할 수도 있다.
데이터 처리 단계(S133)는 좌표 정보에 기 설정된 가중치를 부여하여 좌표 정보의 조합 및 보정을 수행하고, 이를 통해 보정된 좌표 정보를 획득하도록 형성된다. 데이터 처리 단계(S133)는 좌표 정보 추출 단계(S131)에서 추출된 추종 대상과의 좌표 정보 및 태그와의 좌표 정보를 각각 획득하고, 각 좌표 정보에 기 설정된 가중치를 부여하여 보정된 좌표 정보를 획득하도록 형성된다. 여기서, 기 설정된 가중치는 관리자가 직접 설정한 가중치일 수도 있고, 기 설정된 가중치 도출 알고리즘을 이용하여 도출되는 가중치일 수도 있다.
데이터 처리 단계(S133)는 각 좌표 정보에 가중치를 부여한 가중 좌표 정보를 생성하면, 두 가중 좌표 정보를 조합하여 보정된 좌표 정보를 획득하도록 형성될 수 있다. 여기서, 보정된 좌표 정보는 바람직하게는 두 가중 좌표 정보를 모두 사용하는 것으로 설명되고 있지만, 본 발명의 다른 실시예에서는 어느 하나의 가중 좌표 정보만을 이용하여 보정된 좌표 정보인 보정 좌표 정보를 생성할 수도 있다.
상대 좌표 계산 단계(S135)는 보정 좌표 정보를 획득하고, 보정 좌표 정보를 이용하여 추종 대상과 로봇 사이의 상대 좌표를 계산하도록 형성된다. 상대 좌표는 추종 대상 또는 로봇을 원점으로 하여 생성되는 좌표이며 본 발명의 일 실시예에서는 상대 좌표 계산 단계(S135)는 로봇을 원점으로 하여 추종 대상과의 상대 좌표를 계산하도록 형성될 수 있다. 상대 좌표 계산 단계(S135)는 보정 좌표 정보를 이용함으로써, 최초 획득된 추종 대상과의 좌표 정보 또는 태그와의 좌표 정보에 대한 정확도 보정이 수행되어 보다 정밀한 상대 좌표를 계산하도록 형성될 수 있다. 여기서, 상대 좌표 계산 단계(S135)는 일 예로 상대 좌표를 도출하기 위해 기 설정된 상대 좌표 도출 알고리즘에 상술한 보정 좌표 정보를 적용하도록 형성될 수도 있다.
상대 좌표를 도출하면, 본 발명의 일 실시예에 따른 로봇 동작 신호 생성 단계(S15)는 로봇 동작 신호 생성부를 통해 상대 좌표 및 외부 정보를 이용하여 로봇 동작 신호를 생성하고 출력하도록 형성된다. 본 발명의 로봇 동작 신호 생성 단계(S15)는 로봇 동작 신호를 생성하고 출력하기 위해 도 8에 도시된 바와 같이 이동 정보 획득 단계(S151), 장애물 회피 가능 여부 판단 단계(S153) 및 동작 신호 출력 단계(S155)를 포함하도록 형성된다.
이동 정보 획득 단계(S151)는 상대 좌표의 변화를 이용하여 로봇이 이동하여야 하는 경로 및 속도를 포함하는 이동 정보를 획득하도록 형성된다. 이동 정보 획득 단계(S151)는 상대 좌표의 변화를 이용하여 추종 대상의 이동 경로 및 이동 속도를 획득할 수 있다. 추종 대상의 이동 경로 및 이동 속도를 획득하면, 이동 정보 획득 단계(S151)는 추종 대상의 이동 경로와 이동 속도를 이동 정보로 획득할 수 있다. 여기서, 본 발명의 일 실시예에 따른 이동 정보 획득 단계(S151)는 이동 속도가 기 설정된 제한 속도 범위에 포함되는지 확인하고, 제한 속도 범위를 이용하여 이동 정보에 포함되는 이동 속도를 결정하도록 형성될 수 있다.
본 발명의 로봇은 설정에 따라 환자와 함께 이동하도록 형성될 수도 있다. 이때, 환자가 병상(침대)에 누워서 이동하거나 휠체어 등에 앉아서 이동하게 되면, 속도가 빨라질수록 환자의 자세가 불안정해 질 뿐 아니라 전도 또는 전복으로 인해 낙상이 발생할 가능성도 증가한다. 따라서, 본 발명의 일 실시예에서 추종 대상이 기 설정된 제한 속도를 벗어나는 속도로 이동하는 경우, 이동 정보 획득 단계(S151)는 기 설정된 제한 속도만큼으로 이동하도록 이동 정보를 생성할 수 있다.
또, 본 발명의 일 실시예에서 이동 정보 획득 단계(S151)는 거리 범위를 이동 정보에 더 포함하도록 형성될 수 있다. 거리 범위는 추종 대상과 로봇 사이의 거리를 의미한다. 이 거리가 멀어지게 되면 로봇이 추종 대상을 추종하기 어려워지며, 이 거리가 기 설정된 거리보다 가까워지게 된다면 상술한 바와 같이 로봇과 추종 대상의 접촉 및 충돌 사고가 발생할 수 있다. 따라서, 본 발명의 일 실시예에서 이동 정보 획득 단계(S151)는 거리 범위를 이동 정보에 더 포함하여 로봇이 추종 대상과 접촉하는 사고를 예방할 수 있는 특정 거리 범위 만큼의 거리를 유지하면서 이동하도록 할 수 있다.
또한, 본 발명의 일 실시예에서 이동 정보 획득 단계(S151)는 외부 정보에 포함되는 공간 정보를 이동 정보에 더 포함시키도록 형성될 수도 있다. 공간 정보는 상술한 바와 같이 라이다를 이용하여 공간 정보를 획득하는 단계(S115)를 이용하여 획득되는 정보이다. 로봇이 이동하는 과정에서 로봇의 주행이 이루어지는 공간에 다양한 물체 또는 사람이 존재할 수 있기 때문에 공간 내에서 장애물 회피가 이루어져야 한다. 따라서, 본 발명의 이동 정보 획득 단계(S151)는 공간 정보를 이동 정보에 더 포함시켜 후술되는 장애물 회피 가능 여부 판단 단계(S153)에서 이동 정보에 구비되는 공간 정보를 사용하도록 할 수 있다.
장애물 회피 가능 여부 판단 단계(S153)는 이동 정보에 장애물이 포함되는지를 확인하고, 장애물이 포함되는 경우 장애물의 회피가 가능한지 판단하며, 장애물의 회피가 가능하다고 판단되는 경우 장애물을 회피하여 이동할 수 있는 회피 경로를 도출하도록 형성된다. 장애물 회피 가능 여부 판단 단계(S153)는, 이동 정보 중 이동 경로를 획득하고, 이동 정보에 포함되는 공간 정보로부터 장애물 정보를 획득하여 이동 경로 내에 장애물이 존재하는지를 확인한다.
이동 경로 내에 장애물이 존재하는 경우, 본 발명의 일 실시예에 따른 장애물 회피 가능 여부 판단 단계(S153)는 해당 장애물을 우회하는 로봇이 이동 가능한 회피 경로를 도출하도록 형성된다. 여기서 회피 경로는 로봇의 크기 및 속도 정보를 이용하여 도출될 수 있다. 회피 경로가 도출되는 경우, 다시 말해 장애물을 회피하여 이동이 가능한 경우 장애물 회피 가능 여부 판단 단계(S153)는 도출한 회피 경로를 반영한 이동 경로를 포함하는 이동 정보를 생성하여 후술되는 동작 신호 출력 단계로 전달할 수 있다.
동작 신호 출력 단계(S155)는 이동 정보 또는 회피 경로를 이동 동작 신호로 출력하거나, 장애물의 회피가 불가능하다고 판단되는 경우 로봇의 동작을 정지시키는 정지 동작 신호를 출력하도록 형성된다. 동작 신호 출력 단계(S155)는 장애물 회피 가능 여부 판단 단계(S153)에서 전달되는 이동 정보를 이동 동작 신호로 출력할 수 있다. 장애물 회피 가능 여부 판단 단계(S153)에서 전달되는 이동 정보는 장애물이 존재하고 회피가 가능한 경우 회피 경로가 반영된 이동 정보이기 때문에, 본 발명의 동작 신호 출력 단계(S155)는 장애물 회피 가능 여부 판단 단계(S153)에서 전달되는 이동 정보를 이용하여 로봇이 이동하는 공간 내의 장애물을 회피하여 이동할 수 있도록 형성될 수 있다.
또, 장애물의 회피가 불가능한 경우, 동작 신호 출력 단계(S155)는 로봇의 동작을 정지시키도록 형성된다. 장애물의 회피가 불가능하면 본 발명의 장애물 회피 가능 여부 판단 단계(S155)에서는 회피 불가 정보를 동작 신호 출력 단계(S155)로 전달하고, 동작 신호 출력 단계(S155)는 회피 불가 정보를 획득하면 로봇의 동작을 정지시키는 정지 동작 신호를 출력하여 로봇의 이동을 정지시킴과 동시에 추종 대상에게 장애물 회피 불가 신호를 출력하여 추종 대상에게 로봇이 더 이상 자신을 추종하지 못한다는 사실을 인지시킬 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
1: 사람 추종 모드로 이동하는 방법을 구현하는 로봇
11: 외부 정보 획득부
13: 상대 좌표 획득부
15: 로봇 동작 신호 생성부
111: 카메라 모듈
113: UWB 모듈
115: 라이다 모듈
131: 좌표 정보 추출 모듈
133: 데이터 처리 모듈
135: 상대 좌표 계산 모듈
151: 이동 정보 획득 모듈
153: 장애물 회피 가능 여부 판단 모듈
155: 동작 신호 출력 모듈

Claims (5)

  1. 환자 이송용 로봇이 추종 대상을 인식하고 추종 대상과의 상대적 정보인 외부 정보를 획득하는 외부 정보 획득부;
    상기 외부 정보를 이용하여 상기 추종 대상과의 상대 좌표를 획득하는 상대 좌표 획득부; 및
    상기 상대 좌표와 상기 외부 정보를 이용하여 로봇 동작 신호를 생성하고 출력하는 로봇 동작 신호 생성부;를 포함하고,
    상기 외부 정보 획득부는,
    상기 추종 대상을 인식하기 위한 영상 정보를 획득하는 카메라 모듈;
    상기 추종 대상이 보유한 태그의 위치를 인식하기 위해 UWB 정보를 획득하되, 적어도 3채널로 형성되어 상기 태그와의 거리, 정보 및 방향 정보, 상기 태그와의 좌표 정보를 획득하는 UWB 모듈; 및
    상기 로봇이 위치한 공간의 환경 정보 및 장애물 정보를 포함하는 공간 정보를 획득하는 라이다 모듈;을 포함하며,
    상기 상대 좌표 획득부는,
    상기 영상 정보의 크기 변화를 이용하여 상기 추종 대상과의 좌표 정보를 추출하고 상기 UWB 정보를 이용하여 상기 태그와의 좌표 정보를 추출하는 좌표 정보 추출 모듈;
    상기 추종 대상과의 좌표 정보와 상기 태그와의 좌표 정보에 관리자에 의해 설정된 가중치를 부여하여 상기 좌표 정보의 조합 및 보정을 수행하여 보정 좌표 정보를 획득하는 데이터 처리 모듈; 및
    상기 보정 좌표 정보를 이용하여 상기 추종 대상과 상기 로봇 사이의 상기 상대 좌표를 계산하되, 상기 로봇을 원점으로 하여 상기 추종 대상의 상대 좌표를 계산하는 상대 좌표 계산 모듈;을 포함하고,
    상기 로봇 동작 신호 생성부는,
    상기 상대 좌표의 변화를 이용하여 상기 로봇이 이동하여야 하는 경로 및 속도를 포함하는 이동 정보를 획득하되, 상기 상대 좌표의 변화를 이용하여 상기 추종 대상의 이동 경로 및 이동 속도를 획득하고, 획득된 추종 대상의 이동 경로와 이동속도를 상기 이동 정보로 획득하는 이동 정보 획득 모듈을 포함하며,
    상기 이동 정보 획득 모듈은 상기 로봇이 환자와 함께 이동하는 경우, 상기 획득된 이동 속도가 기 설정된 제한 속도를 벗어나면, 상기 기 설정된 제한 속도로 이동하도록 상기 이동 속도를 생성하는 사람 추종 모드로 이동하는 방법을 구현하는 로봇.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서,
    상기 로봇 동작 신호 생성부는,
    상기 이동 정보에 장애물이 포함되는지를 확인하고, 상기 장애물이 포함되는 경우 상기 장애물의 회피가 가능한지 판단하고, 상기 장애물의 회피가 가능하다고 판단되는 경우 상기 장애물을 회피하여 이동할 수 있는 회피 경로를 도출하는 장애물 회피 가능 여부 판단 모듈; 및
    상기 이동 정보 또는 상기 회피 경로를 이동 동작 신호로 출력하거나, 상기 장애물의 회피가 불가능하다고 판단되는 경우 상기 로봇의 동작을 정지시키는 정지 동작 신호를 출력하는 동작 신호 출력 모듈;을 더 포함하는 사람 추종 모드로 이동하는 방법을 구현하는 로봇.
  5. 외부 정보 획득부를 이용하여 환자 이송용 로봇이 추종 대상을 인식하고 추종 대상과의 상대적 정보인 외부 정보를 획득하는 외부 정보 획득 단계;
    상대 좌표 획득부를 통해 상기 외부 정보를 이용하여 상기 추종 대상과의 상대 좌표를 획득하는 상대 좌표 획득 단계; 및
    로봇 동작 신호 생성부를 통해 상기 상대 좌표와 상기 외부 정보를 이용하여 상기 로봇 동작 신호를 생성하고 출력하는 로봇 동작 신호 생성 단계;를 포함하고,
    상기 외부 정보 획득 단계는,
    카메라를 이용하여 상기 추종 대상을 인식하기 위한 영상 정보를 획득하는 단계;
    적어도 3채널로 형성된 UWB를 이용하여 상기 추종 대상이 보유한 태그의 위치를 인식하기 위해 UWB 정보를 획득하되, 되어 상기 태그와의 거리, 정보 및 방향 정보, 상기 태그와의 좌표 정보를 획득하는 단계; 및
    라이다를 이용하여 상기 로봇이 위치한 공간의 환경 정보 및 장애물 정보를 포함하는 공간 정보를 획득하는 단계;를 포함하며,
    상기 상대 좌표 획득 단계는,
    상기 영상 정보의 크기 변화를 이용하여 상기 추종 대상과의 좌표 정보를 추출하고 상기 UWB 정보를 이용하여 상기 태그와의 좌표 정보를 추출하는 좌표 정보 추출 단계;
    상기 추종 대상과의 좌표 정보와 상기 태그와의 좌표 정보에 관리자에 의해 설정된 가중치를 부여하여 상기 좌표 정보의 조합 및 보정을 수행하여 보정 좌표 정보를 획득하는 데이터 처리 단계; 및
    상기 보정 좌표 정보를 이용하여 상기 추종 대상과 상기 로봇 사이의 상기 상대 좌표를 계산하되, 상기 로봇을 원점으로 하여 상기 추종 대상의 상대 좌표를 계산하는 상대 좌표 계산 단계;를 포함하고,
    상기 로봇 동작 신호 생성 단계는,
    상기 상대 좌표의 변화를 이용하여 상기 로봇이 이동하여야 하는 경로 및 속도를 포함하는 이동 정보를 획득하되, 상기 상대 좌표의 변화를 이용하여 상기 추종 대상의 이동 경로 및 이동 속도를 획득하고, 획득된 추종 대상의 이동 경로와 이동속도를 상기 이동 정보로 획득하는 이동 정보 획득 단계를 포함하며,
    상기 이동 정보 획득 단계는 상기 로봇이 환자와 함께 이동하는 경우, 상기 획득된 이동 속도가 기 설정된 제한 속도를 벗어나면, 상기 기 설정된 제한 속도로 이동하도록 상기 이동 속도를 생성하는 사람 추종 모드로 이동하는 방법.
KR1020230140173A 2023-10-19 2023-10-19 사람 추종 모드로 이동하는 방법 및 이를 구현하는 로봇 KR102665831B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230140173A KR102665831B1 (ko) 2023-10-19 2023-10-19 사람 추종 모드로 이동하는 방법 및 이를 구현하는 로봇

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230140173A KR102665831B1 (ko) 2023-10-19 2023-10-19 사람 추종 모드로 이동하는 방법 및 이를 구현하는 로봇

Publications (1)

Publication Number Publication Date
KR102665831B1 true KR102665831B1 (ko) 2024-05-13

Family

ID=91073290

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230140173A KR102665831B1 (ko) 2023-10-19 2023-10-19 사람 추종 모드로 이동하는 방법 및 이를 구현하는 로봇

Country Status (1)

Country Link
KR (1) KR102665831B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210073419A (ko) * 2018-11-09 2021-06-18 엘지전자 주식회사 이동 로봇 운용 서비스 시스템
KR20210115985A (ko) 2020-03-17 2021-09-27 (주)뉴빌리티 정밀 지도를 이용한 로봇 반자율주행 시스템
KR20220120908A (ko) * 2021-02-24 2022-08-31 한국전자통신연구원 이동 로봇 및 이동 로봇의 제어 방법
KR20230095588A (ko) * 2021-12-22 2023-06-29 네이버랩스 주식회사 강화 학습 기반의 알고리즘과 경로 계획 기반의 알고리즘을 사용하여 로봇을 제어하는 방법 및 시스템과, 로봇이 배치되는 건물

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210073419A (ko) * 2018-11-09 2021-06-18 엘지전자 주식회사 이동 로봇 운용 서비스 시스템
KR20210115985A (ko) 2020-03-17 2021-09-27 (주)뉴빌리티 정밀 지도를 이용한 로봇 반자율주행 시스템
KR20220120908A (ko) * 2021-02-24 2022-08-31 한국전자통신연구원 이동 로봇 및 이동 로봇의 제어 방법
KR20230095588A (ko) * 2021-12-22 2023-06-29 네이버랩스 주식회사 강화 학습 기반의 알고리즘과 경로 계획 기반의 알고리즘을 사용하여 로봇을 제어하는 방법 및 시스템과, 로봇이 배치되는 건물

Similar Documents

Publication Publication Date Title
CN111095345B (zh) 风险评价系统以及风险评价方法
US9694497B2 (en) Robot arrangement and method for controlling a robot
CN101479082B (zh) 机器人装置和机器人装置的控制方法
US11097421B2 (en) Control device, picking system, distribution system, program, control method and production method
JP2009545457A (ja) 機械の衝突防止のためのカメラを利用した監視方法及び装置
US11565418B2 (en) Robot system
JP6816070B2 (ja) 干渉回避装置およびロボットシステム
JP2009136988A (ja) リモコン
KR102665831B1 (ko) 사람 추종 모드로 이동하는 방법 및 이를 구현하는 로봇
US11376732B2 (en) Robot system for correcting teaching of robot using image processing
JP2017144498A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
Lemmerz et al. A hybrid collaborative operation for human-robot interaction supported by machine learning
KR101371387B1 (ko) 트랙킹 시스템 및 이를 이용한 트랙킹 방법
JP2018173707A (ja) 人推定システムおよび推定プログラム
Szabo et al. A testbed for evaluation of speed and separation monitoring in a human robot collaborative environment
JP7197011B2 (ja) 身長推定装置、身長推定方法及びプログラム
JP6491893B2 (ja) 自律走行制御システムとこれを用いる自律走行装置及び自律走行制御方法と制御プログラムと記録媒体
WO2019230199A1 (ja) 行動推定装置
CN113739819B (zh) 校验方法、装置、电子设备、存储介质及芯片
Marvel Sensors for safe, collaborative robots in smart manufacturing
KR20220106217A (ko) 3차원(3d) 모델링
US11822040B2 (en) Security scanning inspection system and method
JP2018169720A (ja) 動き検出システム
KR101757714B1 (ko) 수중 매니퓰레이터의 그림자 이미지 정보를 활용한 매니퓰레이터의 충돌방지장치
Shaik et al. Delivery robot using gps technology

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant