KR20210017452A - 로봇의 주행방법 - Google Patents

로봇의 주행방법 Download PDF

Info

Publication number
KR20210017452A
KR20210017452A KR1020190096738A KR20190096738A KR20210017452A KR 20210017452 A KR20210017452 A KR 20210017452A KR 1020190096738 A KR1020190096738 A KR 1020190096738A KR 20190096738 A KR20190096738 A KR 20190096738A KR 20210017452 A KR20210017452 A KR 20210017452A
Authority
KR
South Korea
Prior art keywords
robot
block
driving
braille
detection sensor
Prior art date
Application number
KR1020190096738A
Other languages
English (en)
Inventor
이돈근
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020190096738A priority Critical patent/KR20210017452A/ko
Priority to US16/590,196 priority patent/US11281225B2/en
Publication of KR20210017452A publication Critical patent/KR20210017452A/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0227Control of position or course in two dimensions specially adapted to land vehicles using mechanical sensing means, e.g. for sensing treated area
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Toys (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

로봇의 주행방법은 상기 로봇이 보유하는 맵을 기반으로 주행경로를 설정하는 단계; 상기 로봇이 설정된 주행경로를 따라 주행하는 단계; 상기 로봇의 주행 중, 상기 로봇이 상기 감지센서를 이용하여 주행경로의 주변에 시각장애인용 점자블록이 있는지 여부를 확인하는 단계; 및 주행경로의 주변에 상기 점자블록이 있는 경우, 상기 로봇이 상기 점자블록을 따라 주행하는 단계를 포함할 수 있다. 로봇은 5G(Generation) 통신에 따라 구축된 이동 통신망 상에서 무선신호를 송수신할 수 있다.

Description

로봇의 주행방법{DRIVING METHOD OF ROBOT}
실시예는, 로봇의 주행방법에 관한 것으로, 더욱 상세하게는 시각장애인용 점자블록을 이용하여 자율주행을 하는 로봇의 주행방법에 관한 것이다.
이 부분에 기술된 내용은 단순히 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.
로봇을 이용한 서비스 제공이 확산되고 있다. 예를 들어, 공항역사, 철도역사 등에서 고객을 안내하거나, 고객의 물품을 운반하는 로봇에 관한 연구가 활발하게 진행되고 있다.
로봇이 이러한 기능을 수행하기 위해서는, 출발지점으로부터 목표지점으로 자율주행을 할 수 있어야 한다.
한편, 로봇이 자율주행을 하기 위해서는, 로봇이 주행하면서 자기의 현재위치를 파악해야 하고, 자신의 주행경로 상에서 주변의 지형지물을 인식할 필요가 있다.
이를 위해 로봇은 동시 위치추정 및 맵 생성(Simultaneous Localization And Mapping, SLAM)을 진행할 필요가 있다.
한국공개특허 10-2017-0061355에는 카메라에서 획득한 영상을 분석하여 이동 로봇의 위치를 추적하고, SLAM의 정확도를 높이는 구성이 개시된다.
한국공개특허 10-2017-0138977에는 보행 로봇의 이동 과정에서 획득되는 오도메트리(odometry) 정보를 영상 기반 SLAM 기술에 적용하는 구성이 개시된다.
일반적으로, 자율주행하는 로봇이 SLAM을 진행하기 위해, 로봇이 구비하는 시각적인 센싱수단을 사용하여 주변의 지형지물을 파악하고, 파악된 결과를 기반으로 맵 생성 및 위치추정을 한다.
로봇이 SLAM을 진행하기 위해, 주행중 주변의 지형지물을 명확하게 인식할 필요가 있다. 자율주행 분야에서 일반적으로 사용되는 시각적인 센싱수단은 로봇의 전후좌우 방향 또는 머리윗쪽 방향으로 촬영하여 로봇 주변의 지형지물에 관한 정보를 취득한다.
그러나, 로봇의 전후좌우 방향에 맵을 작성하는데 필요한 지형지물이 없는 경우, 또는 실외인 관계로 로봇의 머리윗쪽 방향에 맵을 작성하는데 필요한 지형지물이 없는 경우 등에는 로봇이 주변상황을 정확히 파악하지 못할 수 있다.
이로 인해, 오류가 있는 맵을 생성하거나, 로봇이 자신의 현재위치를 파악하지 못하는 등의 SLAM 오류가 발생할 수 있고, 결국 자율주행이 불가능하거나, 위험지역에 접근하는 경우가 발생할 수 있다. 이러한 문제의 해결이 요구된다.
실시예에서는, 로봇의 자율주행시 SLAM 오류의 발생을 억제하기 위해, 감지센서가 용이하게 인식할 수 있고, 장기간 배치의 변화가 없어 안정적인 SLAM을 가능하게 하는 지형지물인 시각장애인용 점자블록을 이용하여 로봇이 자율주행을 진행하는 방법을 제안한다.
실시예가 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 실시예가 속하는 기술분야에서 통상의 지식을 가진자에게 명확하게 이해될 수 있을 것이다.
전술한 과제를 달성하기 위해, 로봇은 주변의 상황을 인식하는 감지센서를 구비할 수 있다.
로봇의 주행방법은, 로봇이 보유하는 맵을 기반으로 주행경로를 설정하는 단계, 로봇이 설정된 주행경로를 따라 주행하는 단계, 로봇의 주행 중, 로봇이 감지센서를 이용하여 주행경로의 주변에 시각장애인용 점자블록이 있는지 여부를 확인하는 단계, 및 주행경로의 주변에 점자블록이 있는 경우, 로봇이 점자블록을 따라 주행하는 단계를 포함할 수 있다.
로봇은 점자블록과 일정거리 이격된 위치에서 주행하는 것일 수 있다.
감지센서는 라이다(Light Detection And Ranging, LiDAR) 센서로 구비되는 주행하는 것일 수 있다.
로봇이 목표지점에 도달하기 위해 점자블록을 우회할 수 없는 경우, 로봇은 감지센서로 감지된 주변의 상황과 목표지점의 위치를 기반으로 점자블록을 밟고 넘어갈 수 있다.
로봇이 점자블록을 밟고 넘어가는 경우, 로봇은 점자블록을 밟는 구간의 길이를 최소로 하는 경로로 주행하는 주행하는 것일 수 있다.
점자블록은, 시각장애인에게 보행방향을 안내하는 제1블록과, 시각장애인에게 정지 또는 보행방향의 변경을 안내하는 제2블록을 포함하는 주행하는 것일 수 있다.
로봇은, 제1블록을 인식하는 경우 복수의 제1블록이 배열된 방향을 따라 주행하고, 제2블록을 인식하는 경우 일시 정지하는 주행하는 것일 수 있다.
로봇은, 제2블록을 인식하는 경우, 감지센서를 통해 인식되는 주변상황을 기반으로 주행여부 또는 주행방향을 판단하는 주행하는 것일 수 있다.
로봇은, 제1블록 또는 제2블록과 설정된 이격거리를 두고 주행하고, 이격거리는 로봇의 크기 및 로봇이 주행 가능한 공간의 크기를 고려하여 설정하는 주행하는 것일 수 있다.
로봇이 보유하는 맵은 점자블록에 관한 데이터를 구비하는 주행하는 것일 수 있다.
맵이 점자블록에 관한 데이터를 구비하는 경우, 로봇은, 맵을 기반으로 점자블록의 위치를 인식하여 점자블록으로 접근하는 주행하는 것일 수 있다.
로봇이 보유하는 맵은 점자블록에 관한 데이터를 구비하지 않는 것일 수 있다.
맵이 점자블록에 관한 데이터를 구비하지 않는 경우, 로봇은, 감지센서가 점자블록을 인식하면 인식된 점자블록으로 접근하는 주행하는 것일 수 있다.
맵이 점자블록에 관한 데이터를 구비하지 않는 경우, 로봇은, 감지센서를 통해 제1블록 또는 제2블록의 존재 여부와 제1블록 또는 제2블록이 배치된 패턴을 인식하여 주행방향 및 주행경로를 판단하는 주행하는 것일 수 있다.
로봇은, 감지센서를 통해 획득한 제1블록 또는 제2블록의 배치에 관한 정보를 저장하는 주행하는 것일 수 있다.
로봇은, 감지센서를 통해 점자블록의 배치된 패턴을 인식하여, 보유하는 맵을 보정하는 주행하는 것일 수 있다.
로봇은, 감지센서를 통해 복수의 점자블록이 서로 이웃하는 경계를 감지하고, 감지된 경계를 이용하여 점자블록의 개수를 파악하고, 점자블록의 개수를 이용하여 로봇의 주행거리를 파악하고, 로봇의 주행거리를 이용하여 맵에 관한 데이터를 보정하는 주행하는 것일 수 있다.
로봇은, 감지센서를 통해 점자블록의 배치된 패턴을 인식하여, 자신의 현재위치를 파악하는 주행하는 것일 수 있다.
실시예는, 주변의 상황을 인식하는 감지센서를 구비하는 로봇의 주행방법으로서, 로봇이 보유하는 맵을 기반으로 주행경로를 설정하는 단계, 로봇이 설정된 주행경로를 따라 주행하는 단계, 로봇의 주행 중, 로봇이 감지센서를 이용하여 주행경로의 주변에 시각장애인용 점자블록이 있는지 여부를 확인하는 단계, 및 주행경로의 주변에 점자블록이 있는 경우, 로봇이 점자블록을 따라 주행하는 단계를 포함하고, 점자블록은, 시각장애인에게 보행방향을 안내하는 제1블록과, 시각장애인에게 정지 또는 보행방향의 변경을 안내하는 제2블록을 포함하고, 로봇은, 제1블록을 인식하는 경우 복수의 제1블록이 배열된 방향을 따라 주행하고, 제2블록을 인식하는 경우 일시 정지하는 주행하는 것일 수 있다.
로봇은, 제1블록 또는 제2블록과 설정된 이격거리를 두고 주행하고, 이격거리는 로봇의 크기 및 로봇이 주행 가능한 공간의 크기를 고려하여 설정하는 주행하는 것일 수 있다.
맵이 점자블록에 관한 데이터를 구비하지 않는 경우, 로봇은, 감지센서를 통해 제1블록 또는 제2블록의 존재 여부와 제1블록 또는 제2블록이 배치된 패턴을 인식하여 주행방향 및 주행경로를 판단하고, 감지센서를 통해 획득한 제1블록 또는 제2블록의 배치에 관한 정보를 저장하는 주행하는 것일 수 있다.
실시예에서, 장기간 그 배치상태가 변하지 않은 점자블록을 인식하여, 로봇의 현재위치를 파악하고 자율주행용 맵을 획득함으로써, 간편하고 정확한 SLAM을 진행할 수 있다.
실시예에서, 점자블록을 인식하여 SLAM을 진행함으로써, 정확한 SLAM을 진행하기 위한 별도의 고가의 장비를 필요로하지 않거나 줄일 수 있어, 비용측면에서 유리할 수 있다.
실시예에서, 로봇이 점자블록 중 위험지역을 나타내는 제2블록을 인식하여 위험지역의 진입을 회피할 수 있으므로, 로봇의 파손을 억제하고 주변에 있는 사람의 안전을 도모할 수 있다.
실시예에서, 점자블록과 이격된 위치에서 점자블록이 배열된 방향을 따라 로봇이 이동하고, 로봇이 점자블록을 밟고 넘어가는 경우에 점자블록을 밟는 구간의 길이를 최소로 하는 경로로 로봇이 주행함으로써, 로봇이 점자블록을 밟고 넘어갈 때 받을 수 있는 충격을 현저히 줄일 수 있다.
도 1은 일 실시예에 따른, 로봇의 주행방법을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른, 점자블록을 나타낸 평면도이다.
도 3은 일 실시예에 따른, 점자블록의 배치구조를 나타낸 평면도이다.
도 4는 일 실시예에 따른, 로봇이 점자블록을 따라 주행하는 방법을 설명하기 위한 도면이다.
도 5 및 도 6은 일 실시예에 따른, 로봇이 목표지점을 향하여 주행하는 방법을 설명하기 위한 도면이다. 도 5 및 도 6에서 로봇의 목표지점을 X로 나타내었다.
도 7은 일 실시예에 따른, 점자블록의 경계를 나타낸 평면도이다.
도 8 및 도 9는 다른 실시예에 따른, 로봇의 주행방법을 설명하기 위한 도면이다.
이하, 첨부된 도면들을 참조하여 실시예를 상세히 설명한다. 실시예는 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 실시예를 특정한 개시 형태에 대해 한정하려는 것이 아니며, 실시예의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
"제1", "제2" 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로 사용된다. 또한, 실시예의 구성 및 작용을 고려하여 특별히 정의된 용어들은 실시예를 설명하기 위한 것일 뿐이고, 실시예의 범위를 한정하는 것이 아니다.
실시예의 설명에 있어서, 각 element의 "상(위)" 또는 "하(아래)(on or under)"에 형성되는 것으로 기재되는 경우에 있어, 상(위) 또는 하(아래)(on or under)는 두개의 element가 서로 직접(directly)접촉되거나 하나 이상의 다른 element가 상기 두 element사이에 배치되어(indirectly) 형성되는 것을 모두 포함한다. 또한 “상(위)" 또는 "하(아래)(on or under)”로 표현되는 경우 하나의 element를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.
또한, 이하에서 이용되는 "상/상부/위" 및 "하/하부/아래" 등과 같은 관계적 용어들은, 그런 실체 또는 요소들 간의 어떠한 물리적 또는 논리적 관계 또는 순서를 반드시 요구하거나 내포하지는 않으면서, 어느 한 실체 또는 요소를 다른 실체 또는 요소와 구별하기 위해서 이용될 수도 있다.
도 1은 일 실시예에 따른, 로봇(100)의 주행방법을 설명하기 위한 도면이다.
로봇은 스스로 보유한 능력에 의해 주어진 일을 자동으로 처리하거나 작동하는 기계를 의미할 수 있다. 특히, 환경을 인식하고 스스로 판단하여 동작을 수행하는 기능을 갖는 로봇을 지능형 로봇이라 칭할 수 있다.
로봇은 사용 목적이나 분야에 따라 산업용, 의료용, 가정용, 군사용 등으로 분류할 수 있다.
로봇은 액츄에이터 또는 모터를 포함하는 구동부를 구비하여 로봇 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다. 또한, 이동 가능한 로봇은 구동부에 휠, 브레이크, 프로펠러 등이 포함되어, 구동부를 통해 지상에서 주행하거나 공중에서 비행할 수 있다.
실시예는 주변의 상황을 인식하는 감지센서를 구비하는 로봇(100)의 주행방법에 관한 것이다.
로봇(100)은 자율주행이 가능하고, 예를 들어, 고객의 물품을 운반하거나, 공항, 대형 쇼핑몰 등에서 고객을 안내하는 역할을 할 수 있다.
자율주행은 스스로 주행하는 기술을 의미하며, 자율주행 차량은 사용자의 조작 없이 또는 사용자의 최소한의 조작으로 주행하는 차량(Vehicle)을 의미한다.
예컨대, 자율주행에는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술 등이 모두 포함될 수 있다.
차량은 내연 기관만을 구비하는 차량, 내연 기관과 전기 모터를 함께 구비하는 하이브리드 차량, 그리고 전기 모터만을 구비하는 전기 차량을 모두 포괄하며, 자동차뿐만 아니라 기차, 오토바이 등을 포함할 수 있다.
이때, 자율주행 차량은 자율주행 기능을 가진 로봇(100)으로 볼 수 있다.
로봇(100)은 통신장치를 구비하고, 상기 통신장치를 통해 서버와 연결되고, 상기 서버로부터 필요한 정보를 얻거나, 업데이트를 받을 수 있다.
로봇(100)에 구비되는 통신장치는 상기 서버와 통신을 위해 이동통신 모듈 및 무선 인터넷 모듈 중에서 적어도 하나를 포함하도록 구성될 수 있다. 그 밖에 로봇(100)은 근거리 통신 모듈을 추가로 포함할 수 있다.
이동통신 모듈은, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G 이동통신 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다.
무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 로봇(100)에 구비될 수 있다. 무선 인터넷 모듈은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.
로봇(100)은 5G 네트워크를 통해 서버, 각종의 통신가능한 단말과 데이터를 전송하고 수신할 수 있다. 특히 로봇(100)은 5G 네트워크를 통해 모바일 브로드밴드(Enhanced Mobile Broadband, eMBB), URLLC(Ultra-reliable and low latency communications) 및 mMTC(Massive Machine-type communications) 중에서 적어도 하나의 서비스를 이용하여 서버, 단말과 데이터 통신을 할 수 있다.
eMBB(Enhanced Mobile Broadband)는 모바일 브로드밴드 서비스로, 이를 통해 멀티미디어 콘텐츠, 무선데이터 액세스 등이 제공된다. 또한, 폭발적으로 증가하고 있는 모바일 트래픽을 수용하기 위한 핫스팟 (hot spot)과 광대역 커버리지 등 보다 향상된 모바일 서비스가 eMBB를 통해 제공될 수 있다. 핫스팟을 통해 사용자 이동성이 작고 밀도가 높은 지역으로 대용량 트래픽이 수용될 수 있다. 광대역 커버리지를 통해 넓고 안정적인 무선 환경과 사용자 이동성이 보장될 수 있다.
URLLC(Ultra-reliable and low latency communications) 서비스는 데이터 송수신의 신뢰성과 전송 지연 측면에서 기존 LTE 보다 훨씬 엄격한 요구사항을 정의하고 있으며, 산업 현장의 생산 프로세스 자동화, 원격 진료, 원격 수술, 운송, 안전 등을 위한 5G 서비스가 여기에 해당한다.
mMTC(Massive Machine-type communications)는 비교적 작은 양의 데이터 전송이 요구되는 전송지연에 민감하지 않은 서비스이다. 센서 등과 같이 일반 휴대폰 보다 훨씬 더 많은 수의 단말들이 동시에 무선액세스 네트워크에 mMTC에 의해 접속할 수 있다. 이 경우, 단말(300)의 통신모듈 가격은 저렴해야 하고, 배터리 교체나 재충전 없이 수년 동안 동작할 수 있도록 향상된 전력 효율 및 전력 절감 기술이 요구된다.
로봇(100)에는 인공 지능 기술이 적용될 수 있다. 인공 지능은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미하며, 머신 러닝(기계 학습, Machine Learning)은 인공 지능 분야에서 다루는 다양한 문제를 정의하고 그것을 해결하는 방법론을 연구하는 분야를 의미한다. 머신 러닝은 어떠한 작업에 대하여 꾸준한 경험을 통해 그 작업에 대한 성능을 높이는 알고리즘으로 정의하기도 한다.
인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로써, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.
인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)를 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. 인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함숫값을 출력할 수 있다.
모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 시냅스 연결의 가중치와 뉴런의 편향 등이 포함된다. 그리고, 하이퍼파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미하며, 학습률(Learning Rate), 반복 횟수, 미니 배치 크기, 초기화 함수 등이 포함된다.
인공 신경망의 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다. 손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다.
머신 러닝은 학습 방식에 따라 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning)으로 분류할 수 있다.
지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다.
인공 신경망 중에서 복수의 은닉층을 포함하는 심층 신경망(DNN: Deep Neural Network)으로 구현되는 머신 러닝을 딥 러닝(심층 학습, Deep Learning)이라 부르기도 하며, 딥 러닝은 머신 러닝의 일부이다. 이하에서, 머신 러닝은 딥 러닝을 포함하는 의미로 사용된다.
자율주행을 위해, 로봇(100)은 자율주행용 맵을 보유할 수 있고, 보유한 맵 상에 주행경로를 설정하여 주행할 수 있다.
로봇(100)은 주행중 보유하는 감지센서를 통해 주변의 지형지물, 상황을 파악하고, 감지된 지형지물을 포함하는 맵을 생성하고, 생성된 맵으로 자신의 현재위치를 파악할 수 있다. 즉, 로봇(100)은 자율주행을 위해 동시 위치추정 및 맵 생성(Simultaneous Localization And Mapping, SLAM)을 할 수 있다. 이러한 SLAM 자체는 공지기술로 널리 알려진바, 그 구체적인 기술적 내용의 설명은 생략한다.
SLAM을 진행하기 위해, 로봇(100)은 감지센서를 구비하는 데, 상기 감지센서는 주변의 지형지물에 관한 정보를 파악할 수 있다. 감지센서는 감지수단으로 레이저, IR, RGB 카메라 기타 다양한 것을 사용할 수 있다.
상기 감지센서는 예를 들어, 라이다(Light Detection And Ranging, LiDAR) 센서로 구비될 수 있다. 라이다센서는 특정 패턴으로 빛을 방출하고, 반사광을 수신하여 이를 바탕으로 주변의 지형지물에 관한 정보를 취득할 수 있다. 즉, 방출된 빛이 반사되어 되돌아오기까지의 왕복시간, 빛의 펄스 전력의 변화, 위상변화, 펄스폭의 변화 등으로 주변의 지형지물에 관한 정보를 취득할 수 있다.
로봇(100)이 SLAM을 진행하기 위해, 주행중 주변의 지형지물을 명확하게 인식할 필요가 있다. 자율주행 분야에서 일반적으로 사용되는 라이다센서는 로봇(100)의 전후좌우 방향 또는 머리윗쪽 방향으로 촬영하여 로봇(100) 주변의 지형지물에 관한 정보를 취득한다.
그러나, 라이다센서를 사용하여 SLAM을 진행하는 경우에는, 로봇(100)의 전후좌우 방향에 맵을 작성하는데 필요한 지형지물이 없는 경우, 또는 실외인 관계로 로봇(100)의 머리윗쪽 방향에 맵을 작성하는데 필요한 지형지물이 없는 경우 등에는 로봇(100)이 주변상황을 정확히 파악하지 못할 수 있다.
이로 인해, 오류가 있는 맵을 생성하거나, 로봇(100)이 자신의 현재위치를 파악하지 못하는 등의 SLAM 오류가 발생할 수 있고, 결국 자율주행이 불가능하거나, 위험지역에 접근하는 경우가 발생할 수 있다.
실시예에서는, SLAM 오류의 발생을 억제하기 위해, 감지센서가 용이하게 인식할 수 있고, 장기간 배치의 변화가 없어 안정적인 SLAM을 가능하게 하는 지형지물인 시각장애인용 점자블록(10)을 이용하여 로봇(100)이 자율주행을 진행하는 방법을 제안한다.
로봇(100)은 자신이 보유하는 맵을 기반으로 주행경로를 설정할 수 있다(S110). 상기 맵은 자율주행용 정밀 맵일 수 있고, 서버로부터 전송받거나, 로봇(100)이 SLAM을 진행하여 스스로 취득하는 등의 방법으로 로봇(100)이 보유할 수 있다. 상기 맵은 서버로부터 전송받거나, 로봇(100)의 SLAM을 통해 주기적으로 업데이트될 수 있다.
로봇(100)은 목표지점이 설정되면, 현재의 위치에서 목표지점까지 가는 주행경로를 상기 맵 상에 설정할 수 있다. 주행경로는 예를 들어, 위험지역을 우회하고, 엘리베이터 등 사람에게 피해를 줄 수 있는 이동수단의 회피, 로봇(100)의 구조상 주행이 어려운 곳의 회피, 목표지점까지의 최단거리 등을 고려하여 정해질 수 있고, 이러한 주행경로를 설정하는 기준은 로봇(100)의 자율주행 프로그램에 기 설정될 수 있다.
로봇(100)이 설정된 주행경로를 따라 주행할 수 있다(S120). 로봇(100)은 주행중 SLAM을 진행할 수 있다. SLAM을 위해, 로봇(100)은 주행경로 주변의 지형지물을 감지하여 인식할 필요가 있다. SLAM 오류를 억제하기 위해, 장기간 변화없이 일정한 위치에 배치되는 지형지물인 점자블록(10)을 사용할 수 있다.
로봇(100)의 주행 중, 상기 로봇(100)이 상기 감지센서를 이용하여 주행경로의 주변에 시각장애인용 점자블록(10)이 있는지 여부를 확인할 수 있다(S130). 주변에 점자블록(10)을 발견하지 못한 경우, 로봇(100)은 감지센서를 사용하여 주변의 지형지물을 파악하여 SLAM을 진행하면서 자율주행을 할 수 있다.
주행경로의 주변에 상기 점자블록(10)이 있는 경우, 상기 로봇(100)이 상기 점자블록(10)을 따라 주행할 수 있다(S140).
도 2는 일 실시예에 따른, 점자블록(10)을 나타낸 평면도이다. 점자블록(10)은 시각장애인의 보행을 보조하기 위해 지하철, 거리의 보도, 건물의 실내 또는 실외, 기타 다양한 장소에 설치된다.
점자블록(10)의 규격은 하나의 국가 내에서 동일하다. 이하에서는, 일 실시예로 한국에서 사용되는 규격화된 점자블록(10)을 기준으로 설명한다.
점자블록(10)은 사각형으로 만들어지고 가로 및 세로의 길이가 규격화되어 그 면적이 동일하다. 점자블록(10)은 돌출된 무늬를 가지고 있는데, 점자블록(10)의 역할에 따라서 그 무늬가 달라질 수 있다.
도 2를 참조하면, 점자블록(10)은 시각장애인에게 보행방향을 안내하는 제1블록(11)과, 시각장애인에게 정지 또는 보행방향의 변경을 안내하는 제2블록(12)을 포함할 수 있다.
일반적으로 시각장애인은 제1블록(11)을 감지하면 상기 제1블록(11)이 배열된 방향으로 제1블록(11)을 따라 이동한다. 제2블록(12)은 더이상 진행할 경우에 위험하다는 것을 시각장애인에게 상기시켜준다.
예를 들어, 제2블록(12)은 지하철 플랫폼에서 객차의 승강위치, 엘리베이터 또는 에스컬레이터, 문(door) 앞에 설치된다. 또한, 제2블록(12)은 진행방향의 변경을 나타내는 경우에도 사용되는데 이에 대해서는 하기에 설명한다.
따라서, 시각장애인은 제2블록(12)을 감지하면 우선 정지하여 다음 행동을 판단한다. 예를 들어, 객차의 승강위치 앞에 설치된 제2블록(12)이라면 시각장애인은 객차가 도착하기를 기다리고, 엘리베이터 앞에 설치된 제2블록(12)이라면 시각장애인은 엘리베이터를 탈 수 있다.
제1블록(11)과 제2블록(12)은 그 돌출된 무늬의 형상으로 서로 구별될 수 있다. 한국의 경우, 도 2에 도시된 바와 같이, 제1블록(11)은 선형의 무늬, 제2블록(12)은 점형의 무늬를 각각 가질 수 있다. 도 2 이하에서는 제1블록(11)은 선형의 무늬로 제2블록(12)은 점형의 무늬로 표시한다.
도 3은 일 실시예에 따른, 점자블록(10)의 배치구조를 나타낸 평면도이다. 점자블록(10)은 시각장애인에게 방향과 지형을 표시하기 위해 제1블록(11)과 제2블록(12)을 조합하여 배치될 수 있다.
진행방향이 "L" 자로 변하는 경우에 점자블록(10)은 도 3의 (A)처럼 제1블록(11)과 제2블록(12)이 조합되어 배치될 수 있다.
3방향으로 배열되는 제1블록(11)들이 서로 만나는 경우에 점자블록(10)은 도 3의 (B)처럼 제1블록(11)과 제2블록(12)이 조합되어 배치될 수 있다.
4방향으로 배열되는 제1블록(11)들이 서로 만나는 경우에 점자블록(10)은 도 3의 (C)처럼 제1블록(11)과 제2블록(12)이 조합되어 배치될 수 있다.
시각장애인은 상기와 같이 제1블록(11)과 제2블록(12)이 조합된 점자블록(10)의 배치 구조를 촉각으로 감지하고, 이를 기반으로 보행을 할 수 있다.
유사하게, 로봇(100)은 상기와 같이 제1블록(11)과 제2블록(12)이 조합된 점자블록(10)의 배치구조를 감지센서로 감지하고, 감지된 정보를 기반으로 주행할 수 있다.
로봇(100)은 상기 감지센서를 통해 상기 점자블록(10)의 배치된 패턴을 인식하여, 자신의 현재위치를 파악할 수 있다. 예를 들어, 도 3의 (A) 내지 (C)에 도시된 점자블록(10)의 배치된 패턴은 주변의 지형지물과 시각적으로 구별이 가능하다.
따라서, 이러한 패턴들은 SLAM의 진행에 필요한, 로봇(100)의 주행중 현재위치를 특정할 수 있는 지표(land mark)가 될 수 있다. 따라서, 로봇(100)는 점자블록(10)의 배치된 패턴을 인식하여 지신의 현재위치를 파악함으로써, 효과적으로 SLAM을 진행할 수 있다.
도 4는 일 실시예에 따른, 로봇(100)이 점자블록(10)을 따라 주행하는 방법을 설명하기 위한 도면이다. 로봇(100)은 감지센서로 점자블록(10)을 감지하면, 점자블록(10)으로 접근할 수 있다.
로봇(100)은 점자블록(10)이 배열된 방향으로 점자블록(10)을 따라 주행할 수 있다. 필요한 경우, 로봇(100)은 점자블록(10)을 밟고 넘어갈 수도 있다. 로봇(100)은 상기 점자블록(10)을 밟고 넘어가는 경우를 제외하고는 상기 점자블록(10)과 일정거리 이격된 위치에서 주행할 수 있다.
로봇(100)이 점자블록(10)을 밟고 주행하는 경우, 점자블록(10)의 돌출된 무늬로 인해 충격을 받을 수 있다. 이러한 충격으로 인해, 로봇(100)에 구비되는 장치가 파손될 수도 있고, 로봇(100)이 흔들려 감지센서는 주변의 지형지물을 불명확하게 인식할 수도 있다.
이러한 파손, 지형지물의 불명확한 인식으로 인해, 로봇(100)의 SLAM에 오류가 발생할 수도 있다.
이러한 SLAM 오류를 억제하기 위해, 로봇(100)은 점자블록(10)을 밟고 넘어가는 경우를 제외하고는 점자블록(10)과 일정거리 이격된 위치에서 주행하여, 점자블록(10)으로부터 받는 충격을 최소화할 수 있다.
도 4를 참조하면, 로봇(100)은 상기 제1블록(11) 또는 상기 제2블록(12)과 설정된 이격거리를 두고 주행할 수 있다. 도 4에서 양쪽 화살표는 로봇(100)이 제1블록(11) 또는 제2블록(12)과 설정된 이격거리를 가지는 것을 의미한다.
이때, 상기 이격거리는 상기 로봇(100)의 크기 및 상기 로봇(100)이 주행 가능한 공간의 크기를 고려하여 적절하게 설정할 수 있다.
도 4를 참조하면, 로봇(100)은 점자블록(10)을 인식하면 상기 점자블록(10)으로 접근할 수 있다. 로봇(100)은 점자블록(10)의 돌출된 무늬를 인식하여 제1블록(11)인지 제2블록(12)인지를 구별할 수 있다.
도 4의 (A)를 참조하면, 로봇(100)이 상기 제1블록(11)을 인식하는 경우 복수의 상기 제1블록(11)이 배열된 방향을 따라 주행할 수 있다. 로봇(100)은 제1블록(11)과 설정된 이격거리를 두고 주행할 수 있다.
도 4의 (B)를 참조하면, 로봇(100)은 상기 제2블록(12)을 인식하는 경우 일시 정지할 수 있다. 제2블록(12)은 로봇(100)이 지나가서는 안될 지역, 또는 주행하기에 위험한 지역임을 표시하므로, 로봇(100)은 이후의 행동을 판단하기 위해 일시 정지할 수 있다.
로봇(100)은 상기 제2블록(12)을 인식하는 경우, 상기 감지센서를 통해 인식되는 주변상황을 기반으로 주행여부 또는 주행방향을 판단할 수 있다.
예를 들어, 감지센서를 통해 상기 제2블록(12) 너머에 로봇(100)의 주행이 금지되는 에스컬레이터 또는 엘리베이터 등이 있는 경우, 로봇(100)은 제2블록(12)을 넘지 않고, 이전의 위치로 되돌아가서 목표지점으로 갈 수 있는 다른 주행경로를 찾을 수 있다.
예를 들어, 감지센서를 통해 주변에 로봇(100)이 상기 제2블록(12)을 우회하여 지나갈 수 있는 공간이 부족하고, 목표지점이 제2블록(12)을 통과해야 하는 장소에 있다면, 로봇(100)은 상기 제2블록(12)을 밟고 넘어갈 수 있다.
예를 들어, 감지센서를 통해 주변에 로봇(100)이 상기 제2블록(12)을 우회하여 지나갈 수 있는 충분한 공간이 있고, 목표지점이 제2블록(12)을 통과해야 하는 장소에 있다면, 도 4의 (B)에 도시된 바와 같이, 로봇(100)은 제2블록(12)을 밟고 넘어가지 않고 화살표로 도시한 방향으로 상기 제2블록(12)을 우회하여 주행할 수 있다.
로봇(100)이 상기 점자블록(10)을 밟고 넘어가는 경우, 상기 로봇(100)은 상기 점자블록(10)을 밟는 구간의 길이를 최소로 하는 경로로 주행할 수 있다. 로봇(100)이 우회를 할 수 없고, 점자블록(10)을 밟고 넘어가는 경우에 점자블록(10)의 돌출된 무늬로 인해 로봇(100)에 가해지는 충격을 최소화하기 위함이다.
일 실시예로, 로봇(100)이 보유하는 상기 맵은 상기 점자블록(10)에 관한 데이터를 구비할 수 있다. 점자블록(10)에 관한 데이터는, 예를 들어 점자블록(10)이 배치되는 맵 상의 위치, 배치된 점자블록(10)이 제1블록(11)인지 제2블록(12)인지에 관한 것, 제1블록(11)과 제2블록(12)이 조합되어 배치된 구조 등일 수 있다.
로봇(100)이 서버를 통해 점자블록(10)에 관한 데이터를 전송받거나, 로봇(100)이 이미 주행해본 경험이 있는 주행경로 상에서 SLAM을 진행하여 얻은 점자블록(10)에 관한 데이터를 보유하는 경우 등에서, 로봇(100)은 점자블록(10)에 관한 데이터를 구비한 맵을 보유할 수 있다.
로봇(100)이 구비한 맵이 상기 점자블록(10)에 관한 데이터를 구비하는 경우, 로봇(100)은 상기 맵을 기반으로 상기 점자블록(10)의 위치를 인식하여 상기 점자블록(10)으로 접근할 수 있다.
즉, 로봇(100)은 보유하는 점자블록(10)에 관한 데이터를 기반으로 주행경로의 주변에 있는 점자블록(10)의 위치를 이미 알고 있고, 상기 점자블록(10)으로 접근하여, 상기 점자블록(10)을 따라 주행할 수 있다.
다른 실시예로, 로봇(100)이 보유하는 상기 맵은 상기 점자블록(10)에 관한 데이터를 구비하지 않을 수도 있다. 로봇(100)이 서버를 통해 점자블록(10)에 관한 데이터를 전송받을 수 없거나, 로봇(100)이 처음 가는 경로인 경우 등에서, 로봇(100)은 점자블록(10)에 관한 데이터를 구비하지 않은 맵을 보유할 수 있다.
로봇(100)이 보유한 맵이 상기 점자블록(10)에 관한 데이터를 구비하지 않는 경우, 로봇(100)은 상기 감지센서가 상기 점자블록(10)을 인식하면 인식된 점자블록(10)으로 접근할 수 있다.
즉, 맵이 점자블록(10)에 관한 데이터를 구비하지 않으면, 로봇(100)은 설정된 주행경로 상을 주행하면서 감지센서가 주변에 점자블록(10)을 발견하면, 로봇(100)은 점자블록(10)으로 접근하여 점자블록(10)을 따라 주행할 수 있다.
로봇(100)이 보유한 맵이 상기 점자블록(10)에 관한 데이터를 구비하지 않는 경우, 로봇(100)은 상기 감지센서를 통해 상기 제1블록(11) 또는 상기 제2블록(12)의 존재 여부와 상기 제1블록(11) 또는 상기 제2블록(12)이 배치된 패턴을 인식하여 주행방향 및 주행경로를 판단할 수 있다.
예를 들어, 로봇(100)이 발견한 점자블록(10)이 제1블록(11)인 경우, 로봇(100)은 제1블록(11)에 접근한 후 일정거리 이격된 위치에서 제1블록(11)이 배열된 방향으로 주행할 수 있다.
예를 들어, 로봇(100)이 발견한 점자블록(10)이 제2블록(12)인 경우, 로봇(100)은 제2블록(12)에 접근한 후 일시정지하고, 주변상황을 판단하여 주행여부 및 주행방향을 결정할 수 있다.
예를 들어, 로봇(100)이 발견한 제1블록(11)과 제2블록(12)의 조합된 패턴이 도 3의 (A) 내지 (C)에 도시된 바와 같다면, 로봇(100)은 현재 자신의 위치와 목표지점 사이의 지리적 관계를 고려하여 주행방향 및 주행경로를 판단할 수 있다.
로봇(100)이 보유하는 맵이 상기 점자블록(10)에 관한 데이터를 구비하지 않는 경우, 로봇(100)은 주행중에 상기 감지센서를 통해 획득한 상기 제1블록(11) 또는 제2블록(12)의 배치에 관한 정보를 저장할 수 있다.
로봇(100)에 저장된 제1블록(11) 또는 상기 제2블록(12)의 배치에 관한 정보는 상기 맵에 추가될 수 있다. 따라서, 로봇(100)이 점자블록(10)에 관한 데이터가 없는 맵을 이용하여 자율주행을 하더라도 주행중 SLAM을 진행하여 점자블록(10)에 관한 데이터를 얻고, 이후 동일한 주행경로를 주행하는 경우 점자블록(10)에 관한 데이터를 구비한 맵을 사용하여 주행경로를 생성하고 주행할 수 있다.
도 5 및 도 6은 일 실시예에 따른, 로봇(100)이 목표지점을 향하여 주행하는 방법을 설명하기 위한 도면이다. 도 5 및 도 6에서 로봇(100)의 목표지점을 X로 나타내었다.
전술한 바와 같이, 로봇(100)은 주행을 위해 보유한 맵을 기반으로 주행경로를 설정할 수 있다. 상기 맵은 점자블록(10)에 관한 데이터를 구비하거나 그렇지 않을 수 있다.
상기 맵이 점자블록(10)에 관한 데이터를 구비하면, 로봇(100)은 점자블록(10)의 배치를 고려하여 주행경로를 설정하고 이에 따라 주행할 수 있다.
한편, 상기 맵이 점자블록(10)에 관한 데이터를 구비하지 않으면, 로봇(100)은 점자블록(10)의 배치를 고려하지 않은 주행경로를 설정하고, 주행중에 점자블록(10)을 발견하면 이에 따라 주행할 수 있다.
이하에서, 상기 맵이 점자블록(10)에 관한 데이터를 구비하지 않은 경우의 로봇(100)의 주행방법을 도 5 등을 참조하여 설명한다. 하기의 설명에서 상기 맵이 점자블록(10)에 관한 데이터를 구비한 경우의 로봇(100)의 주행방법은 자명하게 도출될 수 있다.
도 5와 도 6은, 실시예의 설명을 위해, 공항시설의 일부지역을 나타낸 평면도이다. 도 5를 참조하면, 로봇(100)의 출발지점은 V이고, 로봇(100)이 도착할 목표지점은 X이다. 로봇(100)의 목표지점은 출입문에 인접한 곳으로, 출입문을 표시하기 위한 점자블록(10)이 배치되고, 시각장애인이 출입문을 지나가도록 안내하기 위한 점자안내판, 음성유도기가 설치된 곳에 인접한 곳이다.
로봇(100)의 실제 주행경로는 화살표로 도시되었다. 로봇(100)이 보유한 맵을 기반으로 스스로 설정한 주행경로는 점자블록(10), 단차, 경사로 등의 지형지물에 관한 정보는 보유하지 않을 수 있다.
따라서, 로봇(100)은 주행중 SLAM을 진행하여 주행경로 상의 상기 지형지물을 인식하고, 상기 지형지물을 극복하도록 주행경로를 실시간으로 수정할 수 있다.
로봇(100)은 V에서 제1블록(11)이 배열된 방향으로 상기 제1블록(11)과 일정거리 이격되어 주행할 수 있다.
로봇(100)은 주행중 제2블록(12)을 발견할 수 있다. 제2블록(12)은 단차로 인해 더이상 주행할 수 없음을 표시할 수 있다. 로봇(100)은 제2블록(12)의 위치와 목표지점의 위치를 고려하여 제2블록(12)을 우회하되 상기 제2블록(12)과 일정거리 이격되어 주행할 수 있다.
로봇(100)은 주행중 제2블록(12)이 끝나는 지점 W에 도착하고, 감지센서를 사용하여 경사로를 발견할 수 있다. 로봇(100)은 경사로의 위치와 목표지점의 위치를 고려하여 경사로를 올라갈 수 있다.
로봇(100)은 경사로를 올라온 후 감지센서를 사용하여 유일한 진로인 경사로의 좌측방향으로 주행할 수 있다. 로봇(100)은 Y지점에 도착한 후, 감지센서를 사용하여 단차가 있음을 표시하기 위해 배치된 제2블록(12)을 발견할 수 있다.
로봇(100)은 제2블록(12)으로 접근하도록 주행할 수 있고, 계속하여 제2블록(12)이 배치된 방향으로 상기 제2블록(12)과 일정거리 이격되어 주행할 수 있다.
로봇(100)은 주행중 Z지점에 접근하여 감지센서를 통해 주변의 상황을 파악할 수 있다. 로봇(100)은 주변의 상황과 목표지점의 위치를 고려하여 점자블록(10)을 밟고 넘어가는 것을 선택할 수 있다.
예를 들어, 로봇(100)이 목표지점에 도달하기 위해 상기 점자블록(10)을 우회할 수 없는 경우, 로봇(100)은 감지센서로 감지된 주변의 상황과 목표지점의 위치를 기반으로 점자블록(10)을 밟고 넘어갈 수 있다.
이때, 로봇(100)은 점자블록(10)을 밟는 구간의 길이를 최소로 하고, 주행경로도 되도록 줄이기 위해, Z지점의 제1블록(11)을 밟고 넘어갈 수 있다.
로봇(100)은 Z지점의 제1블록(11)을 밟고 넘어서 주행을 계속한 후, 제2블록(12)의 끝 지점에서 인접한 "L" 자 방향전환을 표시한 점자블록(10)의 조합, 목표지점 X의 위치를 고려하여 방향을 전환한다.
로봇(100)은 제2블록(12)의 끝 지점에서 방향을 전환한 후 계속 주행하여 목표지점에 도달할 수 있다.
도 6에서, 로봇(100)의 출발지점은 Z이고 목표지점은 X이다. 도 6에 도시된 로봇(100)은 고객의 물품을 실내에서 실외로 운반할 수 있다. 이를 위해 로봇(100)은 실내에서 실외로 주행할 수 있다.
따라서, 로봇(100)의 목표지점은 실외이고, 목표지점으로 가기 위해서는 출입문을 통과할 필요가 있다. 로봇(100)이 Y지점에 도착하기까지의 주행방법은 도 5을 참조하여 전술한 바와 같다.
로봇(100)은 Y지점에 도착하여 목표지점과 점자블록(10)의 배치, 주변상황을 고려하여, 방향을 전화하여 출입문이 있는 W1지점으로 주행할 수 있다.
로봇(100)은 목표지점의 위치, 점자블록(10)이 있는 경우에 상기 점자블록(10)에 인접하여 주행하는 점, 주변상황을 고려하여 W1지점에서 출입문을 통과하여 주행할 수 있다.
이때, 출입문에 사람이 있는 경우, 사람의 안전을 위해 사람이 출입문을 통과한 후 출입문을 통과할 수 있다. 이때, 로봇(100)은 출입문에 위치하는 제2블록(12)을 밟고 넘어갈 수 있다.
로봇(100)은 W1지점의 출입문을 통과하는 경우와 동일한 방법으로, W2, W3 및 W4지점에 있는 출입문을 순차적으로 통과하고, 각 지점에 배치된 제2블록(12)을 밟고 넘어갈 수 있다.
한편, 로봇(100)은 목표지점에 도착후 다시 출발지점으로 복귀할 수 있다. 로봇(100)이 복귀하는 경우에도 마찬가지로, 로봇(100)은 보유하는 맵을 기반으로 주행경로를 형성할 수 있다.
다만, 출발지점에서 목표지점으로 주행하면서 로봇(100)은 SLAM을 진행한 결과, 점자블록(10)에 관한 데이터를 보유하였다. 따라서, 로봇(100)은 점자블록(10)에 관한 데이터가 구비된 맵을 기반으로 주행경로를 설정하여 자율주행하여 출발지점으로 복귀할 수 있다.
로봇(100)은 상기 감지센서를 통해 상기 점자블록(10)의 배치된 패턴을 인식하여, 보유하는 상기 맵을 보정할 수 있다.
로봇(100)은 상기 감지센서를 통해 복수의 상기 점자블록(10)이 서로 이웃하는 경계를 감지하고, 감지된 경계를 이용하여 상기 점자블록(10)의 개수를 파악할 수 있다.
도 7은 일 실시예에 따른, 점자블록(10)의 경계를 나타낸 평면도이다. 점자블록(10)들은 모두 동일한 가로길이 및 세로길이를 가질 수 있다. 점자블록(10)의 무늬가 서로다른 경우에도 모두 동일한 가로길이 및 세로길이를 가질 수 있다. 실시예에서 제1블록(11)과 제2블록(12)은 서로 무늬가 다르지만 동일한 가로길이 및 세로길이를 가질 수 있다.
복수의 점자블록(10)이 배치된 경우, 로봇(100)이 구비한 감지센서는 각각의 점자블록(10)이 서로 이웃하는 경계를 인식할 수 있다.
로봇(100)이 감지된 경계를 이용하여 점자블록(10)의 개수를 파악하고, 점자블록(10)의 가로길이 및 세로길이는 서로 동일하고, 규격화된 것으로 용이하게 알 수 있다. 점자블록(10)의 길이을 알고 점자블록(10)의 개수를 알고 있으므로, 감지된 점자블록(10)의 개수에 점자블록(10)의 길이를 곱하여 점자블록(10)의 전체길이를 알 수 있다.
로봇(100)은 주행중 파악한 점자블록(10)의 개수를 이용하여 자신의 주행거리를 파악할 수 있다. 또한, 로봇(100)의 주행거리를 이용하여 상기 맵에 관한 데이터를 보정할 수 있다.
도 8 및 도 9는 다른 실시예에 따른, 로봇(100)의 주행방법을 설명하기 위한 도면이다.
도 8을 참조하면, 로봇(100)은 X지점에서 Y지점으로 주행하고, 주행거리는 DS가 된다. 로봇(100)이 감지센서를 이용하여 X지점에서 Y지점으로 주행방향과 평행한 방향으로 배치된 점자블록(10)의 개수를 파악하여, 주행거리 DS를 알 수 있다.
로봇(100)이 파악한 실제 주행거리 DS를 맵의 데이터로 입력함으로써, 로봇(100)이 보유하는 자율주행용 맵이 업데이트될 수 있다.
도 8을 참조하면, 로봇(100)은 X지점에서 Y지점을 경유하여 Z지점으로 주행하고, X지점에서 Y지점으로 주행거리는 DS1이 되고, Y지점에서 Z지점으로 주행거리는 DS2가 된다.
로봇(100)이 감지센서를 이용하여 X지점에서 Y지점으로 주행방향과 평행한 방향으로 배치된 점자블록(10)의 개수를 파악하여, 주행거리 DS1을 알 수 있다. 마찬가지로, 로봇(100)이 감지센서를 이용하여 Y지점에서 Z지점으로 주행방향과 평행한 방향으로 배치된 점자블록(10)의 개수를 파악하여, 주행거리 DS2를 알 수 있다.
또한, DS1과 DS2를 모두 알고, DS1과 DS2의 방향이 서로 수직이므로, 이러한 관계로부터, X지점에서 Y지점을 바라본 방향각 DA도 알 수 있다.
로봇(100)이 파악한 실제 주행거리 DS1, DS2 및 방향각 DA를 맵의 데이터로 입력함으로써, 로봇(100)이 보유하는 자율주행용 맵이 업데이트될 수 있다.
실시예에서, 장기간 그 배치상태가 변하지 않은 점자블록(10)을 인식하여, 로봇(100)의 현재위치를 파악하고 자율주행용 맵을 획득함으로써, 간편하고 정확한 SLAM을 진행할 수 있다.
실시예에서, 점자블록(10)을 인식하여 SLAM을 진행함으로써, 정확한 SLAM을 진행하기 위한 별도의 고가의 장비를 필요로하지 않거나 줄일 수 있어, 비용측면에서 유리할 수 있다.
실시예에서, 로봇(100)이 점자블록(10) 중 위험지역을 나타내는 제2블록(12)을 인식하여 위험지역의 진입을 회피할 수 있으므로, 로봇(100)의 파손을 억제하고 주변에 있는 사람의 안전을 도모할 수 있다.
실시예에서, 점자블록(10)과 이격된 위치에서 점자블록(10)이 배열된 방향을 따라 로봇(100)이 이동하고, 로봇(100)이 점자블록(10)을 밟고 넘어가는 경우에 점자블록(10)을 밟는 구간의 길이를 최소로 하는 경로로 로봇(100)이 주행함으로써, 로봇(100)이 점자블록(10)을 밟고 넘어갈 때 받을 수 있는 충격을 현저히 줄일 수 있다.
실시예와 관련하여 전술한 바와 같이 몇 가지만을 기술하였지만, 이외에도 다양한 형태의 실시가 가능하다. 앞서 설명한 실시예들의 기술적 내용들은 서로 양립할 수 없는 기술이 아닌 이상은 다양한 형태로 조합될 수 있으며, 이를 통해 새로운 실시형태로 구현될 수도 있다.
10: 점자블록
11: 제1블록
12: 제2블록
100: 로봇

Claims (19)

  1. 주변의 상황을 인식하는 감지센서를 구비하는 로봇의 주행방법으로서,
    상기 로봇이 보유하는 맵을 기반으로 주행경로를 설정하는 단계;
    상기 로봇이 설정된 주행경로를 따라 주행하는 단계;
    상기 로봇의 주행 중, 상기 로봇이 상기 감지센서를 이용하여 주행경로의 주변에 시각장애인용 점자블록이 있는지 여부를 확인하는 단계; 및
    주행경로의 주변에 상기 점자블록이 있는 경우, 상기 로봇이 상기 점자블록을 따라 주행하는 단계
    를 포함하고,
    상기 로봇은 상기 점자블록과 일정거리 이격된 위치에서 주행하는,
    로봇의 주행방법.
  2. 제1항에 있어서,
    상기 감지센서는 라이다(Light Detection And Ranging, LiDAR) 센서로 구비되는, 로봇의 주행방법.
  3. 제1항에 있어서,
    상기 로봇이 목표지점에 도달하기 위해 상기 점자블록을 우회할 수 없는 경우, 상기 로봇은 상기 감지센서로 감지된 주변의 상황과 목표지점의 위치를 기반으로 상기 점자블록을 밟고 넘어가는, 로봇의 주행방법.
  4. 제3항에 있어서,
    상기 로봇이 상기 점자블록을 밟고 넘어가는 경우,
    상기 로봇은 상기 점자블록을 밟는 구간의 길이를 최소로 하는 경로로 주행하는, 로봇의 주행방법.
  5. 제1항에 있어서,
    상기 점자블록은,
    시각장애인에게 보행방향을 안내하는 제1블록과, 시각장애인에게 정지 또는 보행방향의 변경을 안내하는 제2블록을 포함하고,
    상기 로봇은,
    상기 제1블록을 인식하는 경우 복수의 상기 제1블록이 배열된 방향을 따라 주행하고, 상기 제2블록을 인식하는 경우 일시 정지하는, 로봇의 주행방법.
  6. 제5항에 있어서,
    상기 로봇은,
    상기 제2블록을 인식하는 경우, 상기 감지센서를 통해 인식되는 주변상황을 기반으로 주행여부 또는 주행방향을 판단하는, 로봇의 주행방법.
  7. 제5항에 있어서,
    상기 로봇은,
    상기 제1블록 또는 상기 제2블록과 설정된 이격거리를 두고 주행하고,
    상기 이격거리는 상기 로봇의 크기 및 상기 로봇이 주행 가능한 공간의 크기를 고려하여 설정하는, 로봇의 주행방법.
  8. 제5항에 있어서,
    상기 로봇이 보유하는 상기 맵은 상기 점자블록에 관한 데이터를 구비하는, 로봇의 주행방법.
  9. 제8항에 있어서,
    상기 맵이 상기 점자블록에 관한 데이터를 구비하는 경우,
    상기 로봇은,
    상기 맵을 기반으로 상기 점자블록의 위치를 인식하여 상기 점자블록으로 접근하는, 로봇의 주행방법.
  10. 제5항에 있어서,
    상기 로봇이 보유하는 상기 맵은 상기 점자블록에 관한 데이터를 구비하지 않는, 로봇의 주행방법.
  11. 제10항에 있어서,
    상기 맵이 상기 점자블록에 관한 데이터를 구비하지 않는 경우,
    상기 로봇은,
    상기 감지센서가 상기 점자블록을 인식하면 인식된 점자블록으로 접근하는, 로봇의 주행방법.
  12. 제10항에 있어서,
    상기 맵이 상기 점자블록에 관한 데이터를 구비하지 않는 경우,
    상기 로봇은,
    상기 감지센서를 통해 상기 제1블록 또는 상기 제2블록의 존재 여부와 상기 제1블록 또는 상기 제2블록이 배치된 패턴을 인식하여 주행방향 및 주행경로를 판단하는, 로봇의 주행방법.
  13. 제12항에 있어서,
    상기 로봇은,
    상기 감지센서를 통해 획득한 상기 제1블록 또는 상기 제2블록의 배치에 관한 정보를 저장하는, 로봇의 주행방법.
  14. 제1항에 있어서,
    상기 로봇은,
    상기 감지센서를 통해 상기 점자블록의 배치된 패턴을 인식하여, 보유하는 상기 맵을 보정하는, 로봇의 주행방법.
  15. 제14항에 있어서,
    상기 로봇은,
    상기 감지센서를 통해 복수의 상기 점자블록이 서로 이웃하는 경계를 감지하고, 감지된 경계를 이용하여 상기 점자블록의 개수를 파악하고, 상기 점자블록의 개수를 이용하여 상기 로봇의 주행거리를 파악하고, 로봇의 주행거리를 이용하여 상기 맵에 관한 데이터를 보정하는, 로봇의 주행방법.
  16. 제1항에 있어서,
    상기 로봇은,
    상기 감지센서를 통해 상기 점자블록의 배치된 패턴을 인식하여, 자신의 현재위치를 파악하는, 로봇의 주행방법.
  17. 주변의 상황을 인식하는 감지센서를 구비하는 로봇의 주행방법으로서,
    상기 로봇이 보유하는 맵을 기반으로 주행경로를 설정하는 단계;
    상기 로봇이 설정된 주행경로를 따라 주행하는 단계;
    상기 로봇의 주행 중, 상기 로봇이 상기 감지센서를 이용하여 주행경로의 주변에 시각장애인용 점자블록이 있는지 여부를 확인하는 단계; 및
    주행경로의 주변에 상기 점자블록이 있는 경우, 상기 로봇이 상기 점자블록을 따라 주행하는 단계
    를 포함하고,
    상기 점자블록은,
    시각장애인에게 보행방향을 안내하는 제1블록과, 시각장애인에게 정지 또는 보행방향의 변경을 안내하는 제2블록을 포함하고,
    상기 로봇은,
    상기 제1블록을 인식하는 경우 복수의 상기 제1블록이 배열된 방향을 따라 주행하고, 상기 제2블록을 인식하는 경우 일시 정지하는,
    로봇의 주행방법.
  18. 제17항에 있어서,
    상기 로봇은,
    상기 제1블록 또는 상기 제2블록과 설정된 이격거리를 두고 주행하고,
    상기 이격거리는 상기 로봇의 크기 및 상기 로봇이 주행 가능한 공간의 크기를 고려하여 설정하는, 로봇의 주행방법.
  19. 제18항에 있어서,
    상기 맵이 상기 점자블록에 관한 데이터를 구비하지 않는 경우,
    상기 로봇은,
    상기 감지센서를 통해 상기 제1블록 또는 상기 제2블록의 존재 여부와 상기 제1블록 또는 상기 제2블록이 배치된 패턴을 인식하여 주행방향 및 주행경로를 판단하고, 상기 감지센서를 통해 획득한 상기 제1블록 또는 제2블록의 배치에 관한 정보를 저장하는, 로봇의 주행방법.
KR1020190096738A 2019-08-08 2019-08-08 로봇의 주행방법 KR20210017452A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190096738A KR20210017452A (ko) 2019-08-08 2019-08-08 로봇의 주행방법
US16/590,196 US11281225B2 (en) 2019-08-08 2019-10-01 Driving method of robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190096738A KR20210017452A (ko) 2019-08-08 2019-08-08 로봇의 주행방법

Publications (1)

Publication Number Publication Date
KR20210017452A true KR20210017452A (ko) 2021-02-17

Family

ID=69405508

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190096738A KR20210017452A (ko) 2019-08-08 2019-08-08 로봇의 주행방법

Country Status (2)

Country Link
US (1) US11281225B2 (ko)
KR (1) KR20210017452A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022132840A (ja) * 2021-03-01 2022-09-13 本田技研工業株式会社 移動体制御システム、制御方法、およびプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11579619B2 (en) * 2018-12-18 2023-02-14 Samsung Electronics Co., Ltd. Autonomous driving methods and apparatuses
JP7292320B2 (ja) * 2021-03-01 2023-06-16 本田技研工業株式会社 移動体制御システム、移動体、および制御方法
CN112959322A (zh) * 2021-03-02 2021-06-15 中国科学院深圳先进技术研究院 控制方法、控制装置及终端设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102457222B1 (ko) 2015-11-26 2022-10-21 삼성전자주식회사 이동 로봇 및 그 제어 방법
JP7029170B2 (ja) * 2017-09-01 2022-03-03 株式会社コンピュータサイエンス研究所 歩道進行支援システム及び歩道進行支援ソフトウェア
KR20170138977A (ko) 2017-12-06 2017-12-18 삼성전자주식회사 보행 로봇 및 그의 위치 인식과 지도 작성을 동시에 수행하는 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022132840A (ja) * 2021-03-01 2022-09-13 本田技研工業株式会社 移動体制御システム、制御方法、およびプログラム
US11999385B2 (en) 2021-03-01 2024-06-04 Honda Motor Co., Ltd. Mobile object control system, control method, and storage medium

Also Published As

Publication number Publication date
US11281225B2 (en) 2022-03-22
US20200047342A1 (en) 2020-02-13

Similar Documents

Publication Publication Date Title
KR20210017452A (ko) 로봇의 주행방법
US11061398B2 (en) Machine-learning systems and techniques to optimize teleoperation and/or planner decisions
US10829154B2 (en) Method and device for operating a vehicle
US7463948B2 (en) Robot control apparatus
Chong et al. Autonomous personal vehicle for the first-and last-mile transportation services
US20170316333A1 (en) Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
US20140148989A1 (en) Autonomous Moving Device and Control Method Thereof
CN110083163A (zh) 一种用于自动驾驶汽车的5g c-v2x车路云协同感知方法及系统
KR20190100093A (ko) 로봇을 이용한 서빙 시스템 및 그 작동방법
US9483051B2 (en) Automated guided vehicle, system having a computer and an automated guided vehicle, and method for operating an automated guided vehicle
CN104897168B (zh) 基于道路危险评估的智能车路径搜索方法及系统
US11698640B2 (en) Method and apparatus for determining turn-round path of vehicle, device and medium
US11188753B2 (en) Method of using a heterogeneous position information acquisition mechanism in an operating space and robot and cloud server implementing the same
CN206411514U (zh) 一种基于二维码定位的智能仓储移动机器人系统
CN110435667A (zh) 用于控制自主车辆的系统和方法
CN107745383A (zh) 一种机器人控制方法和机器人
US20220207883A1 (en) Information processing apparatus, information processing method, and program
KR20190103101A (ko) 로봇 시스템 및 그 작동방법
KR20190109324A (ko) 로봇 충전대의 위치를 추천하기 위한 방법, 장치 및 시스템
US20200012293A1 (en) Robot and method of providing guidance service by the robot
US11921506B2 (en) Belief state determination for real-time decision-making
CN106647729A (zh) 基于图像识别与无线网络的agv导航系统及导航方法
Li et al. Simulation analysis of a deep reinforcement learning approach for task selection by autonomous material handling vehicles
US11556126B2 (en) Online agent predictions using semantic maps
CN103745613A (zh) 缩微道路环境下缩微智能车的定位导航实施方法

Legal Events

Date Code Title Description
A201 Request for examination