KR102615626B1 - Method for visually or aurally providing information to guide driving and autonomous mobile robot for carrying out the method - Google Patents

Method for visually or aurally providing information to guide driving and autonomous mobile robot for carrying out the method Download PDF

Info

Publication number
KR102615626B1
KR102615626B1 KR1020220142665A KR20220142665A KR102615626B1 KR 102615626 B1 KR102615626 B1 KR 102615626B1 KR 1020220142665 A KR1020220142665 A KR 1020220142665A KR 20220142665 A KR20220142665 A KR 20220142665A KR 102615626 B1 KR102615626 B1 KR 102615626B1
Authority
KR
South Korea
Prior art keywords
information
area
robot
driving
control unit
Prior art date
Application number
KR1020220142665A
Other languages
Korean (ko)
Inventor
이상덕
이유진
김영훈
Original Assignee
한국철도기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국철도기술연구원 filed Critical 한국철도기술연구원
Priority to KR1020220142665A priority Critical patent/KR102615626B1/en
Application granted granted Critical
Publication of KR102615626B1 publication Critical patent/KR102615626B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/12Target-seeking control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Medical Informatics (AREA)
  • Game Theory and Decision Science (AREA)
  • Evolutionary Computation (AREA)
  • Business, Economics & Management (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명의 일 실시예에 따르는, 자율 주행 로봇이 수행하는, 주행 안내 정보를 시청각적으로 제공하는 방법은, a) 기 설정된 이동 경로로 주행하되 상기 이동 경로를 포함하는 주행 안내 정보를 소정의 시각적 정보로 가공하여 전방의 노면에 표시하거나 소정의 청각적 정보로 가공하여 외부로 출력하는 단계; b) 상기 이동 경로 상으로 위치하는 예기치 못한 장애물이 검출되는 경우 상기 장애물에 의해 상기 시각적 정보의 표시가 제한되거나 상기 청각적 정보의 전달이 단절되는 제한 구역을 파악하는 단계; 및 c) 상기 제한 구역에서 상기 시각적 정보의 일부 또는 전부가 표시되지 않도록 상기 시각적 정보가 표시되는 형상 및 구역을 변경하거나 상기 청각적 정보가 제한 구역에 도달하지 않도록 상기 청각적 정보의 출력 방향을 변경하는 단계를 포함하되, 상기 시각적 정보가 표시되거나 상기 청각적 정보가 도달될 수 있는 정보제공 가능 구역이 미리 설정되어 있으며, 상기 제한 구역은 상기 정보제공 가능 구역 내에 포함되는 것이다.According to an embodiment of the present invention, a method of audiovisually providing driving guidance information performed by an autonomous robot includes: a) driving along a preset movement path, but providing driving guidance information including the movement path with a predetermined visual Processing the information into information and displaying it on the road ahead, or processing it into predetermined auditory information and outputting it to the outside; b) when an unexpected obstacle located on the movement path is detected, identifying a restricted area where the display of the visual information is restricted or the transmission of the auditory information is cut off due to the obstacle; and c) changing the shape and area in which the visual information is displayed so that some or all of the visual information is not displayed in the restricted area, or changing the output direction of the auditory information so that the auditory information does not reach the restricted area. Including the step of, wherein an information provision area where the visual information can be displayed or the auditory information can be reached is preset, and the restricted area is included in the information provision area.

Description

주행 안내 정보를 시청각적으로 제공하는 방법 및 이를 수행하는 자율 주행 로봇{METHOD FOR VISUALLY OR AURALLY PROVIDING INFORMATION TO GUIDE DRIVING AND AUTONOMOUS MOBILE ROBOT FOR CARRYING OUT THE METHOD}Method for providing driving guidance information audio-visually and autonomous driving robot performing the same

본 발명은 자율 주행 로봇에 관한 것으로서, 자율 주행 로봇이 수행하는 주행 안내 정보를 시청각적으로 제공하는 방법을 개시한다.The present invention relates to an autonomous driving robot, and discloses a method of providing audio-visual driving guidance information performed by an autonomous driving robot.

최근 각 종 산업 및 서비스 현장에서 자율 주행 로봇의 활용도가 증가하고 있는 추세이나, 사람에게 줄 수 있는 불편함이나 충돌 문제, 이에 따른 로봇의 동적 제한, 손상 등에 대한 개선점이 요구되고 있는 상황이다.Recently, the use of self-driving robots has been increasing in various industries and service sites, but improvements are required to address the inconvenience or collision problems that may cause to people, and the resulting dynamic limitations and damage to robots.

이와 관련하여, 로봇이 목적에 따라 구동할 뿐만 아니라, 주변의 다른 객체에게 자신의 정보를 알리는 의사표현 기술이 도입되고 있다. 예를 들어, 특정 정보를 벽이나 바닥에 표시하여 외부로 알리는 조명 기술을 활용하거나 안내 음성을 출력하는 수단을 구비한 자율 주행 로봇이 등장하고 있다.In this regard, expression technology is being introduced so that the robot not only operates according to its purpose, but also informs other objects around it of its own information. For example, self-driving robots are emerging that utilize lighting technology to display specific information on walls or floors to notify the outside world, or are equipped with means to output guidance voices.

그러나, 종래 개발된 로봇의 시각적인 의사표현 기술은, 정적인 정보(예로, 안내 문구)를 제공하는 데 머물러 있다. 특히, 로봇의 이동과 관련하여, 단순히 현 시점의 주행 방향만을 알리는 데에 국한되어 있어, 보행자들이 로봇을 급하게 피해야 하거나 충돌이 발생하는 문제점은 여전히 해결되기 어려운 실정이다.However, conventionally developed robot visual expression technologies are limited to providing static information (eg, guidance text). In particular, with regard to the movement of the robot, it is limited to simply informing the current driving direction, so the problem of pedestrians having to avoid the robot in a hurry or collisions occurring is still difficult to solve.

나아가, 주행 중 예기치 않은 장애물에 의해 출력된 조명이 가려지거나 흐려지는 현상이 발생하여 정보가 외부로 노출되지 않는 한계가 존재한다.Furthermore, there is a limit to the fact that the output light is obscured or blurred by unexpected obstacles while driving, preventing information from being exposed to the outside.

또한, 종래 개발된 로봇의 청각적인 의사 표현 기술은, 로봇의 이동 경로나 소리의 전달을 방해하는 장애물을 고려하지 않고, 단순히 정보를 나타내는 음향을 근방으로 퍼져 나가게 하는 기술에 머물러 있다.In addition, conventionally developed robot auditory expression technology does not take into account the robot's movement path or obstacles that impede the transmission of sound, and is limited to technology that simply spreads sound representing information to the surrounding area.

이에 따라, 로봇의 경로와 관련 없는 사람에게도 소음 공해를 일으킬 우려가 높으며, 정작 안내 정보가 요구되는 보행자에게 특별한 주목을 일으키지 않아 실효성이 떨어진다는 문제점이 존재한다.Accordingly, there is a high risk of causing noise pollution even to people who are not related to the robot's path, and there is a problem that it is less effective because it does not attract special attention to pedestrians who actually require guidance information.

본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 이동 경로를 비롯한 다양한 목적의 주행 안내 정보를 시청각적으로 외부에 노출하되, 예기치 않은 장애물이 경로 상에 놓여 정보 제공에 방해가 생기는 경우 이를 최소화하는 자율 주행 로봇을 제공하는 데에 그 목적이 있다.The present invention is intended to solve the problems of the prior art described above. Driving guidance information for various purposes, including travel routes, is exposed to the outside audio-visually, but when unexpected obstacles are placed on the route and interfere with the provision of information, The purpose is to provide a self-driving robot that minimizes traffic.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical challenges that this embodiment aims to achieve are not limited to the technical challenges described above, and other technical challenges may exist.

본 발명의 일 실시예에 따르는, 자율 주행 로봇이 수행하는, 주행 안내 정보를 시청각적으로 제공하는 방법은, a) 기 설정된 이동 경로로 주행하되 상기 이동 경로를 포함하는 주행 안내 정보를 소정의 시각적 정보로 가공하여 전방의 노면에 표시하거나 소정의 청각적 정보로 가공하여 외부로 출력하는 단계; b) 상기 이동 경로 상으로 위치하는 예기치 못한 장애물이 검출되는 경우 상기 장애물에 의해 상기 시각적 정보의 표시가 제한되거나 상기 청각적 정보의 전달이 단절되는 제한 구역을 파악하는 단계; 및 c) 상기 제한 구역에서 상기 시각적 정보의 일부 또는 전부가 표시되지 않도록 상기 시각적 정보가 표시되는 형상 및 구역을 변경하거나 상기 청각적 정보가 제한 구역에 도달하지 않도록 상기 청각적 정보의 출력 방향을 변경하는 단계를 포함하되, 상기 시각적 정보가 표시되거나 상기 청각적 정보가 도달될 수 있는 정보제공 가능 구역이 미리 설정되어 있으며, 상기 제한 구역은 상기 정보제공 가능 구역 내에 포함되는 것이다.According to an embodiment of the present invention, a method of audiovisually providing driving guidance information performed by an autonomous robot includes: a) driving along a preset movement path, but providing driving guidance information including the movement path with a predetermined visual Processing the information into information and displaying it on the road ahead, or processing it into predetermined auditory information and outputting it to the outside; b) when an unexpected obstacle located on the movement path is detected, identifying a restricted area where the display of the visual information is restricted or the transmission of the auditory information is cut off due to the obstacle; and c) changing the shape and area in which the visual information is displayed so that some or all of the visual information is not displayed in the restricted area, or changing the output direction of the auditory information so that the auditory information does not reach the restricted area. Including the step of, wherein an information provision area where the visual information can be displayed or the auditory information can be reached is preset, and the restricted area is included in the information provision area.

본 발명의 일 실시예에 따르면, 상기 a)단계는, 상기 정보제공 가능 구역에 포함되는 상기 이동 경로의 전부 또는 일부에 기초하여 가동되는 픽셀의 패턴을 결정하고, 상기 패턴으로 광을 조사하여 상기 이동 경로의 전부 또는 일부를 나타내는 라인을 전방의 노면에 표시하는 단계를 포함한다.According to an embodiment of the present invention, step a) determines a pattern of pixels to be operated based on all or part of the movement path included in the information provision area, and irradiates light with the pattern to It includes the step of displaying a line representing all or part of the travel route on the road surface ahead.

본 발명의 일 실시예에 따르면, 상기 a)단계는, 상기 자율 주행 로봇이 특정 객체를 추종하며 이동하는 로봇인 경우, 객체의 추종을 알리는 기 설정된 이미지의 광을 생성하여 상기 객체의 이동에 따라 상기 객체가 위치하는 노면에 조사하는 단계를 포함한다.According to an embodiment of the present invention, in step a), when the self-driving robot is a robot that moves while following a specific object, light of a preset image that informs the tracking of the object is generated to follow the movement of the object. It includes the step of examining the road surface where the object is located.

본 발명의 일 실시예에 따르면, 상기 a)단계는, 상기 자율 주행 로봇이 배송 로봇인 경우, 상기 자율 주행 로봇에 적재된 물건 및 상기 물건의 출하 위치를 포함하는 배송 정보의 이미지를 결정하고 상기 이미지의 광을 생성하여 전방의 노면에 조사하는 단계를 포함한다.According to an embodiment of the present invention, in step a), when the self-driving robot is a delivery robot, an image of delivery information including the product loaded on the self-driving robot and the shipping location of the product is determined, and It includes the step of generating image light and radiating it to the road surface ahead.

본 발명의 일 실시예에 따르면, 상기 a)단계는, 상기 청각적 정보를 상기 이동 경로의 방향으로 지향하여 출력하는 단계를 포함한다.According to one embodiment of the present invention, step a) includes outputting the auditory information by orienting it in the direction of the movement path.

본 발명의 일 실시예에 따르면, 상기 b)단계는, 상기 장애물을 회피하여 주행하기 위한 회피 경로를 획득하고, 상기 정보제공 가능 구역에서 상기 제한 구역을 제외한 정보표현 가능 구역을 파악한 후, 상기 회피 경로 중 상기 정보표현 가능 구역에 포함되는 경로를 추출하는 단계를 포함한다.According to an embodiment of the present invention, step b) obtains an avoidance route for driving while avoiding the obstacle, identifies an information expression area excluding the restricted area from the information provision area, and then avoids the obstacle. It includes the step of extracting a route included in the information expression possible area among the routes.

본 발명의 일 실시예에 따르면, 상기 c)단계는, 추출된 경로에 기초하여 가동되는 픽셀의 패턴을 결정하고 상기 패턴으로 광을 조사하여 상기 추출된 경로를 나타내는 라인을 상기 정보표현 가능 구역의 노면에 표시하는 단계를 포함한다.According to one embodiment of the present invention, step c) determines a pattern of pixels to be operated based on the extracted path, irradiates light with the pattern, and creates a line representing the extracted path in the information expression area. It includes marking on the road surface.

본 발명의 일 실시예에 따르면, 상기 c)단계는, 추출된 경로의 방향이 변경되는 지점마다 법선 벡터를 산출하고, 각 법선 벡터들의 방향을 평균한 벡터를 기준 방향 벡터로 결정하여, 상기 기준 방향 벡터를 기초로 상기 청각적 정보의 출력 방향을 설정하는 단계를 포함한다.According to an embodiment of the present invention, step c) calculates a normal vector at each point where the direction of the extracted path changes, determines a vector that averages the direction of each normal vector as a reference direction vector, and determines the reference direction vector. It includes setting an output direction of the auditory information based on a direction vector.

본 발명의 일 실시예에 따르면, 상기 c)단계는, 상기 자율 주행 로봇의 현재 위치를 기준으로 상기 정보표현 가능 구역을 기 설정된 각도로 분할하는 복수의 벡터를 획득하고, 상기 복수의 벡터 중 상기 기준 방향 벡터와 가장 인접한 벡터의 방향으로 상기 청각적 정보를 지향하여 출력하는 단계를 포함한다.According to one embodiment of the present invention, step c) obtains a plurality of vectors dividing the information expression possible area at a preset angle based on the current position of the autonomous driving robot, and among the plurality of vectors, the and outputting the auditory information in the direction of the vector closest to the reference direction vector.

본 발명의 일 실시예에 따르는, 주행 안내 정보를 시청각적으로 제공하는, 자율 주행 로봇은, 기 설정된 이동 경로로 주행하도록 주행 동작을 제어하고 상기 이동 경로를 포함하는 주행 안내 정보를 소정의 시각적 정보 또는 청각적 정보로 가공하는 제어부; 상기 제어부의 제어에 의해 상기 시각적 정보를 전방의 노면에 표시하는 표시부; 상기 제어부의 제어에 의해 상기 청각적 정보를 외부로 출력하는 음향부; 및 상기 이동 경로 상으로 위치하는 예기치 못한 장애물을 검출하여 상기 제어부로 전송하는 센서부를 포함하되, 상기 제어부는, 상기 센서부로부터 검출된 장애물을 수신하는 경우, 상기 장애물에 의해 상기 시각적 정보의 표시가 제한되거나 상기 청각적 정보의 전달이 단절되는 제한 구역을 파악하고, 상기 제한 구역에서 상기 시각적 정보의 일부 또는 전부가 표시되지 않도록 상기 시각적 정보가 표시되는 형상 및 구역을 변경하거나 상기 청각적 정보가 제한 구역에 도달하지 않도록 상기 청각적 정보의 출력 방향을 변경한다.According to an embodiment of the present invention, an autonomous driving robot that provides driving guidance information audio-visually controls the driving operation to drive along a preset movement path and converts the driving guidance information including the movement path into predetermined visual information. Or a control unit that processes auditory information; a display unit that displays the visual information on a road surface ahead under the control of the control unit; an audio unit that outputs the auditory information to the outside under control of the controller; and a sensor unit that detects an unexpected obstacle located on the movement path and transmits it to the control unit, wherein the control unit, when receiving the detected obstacle from the sensor unit, displays the visual information due to the obstacle. Identify a restricted area where transmission of the auditory information is restricted or interrupted, change the shape and area in which the visual information is displayed so that some or all of the visual information is not displayed in the restricted area, or limit the auditory information. Change the output direction of the auditory information so that it does not reach the area.

본 발명의 일 실시예에 따르면, 상기 제어부는, 상기 정보제공 가능 구역에 포함되는 상기 이동 경로의 전부 또는 일부에 기초하여 가동되는 픽셀의 패턴을 결정하고, 상기 표시부는, 상기 제어부의 제어에 따라 상기 패턴으로 광을 조사하여 상기 이동 경로의 전부 또는 일부를 나타내는 라인을 전방의 노면에 표시한다.According to one embodiment of the present invention, the control unit determines a pattern of pixels to be operated based on all or part of the movement path included in the information provision area, and the display unit determines a pattern of pixels to be operated based on the control of the control unit. By irradiating light in the above pattern, a line representing all or part of the movement path is displayed on the road ahead.

본 발명의 일 실시예에 따르는, 자율 주행 로봇은, 특정 객체를 추종하며 이동하는 목적으로 설계된 경우, 상기 제어부는 상기 객체의 위치를 지속적으로 추적하고, 상기 표시부는 상기 객체의 추종을 알리는 기 설정된 이미지의 광을 생성하고 상기 제어부의 제어에 따라 상기 객체가 위치하는 노면에 생성된 광을 조사하며, 배송 목적으로 설계된 경우, 상기 제어부는 상기 자율 주행 로봇에 적재된 물건 및 상기 물건의 출하 위치를 포함하는 배송 정보의 이미지를 결정하고, 상기 표시부는 상기 제어부의 제어에 따라 상기 이미지의 광을 생성하여 전방의 노면에 조사하는 것이다.According to one embodiment of the present invention, when an autonomous robot is designed for the purpose of moving while following a specific object, the control unit continuously tracks the location of the object, and the display unit displays a preset signal notifying the tracking of the object. Generates light of an image and irradiates the light generated on the road surface where the object is located under the control of the control unit. When designed for delivery purposes, the control unit determines the product loaded on the autonomous robot and the shipping location of the product. An image containing delivery information is determined, and the display unit generates light of the image under control of the control unit and radiates it to the road surface in front.

본 발명의 일 실시예에 따르면, 상기 음향부는, 상기 청각적 정보를 상기 이동 경로의 방향으로 지향하여 출력하는 지향성 스피커로 설계되는 것이다.According to one embodiment of the present invention, the sound unit is designed as a directional speaker that outputs the auditory information by orienting it in the direction of the movement path.

본 발명의 일 실시예에 따르면, 상기 제어부는 상기 센서부로부터 검출된 장애물을 수신하는 경우, 상기 장애물을 회피하여 주행하기 위한 회피 경로를 획득하고, 상기 정보제공 가능 구역에서 상기 제한 구역을 제외한 정보표현 가능 구역을 파악한 후, 상기 회피 경로 중 상기 정보표현 가능 구역에 포함되는 경로를 추출한다.According to one embodiment of the present invention, when receiving an obstacle detected by the sensor unit, the control unit acquires an avoidance route for driving while avoiding the obstacle, and provides information excluding the restricted area from the information provision area. After identifying the area where information can be expressed, a path included in the area where information can be expressed is extracted from among the avoidance routes.

본 발명의 일 실시예에 따르면, 상기 제어부는 추출된 경로에 기초하여 가동되는 픽셀의 패턴을 결정하고, 상기 표시부는 상기 제어부의 제어에 따라 상기 패턴으로 광을 조사하여 상기 추출된 경로를 나타내는 라인을 상기 정보표현 가능 구역의 노면에 표시한다.According to one embodiment of the present invention, the control unit determines a pattern of pixels to be operated based on the extracted path, and the display unit irradiates light with the pattern according to the control of the control unit to create a line indicating the extracted path. is displayed on the road surface in the area where information can be expressed.

본 발명의 일 실시예에 따르면, 상기 제어부는 추출된 경로의 방향이 변경되는 지점마다 법선 벡터를 산출하고, 각 법선 벡터들의 방향을 평균한 벡터를 기준 방향 벡터로 결정하며, 현재 위치를 기준으로 상기 정보표현 가능 구역을 기 설정된 각도로 분할하는 복수의 벡터를 획득하고, 상기 음향부는 상기 제어부의 제어에 따라 상기 복수의 벡터 중 상기 기준 방향 벡터와 가장 인접한 벡터의 방향으로 상기 청각적 정보를 지향하여 출력한다.According to one embodiment of the present invention, the control unit calculates a normal vector at each point where the direction of the extracted path changes, determines a vector averaging the directions of each normal vector as a reference direction vector, and based on the current position Obtains a plurality of vectors dividing the information expression area at a preset angle, and the sound unit directs the auditory information in the direction of the vector closest to the reference direction vector among the plurality of vectors under the control of the control unit. and print it out.

본 발명의 일 실시예는, 자율 주행 로봇의 주행 안내 정보를 시청각적으로 알리는 방법을 통해 로봇의 의사를 외부의 객체에게 전달하는 상호작용 기술을 제공한다.One embodiment of the present invention provides an interaction technology for conveying the robot's intention to an external object through a method of audiovisually announcing driving guidance information of an autonomous robot.

본 발명의 일 실시예는, 빛과 파동의 물리적인 성질에 따라 로봇의 의사 표현에 장애가 발생하는 상황을 감지하고, 이러한 상황을 회피하는 기술을 제공한다.One embodiment of the present invention detects situations in which obstacles occur in the robot's expression of opinion depending on the physical properties of light and waves, and provides technology to avoid these situations.

본 발명의 일 실시예에 따르면, 단순히 로봇의 특정 시점에 대한 이동 방향이 아닌 광범위한 이동 경로가 노면 상에 표시되거나 청각적으로 제공된다.According to one embodiment of the present invention, an extensive movement path, rather than simply the direction of movement of the robot at a specific point in time, is displayed on the road surface or provided audibly.

이로써, 로봇과 일정 거리 이상 떨어진 사람이라도 로봇의 이동 경로를 미리 파악할 수 있어, 자율 주행에 따른 사고가 미연에 방지되어 안전성이 제고된다.As a result, even people who are more than a certain distance away from the robot can determine the robot's movement path in advance, thereby preventing accidents due to autonomous driving and improving safety.

본 발명의 일 실시예에 따르면, 이동 경로 상에 위치하는 사람들에게 로봇의 의사 표현을 집중함으로써, 경고 및 안내의 실효성이 보장되며, 로봇의 주행이나 의사표현에 따른 주변 사람의 피해가 최소화된다.According to one embodiment of the present invention, by focusing the robot's expression of opinion on people located on the movement path, the effectiveness of warnings and guidance is guaranteed, and damage to people around due to the robot's driving or expression is minimized.

도 1은 본 발명의 주행 안내 정보를 시각적으로 제공하는 자율 주행 로봇의 일 실시예를 설명하기 위한 예시도이다.
도 2는 본 발명의 주행 안내 정보를 청각적으로 제공하는 자율 주행 로봇의 일 실시예를 설명하기 위한 개념도이다.
도 3은 본 발명의 일 실시예에 따르는 자율 주행 로봇의 구조를 설명하기 위한 블록도이다.
도 4는 본 발명의 일 실시예에 따르는 주행 안내 정보를 시청각적으로 제공하는 방법에 대한 순서도이다.
도 5및 도 6은 본 발명의 일 실시예에 따르는 예기치 않은 장애물이 감지되는 경우 주행 안내 정보를 시각적으로 제공하는 과정을 설명하기 위한 동작 흐름도이다.
도 7 및 도 8은 본 발명의 일 실시예에 따르는 예기치 않은 장애물이 감지되는 경우 주행 안내 정보를 청각적으로 제공하는 과정을 설명하기 위한 동작 흐름도이다.
1 is an exemplary diagram for explaining an embodiment of an autonomous driving robot that visually provides driving guidance information of the present invention.
Figure 2 is a conceptual diagram illustrating an embodiment of an autonomous driving robot that audibly provides driving guidance information of the present invention.
Figure 3 is a block diagram for explaining the structure of a self-driving robot according to an embodiment of the present invention.
Figure 4 is a flowchart of a method for providing audio-visual driving guidance information according to an embodiment of the present invention.
Figures 5 and 6 are flowcharts illustrating a process for visually providing driving guidance information when an unexpected obstacle is detected according to an embodiment of the present invention.
Figures 7 and 8 are flowcharts illustrating a process for audibly providing driving guidance information when an unexpected obstacle is detected according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected," but also the case where it is "electrically connected" with another element in between. . Additionally, when a part "includes" a certain component, this means that it may further include other components rather than excluding other components, unless specifically stated to the contrary.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, 'part' includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Additionally, one unit may be realized using two or more pieces of hardware, and two or more units may be realized using one piece of hardware. Meanwhile, '~ part' is not limited to software or hardware, and '~ part' may be configured to reside in an addressable storage medium or may be configured to reproduce one or more processors. Therefore, as an example, '~ part' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functions provided within the components and 'parts' may be combined into a smaller number of components and 'parts' or may be further separated into additional components and 'parts'. Additionally, components and 'parts' may be implemented to regenerate one or more CPUs within a device or a secure multimedia card.

이하, 첨부된 도면을 활용하여 본 발명의 일 실시예를 상세히 설명하도록 한다.Hereinafter, an embodiment of the present invention will be described in detail using the attached drawings.

본 발명의 일 실시예에 따르는, 자율 주행 로봇은, 정해진 지역을 주행하면서 미리 설정된 서비스를 주기적으로 수행하도록 설계된 장치로서, 여기서 서비스는, 배송, 배달, 운반, 안내, 공정, 미화 등 다양할 수 있으며, 특별히 제한되는 것은 아니다.According to an embodiment of the present invention, an autonomous robot is a device designed to periodically perform preset services while driving in a designated area, where the services can be diverse, such as delivery, delivery, transportation, guidance, processing, and beautification. and is not particularly limited.

일 실시예에 따르는, 자율 주행 로봇은, 자율 주행 로봇의 주행 및 서비스 수행을 모니터링하는 서버와 연결되어 무선 통신을 수행하며, 이에 따라 자율 주행 로봇에 설치된 각 종 센서에 의해 검출되는 데이터를 서버에 실시간으로 전송할 수 있다. 서버는 수신한 데이터에 기초하여 생성한 제어 명령을 자율 주행 로봇으로 전송할 수 있다.According to one embodiment, the self-driving robot is connected to a server that monitors the driving and service performance of the self-driving robot and performs wireless communication. Accordingly, data detected by various sensors installed on the self-driving robot is sent to the server. It can be transmitted in real time. The server can transmit control commands generated based on the received data to the self-driving robot.

일 실시예에 따르는, 자율 주행 로봇은, 자율 주행 로봇을 관리하는 관리자의 단말과 연결되어 무선 통신을 수행할 수 있다. 여기서 관리자 단말은 자율 주행 로봇의 주행 및 서비스 수행을 모니터링하는 프로그램이 설치될 수 있으며, 자율 주행에 따라 수집되는 각 종 데이터를 수신하고, 그에 따른 제어 명령을 자율 주행 로봇으로 전송할 수 있다.According to one embodiment, the self-driving robot may be connected to the terminal of the manager who manages the self-driving robot and perform wireless communication. Here, the manager terminal can be installed with a program that monitors the driving and service performance of the autonomous driving robot, receive various data collected during autonomous driving, and transmit the corresponding control commands to the autonomous driving robot.

한편, "관리자 단말"은 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), VR HMD(예를 들어, HTC VIVE, Oculus Rift, GearVR, DayDream, PSVR 등)등을 포함할 수 있다. 여기서, VR HMD 는 PC용 (예를 들어, HTC VIVE, Oculus Rift, FOVE, Deepon 등)과 모바일용(예를 들어, GearVR, DayDream, 폭풍마경, 구글 카드보드 등) 그리고 콘솔용(PSVR)과 독립적으로 구현되는 Stand Alone 모델(예를 들어, Deepon, PICO 등) 등을 모두 포함한다. 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 스마트폰(smart phone), 태블릿 PC, 웨어러블 디바이스뿐만 아니라, 블루투스(BLE, Bluetooth Low Energy), NFC, RFID, 초음파(Ultrasonic), 적외선, 와이파이(WiFi), 라이파이(LiFi) 등의 통신 모듈을 탑재한 각종 디바이스를 포함할 수 있다. 또한, "네트워크"는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷 (WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 블루투스 통신, 적외선 통신, 초음파 통신, 가시광 통신(VLC: Visible Light Communication), 라이파이(LiFi) 등이 포함되나 이에 한정되지는 않는다.Meanwhile, the “administrator terminal” may be implemented as a computer or portable terminal that can connect to a server or other terminals through a network. Here, the computer is, for example, a laptop equipped with a web browser, a desktop, a laptop, a VR HMD (e.g., HTC VIVE, Oculus Rift, GearVR, DayDream, PSVR, etc.), etc. may include. Here, VR HMD is for PC (e.g. HTC VIVE, Oculus Rift, FOVE, Deepon, etc.), mobile (e.g. GearVR, DayDream, Storm Magic, Google Cardboard, etc.), and console (PSVR). Includes independently implemented Stand Alone models (e.g. Deepon, PICO, etc.). Portable terminals are, for example, wireless communication devices that ensure portability and mobility, including smart phones, tablet PCs, and wearable devices, as well as Bluetooth (BLE, Bluetooth Low Energy), NFC, RFID, and ultrasonic devices. , may include various devices equipped with communication modules such as infrared, WiFi, and LiFi. In addition, “network” refers to a connection structure that allows information exchange between nodes such as terminals and servers, including a local area network (LAN), a wide area network (WAN), and the Internet. (WWW: World Wide Web), wired and wireless data communication network, telephone network, wired and wireless television communication network, etc. Examples of wireless data communication networks include 3G, 4G, 5G, 3GPP (3rd Generation Partnership Project), LTE (Long Term Evolution), WIMAX (World Interoperability for Microwave Access), Wi-Fi, Bluetooth communication, infrared communication, and ultrasound. This includes, but is not limited to, communication, Visible Light Communication (VLC), LiFi, etc.

일 실시예에 따르는, 자율 주행 로봇은, 주행 안내 정보를 시각적인 방법으로 외부에 알리는 기능을 포함하도록 설계될 수 있다. 여기서 주행 안내 정보는, 서버나 관리자 단말에 의해 설정되어 자율 주행 로봇에 저장된 것으로서, 이동 경로, 로봇의 수행 목적인 서비스 관련 정보, 충돌 및 도난 경고 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.According to one embodiment, an autonomous driving robot may be designed to include a function to notify driving guidance information to the outside in a visual manner. Here, the driving guidance information is set by the server or administrator terminal and stored in the self-driving robot, and may include, but is not limited to, movement routes, service-related information for the purpose of the robot, collision and theft warnings, etc.

도 1은 본 발명의 주행 안내 정보를 시각적으로 제공하는 자율 주행 로봇의 일 실시예를 설명하기 위한 예시도이다.1 is an exemplary diagram for explaining an embodiment of an autonomous driving robot that visually provides driving guidance information of the present invention.

도 1(a)를 참조하면, 일 실시예에 따르는 자율 주행 로봇(100)은, 주행 중인 위치에서부터의 향후 이동 경로를 전방의 노면에 표시할 수 있다. 직진, 정지, 좌회전, 우회전 등 단순히 현재 시점에서의 이동 방향만을 알리는 것이 아니라, 목적지까지의 이동 경로에 대한 전부 또는 일부를 라인 형태로 표시할 수 있다. 즉, 출력 한계 범위 안에 있는 모든 이동 경로가 선형으로 연장되어 외부에 노출되며, 로봇(100)의 이동에 따라 노출되는 이동 경로의 형상 및 구역은 실시간으로 변경될 수 있다. 이에 따라, 로봇(100)이 도달하지 않은 먼 지역에 있는 보행자들이라도, 로봇의 동선을 인지하고 미리 벗어날 수 있어, 안전사고가 미연에 방지되는 효과가 도모될 수 있다.Referring to FIG. 1(a), the self-driving robot 100 according to one embodiment may display the future movement path from the driving location on the road surface in front. Rather than simply indicating the current direction of movement, such as going straight, stopping, turning left, or turning right, all or part of the route to the destination can be displayed in line form. That is, all movement paths within the output limit range are linearly extended and exposed to the outside, and the shape and area of the movement paths exposed as the robot 100 moves can change in real time. Accordingly, even pedestrians in distant areas where the robot 100 has not reached can recognize the robot's movement line and leave in advance, thereby preventing safety accidents in advance.

일 실시예에 따르는 자율 주행 로봇(100)은, 특정 객체를 추종하며 이동하는 기능을 포함하도록 설계될 수 있다. 예를 들어, 소정의 도구, 부품, 장비 등을 적재하여 특정 작업자를 따라다니도록 설계되거나, 거동이 불편한 보행자를 따라다니며 보행을 보조하도록 설계될 수 있으나, 이러한 예시에 한정되는 것은 아니다. 이러한 자율 주행 로봇(100)은 추종하는 객체의 위치를 실시간으로 파악할 수 있으며, 도 1(b)에 도시된 바와 같이, 추종을 알리는 소정의 이미지를 객체가 위치하는 노면에 표시할 수 있다. 이에 따라, 다수의 사람이나 사물이 분포하는 공간이라도, 로봇(100)의 사용 주체는 자신을 담당하는 로봇(100)이 무엇인지, 로봇(100)이 자신을 잘 따라오고 있는지 여부를 용이하게 파악할 수 있다.The self-driving robot 100 according to one embodiment may be designed to include a function of moving while following a specific object. For example, it may be designed to follow a specific worker by loading certain tools, parts, equipment, etc., or may be designed to follow a pedestrian with impaired mobility and assist walking, but is not limited to these examples. This self-driving robot 100 can determine the location of the object it is following in real time, and as shown in FIG. 1(b), it can display a predetermined image notifying the tracking on the road surface where the object is located. Accordingly, even in a space where a large number of people or objects are distributed, the user of the robot 100 can easily determine which robot 100 is in charge of the robot 100 and whether the robot 100 is following the user well. You can.

일 실시예에 따르는 자율 주행 로봇(100)은, 특정 물건을 적재한 채로 자율 주행하여 정해진 목적지까지 배송하는 배송 로봇일 수 있다. 이 때, 로봇(100)에는 적재된 물건의 정보 및 물건의 출하 위치를 포함하는 배송 정보가 미리 설정되어 저장될 수 있다. 이러한 자율 주행 로봇(100)은, 도 1(c)에 도시된 바와 같이, 배송 정보를 나타내는 이미지를 노면에 출력하여 주문자 또는 보행자들에게 알릴 수 있으며, 이에 따라 신속하고 안전한 배송이 이루어질 수 있다.The self-driving robot 100 according to one embodiment may be a delivery robot that autonomously drives while loading a specific product and delivers it to a specified destination. At this time, delivery information including information on the loaded product and the shipping location of the product may be preset and stored in the robot 100. As shown in FIG. 1(c), this self-driving robot 100 can output an image representing delivery information on the road surface to inform orderers or pedestrians, thereby enabling quick and safe delivery.

일 실시예에 따르는, 자율 주행 로봇(100)은, 주행 안내 정보를 청각적인 방법으로 외부에 알리는 기능을 포함하도록 설계될 수 있다. 여기서 주행 안내 정보는, 서버나 관리자 단말에 의해 설정되어 자율 주행 로봇에 저장된 것으로서, 이동 경로, 로봇의 수행 목적인 서비스 관련 정보, 충돌 및 도난 경고 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.According to one embodiment, the self-driving robot 100 may be designed to include a function to notify driving guidance information to the outside in an auditory manner. Here, the driving guidance information is set by the server or administrator terminal and stored in the self-driving robot, and may include, but is not limited to, movement routes, service-related information for the purpose of the robot, collision and theft warnings, etc.

도 2는 본 발명의 주행 안내 정보를 청각적으로 제공하는 자율 주행 로봇의 일 실시예를 설명하기 위한 개념도이다.Figure 2 is a conceptual diagram illustrating an embodiment of an autonomous driving robot that audibly provides driving guidance information of the present invention.

도 2를 참조하면, 일 실시예에 따르는 자율 주행 로봇(100)은, 주행 안내 정보의 음향을 단순히 외부로 분산시켜 출력하는 것이 아니라, 출력되는 음향이 특정 방향으로 지향하도록 설계될 수 있다. 이에 따라, 실질적으로 안내가 필요한 사람에게 음향이 집중되어 주목도가 향상되며, 불필요한 소음 공해가 발생하는 현상이 최소화될 수 있다.Referring to FIG. 2, the self-driving robot 100 according to one embodiment may be designed to direct the output sound in a specific direction rather than simply dispersing the sound of driving guidance information to the outside. Accordingly, the sound is focused on those who actually need guidance, thereby improving attention, and the phenomenon of unnecessary noise pollution can be minimized.

이하, 도 3을 참조하여, 본 발명의 자율 주행 로봇의 구조에 대한 일 실시예를 설명하도록 한다. 도 3은 본 발명의 일 실시예에 따르는 자율 주행 로봇의 구조를 설명하기 위한 블록도이다.Hereinafter, with reference to FIG. 3, an embodiment of the structure of the self-driving robot of the present invention will be described. Figure 3 is a block diagram for explaining the structure of a self-driving robot according to an embodiment of the present invention.

도 3을 참조하면, 자율 주행 로봇(100)은 제어부(110), 센서부(120), 표시부(130) 및 음향부(140)를 포함할 수 있다.Referring to FIG. 3 , the self-driving robot 100 may include a control unit 110, a sensor unit 120, a display unit 130, and an audio unit 140.

일 실시예에 따르는, 제어부(110)는, 자율 주행 로봇(100)의 전반적인 동작을 결정하고 제어하는 역할을 수행한다. 제어부(110)에는 자율 주행을 위한 최적의 이동 경로가 미리 설정되어 저장되어 있으며, 제어부(110)는 이에 기초하여 구동부(미도시)의 동작을 제어할 수 있다. 한편, 이동 경로는 그 방향이나 형상이 특별히 한정되는 것은 아니며, 주행 공간 상에서 미리 파악된 고정 장애물이나 보행 경로, 사람의 밀집도 등 주행에 영향을 주는 요소가 고려되어 설계될 수 있다.According to one embodiment, the control unit 110 determines and controls the overall operation of the self-driving robot 100. The optimal movement path for autonomous driving is preset and stored in the control unit 110, and the control unit 110 can control the operation of the driving unit (not shown) based on this. Meanwhile, the direction or shape of the movement path is not particularly limited, and may be designed by taking into account factors affecting driving, such as fixed obstacles, walking paths, and human density previously identified in the driving space.

일 실시예에 따르면, 제어부(110)는 주행 안내 정보를 소정의 시각적 정보로 가공할 수 있다. 예를 들어, 제어부(110)는 표시부(130)에 포함된 픽셀의 가동 패턴을 결정할 수 있으며, 이에 따라 결정된 패턴으로 광이 출력됨으로써, 주행 안내 정보를 나타내는 시각적 정보가 노면에 표현될 수 있다.According to one embodiment, the control unit 110 may process driving guidance information into predetermined visual information. For example, the control unit 110 can determine the operation pattern of the pixels included in the display unit 130, and light is output in the determined pattern, so that visual information representing driving guidance information can be expressed on the road surface.

일 실시예에 따르면, 제어부(110)는 주행 안내 정보를 소정의 청각적 정보로 가공할 수 있다. 예를 들어, 제어부(110)에는 주행 안내 정보의 종류 별로 음향 정보가 매칭되어 저장될 수 있다. 이동 경로의 경우, 제어부(110)는 기 설정된 주행 방향과 매칭된 각각의 음향 정보를 조합할 수 있으며, 이에 따라 로봇(100)의 주행에 의해 실시간으로 변경되는 이동 경로에 대응하여 이를 안내하는 청각적 정보 또한 실시간으로 변경될 수 있다.According to one embodiment, the control unit 110 may process driving guidance information into predetermined auditory information. For example, sound information may be matched and stored in the control unit 110 for each type of driving guidance information. In the case of a movement path, the control unit 110 can combine each sound information matched with a preset driving direction, and accordingly, the auditory guidance is provided in response to the movement path that changes in real time as the robot 100 travels. Enemy information can also change in real time.

일 실시예에 따르면, 제어부(110)에는 정보제공 가능 구역이 미리 설정될 수 있다. 여기서 정보제공 가능 구역은, 시각적 정보가 표시되거나 청각적 정보가 도달할 수 있는 범위를 의미하며, 이는 표시부(130) 및 음향부(140)의 성능에 따라 결정되고, 관리자의 설정에 따라 변경될 수 있다.According to one embodiment, an area in which information can be provided may be set in advance in the control unit 110. Here, the information provision area refers to the range where visual information can be displayed or auditory information can reach, which is determined depending on the performance of the display unit 130 and the sound unit 140 and can be changed according to the administrator's settings. You can.

일 실시예에 따르면, 제어부(110)는 예기치 않은 장애물이 이동 경로 상에 놓여지게 되는 경우, 장애물에 의한 정보 제공의 방해를 방지하는 프로세스를 수행할 수 있는데, 이에 대한 상세한 내용은 도 5 내지 도 8을 통해 후술하도록 한다.According to one embodiment, when an unexpected obstacle is placed on the movement path, the control unit 110 may perform a process to prevent interruption of information provision by the obstacle. Details of this are shown in FIGS. 5 to 5. This will be explained later in Section 8.

일 실시예에 따르는 센서부(120)는, 자율 주행 로봇(100)의 주위를 감지하는 역할을 수행한다. 예를 들어, 센서부(120)는 로봇(100) 주변의 객체를 검출하는 라이더(lider), 초음파, 카메라, 열감지 센서 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.The sensor unit 120 according to one embodiment serves to sense the surroundings of the self-driving robot 100. For example, the sensor unit 120 may include, but is not limited to, a lider, an ultrasonic sensor, a camera, or a heat sensor that detects objects around the robot 100.

일 실시예에 따르면, 센서부(120)는 자율 주행 로봇(100)의 주행 중 이동 경로 상에 위치하는 장애물을 검출하고 제어부(110)로 전송할 수 있다. 미리 파악된 고정 장애물은 이동 경로에 반영되므로, 여기서는, 이동 경로 내에 순간적으로 이동한 사람이나 미처 파악되지 않은 지형지물 등 예기치 못한 장애물인 경우가 보다 유효하다.According to one embodiment, the sensor unit 120 may detect obstacles located on the movement path of the self-driving robot 100 while driving and transmit the information to the control unit 110. Fixed obstacles identified in advance are reflected in the movement path, so here, unexpected obstacles such as people who momentarily move within the movement path or unknown terrain features are more effective.

일 실시예에 따르는 표시부(130)는, 제어부(110)의 제어에 따라 시각적 정보를 전방의 노면에 표시하는 역할을 수행한다. 표시부(130)는 레이저, LED 등의 광원으로 구성될 수 있으며 육안으로 관찰하기 용이한 파장의 광을 출력하도록 설계될 수 있다. 물론, 광원의 종류가 본 발명을 제한하는 것은 아니다.The display unit 130 according to one embodiment serves to display visual information on the road surface in front under the control of the control unit 110. The display unit 130 may be composed of a light source such as a laser or LED and may be designed to output light at a wavelength that is easy to observe with the naked eye. Of course, the type of light source does not limit the present invention.

일 실시예에 따르면, 표시부(130)는 기 설정된 개수로 분할된 픽셀의 조합으로 설계될 수 있다. 각 픽셀은 독자적으로 가동될 수 있으며, 제어부(110)가 결정한 패턴에 따라 각 픽셀의 광이 조사됨으로써, 주행 안내 정보를 나타내는 시각적 정보가 생성되어 노면에 표시될 수 있다.According to one embodiment, the display unit 130 may be designed as a combination of pixels divided into a preset number. Each pixel can operate independently, and the light of each pixel is irradiated according to a pattern determined by the control unit 110, thereby generating visual information representing driving guidance information and displaying it on the road surface.

도 1을 참조하여 예를 들면, 표시부(130)는 제어부(110)가 결정한 패턴으로 광을 조사하여 이동 경로를 나타내는 라인을 정보제공 가능 구역까지의 노면에 표시할 수 있다. 또한, 표시부(130)는 제어부(110)가 결정한 패턴으로 광을 조사하여 객체의 추종을 알리는 이미지를 객체가 위치한 노면에 표시할 수 있다. 또한, 표시부(130)는 제어부(110)가 결정한 패턴으로 광을 조사하여 배송 정보의 이미지를 전방의 노면에 표시할 수 있다.Referring to FIG. 1 , for example, the display unit 130 may radiate light in a pattern determined by the control unit 110 to display a line indicating the movement path on the road surface up to the information provision area. Additionally, the display unit 130 may radiate light in a pattern determined by the control unit 110 to display an image indicating the tracking of an object on the road surface where the object is located. Additionally, the display unit 130 may display an image of delivery information on the road ahead by irradiating light in a pattern determined by the control unit 110.

추가 실시예로서, 표시부(130)는 노면의 밝기에 따라 가변하는 파장의 광을 출력하도록 설계될 수 있다. 센서부(120)에 포함된 밝기 감지 센서에 의해 주행 중인 노면의 밝기가 지속적으로 수집될 수 있으며, 제어부(110)는 노면의 밝기에 따른 파장을 실시간으로 결정하여 표시부(130)로 전송할 수 있다. 이에 따라, 시각적 정보가 흐릿하게 표현되어 의미의 전달이 불가능해지는 경우나, 과하게 표현되어 주변의 보행자들에게 피해를 발생시키는 경우의 수를 최소화할 수 있다.As a further example, the display unit 130 may be designed to output light of a variable wavelength depending on the brightness of the road surface. The brightness of the road surface while driving can be continuously collected by the brightness detection sensor included in the sensor unit 120, and the control unit 110 can determine the wavelength according to the brightness of the road surface in real time and transmit it to the display unit 130. . Accordingly, it is possible to minimize the number of cases where visual information is expressed blurry, making it impossible to convey meaning, or overly expressed, causing damage to surrounding pedestrians.

일 실시예에 따르는 음향부(140)는, 제어부의 제어에 따라 청각적 정보를 외부로 출력하는 역할을 수행한다. 음향부(140)의 종류나 형상이 특별히 제한되는 것은 아니나, 이동 경로 상에 위치하는 사람들에게만 중점적으로 청각적 정보를 전달하기 위하여, 지향성 스피커로 설계되는 것이 바람직하다.The sound unit 140 according to one embodiment serves to output auditory information to the outside according to the control of the control unit. The type or shape of the sound unit 140 is not particularly limited, but it is preferably designed as a directional speaker in order to deliver auditory information only to people located on the movement path.

이하, 도 4를 참조하여 자율 주행 로봇(100)의 주행 안내 정보를 시청각적으로 제공하는 방법에 대한 일 실시예를 설명하도록 한다. 도 4는 본 발명의 일 실시예에 따르는 주행 안내 정보를 시청각적으로 제공하는 방법에 대한 순서도이다. 자율 주행 로봇(100)은 설명의 편의상 로봇(100)으로 대체하도록 한다.Hereinafter, an embodiment of a method for audio-visually providing driving guidance information for the self-driving robot 100 will be described with reference to FIG. 4 . Figure 4 is a flowchart of a method for providing audio-visual driving guidance information according to an embodiment of the present invention. For convenience of explanation, the self-driving robot 100 will be replaced with the robot 100.

단계 S410에서, 로봇(100)은 기 설정된 이동 경로로 주행하면서, 이동 경로를 포함하는 주행 안내 정보를 소정의 시각적 정보로 가공하여 전방의 노면에 표시하거나 소정의 청각적 정보로 가공하여 외부로 출력할 수 있다.In step S410, while driving along a preset movement path, the robot 100 processes driving guidance information including the movement path into predetermined visual information and displays it on the road ahead, or processes it into predetermined auditory information and outputs it to the outside. can do.

일 실시예에 따르면, 로봇(100)은 정보제공 가능 구역에 포함되는 이동 경로의 전부 또는 일부에 기초하여 가동되는 픽셀의 패턴을 결정하고, 해당 패턴으로 광을 조사하여 이동 경로의 전부 또는 일부를 나타내는 라인을 전방의 노면에 표시할 수 있다.According to one embodiment, the robot 100 determines a pattern of pixels to be operated based on all or part of the movement path included in the information provision area, and irradiates light with the corresponding pattern to determine all or part of the movement path. The indicated line can be displayed on the road surface ahead.

일 실시예에 따르면, 로봇(100)이 특정 객체를 추종하며 이동하도록 설계된 경우, 객체의 추종을 알리는 기 설정된 이미지의 광을 생성하여 객체가 위치하는 노면에 조사할 수 있다. 여기서, 이미지의 형상이나 크기가 특별히 한정되는 것은 아니다.According to one embodiment, when the robot 100 is designed to move while following a specific object, light of a preset image notifying the tracking of the object may be generated and radiated to the road surface where the object is located. Here, the shape or size of the image is not particularly limited.

일 실시예에 따르면, 로봇(100)이 배송 목적으로 설계된 경우, 로봇(100)에 적재된 물건 및 상기 물건의 출하 위치를 포함하는 배송 정보의 이미지를 결정하고 해당 이미지의 광을 생성하여 전방의 노면에 조사할 수 있다.According to one embodiment, when the robot 100 is designed for delivery purposes, an image of delivery information including the product loaded on the robot 100 and the shipping location of the product is determined, and light of the image is generated to produce a front view of the robot 100. It can be investigated on the road surface.

일 실시예에 따르면, 로봇(100)은 청각적 정보를 무작위 방향으로 출력하는 것이 아니라, 이동 경로의 방향으로 지향하여 출력할 수 있다.According to one embodiment, the robot 100 may output auditory information oriented in the direction of the movement path rather than outputting auditory information in a random direction.

단계 S420에서, 이동 경로 상으로 위치하는 예기치 못한 장애물이 검출되는 경우, 로봇(100)은 장애물에 의해 시각적 정보의 표시가 제한되거나 청각적 정보의 전달이 단절되는 제한 구역을 파악할 수 있다. 여기서, 제한 구역은 정보제공 가능 구역 내에 포함되는 것으로서, 장애물에 의해 시야가 가려지는 영역을 포함할 수 있다.In step S420, when an unexpected obstacle located on the movement path is detected, the robot 100 may identify a restricted area where the display of visual information is limited or the transmission of auditory information is interrupted by the obstacle. Here, the restricted area is included within the information provision area and may include an area where the view is obscured by an obstacle.

단계 S430에서, 로봇(100)은 제한 구역에서 시각적 정보의 일부 또는 전부가 표시되지 않도록 시각적 정보가 표시되는 형상 및 구역을 변경하거나 청각적 정보가 제한 구역에 도달하지 않도록 청각적 정보의 출력 방향을 변경할 수 있다. 즉, 장애물에 의한 시청각적인 정보의 전달이 제한되는 현상을 방지할 수 있으며, 이와 관련한 구체적인 실시예를 도 5 내지 도 8을 활용하여 설명하도록 한다.In step S430, the robot 100 changes the shape and area in which the visual information is displayed so that some or all of the visual information is not displayed in the restricted area, or changes the output direction of the auditory information so that the auditory information does not reach the restricted area. You can change it. In other words, it is possible to prevent the transmission of audio-visual information from being restricted due to obstacles, and specific embodiments related to this will be described using FIGS. 5 to 8.

도 5및 도 6은 본 발명의 일 실시예에 따르는 예기치 않은 장애물이 감지되는 경우 주행 안내 정보를 시각적으로 제공하는 과정을 설명하기 위한 동작 흐름도이다.Figures 5 and 6 are flowcharts illustrating a process for visually providing driving guidance information when an unexpected obstacle is detected according to an embodiment of the present invention.

도 5를 참조하면, (a)단계에서, 로봇(100)은 목적지 또는 경유지(51)까지 기 설정된 이동 경로(52a)로 주행한다. 로봇(100)에는 시각적 정보의 출력 한계 범위인 정보제공 가능 구역(53)이 설정되어 있다. 로봇(100)은 이동 경로(52a) 중 정보제공 가능 구역(53) 내에 포함된 경로에 대한 라인(54a)을 전방의 노면에 표시한다. 장애물(55)은 아직까지 이동 경로(52a)의 외부에 위치해 있는 상태이다. 한편, 설명을 위해 초기 이동 경로(52a)를 직선 형태로 도시하였으나, 고정 장애물이나 지형지물에 따라 구불구불하거나 굽은 부분 등 직선, 곡선 및 그 조합 중 적어도 하나를 포함하는 다양한 형태로 설정될 수 있다.Referring to FIG. 5, in step (a), the robot 100 travels along a preset movement path 52a to the destination or waypoint 51. In the robot 100, an information provision area 53 is set, which is the output limit range of visual information. The robot 100 displays a line 54a for a path included in the information provisionable area 53 among the movement paths 52a on the road surface in front. The obstacle 55 is still located outside the movement path 52a. Meanwhile, for explanation purposes, the initial movement path 52a is shown in the form of a straight line, but it can be set in various forms including at least one of straight lines, curves, and combinations thereof, such as winding or curved parts depending on fixed obstacles or terrain features. .

(b)단계에서, 장애물(55)이 예기치 않게 이동 경로(52a) 상에 위치하게 된다.In step (b), an obstacle 55 is unexpectedly located on the movement path 52a.

(c)단계에서, 로봇(100)은 센서부(120)를 통해 이동 경로(52a)에 위치하게 된 장애물(55)을 검출한다. 로봇(100)은 장애물(55)과의 거리인 깊이값을 기초로 로봇(100)과 마주보고 있는 부분의 테두리(56) 및 그 면적을 파악한다.In step (c), the robot 100 detects an obstacle 55 located on the movement path 52a through the sensor unit 120. The robot 100 determines the edge 56 and its area facing the robot 100 based on the depth value, which is the distance from the obstacle 55.

(d1)단계에서, 로봇(100)은 장애물(55)을 회피하여 주행하기 위한 회피 경로(52b)를 생성한다. 예를 들어, 로봇(100)은 센서부(120)에 의해 수집된 정보들을 토대로 장애물(55)을 회피하기 위한 최적의 경로를 다시 탐색할 수 있다.In step (d1), the robot 100 creates an avoidance path 52b for driving while avoiding the obstacle 55. For example, the robot 100 may re-search the optimal path to avoid the obstacle 55 based on the information collected by the sensor unit 120.

(d2)단계에서, 로봇(100)은 파악된 장애물(55)의 테두리(56) 및 면적에 기초하여 라인(54a)이 장애물(55)에 의해 가려지거나 흐려지게 되는 제한 구역(57)을 파악한다. 로봇(100)은 정보제공 가능 구역(53)에서 제한 구역(57)을 제외하여 시각적 정보의 전달이 가능한 정보표현 가능 구역(58)을 파악한다.In step (d2), the robot 100 identifies a restricted area 57 where the line 54a is obscured or obscured by the obstacle 55 based on the border 56 and area of the identified obstacle 55. do. The robot 100 excludes the restricted area 57 from the information provision area 53 and identifies the information expression area 58 in which visual information can be transmitted.

도 6을 참조하면, (e)단계에서, 로봇(100)은 회피 경로(52b) 중 정보표현 가능 구역(58)에 포함되는 경로를 추출한다.Referring to FIG. 6, in step (e), the robot 100 extracts a path included in the information expression possible area 58 from the avoidance path 52b.

(f)단계에서, 로봇(100)은 추출된 경로에 기초하여 가동되는 픽셀의 패턴을 결정한다. 로봇(100)은 결정된 패턴으로 광을 조사하여 추출된 경로를 나타내는 라인(52b)을 정보표현 가능 구역(58)의 노면에 표시한다.In step (f), the robot 100 determines the pattern of pixels to be operated based on the extracted path. The robot 100 radiates light in a determined pattern and displays a line 52b indicating the extracted path on the road surface in the information expression area 58.

본 실시예를 통해, 로봇(100)의 주행 경로 상에 빛의 성질을 방해하는 장애물이 발견되더라도, 주위 보행자들에게 로봇(100)의 변경된 이동 경로를 즉각적으로 알릴 수 있어 안전 사고가 사전에 예방될 수 있다.Through this embodiment, even if an obstacle that interferes with the nature of light is found on the traveling path of the robot 100, the changed moving path of the robot 100 can be immediately notified to surrounding pedestrians, thereby preventing safety accidents in advance. It can be.

도 7 및 도 8은 본 발명의 일 실시예에 따르는 예기치 않은 장애물이 감지되는 경우 주행 안내 정보를 청각적으로 제공하는 과정을 설명하기 위한 동작 흐름도이다.Figures 7 and 8 are flowcharts illustrating a process for audibly providing driving guidance information when an unexpected obstacle is detected according to an embodiment of the present invention.

도 7을 참조하면, (a)단계에서, 로봇(100)은 목적지 또는 경유지(71)까지 기 설정된 이동 경로(72a)로 주행한다. 로봇(100)에는 청각적 정보의 출력 한계 범위인 정보제공 가능 구역(73)이 설정되어 있다. 로봇(100)은 이동 경로(72a)의 방향(74a)으로 주행 안내 정보를 나타내는 청각적 정보(음향)를 출력하며, 음향은 정보제공 가능 구역(73)까지 도달될 수 있다. 장애물(75)은 아직까지 이동 경로(72a)의 외부에 위치해 있는 상태이다.Referring to FIG. 7, in step (a), the robot 100 travels along a preset movement path 72a to the destination or waypoint 71. In the robot 100, an information provision area 73, which is the output limit range of auditory information, is set. The robot 100 outputs auditory information (sound) representing driving guidance information in the direction 74a of the movement path 72a, and the sound can reach the information provision area 73. The obstacle 75 is still located outside the movement path 72a.

(b)단계에서, 장애물(75)이 예기치 않게 이동 경로(72a) 상에 위치하게 된다.In step (b), an obstacle 75 is unexpectedly located on the movement path 72a.

(c)단계에서, 로봇(100)은 센서부(120)를 통해 이동 경로(72a)에 위치하게 된 장애물(75)을 검출한다. 로봇(100)은 장애물(75)과의 거리인 깊이값을 기초로 로봇(100)과 마주보고 있는 부분의 테두리(76) 및 그 면적을 파악한다.In step (c), the robot 100 detects an obstacle 75 located on the movement path 72a through the sensor unit 120. The robot 100 determines the edge 76 and its area facing the robot 100 based on the depth value, which is the distance from the obstacle 75.

(d1)단계에서, 로봇(100)은 장애물(75)을 회피하여 주행하기 위한 회피 경로(72b)를 생성한다. 예를 들어, 로봇(100)은 센서부(120)에 의해 수집된 정보들을 토대로 장애물(75)을 회피하기 위한 최적의 경로를 다시 탐색할 수 있다.In step (d1), the robot 100 creates an avoidance path 72b for driving while avoiding the obstacle 75. For example, the robot 100 may re-search the optimal path to avoid the obstacle 75 based on the information collected by the sensor unit 120.

(d2)단계에서, 로봇(100)은 파악된 장애물(75)의 테두리(76) 및 면적에 기초하여 장애물(75)에 의해 음향의 전달이 단절되는 제한 구역(77)을 파악한다. 로봇(100)은 정보제공 가능 구역(73)에서 제한 구역(77)을 제외하여 청각적 정보가 통과 가능한 정보표현 가능 구역(78)을 파악한다.In step (d2), the robot 100 identifies a restricted area 77 where sound transmission is interrupted by the obstacle 75 based on the border 76 and area of the identified obstacle 75. The robot 100 excludes the restricted area 77 from the information provision area 73 and identifies the information expression area 78 through which auditory information can pass.

(e)단계에서, 로봇(100)은 회피 경로(72b) 중 정보표현 가능 구역(78)에 포함되는 경로를 추출한다.In step (e), the robot 100 extracts a path included in the information expression possible area 78 from the avoidance path 72b.

도 8을 참조하면, (f1)단계에서, 로봇(100)은 추출된 경로의 방향이 변경되는 지점마다 법선 벡터(81)를 산출한다. 로봇(100)은 각 법선 벡터(81)를 동일한 시작점으로 모은 후 각 법선 벡터(81)들의 방향을 평균한다. 로봇(100)은 평균에 의해 구해진 벡터를 기준 방향 벡터(82)로 결정한다.Referring to FIG. 8, in step (f1), the robot 100 calculates a normal vector 81 at each point where the direction of the extracted path changes. The robot 100 gathers each normal vector 81 to the same starting point and then averages the directions of each normal vector 81. The robot 100 determines the vector obtained by averaging as the reference direction vector 82.

일 실시예에 따르면, 로봇(100)은 기준 방향 벡터(82)가 제한 구역(77)에 포함되는지 여부를 파악할 수 있다. 즉, 기준 방향 벡터(82)의 방향으로 청각적 정보가 출력된다면 제한 구역을 통과하게 되는지 여부를 판단한다. 판단 결과, 통과하지 않는다면, 로봇(100)은 기준 방향 벡터(82)를 기초로 청각적 정보의 출력 방향을 설정할 수 있다. 반대로 통과한다면, 다음 단계로 진입한다.According to one embodiment, the robot 100 may determine whether the reference direction vector 82 is included in the restricted area 77. In other words, if auditory information is output in the direction of the reference direction vector 82, it is determined whether it will pass through the restricted area. As a result of the determination, if it does not pass, the robot 100 can set the output direction of the auditory information based on the reference direction vector 82. Conversely, if you pass, you enter the next step.

(f2)단계에서, 로봇(100)은 현재 위치를 기준으로 정보표현 가능 구역(78)을 기 설정된 각도로 분할하는 복수의 벡터(83)를 획득한다. 예를 들어, 복수의 벡터(83)의 방향은 로봇(100)에 기 설정된 것으로서, 음향부(140)가 지향하여 출력 가능한 방향을 의미할 수 있다.In step (f2), the robot 100 acquires a plurality of vectors 83 that divide the information expression area 78 at a preset angle based on the current location. For example, the direction of the plurality of vectors 83 is preset in the robot 100, and may mean a direction in which the sound unit 140 is oriented and capable of producing output.

(g)단계에서, 로봇(100)은 복수의 벡터(83) 중 기준 방향 벡터(82)와 가장 인접한 벡터(84)를 파악한다. 즉, 지향성으로 출력 가능한 방향 중 기준 방향 벡터(82)의 방향과 가장 가까운 방향을 파악한다.In step (g), the robot 100 determines the vector 84 that is closest to the reference direction vector 82 among the plurality of vectors 83. In other words, among directions that can be output as directivity, the direction closest to the direction of the reference direction vector 82 is identified.

(h)단계에서, 로봇(100)은 기준 방향 벡터(82)와 가장 인접한 벡터(84)의 방향으로 청각적 정보를 지향하여 출력한다.In step (h), the robot 100 outputs auditory information in the direction of the vector 84 closest to the reference direction vector 82.

본 실시예를 통해, 로봇(100)의 주행 경로 상에 소리의 성질을 방해하는 장애물이 발견되더라도, 주위 보행자들에게 로봇(100)의 변경된 이동 경로를 즉각적으로 알릴 수 있어 안전 사고가 사전에 예방될 수 있다. 또한, 로봇(100)이 출력하는 음향은 변경된 경로 주변에서 활동하는 사람들에게 지향되므로, 소음 공해가 최소화되는 동시 이목을 집중시키는 효과가 도모될 수 있다.Through this embodiment, even if an obstacle that interferes with the nature of sound is found on the traveling path of the robot 100, the changed moving path of the robot 100 can be immediately notified to surrounding pedestrians, thereby preventing safety accidents in advance. It can be. Additionally, since the sound output by the robot 100 is directed to people active around the changed route, the effect of focusing attention while minimizing noise pollution can be achieved.

본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.Although the methods and systems of the present invention have been described with respect to specific embodiments, some or all of their components or operations may be implemented using a computer system having a general-purpose hardware architecture.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다.The description of the present invention described above is for illustrative purposes, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. will be.

예를 들어, 본 발명의 실시예에서는 시각적 정보가 노면에 표시되는 구성으로 대표하여 설명하였으나, 때에 따라 벽면이나 천장에 표시되는 구성으로 변경 가능한 것으로 보아야 한다.For example, in the embodiment of the present invention, visual information is representatively described as being displayed on the road surface, but it should be seen that it can be changed to being displayed on the wall or ceiling as the case may be.

그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as unitary may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.

100: 자율 주행 로봇100: Self-driving robot

Claims (16)

자율 주행 로봇이 수행하는, 주행 안내 정보를 시청각적으로 제공하는 방법에 있어서,
a) 기 설정된 이동 경로로 주행하되 상기 이동 경로를 포함하는 주행 안내 정보를 소정의 시각적 정보로 가공하여 전방의 노면에 표시하거나 소정의 청각적 정보로 가공하여 외부로 출력하는 단계;
b) 상기 이동 경로 상으로 위치하는 예기치 못한 장애물이 검출되는 경우 상기 장애물에 의해 상기 시각적 정보의 표시가 제한되거나 상기 청각적 정보의 전달이 단절되는 제한 구역을 파악하는 단계; 및
c) 상기 제한 구역에서 상기 시각적 정보의 일부 또는 전부가 표시되지 않도록 상기 시각적 정보가 표시되는 형상 및 구역을 변경하거나 상기 청각적 정보가 제한 구역에 도달하지 않도록 상기 청각적 정보의 출력 방향을 변경하는 단계;
를 포함하되,
상기 시각적 정보가 표시되거나 상기 청각적 정보가 도달될 수 있는 정보제공 가능 구역이 미리 설정되어 있으며, 상기 제한 구역은 상기 정보제공 가능 구역 내에 포함되는 것인, 주행 안내 정보를 시청각적으로 제공하는 방법.
In a method of providing driving guidance information audio-visually performed by an autonomous driving robot,
a) driving along a preset travel route, processing the driving guidance information including the travel route into predetermined visual information and displaying it on the road ahead, or processing it into predetermined auditory information and outputting it to the outside;
b) when an unexpected obstacle located on the movement path is detected, identifying a restricted area where the display of the visual information is restricted or the transmission of the auditory information is cut off due to the obstacle; and
c) Changing the shape and area in which the visual information is displayed so that some or all of the visual information is not displayed in the restricted area, or changing the output direction of the auditory information so that the auditory information does not reach the restricted area. step;
Including,
A method of providing audio-visual driving guidance information, wherein an information provision area where the visual information can be displayed or the auditory information can be reached is preset, and the restricted area is included in the information provision area. .
제 1항에 있어서,
상기 a)단계는, 상기 정보제공 가능 구역에 포함되는 상기 이동 경로의 전부 또는 일부에 기초하여 가동되는 픽셀의 패턴을 결정하고, 상기 패턴으로 광을 조사하여 상기 이동 경로의 전부 또는 일부를 나타내는 라인을 전방의 노면에 표시하는 단계;를 포함하는, 주행 안내 정보를 시청각적으로 제공하는 방법.
According to clause 1,
In step a), a pattern of pixels to be operated is determined based on all or part of the movement path included in the information provision area, and light is irradiated with the pattern to create a line representing all or part of the movement path. A method of providing driving guidance information audio-visually, including the step of displaying on the road ahead.
제 1항에 있어서,
상기 a)단계는, 상기 자율 주행 로봇이 특정 객체를 추종하며 이동하는 로봇인 경우, 객체의 추종을 알리는 기 설정된 이미지의 광을 생성하여 상기 객체의 이동에 따라 상기 객체가 위치하는 노면에 조사하는 단계;를 포함하는, 주행 안내 정보를 시청각적으로 제공하는 방법.
According to clause 1,
In step a), when the self-driving robot is a robot that moves while following a specific object, light of a preset image notifying the tracking of the object is generated and radiated to the road surface where the object is located according to the movement of the object. A method of providing driving guidance information audio-visually, including steps.
제 1항에 있어서,
상기 a)단계는, 상기 자율 주행 로봇이 배송 로봇인 경우, 상기 자율 주행 로봇에 적재된 물건 및 상기 물건의 출하 위치를 포함하는 배송 정보의 이미지를 결정하고 상기 이미지의 광을 생성하여 전방의 노면에 조사하는 단계;를 포함하는, 주행 안내 정보를 시청각적으로 제공하는 방법.
According to clause 1,
In step a), when the self-driving robot is a delivery robot, an image of delivery information including the product loaded on the self-driving robot and the shipping location of the product is determined, and light in the image is generated to cover the road surface in front. A method of providing driving guidance information audio-visually, including the step of investigating.
제 1항에 있어서,
상기 a)단계는, 상기 청각적 정보를 상기 이동 경로의 방향으로 지향하여 출력하는 단계;를 포함하는, 주행 안내 정보를 시청각적으로 제공하는 방법.
According to clause 1,
The step a) includes outputting the audio information by orienting it in the direction of the travel route.
제 1항에 있어서,
상기 b)단계는, 상기 장애물을 회피하여 주행하기 위한 회피 경로를 생성하고, 상기 정보제공 가능 구역에서 상기 제한 구역을 제외한 정보표현 가능 구역을 파악한 후, 상기 회피 경로 중 상기 정보표현 가능 구역에 포함되는 경로를 추출하는 단계;를 포함하는, 주행 안내 정보를 시청각적으로 제공하는 방법.
According to clause 1,
In step b), an avoidance route for driving while avoiding the obstacle is created, an information expression area excluding the restricted area is identified from the information provision area, and then included in the information expression area among the avoidance routes. A method of providing driving guidance information audio-visually, including the step of extracting a route.
제 6항에 있어서,
상기 c)단계는, 추출된 경로에 기초하여 가동되는 픽셀의 패턴을 결정하고 상기 패턴으로 광을 조사하여 상기 추출된 경로를 나타내는 라인을 상기 정보표현 가능 구역의 노면에 표시하는 단계;를 포함하는, 주행 안내 정보를 시청각적으로 제공하는 방법.
According to clause 6,
Step c) includes determining a pattern of operating pixels based on the extracted path, irradiating light with the pattern, and displaying a line representing the extracted path on the road surface of the information expression possible area. , A method of providing audio and visual driving guidance information.
제 6항에 있어서,
상기 c)단계는, 추출된 경로의 방향이 변경되는 지점마다 법선 벡터를 산출하고, 각 법선 벡터들의 방향을 평균한 벡터를 기준 방향 벡터로 결정하여, 상기 기준 방향 벡터를 기초로 상기 청각적 정보의 출력 방향을 설정하는 단계;를 포함하는, 주행 안내 정보를 시청각적으로 제공하는 방법.
According to clause 6,
In step c), a normal vector is calculated at each point where the direction of the extracted path changes, a vector that averages the direction of each normal vector is determined as a reference direction vector, and the auditory information is provided based on the reference direction vector. A method of providing driving guidance information audio-visually, including the step of setting the output direction of .
제 8항에 있어서,
상기 c)단계는, 상기 자율 주행 로봇의 현재 위치를 기준으로 상기 정보표현 가능 구역을 기 설정된 각도로 분할하는 복수의 벡터를 획득하고, 상기 복수의 벡터 중 상기 기준 방향 벡터와 가장 인접한 벡터의 방향으로 상기 청각적 정보를 지향하여 출력하는 단계;를 포함하는, 주행 안내 정보를 시청각적으로 제공하는 방법.
According to clause 8,
In step c), a plurality of vectors are obtained that divide the information expression area at a preset angle based on the current position of the self-driving robot, and the direction of the vector closest to the reference direction vector among the plurality of vectors is obtained. A method of providing driving guidance information audio-visually, including: outputting the audio information in a oriented manner.
주행 안내 정보를 시청각적으로 제공하는, 자율 주행 로봇에 있어서,
기 설정된 이동 경로로 주행하도록 주행 동작을 제어하고 상기 이동 경로를 포함하는 주행 안내 정보를 소정의 시각적 정보 또는 청각적 정보로 가공하는 제어부;
상기 제어부의 제어에 따라 상기 시각적 정보를 전방의 노면에 표시하는 표시부;
상기 제어부의 제어에 따라 상기 청각적 정보를 외부로 출력하는 음향부; 및
상기 이동 경로 상으로 위치하는 예기치 못한 장애물을 검출하여 상기 제어부로 전송하는 센서부;
를 포함하되,
상기 제어부는, 상기 센서부로부터 검출된 장애물을 수신하는 경우, 상기 장애물에 의해 상기 시각적 정보의 표시가 제한되거나 상기 청각적 정보의 전달이 단절되는 제한 구역을 파악하고,
상기 제한 구역에서 상기 시각적 정보의 일부 또는 전부가 표시되지 않도록 상기 시각적 정보가 표시되는 형상 및 구역을 변경하거나 상기 청각적 정보가 제한 구역에 도달하지 않도록 상기 청각적 정보의 출력 방향을 변경하되,
상기 시각적 정보가 표시되거나 상기 청각적 정보가 도달될 수 있는 정보제공 가능 구역이 미리 설정되어 있으며, 상기 제한 구역은 상기 정보제공 가능 구역 내에 포함되는 것인, 자율 주행 로봇.
In an autonomous driving robot that provides audio and visual driving guidance information,
a control unit that controls driving operations to drive along a preset travel path and processes driving guidance information including the travel path into predetermined visual information or auditory information;
a display unit that displays the visual information on a road surface ahead under the control of the control unit;
an audio unit that outputs the auditory information to the outside according to the control of the control unit; and
a sensor unit that detects unexpected obstacles located on the movement path and transmits the detection to the control unit;
Including,
When receiving an obstacle detected from the sensor unit, the control unit determines a restricted area where display of the visual information is restricted or transmission of the auditory information is interrupted by the obstacle,
Change the shape and area in which the visual information is displayed so that some or all of the visual information is not displayed in the restricted area, or change the output direction of the auditory information so that the auditory information does not reach the restricted area,
An autonomous driving robot wherein an information provision area where the visual information can be displayed or the auditory information can be reached is preset, and the restricted area is included in the information provision area.
제 10항에 있어서,
상기 제어부는, 상기 정보제공 가능 구역에 포함되는 상기 이동 경로의 전부 또는 일부에 기초하여 가동되는 픽셀의 패턴을 결정하고,
상기 표시부는, 상기 제어부의 제어에 따라 상기 패턴으로 광을 조사하여 상기 이동 경로의 전부 또는 일부를 나타내는 라인을 전방의 노면에 표시하는, 자율 주행 로봇.
According to clause 10,
The control unit determines a pattern of pixels to be operated based on all or part of the movement path included in the information provision area,
The display unit irradiates light in the pattern under control of the control unit to display a line indicating all or part of the movement path on the road surface in front.
제 10항에 있어서,
특정 객체를 추종하며 이동하는 목적으로 설계된 경우, 상기 제어부는 상기 객체의 위치를 지속적으로 추적하고, 상기 표시부는 상기 제어부의 제어에 따라 상기 객체의 추종을 알리는 기 설정된 이미지의 광을 생성하고 상기 객체가 위치하는 노면에 조사하며,
배송 목적으로 설계된 경우, 상기 제어부는 상기 자율 주행 로봇에 적재된 물건 및 상기 물건의 출하 위치를 포함하는 배송 정보의 이미지를 결정하고, 상기 표시부는 상기 제어부의 제어에 따라 상기 배송 정보의 이미지의 광을 생성하여 전방의 노면에 조사하는, 자율 주행 로봇.
According to clause 10,
When designed for the purpose of following and moving a specific object, the control unit continuously tracks the position of the object, and the display unit generates light of a preset image notifying the tracking of the object under the control of the control unit and detects the object. Survey the road surface where is located,
When designed for delivery purposes, the control unit determines an image of the delivery information including the goods loaded on the autonomous robot and the shipping location of the goods, and the display unit displays the image of the delivery information according to the control of the control unit. A self-driving robot that generates and surveys the road ahead.
제 10항에 있어서,
상기 음향부는, 상기 청각적 정보를 상기 이동 경로의 방향으로 지향하여 출력하는 지향성 스피커로 설계되는 것인, 자율 주행 로봇.
According to clause 10,
The sound unit is designed as a directional speaker that outputs the auditory information in the direction of the movement path.
제 10항에 있어서,
상기 제어부는 상기 센서부로부터 검출된 장애물을 수신하는 경우, 상기 장애물을 회피하여 주행하기 위한 회피 경로를 획득하고, 상기 정보제공 가능 구역에서 상기 제한 구역을 제외한 정보표현 가능 구역을 파악한 후, 상기 회피 경로 중 상기 정보표현 가능 구역에 포함되는 경로를 추출하는, 자율 주행 로봇.
According to clause 10,
When receiving an obstacle detected from the sensor unit, the control unit obtains an avoidance route for driving while avoiding the obstacle, identifies an information expression area excluding the restricted area from the information provision area, and then avoids the obstacle. An autonomous driving robot that extracts a route included in the information expression possible area among the routes.
제 14항에 있어서,
상기 제어부는 추출된 경로에 기초하여 가동되는 픽셀의 패턴을 결정하고, 상기 표시부는 상기 제어부의 제어에 따라 상기 패턴으로 광을 조사하여 상기 추출된 경로를 나타내는 라인을 상기 정보표현 가능 구역의 노면에 표시하는, 자율 주행 로봇.
According to clause 14,
The control unit determines a pattern of pixels to be operated based on the extracted path, and the display unit irradiates light in the pattern under the control of the control unit to display a line representing the extracted path on the road surface in the information expression possible area. Displaying autonomous driving robot.
제 14항에 있어서,
상기 제어부는 추출된 경로의 방향이 변경되는 지점마다 법선 벡터를 산출하고, 각 법선 벡터들의 방향을 평균한 벡터를 기준 방향 벡터로 결정하며, 현재 위치를 기준으로 상기 정보표현 가능 구역을 기 설정된 각도로 분할하는 복수의 벡터를 획득하고,
상기 음향부는 상기 제어부의 제어에 따라 상기 복수의 벡터 중 상기 기준 방향 벡터와 가장 인접한 벡터의 방향으로 상기 청각적 정보를 지향하여 출력하는, 자율 주행 로봇.
According to clause 14,
The control unit calculates a normal vector at each point where the direction of the extracted path changes, determines a vector that averages the direction of each normal vector as a reference direction vector, and sets the information expression area at a preset angle based on the current location. Obtain multiple vectors to divide by,
The audio unit orients and outputs the auditory information in the direction of a vector closest to the reference direction vector among the plurality of vectors under the control of the control unit.
KR1020220142665A 2022-10-31 2022-10-31 Method for visually or aurally providing information to guide driving and autonomous mobile robot for carrying out the method KR102615626B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220142665A KR102615626B1 (en) 2022-10-31 2022-10-31 Method for visually or aurally providing information to guide driving and autonomous mobile robot for carrying out the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220142665A KR102615626B1 (en) 2022-10-31 2022-10-31 Method for visually or aurally providing information to guide driving and autonomous mobile robot for carrying out the method

Publications (1)

Publication Number Publication Date
KR102615626B1 true KR102615626B1 (en) 2023-12-20

Family

ID=89376792

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220142665A KR102615626B1 (en) 2022-10-31 2022-10-31 Method for visually or aurally providing information to guide driving and autonomous mobile robot for carrying out the method

Country Status (1)

Country Link
KR (1) KR102615626B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190078126A (en) * 2017-12-26 2019-07-04 한국전자통신연구원 Method for moving autonomous mobile robot based on interaction with pedestrian and apparatus using the same
JP2020154635A (en) * 2019-03-19 2020-09-24 株式会社フジタ Unmanned moving device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190078126A (en) * 2017-12-26 2019-07-04 한국전자통신연구원 Method for moving autonomous mobile robot based on interaction with pedestrian and apparatus using the same
JP2020154635A (en) * 2019-03-19 2020-09-24 株式会社フジタ Unmanned moving device

Similar Documents

Publication Publication Date Title
US9884585B1 (en) Exterior vehicle alerting system
KR100729870B1 (en) Position detection system for mobile object
US9947215B2 (en) Pedestrian information system
JP2022043217A (en) Vehicle control method, vehicle road collaboration system, roadside device and autonomous driving vehicle
CN108335521B (en) Method, system and parking area for warning traffic participants in a parking area
US20100153003A1 (en) Information device, method for informing and/or navigating a person, and computer program
JP4957799B2 (en) Robot and guidance method
KR101682880B1 (en) Vehicle and remote vehicle manipulating system comprising the same
JP2018026009A (en) Dynamic map configuration method, dynamic map configuration system and mobile terminal
US9662788B2 (en) Communication draw-in system, communication draw-in method, and communication draw-in program
US20140214600A1 (en) Assisting A Consumer In Locating A Product Within A Retail Store
CN103885444A (en) Information processing method, mobile electronic equipment and decision-making control equipment
US20150253777A1 (en) Sensor configurations and methods for mobile robot
JP6726442B2 (en) Robot equipment
KR20190022433A (en) Guide robot and its moving area calibration method, computer readable storage medium
JP2018142921A (en) Automatic drive control device, automatic drive control method, automatic drive control program, automatic driving vehicle, remote control device, remote control method, and remote control program
US20200047346A1 (en) Robot and robot system comprising same
US11474527B2 (en) Moving apparatus, information processing apparatus, and method
JP2020530618A (en) Autonomous vehicle notification system and method
JP5263507B2 (en) Vehicle driving support device
KR20110060705A (en) Remotely controlled robot system with enhanced heading determination performance and remote controller in the system
KR102615626B1 (en) Method for visually or aurally providing information to guide driving and autonomous mobile robot for carrying out the method
KR20190104264A (en) An artificial intelligence apparatus and method for the same
US20220171412A1 (en) Autonomous aerial vehicle outdoor exercise companion
JP2020050263A (en) Travel control device, travel control method, and program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant