KR20210022394A - A moving robot for the blind and control method thereof - Google Patents

A moving robot for the blind and control method thereof Download PDF

Info

Publication number
KR20210022394A
KR20210022394A KR1020190101849A KR20190101849A KR20210022394A KR 20210022394 A KR20210022394 A KR 20210022394A KR 1020190101849 A KR1020190101849 A KR 1020190101849A KR 20190101849 A KR20190101849 A KR 20190101849A KR 20210022394 A KR20210022394 A KR 20210022394A
Authority
KR
South Korea
Prior art keywords
mobile robot
user
information
route
external server
Prior art date
Application number
KR1020190101849A
Other languages
Korean (ko)
Inventor
강서호
Original Assignee
강서호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 강서호 filed Critical 강서호
Priority to KR1020190101849A priority Critical patent/KR20210022394A/en
Publication of KR20210022394A publication Critical patent/KR20210022394A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/009Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • B25J19/061Safety devices with audible signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • B25J19/063Safety devices working only upon contact with an outside object
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator

Abstract

The present invention relates to an autonomous moving robot for assisting shopping of the blind in a shopping space. More specifically, the moving robot for assisting shopping of the blind during autonomous driving comprises: a main body guiding a user to a destination; an input device mounted in an ear of the user to be wirelessly connected to the main body; a support installed in the main body; a handle connected to the support; a storage unit disposed in the support and movable along the support; at least one obstacle detection sensor disposed in the main body; a plurality of wheels disposed in a lower portion of the main body; a plurality of motors driving the wheels; a power supply device providing power; and a control unit controlling the autonomous driving of the moving robot.

Description

시각 장애인용 이동 로봇 및 그 제어 방법{A moving robot for the blind and control method thereof}TECHNICAL FIELD A moving robot for the blind and control method thereof for the visually impaired

본 발명은 시각 장애인용 이동 로봇에 관한 것으로, 보자 자세하게는 쇼핑 공간에서 시각 장애인의 쇼핑을 도와주기위해 자율 주행하는 이동 로봇에 관한 것이다. The present invention relates to a mobile robot for the visually impaired, and more particularly, to a mobile robot that runs autonomously to help the visually impaired to shop in a shopping space.

세계 보건 기구(WHO)에 따르면, 약 2억 8천 8백만 명의 사람들이 시각 장애를 가지고 있으며, 약 3천 6백만 명의 사람들이 실명한 것으로 추정한다. According to the World Health Organization (WHO), it is estimated that about 288 million people are blind, and about 36 million people are blind.

시각 장애 및 실명은 개인뿐만 아니라 가족 및 지역 사회에도 영향을 미쳐 상당한 비용 부담을 초래한다. 예를 들어, 시각 장애 및 실명은 삶의 질, 독립성 및 이동성뿐만 아니라, 정신 건강, 사회적 기능, 고용 및 교육에까지 좋지 않은 영향을 미친다. 그러므로, 시각 장애인의 생활을 보조하기 위한 많은 방법이 연구 중에 있다. Blindness and blindness affect not only individuals but also families and communities, resulting in significant cost burdens. For example, visual impairment and blindness adversely affect not only quality of life, independence and mobility, but also mental health, social functioning, employment and education. Therefore, many methods to assist the life of the visually impaired are being studied.

그 중에서 로봇은, 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다. 이러한 로봇 중에서 자력으로 주행이 가능한 것을 이동 로봇이라고 한다. Among them, robots have been developed for industrial use and have been in charge of a part of factory automation. In recent years, the field of application of robots has been further expanded, medical robots, aerospace robots, and the like have been developed, and home robots that can be used in general homes are also being made. Among these robots, those capable of driving by magnetic force are called mobile robots.

시각 장애인을 위한 이동 로봇으로서의 종래기술(한국 등록특허 제10-1497096호)은, 대형마트나 쇼핑몰에서 시각장애인이 쇼핑 도우미 로봇의 뒷부분에 있는 손잡이를 잡고 일정 간격을 유지하면서 로봇이 원하는 매장까지 안내하여 쇼핑을 도와주는 시각장애인용 쇼핑 도우미 로봇을 개시한다.In the conventional technology as a mobile robot for the visually impaired (Korean Patent No. 10-1497096), a visually impaired person in a large mart or shopping mall guides the robot to the desired store while holding a handle at the back of the shopping assistant robot and maintaining a certain distance. Thus, a shopping assistant robot for the visually impaired to help shopping is disclosed.

상기 종래 기술에서는, 적외선 센서를 통하여 바닥의 부착된 센서를 로봇이 감지하면 시각장애인이 가지고 있는 블루투스와 마이크로폰이 내장된 리모콘과 블루투스 통신 신호전달로 로봇을 만난 후 로봇의 이름(혹은 번호)을 확인하여, 시각장애인과 로봇이 음성인식에 의한 대화를 통해 구입하고자하는 상품의 매장까지 정확하게 안내할 수 있게 하는 기술이 개시되어 있다.In the prior art, when a robot detects a sensor attached to the floor through an infrared sensor, the name (or number) of the robot is confirmed after meeting the robot by transmitting a Bluetooth communication signal with a remote control with a built-in Bluetooth and a microphone. Thus, a technology that enables a visually impaired person and a robot to accurately guide to a store of a product to be purchased through a conversation by voice recognition has been disclosed.

그러나 상기의 기술은 바닥에 별도의 센서를 부착해야하는 문제점 및, 리모콘을 통해 대화를 하는 구조 상 양손이 자유로울 수 없어, 쇼핑 카트를 지지하거나 상품을 선택 및 구입하는 동작에서 시각 장애인들로 하여금 불편함을 주고 안전상의 문제점이 있다. However, the above technology has the problem of attaching a separate sensor to the floor, and because both hands are not free due to the structure of talking through the remote control, it is inconvenient for the visually impaired to support a shopping cart or select and purchase products. And there is a safety problem.

한편, 최근 이동 로봇 분야에서 SLAM(Simultaneous Localization And Mapping) 기술에 대한 관심이 높아지고 있다. SLAM은 로봇이 미지의 환경을 돌아다니면서 로봇에 부착되어 있는 센서만으로 외부의 도움 없이 자신의 위치를 인식하면서 미지 환경에 대한 지도를 작성하는 기술로서 자율 주행을 위한 핵심기술로 부각되고 있다. Meanwhile, in the field of mobile robots, interest in Simultaneous Localization And Mapping (SLAM) technology is increasing recently. SLAM is emerging as a core technology for autonomous driving as a technology that creates a map of the unknown environment while the robot moves around the unknown environment and recognizes its own location without external help with only the sensors attached to the robot.

한국 등록특허 제10-1497096호Korean Patent Registration No. 10-1497096

본 발명은 상기한 문제점을 해결하기 위하여, SLAM 기술을 이용해 최소한의 센서를 통해 자율 주행하면서 시각 장애인의 쇼핑을 돕는 이동 로봇을 제공하는데 목적이 있다.In order to solve the above problems, an object of the present invention is to provide a mobile robot that assists the shopping of the visually impaired while autonomously driving through a minimum number of sensors using SLAM technology.

또한, 본 발명은, 시각 장애인의 양 손을 자유롭게 하여 안전한 쇼핑을 도와주는 이동 로봇을 제공하는데 목적이 있다.In addition, an object of the present invention is to provide a mobile robot that frees both hands of a visually impaired person to help safe shopping.

또한, 본 발명은, 시각 장애인이 원하는 상품을 고를 수 있도록 상품에 대한 정확한 정보를 제공하는 이동 로봇을 제공하는데 목적이 있다.In addition, an object of the present invention is to provide a mobile robot that provides accurate information on a product so that the visually impaired can select a desired product.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

상기 과제를 달성하기 위하여, 본 발명에 따른 시각 장애인용 이동 로봇은, 자율 주행하며 시각 장애인의 쇼핑을 돕는 이동 로봇에 있어서, 사용자를 목적지로 인도하는 본체; 상기 사용자에 장착되어 무선으로 상기 본체와 연결되는 입력 장치; 상기 본체에 설치되는 지지대; 상기 지지대에 연결되는 손잡이; 상기 지지대에 배치되고 상기 지지대를 따라 이동 가능한 수납부; 상기 본체에 배치되는 적어도 하나의 장애물 검출 센서; 상기 본체의 하부에 배치되는 복수의 휠; 상기 복수의 휠을 구동시키는 복수의 모터; 전력을 제공하는 전원공급장치; 및 상기 이동 로봇의 자율주행을 제어하는 제어부;를 포함한다.In order to achieve the above object, the mobile robot for the visually impaired according to the present invention is a mobile robot that autonomously drives and helps the shopping of the visually impaired, comprising: a main body that guides a user to a destination; An input device mounted on the user and wirelessly connected to the main body; A support installed on the main body; A handle connected to the support; A storage unit disposed on the support and movable along the support; At least one obstacle detection sensor disposed on the main body; A plurality of wheels disposed under the main body; A plurality of motors driving the plurality of wheels; A power supply for providing electric power; And a control unit that controls the autonomous driving of the mobile robot.

본 발명에 따른 시각 장애인용 이동 로봇은, 입력 장치의 일측에 배치되고 사용자의 시선 방향 영상을 촬영하는 카메라;를 더 포함하고, 쇼핑 공간을 맵핑하여 맵 데이터를 생성하고, 상기 입력 장치를 통해 사용자가 입력한 입력 신호를 수신하여 목적지를 설정하고, 상기 목적지까지 경로 계획(Path-Planning)을 수행하고, 계획된 경로를 따라 상기 이동 로봇이 자율 주행하도록 복수의 휠을 제어하는 제어부;를 더 포함한다.The mobile robot for the visually impaired according to the present invention further includes a camera disposed on one side of the input device and photographing a user's gaze direction image, and generates map data by mapping a shopping space, and a user through the input device And a control unit configured to receive an input signal input by and set a destination, perform path-planning to the destination, and control a plurality of wheels to allow the mobile robot to autonomously travel along the planned route; .

본 발명에 따른 시각 장애인용 이동 로봇은, 장애물 검출 센서를 통해 SLAM 기반의 맵 데이터를 생성하고, 목적지가 설정되면, 상기 맵 데이터를 기반으로 상기 목적지까지의 최적 경로인 제1 경로를 생성하고, 상기 제1 경로를 따라 주행하면서 상기 장애물 검출 센서가 감지한 장애물 정보를 기반으로 코스트 값을 계산하고, 상기 코스트 값이 낮은 방향으로 상기 장애물을 회피하는 제2 경로를 생성하고, 상기 제2 경로를 통해 상기 제1 경로를 보정함으로써 경로 계획을 수행하는 제어부를 더 포함한다. The mobile robot for the visually impaired according to the present invention generates SLAM-based map data through an obstacle detection sensor, and when a destination is set, generates a first route that is an optimal route to the destination based on the map data, While driving along the first path, a cost value is calculated based on obstacle information detected by the obstacle detection sensor, a second path for avoiding the obstacle in a direction having a low cost value is generated, and the second path is It further includes a control unit for performing a route planning by correcting the first route through.

본 발명에 따른 시각 장애인용 이동 로봇은, 손잡이에 배치되고, 사용자가 상기 손잡이를 잡고 있는지를 감지하는 사용자 감지 센서;를 더 포함한다.The mobile robot for the visually impaired according to the present invention further includes a user detection sensor disposed on a handle and detecting whether a user is holding the handle.

본 발명에 따른 시각 장애인용 이동 로봇은, 손잡이에 배치되는 사용자 감지 센서를 통해 사용자가 손잡이를 잡고 있는지에 대한 정보를 획득하고, 사용자가 상기 손잡이를 잡고 있지 않다고 판단하면, 복수의 휠의 구동을 정지하는 신호를 생성하는 제어부;를 더 포함한다.The mobile robot for the visually impaired according to the present invention acquires information on whether the user is holding the handle through a user detection sensor disposed on the handle, and when it is determined that the user is not holding the handle, driving a plurality of wheels is performed. It further includes a; control unit for generating a signal to stop.

본 발명에 따른 시각 장애인용 이동 로봇은, 외부 서버와 통신하는 통신 장치;를 더 포함한다.The mobile robot for the visually impaired according to the present invention further includes a communication device that communicates with an external server.

본 발명에 따른 시각 장애인용 이동 로봇은, 사용자의 귀에 장착하는 착용부; 마이크; 스피커; 및 하나 이상의 버튼;을 포함하는 입력 장치;를 더 포함한다.The mobile robot for the visually impaired according to the present invention comprises: a wearer mounted on the ear of a user; MIC; speaker; And an input device including one or more buttons.

본 발명에 따른 시각 장애인용 이동 로봇은, 전원공급장치의 온/오프 버튼 또는 통신 장치를 통한 외부 서버와의 통신 시작/종료 버튼 중 적어도 어느 하나의 버튼을 포함하는 입력 장치;를 더 포함한다.The mobile robot for the visually impaired according to the present invention further includes an input device including at least one of an on/off button of a power supply device or a communication start/end button with an external server through a communication device.

본 발명에 따른 시각 장애인용 이동 로봇은, 마이크를 통해 사용자가 입력한 입력 신호를 수신하고, 계획된 경로를 사용자에게 안내하는 신호를 스피커로 전송하는 제어부;를 더 포함한다.The mobile robot for the visually impaired according to the present invention further includes a control unit that receives an input signal input by a user through a microphone and transmits a signal guiding a planned route to the user to a speaker.

본 발명에 따른 시각 장애인용 이동 로봇은, 외부 서버와의 통신 시작/종료 버튼을 통해 통신 시작 신호를 수신하면, 통신 장치를 통해 외부 서버로 카메라가 촬영하는 영상을 실시간으로 스트리밍하고, 상기 외부 서버로부터 상품에 관한 정보를 수신하여 스피커를 통해 출력하는 신호를 생성하는 제어부;를 더 포함한다.The mobile robot for the visually impaired according to the present invention, when receiving a communication start signal through a communication start/end button with an external server, streams an image captured by a camera to an external server through a communication device in real time, and the external server It further includes a; control unit for generating a signal to be output through the speaker by receiving information on the product from the.

기타 본 발명의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific matters of the present invention are included in the detailed description and drawings.

본 발명에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to the present invention, there are one or more of the following effects.

첫째, SLAM 기반의 맵 데이터를 생성하여 경로 계획을 수행함으로써, 로봇에 부착되어 있는 센서만으로도 목적지까지 효율적인 자율 주행을 가능하게하고, 시각 장애인으로 하여금 효율적인 쇼핑을 도와주는 효과가 있다.First, by generating SLAM-based map data and performing route planning, there is an effect of enabling efficient autonomous driving to a destination with only a sensor attached to the robot, and helping the visually impaired with efficient shopping.

둘째, 시각 장애인의 귀에 부착하는 입력 장치를 통해 시각 장애인의 양 손을 자유롭게 하여 쇼핑에 있어서 자율성을 향상시키는 효과가 있다.Second, there is an effect of improving autonomy in shopping by liberating both hands of the visually impaired through an input device attached to the ear of the visually impaired.

셋째, 손잡이에 배치되는 사용자 감지 센서를 통해 시각 장애인이 손잡이를 놓쳤을 때를 감지하고 정지함으로써, 쇼핑에 있어서 안전성을 향상시키는 효과가 있다.Third, there is an effect of improving safety in shopping by detecting and stopping when a blind person misses a handle through a user detection sensor disposed on the handle.

넷째, 외부 서버와의 통신을 통해 긴급 상황에서도 안정적인 안내를 받을 수 있고, 정확한 상품 정보를 획득하여 쇼핑에 있어서 만족도를 향상시키는 효과가 있다.Fourth, through communication with an external server, stable guidance can be received even in an emergency situation, and accurate product information is obtained to improve satisfaction in shopping.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 실시예에 따른 시각 장애인을 위한 안내 시스템을 나타내는 도면이다.
도 2a 내지 2b는 본 발명의 실시예에 따른 시각 장애인용 이동 로봇의 외관을 도시한 도면이다.
도 3a 내지 3c는 본 발명의 실시예에 따른 이동 로봇의 입력 장치를 여러 각도에서 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 이동 로봇의 제어 블럭도이다.
도 5는 본 발명의 실시예에 따른 제어부에 대한 플로우 차트이다.
도 6은 본 발명의 실시예에 따른 경로 계획 단계를 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 제1 경로 및 제2 경로를 설명하기 위한 도면이다.
1 is a diagram showing a guide system for a visually impaired according to an embodiment of the present invention.
2A to 2B are views showing the appearance of a mobile robot for the visually impaired according to an embodiment of the present invention.
3A to 3C are diagrams illustrating an input device of a mobile robot according to an embodiment of the present invention from various angles.
4 is a control block diagram of a mobile robot according to an embodiment of the present invention.
5 is a flow chart of a control unit according to an embodiment of the present invention.
6 is a diagram for explaining a route planning step according to an embodiment of the present invention.
7 is a diagram for explaining a first route and a second route according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but identical or similar elements are denoted by the same reference numerals regardless of reference numerals, and redundant descriptions thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used interchangeably in consideration of only the ease of preparation of the specification, and do not have meanings or roles that are distinguished from each other by themselves. In addition, in describing the embodiments disclosed in the present specification, when it is determined that a detailed description of related known technologies may obscure the subject matter of the embodiments disclosed in the present specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are for easy understanding of the embodiments disclosed in the present specification, and the technical idea disclosed in the present specification is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention It should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers such as first and second may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. It should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly indicates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as "comprises" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof does not preclude in advance.

본 발명은, 시각 장애인의 쇼핑을 돕는 이동 로봇 및 시각 장애인의 쇼핑 안내 시스템을 제공함으로써, 종래 기술을 개선시킨다. 본 발명은, 시각 장애인의 생활을 돕는 기존 기술인 지팡이 또는 안내견만으로는 불가능한 환경에 대한 통찰력을 제공함으로써 종래 기술을 개선시킨다. 더욱이, 본 발명은, 훈련을 필요로하지 않으며 누구나 조작할 수 있다.The present invention improves the prior art by providing a mobile robot and a shopping guide system for the visually impaired to assist with shopping for the visually impaired. The present invention improves the prior art by providing insight into an environment that is impossible only with a cane or a guide dog, which is an existing technology that assists the blind person. Moreover, the present invention does not require training and can be operated by anyone.

도 1은 본 발명의 실시예에 따른 시각 장애인을 위한 안내 시스템을 나타내는 도면이다.1 is a diagram showing a guide system for a visually impaired according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 시각 장애인을 위한 안내 시스템(10)은, 이동 로봇(100), 외부 서버(300), 이동 로봇(100)과 사용자를 연결하는 입력 장치(200) 및 외부 서버(300)와 안내원을 연결하는 원격 컴퓨팅 장치(350)를 포함할 수 있다.Referring to FIG. 1, a guide system 10 for a visually impaired according to an embodiment of the present invention includes a mobile robot 100, an external server 300, and an input device 200 connecting the mobile robot 100 and a user. ) And a remote computing device 350 connecting the external server 300 and the guide.

도 1에 도시된 이동 로봇(100), 입력 장치(200), 외부 서버(300) 및 원격 컴퓨팅 장치(350)는 도 1에 도시된 것들로 한정 해석되는 것은 아니다. 이동 로봇(100)과 입력 장치(200)에 대해서는 도 2a 내지 도 3c에서 후술한다.The mobile robot 100, the input device 200, the external server 300, and the remote computing device 350 illustrated in FIG. 1 are not limited to those illustrated in FIG. 1. The mobile robot 100 and the input device 200 will be described later with reference to FIGS. 2A to 3C.

안내 시스템(10)은, 통신 네트워크를 통해 도 1의 각 구성요소를 연결할 수 있다. 통신 네트워크는, 인터넷과 같은 하나 이상의 패킷 교환 네트워크, 또는 임의의 근거리 네트워크, 광역 네트워크, 기업 사설 네트워크, 4G LTE 내지 5G 통신을 포함하는 셀룰러 네트워크, Wifi 네트워크, 전화 네트워크, 이동 통신 네트워크 또는 이들의 조합을 포함할 수 있다. The guide system 10 may connect each component of FIG. 1 through a communication network. The communication network is one or more packet-switched networks such as the Internet, or any local area network, wide area network, corporate private network, cellular network including 4G LTE to 5G communication, a Wifi network, a telephone network, a mobile communication network, or a combination thereof. It may include.

본 발명의 일 실시예에서, 통신 네트워크는 셀룰러 네트워크일 수 있다.In one embodiment of the invention, the communication network may be a cellular network.

외부 서버 (300)는, 통신 네트워크와 통신 가능하게 연결될 수 있다. 외부 서버(300)는 애플리케이션, 데이터, 프로그램 코드 및 기타 정보를 네트워크에 연결된 장치에 전달하는 소프트웨어 엔진을 포함한다. 소프트웨어 엔진은 오디오 또는 비디오 스트리밍과 같은 프로세스를 수행할 수 있다.The external server 300 may be communicatively connected to a communication network. The external server 300 includes a software engine that delivers applications, data, program codes, and other information to a device connected to a network. The software engine can perform a process such as streaming audio or video.

외부 서버(300)는, 데이터베이스를 포함하며, 데이터베이스는 SQL 서버에 저장된 SQL (Structured Query Language) 데이터베이스 또는 NoSQL 패러다임을 준수하는 데이터베이스를 포함하는 관계형 데이터베이스를 포함할 수 있다. 데이터베이스는 본 발명의 동작 과정 동안 외부 서버(300) 및 네트워크에 연결된 장치에 의해 사용되는 센서 데이터 및 관련 정보를 제공할 수 있다.The external server 300 includes a database, and the database may include a SQL (Structured Query Language) database stored in the SQL server or a relational database including a database conforming to the NoSQL paradigm. The database may provide sensor data and related information used by the external server 300 and a device connected to the network during the operation process of the present invention.

원격 컴퓨팅 장치(350)는, 통신 네트워크에 연결될 수 있다. 원격 컴퓨팅 장치는, 예를 들어 집적 회로, 인쇄 회로 기판, 프로세서, ASIC, PCB, 휴대폰, 스마트 폰, 태블릿 컴퓨터, 랩탑 및 게임 콘솔과 같은 임의의 컴퓨팅 장치를 포함할 수 있다. 원격 컴퓨팅 장치(350)는, 무선 또는 유선 또는 광섬유 형태로 통신 네트워크에 연결될 수 있다. The remote computing device 350 may be connected to a communication network. Remote computing devices may include any computing device such as, for example, integrated circuits, printed circuit boards, processors, ASICs, PCBs, mobile phones, smart phones, tablet computers, laptops and game consoles. The remote computing device 350 may be connected to a communication network in the form of wireless or wired or optical fibers.

본 실시 예에서, 원격 컴퓨팅 장치(350)는 터치 스크린 가능 태블릿 컴퓨터일 수 있다. In this embodiment, the remote computing device 350 may be a touch screen capable tablet computer.

도 2a 내지 2b는 본 발명의 실시예에 따른 시각 장애인용 이동 로봇의 외관을 도시한 도면이다.2A to 2B are views showing the appearance of a mobile robot for the visually impaired according to an embodiment of the present invention.

도 2a 내지 2b를 참조하면, 시각 장애인용 이동 로봇(100)은, 본체(110), 지지대(120), 손잡이(130), 수납부(140), 복수의 휠(150), 장애물 검출 센서(160), 제어부(170), 사용자 감지 센서(180) 및 입력 장치(200)를 포함할 수 있다. 입력 장치(200)는, 도 3a 내지 3c에서 상세하게 후술한다.2A to 2B, the mobile robot 100 for the visually impaired includes a main body 110, a support 120, a handle 130, a storage unit 140, a plurality of wheels 150, and an obstacle detection sensor ( 160), a controller 170, a user detection sensor 180, and an input device 200. The input device 200 will be described later in detail with reference to FIGS. 3A to 3C.

본체(110)는, 바닥 패널, 전면 패널, 후면 패널 및 2 개의 측면 패널을 포함할 수 있다. 본 발명의 일 실시 예에서, 바닥 패널, 전면 패널, 후면 패널 및 2개의 측면 패널은 방수 재료로 형성되고, 각각의 패널은 실질적으로 편평한 직사각형 형상일 수 있다.The body 110 may include a bottom panel, a front panel, a rear panel, and two side panels. In one embodiment of the present invention, the bottom panel, the front panel, the rear panel, and the two side panels are formed of a waterproof material, and each panel may have a substantially flat rectangular shape.

지지대(120)는, 본체(110)의 일측에 배치될 수 있다. 지지대(120)는, 본체(110)의 일측에서 상부로 돌출되어 손잡이(130)와 연결될 수 있다. 즉, 지지대(120)는, 본체(110)와 손잡이(130)를 연결할 수 있다. The support 120 may be disposed on one side of the main body 110. The support 120 may protrude upward from one side of the main body 110 to be connected to the handle 130. That is, the support 120 may connect the main body 110 and the handle 130.

손잡이(130)는, 지지대(120)의 일측에 배치되어 사용자가 이동하면서 잡을 수 있도록 긴 원통 모양을 형성할 수 있다. 본 발명의 일 실시 예에서, 손잡이(130)는, 긴 원통형 형상 바디를 갖지만, 다른 형상 및 크기를 가질 수 있다. 손잡이(130)는, 실리콘, 네오프렌 및 우레탄 등의 고무 재료로 구성될 수 있다.The handle 130 may be disposed on one side of the support 120 to form a long cylindrical shape so that the user can grasp it while moving. In an embodiment of the present invention, the handle 130 has an elongated cylindrical body, but may have other shapes and sizes. The handle 130 may be made of a rubber material such as silicone, neoprene, and urethane.

수납부(140)는, 사용자가 물건을 선택하고 선택한 물건을 보관할 때 이용될 수 있다. 수납부(140)는, 지지대에 배치되고, 지지대를 따라 이동 가능할 수 있다. The storage unit 140 may be used when a user selects an object and stores the selected object. The receiving unit 140 may be disposed on the support and be movable along the support.

복수의 휠(150)은, 본체(110)의 하단에 배치될 수 있다. 복수의 휠(150)은, 이동 로봇(100)을 표면 또는 지면을 따라 이동할 수 있도록 한다. 본 발명의 일 실시 예에서, 총 4 개의 휠이 본체(110) 하부의 각 코너에 액슬(도시되지 않음)을 통해 부착되며, 액슬 및 휠은 앞뒤로 이동하도록 조절 가능하다.The plurality of wheels 150 may be disposed under the main body 110. The plurality of wheels 150 allow the mobile robot 100 to move on a surface or along the ground. In one embodiment of the present invention, a total of four wheels are attached to each corner of the body 110 through an axle (not shown), and the axle and the wheel are adjustable to move back and forth.

이동 로봇(100)은, 복수의 휠(150) 중 적어도 하나의 휠을 회전시켜서 본체가 앞뒤로 움직일 수 있도록 하는 복수의 모터를 포함할 수 있다. 모터는, 복수의 휠 각각에 배치되어 복수의 휠을 구동시킬 수 있다.The mobile robot 100 may include a plurality of motors that rotate at least one of the plurality of wheels 150 so that the body can move back and forth. The motor may be disposed on each of the plurality of wheels to drive the plurality of wheels.

전원공급장치는, 이동 로봇(100)의 동작을 위한 전력을 제공할 수 있다. 전원공급장치는, 본체를 이동시키기 위해 모터에 동력을 제공할 수 있다. 본 발명의 일 실시 예에서, 전원공급장치는 배터리일 수 있다.The power supply device may provide power for the operation of the mobile robot 100. The power supply can provide power to the motor to move the body. In one embodiment of the present invention, the power supply may be a battery.

장애물 검출 센서(160)는, 이동 로봇(100) 외부의 장애물을 검출할 수 있는 적어도 하나의 센서를 포함할 수 있다. 장애물 검출 센서(160)는, 카메라, 레이다, 라이다, 초음파 센서 및 적외선 센서 중 적어도 하나를 포함할 수 있다. 장애물 검출 센서(160)는, 센서에서 생성되는 센싱 신호에 기초하여 생성된 장애물 정보를 제어부(170)에 제공할 수 있다. The obstacle detection sensor 160 may include at least one sensor capable of detecting an obstacle outside the mobile robot 100. The obstacle detection sensor 160 may include at least one of a camera, a radar, a lidar, an ultrasonic sensor, and an infrared sensor. The obstacle detection sensor 160 may provide obstacle information generated based on a sensing signal generated by the sensor to the controller 170.

장애물은 이동 로봇(100)의 주행과 관련된 다양한 물체들일 수 있다. 예를 들면, 상품, 상품 안내판, 진열대, 사람, 다른 이동 로봇, 도로, 구조물, 지형물, 동물 등을 포함할 수 있다.The obstacles may be various objects related to the movement of the mobile robot 100. For example, it may include goods, product information boards, display stands, people, other mobile robots, roads, structures, landmarks, animals, and the like.

카메라는, 영상을 이용하여 이동 로봇(100) 외부의 장애물 정보를 생성할 수 있다. 카메라는, 적어도 하나의 렌즈, 적어도 하나의 이미지 센서 및 이미지 센서와 전기적으로 연결되어 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 장애물 정보를 생성하는 적어도 하나의 프로세서를 포함할 수 있다.The camera may generate information about an obstacle outside the mobile robot 100 by using an image. The camera may include at least one lens, at least one image sensor, and at least one processor that is electrically connected to the image sensor and processes a received signal, and generates obstacle information based on the processed signal.

카메라는, 모노 카메라, 스테레오 카메라, RGBD 카메라 중 적어도 어느 하나일 수 있다. 카메라는, 다양한 영상 처리 알고리즘을 이용하여, 장애물의 위치 정보, 장애물과의 거리 정보 또는 장애물과의 상대 속도 정보를 획득할 수 있다. 예를 들면, 카메라는 획득된 영상에서, 시간에 따른 장애물 크기의 변화를 기초로, 장애물과의 거리 정보 및 상대 속도 정보를 획득할 수 있다. The camera may be at least one of a mono camera, a stereo camera, and an RGBD camera. The camera may use various image processing algorithms to obtain position information of an obstacle, information about a distance to an obstacle, or information about a relative speed with respect to the obstacle. For example, from the acquired image, the camera may acquire distance information and relative speed information with respect to the obstacle based on a change in the size of the obstacle over time.

레이다는, 전파를 이용하여 이동 로봇(100) 외부의 장애물 정보를 생성할 수 있다. 레이다는, 전자파 송신부, 전자파 수신부 및 전자파 송신부 및 전자파 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 장애물 정보를 생성하는 적어도 하나의 프로세서를 포함할 수 있다. The radar may use radio waves to generate information about obstacles outside the mobile robot 100. The radar may include an electromagnetic wave transmitter, an electromagnetic wave receiver, and at least one processor that is electrically connected to the electromagnetic wave transmitter and the electromagnetic wave receiver, processes a received signal, and generates obstacle information based on the processed signal.

라이다는, 레이저 광을 이용하여, 이동 로봇(100) 외부의 장애물 정보를 생성할 수 있다. 라이다는, 광 송신부, 광 수신부 및 광 송신부 및 광 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리된 신호에 기초하여 장애물 정보를 생성하는 적어도 하나의 프로세서를 포함할 수 있다. The lidar may use laser light to generate information about obstacles outside the mobile robot 100. The radar may include at least one processor that is electrically connected to the optical transmitter, the optical receiver, and the optical transmitter and the optical receiver, processes a received signal, and generates obstacle information based on the processed signal.

라이다는, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식으로 구현될 수 있다. 라이다는, 구동식 또는 비구동식으로 구현될 수 있다. 구동식으로 구현되는 경우, 라이다는 모터에 의해 회전되며, 이동 로봇(100) 주변의 장애물을 검출할 수 있다. 비구동식으로 구현되는 경우, 라이다는 광 스티어링에 의해, 이동 로봇(100)을 기준으로 소정 범위 내에 위치하는 장애물을 검출할 수 있다. The rider may be implemented in a Time of Flight (TOF) method or a phase-shift method. The lidar can be implemented either driven or non-driven. When implemented as a driving type, the radar is rotated by a motor, and obstacles around the mobile robot 100 may be detected. When implemented in a non-driven manner, the lidar may detect an obstacle located within a predetermined range with respect to the mobile robot 100 by optical steering.

이동 로봇(100)은 하나 이상의 비구동식 라이다를 포함할 수 있다. 라이다는, 레이저 광 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여, 장애물을 검출하고, 검출된 장애물의 위치, 검출된 장애물과의 거리 및 상대 속도를 검출할 수 있다. The mobile robot 100 may include one or more non-driven lidars. The radar detects an obstacle, based on a time of flight (TOF) method or a phase-shift method, via laser light, and determines the position of the detected obstacle, the distance to the detected obstacle, and the relative speed. Can be detected.

본 발명의 일 실시 예에서, 라이다는, 270도를 감지할 수 있고, 2D 라이다일 수 있다.In an embodiment of the present invention, the lidar may sense 270 degrees and may be a 2D lidar.

본 발명의 일 실시 예에서, 장애물 검출 센서(160)는, 본체(110)의 전면부에 배치될 수 있다. 도 2b를 참조하면, 라이다(161), RGBD 카메라(162) 및 카메라(163)는, 본체(110)의 전면부에 배치될 수 있다. 각 센서의 위치 및 종류는, 도 2b에 한정되는 것은 아니다.In an embodiment of the present invention, the obstacle detection sensor 160 may be disposed on the front side of the main body 110. Referring to FIG. 2B, the lidar 161, the RGBD camera 162, and the camera 163 may be disposed on the front side of the main body 110. The position and type of each sensor are not limited to FIG. 2B.

통신 장치는, 이동 로봇(100) 외부에 위치하는 디바이스와 신호를 교환할 수 있다. 통신 장치는, 외부 서버(300) 및 타 이동 로봇 중 적어도 어느 하나와 신호를 교환할 수 있다. 통신 장치는 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다. The communication device may exchange signals with devices located outside the mobile robot 100. The communication device may exchange signals with at least one of the external server 300 and other mobile robots. The communication device may include at least one of a transmission antenna, a reception antenna, a radio frequency (RF) circuit capable of implementing various communication protocols, and an RF element to perform communication.

제어부(170)는, 장애물 검출 센서(160)를 통해 쇼핑 공간을 맵핑하여 SLAM 기반의 맵 데이터를 생성할 수 있다. 제어부(170)는, 입력 장치(200)를 통해 사용자 입력 신호를 수신하여 목적지를 설정할 수 있다. 제어부(170)는, 목적지까지 경로 계획(Path-Planning)을 수행할 수 있다. 제어부(170)는, 계획된 경로를 따라 이동 로봇(100)이 자율 주행하도록 복수의 휠(150)을 제어할 수 있다. 보다 상세한 설명은 도 5 내지 도 6을 통해 후술한다.The controller 170 may generate SLAM-based map data by mapping the shopping space through the obstacle detection sensor 160. The controller 170 may receive a user input signal through the input device 200 and set a destination. The controller 170 may perform path-planning to a destination. The controller 170 may control the plurality of wheels 150 to allow the mobile robot 100 to autonomously travel along a planned route. A more detailed description will be given later through FIGS. 5 to 6.

사용자 감지 센서(180)는, 손잡이(130)에 배치되고, 사용자가 손잡이(130)를 잡고 있는지를 감지할 수 있다. 제어부(170)는, 사용자 감지 센서(180)를 통해 사용자가 손잡이(130)를 잡고 있는지에 대한 정보를 획득할 수 있다. 제어부(170)는, 사용자가 손잡이(130)를 잡고 있지 않다고 판단하면, 복수의 휠(150)의 구동을 정지하는 신호를 생성할 수 있다.The user detection sensor 180 is disposed on the handle 130 and may detect whether a user is holding the handle 130. The controller 170 may obtain information on whether a user is holding the handle 130 through the user detection sensor 180. When it is determined that the user is not holding the handle 130, the control unit 170 may generate a signal for stopping driving of the plurality of wheels 150.

도면에 도시하지는 않았지만, 본체(110)의 후면부에 사용자 감지 센서가 배치될 수 있다. 이 경우, 사용자 감지 센서는 카메라, 초음파 센서 또는 적외선 센서 중의 어느 하나일 수 있다. 본체(110)의 후면부에 배치된 사용자 감지 센서는, 사용자와의 거리를 측정하고, 사용자와의 거리가 일정 값 이상 떨어지는지를 감지할 수 있다. 제어부(170)는, 본체(110)의 후면부에 배치된 사용자 감지 센서를 통해, 사용자와의 거리가 일정 값 이상 떨어졌다는 정보를 획득하면, 이동 로봇(100)의 주행을 정지할 수 있다.Although not shown in the drawing, a user detection sensor may be disposed on the rear portion of the main body 110. In this case, the user detection sensor may be any one of a camera, an ultrasonic sensor, or an infrared sensor. The user detection sensor disposed on the rear portion of the main body 110 may measure a distance to the user and detect whether the distance to the user falls by a predetermined value or more. When the controller 170 acquires information that the distance to the user has fallen by a predetermined value or more through a user detection sensor disposed on the rear portion of the main body 110, the mobile robot 100 may stop driving.

도면에 도시하지는 않았지만, 오디오 센서가 본체(110)에 부착될 수 있다. 오디오 센서는, 이동 로봇(100)의 주위 환경에서 형성되는 음성 데이터를 수집할 수 있다. 오디오 센서는, 수집한 음성 데이터를 통신 장치를 통해 외부 서버(300)로 전송할 수 있다.Although not shown in the drawing, an audio sensor may be attached to the main body 110. The audio sensor may collect voice data formed in the surrounding environment of the mobile robot 100. The audio sensor may transmit the collected voice data to the external server 300 through a communication device.

도 3a 내지 도 3c는 본 발명의 실시예에 따른 이동 로봇의 입력 장치를 여러 각도에서 나타내는 도면이다.3A to 3C are diagrams illustrating an input device of a mobile robot according to an exemplary embodiment of the present invention from various angles.

도 3a 내지 도 3c를 참조하면, 입력 장치(200)는, 카메라(210), 착용부(220), 버튼(230), 스피커(240) 및 마이크(250)를 포함할 수 있다.3A to 3C, the input device 200 may include a camera 210, a wearing unit 220, a button 230, a speaker 240, and a microphone 250.

입력 장치(200)는, 입력 장치(200)의 일측에 배치되고 사용자의 시선 방향 영상을 촬영하는 카메라(210)를 포함할 수 있다. 카메라(210)는, 카메라의 화각에 따라 배치 방향이 변경될 수 있다. 카메라(210)는, 카메라(210)가 촬영하는 영상에 사용자의 얼굴이 보이지 않도록, 일정 각도만큼 사용자 얼굴 반대편을 향해 배치될 수 있다.The input device 200 may include a camera 210 disposed on one side of the input device 200 and capturing an image in a user's line of sight. The arrangement direction of the camera 210 may be changed according to the angle of view of the camera. The camera 210 may be disposed toward the opposite side of the user's face by a predetermined angle so that the user's face is not visible in the image captured by the camera 210.

카메라(210)는, 영상을 이용하여 이동 로봇(100) 외부의 장애물 정보를 생성할 수 있다. 카메라(210)는, 영상을 이용하여 사용자 시선 방향의 장애물 정보를 생성할 수 있다. 카메라(210)는, 적어도 하나의 렌즈, 적어도 하나의 이미지 센서 및 이미지 센서와 전기적으로 연결되어 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 장애물 정보를 생성하는 적어도 하나의 프로세서를 포함할 수 있다.The camera 210 may generate information about an obstacle outside the mobile robot 100 by using an image. The camera 210 may generate obstacle information in the direction of the user's gaze by using the image. The camera 210 may include at least one lens, at least one image sensor, and at least one processor that is electrically connected to the image sensor and processes a received signal, and generates obstacle information based on the processed signal. have.

카메라(210)는, 통신 장치를 통해 외부 서버(300)로 촬영한 영상을 전송할 수 있다. 카메라(210)는, 통신 장치를 통해 외부 서버(300)로 촬영한 영상을 실시간으로 재생하는 스트리밍 영상을 제공할 수 있다. The camera 210 may transmit an image captured to the external server 300 through a communication device. The camera 210 may provide a streaming image for reproducing an image captured by the external server 300 through a communication device in real time.

입력 장치(200)의 카메라(210)와 함께, 장애물 검출 센서(160)의 카메라는, 통신 장치를 통해 외부 서버(300)로 촬영한 영상을 전송할 수 있다. 이 경우, 입력 장치(200)의 카메라(210)는 제1 카메라, 장애물 검출 센서(160)의 카메라는 제2 카메라로 명명될 수 있다.Together with the camera 210 of the input device 200, the camera of the obstacle detection sensor 160 may transmit the captured image to the external server 300 through a communication device. In this case, the camera 210 of the input device 200 may be referred to as a first camera, and the camera of the obstacle detection sensor 160 may be referred to as a second camera.

안내원은, 외부 서버(300)를 통해 제1 카메라 또는 제2 카메라 중 적어도 어느 하나의 카메라가 촬영한 스트리밍 영상을 제공받고, 사용자에게 상품에 대한 정보를 안내할 수 있다. 이 경우, 원격 컴퓨팅 장치(350)가 이용될 수 있다.The guide may receive a streaming image captured by at least one of the first camera or the second camera through the external server 300 and may guide the user with information on the product. In this case, the remote computing device 350 may be used.

본 발명의 일 실시 예에 따르면, 원격 컴퓨팅 장치(350)는 디스플레이 스크린을 포함할 수 있다. 원격 컴퓨팅 장치(350)는, 제1 카메라 또는 제2 카메라 중 적어도 어느 하나의 카메라가 촬영한 영상을 보기 위한 디스플레이를 포함할 수 있다.According to an embodiment of the present invention, the remote computing device 350 may include a display screen. The remote computing device 350 may include a display for viewing an image captured by at least one of the first camera and the second camera.

원격 컴퓨팅 장치(350)는, 통신 네트워크를 통해 이동 로봇(100)의 속도 및 조향을 제어할 수 있고, 제1 카메라 또는 제2 카메라 중 적어도 어느 하나의 카메라의 방향 및 렌즈의 배율을 조절할 수 있다.The remote computing device 350 may control the speed and steering of the mobile robot 100 through a communication network, and may adjust the direction of at least one of the first camera and the second camera and the magnification of the lens. .

착용부(220)는, 입력 장치(200)를 사용자의 귀에 착용하기 위해 사용할 수 있다. 착용부(220)는, 사람의 귀에 걸 수 있도록 곡선 모양으로 형성될 수 있다. The wearing unit 220 may be used to wear the input device 200 on the user's ear. The wearing part 220 may be formed in a curved shape so that it can be worn on a person's ear.

버튼(230)은, 하나 이상일 수 있다. 버튼(230)은, 전원공급장치의 온/오프 버튼일 수 있다. 버튼(230)은, 외부 서버(300)와의 통신 시작/종료 버튼일 수 있다. 하나의 버튼(230)은, 전원공급장치의 온/오프 버튼 및 외부 서버(300)와의 통신 시작/종료 버튼일 수 있다. 이 경우, 버튼(230)의 누르는 시간을 통해 전원공급장치의 온/오프 기능 및 외부 서버(300)와의 통신 시작/종료 기능을 구분할 수 있다. There may be one or more buttons 230. The button 230 may be an on/off button of a power supply device. The button 230 may be a start/end button for communication with the external server 300. One button 230 may be an on/off button of the power supply and a start/end button for communication with the external server 300. In this case, the on/off function of the power supply and the communication start/end function with the external server 300 can be distinguished through the pressing time of the button 230.

스피커(240)는, 청각과 관련된 출력을 발생시키기 위한 것일 수 있다. 스피커(240)는, 제어부(170)로부터 제공되는 전기 신호를 오디오 신호로 변환하여 출력할 수 있다. 마이크(250)는, 사용자로부터 정보를 입력받기 위한 것으로, 마이크(250)에서 수집한 데이터는 사용자의 제어 명령으로 처리될 수 있다. The speaker 240 may be for generating an audio-related output. The speaker 240 may convert an electrical signal provided from the control unit 170 into an audio signal and output it. The microphone 250 is for receiving information from a user, and data collected by the microphone 250 may be processed as a user's control command.

제어부(170)는, 마이크(250)를 통해 사용자 입력 신호를 수신하고, 계획된 경로를 사용자에게 안내하는 신호를 스피커(240)로 전송할 수 있다. 제어부(170)는, 외부 서버(300)로부터 안내 신호를 수신하고, 스피커(240)로 출력할 수 있다. The controller 170 may receive a user input signal through the microphone 250 and transmit a signal guiding the user to the planned route to the speaker 240. The controller 170 may receive a guide signal from the external server 300 and output it to the speaker 240.

제어부(170)는, 이동 로봇(100)의 제어 신호를 스피커(240)를 통해 음성으로 사용자에게 출력할 수 있다. 제어부(170)는, 외부 서버(300)로부터 상품에 관한 정보를 수신하여 스피커(240)를 통해 출력하는 신호를 생성할 수 있다. 상품에 관한 정보는, 상품에 대한 상세 위치 정보, 이미지 정보 및 가격 정보를 포함할 수 있다.The control unit 170 may output a control signal of the mobile robot 100 to a user through the speaker 240 as a voice. The controller 170 may receive information on a product from the external server 300 and generate a signal that is output through the speaker 240. The information on the product may include detailed location information, image information, and price information on the product.

도 4는 본 발명의 실시예에 따른 이동 로봇의 제어 블럭도이다.4 is a control block diagram of a mobile robot according to an embodiment of the present invention.

도 4를 참조하면, 이동 로봇(100)은, 제어부(170), 전원 공급부(400), 통신부(410), 메모리(420), 인터페이스(430), 센싱부(440), 입/출력부(450) 및 구동부(460)를 포함할 수 있다. Referring to FIG. 4, the mobile robot 100 includes a control unit 170, a power supply unit 400, a communication unit 410, a memory 420, an interface 430, a sensing unit 440, and an input/output unit ( 450) and a driving unit 460 may be included.

제어부(170)는, 전원 공급부(400), 통신부(410), 메모리(420), 인터페이스(430), 센싱부(440), 입/출력부(450) 및 구동부(460)와 전기적으로 연결되어 신호를 교환할 수 있다. 제어부(170)는, 이동 로봇(100) 전원 공급부(400), 통신부(410), 메모리(420), 인터페이스(430), 센싱부(440), 입/출력부(450), 구동부(460) 등을 제어하여, 로봇(100)의 동작 전반을 제어할 수 있다. The control unit 170 is electrically connected to the power supply unit 400, the communication unit 410, the memory 420, the interface 430, the sensing unit 440, the input/output unit 450, and the driving unit 460. You can exchange signals. The control unit 170 includes a mobile robot 100, a power supply unit 400, a communication unit 410, a memory 420, an interface 430, a sensing unit 440, an input/output unit 450, and a driving unit 460. By controlling the like, the overall operation of the robot 100 can be controlled.

제어부(170)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다. The control unit 170 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors, and controllers. It may be implemented using at least one of (controllers), micro-controllers, microprocessors, and electrical units for performing other functions.

제어부(170)는 전원 공급부(400)로부터 제공되는 전원에 의해 구동될 수 있다. 제어부(170)는 전원 공급부(400)에 의해 전원이 공급되는 상태에서 데이터를 수신하고, 데이터를 처리하고, 신호를 생성하고, 신호를 제공할 수 있다.The control unit 170 may be driven by power provided from the power supply unit 400. The control unit 170 may receive data, process data, generate a signal, and provide a signal while power is supplied by the power supply unit 400.

제어부(170)는 인터페이스(430)를 통해, 이동 로봇(100) 내 다른 전자 장치로부터 정보를 수신할 수 있다. 제어부(170)는, 인터페이스(430)를 통해, 이동 로봇(100) 내 다른 전자 장치로 제어 신호를 제공할 수 있다.The controller 170 may receive information from another electronic device in the mobile robot 100 through the interface 430. The controller 170 may provide a control signal to another electronic device in the mobile robot 100 through the interface 430.

전원 공급부(400)는, 제어부(170)를 포함하는 전자 장치에 전원을 공급할 수 있다. 전원 공급부(400)는 이동 로봇(100)에 포함된 파워 소스(예를 들면, 배터리)로부터 전원을 공급받아, 전자 장치의 각 유닛에 전원을 공급할 수 있다. 전원 공급부(400)는 SMPS(switched-mode power supply)로 구현될 수 있다.The power supply unit 400 may supply power to an electronic device including the control unit 170. The power supply unit 400 may receive power from a power source (eg, a battery) included in the mobile robot 100 and supply power to each unit of the electronic device. The power supply unit 400 may be implemented as a switched-mode power supply (SMPS).

전자 장치는, 적어도 하나의 인쇄 회로 기판(printed circuit board, PCB)을 포함할 수 있다. 제어부(170), 전원 공급부(400), 통신부(410), 메모리(420), 인터페이스(430), 센싱부(440), 입/출력부(450) 및 구동부(460)는, 인쇄 회로 기판에 전기적으로 연결될 수 있다.The electronic device may include at least one printed circuit board (PCB). The control unit 170, the power supply unit 400, the communication unit 410, the memory 420, the interface 430, the sensing unit 440, the input/output unit 450 and the driving unit 460 are on a printed circuit board. Can be electrically connected.

통신부(410)는, 적어도 하나의 통신모듈을 포함하여 이동 로봇(100)이 인터넷, 또는 소정의 네트워크에 연결되도록 할 수 있고 다른 기기와 통신하게 할 수 있다. 또한, 통신부(410)는 외부 서버(300)에 구비되는 통신 모듈과 연결하여 이동 로봇(100)과 외부 서버(300) 간의 데이터 송수신을 처리할 수 있다.The communication unit 410 may include at least one communication module to allow the mobile robot 100 to be connected to the Internet or a predetermined network, and to communicate with other devices. In addition, the communication unit 410 may process data transmission/reception between the mobile robot 100 and the external server 300 by connecting with a communication module provided in the external server 300.

이동 로봇(100)은, 내부 통신 시스템을 포함할 수 있다. 이동 로봇(100)에 포함되는 복수의 전자 장치는, 내부 통신 시스템을 매개로 신호를 교환할 수 있다. 신호에는 데이터가 포함될 수 있다. 내부 통신 시스템은, 적어도 하나의 통신 프로토콜(예를 들면, RS232, CAN, LIN, FlexRay, MOST, 이더넷)을 이용할 수 있다.The mobile robot 100 may include an internal communication system. A plurality of electronic devices included in the mobile robot 100 may exchange signals through an internal communication system. Signals may contain data. The internal communication system may use at least one communication protocol (eg, RS232, CAN, LIN, FlexRay, MOST, Ethernet).

메모리(420)는, 제어부(170)와 전기적으로 연결된다. 메모리(420)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(420)는, 제어부(170)에서 처리된 데이터를 저장할 수 있다. The memory 420 is electrically connected to the control unit 170. The memory 420 may store basic data for a unit, control data for controlling the operation of the unit, and input/output data. The memory 420 may store data processed by the controller 170.

메모리(420)는, 이동 로봇(100)의 제어에 필요한 각종 정보들을 기록하는 것으로, 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. 기록 매체는 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장한 것으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등을 포함할 수 있다.The memory 420 records various types of information necessary for control of the mobile robot 100 and may include a volatile or nonvolatile recording medium. A recording medium stores data that can be read by a micro processor, and is a hard disk drive (HDD), solid state disk (SSD), silicon disk drive (SDD), ROM, RAM, CD-ROM, magnetic It may include a tape, a floppy disk, an optical data storage device, and the like.

인터페이스(430)는, 이동 로봇(100) 내에 구비되는 적어도 하나의 전자 장치와 유선 또는 무선으로 신호를 교환할 수 있다. 인터페이스(430)는 장애물 검출 센서(160), 사용자 감지 센서(180), 입력 장치(200), 출력 장치, 통신 장치 중 적어도 어느 하나와 유선 또는 무선으로 신호를 교환할 수 있다. 인터페이스(430)는 통신 모듈, 단자, 핀, 케이블, 포트, 회로, 소자 및 장치 중 적어도 어느 하나로 구성될 수 있다.The interface 430 may exchange signals with at least one electronic device provided in the mobile robot 100 by wire or wirelessly. The interface 430 may exchange signals with at least one of an obstacle detection sensor 160, a user detection sensor 180, an input device 200, an output device, and a communication device by wire or wirelessly. The interface 430 may be composed of at least one of a communication module, a terminal, a pin, a cable, a port, a circuit, an element, and a device.

센싱부(440)는 장애물 검출 센서(160), 사용자 감지 센서(180), 상태 감지 센서 중 적어도 어느 하나를 포함할 수 있다.The sensing unit 440 may include at least one of an obstacle detection sensor 160, a user detection sensor 180, and a state detection sensor.

장애물 검출 센서(160)는, 카메라, 레이다, 라이다, 초음파 센서 및 적외선 센서 중 적어도 하나를 포함할 수 있다. 장애물 검출 센서(160)는, 센서에서 생성되는 센싱 신호에 기초하여 생성된 장애물 정보를 제어부(170)에 제공할 수 있다.The obstacle detection sensor 160 may include at least one of a camera, a radar, a lidar, an ultrasonic sensor, and an infrared sensor. The obstacle detection sensor 160 may provide obstacle information generated based on a sensing signal generated by the sensor to the controller 170.

장애물 검출 센서(160)는, 적외선 센서, 초음파 센서, RF 센서, 지자기 센서, PSD(Position Sensitive Device) 센서, 주행구역 내 바닥에 낭떠러지의 존재 여부를 감지하는 절벽 감지 센서 등을 더 포함할 수 있다.The obstacle detection sensor 160 may further include an infrared sensor, an ultrasonic sensor, an RF sensor, a geomagnetic sensor, a PSD (Position Sensitive Device) sensor, a cliff detection sensor that detects the presence of a cliff on the floor in the driving area. .

장애물 검출 센서(160)는, 이동 로봇(100)의 주행(이동) 방향에 존재하는 물체, 특히 장애물을 감지하여 장애물 정보를 제어부(170)에 전달한다. 이때, 제어부(170)는, 감지된 장애물의 위치에 따라 이동 로봇(100)의 움직임을 제어할 수 있다.The obstacle detection sensor 160 detects an object, particularly an obstacle, which exists in the traveling (movement) direction of the mobile robot 100 and transmits obstacle information to the controller 170. In this case, the controller 170 may control the movement of the mobile robot 100 according to the detected position of the obstacle.

상태 감지 센서는, 이동 로봇(100)의 내부 상태를 감지할 수 있다. 상태 감지 센서는, IMU(inertial navigation unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 조향 센서, 내부 온도 센서, 내부 습도 센서, 초음파 센서, 조도 센서, 가속 센서 및 브레이크 센서 중 적어도 어느 하나를 포함할 수 있다. 한편, IMU(inertial navigation unit) 센서는 가속도 센서, 자이로 센서, 자기 센서 중 하나 이상을 포함할 수 있다. The state detection sensor may detect the internal state of the mobile robot 100. The state detection sensor includes an IMU (inertial navigation unit) sensor, a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight detection sensor, a heading sensor, a position module, and forward/reverse. It may include at least one of a sensor, a battery sensor, a fuel sensor, a tire sensor, a steering sensor, an internal temperature sensor, an internal humidity sensor, an ultrasonic sensor, an illuminance sensor, an acceleration sensor, and a brake sensor. Meanwhile, the inertial navigation unit (IMU) sensor may include one or more of an acceleration sensor, a gyro sensor, and a magnetic sensor.

센싱부(440)는, 적어도 하나의 센서에서 생성된 센싱 데이터를 기초로, 이동 로봇 상태 정보를 생성할 수 있다. 이동 로봇 상태 정보는, 이동 로봇에 구비된 각종 센서에서 감지된 데이터를 기초로 생성된 정보일 수 있다.The sensing unit 440 may generate mobile robot state information based on sensing data generated by at least one sensor. The mobile robot status information may be information generated based on data sensed by various sensors included in the mobile robot.

예를 들면, 이동 로봇 상태 정보는 자세 정보, 속도 정보, 기울기 정보, 중량 정보, 방향 정보, 배터리 정보, 연료 정보, 타이어 공기압 정보, 스티어링 정보, 실내 온도 정보 및 실내 습도 정보 등을 포함할 수 있다.For example, the mobile robot status information may include attitude information, speed information, tilt information, weight information, direction information, battery information, fuel information, tire pressure information, steering information, indoor temperature information, and indoor humidity information. .

입/출력부(450)는, 입력부 및 출력부를 포함할 수 있다. 입력부는 마이크, 버튼 또는 카메라를, 출력부는 스피커 또는 디스플레이를 포함할 수 있다.The input/output unit 450 may include an input unit and an output unit. The input unit may include a microphone, a button or a camera, and the output unit may include a speaker or a display.

본 발명의 일 실시 예에 따른 이동 로봇(100)은, 마이크를 통하여 사용자의 음성 입력을 수신하는 음성 입력부를 더 포함할 수 있다. 음성 입력부는, 아날로그 소리를 디지털 데이터로 변환하는 처리부를 포함하거나 처리부에 연결되어, 사용자 입력 음성 신호를 제어부(170) 또는 외부 서버(300)에서 인식할 수 있도록 데이터화할 수 있다. The mobile robot 100 according to an embodiment of the present invention may further include a voice input unit for receiving a user's voice input through a microphone. The voice input unit may include a processing unit that converts analog sound into digital data or is connected to the processing unit to convert a user input audio signal into data so that the control unit 170 or the external server 300 can recognize it.

메모리(420)는, 음성 인식을 위한 데이터를 저장할 수 있고, 제어부(170)는, 입/출력부(450)를 통하여 수신되는 사용자의 음성 입력 신호를 처리하고 음성 인식 과정을 수행할 수 있다. The memory 420 may store data for voice recognition, and the controller 170 may process a user's voice input signal received through the input/output unit 450 and perform a voice recognition process.

또한, 음성 인식 과정은 이동 로봇(100) 자체에서 실시되지 않고 외부 서버(300)에서 수행될 수 있다. 이 경우에, 제어부(170)는 사용자 입력 음성 신호가 외부 서버(300)로 송신되도록 통신부(410)를 제어할 수 있다.In addition, the speech recognition process may not be performed by the mobile robot 100 itself, but may be performed by the external server 300. In this case, the controller 170 may control the communication unit 410 to transmit a user input voice signal to the external server 300.

버튼(230)은, 하나 이상일 수 있다. 버튼(230)은, 전원공급장치의 온/오프 버튼일 수 있다. 버튼(230)은, 외부 서버(300)와의 통신 시작/종료 버튼일 수 있다. 하나의 버튼(230)은, 전원공급장치의 온/오프 버튼 및 외부 서버(300)와의 통신 시작/종료 버튼일 수 있다. 이 경우, 버튼(230)의 누르는 시간을 통해 전원공급장치의 온/오프 기능 및 외부 서버(300)와의 통신 시작/종료 기능을 구분할 수 있다. There may be one or more buttons 230. The button 230 may be an on/off button of a power supply device. The button 230 may be a start/end button for communication with the external server 300. One button 230 may be an on/off button of the power supply and a start/end button for communication with the external server 300. In this case, the on/off function of the power supply and the communication start/end function with the external server 300 can be distinguished through the pressing time of the button 230.

실시 예에 따라서, 이동 로봇(100)은 소정 범위를 촬영할 수 있는 영상획득부를 더 포함할 수 있다. 영상획득부는 이동 로봇(100) 주변, 외부 환경 등을 촬영하는 것으로, 카메라를 포함할 수 있다. 카메라는, 촬영 효율을 위해 각 부위별로 여러 개가 설치될 수도 있다.According to an embodiment, the mobile robot 100 may further include an image acquisition unit capable of capturing a predetermined range. The image acquisition unit photographs the surroundings of the mobile robot 100, the external environment, and the like, and may include a camera. A number of cameras may be installed for each part for shooting efficiency.

이동 로봇(100)은, 소정 정보를 영상으로 표시하거나 음향으로 출력할 수 있다. 입/출력부(450)는, 사용자의 명령 입력에 대응하는 정보, 사용자의 명령 입력에 대응하는 처리 결과, 동작모드, 동작상태, 에러상태 등을 음성으로 출력하는 스피커를 포함할 수 있다. The mobile robot 100 may display predetermined information as an image or output it as sound. The input/output unit 450 may include a speaker that outputs information corresponding to a user's command input, a processing result corresponding to the user's command input, an operation mode, an operation state, an error state, and the like as a voice.

출력부는, 오디오 신호를 출력하는 음향 출력부를 더 포함할 수 있다. 음향 출력부는, 제어부(170)의 제어에 따라 경고음, 동작모드, 동작상태, 에러상태 등의 알림 메시지, 사용자의 명령 입력에 대응하는 정보, 사용자의 명령 입력에 대응하는 처리 결과 등을 음향으로 출력할 수 있다. 음향 출력부는, 제어부(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력할 수 있다. 이를 위해, 스피커 등을 구비할 수 있다.The output unit may further include an audio output unit that outputs an audio signal. The sound output unit outputs a warning sound, an operation mode, a notification message such as an operation state, an error state, etc., information corresponding to the user's command input, a processing result corresponding to the user's command input, etc. can do. The sound output unit may convert the electrical signal from the control unit 170 into an audio signal and output it. To this end, a speaker or the like may be provided.

구동부(460)는, 이동 로봇(100)의 본체(110)를 이동시키는 적어도 하나의 휠을 포함할 수 있다. 구동부(460)는, 본체(110)의 하부에 배치되는 복수의 휠(150) 및 상기 복수의 휠(150) 각각에 배치되어 구동시키는 복수의 모터를 포함할 수 있다.The driving unit 460 may include at least one wheel that moves the main body 110 of the mobile robot 100. The driving unit 460 may include a plurality of wheels 150 disposed under the main body 110 and a plurality of motors disposed on and driving each of the plurality of wheels 150.

복수의 휠(150)은, 본체(110)의 좌, 우 측에 각각 구비될 수 있으며, 이하, 각각 좌륜과 우륜이라고 한다. 좌륜과 우륜의 회전 속도에 차이를 두어 좌측 또는 우측으로 본체(110)의 주행방향을 전환할 수 있다. The plurality of wheels 150 may be provided on the left and right sides of the main body 110, respectively, hereinafter referred to as left and right wheels, respectively. It is possible to change the driving direction of the main body 110 to the left or right by making a difference in the rotation speed of the left wheel and the right wheel.

도 5는 본 발명의 실시예에 따른 제어부에 대한 플로우 차트이다.5 is a flow chart of a control unit according to an embodiment of the present invention.

도 5를 참조하면, 제어부(170)는, 맵 데이터 생성 단계(S500), 목적지 입력 단계(S505), 자율 주행 모드인지 판단하는 단계(S510), 경로 계획 수행하는 단계(S515), 자율 주행 단계(S520), 목적지 도착 판단 단계(S525)를 통해 이동 로봇(100)의 자율 주행을 제어할 수 있다.Referring to FIG. 5, the control unit 170 includes a map data generation step (S500), a destination input step (S505), a step of determining whether the autonomous driving mode is in the autonomous driving mode (S510), a route planning step (S515), and an autonomous driving step. The autonomous driving of the mobile robot 100 may be controlled through (S520) and a destination arrival determination step (S525).

맵 데이터 생성 단계(S500)는, 이동 로봇(100)이 쇼핑 공간을 맵핑하는 단계를 포함할 수 있다. 이동 로봇(100)은, 매뉴얼 모드에서, 쇼핑 공간을 주행하며 센싱부(440)를 통해 획득한 센서 데이터를 기반으로 맵 데이터를 생성할 수 있다. 이동 로봇(100)은, 자율 주행 모드에서, 쇼핑 공간을 주행하며 센싱부(440)를 통해 획득한 센서 데이터를 기반으로 맵 데이터를 업데이트할 수 있다.The map data generation step S500 may include the step of mapping the shopping space by the mobile robot 100. The mobile robot 100 may generate map data based on sensor data acquired through the sensing unit 440 while driving in a shopping space in a manual mode. In the autonomous driving mode, the mobile robot 100 may drive a shopping space and update map data based on sensor data acquired through the sensing unit 440.

이동 로봇(100)은, 매뉴얼 모드 또는 자율 주행 모드에서, 쇼핑 공간을 주행하면서 센싱부(440)를 통해 주변을 탐색하고, 현재 위치를 생성하는 과정을 통해, SLAM 기반의 맵 데이터를 생성할 수 있다. 이동 로봇(100)은, 생성한 맵 데이터를 메모리(420)에 저장할 수 있다. The mobile robot 100 can generate SLAM-based map data through a process of searching the surroundings through the sensing unit 440 while driving in a shopping space in a manual mode or an autonomous driving mode, and generating a current location. have. The mobile robot 100 may store the generated map data in the memory 420.

목적지 입력 단계(S505)는, 입력 장치(200)를 통해 사용자가 입력한 목적지 정보를 수신하는 단계일 수 있다. 목적지 정보는 음성 정보를 포함할 수 있다. 제어부(170)는, 음성 정보를 수신하여 목적지를 판단할 수 있다.The destination input step S505 may be a step of receiving destination information input by a user through the input device 200. The destination information may include voice information. The controller 170 may receive voice information and determine a destination.

목적지 정보는, 상품 또는 상품 코너에 대한 사용자의 음성 정보일 수 있다. 예를 들어, 목적지 정보는, 사용자가 음성으로 입력한 초밥일 수 있다. 예를 들어, 목적지 정보는, 사용자가 음성으로 입력한 과일 코너일 수 있다.The destination information may be voice information of a user about a product or a product corner. For example, the destination information may be sushi input by a user by voice. For example, the destination information may be a fruit corner input by a user by voice.

자율 주행 모드인지 판단하는 단계(S510)는, 제어부(170)가 자율 주행 모드인지, 매뉴얼 모드인지를 판단하는 단계일 수 있다. 사용자는, 자율 주행 모드 또는 매뉴얼 모드를 선택할 수 있다. 자율 주행 모드 또는 매뉴얼 모드의 선택은, 음성 입력 또는 버튼 입력을 통해서 선택할 수 있다.Determining whether it is the autonomous driving mode (S510) may be a step of determining whether the control unit 170 is in an autonomous driving mode or a manual mode. The user can select an autonomous driving mode or a manual mode. The autonomous driving mode or the manual mode can be selected through voice input or button input.

제어부(170)가 자율 주행 모드라고 판단하면, 경로 계획 수행하는 단계(S515) 및 자율 주행 제어 단계(S520)를 통해 목적지에 도착할 수 있다. 제어부(170)가 매뉴얼 모드라고 판단하면, 외부 서버(300)와 연결하는 단계(S530), 실시간 영상 스트리밍 단계(S535) 및 원격 제어 단계(S540)를 통해 목적지에 도착할 수 있다.If the controller 170 determines that the autonomous driving mode is in the autonomous driving mode, the destination may be reached through a route planning step (S515) and an autonomous driving control step (S520). If the control unit 170 determines that it is in the manual mode, the destination may be reached through the step of connecting to the external server 300 (S530), the real-time video streaming step (S535), and the remote control step (S540).

경로 계획 수행하는 단계(S515)는, 저장된 맵 데이터를 기반으로 제1 경로를 생성하는 단계(S601), 제1 경로를 따라 자율 주행을 제어하는 단계(S602), 코스트 값을 계산하는 단계(S603), 코스트 값을 기초로 제2 경로를 생성하는 단계(S604) 및 제2 경로를 기초로 제1 경로를 보정하는 단계(S605)를 포함할 수 있다. 보다 상세한 설명은 도 6을 통해 후술한다.The step of performing route planning (S515) includes generating a first route based on the stored map data (S601), controlling autonomous driving along the first route (S602), and calculating a cost value (S603). ), generating a second path based on the cost value (S604), and correcting the first path based on the second path (S605). A more detailed description will be given later with reference to FIG. 6.

자율 주행 제어 단계(S520)는, 경로 계획을 수행하는 단계(S515)를 통해 생성된 경로를 따라, 제어부(170)가 이동 로봇(100)의 주행을 제어하는 단계일 수 있다. 제어부(170)는, 계획된 경로를 따라 자율 주행하면서 센싱부(440)를 통해 주변 장애물에 대한 데이터를 획득할 수 있다.The autonomous driving control step S520 may be a step in which the controller 170 controls the traveling of the mobile robot 100 along the path generated through the step S515 of performing a path planning. The control unit 170 may acquire data on surrounding obstacles through the sensing unit 440 while autonomously driving along the planned route.

제어부(170)는, 계획된 경로를 따라 이동 로봇(100)의 복수의 휠을 제어할 수 있다. 제어부(170)는, 계획된 경로를 따라 이동 로봇(100)이 주행할 수 있도록, 이동 로봇(100)의 이동 속도 및 조향을 제어할 수 있다. 제어부(170)는, 복수의 휠을 제어함으로써, 이동 로봇을 가속시키거나 제동시키거나 방향을 조절할 수 있다.The controller 170 may control a plurality of wheels of the mobile robot 100 along a planned route. The controller 170 may control the moving speed and steering of the mobile robot 100 so that the mobile robot 100 can travel along a planned route. The controller 170 may accelerate, brake, or adjust a direction of the mobile robot by controlling a plurality of wheels.

제어부(170)는, 계획된 경로를 사용자에게 안내하는 신호를 스피커로 전송할 수 있다. 경로를 안내하는 신호는, 직진, 좌회전, 우회전 등을 안내하는 신호를 포함할 수 있다. 예를 들어, 제어부(170)는, 계획된 경로를 따라, '5m 앞에서 좌회전 하세요'라는 안내 신호를 스피커를 통해 출력할 수 있다.The control unit 170 may transmit a signal guiding the user of the planned route to the speaker. The signal guiding the route may include a signal guiding straight forward, left turn, right turn, and the like. For example, the control unit 170 may output a guide signal “Turn left in front of 5m” through the speaker along a planned route.

제어부(170)는, 손잡이에 배치된 사용자 감지 센서를 통해 사용자가 손잡이를 잡지 않고 있다고 판단하면, 복수의 휠의 구동을 정지하는 신호를 생성할 수 있다. 이로써, 이동 로봇(100)이 자율 주행하면서도 사용자에서 떨어지지 않게 제어할 수 있어, 시각 장애인인 사용자의 안전성을 향상시킬 수 있다.When it is determined that the user is not holding the handle through the user detection sensor disposed on the handle, the control unit 170 may generate a signal for stopping driving of the plurality of wheels. Accordingly, it is possible to control the mobile robot 100 so that it does not fall away from the user while autonomously driving, thereby improving the safety of a user who is a blind person.

목적지 도착 판단 단계(S525)는, 제어부(170)가 계획된 경로를 따라 이동 로봇(100)의 주행을 완료하고 입력된 목적지에 도착하였는지를 판단하는 단계일 수 있다. 제어부(170)는, 목적지에 도착하였다고 판단하면, 목적지 도착 완료 신호를 스피커를 통해 출력할 수 있다. 또한, 외부 서버(예를 들어, 안내 서버)와의 통신 여부를 묻는 신호를 스피커를 통해 출력할 수 있다.The destination arrival determination step S525 may be a step in which the controller 170 completes the driving of the mobile robot 100 along a planned route and determines whether or not the input destination has been reached. When determining that the controller 170 has arrived at the destination, the controller 170 may output a destination arrival completion signal through the speaker. In addition, a signal asking whether to communicate with an external server (eg, a guide server) may be output through a speaker.

사용자는 외부 서버(300)와의 통신 시작/종료 버튼을 통해 통신을 시작할 수 있다. 제어부(170)는, 통신 시작 신호를 수신하면, 통신 장치를 통해 외부 서버(300)로 입력장치의 카메라가 촬영하는 영상을 전송할 수 있다. 제어부(170)는, 카메라가 촬영하는 영상을 실시간으로 스트리밍할 수 있다.The user may start communication through a communication start/end button with the external server 300. When receiving the communication start signal, the controller 170 may transmit an image captured by the camera of the input device to the external server 300 through the communication device. The controller 170 may stream an image captured by the camera in real time.

제어부(170)는, 외부 서버(300)로부터 상품에 관한 정보를 수신하고, 스피커를 통해 사용자에게 출력할 수 있다. 상품에 관한 정보는 상품에 대한 상세 위치 정보, 이미지 정보 및 가격 정보를 포함할 수 있다. The controller 170 may receive information on a product from the external server 300 and output it to a user through a speaker. The information on the product may include detailed location information, image information, and price information on the product.

자율 주행 모드인지 판단하는 단계(S510)에서, 제어부(170)가 매뉴얼 모드라고 판단하면, 외부 서버(300)와 연결하는 단계(S530), 실시간 영상 스트리밍 단계(S535) 및 원격 제어 단계(S540)를 통해 목적지에 도착할 수 있다.In the step of determining whether the autonomous driving mode is in the autonomous driving mode (S510), if the control unit 170 determines that the manual mode is in the manual mode, the connection with the external server 300 (S530), the real-time video streaming step (S535), and the remote control step (S540) You can reach your destination via.

외부 서버(300)와 연결하는 단계(S530)는, 자율 주행 모드가 아닌 경우, 통신 시작/종료 버튼을 통해 외부 서버(300)와 통신하는 단계일 수 있다. 사용자가 매뉴얼 모드를 선택한 경우, 자율 주행 모드이지만 목적지 정보가 부족한 경우, 장애물의 출현 빈도수가 일정 값 이상인 경우 등에서 이동 로봇(100)은 외부 서버(300)와 연결할 수 있다. 즉, 이동 로봇(100)은, 외부 서버(300)와 통신하며 데이터를 교환할 수 있다. The step of connecting with the external server 300 (S530) may be a step of communicating with the external server 300 through a communication start/end button when the autonomous driving mode is not. When the user selects the manual mode, the autonomous driving mode, but lacks destination information, the mobile robot 100 may connect with the external server 300 when the number of occurrences of an obstacle is greater than a certain value. That is, the mobile robot 100 may communicate with the external server 300 and exchange data.

실시간 영상 스트리밍 단계(S535)는, 입력 장치(200)의 카메라(210)가 촬영하는 사용자 시선 방향 영상을 실시간으로 스트리밍하는 단계일 수 있다. 실시간 영상은, 외부 서버(300)를 통해 원격 컴퓨팅 장치(350)로 전송될 수 있다. 안내원은, 원격 컴퓨팅 장치(350)를 통해 실시간 영상을 확인하고, 안내 서비스를 제공할 수 있다.The real-time image streaming step (S535) may be a step of streaming a user's gaze direction image captured by the camera 210 of the input device 200 in real time. The real-time image may be transmitted to the remote computing device 350 through the external server 300. The guide may check a real-time image through the remote computing device 350 and provide a guide service.

실시간 영상은, 입력 장치(200)의 카메라(210)와 함께, 장애물 검출 센서(160)의 카메라가 촬영한 영상일 수 있다. 이 경우, 입력 장치(200)의 카메라(210)는 제1 카메라, 장애물 검출 센서(160)의 카메라는 제2 카메라로 명명될 수 있다.The real-time image may be an image captured by the camera of the obstacle detection sensor 160 together with the camera 210 of the input device 200. In this case, the camera 210 of the input device 200 may be referred to as a first camera, and the camera of the obstacle detection sensor 160 may be referred to as a second camera.

안내원은, 외부 서버(300)를 통해 제1 카메라 또는 제2 카메라 중 적어도 어느 하나의 카메라가 촬영한 스트리밍 영상을 제공받고, 목적지까지의 안내 서비스를 제공할 수 있다. 이 경우, 원격 컴퓨팅 장치(350)가 이용될 수 있다.The guide may receive a streaming image captured by at least one of the first camera or the second camera through the external server 300 and may provide a guide service to a destination. In this case, the remote computing device 350 may be used.

본 발명의 일 실시 예에 따르면, 원격 컴퓨팅 장치(350)는 디스플레이를 포함할 수 있다. 원격 컴퓨팅 장치(350)는, 제1 카메라 또는 제2 카메라 중 적어도 어느 하나의 카메라가 촬영한 영상을 보기 위한 디스플레이를 포함할 수 있다.According to an embodiment of the present invention, the remote computing device 350 may include a display. The remote computing device 350 may include a display for viewing an image captured by at least one of the first camera and the second camera.

원격 제어 단계(S540)는, 안내원이 디스플레이를 통해 카메라가 촬영하는 스트리밍 영상을 보면서 이동 로봇(100)의 주행을 원격 제어하는 단계일 수 있다. 안내원은, 원격 컴퓨팅 장치(350)를 통해 이동 로봇의 주행을 제어하면서, 주행 방향 및 주행 속도에 대한 음성 안내 신호를 입력할 수 있다. 안내원은, 원격 컴퓨팅 장치(350)를 통해, 제1 카메라 또는 제2 카메라 중 적어도 어느 하나의 카메라의 방향 및 렌즈의 배율을 조절할 수 있다.The remote control step S540 may be a step of remotely controlling the driving of the mobile robot 100 while the guide sees the streaming image captured by the camera through the display. The guide may input a voice guidance signal for a driving direction and a driving speed while controlling the driving of the mobile robot through the remote computing device 350. The guide may adjust the direction of at least one of the first camera and the second camera and the magnification of the lens through the remote computing device 350.

도 6은 본 발명의 실시예에 따른 경로 계획 단계를 설명하기 위한 도면이다.6 is a diagram for explaining a route planning step according to an embodiment of the present invention.

도 6을 참조하면, 경로 계획 수행하는 단계(S515)는, 저장된 맵 데이터를 기반으로 제1 경로를 생성하는 단계(S601), 제1 경로를 따라 자율 주행을 제어하는 단계(S602), 코스트 값을 계산하는 단계(S603), 코스트 값을 기초로 제2 경로를 생성하는 단계(S604) 및 제2 경로를 기초로 제1 경로를 보정하는 단계(S605)를 포함할 수 있다. Referring to FIG. 6, the step of performing route planning (S515) includes generating a first route based on the stored map data (S601), controlling autonomous driving along the first route (S602), and a cost value. It may include calculating (S603), generating a second path based on the cost value (S604), and correcting the first path based on the second path (S605).

제1 경로를 생성하는 단계(S601)는, 저장된 맵 데이터를 기초로 목적지까지의 최적의 경로인 제1 경로를 생성하는 단계일 수 있다. 제1 경로는, 센싱부(440)를 통해 생성된 맵 데이터에 기초하여, 제어부(170)가 생성하는 global path일 수 있다. 제어부(170)는, 제1 경로를 따라 이동 로봇(100)이 자율 주행하도록 제어할 수 있다(S602). 이 경우, 제어부(170)는, 구동부(460)를 제어함을써, 이동 로봇(100)의 주행 속도 및 주행 방향을 결정할 수 있다.The step of generating the first route (S601) may be a step of generating a first route, which is an optimal route to a destination, based on the stored map data. The first path may be a global path generated by the controller 170 based on map data generated through the sensing unit 440. The controller 170 may control the mobile robot 100 to autonomously travel along the first path (S602). In this case, the control unit 170 may determine the driving speed and the driving direction of the mobile robot 100 by controlling the driving unit 460.

코스트 값을 계산하는 단계(S603)는, 제어부(170)가 제1 경로를 따라 주행하면서 센싱부(440)를 통해 얻는 센서 데이터 값을 기초로 코스트 값을 계산하는 단계일 수 있다. 코스트 값은, 장애물의 종류, 이동 로봇(100)과의 상대 속도, 이동 로봇(100)과의 상대 거리 등에 따라서 달라질 수 있다. 제어부(170)는, 장애물 검출 센서(160)를 통해 얻는 장애물 정보를 기초로 코스트 값을 계산할 수 있다.The step of calculating the cost value (S603) may be a step of calculating a cost value based on a sensor data value obtained through the sensing unit 440 while the control unit 170 travels along the first route. The cost value may vary depending on the type of obstacle, a relative speed with the mobile robot 100, a relative distance with the mobile robot 100, and the like. The controller 170 may calculate a cost value based on obstacle information obtained through the obstacle detection sensor 160.

제2 경로를 생성하는 단계(S604)는, 코스트 값을 기초로 코스트 값이 낮은 방향으로 제2 경로를 생성하는 단계일 수 있다. 제1 경로는, 장애물 검출 센서(160)를 통해 계산한 코스트 값에 기초하여, 제어부(170)가 생성하는 local path일 수 있다. 제어부(170)는, 제2 경로를 기초로 제1 경로를 보정할 수 있다(S605).The step of generating the second path (S604) may be a step of generating a second path in a direction with a low cost value based on the cost value. The first path may be a local path generated by the controller 170 based on a cost value calculated through the obstacle detection sensor 160. The controller 170 may correct the first path based on the second path (S605).

제어부(170)는, 제2 경로를 기초로 보정된 제1 경로를 따라 이동 로봇(100)의 자율 주행을 제어할 수 있다(S520).The controller 170 may control autonomous driving of the mobile robot 100 along the first path corrected based on the second path (S520).

도 7은 본 발명의 실시예에 따른 제1 경로 및 제2 경로를 설명하기 위한 도면이다.7 is a diagram for explaining a first route and a second route according to an embodiment of the present invention.

도 7을 참조하면, 제어부(170)는, 제2 경로(703)를 기초로 제1 경로(702)를 보정할 수 있다.Referring to FIG. 7, the controller 170 may correct the first path 702 based on the second path 703.

제어부(170)는, 이동 로봇(100)의 현재 위치(701)에서 목적지까지 제1 경로(702)를 따라 주행을 제어할 수 있다. 제어부(170)는, 제1 경로를 주행하면서, 장애물 정보에 기초하여 제2 경로를 생성할 수 있다. 센싱부(440)는, 제1 경로를 주행하면서 이동 로봇(100) 주변(700)의 장애물을 검출하고, 장애물 정보를 생성할 수 있다. The controller 170 may control driving along the first route 702 from the current position 701 of the mobile robot 100 to the destination. The controller 170 may generate a second path based on obstacle information while driving the first path. The sensing unit 440 may detect an obstacle around the mobile robot 100 while driving the first path and generate obstacle information.

도 7의 경우, 제1 경로(702)를 따라 이동 중, 장애물(704)을 검출한 상황을 나타낼 수 있다. 제어부(170)는, 장애물 정보에 따라 코스트 값을 계산하고, 코스트 값에 기초하여 제2 경로(703)를 생성할 수 있다. 제어부(170)는, 제2 경로(703)를 통해 제1 경로(702)를 수정할 수 있다. 수정된 제1 경로는, 장애물(704)을 회피하는 제2 경로를 거쳐 기존 생성된 제1 경로(702)와 합쳐지는 경로일 수 있다. In the case of FIG. 7, a situation in which an obstacle 704 is detected while moving along the first path 702 may be indicated. The control unit 170 may calculate a cost value according to the obstacle information and generate a second path 703 based on the cost value. The controller 170 may modify the first path 702 through the second path 703. The modified first path may be a path merged with the previously generated first path 702 through the second path avoiding the obstacle 704.

도 7을 통해 알 수 있듯이, 이동 로봇(100)은, 맵 데이터 기반의 제1 경로(702)를 기초로 목적지까지의 최적 경로를 통해 자율 주행하면서, 센서 데이터 기반의 제2 경로(703)를 기초로 장애물을 회피할 수 있다.As can be seen from FIG. 7, the mobile robot 100 autonomously travels through the optimal route to the destination based on the first route 702 based on map data, while driving the second route 703 based on sensor data. Obstacles can be avoided as a basis.

이동 로봇(100)에 포함되는 적어도 하나의 전자 장치는, 인공 지능(artificial intelligence, AI)를 구현하는 소프트웨어 모듈 또는 하드웨어 모듈(이하, 인공 지능 모듈)을 포함할 수 있다. 적어도 하나의 전자 장치는, 획득되는 데이터를 인공 지능 모듈에 입력(input)하고, 인공 지능 모듈에서 출력(output)되는 데이터를 이용할 수 있다. At least one electronic device included in the mobile robot 100 may include a software module or a hardware module (hereinafter, referred to as an artificial intelligence module) that implements artificial intelligence (AI). At least one electronic device may input acquired data to an artificial intelligence module and use data output from the artificial intelligence module.

인공 지능 모듈은, 적어도 하나의 인공 신경망(artificial neural network, ANN)을 이용하여, 입력되는 데이터에 대한 기계 학습(machine learning)을 수행할 수 있다. 인공 지능 모듈은, 입력되는 데이터에 대한 기계 학습을 통해, 드라이빙 플랜 데이터를 출력할 수 있다.The artificial intelligence module may perform machine learning on input data using at least one artificial neural network (ANN). The artificial intelligence module may output driving plan data through machine learning on input data.

적어도 하나의 전자 장치는, 인공 지능 모듈에서 출력되는 데이터에 기초하여, 제어 신호를 생성할 수 있다.At least one electronic device may generate a control signal based on data output from the artificial intelligence module.

이동 로봇(100)에 포함되는 적어도 하나의 전자 장치는, 통신 장치를 통해, 외부 서버로부터, 인공 지능에 의해 처리된 데이터를 수신할 수 있다. 이동 로봇(100)에 포함되는 적어도 하나의 전자 장치는, 인공 지능에 의해 처리된 데이터에 기초하여, 제어 신호를 생성할 수 있다.At least one electronic device included in the mobile robot 100 may receive data processed by artificial intelligence from an external server through a communication device. At least one electronic device included in the mobile robot 100 may generate a control signal based on data processed by artificial intelligence.

전술한 본 발명은 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be implemented as a computer-readable code on a medium on which a program is recorded. The computer-readable medium includes all types of recording devices storing data that can be read by a computer system. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAM, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, etc. There is also a carrier wave (for example, transmission over the Internet) also includes the implementation of the form. In addition, the computer may include a processor or a control unit. Therefore, the detailed description above should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

100: 이동 로봇
110: 본체
120: 지지대
130: 손잡이
140: 수납부
150: 복수의 휠
160: 장애물 검출 센서
170: 제어부
180: 사용자 감지 센서
200: 입력 장치
210: 카메라
220: 착용부
230: 버튼
240: 스피커
250: 마이크
300: 외부 서버
350: 원격 컴퓨팅 장치
100: mobile robot
110: main body
120: support
130: handle
140: storage unit
150: multiple wheels
160: obstacle detection sensor
170: control unit
180: user detection sensor
200: input device
210: camera
220: wearing part
230: button
240: speaker
250: microphone
300: external server
350: remote computing device

Claims (5)

자율 주행하며 시각 장애인의 쇼핑을 돕는 이동 로봇에 있어서,
사용자를 목적지로 인도하는 본체;
상기 사용자에 장착되어 무선으로 상기 본체와 연결되는 입력 장치;
상기 본체에 설치되는 지지대;
상기 지지대에 연결되는 손잡이;
상기 지지대에 배치되고 상기 지지대를 따라 이동 가능한 수납부;
상기 본체에 배치되는 적어도 하나의 장애물 검출 센서;
상기 본체의 하부에 배치되는 복수의 휠;
상기 복수의 휠을 구동시키는 복수의 모터;
전력을 제공하는 전원공급장치; 및
상기 이동 로봇의 자율주행을 제어하는 제어부;를 포함하고,
상기 입력 장치는, 사용자의 시선 방향 영상을 촬영하는 카메라;를 더 포함하고,
상기 제어부는, 상기 장애물 검출 센서를 통해 쇼핑 공간을 맵핑하여 SLAM 기반의 맵 데이터를 생성하고, 상기 입력 장치를 통해 사용자가 입력한 입력 신호를 수신하여 목적지를 설정하고, 상기 목적지까지 경로 계획(Path-Planning)을 수행하고, 계획된 경로를 따라 상기 이동 로봇이 자율 주행하도록 상기 복수의 휠을 제어하는, 시각 장애인용 이동 로봇.
In a mobile robot that drives autonomously and helps the visually impaired to shop,
A body that guides the user to a destination;
An input device mounted on the user and wirelessly connected to the main body;
A support installed on the main body;
A handle connected to the support;
A storage unit disposed on the support and movable along the support;
At least one obstacle detection sensor disposed on the main body;
A plurality of wheels disposed under the main body;
A plurality of motors driving the plurality of wheels;
A power supply for providing electric power; And
Including; a control unit for controlling the autonomous driving of the mobile robot,
The input device further includes a camera for photographing an image of a user's gaze direction,
The control unit maps a shopping space through the obstacle detection sensor to generate SLAM-based map data, receives an input signal input by a user through the input device, sets a destination, and plans a route to the destination. -Planning) and controlling the plurality of wheels to allow the mobile robot to autonomously travel along a planned route.
제 1 항에 있어서,
상기 제어부는,
상기 목적지가 설정되면, 상기 맵 데이터를 기반으로 상기 목적지까지의 최적 경로인 제1 경로를 생성하고,
상기 제1 경로를 따라 주행하면서 상기 장애물 검출 센서가 감지한 장애물 정보를 기반으로 코스트 값을 계산하고,
상기 코스트 값이 낮은 방향으로 상기 장애물을 회피하는 제2 경로를 생성하고,
상기 제2 경로를 통해 상기 제1 경로를 보정함으로써 상기 경로 계획을 수행하는, 시각 장애인용 이동 로봇.
The method of claim 1,
The control unit,
When the destination is set, a first route that is an optimal route to the destination is generated based on the map data,
A cost value is calculated based on obstacle information detected by the obstacle detection sensor while driving along the first path,
Create a second path to avoid the obstacle in the direction of the low cost value,
A mobile robot for the visually impaired, which performs the route planning by correcting the first route through the second route.
제 1 항에 있어서,
상기 이동 로봇은,
상기 손잡이에 배치되고, 사용자가 상기 손잡이를 잡고 있는지를 감지하는, 사용자 감지 센서;를 더 포함하고,
상기 제어부는,
상기 손잡이에 배치되는 사용자 감지 센서를 통해 사용자가 상기 손잡이를 잡고 있는지에 대한 정보를 획득하고,
상기 사용자가 상기 손잡이를 잡고 있지 않다고 판단하면, 상기 복수의 휠의 구동을 정지하는 신호를 생성하는, 시각 장애인용 이동 로봇.
The method of claim 1,
The mobile robot,
A user detection sensor disposed on the handle and detecting whether a user is holding the handle; further comprising,
The control unit,
Obtaining information on whether a user is holding the handle through a user detection sensor disposed on the handle,
If it is determined that the user is not holding the handle, generating a signal for stopping driving of the plurality of wheels, a mobile robot for the visually impaired.
제 1 항에 있어서,
상기 이동 로봇은.
외부 서버와 통신하는 통신 장치;를 더 포함하고,
상기 입력 장치는,
사용자의 귀에 장착하는 착용부; 마이크; 스피커; 및 하나 이상의 버튼;을 더 포함하고,
상기 하나 이상의 버튼 중 어느 하나의 버튼은, 상기 전원공급장치의 온/오프 버튼 또는 상기 통신 장치를 통한 상기 외부 서버와의 통신 시작/종료 버튼 중 적어도 어느 하나이고,
상기 제어부는,
상기 마이크를 통해 상기 사용자의 입력 신호를 수신하고, 상기 계획된 경로를 상기 사용자에게 안내하는 신호를 상기 스피커로 전송하는, 시각 장애인용 이동 로봇.
The method of claim 1,
The mobile robot.
A communication device that communicates with an external server; further includes,
The input device,
Wearing parts mounted on the user's ears; MIC; speaker; And one or more buttons; further comprising,
Any one button of the one or more buttons is at least one of an on/off button of the power supply device or a communication start/end button of the external server through the communication device,
The control unit,
A mobile robot for the visually impaired, which receives the input signal of the user through the microphone and transmits a signal guiding the user to the planned route to the speaker.
제 4 항에 있어서,
상기 제어부는,
상기 외부 서버와의 통신 시작/종료 버튼을 통해 통신 시작 신호를 수신하면, 상기 통신 장치를 통해 상기 외부 서버로 상기 카메라가 촬영하는 영상을 실시간으로 스트리밍하는 신호를 전송하고,
상기 외부 서버로부터 상품에 관한 정보를 수신하여 상기 스피커를 통해 출력하는 신호를 생성하고,
상기 상품에 관한 정보는,
상품에 대한 상세 위치 정보, 이미지 정보 및 가격 정보를 포함하는, 시각 장애인용 이동 로봇.
The method of claim 4,
The control unit,
When a communication start signal is received through a communication start/end button with the external server, a signal for real-time streaming of the image captured by the camera is transmitted to the external server through the communication device,
Generates a signal to receive information on the product from the external server and output through the speaker,
Information on the above products,
A mobile robot for the visually impaired, including detailed location information, image information, and price information on the product.
KR1020190101849A 2019-08-20 2019-08-20 A moving robot for the blind and control method thereof KR20210022394A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190101849A KR20210022394A (en) 2019-08-20 2019-08-20 A moving robot for the blind and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190101849A KR20210022394A (en) 2019-08-20 2019-08-20 A moving robot for the blind and control method thereof

Publications (1)

Publication Number Publication Date
KR20210022394A true KR20210022394A (en) 2021-03-03

Family

ID=75151246

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190101849A KR20210022394A (en) 2019-08-20 2019-08-20 A moving robot for the blind and control method thereof

Country Status (1)

Country Link
KR (1) KR20210022394A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102559789B1 (en) * 2023-01-30 2023-07-28 문경진 System for providing visual impairment support service using realtime streaming

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101497096B1 (en) 2014-02-25 2015-03-03 경남대학교 산학협력단 Shopping Assistant Robot for the Visually Impaired

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101497096B1 (en) 2014-02-25 2015-03-03 경남대학교 산학협력단 Shopping Assistant Robot for the Visually Impaired

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102559789B1 (en) * 2023-01-30 2023-07-28 문경진 System for providing visual impairment support service using realtime streaming

Similar Documents

Publication Publication Date Title
US9915545B2 (en) Smart necklace with stereo vision and onboard processing
US9629774B2 (en) Smart necklace with stereo vision and onboard processing
US20210039779A1 (en) Indoor mapping and modular control for uavs and other autonomous vehicles, and associated systems and methods
US10360907B2 (en) Smart necklace with stereo vision and onboard processing
US10024667B2 (en) Wearable earpiece for providing social and environmental awareness
US10024678B2 (en) Wearable clip for providing social and environmental awareness
US9943965B2 (en) Robots comprising projectors for projecting images on identified projection surfaces
US9539723B2 (en) Accessory robot for mobile device
CN105058389A (en) Robot system, robot control method, and robot
JP2007139710A (en) Walking-aid robot
US10062302B2 (en) Vision-assist systems for orientation and mobility training
JP6150429B2 (en) Robot control system, robot, output control program, and output control method
TW201831920A (en) Auto moving device
CN205942440U (en) Intelligence business office robot
KR20210022394A (en) A moving robot for the blind and control method thereof
Wang et al. A survey of 17 indoor travel assistance systems for blind and visually impaired people
US20230266140A1 (en) Mobility assistance device and method of providing mobility assistance
Hameed et al. Smart wheel chair
CN211842012U (en) Robot
Sekmen Human-robot interaction methodology
TW202042773A (en) Blind assistance system and method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application