KR102358484B1 - Mobile robot path guide device in complex area and method thereof - Google Patents

Mobile robot path guide device in complex area and method thereof Download PDF

Info

Publication number
KR102358484B1
KR102358484B1 KR1020200020742A KR20200020742A KR102358484B1 KR 102358484 B1 KR102358484 B1 KR 102358484B1 KR 1020200020742 A KR1020200020742 A KR 1020200020742A KR 20200020742 A KR20200020742 A KR 20200020742A KR 102358484 B1 KR102358484 B1 KR 102358484B1
Authority
KR
South Korea
Prior art keywords
driving
mobile robot
route
display unit
pedestrian
Prior art date
Application number
KR1020200020742A
Other languages
Korean (ko)
Other versions
KR20210106078A (en
Inventor
송영은
Original Assignee
주식회사 트위니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 트위니 filed Critical 주식회사 트위니
Priority to KR1020200020742A priority Critical patent/KR102358484B1/en
Publication of KR20210106078A publication Critical patent/KR20210106078A/en
Application granted granted Critical
Publication of KR102358484B1 publication Critical patent/KR102358484B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/403Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2201/00Application
    • G05D2201/02Control of position of land vehicles
    • G05D2201/0217Anthropomorphic or bipedal robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Abstract

본 발명은 이동 로봇의 주행에 관한 것으로, 보다 상세하게는 복잡지역에서 이동로봇의 경로 안내 장치 및 그 방법에 관한 것이다. 이를 위해, 주행경로(200)를 따라 주행가능한 이동로봇(100)에 탑재되고, 주행경로(200) 상의 보행자(220)를 인식하는 인식수단; 인식수단의 인식 결과에 기초하여 주행경로(200) 상에서 보행자(220)에게 상기 이동로봇(100)의 주행 방향을 표시하는 방향표시부(70); 및 주행 방향으로 간헐 주행을 하는 간헐주행부;를 포함하여, 보행자(220)가 주행방향을 보고 회피함으로써 주행경로(200)가 확보될 수 있도록 하는 것을 특징으로 하는 복잡지역에서 이동로봇의 경로 안내 장치The present invention relates to the driving of a mobile robot, and more particularly, to an apparatus and method for guiding a route of the mobile robot in a complex area. To this end, a recognition means mounted on the mobile robot 100 capable of running along the driving path 200 and recognizing the pedestrian 220 on the driving path 200 ; a direction display unit 70 for displaying the driving direction of the mobile robot 100 to the pedestrian 220 on the driving route 200 based on the recognition result of the recognition means; and an intermittent driving unit that intermittently runs in the driving direction; including, a path guidance of a mobile robot in a complex area, characterized in that the pedestrian 220 can secure the driving path 200 by avoiding the driving direction Device

Description

복잡지역에서 이동로봇의 경로 안내 장치 및 그 방법{Mobile robot path guide device in complex area and method thereof}Mobile robot path guide device in complex area and method thereof

본 발명은 이동 로봇의 주행에 관한 것으로, 보다 상세하게는 복잡지역에서 이동로봇의 경로 안내 장치 및 그 방법에 관한 것이다. The present invention relates to the driving of a mobile robot, and more particularly, to an apparatus and method for guiding a route of the mobile robot in a complex area.

일반적으로, 이동로봇, 무인운반차(Automated Guided Vehicle, AGV), 자율주행차량, 길안내 로봇, 서비스 로봇(이하 "이동로봇"이라 칭함)은 주행중 경로 상에서 예상치 못한 보행자를 만날 수 있다. 특히, 공항, 쇼핑센터, 공공건물, 대학 등(이하 "복잡지역"이라 함)과 같이 다수의 보행자가 혼재하고, 계속 움직이는 상황에서 이동로봇의 주행은 쉽지 않다. In general, mobile robots, automated guided vehicles (AGVs), autonomous vehicles, road guide robots, and service robots (hereinafter referred to as "mobile robots") may encounter unexpected pedestrians on the route while driving. In particular, it is not easy to drive a mobile robot in a situation where a large number of pedestrians are mixed and moving continuously, such as in airports, shopping centers, public buildings, universities, etc. (hereinafter referred to as "complex areas").

이러한 복잡지역에서 주행하는 종래의 이동로봇은 소정거리의 주행 경로가 확보될 때까지 멈춰서 기다려야만 했다. 따라서, 이동로봇은 잠깐 주행 및 멈춤을 반복해야 했다. 특히, 다수의 보행자에 대해서는 이동로봇과의 사이에서 별다른 상호 작용이 없거나 이동로봇의 존재만을 소리나 경광등으로 알리는 것에 그쳤다. Conventional mobile robots running in such complex areas had to stop and wait until a travel route of a predetermined distance was secured. Therefore, the mobile robot had to repeatedly run and stop for a while. In particular, for a large number of pedestrians, there was no interaction with the mobile robot or only the presence of the mobile robot was notified by sound or warning light.

특히, 다수의 보행자 입장에서는 이동로봇의 경로를 알 수 없고, 자신의 동선과 어느 정도 교차하는지도 알지 못했다. 왜냐하면 인간 대 인간의 교차에서는 상대방의 표정이나 손짓 또는 몸짓을 통해 상대방의 비켜가는 방향을 눈치챌 수 있었기 때문이다. 인간 대 로봇의 이동중 교차 시에는 이러한 소통 방식이 통하지 않기 때문에 보행자는 멈춰서 기다리거나 오히려 더 빨리 이동하여 이동로봇의 앞을 피하려곤 했다. In particular, from the standpoint of many pedestrians, the path of the mobile robot could not be known, and they did not know how much it intersects with their own movement. This is because, in the human-to-human intersection, the other's direction could be detected through the other's facial expressions, hand gestures, or gestures. When a human-robot crosses during movement, this communication method does not work, so pedestrians would stop and wait or move faster to avoid the front of the mobile robot.

이러한 이동로봇의 주행 방식은 보행자와의 충돌 사고 및 심각한 상해로 이어질 수 있었다. 또한, 이동로봇이 서비스 로봇(예 : 길안내 로봇 등)인 경우, 본래의 기능을 수행하지 못하고 제자리에 오래 머무리는 단점이 있었다. The driving method of these mobile robots could lead to collisions with pedestrians and serious injuries. In addition, when the mobile robot is a service robot (eg, a navigation robot, etc.), there is a disadvantage in that it cannot perform its original function and stays in place for a long time.

1. 대한민국 특허공개 제 10-2012-0054879 호(차량형 이동 로봇의 충돌 회피 경로 생성 방법 및 이를 이용한 주차 보조 시스템),1. Republic of Korea Patent Publication No. 10-2012-0054879 (a method for generating a collision avoidance path of a vehicle-type mobile robot and a parking assistance system using the same), 2. 대한민국 특허공개 제 10-2005-0097306호(확장된 충돌 지도를 이용한 다개체 로봇의 충돌 회피 방법 및 그 방법을 기록한 컴퓨터로 판독 가능한 기록 매체).2. Korean Patent Laid-Open No. 10-2005-0097306 (a method for avoiding collision of a multi-object robot using an extended collision map and a computer-readable recording medium recording the method).

따라서, 본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 해결하고자 하는 과제는 다수의 보행자가 움직이는 복잡지역에게 이동로봇의 주행 방향이나 주행 경로를 미리 안내함으로써 원활하고 안전한 회피가 이루어질 수 있도록 하는 복잡지역에서 이동로봇의 경로 안내 장치 및 그 방법을 제공하는 것이다.Accordingly, the present invention has been devised to solve the above problems, and the object of the present invention is to provide smooth and safe avoidance by guiding in advance the driving direction or driving route of the mobile robot to a complex area in which a large number of pedestrians move. It is to provide an apparatus and method for guiding a route of a mobile robot in a complex area that enables this to be achieved.

다만, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned are clearly to those of ordinary skill in the art to which the present invention belongs from the description below. can be understood

상기의 기술적 과제를 달성하기 위하여, 주행경로(200)를 따라 주행가능한 이동로봇(100)에 탑재되고, 주행경로(200) 상의 보행자(220)를 인식하는 인식수단; 인식수단의 인식 결과에 기초하여 주행경로(200) 상에서 보행자(220)에게 상기 이동로봇(100)의 주행 방향을 표시하는 방향표시부(70); 및 주행 방향으로 간헐 주행을 하는 간헐주행부;를 포함하여, 보행자(220)가 주행방향을 보고 회피함으로써 주행경로(200)가 확보될 수 있도록 하는 것을 특징으로 하는 복잡지역에서 이동로봇의 경로 안내 장치가 제공된다.Recognition means mounted on the mobile robot 100 capable of running along the driving path 200 and recognizing the pedestrian 220 on the driving path 200 in order to achieve the above technical task; a direction display unit 70 for displaying the driving direction of the mobile robot 100 to the pedestrian 220 on the driving route 200 based on the recognition result of the recognition means; and an intermittent driving unit that intermittently runs in the driving direction; including, a path guidance of a mobile robot in a complex area, characterized in that the pedestrian 220 can secure the driving path 200 by avoiding the driving direction A device is provided.

또한, 인식수단은 보행자(220)의 위치 및 숫자를 인식할 수 있다.Also, the recognition means may recognize the position and number of the pedestrian 220 .

또한, 주행 방향에 관한 안내 음성을 출력하는 스피커(90)를 더 포함할 수 있다.In addition, it may further include a speaker 90 for outputting a guide voice related to the driving direction.

또한, 인식수단의 인식 결과에 기초하여 방향표시부(70)가 주행 방향을 표시할 때, 미리 내정된 표정을 표시할 수 있는 표정표시부(60)를 더 포함한다.In addition, when the direction display unit 70 displays the driving direction based on the recognition result of the recognition means, it further includes an expression display unit 60 capable of displaying a preset expression.

또한, 간헐주행부는 50cm 이내의 범위에서 간헐적으로 주행하거나 또는 왕복 주행할 수 있다.In addition, the intermittent traveling unit may intermittently travel within a range of 50 cm or may reciprocate.

상기와 같은 본 발명의 목적은, 또 다른 카테고리로써, 이동로봇(100)이 주행경로(200)를 따라 주행중, 인식수단이 주행경로(200) 상에서 복수의 보행자(220)를 인식하는 단계(S100); 인식수단의 인식결과에 기초하여, 방향표시부(70)가 주행경로(200) 상에서 보행자(220)에게 상기 이동로봇(100)의 주행 방향을 표시하는 단계(S120); 간헐주행부가 상기 주행 방향으로 간헐 주행하는 단계(S140); 및 주행부(170)가 주행경로(200)를 따라 주행하는 단계(S160);를 포함하여, 보행자(220)가 주행방향을 보고 회피함으로써 주행경로(200)가 확보될 수 있는 것을 특징으로 하는 복잡지역에서 이동로봇의 경로 안내 방법에 의해서도 달성될 수 있다.The object of the present invention as described above is, as another category, the step of recognizing the plurality of pedestrians 220 on the driving path 200 by the recognition means while the mobile robot 100 is driving along the driving path 200 (S100) ); Based on the recognition result of the recognition means, the direction display unit 70 displaying the driving direction of the mobile robot 100 to the pedestrian 220 on the driving route 200 (S120); Intermittent running in the driving direction step (S140); and a step (S160) of the driving unit 170 traveling along the driving path 200, characterized in that the driving path 200 can be secured by the pedestrian 220 seeing and avoiding the driving direction It can also be achieved by the route guidance method of the mobile robot in a complex area.

또한, 인식단계(S100)는 보행자(220)의 위치 및 숫자를 인식하고, 보행자(220)의 숫자가 기준치 이상인 경우 복잡지역으로 판단한다.In addition, the recognition step ( S100 ) recognizes the position and number of pedestrians 220 , and when the number of pedestrians 220 is greater than or equal to a reference value, it is determined as a complex area.

또한, 주행 방향의 표시단계(S120)는, 스피커(90)가 주행 방향에 관한 안내 음성을 출력하는 단계(S125)를 더 포함할 수 있다.In addition, the step of displaying the driving direction (S120) may further include a step (S125) of the speaker 90 outputting a guide voice regarding the driving direction.

또한, 주행 방향의 표시단계(S120)는, 인식수단의 인식 결과에 기초하여 방향표시부(70)가 주행 방향을 표시할 때, 표정표시부(60)가 미리 내정된 표정을 표시한다.In addition, in the displaying step (S120) of the driving direction, when the direction display unit 70 displays the driving direction based on the recognition result of the recognition means, the facial expression display unit 60 displays a preset facial expression.

또한, 간헐주행단계(S140)는 소정 시간동안 또는 소정 거리에 대해 실행될 수 있다. Also, the intermittent driving step S140 may be performed for a predetermined time or for a predetermined distance.

본 발명의 일실시예에 따르면, 다수의 보행자(220)가 불규칙하게 움직이는 복잡지역에서 보행자 사이를 이동로봇(100)이 주행할 때 미리 이동로봇의 주행방향이나 주행경로를 표시하여 안내함으로써 원활하고 안전한 회피 및 주행이 이루어질 수 있다.According to an embodiment of the present invention, when the mobile robot 100 drives between pedestrians in a complex area in which a plurality of pedestrians 220 move irregularly, the moving direction or the driving route of the mobile robot is displayed and guided in advance to ensure smooth and smooth operation. Safe avoidance and driving can be achieved.

즉, 보행자는 이동로봇의 주행방향이나 경로를 미리 예측할 수 있어서 자신의 동선을 수정할 수 있다. That is, the pedestrian can predict the driving direction or route of the mobile robot in advance, so that the pedestrian can modify his or her own movement.

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. will be able

본 명세서에서 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술하는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어서 해석되어서는 아니된다.
도 1은 본 발명의 일실시예에 따른 이동로봇이 복잡지역을 통과하기 전의 상태를 나타내는 개략도,
도 2는 본 발명의 일실시예에 따른 이동로봇이 복잡지역을 통과할 수 있도록 경로가 확보된 상태를 나타내는 개략도,
도 3은 본 발명의 일실시예에 따른 복잡지역에서 이동로봇의 경로 안내 장치의 개략적인 블럭도,
도 4는 본 발명의 일실시예에 따른 복잡지역에서 이동로봇의 경로 안내 방법을 흐름도,
도 5a는 본 발명의 제 1 실시예에 따른 표정표시부(60)와 방향표시부(70)의 일예이고,
도 5b는 본 발명의 제 2 실시예에 따른 표정표시부(60)와 방향표시부(70)의 일예이다.
The following drawings attached to this specification illustrate preferred embodiments of the present invention, and serve to further understand the technical spirit of the present invention together with the detailed description of the present invention to be described later, so that the present invention is described in such drawings It should not be construed as being limited only to
1 is a schematic diagram showing a state before a mobile robot passes through a complex area according to an embodiment of the present invention;
2 is a schematic diagram showing a state in which a path is secured so that the mobile robot can pass through a complex area according to an embodiment of the present invention;
3 is a schematic block diagram of an apparatus for guiding a route of a mobile robot in a complex area according to an embodiment of the present invention;
4 is a flowchart illustrating a method for guiding a route of a mobile robot in a complex area according to an embodiment of the present invention;
5A is an example of the expression display unit 60 and the direction display unit 70 according to the first embodiment of the present invention,
5B is an example of the expression display unit 60 and the direction display unit 70 according to the second embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art can easily carry out the present invention. However, since the description of the present invention is merely an embodiment for structural or functional description, the scope of the present invention should not be construed as being limited by the embodiment described in the text. That is, since the embodiment may have various changes and may have various forms, it should be understood that the scope of the present invention includes equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only such effects, it should not be understood that the scope of the present invention is limited thereby.

본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.The meaning of the terms described in the present invention should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.Terms such as “first” and “second” are for distinguishing one component from another, and the scope of rights should not be limited by these terms. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component. When a component is referred to as “connected” to another component, it may be directly connected to the other component, but it should be understood that other components may exist in between. On the other hand, when it is mentioned that a certain element is "directly connected" to another element, it should be understood that the other element does not exist in the middle. Meanwhile, other expressions describing the relationship between elements, that is, "between" and "between" or "neighboring to" and "directly adjacent to", etc., should be interpreted similarly.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression is to be understood to include the plural expression unless the context clearly dictates otherwise, and terms such as "comprises" or "have" refer to the specified feature, number, step, action, component, part or these It is intended to indicate that a combination exists, and it is to be understood that it does not preclude the possibility of the existence or addition of one or more other features or numbers, steps, operations, components, parts, or combinations thereof.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless otherwise defined. Terms defined in the dictionary should be interpreted as being consistent with the meaning of the context of the related art, and cannot be interpreted as having an ideal or excessively formal meaning unless explicitly defined in the present invention.

실시예의embodiment 구성 composition

이하, 첨부된 도면을 참조하여 바람직한 실시예의 구성을 상세히 설명하기로 한다. 도 1은 본 발명의 일실시예에 따른 이동로봇이 복잡지역을 통과하기 전의 상태를 나타내는 개략도이고, 도 2는 본 발명의 일실시예에 따른 이동로봇이 복잡지역을 통과할 수 있도록 경로가 확보된 상태를 나타내는 개략도이다. Hereinafter, the configuration of the preferred embodiment will be described in detail with reference to the accompanying drawings. 1 is a schematic diagram showing a state before the mobile robot passes through a complex area according to an embodiment of the present invention, and FIG. 2 is a path secured so that the mobile robot according to an embodiment of the present invention can pass through the complex area. It is a schematic diagram showing the state of being

본 발명에서 "복잡지역"이란 혼재하는 다수의 보행자가 자신만의 동선을 따라 교차 이동하는 지역을 말하고, 공항, 쇼핑센터, 공공건물, 대학, 병원 등이 될 수 있다. In the present invention, "complex area" refers to an area in which a plurality of mixed pedestrians cross-moving along their own movement lines, and may be an airport, a shopping center, a public building, a university, a hospital, or the like.

그리고, 본 발명의 이동로봇(100)은 이동형 로봇, 무인로봇차량(Unmanned Ground Vehicle, UGV), 무인운반차(Automated Guided Vehicle, AGV), 자율주행차량, 휴머노이드 로봇, 서비스 안내로봇 등을 포함하는 포괄적인 개념이다.And, the mobile robot 100 of the present invention includes a mobile robot, an unmanned ground vehicle (UGV), an unmanned guided vehicle (AGV), an autonomous vehicle, a humanoid robot, a service guide robot, etc. It is a comprehensive concept.

도 1 및 도 2에 도시된 바와 같이, 이동로봇(100)은 주어진 주행경로(200)를 이동한다. 이때, 주행경로(200)는 미리 정해진 경로일 수도 있고, 출발지와 목적지 사이의 임의 경로나 선택 경로가 될 수 있다. 1 and 2 , the mobile robot 100 moves along a given driving path 200 . In this case, the driving route 200 may be a predetermined route, or may be an arbitrary route or a selected route between a starting point and a destination.

그러나, 도 1에 도시된 바와 같이, 이동로봇(100)은 전방에 다수의 보행자(220)가 있어서 지속적인 주행을 할 수 없다. 도 2와 같이 보행자(220)가 회피(260)하여 이동로봇(200)의 전방에 확보된 경로(240)가 전개되어야 주행이 가능하다. However, as shown in FIG. 1 , the mobile robot 100 cannot continuously drive because there are a plurality of pedestrians 220 in front. As shown in FIG. 2 , the pedestrian 220 avoids 260 and the path 240 secured in front of the mobile robot 200 must be deployed to enable driving.

도 3은 본 발명의 일실시예에 따른 복잡지역에서 이동로봇의 경로 안내 장치의 개략적인 블럭도이다. 도 3에 도시된 바와 같이, 이동로봇(100)의 헤드(120)는 좌우 또는 상하로 회전 가능하고, 전방에 한쌍의 카메라(140)를 구비한다. 이러한 한쌍의 카메라(140)는 눈동자 같은 느낌을 주고 표정표시부(60)의 제어에 의해 카메라(140)가 움직임에 따라 시선방향을 나타낼 수 있다. 3 is a schematic block diagram of an apparatus for guiding a route of a mobile robot in a complex area according to an embodiment of the present invention. As shown in FIG. 3 , the head 120 of the mobile robot 100 is rotatable left and right or up and down, and includes a pair of cameras 140 in front. Such a pair of cameras 140 may give a pupil-like feeling and may indicate a gaze direction according to the movement of the camera 140 under the control of the expression display unit 60 .

근접센서(160)는 라이다, 레이더, 좁은 의미의 근접센서 등을 포함하고, 주행경로(200) 상의 장애물이나 다수의 보행자(220)를 검출할 수 있다. 이러한 근접센서(160)는 확보된 경로(240) 상에 보행자(220)가 없음을 확인하는데 사용할 수 있다. The proximity sensor 160 includes a lidar, a radar, and a proximity sensor in a narrow sense, and may detect an obstacle or a plurality of pedestrians 220 on the driving path 200 . This proximity sensor 160 may be used to confirm that there is no pedestrian 220 on the secured path 240 .

주행부(170)는 이동로봇(100)의 이동을 위한 구성요소로, 바퀴, 무한궤도, 이족, 사족의 다리가 될 수 있다. 이러한 주행부(170)는 주행경로(200) 상에서 조향, 출발, 정지 등이 가능하다. The driving unit 170 is a component for the movement of the mobile robot 100 and may be a wheel, a caterpillar, a bipedal, or a quadrupedal leg. The driving unit 170 can steer, start, stop, and the like on the driving route 200 .

디스플레이(80)는 LCD 터치 패널이 될 수 있으며, 이동로봇(100)의 동작 상태를 표시하거나 명령어를 입력받고, 방향표시부(70)의 지시에 따라 주행방향을 미리 표시할 수 있다. The display 80 may be an LCD touch panel, and may display an operation state of the mobile robot 100 or receive a command, and may display a driving direction in advance according to an instruction of the direction display unit 70 .

표정표시부(60)는 카메라(140)를 상하좌우로 회전시킬 수 있는 구성요소이고, 서보모터, 스텝핑 모터 등으로 구현될 수 있다. 표정표시부(60)는 도 5b에 도시된 바와 같이, 다양한 아이콘 표출이 가능한 도트 매트릭스 형태로 구현될 수 있다. The expression display unit 60 is a component that can rotate the camera 140 up, down, left and right, and may be implemented as a servo motor, a stepping motor, or the like. As shown in FIG. 5B , the expression display unit 60 may be implemented in a dot matrix form in which various icons can be displayed.

제어부(50)는 표정표시부(60), 방향표시부(70), 카메라(140), 주행부(170), 근접센서(160), 디스플레이(80)와 연결되고, 마이컴, CPU(중앙제어장치) 등이 될 수 있다. 제어부(50)내에는 보행자를 인식하기 위한 인식수단의 프로그램과 경로에 관한 맵(Map)과 네비게이션 프로그램이 설치되고, 실행된다. The control unit 50 is connected to the expression display unit 60 , the direction display unit 70 , the camera 140 , the driving unit 170 , the proximity sensor 160 , the display 80 , and a microcomputer, CPU (central control unit) etc. can be In the control unit 50, a program of recognition means for recognizing a pedestrian, a map related to a route, and a navigation program are installed and executed.

실시예의embodiment 동작 movement

이하, 첨부된 도면을 참조하여 바람직한 실시예의 동작을 상세히 설명하기로 한다. 도 4는 본 발명의 일실시예에 따른 복잡지역에서 이동로봇의 경로 안내 방법을 흐름도이고, 도 5a는 본 발명의 제 1 실시예에 따른 표정표시부(60)와 방향표시부(70)의 일예이고, 도 5b는 본 발명의 제 2 실시예에 따른 표정표시부(60)와 방향표시부(70)의 일예이다. Hereinafter, the operation of the preferred embodiment will be described in detail with reference to the accompanying drawings. 4 is a flowchart illustrating a method for guiding a route of a mobile robot in a complex area according to an embodiment of the present invention, and FIG. 5A is an example of the expression display unit 60 and the direction display unit 70 according to the first embodiment of the present invention. , Figure 5b is an example of the expression display unit 60 and the direction display unit 70 according to the second embodiment of the present invention.

도 4에 도시된 바와 같이, 먼저 이동로봇(100)이 주행경로(200)를 따라 주행중, 인식수단이 주행경로(200) 상에서 복수의 보행자(220)를 인식한다(S100). 인식수단은 카메라(140)의 촬영된 영상이 제어부(50)에서 보행자(220)를 독출해 내거나, 근접센서(160)의 검출신호가 제어부(50)로 전송되어 이루어진다. As shown in FIG. 4 , while the mobile robot 100 is driving along the driving path 200 , the recognition means recognizes the plurality of pedestrians 220 on the driving path 200 ( S100 ). The recognition means is made by reading the image captured by the camera 140 to the controller 50 to read the pedestrian 220 , or by transmitting a detection signal of the proximity sensor 160 to the controller 50 .

그리고, 제어부(50)는 카메라(140)가 촬영한 영상으로부터 보행자(220)의 위치 및 숫자를 인식하고, 보행자(220)의 숫자가 기준치 이상(예 : 3인 이상)인 경우 복잡지역으로 판단한다. Then, the controller 50 recognizes the position and number of the pedestrian 220 from the image captured by the camera 140, and if the number of the pedestrian 220 is equal to or greater than a reference value (eg, 3 or more), it is determined as a complex area. do.

그 다음, 인식수단의 인식결과에 기초하여, 방향표시부(70)가 주행경로(200) 상에서 보행자(220)에게 이동로봇(100)의 주행 방향을 표시한다(S120).Then, based on the recognition result of the recognition means, the direction display unit 70 displays the driving direction of the mobile robot 100 to the pedestrian 220 on the driving route 200 (S120).

예를 들어, 도 5a는 주행방향이 왼쪽 방향인 경우의 일예이다. 도 5a에 도시된 바와 같이, 표정표시부(60)는 카메라(140)를 왼쪽으로 편향시켜 눈동자가 왼쪽을 가르키는 것처럼 연출할 수 있다. 또한, 방향표시부(70)는 디스플레이(80) 상에서 왼쪽 화살표를 표시하여 이동로봇(100)이 왼쪽으로 움직일 것이라는 것을 직관적으로 안내할 수 있다.For example, FIG. 5A is an example of a case in which the traveling direction is a left direction. As shown in FIG. 5A , the expression display unit 60 may deflect the camera 140 to the left to produce as if the pupils point to the left. Also, the direction display unit 70 may display a left arrow on the display 80 to intuitively guide that the mobile robot 100 will move to the left.

도 5b는 주행방향이 오른쪽 방향인 경우의 일예이다. 도 5b에 도시된 바와 같이, 표정표시부(60)는 다양한 아이콘(예 : ^^, > <, @.@, < <, > >, 등)을 표시할 수 있는 도트 매트릭스가 될 수 있다. 표정표시부(60)는 친근한 인상, 미안한 인상, 조심하라는 인상, 위험하다는 인상 등을 표시할 수 있다. 또한, 방향표시부(70)는 디스플레이(80) 상에서 오른쪽 화살표를 표시하여 이동로봇(100)이 오른쪽으로 움직일 것이라는 것을 직관적으로 안내할 수 있다.5B is an example of a case in which the traveling direction is a right direction. As shown in FIG. 5B , the expression display unit 60 may be a dot matrix capable of displaying various icons (eg, ^^, > <, @.@, < <, > >, etc.). The expression display unit 60 may display a friendly impression, a sorry impression, an impression to be careful, an impression that it is dangerous, and the like. Also, the direction display unit 70 may display a right arrow on the display 80 to intuitively guide that the mobile robot 100 will move to the right.

주행 방향의 표시단계(S120)와 동시에, 제어부(50)는 스피커(90)를 통해 주행 방향에 관해 미리 녹음된 안내 음성(예 : 직진합니다. 왼쪽으로 비켜갑니다. 오른쪽으로 회전합니다 등)을 출력한다(S125).Simultaneously with the driving direction display step (S120), the control unit 50 outputs a pre-recorded guidance voice regarding the driving direction through the speaker 90 (eg, go straight, move left, turn right, etc.) do (S125).

그 다음, 간헐주행부는 주행부(170)를 제어하여 주행 방향으로 간헐 주행을 한다(S140). 간헐주행이란 주행경로(200) 상에서 소정 시간(예 : 1초 ~ 5초)동안 또는 소정 거리(10cm ~ 50cm)에 대해 가다 서다를 반복하여 멈칫멈칫 주행하는 방식을 나타낸다. 간헐주행은 제어부(50)가 소정의 간헐주행 패턴을 주행부(170)에 지령함으로써 구현될 수 있다. 이러한 간헐주행은 전방의 보행자(220)에 대해 회피를 유도하는 효과가 있다. 즉, 다수의 보행자(220)들은 이동로봇(100)의 간헐 주행을 통해 길을 비켜주어야겠다는 인식을 갖게 된다. Then, the intermittent driving unit controls the driving unit 170 to perform intermittent driving in the driving direction (S140). Intermittent driving refers to a method of stopping and driving while repeatedly standing on the travel route 200 for a predetermined time (eg, 1 second to 5 seconds) or for a predetermined distance (10 cm to 50 cm). Intermittent running may be implemented by the control unit 50 instructing the running unit 170 with a predetermined intermittent running pattern. Such intermittent driving has an effect of inducing avoidance of the pedestrian 220 in front. That is, the plurality of pedestrians 220 have the recognition that they should get out of the way through the intermittent driving of the mobile robot 100 .

간헐주행을 통해 전방에 경로가 확보(240)되면, 주행부(170)가 주행경로(200)를 따라 주행을 한다(S160). 확보된 경로(240)를 따라 주행중 또 다시 보행자(220)를 만나는 경우 앞서 설명한 단계를 반복 수행하여 경로를 확보하게 된다. When the forward path is secured 240 through intermittent driving, the driving unit 170 travels along the driving path 200 (S160). When the pedestrian 220 is met again while driving along the secured path 240 , the above-described steps are repeated to secure the path.

상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.The detailed description of the preferred embodiments of the present invention disclosed as described above is provided to enable any person skilled in the art to make and practice the present invention. Although the above has been described with reference to preferred embodiments of the present invention, it will be understood by those skilled in the art that various modifications and changes can be made to the present invention without departing from the scope of the present invention. For example, those skilled in the art can use each configuration described in the above-described embodiments in a way in combination with each other. Accordingly, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present invention may be embodied in other specific forms without departing from the spirit and essential characteristics of the present invention. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention. The present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein. In addition, claims that are not explicitly cited in the claims may be combined to form an embodiment, or may be included as new claims by amendment after filing.

50 : 제어부,
60 : 표정표시부,
70 : 방향표시부,
80 : 디스플레이,
85 : 화살표,
90 : 스피커,
100 : 이동로봇,
120 : 헤드,
140 : 카메라,
160 : 근접센서,
170 : 주행부,
180 : 시선방향,
200 : 주행경로,
220 : 보행자,
240 : 확보된 경로,
260 : 보행자 회피방향.
50: control unit;
60: expression display unit,
70: direction display unit,
80: display;
85: arrow,
90: speaker,
100: mobile robot,
120: head,
140: camera,
160: proximity sensor,
170: driving part,
180: gaze direction,
200: driving route,
220: pedestrian;
240: secured path,
260: pedestrian avoidance direction.

Claims (11)

주행경로(200)를 따라 주행가능한 이동로봇(100)에 탑재되고, 상기 주행경로(200) 상의 보행자(220)의 위치와 숫자를 인식하는 인식수단;
상기 인식수단이 인식한 상기 보행자(220)의 숫자가 기준치 이상인 경우 복잡지역으로 판단하여, 상기 주행경로(200) 상에서 상기 보행자(220)에게 상기 이동로봇(100)의 주행 방향을 표시하는 방향표시부(70);
상기 주행 방향에 대해 50cm 이내의 범위에서 간헐적으로 왕복 주행을 하는 간헐주행부; 및
상기 인식수단의 인식 결과에 기초하여 상기 방향표시부(70)가 상기 주행 방향을 표시할 때, 상기 주행방향과 연관되어 미리 내정된 표정을 표시할 수 있는 표정표시부(60);를 포함하여, 상기 보행자(220)가 상기 주행방향과 상기 표정을 보고 회피함으로써 상기 주행경로(200)가 확보될 수 있도록 하는 것을 특징으로 하는 복잡지역에서 이동로봇의 경로 안내 장치.
Recognition means mounted on the mobile robot 100 capable of running along the driving path 200 and recognizing the position and number of the pedestrian 220 on the driving path 200;
When the number of pedestrians 220 recognized by the recognition means is greater than or equal to a reference value, it is determined as a complex area, and a direction display unit that displays the driving direction of the mobile robot 100 to the pedestrian 220 on the driving route 200 (70);
An intermittent running unit that intermittently reciprocates within a range of 50 cm with respect to the running direction; and
When the direction display unit 70 displays the driving direction based on the recognition result of the recognition means, the facial expression display unit 60 is associated with the driving direction and can display a preset facial expression. A path guidance device for a mobile robot in a complex area, characterized in that the pedestrian 220 sees and avoids the driving direction and the expression so that the driving path 200 can be secured.
삭제delete 제 1 항에 있어서,
상기 주행 방향에 관한 안내 음성을 출력하는 스피커(90)를 더 포함하는 것을 특징으로 하는 복잡지역에서 이동로봇의 경로 안내 장치.
The method of claim 1,
The apparatus for guiding a route of a mobile robot in a complex area, characterized in that it further comprises a speaker (90) for outputting a guide voice regarding the driving direction.
삭제delete 삭제delete 삭제delete 이동로봇(100)이 주행경로(200)를 따라 주행중, 인식수단이 상기 주행경로(200) 상에서 복수의 보행자(220)를 인식하고, 상기 보행자(220)의 숫자가 기준치 이상인 경우 복잡지역으로 판단하는 단계(S100);
상기 인식수단의 인식결과에 기초하여, 방향표시부(70)가 상기 주행경로(200) 상에서 상기 보행자(220)에게 상기 이동로봇(100)의 주행 방향을 표시하는 단계(S120);
간헐주행부가 소정시간동안 상기 주행 방향에 대해 50cm 이내의 범위에서 간헐적으로 왕복 주행하는 단계(S140); 및
주행부(170)가 상기 주행경로(200)를 따라 주행하는 단계(S160);를 포함하고,
상기 주행 방향의 표시단계(S120)는, 상기 인식수단의 인식 결과에 기초하여 상기 방향표시부(70)가 상기 주행 방향을 표시할 때, 표정표시부(60)가 상기 주행 방향과 연관되어 미리 내정된 표정을 표시함으로써, 상기 보행자(220)가 상기 주행방향과 상기 표정을 보고 회피함으로써 상기 주행경로(200)가 확보될 수 있는 것을 특징으로 하는 복잡지역에서 이동로봇의 경로 안내 방법.
While the mobile robot 100 is driving along the driving path 200, the recognition means recognizes a plurality of pedestrians 220 on the driving path 200, and if the number of pedestrians 220 is greater than or equal to a reference value, it is determined as a complex area to (S100);
based on the recognition result of the recognition means, displaying, by the direction display unit 70, the driving direction of the mobile robot 100 to the pedestrian 220 on the driving route 200 (S120);
The intermittent driving unit intermittently reciprocates within a range of 50 cm in the driving direction for a predetermined time (S140); and
Including; step (S160) of the driving unit 170 traveling along the driving path 200;
In the displaying step (S120) of the driving direction, when the direction display unit 70 displays the driving direction based on the recognition result of the recognition means, the expression display unit 60 is associated with the driving direction and is preset in advance. A method for guiding a route of a mobile robot in a complex area, characterized in that by displaying a facial expression, the driving route 200 can be secured by the pedestrian 220 seeing and avoiding the driving direction and the facial expression.
삭제delete 제 7 항에 있어서,
상기 주행 방향의 표시단계(S120)는, 스피커(90)가 상기 주행 방향에 관한 안내 음성을 출력하는 단계(S125)를 더 포함하는 것을 특징으로 하는 복잡지역에서 이동로봇의 경로 안내 방법.

8. The method of claim 7,
The method for guiding a route of a mobile robot in a complex area, characterized in that the displaying step (S120) of the driving direction further includes the step (S125) of the speaker (90) outputting a guide voice about the driving direction.

삭제delete 삭제delete
KR1020200020742A 2020-02-20 2020-02-20 Mobile robot path guide device in complex area and method thereof KR102358484B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200020742A KR102358484B1 (en) 2020-02-20 2020-02-20 Mobile robot path guide device in complex area and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200020742A KR102358484B1 (en) 2020-02-20 2020-02-20 Mobile robot path guide device in complex area and method thereof

Publications (2)

Publication Number Publication Date
KR20210106078A KR20210106078A (en) 2021-08-30
KR102358484B1 true KR102358484B1 (en) 2022-02-04

Family

ID=77502034

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200020742A KR102358484B1 (en) 2020-02-20 2020-02-20 Mobile robot path guide device in complex area and method thereof

Country Status (1)

Country Link
KR (1) KR102358484B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024005618A1 (en) * 2022-07-01 2024-01-04 엘지전자 주식회사 Unmanned ground-traveling robot traveling and passing method for ensuring pedestrian traffic priority on public road

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334765A (en) * 2006-06-16 2007-12-27 Toyota Motor Corp Remote control device
JP2010055496A (en) * 2008-08-29 2010-03-11 Hitachi Ltd Autonomous mobile device and avoidance direction display method for autonomous mobile device
JP2020010771A (en) * 2018-07-13 2020-01-23 本田技研工業株式会社 Communication device and method of operating communication device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100670565B1 (en) 2004-04-01 2007-01-18 재단법인서울대학교산학협력재단 Method for Avoiding Collision of Multiple Robots by Using Extended Collision Map, and Storage Medium Readable by Computer Recording the Method
KR20120054879A (en) 2010-11-22 2012-05-31 고려대학교 산학협력단 Method for planing collision avoidance path of car-like mobile robot and parking assist system using the same
KR102635529B1 (en) * 2016-10-10 2024-02-13 엘지전자 주식회사 Robot for airport and method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334765A (en) * 2006-06-16 2007-12-27 Toyota Motor Corp Remote control device
JP2010055496A (en) * 2008-08-29 2010-03-11 Hitachi Ltd Autonomous mobile device and avoidance direction display method for autonomous mobile device
JP2020010771A (en) * 2018-07-13 2020-01-23 本田技研工業株式会社 Communication device and method of operating communication device

Also Published As

Publication number Publication date
KR20210106078A (en) 2021-08-30

Similar Documents

Publication Publication Date Title
JP6368574B2 (en) Vehicle control device
WO2015060354A1 (en) Automatic parking control device, and parking assist device
US9164507B2 (en) Systems and methods for modeling driving behavior of vehicles
CN107636546B (en) Autonomous moving system
US20180276986A1 (en) Vehicle-to-human communication in an autonomous vehicle operation
EP1334871B1 (en) Movable body safety system and movable body operation support method
JP6613795B2 (en) Display control device and vehicle control device
WO2016098238A1 (en) Travel control device
CA3015338A1 (en) Intention signaling for an autonomous vehicle
EP3693230B1 (en) Parking control method and parking control device
JP7117183B2 (en) vehicle controller
RU2740111C1 (en) Parking control method and parking control device
JP6654118B2 (en) Self-driving vehicle
WO2013024523A1 (en) Parking assistance device
JP2007257519A (en) Vehicular travel support device
JP2018034541A (en) Parking support method and parking support apparatus
CN113365894A (en) Vehicle travel control method and travel control device
CN111613093B (en) Optical projection auxiliary parking and warehousing system and implementation method
KR102358484B1 (en) Mobile robot path guide device in complex area and method thereof
JP2012153324A (en) Track calculation device
JP6299401B2 (en) Parking assistance device and parking assistance method
JP2015214222A (en) Parking assist system and parking assist method
JP7271571B2 (en) Vehicle travel control method and vehicle travel control device during parking
CN109109855A (en) Method and apparatus for making vehicle drive into parking stall automatically
JP7081148B2 (en) Parking control method and parking control device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant