KR20210070153A - Robot - Google Patents

Robot Download PDF

Info

Publication number
KR20210070153A
KR20210070153A KR1020190175822A KR20190175822A KR20210070153A KR 20210070153 A KR20210070153 A KR 20210070153A KR 1020190175822 A KR1020190175822 A KR 1020190175822A KR 20190175822 A KR20190175822 A KR 20190175822A KR 20210070153 A KR20210070153 A KR 20210070153A
Authority
KR
South Korea
Prior art keywords
sensor
ultrasonic
robot
sensors
housing
Prior art date
Application number
KR1020190175822A
Other languages
Korean (ko)
Inventor
박영화
진대근
김선욱
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20210070153A publication Critical patent/KR20210070153A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

A robot according to an embodiment of the present invention comprises a body provided with a driving wheel; and a plurality of ultrasonic sensors spaced apart from each other along the circumference of the body. A plurality of ultrasonic sensors may include: first and second front sensors that are spaced apart from one another and transmit and receive ultrasonic waves, respectively; first and second left sensors facing each other in a left direction or a direction inclined to the front left and adjacent to each other, wherein one of the first and second left sensors transmits an ultrasonic wave and the other receives the ultrasonic wave; first and second right sensors facing to the right or in a direction inclined to the front right and adjacent to each other, wherein one of the first and second right sensors transmits an ultrasonic wave and the other one receives the ultrasonic wave.

Description

로봇{ROBOT}robot {ROBOT}

본 발명은 초음파 센서를 포함하는 로봇에 관한 것이다.The present invention relates to a robot comprising an ultrasonic sensor.

공장 자동화의 일 부분을 담당하기 위해, 로봇은 산업용으로 개발되어 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되고 있는바, 의료용 로봇과 우주 항공용 로봇뿐만 아니라 일상 생활에서 사용될 수 있는 로봇도 개발되고 있다.To take on a part of factory automation, robots have been developed for industrial use. Recently, the field of application of robots has been further expanded, and robots that can be used in daily life as well as medical robots and aerospace robots are being developed.

이러한 일상 생활용 로봇은 사용자의 명령에 응답하여 특정 서비스(예를 들어, 쇼핑, 서빙, 대화, 청소 등)를 제공한다.These daily life robots provide specific services (eg, shopping, serving, chatting, cleaning, etc.) in response to a user's command.

특히, 주행이 가능한 로봇(예를 들어, 로봇 청소기)은 자율 주행을 원활하게 수행하기 위해 라이다 및 초음파 센서 등과 같은 다수의 센서를 포함한다.In particular, a driving robot (eg, a robot cleaner) includes a plurality of sensors such as lidar and ultrasonic sensors to smoothly perform autonomous driving.

이와 관련된 선행 문헌 1(KR 10-2004-0063556A)에는 인접한 초음파 센서의 간섭을 방지하기 위해 교대로 송수신 역할을 바꾸는 방법이 개시된다. 다만, 모든 초음파 센서가 송신/수신이 분리된 인다이렉트(indirect) 방식으로 운용되므로, 필요한 초음파 센서의 개수가 지나치게 많아지는 문제점이 있었다.Prior Document 1 (KR 10-2004-0063556A) related thereto discloses a method of alternately changing transmission/reception roles in order to prevent interference of adjacent ultrasonic sensors. However, since all ultrasonic sensors operate in an indirect method in which transmission/reception are separated, there is a problem in that the number of necessary ultrasonic sensors is excessively increased.

선행 문헌 2(KR 10-2004-0057112A)에는 인접한 초음파 센서로 인한 신호 간섭을 방지하기 위해 모든 센서에 일정한 깊이의 홈을 설치한 구성이 개시된다. 다만, 모든 초음파 센서가 송신/수신이 분리된 인다이렉트(indirect) 방식으로 운용되는 상태에서는 상기 홈에 의해 감지 사각지대가 발생할 수 있는 문제점이 있다.Prior Document 2 (KR 10-2004-0057112A) discloses a configuration in which grooves of a certain depth are installed in all sensors in order to prevent signal interference caused by adjacent ultrasonic sensors. However, there is a problem that a detection blind spot may occur due to the groove in a state in which all ultrasonic sensors are operated in an indirect method in which transmission/reception is separated.

KR 10-2004-0063556A (2004.07.14. 공개)KR 10-2004-0063556A (2004.07.14. Disclosure) KR 10-2004-0057112A (2004.07.02. 공개)KR 10-2004-0057112A (2004.07.02. Disclosure)

본 발명이 해결하고자 하는 일 과제는, 상대적으로 적은 개수의 초음파 센서로 기존과 동일한 감지 범위를 커버할 수 있는 로봇을 제공하는 것이다.One problem to be solved by the present invention is to provide a robot capable of covering the same detection range as the conventional one with a relatively small number of ultrasonic sensors.

본 발명이 해결하고자 하는 다른 과제는, 서로 이웃한 초음파 센서의 간섭을 방지하면서도 사각지대를 최소화하는 로봇을 제공하는 것이다.Another object to be solved by the present invention is to provide a robot that minimizes blind spots while preventing interference of neighboring ultrasonic sensors.

본 발명의 실시예에 따른 로봇은, 프론트 센서는 각각 초음파의 송수신이 동시에 이뤄지는 다이렉트 방식으로 동작하고, 측방 또는 전방과 측방 사이의 일 방향을 향하는 한 쌍의 레프트 센서 및 한 쌍의 라이트 센서는 각각 초음파의 송신과 수신이 분리된 인다이렉트 방식으로 동작한다.In the robot according to an embodiment of the present invention, each of the front sensors operates in a direct manner in which transmission and reception of ultrasonic waves are simultaneously performed, and a pair of left sensors and a pair of light sensors directed to the side or one direction between the front and the side are each Transmission and reception of ultrasonic waves operate in a separate indirect manner.

좀 더 상세히, 본 발명의 실시예에 따른 로봇은, 주행휠이 구비된 본체; 및 상기 본체의 둘레를 따라 서로 이격된 복수개의 초음파 센서를 포함할 수 있다. 상기 복수개의 초음파 센서는, 각각 초음파를 송수신하며 좌우로 이격된 제1,2프론트 센서; 좌측 방향 또는 전방 좌측으로 경사진 방향을 향하고 서로 이웃하며 어느 하나는 초음파를 송신하고 다른 하나는 초음파를 수신하는 제1,2레프트 센서; 및 우측 방향 또는 전방 우측으로 경사진 방향을 향하고 서로 이웃하며 어느 하나는 초음파를 송신하고 다른 하나는 초음파를 수신하는 제1,2라이트 센서를 포함할 수 있다.In more detail, a robot according to an embodiment of the present invention includes a main body provided with a traveling wheel; and a plurality of ultrasonic sensors spaced apart from each other along the circumference of the main body. The plurality of ultrasonic sensors may include first and second front sensors that transmit and receive ultrasonic waves, respectively, and are spaced apart from one another; first and second left sensors facing each other in a left direction or an inclined direction to the front left and adjacent to each other, one of which transmits an ultrasonic wave and the other receives the ultrasonic wave; and first and second light sensors that are directed in a right direction or a direction inclined to the front right and are adjacent to each other, one of which transmits an ultrasonic wave and the other one receives the ultrasonic wave.

상기 제1레프트 센서는 상기 제1프론트 센서와 이웃하고, 상기 제1라이트 센서는 상기 제2프론트 센서와 이웃할 수 있다.The first left sensor may be adjacent to the first front sensor, and the first light sensor may be adjacent to the second front sensor.

상기 제1프론트 센서는 상기 본체의 좌측으로 편심되고 상기 제2프론트 센서는 상기 본체의 우측으로 편심될 수 있다.The first front sensor may be eccentric to the left side of the main body and the second front sensor may be eccentric to the right side of the main body.

상기 로봇은, 상기 제1프론트 센서 및 제2프론트 센서를 기설정된 시간 간격에 따라 택일적으로 구동시키는 프로세서를 더 포함할 수 있다.The robot may further include a processor for selectively driving the first front sensor and the second front sensor according to a preset time interval.

상기 로봇은, 기설정된 시간 간격에 따라, 상기 제1레프트 센서와 상기 제2레프트 센서의 초음파 송수신을 서로 스위칭하고, 상기 제1라이트 센서와 상기 제2라이트 센서의 초음파 송수신을 서로 스위칭하는 프로세서를 더 포함할 수 있다.The robot includes a processor that switches ultrasonic transmission and reception of the first left sensor and the second left sensor with each other, and the ultrasonic transmission/reception of the first light sensor and the second light sensor according to a preset time interval. may include more.

상기 프로세서는 상기 제1프론트 센서가 구동되면, 상기 제1프론트 센서와 이웃한 상기 제1레프트 센서에서 초음파를 송신시키며 상기 제2레프트 센서에서 초음파를 수신시킬 수 있다. 상기 프로세서는 상기 제2프론트 센서가 구동되면, 상기 제2프론트 센서와 이웃한 상기 제1라이트 센서에서 초음파를 송신시키며 상기 제2라이트 센서에서 초음파를 수신시킬 수 있다.When the first front sensor is driven, the processor may transmit an ultrasonic wave from the first left sensor adjacent to the first front sensor and receive the ultrasonic wave from the second left sensor. When the second front sensor is driven, the processor may transmit an ultrasonic wave from the first light sensor adjacent to the second front sensor and receive the ultrasonic wave from the second light sensor.

상기 프로세서는, 상기 제1프론트 센서가 구동되면, 상기 제2라이트 센서에서 초음파를 송신시키며 상기 제1라이트 센서에서 초음파를 수신시키고 상기 제2프론트 센서가 구동되면, 상기 제2레프트 센서에서 초음파를 송신시키며 상기 제1레프트 센서에서 초음파를 수신시킬 수 있다.When the first front sensor is driven, the processor transmits ultrasonic waves from the second light sensor, receives ultrasonic waves from the first light sensor, and generates ultrasonic waves from the second left sensor when the second front sensor is driven and transmit the ultrasonic wave from the first left sensor.

상기 복수개의 초음파 센서는 상기 본체의 외둘레면에 대해 내측으로 소정의 단차 거리만큼 단차지게 배치되고, 상기 제1레프트 센서 및 제1라이트 센서의 각 단차 거리는 상기 제1프론트 센서의 단차 거리 및 제2프론트 센서의 단차 거리보다 멀 수 있다.The plurality of ultrasonic sensors are disposed to be stepped by a predetermined step distance inward with respect to the outer circumferential surface of the main body, and each step distance between the first left sensor and the first light sensor is the step distance of the first front sensor and the second step distance. It may be farther than the step distance of the 2 front sensor.

상기 제2레프트 센서 및 제2라이트 센서의 각 단차 거리는 상기 제1프론트 센서의 단차 거리 및 제2프론트 센서의 단차 거리와 동일할 수 있다.The step distance between the second left sensor and the second light sensor may be the same as the step distance of the first front sensor and the step distance of the second front sensor.

상기 제1레프트 센서 및 제1라이트 센서의 각 단차 거리는 3mm 내지 5mm일 수 있다.Each step distance between the first left sensor and the first light sensor may be 3 mm to 5 mm.

상기 본체의 둘레면에는 상기 복수개의 초음파 센서가 배치된 복수개의 개구가 형성되고, 상기 제1레프트 센서 및 제1라이트 센서가 배치된 개구는 외측으로 갈수록 직경이 커지도록 테이퍼질 수 있다.A plurality of openings in which the plurality of ultrasonic sensors are disposed may be formed on a circumferential surface of the main body, and the openings in which the first left sensor and the first light sensor are disposed may be tapered to increase in diameter toward the outside.

상기 제1프론트 센서 및 제2프론트 센서는 좌우로 대칭되게 배치되고, 상기 제1레프트 센서 및 제1라이트 센서는 좌우로 대칭되게 배치되고, 상기 제2레프트 센서 및 제2라이트 센서는 좌우로 대칭되게 배치될 수 있다. The first front sensor and the second front sensor are symmetrically arranged left and right, the first left sensor and the first light sensor are symmetrically arranged left and right, and the second left sensor and the second light sensor are symmetrical left and right. can be placed so

상기 본체의 중심을 기준으로, 상기 제1프론트 센서와 상기 제1레프트 센서 사이의 각도는 상기 제1레프트 센서와 상기 제2레프트 센서 사이의 각도보다 크고, 상기 제2프론트 센서와 상기 제1라이트 센서 사이의 각도는 상기 제1라이트 센서와 상기 제2라이트 센서 사이의 각도보다 클 수 있다.Based on the center of the body, the angle between the first front sensor and the first left sensor is greater than the angle between the first left sensor and the second left sensor, and the second front sensor and the first light An angle between the sensors may be greater than an angle between the first light sensor and the second light sensor.

상기 복수개의 초음파 센서는, 좌우방향에 대해 상기 본체의 중심에 위치하며 후방을 향하는 리어 센서; 상기 본체의 좌측으로 편심되고 상기 리어 센서와 이웃하며 후방 좌측으로 경사진 방향을 향하는 제3레프트 센서; 및 상기 본체의 우측으로 편심되고 상기 리어 센서와 이웃하며 후방 우측으로 경사진 방향을 향하는 제3라이트 센서를 더 포함할 수 있다.The plurality of ultrasonic sensors may include: a rear sensor positioned at the center of the main body in a left and right direction and facing rearward; a third left sensor eccentric to the left side of the main body, adjacent to the rear sensor, and inclined toward the rear left; and a third light sensor eccentric to the right side of the main body, adjacent to the rear sensor, and inclined in a rear right direction.

상기 제3레프트 센서와 상기 제3라이트 센서는 좌우로 대칭되게 배치될 수 있다.The third left sensor and the third light sensor may be symmetrically disposed left and right.

상기 본체의 중심을 좌우로 가로지르는 가상의 기준면과 상기 제2레프트 센서 사이의 전후 거리는, 상기 기준면과 상기 제3레프트 센서 사이의 전후 거리보다 가까울 수 있다. 상기 기준면과 상기 제2라이트 센서 사이의 전후 거리는 상기 기준면과 상기 제3라이트 센서 사이의 전후 거리보다 가까울 수 있다.The front-back distance between the second left sensor and the virtual reference plane crossing the center of the main body left and right may be closer than the front-back distance between the reference plane and the third left sensor. A front-back distance between the reference plane and the second light sensor may be closer than a front-back distance between the reference plane and the third light sensor.

상기 리어 센서는 전후 방향으로 상기 제1,2프론트 센서와 비대칭되게 배치되고, 상기 제3레프트 센서는 전후 방향으로 상기 제1,2레프트 센서와 비대칭되게 배치되고, 상기 제3라이트 센서는 전후 방향으로 상기 제1,2라이트 센서와 비대칭되게 배치될 수 있다.The rear sensor is disposed asymmetrically with the first and second front sensors in the front-rear direction, the third left sensor is disposed asymmetrically with the first and second left sensors in the front-rear direction, and the third light sensor is disposed in the front-rear direction As a result, the first and second light sensors may be asymmetrically disposed.

상기 제1프론트 센서는 전방 또는 전방 좌측으로 경사진 방향을 향하고, 상기 제2프론트 센서는 전방 또는 전방 우측으로 경사진 방향을 향할 수 있다.The first front sensor may face a direction inclined forward or front left, and the second front sensor may face a direction inclined forward or front right.

본 발명의 실시예에 따른 로봇은, 하우징; 상기 하우징의 둘레를 따라 서로 이격된 복수개의 개구; 및 상기 복수개의 개구를 통해 상기 하우징의 외부를 향하며 상기 하우징의 외둘레면에 대해 내측으로 소정의 단차거리만큼 단차지게 배치된 복수개의 초음파 센서를 포함할 수 있다. 상기 복수개의 초음파 센서는, 초음파를 송신 및 수신하는 프론트 센서; 상기 프론트 센서와 이웃하고 초음파를 송신 또는 수신하는 제1사이드 센서; 상기 제1사이드 센서와 이웃하고 상기 제1사이드 센서에서 송신된 초음파를 수신하거나 상기 제1사이드 센서에서 수신되는 초음파를 송신하는 제2사이드 센서를 포함할 수 있다. 상기 제1사이드 센서의 단차 거리는 상기 프론트 센서의 단차 거리 및 상기 제2사이드 센서의 단차 거리보다 멀 수 있다.A robot according to an embodiment of the present invention includes a housing; a plurality of openings spaced apart from each other along the periphery of the housing; and a plurality of ultrasonic sensors facing the outside of the housing through the plurality of openings and disposed to be stepped by a predetermined step distance inward with respect to the outer circumferential surface of the housing. The plurality of ultrasonic sensors may include: a front sensor for transmitting and receiving ultrasonic waves; a first side sensor adjacent to the front sensor and transmitting or receiving ultrasonic waves; and a second side sensor adjacent to the first side sensor and configured to receive an ultrasonic wave transmitted from the first side sensor or transmit an ultrasonic wave received from the first side sensor. The step distance of the first side sensor may be greater than the step distance of the front sensor and the step distance of the second side sensor.

상기 제1사이드 센서의 단차 거리는 3mm 내지 5mm일 수 있다.The step distance of the first side sensor may be 3 mm to 5 mm.

상기 복수개의 개구 중 상기 제1사이드 센서가 배치된 개구는 외측으로 갈수록 직경이 커지도록 테이퍼질 수 있다.Among the plurality of openings, the opening in which the first side sensor is disposed may be tapered to increase in diameter toward the outside.

상기 프론트 센서는 전방 또는 전방과 측방 사이의 경사 방향을 향하고, 상기 제1사이드 센서 및 제2사이드 센서는 측방을 향하거나, 측방과 전방 사이의 경사 방향을 향할 수 있다.The front sensor may face a front or an oblique direction between the front and the side, and the first side sensor and the second side sensor may face a side or an oblique direction between the side and the front.

상기 로봇은, 기설정된 시간 간격에 따라 상기 프론트 센서를 온오프시키고 상기 제1사이드 센서 및 제2사이드 센서의 초음파 송수신을 스위칭시키는 프로세서를 더 포함할 수 있다.The robot may further include a processor that turns on/off the front sensor according to a preset time interval and switches transmission/reception of ultrasonic waves between the first side sensor and the second side sensor.

상기 프로세서는, 상기 프론트 센서가 온 되면 상기 제1사이드 센서에서 초음파를 송신시키며 상기 제2사이드 센서에서 초음파를 수신시키고, 상기 프론트 센서가 오프 되면 상기 제2사이드 센서에서 초음파를 송신시키며 상기 제1사이드 센서에서 초음파를 수신시킬 수 있다.The processor transmits ultrasonic waves from the first side sensor and receives ultrasonic waves from the second side sensor when the front sensor is turned on, and transmits ultrasonic waves from the second side sensor when the front sensor is turned off. Ultrasound can be received from the side sensor.

상기 하우징의 중심을 기준으로, 상기 하우징의 중심을 전후로 가로지르는 가상의 기준면과 상기 프론트 센서 사이의 각도는 26도 이하이고, 상기 기준면과 상기 제1사이드 센서 사이의 각도는 26도 내지 50도이고, 상기 기준면과 상기 제2사이드 센서 사이의 각도는 50도 내지 71도일 수 있다.Based on the center of the housing, the angle between the front sensor and the imaginary reference plane crossing the center of the housing back and forth is 26 degrees or less, and the angle between the reference plane and the first side sensor is 26 degrees to 50 degrees, , the angle between the reference plane and the second side sensor may be 50 degrees to 71 degrees.

상기 하우징의 중심을 기준으로, 상기 프론트 센서와 상기 제1사이드 센서 사이의 각도는 상기 제1사이드 센서와 상기 제2사이드 센서 사이의 각도보다 클 수 있다.With respect to the center of the housing, an angle between the front sensor and the first side sensor may be greater than an angle between the first side sensor and the second side sensor.

상기 하우징의 중심을 기준으로, 상기 프론트 센서와 상기 제2사이드 센서 사이의 각도는, 상기 제1사이드 센서와 상기 제2사이드 센서 사이의 각도 및 상기 프론트 센서와 상기 제1사이드 센서 사이의 각도보다 클 수 있다.Based on the center of the housing, the angle between the front sensor and the second side sensor is greater than the angle between the first side sensor and the second side sensor and between the front sensor and the first side sensor. can be large

상기 복수개의 초음파 센서는, 좌우방향에 대해 상기 하우징의 중앙에 위치하며 후방을 향하는 리어 센서; 및 상기 리어 센서와 이웃하고 측방과 후방 사이의 일 방향을 향하는 제3사이드 센서를 더 포함할 수 있다.The plurality of ultrasonic sensors may include: a rear sensor positioned at the center of the housing in a left and right direction and facing rearward; and a third side sensor adjacent to the rear sensor and facing in one direction between the side and the rear.

상기 하우징의 중심을 좌우로 가로지르는 가상의 기준면과 상기 제2사이드 센서 사이의 전후 거리는, 상기 기준면과 상기 제3사이드 센서 사이의 전후 거리보다 가까울 수 있다.A front-back distance between the second side sensor and a virtual reference plane crossing the center of the housing from side to side may be closer than a front-back distance between the reference plane and the third side sensor.

상기 리어 센서는 전후 방향으로 상기 프론트 센서와 비대칭되게 배치되고, 상기 제3사이드 센서는 전후 방향으로 상기 제1,2사이드 센서와 비대칭되게 배치될 수 있다.The rear sensor may be asymmetrically disposed with the front sensor in a front/rear direction, and the third side sensor may be disposed asymmetrically with the first and second side sensors in a front/rear direction.

상기 로봇은, 상기 하우징의 둘레 방향으로 길게 형성된 장공; 및 상기 장공을 통해 상기 하우징의 외부를 향하는 라이다를 더 포함할 수 있다. 상기 하우징의 하단을 기준으로 상기 라이다의 높이는 상기 초음파 센서의 높이보다 높을 수 있다.The robot may include a long hole formed long in a circumferential direction of the housing; And it may further include a lidar facing the outside of the housing through the long hole. The height of the lidar with respect to the lower end of the housing may be higher than the height of the ultrasonic sensor.

상기 라이다와 상기 프론트 센서 사이의 거리는, 상기 라이다와 상기 제1사이드 센서 사이의 거리 및 상기 라이다와 상기 제2사이드 센서 사이의 거리보다 가까울 수 있다.A distance between the lidar and the front sensor may be closer than a distance between the lidar and the first side sensor and a distance between the lidar and the second side sensor.

본 발명의 바람직한 실시예에 따르면, 프론트 센서가 초음파의 송수신이 병합된 다이렉트 방식으로 동작하므로, 동일한 감지 범위를 커버하는데 필요한 초음파 센서의 개수가 줄어들 수 있다. 이로써, 로봇의 제조 비용이 절감될 수 있다.According to a preferred embodiment of the present invention, since the front sensor operates in a direct method in which transmission and reception of ultrasound are merged, the number of ultrasound sensors required to cover the same sensing range can be reduced. Thereby, the manufacturing cost of the robot can be reduced.

또한, 사이드 센서는 초음파의 송신과 수신이 분리된 인다이렉트 방식으로 동작하므로, 본체의 측방에 인접한 오브젝트의 근접 거리를 정밀하게 측정할 수 있다. 이로써, 로봇이 협로를 통과하는 과정에서 로봇의 양측에 위치한 벽 등에 의해 로봇이 주행이 정지되지 않고, 상기 협로를 원활하게 주행할 수 있다.In addition, since the side sensor operates in an indirect method in which transmission and reception of ultrasonic waves are separated, it is possible to precisely measure the proximity distance of an object adjacent to the side of the main body. Accordingly, while the robot passes through the narrow path, the robot does not stop running due to walls located on both sides of the robot, and the robot can smoothly travel through the narrow path.

또한, 좌우로 이격된 한 쌍의 프론트 센서는 설정 주기에 따라 택일적으로 구동될 수 있다. 이로써, 한 쌍의 프론트 센서간에 초음파 간섭이 발생하는 것을 방지할 수 있다.In addition, a pair of front sensors spaced apart from side to side may be alternatively driven according to a set period. Accordingly, it is possible to prevent ultrasonic interference from occurring between the pair of front sensors.

또한, 일 프론트 센서가 구동되면 그와 이웃한 일 사이드 센서는 초음파를 송신하고, 상기 일 프론트 센서가 구동 중단되면 상기 일 사이드 센서는 초음파를 수신할 수 있다. 이로써, 상기 일 사이드 센서를 향하는 초음파가 상기 일 프론트 센서에 간섭하지 않을 수 있다.In addition, when one front sensor is driven, one side sensor adjacent thereto transmits an ultrasonic wave, and when the one front sensor is stopped, the one side sensor may receive an ultrasonic wave. Accordingly, the ultrasonic wave directed toward the one side sensor may not interfere with the one front sensor.

또한, 서로 이웃한 한 쌍의 사이드 센서는 초음파의 송수신이 설정 주기에 따라 스위칭될 수 있다. 이로써, 로봇의 전방 및 좌우 양측을 연속적으로 감지하면서도, 다이렉트 방식으로 동작하는 프론트 센서에 간섭이 발생할 우려를 최소화시킬 수 있다.In addition, a pair of side sensors adjacent to each other may switch transmission/reception of ultrasonic waves according to a set period. Accordingly, while continuously sensing the front and left and right sides of the robot, it is possible to minimize the risk of interference with the front sensor operating in a direct manner.

또한, 프론트 센서와 이웃한 제1사이드 센서는, 프론트 센서 및 제2사이드 센서에 비해 본체의 외둘레면의 내측으로 깊게 단차질 수 있다. 이로써, 제1사이드 센서와 프론트 센서 간의 초음파 간섭을 방지할 수 있다.In addition, the first side sensor adjacent to the front sensor may be deeply stepped inward of the outer circumferential surface of the main body compared to the front sensor and the second side sensor. Accordingly, ultrasonic interference between the first side sensor and the front sensor can be prevented.

또한, 제1사이드 센서가 배치된 개구는 외측으로 갈수록 내경이 커지도록 테이퍼지게 형성될 수 있다. 이로써, 제1사이드 센서에서 송신된 초음파가 제1프론트 센서에 간섭하는 것을 최소화하면서도 제1레프트 센서의 감지 범위(FoV)가 줄어들어 사각지대가 발생할 우려를 줄일 수 있다.In addition, the opening in which the first side sensor is disposed may be tapered so that the inner diameter increases toward the outside. Accordingly, while minimizing interference of the ultrasonic wave transmitted from the first side sensor to the first front sensor, the detection range (FoV) of the first left sensor is reduced, thereby reducing the possibility of a blind spot.

또한, 프론트 센서와 제1사이드 센서 사이의 각도는, 제1사이드 센서와 제2사이드 센서 사이의 각도보다 클 수 있다. 이로써, 본체의 전방에 위치한 오브젝트보다 전방과 측방 사이에 위치한 오브젝트를 상대적으로 정밀하게 감지할 수 있다Also, the angle between the front sensor and the first side sensor may be greater than the angle between the first side sensor and the second side sensor. Accordingly, it is possible to detect an object located between the front and the side more precisely than an object located in front of the main body.

본체의 중심을 좌우로 가로지르는 가상면과 제2사이드 센서 사이의 전후거리는, 상기 가상면과 제3사이드 센서 사이의 전후거리보다 가까울 수 있다. 이로써, 본체의 후방에 위치한 오브젝트보다 본체의 전방과 측방 사이에 위치한 오브젝트를 상대적으로 정밀하게 감지할 수 있다.The front-back distance between the second side sensor and the virtual surface crossing the center of the body left and right may be closer than the front-back distance between the virtual surface and the third side sensor. Accordingly, it is possible to detect an object located between the front and the side of the main body more precisely than the object located at the rear of the main body.

또한, 리어 하우징에 배치된 초음파 센서의 개수는 프론트 하우징에 배치된 초음파 센서의 개수보다 적을 수 있다. 이로써 로봇에 구비된 전체 초음파 센서의 개수가 줄어들고, 로봇의 제조 비용을 절감할 수 있다.Also, the number of ultrasonic sensors disposed in the rear housing may be less than the number of ultrasonic sensors disposed in the front housing. Accordingly, the total number of ultrasonic sensors provided in the robot can be reduced, and the manufacturing cost of the robot can be reduced.

도 1은 본 발명의 일 실시예에 따른 로봇을 포함하는 AI 장치를 나타낸다.
도 2는 본 발명의 일 실시예에 따른 로봇과 연결되는 AI 서버를 나타낸다.
도 3은 본 발명의 일 실시예에 따른 AI 시스템을 나타낸다.
도 4는 본 발명의 실시예에 따른 로봇의 사시도이다.
도 5는 본 발명의 실시예에 따른 프론트 하우징의 사시도이다.
도 6은 본 발명의 실시예에 따른 복수개의 초음파 센서의 배치를 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 복수개의 초음파 센서와 하우징의 외둘레면 사이의 단차가 도시된 도면이다.
도 8A 및 도 8B는 본 발명의 실시예에 따른 복수개의 초음파 센서의 작용을 설명하기 위한 도면이다.
1 shows an AI device including a robot according to an embodiment of the present invention.
2 shows an AI server connected to a robot according to an embodiment of the present invention.
3 shows an AI system according to an embodiment of the present invention.
4 is a perspective view of a robot according to an embodiment of the present invention.
5 is a perspective view of a front housing according to an embodiment of the present invention.
6 is a view for explaining the arrangement of a plurality of ultrasonic sensors according to an embodiment of the present invention.
7 is a diagram illustrating a step difference between a plurality of ultrasonic sensors and an outer peripheral surface of a housing according to an embodiment of the present invention.
8A and 8B are diagrams for explaining the operation of a plurality of ultrasonic sensors according to an embodiment of the present invention.

이하에서는 본 발명의 구체적인 실시 예를 도면과 함께 상세히 설명하도록 한다. Hereinafter, specific embodiments of the present invention will be described in detail with drawings.

이하에서, 일 요소가 타 요소에 "체결" 또는 "연결"된다고 기재된 것은, 두 요소가 직접 체결되거나 연결된 것을 의미하거나, 두 요소 사이에 제3의 요소가 존재하고 상기 제3의 요소에 의해 두 요소가 서로 연결되거나 체결된 것을 의미할 수 있다. 반면, 일 요소가 타 요소에 "직접 체결" 또는 "직접 연결"된다고 기재한 것은, 두 요소 사이에 제3의 요소가 존재하지 않는다고 이해될 수 있을 것이다.Hereinafter, when an element is described as being "fastened" or "connected" to another element, it means that two elements are directly fastened or connected, or a third element exists between the two elements and two elements are connected by the third element. It may mean that the elements are connected or fastened to each other. On the other hand, when it is described that one element is "directly fastened" or "directly connected" to another element, it may be understood that a third element does not exist between the two elements.

<로봇(Robot)><Robot>

로봇은 스스로 보유한 능력에 의해 주어진 일을 자동으로 처리하거나 작동하는 기계를 의미할 수 있다. 특히, 환경을 인식하고 스스로 판단하여 동작을 수행하는 기능을 갖는 로봇을 지능형 로봇이라 칭할 수 있다.A robot can mean a machine that automatically handles or operates a task given by its own capabilities. In particular, a robot having a function of recognizing an environment and performing an operation by self-judgment may be referred to as an intelligent robot.

로봇은 사용 목적이나 분야에 따라 산업용, 의료용, 가정용, 군사용 등으로 분류할 수 있다.Robots can be classified into industrial, medical, home, military, etc. depending on the purpose or field of use.

로봇은 액츄에이터 또는 모터를 포함하는 구동부를 구비하여 로봇 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다. 또한, 이동 가능한 로봇은 구동부에 휠, 브레이크, 프로펠러 등이 포함되어, 구동부를 통해 지상에서 주행하거나 공중에서 비행할 수 있다.The robot may be provided with a driving unit including an actuator or a motor to perform various physical operations such as moving the robot joints. In addition, the movable robot includes a wheel, a brake, a propeller, and the like in the driving unit, and can travel on the ground or fly in the air through the driving unit.

<인공 지능(AI: Artificial Intelligence)><Artificial Intelligence (AI)>

인공 지능은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미하며, 머신 러닝(기계 학습, Machine Learning)은 인공 지능 분야에서 다루는 다양한 문제를 정의하고 그것을 해결하는 방법론을 연구하는 분야를 의미한다. 머신 러닝은 어떠한 작업에 대하여 꾸준한 경험을 통해 그 작업에 대한 성능을 높이는 알고리즘으로 정의하기도 한다.Artificial intelligence refers to a field that studies artificial intelligence or methodologies that can make it, and machine learning refers to a field that defines various problems dealt with in the field of artificial intelligence and studies methodologies to solve them. do. Machine learning is also defined as an algorithm that improves the performance of a certain task through constant experience.

인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로써, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.An artificial neural network (ANN) is a model used in machine learning, and may refer to an overall model having problem-solving ability, which is composed of artificial neurons (nodes) that form a network by combining synapses. An artificial neural network may be defined by a connection pattern between neurons of different layers, a learning process that updates model parameters, and an activation function that generates an output value.

인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)를 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. 인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함숫값을 출력할 수 있다. The artificial neural network may include an input layer, an output layer, and optionally one or more hidden layers. Each layer includes one or more neurons, and the artificial neural network may include neurons and synapses connecting neurons. In the artificial neural network, each neuron may output a function value of an activation function for input signals, weights, and biases input through synapses.

모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 시냅스 연결의 가중치와 뉴런의 편향 등이 포함된다. 그리고, 하이퍼파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미하며, 학습률(Learning Rate), 반복 횟수, 미니 배치 크기, 초기화 함수 등이 포함된다.Model parameters refer to parameters determined through learning, and include the weight of synaptic connections and the bias of neurons. In addition, the hyperparameter refers to a parameter to be set before learning in a machine learning algorithm, and includes a learning rate, the number of iterations, a mini-batch size, an initialization function, and the like.

인공 신경망의 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다. 손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다.The purpose of learning the artificial neural network can be seen as determining the model parameters that minimize the loss function. The loss function may be used as an index for determining optimal model parameters in the learning process of the artificial neural network.

머신 러닝은 학습 방식에 따라 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning)으로 분류할 수 있다.Machine learning can be classified into supervised learning, unsupervised learning, and reinforcement learning according to a learning method.

지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다.Supervised learning refers to a method of training an artificial neural network in a state where a label for training data is given, and the label is the correct answer (or result value) that the artificial neural network should infer when the training data is input to the artificial neural network. can mean Unsupervised learning may refer to a method of training an artificial neural network in a state where no labels are given for training data. Reinforcement learning can refer to a learning method in which an agent defined in an environment learns to select an action or sequence of actions that maximizes the cumulative reward in each state.

인공 신경망 중에서 복수의 은닉층을 포함하는 심층 신경망(DNN: Deep Neural Network)으로 구현되는 머신 러닝을 딥 러닝(심층 학습, Deep Learning)이라 부르기도 하며, 딥 러닝은 머신 러닝의 일부이다. 이하에서, 머신 러닝은 딥 러닝을 포함하는 의미로 사용된다.Among artificial neural networks, machine learning implemented as a deep neural network (DNN) including a plurality of hidden layers is also called deep learning (deep learning), and deep learning is a part of machine learning. Hereinafter, machine learning is used in a sense including deep learning.

<자율 주행(Self-Driving)><Self-Driving>

자율 주행은 스스로 주행하는 기술을 의미하며, 자율 주행 차량은 사용자의 조작 없이 또는 사용자의 최소한의 조작으로 주행하는 차량(Vehicle)을 의미한다.Autonomous driving refers to a technology that drives by itself, and an autonomous driving vehicle refers to a vehicle that runs without a user's manipulation or with a minimal user's manipulation.

예컨대, 자율 주행에는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술 등이 모두 포함될 수 있다.For example, autonomous driving includes technology for maintaining a driving lane, technology for automatically adjusting speed such as adaptive cruise control, technology for automatically driving along a predetermined route, technology for automatically setting a route when a destination is set, etc. All of these can be included.

차량은 내연 기관만을 구비하는 차량, 내연 기관과 전기 모터를 함께 구비하는 하이브리드 차량, 그리고 전기 모터만을 구비하는 전기 차량을 모두 포괄하며, 자동차뿐만 아니라 기차, 오토바이 등을 포함할 수 있다.The vehicle includes a vehicle having only an internal combustion engine, a hybrid vehicle having both an internal combustion engine and an electric motor, and an electric vehicle having only an electric motor, and may include not only automobiles, but also trains, motorcycles, and the like.

이때, 자율 주행 차량은 자율 주행 기능을 가진 로봇으로 볼 수 있다.In this case, the autonomous vehicle may be viewed as a robot having an autonomous driving function.

도 1은 본 발명의 일 실시 예에 따른 로봇을 포함하는 AI 장치(10)를 나타낸다.1 shows an AI device 10 including a robot according to an embodiment of the present invention.

AI 장치(10)는 TV, 프로젝터, 휴대폰, 스마트폰, 데스크탑 컴퓨터, 노트북, 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), DMB 수신기, 라디오, 세탁기, 냉장고, 데스크탑 컴퓨터, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다. The AI device 10 is a TV, a projector, a mobile phone, a smart phone, a desktop computer, a notebook computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation system, a tablet PC, a wearable device, a set-top box (STB) ), a DMB receiver, a radio, a washing machine, a refrigerator, a desktop computer, a digital signage, a robot, a vehicle, etc., may be implemented as a fixed device or a movable device.

도 1을 참조하면, 단말기(10)는 통신 인터페이스(11), 입력 인터페이스(12), 러닝 프로세서(13), 센서(14), 출력 인터페이스(15), 메모리(17) 및 프로세서(18) 등을 포함할 수 있다.Referring to FIG. 1 , the terminal 10 includes a communication interface 11 , an input interface 12 , a learning processor 13 , a sensor 14 , an output interface 15 , a memory 17 and a processor 18 , and the like. may include.

통신 인터페이스(11)는 유무선 통신 기술을 이용하여 다른 AI 장치(10a 내지 10e)나 AI 서버(20) 등의 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 통신 인터페이스(11)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등을 송수신할 수 있다.The communication interface 11 may transmit/receive data to and from external devices such as other AI devices 10a to 10e or the AI server 20 using wired/wireless communication technology. For example, the communication interface 11 may transmit and receive sensor information, a user input, a learning model, a control signal, and the like with external devices.

이때, 통신 인터페이스(11)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth??), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.At this time, the communication technology used by the communication interface 11 includes GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), LTE (Long Term Evolution), 5G, WLAN (Wireless LAN), Wi-Fi (Wireless- Fidelity), Bluetooth??, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), ZigBee, NFC (Near Field Communication), and the like.

입력 인터페이스(12)는 다양한 종류의 데이터를 획득할 수 있다.The input interface 12 may acquire various types of data.

이때, 입력 인터페이스(12)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력 받기 위한 사용자 입력 인터페이스 등을 포함할 수 있다. 여기서, 카메라나 마이크로폰을 센서로 취급하여, 카메라나 마이크로폰으로부터 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.In this case, the input interface 12 may include a camera for inputting an image signal, a microphone for receiving an audio signal, a user input interface for receiving information from a user, and the like. Here, the camera or microphone may be treated as a sensor, and a signal obtained from the camera or microphone may be referred to as sensing data or sensor information.

입력 인터페이스(12)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때 사용될 입력 데이터 등을 획득할 수 있다. 입력 인터페이스(12)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 프로세서(18) 또는 러닝 프로세서(13)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.The input interface 12 may acquire training data for model training, input data to be used when acquiring an output using the training model, and the like. The input interface 12 may acquire raw input data, and in this case, the processor 18 or the learning processor 13 may extract input features as pre-processing for the input data.

러닝 프로세서(13)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있다. 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.The learning processor 13 may train a model composed of an artificial neural network by using the training data. Here, the learned artificial neural network may be referred to as a learning model. The learning model may be used to infer a result value with respect to new input data other than the training data, and the inferred value may be used as a basis for a decision to perform a certain operation.

이때, 러닝 프로세서(13)는 AI 서버(20)의 러닝 프로세서(24)과 함께 AI 프로세싱을 수행할 수 있다.At this time, the learning processor 13 may perform AI processing together with the learning processor 24 of the AI server 20 .

이때, 러닝 프로세서(13)는 AI 장치(10)에 통합되거나 구현된 메모리를 포함할 수 있다. 또는, 러닝 프로세서(13)는 메모리(17), AI 장치(10)에 직접 결합된 외부 메모리 또는 외부 장치에서 유지되는 메모리를 사용하여 구현될 수도 있다.In this case, the learning processor 13 may include a memory integrated or implemented in the AI device 10 . Alternatively, the learning processor 13 may be implemented using the memory 17 , an external memory directly coupled to the AI device 10 , or a memory maintained in an external device.

센서(14)는 다양한 센서들을 이용하여 AI 장치(10) 내부 정보, AI 장치(10)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.The sensor 14 may acquire at least one of internal information of the AI device 10 , surrounding environment information of the AI device 10 , and user information by using various sensors.

이때, 센서(14)에 포함되는 센서에는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등이 있다.At this time, sensors included in the sensor 14 include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, a lidar, radar, etc.

출력 인터페이스(15)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다. The output interface 15 may generate an output related to visual, auditory, tactile, or the like.

이때, 출력 인터페이스(15)에는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.In this case, the output interface 15 may include a display unit that outputs visual information, a speaker that outputs auditory information, and a haptic module that outputs tactile information.

메모리(17)는 AI 장치(10)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 메모리(17)는 입력 인터페이스(12)에서 획득한 입력 데이터, 학습 데이터, 학습 모델, 학습 히스토리 등을 저장할 수 있다.The memory 17 may store data supporting various functions of the AI device 10 . For example, the memory 17 may store input data obtained from the input interface 12 , learning data, a learning model, a learning history, and the like.

프로세서(18)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 장치(10)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 프로세서(18)는 AI 장치(10)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.The processor 18 may determine at least one executable operation of the AI device 10 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. In addition, the processor 18 may control the components of the AI device 10 to perform the determined operation.

이를 위해, 프로세서(18)는 러닝 프로세서(13) 또는 메모리(17)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 상기 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 장치(10)의 구성 요소들을 제어할 수 있다.To this end, the processor 18 may request, retrieve, receive or utilize the data of the learning processor 13 or the memory 17, and may perform a predicted operation or an operation determined to be desirable among the at least one executable operation. It is possible to control the components of the AI device 10 to execute.

이때, 프로세서(18)는 결정된 동작을 수행하기 위하여 외부 장치의 연계가 필요한 경우, 해당 외부 장치를 제어하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 해당 외부 장치에 전송할 수 있다.In this case, when the connection of the external device is required to perform the determined operation, the processor 18 may generate a control signal for controlling the corresponding external device and transmit the generated control signal to the corresponding external device.

프로세서(18)는 사용자 입력에 대하여 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 사용자의 요구 사항을 결정할 수 있다.The processor 18 may obtain intention information with respect to a user input, and determine a user's requirement based on the obtained intention information.

이때, 프로세서(18)는 음성 입력을 문자열로 변환하기 위한 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다. In this case, the processor 18 uses at least one of a speech to text (STT) engine for converting a voice input into a character string or a natural language processing (NLP) engine for obtaining intention information of a natural language. Intention information corresponding to the input may be obtained.

이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서(13)에 의해 학습된 것이나, AI 서버(20)의 러닝 프로세서(24)에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.At this time, at least one of the STT engine and the NLP engine may be configured as an artificial neural network, at least a part of which is learned according to a machine learning algorithm. And, at least one of the STT engine or the NLP engine is learned by the learning processor 13, or learned by the learning processor 24 of the AI server 20, or learned by distributed processing thereof. it could be

프로세서(18)는 AI 장치(10)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리(17) 또는 러닝 프로세서(13)에 저장하거나, AI 서버(20) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.The processor 18 collects and stores history information including the user's feedback on the operation contents or operation of the AI device 10 and stores it in the memory 17 or the learning processor 13, or the AI server 20 It can be transmitted to an external device. The collected historical information may be used to update the learning model.

프로세서(18)는 메모리(17)에 저장된 응용 프로그램을 구동하기 위하여, AI 장치(10)의 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(18)는 상기 응용 프로그램의 구동을 위하여, AI 장치(10)에 포함된 구성 요소들 중 둘 이상을 서로 조합하여 동작시킬 수 있다.The processor 18 may control at least some of the components of the AI device 10 in order to drive an application program stored in the memory 17 . Furthermore, the processor 18 may operate by combining two or more of the components included in the AI device 10 with each other in order to drive the application program.

도 2는 본 발명의 일 실시 예에 따른 로봇과 연결되는 AI 서버(20)를 나타낸다.2 shows an AI server 20 connected to a robot according to an embodiment of the present invention.

도 2를 참조하면, AI 서버(20)는 머신 러닝 알고리즘을 이용하여 인공 신경망을 학습시키거나 학습된 인공 신경망을 이용하는 장치를 의미할 수 있다. 여기서, AI 서버(20)는 복수의 서버들로 구성되어 분산 처리를 수행할 수도 있고, 5G 네트워크로 정의될 수 있다. 이때, AI 서버(20)는 AI 장치(10)의 일부의 구성으로 포함되어, AI 프로세싱 중 적어도 일부를 함께 수행할 수도 있다.Referring to FIG. 2 , the AI server 20 may refer to a device that trains an artificial neural network using a machine learning algorithm or uses a learned artificial neural network. Here, the AI server 20 may be configured with a plurality of servers to perform distributed processing, and may be defined as a 5G network. In this case, the AI server 20 may be included as a part of the AI device 10 to perform at least a part of AI processing together.

AI 서버(20)는 통신 인터페이스(21), 메모리(23), 러닝 프로세서(24) 및 프로세서(26) 등을 포함할 수 있다.The AI server 20 may include a communication interface 21 , a memory 23 , a learning processor 24 and a processor 26 , and the like.

통신 인터페이스(21)는 AI 장치(10) 등의 외부 장치와 데이터를 송수신할 수 있다.The communication interface 21 may transmit/receive data to and from an external device such as the AI device 10 .

메모리(23)는 모델 스토리지(23a)를 포함할 수 있다. 모델 스토리지(23a)는 러닝 프로세서(24)을 통하여 학습 중인 또는 학습된 모델(또는 인공 신경망, 23b)을 저장할 수 있다.The memory 23 may include a model storage 23a. The model storage 23a may store a model (or artificial neural network, 23b) being trained or learned through the learning processor 24 .

러닝 프로세서(24)는 학습 데이터를 이용하여 인공 신경망(23b)을 학습시킬 수 있다. 학습 모델은 인공 신경망의 AI 서버(20)에 탑재된 상태에서 이용되거나, AI 장치(10) 등의 외부 장치에 탑재되어 이용될 수도 있다.The learning processor 24 may train the artificial neural network 23b using the training data. The learning model may be used while being mounted on the AI server 20 of the artificial neural network, or may be used while being mounted on an external device such as the AI device 10 .

학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다. 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어(instruction)는 메모리(23)에 저장될 수 있다.The learning model may be implemented in hardware, software, or a combination of hardware and software. When a part or all of the learning model is implemented in software, one or more instructions constituting the learning model may be stored in the memory 23 .

프로세서(26)는 학습 모델을 이용하여 새로운 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수 있다.The processor 26 may infer a result value with respect to new input data using the learning model, and may generate a response or a control command based on the inferred result value.

도 3은 본 발명의 일 실시 예에 따른 AI 시스템(1)을 나타낸다.3 shows an AI system 1 according to an embodiment of the present invention.

도 3을 참조하면, AI 시스템(1)은 AI 서버(20), 로봇(10a), 자율 주행 차량(10b), XR 장치(10c), 스마트폰(10d) 또는 가전(10e) 중에서 적어도 하나 이상이 클라우드 네트워크(2)와 연결된다. 여기서, AI 기술이 적용된 로봇(10a), 자율 주행 차량(10b), XR 장치(10c), 스마트폰(10d) 또는 가전(10e) 등을 AI 장치(10a 내지 10e)라 칭할 수 있다.Referring to FIG. 3 , the AI system 1 includes at least one of an AI server 20 , a robot 10a , an autonomous vehicle 10b , an XR device 10c , a smart phone 10d or a home appliance 10e . It is connected to the cloud network (2). Here, the robot 10a to which the AI technology is applied, the autonomous driving vehicle 10b, the XR device 10c, the smart phone 10d, or the home appliance 10e may be referred to as AI devices 10a to 10e.

클라우드 네트워크(2)는 클라우드 컴퓨팅 인프라의 일부를 구성하거나 클라우드 컴퓨팅 인프라 안에 존재하는 네트워크를 의미할 수 있다. 여기서, 클라우드 네트워크(2)는 3G 네트워크, 4G 또는 LTE(Long Term Evolution) 네트워크 또는 5G 네트워크 등을 이용하여 구성될 수 있다.The cloud network 2 may constitute a part of the cloud computing infrastructure or may mean a network existing in the cloud computing infrastructure. Here, the cloud network 2 may be configured using a 3G network, a 4G or Long Term Evolution (LTE) network, or a 5G network.

즉, AI 시스템(1)을 구성하는 각 장치들(10a 내지 10e, 200)은 클라우드 네트워크(2)를 통해 서로 연결될 수 있다. 특히, 각 장치들(10a 내지 10e, 200)은 기지국을 통해서 서로 통신할 수도 있지만, 기지국을 통하지 않고 직접 서로 통신할 수도 있다.That is, each of the devices 10a to 10e and 200 constituting the AI system 1 may be connected to each other through the cloud network 2 . In particular, each of the devices 10a to 10e and 200 may communicate with each other through the base station, but may directly communicate with each other without passing through the base station.

AI 서버(20)는 AI 프로세싱을 수행하는 서버와 빅 데이터에 대한 연산을 수행하는 서버를 포함할 수 있다.The AI server 20 may include a server performing AI processing and a server performing an operation on big data.

AI 서버(20)는 AI 시스템(1)을 구성하는 AI 장치들인 로봇(10a), 자율 주행 차량(10b), XR 장치(10c), 스마트폰(10d) 또는 가전(10e) 중에서 적어도 하나 이상과 클라우드 네트워크(2)을 통하여 연결되고, 연결된 AI 장치들(10a 내지 10e)의 AI 프로세싱을 적어도 일부를 도울 수 있다.The AI server 20 includes at least one of the AI devices constituting the AI system 1, such as a robot 10a, an autonomous vehicle 10b, an XR device 10c, a smart phone 10d, or a home appliance 10e, and It is connected through the cloud network 2 and may help at least a part of AI processing of the connected AI devices 10a to 10e.

이때, AI 서버(20)는 AI 장치(10a 내지 10e)를 대신하여 머신 러닝 알고리즘에 따라 인공 신경망을 학습시킬 수 있고, 학습 모델을 직접 저장하거나 AI 장치(10a 내지 10e)에 전송할 수 있다. In this case, the AI server 20 may train the artificial neural network according to a machine learning algorithm on behalf of the AI devices 10a to 10e, and directly store the learning model or transmit it to the AI devices 10a to 10e.

이때, AI 서버(20)는 AI 장치(10a 내지 10e)로부터 입력 데이터를 수신하고, 학습 모델을 이용하여 수신한 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성하여 AI 장치(10a 내지 10e)로 전송할 수 있다.At this time, the AI server 20 receives input data from the AI devices 10a to 10e, infers a result value with respect to the received input data using a learning model, and provides a response or control command based on the inferred result value. It can be generated and transmitted to the AI devices 10a to 10e.

또는, AI 장치(10a 내지 10e)는 직접 학습 모델을 이용하여 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수도 있다.Alternatively, the AI devices 10a to 10e may infer a result value with respect to input data using a direct learning model, and generate a response or a control command based on the inferred result value.

이하에서는, 상술한 기술이 적용되는 AI 장치(10a 내지 10e)의 다양한 실시 예들을 설명한다. 여기서, 도 3에 도시된 AI 장치(10a 내지 10e)는 도 1에 도시된 AI 장치(10)의 구체적인 실시 예로 볼 수 있다.Hereinafter, various embodiments of the AI devices 10a to 10e to which the above-described technology is applied will be described. Here, the AI devices 10a to 10e shown in FIG. 3 may be viewed as specific examples of the AI device 10 shown in FIG. 1 .

<AI+로봇><AI+Robot>

로봇(10a)은 AI 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.The robot 10a may be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, etc. to which AI technology is applied.

로봇(10a)은 동작을 제어하기 위한 로봇 제어 모듈을 포함할 수 있고, 로봇 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다.The robot 10a may include a robot control module for controlling an operation, and the robot control module may refer to a software module or a chip implemented as hardware.

로봇(10a)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 로봇(10a)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 사용자 상호작용에 대한 응답을 결정하거나, 동작을 결정할 수 있다.The robot 10a acquires state information of the robot 10a by using sensor information obtained from various types of sensors, detects (recognizes) surrounding environments and objects, generates map data, moves path and travels A plan may be determined, a response to a user interaction may be determined, or an action may be determined.

여기서, 로봇(10a)은 이동 경로 및 주행 계획을 결정하기 위하여, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.Here, the robot 10a may use sensor information obtained from at least one sensor among LiDAR, radar, and camera to determine a movement path and a travel plan.

로봇(10a)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 로봇(10a)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 동작을 결정할 수 있다. 여기서, 학습 모델은 로봇(10a)에서 직접 학습되거나, AI 서버(20) 등의 외부 장치에서 학습된 것일 수 있다. The robot 10a may perform the above-described operations using a learning model composed of at least one artificial neural network. For example, the robot 10a may recognize a surrounding environment and an object using a learning model, and may determine a motion using the recognized surrounding environment information or object information. Here, the learning model may be directly learned from the robot 10a or learned from an external device such as the AI server 20 .

이때, 로봇(10a)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(20) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.At this time, the robot 10a may perform an operation by generating a result by using the direct learning model, but transmits sensor information to an external device such as the AI server 20 and receives the result generated accordingly to perform the operation You may.

로봇(10a)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 로봇(10a)을 주행시킬 수 있다. The robot 10a determines a movement path and travel plan by using at least one of map data, object information detected from sensor information, or object information obtained from an external device, and controls the driving unit to apply the determined movement path and travel plan. Accordingly, the robot 10a may be driven.

맵 데이터에는 로봇(10a)이 이동하는 공간에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 벽, 문 등의 고정 객체들과 화분, 책상 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.The map data may include object identification information for various objects disposed in a space in which the robot 10a moves. For example, the map data may include object identification information for fixed objects such as walls and doors and movable objects such as flowerpots and desks. In addition, the object identification information may include a name, a type, a distance, a location, and the like.

또한, 로봇(10a)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이때, 로봇(10a)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.In addition, the robot 10a may perform an operation or drive by controlling the driving unit based on the user's control/interaction. In this case, the robot 10a may acquire intention information of an interaction according to a user's motion or voice utterance, determine a response based on the acquired intention information, and perform the operation.

<AI+로봇+자율주행><AI+Robot+Autonomous Driving>

로봇(10a)은 AI 기술 및 자율 주행 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.The robot 10a may be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, etc. to which AI technology and autonomous driving technology are applied.

AI 기술과 자율 주행 기술이 적용된 로봇(10a)은 자율 주행 기능을 가진 로봇 자체나, 자율 주행 차량(10b)과 상호작용하는 로봇(10a) 등을 의미할 수 있다. The robot 10a to which AI technology and autonomous driving technology are applied may mean a robot having an autonomous driving function or a robot 10a that interacts with the autonomous driving vehicle 10b.

자율 주행 기능을 가진 로봇(10a)은 사용자의 제어 없이도 주어진 동선에 따라 스스로 움직이거나, 동선을 스스로 결정하여 움직이는 장치들을 통칭할 수 있다.The robot 10a having an autonomous driving function may collectively refer to devices that move by themselves according to a given movement line without user's control, or move by determining a movement line by themselves.

자율 주행 기능을 가진 로봇(10a) 및 자율 주행 차량(10b)은 이동 경로 또는 주행 계획 중 하나 이상을 결정하기 위해 공통적인 센싱 방법을 사용할 수 있다. 예를 들어, 자율 주행 기능을 가진 로봇(10a) 및 자율 주행 차량(10b)은 라이다, 레이더, 카메라를 통해 센싱된 정보를 이용하여, 이동 경로 또는 주행 계획 중 하나 이상을 결정할 수 있다.The robot 10a with autonomous driving function and the autonomous driving vehicle 10b may use a common sensing method to determine one or more of a moving route or a driving plan. For example, the robot 10a and the autonomous driving vehicle 10b having an autonomous driving function may determine one or more of a moving route or a driving plan by using information sensed through lidar, radar, and camera.

자율 주행 차량(10b)과 상호작용하는 로봇(10a)은 자율 주행 차량(10b)과 별개로 존재하면서, 자율 주행 차량(10b)의 내부에서 자율 주행 기능에 연계되거나, 자율 주행 차량(10b)에 탑승한 사용자와 연계된 동작을 수행할 수 있다.The robot 10a interacting with the autonomous vehicle 10b exists separately from the autonomous vehicle 10b, and is linked to an autonomous driving function inside the autonomous vehicle 10b, or connected to the autonomous vehicle 10b. An operation associated with the user on board may be performed.

이때, 자율 주행 차량(10b)과 상호작용하는 로봇(10a)은 자율 주행 차량(10b)을 대신하여 센서 정보를 획득하여 자율 주행 차량(10b)에 제공하거나, 센서 정보를 획득하고 주변 환경 정보 또는 객체 정보를 생성하여 자율 주행 차량(10b)에 제공함으로써, 자율 주행 차량(10b)의 자율 주행 기능을 제어하거나 보조할 수 있다.At this time, the robot 10a interacting with the autonomous driving vehicle 10b acquires sensor information on behalf of the autonomous driving vehicle 10b and provides it to the autonomous driving vehicle 10b, or obtains sensor information and obtains the surrounding environment information or By generating object information and providing it to the autonomous driving vehicle 10b, the autonomous driving function of the autonomous driving vehicle 10b may be controlled or supported.

또는, 자율 주행 차량(10b)과 상호작용하는 로봇(10a)은 자율 주행 차량(10b)에 탑승한 사용자를 모니터링하거나 사용자와의 상호작용을 통해 자율 주행 차량(10b)의 기능을 제어할 수 있다. 예컨대, 로봇(10a)은 운전자가 졸음 상태인 경우로 판단되는 경우, 자율 주행 차량(10b)의 자율 주행 기능을 활성화하거나 자율 주행 차량(10b)의 구동부의 제어를 보조할 수 있다. 여기서, 로봇(10a)이 제어하는 자율 주행 차량(10b)의 기능에는 단순히 자율 주행 기능뿐만 아니라, 자율 주행 차량(10b)의 내부에 구비된 네비게이션 시스템이나 오디오 시스템에서 제공하는 기능도 포함될 수 있다.Alternatively, the robot 10a interacting with the autonomous driving vehicle 10b may monitor a user riding in the autonomous driving vehicle 10b or control the functions of the autonomous driving vehicle 10b through interaction with the user. . For example, when it is determined that the driver is in a drowsy state, the robot 10a may activate the autonomous driving function of the autonomous driving vehicle 10b or assist in controlling the driving unit of the autonomous driving vehicle 10b. Here, the function of the autonomous driving vehicle 10b controlled by the robot 10a may include not only an autonomous driving function, but also a function provided by a navigation system or an audio system provided in the autonomous driving vehicle 10b.

또는, 자율 주행 차량(10b)과 상호작용하는 로봇(10a)은 자율 주행 차량(10b)의 외부에서 자율 주행 차량(10b)에 정보를 제공하거나 기능을 보조할 수 있다. 예컨대, 로봇(10a)은 스마트 신호등과 같이 자율 주행 차량(10b)에 신호 정보 등을 포함하는 교통 정보를 제공할 수도 있고, 전기 차량의 자동 전기 충전기와 같이 자율 주행 차량(10b)과 상호작용하여 충전구에 전기 충전기를 자동으로 연결할 수도 있다.Alternatively, the robot 10a interacting with the autonomous vehicle 10b may provide information or assist the function of the autonomous vehicle 10b from the outside of the autonomous vehicle 10b. For example, the robot 10a may provide traffic information including signal information to the autonomous vehicle 10b, such as a smart traffic light, or interact with the autonomous vehicle 10b, such as an automatic electric charger for an electric vehicle. You can also automatically connect an electric charger to the charging port.

도 4는 본 발명의 실시예에 따른 로봇의 사시도이다.4 is a perspective view of a robot according to an embodiment of the present invention.

본 실시예에 따른 로봇(10a)은, 본체(200)와, 넥 바디(300)와, 헤드(400)를 포함할 수 있다. 로봇(10a)은 서비스 모듈(900)을 더 포함할 수 있다.The robot 10a according to the present embodiment may include a main body 200 , a neck body 300 , and a head 400 . The robot 10a may further include a service module 900 .

본체(200)는 로봇(10a)의 베이스를 이룰수 있다. 본체(200)에는 로봇(10a)을 주행시키는 주행휠(202)이 구비될 수 있다. 주행휠(202)은 본체(200)의 하측으로 돌출될 수 있다. The body 200 may form the base of the robot 10a. The main body 200 may be provided with a traveling wheel 202 for driving the robot 10a. The traveling wheel 202 may protrude downward of the main body 200 .

본체(200)는 외관을 형성하는 하우징(210)을 포함할 수 있다. 하우징(210)은 본체(200)의 외둘레면을 형성할 수 있다. 하우징(210)의 외둘레면은 본체(200)의 외둘레면일 수 있다.The body 200 may include a housing 210 that forms an exterior. The housing 210 may form an outer circumferential surface of the body 200 . The outer circumferential surface of the housing 210 may be the outer circumferential surface of the body 200 .

하우징(210)의 상면은 개방될 수 있고, 후술할 서비스 모듈(900)은 하우징(210)의 개방된 상면을 상측에서 커버할 수 있다. 서비스 모듈(900)은 바디 프레임(220)을 상측에서 커버할 수 있다. 다만 이에 한정되는 것은 아니며, 하우징(210)의 상면이 서비스 모듈(900)을 지지하는 구성도 가능함은 물론이다.The upper surface of the housing 210 may be opened, and the service module 900 to be described later may cover the open upper surface of the housing 210 from the upper side. The service module 900 may cover the body frame 220 from the upper side. However, the present invention is not limited thereto, and a configuration in which the upper surface of the housing 210 supports the service module 900 is also possible.

하우징(210)은 서로 분리 가능한 복수개의 부재가 결합되어 형성될 수 있다. 좀 더 상세히, 하우징(210)은 프론트 하우징(220)과 리어 하우징(230)을 포함할 수 있다. 따라서, 하우징(210)의 체결 및 분리 작업이 용이해질 수 있다.The housing 210 may be formed by coupling a plurality of members separable to each other. In more detail, the housing 210 may include a front housing 220 and a rear housing 230 . Accordingly, the assembly and separation of the housing 210 may be facilitated.

프론트 하우징(220)은 전방을 향해 볼록하게 휘어질 수 있고, 리어 하우징(230)은 후방을 향해 볼록하게 휘어질 수 있다. 프론트 하우징(220)의 후단과 리어 하우징(230)의 전단은 서로 맞닿을 수 있다. 프론트 하우징(220)과 리어 하우징(230)의 각 외면은 연속되게 이어질 수 있다.The front housing 220 may be convexly curved toward the front, and the rear housing 230 may be convexly curved toward the rear. The rear end of the front housing 220 and the front end of the rear housing 230 may contact each other. Each outer surface of the front housing 220 and the rear housing 230 may be continuously connected.

본체(200)에는 라이다(204)가 구비될 수 있다. The body 200 may be provided with a lidar 204 .

좀 더 상세히, 하우징(210)에는 하우징(210)의 둘레 방향으로 길게 형성된 장공(220a)이 형성될 수 있다. 장공(220a)은 프론트 하우징(220)에 형성될 수 있다. 라이다(204)는 상기 장공(220a)을 통해 본체(200)의 외부를 향할 수 있고, 로봇(10a)의 전방에 위치한 장애물이나 사람을 감지할 수 있다.In more detail, the housing 210 may be formed with a long hole 220a elongated in the circumferential direction of the housing 210 . The long hole 220a may be formed in the front housing 220 . The lidar 204 may face the outside of the main body 200 through the long hole 220a, and may detect an obstacle or a person located in front of the robot 10a.

본체(200)에는 복수개의 초음파 센서(800)가 구비될 수 있다. 복수개의 초음파 센서(800)는 본체(200)의 둘레 방향으로 서로 이격될 수 있다. A plurality of ultrasonic sensors 800 may be provided in the body 200 . The plurality of ultrasonic sensors 800 may be spaced apart from each other in the circumferential direction of the main body 200 .

하우징(210)의 외둘레에는 초음파 센서(800)가 배치된 복수개의 개구(211)(도 5 참조)가 형성될 수 있다. 각 초음파 센서(800)는 상기 개구(211)를 통해 이동 로봇(1) 주변의 물체를 감지할 수 있다.A plurality of openings 211 (see FIG. 5 ) in which the ultrasonic sensor 800 is disposed may be formed on the outer periphery of the housing 210 . Each ultrasonic sensor 800 may detect an object around the mobile robot 1 through the opening 211 .

초음파 센서(800)는 라이다(204)보다 낮은 위치에 설치될 수 있다. 좀 더 상세히, 본체(200)의 하단을 기준으로, 초음파 센서(800)의 높이는 라이다(204)의 높이보다 낮을 수 있다.The ultrasonic sensor 800 may be installed at a lower position than the lidar 204 . In more detail, with respect to the lower end of the main body 200 , the height of the ultrasonic sensor 800 may be lower than the height of the lidar 204 .

초음파 센서(800)는 음파를 이용하여 본체 주변의 장애물이나 사람을 감지할 수 있다. 따라서, 빛을 흡수 또는 투과시키는 대상물(예를 들어, 유리창)도 용이하게 감지할 수 있다.The ultrasonic sensor 800 may detect an obstacle or a person around the main body using sound waves. Accordingly, an object that absorbs or transmits light (eg, a glass window) can be easily detected.

한편, 넥 바디(300)는 본체(200)의 전방부에서 상측으로 길게 연장될 수 있다. 넥 바디(300)는 수직하게 형성될 수 있다. 넥 바디(300)는 서비스 모듈(900)보다 상측으로 돌출될 수 있다. 넥 바디(300)의 상측 일부는 후방 상측을 향해 절곡될 수 있다. Meanwhile, the neck body 300 may extend upwardly from the front portion of the body 200 . The neck body 300 may be formed vertically. The neck body 300 may protrude upward than the service module 900 . An upper portion of the neck body 300 may be bent toward the rear upper side.

헤드(400)는 넥 바디(300)의 상단에 연결될 수 있다. 헤드(400)는 넥 바디(300)에 대해 전후로 틸팅될 수 있다. 헤드(400)는 서비스 모듈(900)의 상측에 위치할 수 있다.The head 400 may be connected to the upper end of the neck body 300 . The head 400 may be tilted back and forth with respect to the neck body 300 . The head 400 may be located above the service module 900 .

헤드(400)에는 디스플레이(430)가 구비될 수 있다. 디스플레이(430)는 헤드(400)의 전면에 구비될 수 있다. 디스플레이(430)에는 기설정된 이미지 또는 영상이 출력될 수 있다. 또한, 디스플레이(430)는 터치 패널을 포함하고, 터치 입력이 가능한 입력부로 기능할 수 있다.The head 400 may be provided with a display 430 . The display 430 may be provided on the front side of the head 400 . A preset image or image may be output to the display 430 . In addition, the display 430 may include a touch panel and function as an input unit capable of a touch input.

서비스 모듈(900)은 본체(200)를 상측에서 커버할 수 있다. 또한, 서비스 모듈(900)은 넥 바디(300)를 후방에서 커버할 수 있다. The service module 900 may cover the main body 200 from the upper side. In addition, the service module 900 may cover the neck body 300 from the rear.

서비스 모듈(900)은 헤드(400)보다 하측에 위치할 수 있다. 좀 더 상세히, 본체(200)의 상단부터 헤드(400)까지의 높이는 서비스 모듈(900)의 높이보다 높을 수 있다.The service module 900 may be located below the head 400 . In more detail, the height from the top of the main body 200 to the head 400 may be higher than the height of the service module 900 .

서비스 모듈(900)은 필요에 따라 달라질 수 있다. 일례로, 서비스 모듈(900)은 서로 다른 높이에 위치한 복수개의 드로워(미도시)를 포함할 수 있다. 상기 복수개의 드로워는 후방으로 슬라이딩되어 개방되거나, 전방으로 슬라이딩되어 클로즈될 수 있다. 로봇(10a)은 복수개의 드로워에 물품이 수용된 상태에서 자율 주행할 수 있고, 배달 로봇으로 기능할 수 있다.The service module 900 may vary according to need. For example, the service module 900 may include a plurality of drawers (not shown) positioned at different heights. The plurality of drawers may be opened by sliding backward, or may be closed by sliding forward. The robot 10a may autonomously travel in a state in which articles are accommodated in a plurality of drawers, and may function as a delivery robot.

도 5는 본 발명의 실시예에 따른 프론트 하우징의 사시도이고, 도 6은 본 발명의 실시예에 따른 복수개의 초음파 센서의 배치를 설명하기 위한 도면이다.5 is a perspective view of a front housing according to an embodiment of the present invention, and FIG. 6 is a view for explaining the arrangement of a plurality of ultrasonic sensors according to an embodiment of the present invention.

하우징(210)에는 초음파 센서(800)가 배치되는 복수개의 개구(211)가 형성될 수 있다. 복수개의 개구(211)는 하우징(210)의 둘레를 따라 서로 이격될 수 있다. 초음파 센서(800)는 상기 개구(211)를 통해 하우징(210)의 외부를 향할 수 있다.A plurality of openings 211 in which the ultrasonic sensor 800 is disposed may be formed in the housing 210 . The plurality of openings 211 may be spaced apart from each other along the circumference of the housing 210 . The ultrasonic sensor 800 may face the outside of the housing 210 through the opening 211 .

복수개의 초음파 센서(800)는 프론트 센서(811)(812)와, 레프트 센서(821)(822)와, 라이트 센서(831)(832)를 포함할 수 있다.The plurality of ultrasonic sensors 800 may include front sensors 811 and 812 , left sensors 821 and 822 , and light sensors 831 and 832 .

프론트 센서(811)(812)는 전방 또는 전방과 측방 사이의 일 방향을 향할 수 있다. 프론트 센서(811)(812)는 하우징(210), 좀 더 상세히는 프론트 하우징(220)의 전면에 배치될 수 있다.The front sensors 811 and 812 may face forward or in one direction between the front and the side. The front sensors 811 and 812 may be disposed on the front surface of the housing 210 , more specifically, the front housing 220 .

프론트 센서(811)(812)는 좌우로 이격된 한 쌍이 구비될 수 있다. 한 쌍의 프론트 센서(811)(812)는 본체(200)의 좌측으로 편심된 제1프론트 센서(811)와, 본체(200)의 우측으로 편심된 제2프론트 센서(812)를 포함할 수 있다.A pair of front sensors 811 and 812 may be provided left and right. The pair of front sensors 811 and 812 may include a first front sensor 811 eccentric to the left side of the body 200 and a second front sensor 812 eccentric to the right side of the body 200 . have.

제1프론트 센서(811)는 전방 또는 전방 좌측으로 경사진 방향을 향할 수 있다. 제2프론트 센서(812)는 전방 또는 전방 우측으로 경사진 방향을 향할 수 있다.The first front sensor 811 may face a direction inclined to the front or front left. The second front sensor 812 may face a direction inclined to the front or front right.

즉, 본체(200)의 중심(C)을 전후로 가로지르는 가상의 기준면(P)에 대해, 제1프론트 센서(811)와 제2프론트 센서(812)는 서로 반대편에 위치할 수 있다. 상기 본체(200)의 중심(C)은 하우징(210)의 중심일 수 있다. That is, the first front sensor 811 and the second front sensor 812 may be positioned opposite to each other with respect to the virtual reference plane P that crosses the center C of the body 200 back and forth. The center C of the main body 200 may be the center of the housing 210 .

제1프론트 센서(811)와 제2프론트 센서(812)는 좌우 대칭되게 배치될 수 있다. 즉, 제1프론트 센서(811)와 제2프론트 센서(812)는 상기 기준면(P)에 대해 대칭되게 배치될 수 있다.The first front sensor 811 and the second front sensor 812 may be symmetrically disposed. That is, the first front sensor 811 and the second front sensor 812 may be symmetrically disposed with respect to the reference plane P.

제1프론트 센서(811)와 제2프론트 센서(812)는 각각 초음파를 송수신할 수 있다.The first front sensor 811 and the second front sensor 812 may transmit and receive ultrasonic waves, respectively.

좀 더 상세히, 각 프론트 센서(811)(812)는 초음파를 송신하도록 구성된 에미터(Emitter)와, 초음파를 수신하도록 구성된 리시버(Receiver)를 포함할 수 있다. 상기 에미터 및 리시버는 주지의 구성이므로 이에 관한 자세한 설명은 생략한다.In more detail, each of the front sensors 811 and 812 may include an emitter configured to transmit ultrasonic waves and a receiver configured to receive ultrasonic waves. Since the emitter and receiver are well-known configurations, detailed description thereof will be omitted.

각 프론트 센서(811)(812)의 에미터 및 리시버는 동시에 활성화될 수 있다. 즉, 각 프론트 센서(811)(812)는 초음파의 송신기 및 수신기 역할을 동시에 수행하는 다이렉트(Direct) 방식으로 동작할 수 있다.The emitter and receiver of each front sensor 811, 812 may be activated simultaneously. That is, each of the front sensors 811 and 812 may operate in a direct manner that simultaneously functions as a transmitter and a receiver of ultrasonic waves.

프론트 센서(811)(812)에서 송신된 초음파는 본체(200)의 전방에 위치한 오브젝트에서 반사될 수 있고, 프론트 센서(811)(812)는 상기 오브젝트에서 반사되어 되돌아온 초음파를 수신할 수 있다. 이로써, 각 프론트 센서(811)(812)는 본체(200)의 전방에 위치한 오브젝트를 감지할 수 있다.The ultrasonic waves transmitted from the front sensors 811 and 812 may be reflected from an object located in front of the main body 200 , and the front sensors 811 and 812 may receive the reflected ultrasonic waves from the object. Accordingly, each of the front sensors 811 and 812 may detect an object located in front of the main body 200 .

레프트 센서(821)(822)는 좌측 방향 또는 전방 좌측으로 경사진 방향을 향할 수 있다. 전방 좌측으로 경사진 방향은 전방과 좌측 방향의 사이의 일 방향을 의미할 수 있다.The left sensors 821 and 822 may face a left direction or a direction inclined to the front left. The direction inclined to the front left may mean one direction between the front and left directions.

제1프론트 센서(811)가 향하는 방향과 레프트 센서(821)(822)가 향하는 방향은 서로 다를 수 있다.A direction that the first front sensor 811 faces and a direction that the left sensors 821 and 822 face may be different from each other.

레프트 센서(821)(822)는 하우징(210), 좀 더 상세히는 프론트 하우징(220)의 좌측부에 배치될 수 있다.The left sensors 821 and 822 may be disposed on the left side of the housing 210 , more specifically, the front housing 220 .

레프트 센서(821)(822)는 서로 이웃한 한 쌍이 구비될 수 있다. A pair of left sensors 821 and 822 may be provided adjacent to each other.

한 쌍의 초음파 센서(800)가 '이웃한'것은, 상기 한 쌍의 초음파 센서(800)의 사이에 또다른 초음파 센서가 없는 것을 의미한다.When the pair of ultrasonic sensors 800 are 'adjacent', it means that there is no other ultrasonic sensor between the pair of ultrasonic sensors 800 .

한 쌍의 레프트 센서(821)(822)는, 제1프론트 센서(811)와 이웃한 제1레프트 센서(821)와, 제1레프트 센서(821)와 이웃한 제2레프트 센서(822)를 포함할 수 있다.A pair of left sensors 821 and 822 includes a first left sensor 821 adjacent to the first front sensor 811 and a second left sensor 822 adjacent to the first left sensor 821. may include

즉, 제1레프트 센서(821)는 하우징(210)의 둘레 방향에 대해 제1프론트 센서(811)와 제2레프트 센서(822)의 사이에 위치할 수 있다.That is, the first left sensor 821 may be positioned between the first front sensor 811 and the second left sensor 822 in the circumferential direction of the housing 210 .

각 레프트 센서(821)(822)는 초음파를 송신 또는 수신할 수 있다.Each of the left sensors 821 and 822 may transmit or receive ultrasonic waves.

좀 더 상세히, 각 레프트 센서(821)(822)는 초음파를 송신하도록 구성된 에미터(Emitter)와, 초음파를 수신하도록 구성된 리시버(Receiver)를 포함할 수 있고, 각 레프트 센서(821)(822)의 에미터 및 리시버는 택일적으로 활성화될 수 있다. In more detail, each left sensor 821, 822 may include an emitter configured to transmit ultrasonic waves and a receiver configured to receive ultrasonic waves, and each left sensor 821, 822 may include an emitter configured to transmit ultrasonic waves. The emitter and receiver of can be activated alternatively.

제1레프트 센서(821) 및 제2레프트 센서(822) 중 어느 하나의 에미터가 활성화되면 다른 하나의 리시버가 활성화될 수 있다. 즉, 제1레프트 센서(821) 및 제2레프트 센서(822)는, 어느 하나가 초음파의 송신기 역할을 수행하고 다른 하나는 초음파의 수신기 역할을 수행하는 인다이렉트(Indirect) 방식으로 동작할 수 있다.When one emitter of the first left sensor 821 and the second left sensor 822 is activated, the other receiver may be activated. That is, the first left sensor 821 and the second left sensor 822 may operate in an indirect manner in which one serves as a transmitter of ultrasonic waves and the other serves as a receiver of ultrasonic waves. .

제1레프트 센서(821) 및 제2레프트 센서(822) 중 어느 하나에서 송신된 초음파는 본체(200)의 좌측 또는 좌측 전방에 위치한 오브젝트에서 반사될 수 있다. 제1레프트 센서(821) 및 제2레프트 센서(822) 중 다른 하나는 상기 오브젝트에서 반사된 초음파를 수신할 수 있다. 이로써, 제1레프트 센서(821) 및 제2레프트 센서(822)는 본체(200)의 좌측 또는 좌측 전방에 위치한 오브젝트를 감지할 수 있다.The ultrasonic wave transmitted from any one of the first left sensor 821 and the second left sensor 822 may be reflected from an object located on the left side or the left front side of the main body 200 . The other of the first left sensor 821 and the second left sensor 822 may receive the ultrasonic wave reflected from the object. Accordingly, the first left sensor 821 and the second left sensor 822 may detect an object located on the left side or the left front side of the main body 200 .

라이트 센서(831)(832)는 우측 방향 또는 전방 우측으로 경사진 방향을 향할 수 있다. 전방 우측으로 경사진 방향은 전방과 우측 방향의 사이의 일 방향을 의미할 수 있다.The light sensors 831 and 832 may face a right direction or a direction inclined to the front right. The direction inclined to the front right may mean one direction between the front and right directions.

제2프론트 센서(812)가 향하는 방향과 레프트 센서(821)(822)가 향하는 방향은 서로 다를 수 있다.The direction in which the second front sensor 812 faces and the direction in which the left sensors 821 and 822 face may be different from each other.

라이트 센서(831)(832)는 하우징(210), 좀 더 상세히는 프론트 하우징(220)의 우측부에 배치될 수 있다.The light sensors 831 and 832 may be disposed on the right side of the housing 210 , more specifically, the front housing 220 .

라이트 센서(831)(832)는 서로 이웃한 한 쌍이 구비될 수 있다. 한 쌍의 라이트 센서(831)(832)는 제2프론트 센서(812)와 이웃한 제1라이트 센서(831)와, 제1라이트 센서(831)와 이웃한 제2라이트 센서(832)를 포함할 수 있다.A pair of light sensors 831 and 832 adjacent to each other may be provided. The pair of light sensors 831 and 832 includes a first light sensor 831 adjacent to the second front sensor 812 and a second light sensor 832 adjacent to the first light sensor 831 . can do.

즉, 제1라이트 센서(831)는 하우징(210)의 둘레 방향에 대해 제2프론트 센서(812)와 제2라이트 센서(832)의 사이에 위치할 수 있다.That is, the first light sensor 831 may be positioned between the second front sensor 812 and the second light sensor 832 in the circumferential direction of the housing 210 .

각 라이트 센서(831)(832)는 초음파를 송신 또는 수신할 수 있다.Each of the light sensors 831 and 832 may transmit or receive ultrasonic waves.

좀 더 상세히, 각 라이트 센서(831)(832)는 초음파를 송신하도록 구성된 에미터(Emitter)와, 초음파를 수신하도록 구성된 리시버(Receiver)를 포함할 수 있고, 각 라이트 센서(831)(832)의 에미터 및 리시버는 택일적으로 활성화될 수 있다. In more detail, each light sensor 831 , 832 may include an emitter configured to transmit ultrasonic waves and a receiver configured to receive ultrasonic waves, and each light sensor 831 , 832 may include an emitter configured to transmit ultrasonic waves. The emitter and receiver of can be activated alternatively.

제1라이트 센서(831) 및 제2라이트 센서(832) 중 어느 하나의 에미터가 활성화되면 다른 하나의 리시버가 활성화될 수 있다. 즉, 제1라이트 센서(831) 및 제2라이트 센서(832)는, 어느 하나가 초음파의 송신기 역할을 수행하고 다른 하나는 초음파의 수신기 역할을 수행하는 인다이렉트(Indirect) 방식으로 동작할 수 있다. When one emitter of the first light sensor 831 and the second light sensor 832 is activated, the other receiver may be activated. That is, the first light sensor 831 and the second light sensor 832 may operate in an indirect manner in which one serves as a transmitter of ultrasonic waves and the other acts as a receiver of ultrasonic waves. .

제1라이트 센서(831) 및 제2라이트 센서(832) 중 어느 하나에서 송신된 초음파는 본체(200)의 우측 또는 우측 전방에 위치한 오브젝트에서 반사될 수 있다. 제1라이트 센서(831) 및 제2라이트 센서(832) 중 다른 하나는 상기 오브젝트에서 반사된 초음파를 수신할 수 있다. 이로써, 한 쌍의 레프트 센서(831)(832)는 본체(200)의 우측 또는 우측 전방에 위치한 오브젝트를 감지할 수 있다.Ultrasound transmitted from any one of the first light sensor 831 and the second light sensor 832 may be reflected from an object located on the right or right front side of the main body 200 . The other of the first light sensor 831 and the second light sensor 832 may receive the ultrasonic wave reflected from the object. Accordingly, the pair of left sensors 831 and 832 may detect an object located on the right or right front side of the main body 200 .

레프트 센서(821)(822)와 라이트 센서(831)(832)는 좌우 대칭되게 배치될 수 있다. 좀 더 상세히, 제1레프트 센서(821)와 제1라이트 센서(831)는 상기 기준면(P)에 대해 대칭되게 배치될 수 있다. 또한, 제2레프트 센서(822)와 제2라이트 센서(832)는 상기 기준면(P)에 대해 대칭되게 배치될 수 있다.The left sensors 821 and 822 and the light sensors 831 and 832 may be symmetrically disposed. In more detail, the first left sensor 821 and the first light sensor 831 may be symmetrically disposed with respect to the reference plane P. In addition, the second left sensor 822 and the second light sensor 832 may be symmetrically disposed with respect to the reference plane P.

제1레프트 센서(821)와 제1라이트 센서(831)는 제1사이드 센서로 명명할 수 있다. 또한 제2레프트 센서(822)와 제2라이트 센서(832)는 제2사이드 센서로 명명할 수 있다.The first left sensor 821 and the first light sensor 831 may be referred to as a first side sensor. Also, the second left sensor 822 and the second light sensor 832 may be referred to as a second side sensor.

이하, 제1프론트 센서(811), 제1레프트 센서(821) 및 제2레프트 센서(822)의 배치에 대해 설명한다. 이로부터, 당업자는 제2프론트 센서(812), 제1라이트 센서(831) 및 제2라이트 센서(832)의 배치에 대해서도 용이하게 이해할 수 있을 것이다.Hereinafter, the arrangement of the first front sensor 811 , the first left sensor 821 , and the second left sensor 822 will be described. From this, those skilled in the art will be able to easily understand the arrangement of the second front sensor 812 , the first light sensor 831 , and the second light sensor 832 .

제1프론트 센서(811)는 복수개의 초음파 센서(800) 중 라이다(204)와 가장 인접할 수 있다. 좀 더 상세히, 제1프론트 센서(811)와 라이다(204)(도 4 참조) 사이의 거리는, 제1레프트 센서(821)와 라이다(204) 사이의 거리보다 가까울 수 있다. 또한, 제1레프트 센서(821)와 라이다(204) 사이의 거리는 제2레프트 센서(822)와 라이다(204) 사이의 거리보다 가까울 수 있다. The first front sensor 811 may be closest to the lidar 204 among the plurality of ultrasonic sensors 800 . In more detail, the distance between the first front sensor 811 and the lidar 204 (see FIG. 4 ) may be closer than the distance between the first left sensor 821 and the lidar 204 . Also, the distance between the first left sensor 821 and the lidar 204 may be closer than the distance between the second left sensor 822 and the lidar 204 .

즉, 제1프론트 센서(811) 및/또는 제2프론트 센서(812)는 복수개의 초음파 센서(800) 중 라이다(204)에 가장 인접한 센서일 수 있다.That is, the first front sensor 811 and/or the second front sensor 812 may be the sensor closest to the lidar 204 among the plurality of ultrasonic sensors 800 .

또한, 하우징(210)의 중심(C)을 전후로 가로지르는 기준면(P)부터 제1프론트 센서(811)까지의 좌우 거리는, 상기 기준면(P)부터 제1레프트 센서(821)까지의 좌우 거리보다 가까울 수 있다. 또한, 상기 기준면(P)부터 제1레프트 센서(821)까지의 좌우 거리는 상기 기준면(P)부터 제2레프트 센서(822)까지의 좌우 거리보다 가까울 수 있다.In addition, the left and right distance from the reference plane P that crosses the center C of the housing 210 back and forth to the first front sensor 811 is greater than the left and right distance from the reference plane P to the first left sensor 821 . can be close In addition, the left and right distances from the reference plane P to the first left sensor 821 may be closer than the left and right distances from the reference plane P to the second left sensor 822 .

즉, 제1프론트 센서(811) 및/또는 제2프론트 센서(812)는 프론트 하우징(220)에 구비된 복수개의 초음파 센서(800) 중 상기 기준면(P)에 가장 인접하게 배치된 센서일 수 있다.That is, the first front sensor 811 and/or the second front sensor 812 may be a sensor disposed closest to the reference plane P among the plurality of ultrasonic sensors 800 provided in the front housing 220 . have.

또한, 하우징(210)의 중심(C)을 좌우로 가로지르는 기준면(H)부터 제1프론트 센서(811)까지의 전후 거리는, 상기 기준면(H)부터 제1레프트 센서(821)까지의 전후 거리보다 멀 수 있다. 또한, 상기 기준면(H)부터 제1레프트 센서(821)까지의 전후 거리는 상기 기준면(H)부터 제2레프트 센서(822)까지의 전후 거리보다 멀 수 있다.In addition, the front-back distance from the reference plane H that crosses the center C of the housing 210 left and right to the first front sensor 811 is the front-back distance from the reference plane H to the first left sensor 821 . can be further away In addition, the front-back distance from the reference plane H to the first left sensor 821 may be greater than the front-to-back distance from the reference plane H to the second left sensor 822 .

즉, 제1프론트 센서(811) 및/또는 제2프론트 센서(812)는 프론트 하우징(220)에 구비된 복수개의 초음파 센서(800) 중 상기 기준면(H)으로부터 가장 멀게 배치된 센서일 수 있다.That is, the first front sensor 811 and/or the second front sensor 812 may be a sensor disposed farthest from the reference plane H among the plurality of ultrasonic sensors 800 provided in the front housing 220 . .

하우징(210)의 중심(C)을 기준으로, 상기 기준면(P)과 제1프론트 센서(811) 사이의 각도는 소정의 제1각도(T1)보다 작을 수 있다. 좀 더 상세히, 하우징(210)의 중심(C)을 통과하며 상기 기준면(P)과 상기 제1각도(T1)를 이루는 제1가상면(P1)에 대해, 제1프론트 센서(811)는 상기 기준면(P)과 상기 제1가상면(P1)의 사이에 위치할 수 있다.An angle between the reference plane P and the first front sensor 811 with respect to the center C of the housing 210 may be smaller than a predetermined first angle T1 . In more detail, with respect to the first virtual surface P1 passing through the center C of the housing 210 and forming the first angle T1 with the reference plane P, the first front sensor 811 is the It may be located between the reference plane P and the first virtual plane P1.

또한, 하우징(210)의 중심(C)을 기준으로, 상기 기준면(P)과 제1레프트 센서(821) 사이의 각도는 상기 제1각도(T1) 및 상기 제1각도(T1)보다 큰 제2각도(T2)의 사이일 수 있다. 좀 더 상세히, 하우징(210)의 중심(C)을 통과하며 상기 기준면(P)과 상기 제2각도(T2)를 이루는 제2가상면(P2)에 대해, 제1레프트 센서(821)는 상기 기준면(P)과 상기 제2가상면(P2)의 사이에 위치할 수 있다.In addition, based on the center C of the housing 210, the angle between the reference plane P and the first left sensor 821 is greater than the first angle T1 and the first angle T1. It may be between two angles T2. In more detail, with respect to the second imaginary surface P2 passing through the center C of the housing 210 and forming the second angle T2 with the reference plane P, the first left sensor 821 is It may be positioned between the reference plane P and the second virtual plane P2.

또한, 하우징(210)의 중심(C)을 기준으로, 상기 기준면(P)과 제2레프트 센서(822) 사이의 각도는 상기 제2각도(T2) 및 상기 제2각도(T2)보다 큰 제3각도(T3)의 사이일 수 있다. 좀 더 상세히, 하우징(210)의 중심(C)을 통과하며 상기 기준면(P)과 상기 제3각도(T3)를 이루는 제3가상면(P3)에 대해, 제2레프트 센서(822)는 상기 기준면(P)과 상기 제3가상면(P3)의 사이에 위치할 수 있다.In addition, based on the center C of the housing 210, the angle between the reference plane P and the second left sensor 822 is greater than the second angle T2 and the second angle T2. It may be between the three angles T3. In more detail, with respect to the third virtual surface P3 passing through the center C of the housing 210 and forming the third angle T3 with the reference plane P, the second left sensor 822 is It may be located between the reference plane P and the third virtual plane P3.

즉, 제1프론트 센서(811) 및/또는 제2프론트 센서(812)는 프론트 하우징(220)에 구비된 복수개의 초음파 센서(800) 중 하우징(210)의 중심(C)을 기준으로 상기 기준면(P)과 이루는 각도가 가장 작은 센서일 수 있다.복수개의 초음파 센서(800)의 감지 범위(FOV: Field of View)가 전방 및 전방 양측을 모두 커버하기 위해, 상기 제1각도(T1)는 26도이고, 상기 제2각도(T2)는 50도이고, 상기 제3각도(T3)는 71도일 수 있다. That is, the first front sensor 811 and/or the second front sensor 812 is the reference plane with respect to the center C of the housing 210 among the plurality of ultrasonic sensors 800 provided in the front housing 220 . The sensor may have the smallest angle with P. In order for a field of view (FOV) of the plurality of ultrasonic sensors 800 to cover both the front and the front, the first angle T1 is 26 degrees, the second angle T2 may be 50 degrees, and the third angle T3 may be 71 degrees.

즉, 상기 하우징(210)의 중심(C)을 기준으로, 상기 기준면(P)과 제1초음파 센서(811) 사이의 각도는 26도 이하이고, 상기 기준면(P)과 제1레프트 센서(821) 사이의 각도는 26도 내지 50도이고, 상기 기준면(P)과 제2레프트 센서(822) 사이의 각도는 50도 내지 71도일 수 있다.That is, based on the center (C) of the housing 210, the angle between the reference plane (P) and the first ultrasonic sensor 811 is 26 degrees or less, the reference plane (P) and the first left sensor 821 ) may be 26 degrees to 50 degrees, and the angle between the reference plane P and the second left sensor 822 may be 50 degrees to 71 degrees.

이로써, 수평 방향에 대한 복수개의 초음파 센서(800)의 감지 범위(FOV)가 넓어질 수 있다.Accordingly, the detection range (FOV) of the plurality of ultrasonic sensors 800 in the horizontal direction may be widened.

하우징(210)의 중심(C)을 기준으로, 제1프론트 센서(811)와 제2레프트 센서(822) 사이의 각도(a1+a2)는, 제1프론트 센서(811)와 제1레프트 센서(821) 사이의 각도(a1) 및 제1레프트 센서(821)와 제2레프트 센서(822) 사이의 각도(a2)보다 클 수 있다.The angle (a1+a2) between the first front sensor 811 and the second left sensor 822 with respect to the center C of the housing 210 is the first front sensor 811 and the first left sensor. It may be greater than the angle a1 between 821 and the angle a2 between the first left sensor 821 and the second left sensor 822 .

또한, 하우징(210)의 중심(C)을 기준으로, 제1프론트 센서(811)와 제1레프트 센서(821) 사이의 각도(a1)는, 제1레프트 센서(821)와 제2레프트 센서(822) 사이의 각도(a2)보다 클 수 있다. 즉, 전방에서 측방으로 갈수록 초음파 센서(800)간의 간격이 좁아질 수 있다. In addition, the angle a1 between the first front sensor 811 and the first left sensor 821 with respect to the center C of the housing 210 is the first left sensor 821 and the second left sensor. may be greater than the angle a2 between 822 . That is, the distance between the ultrasonic sensors 800 may become narrower from the front to the side.

따라서, 제1레프트 센서(821)와 제2레프트 센서(822) 중 어느 하나에서 송신된 초음파가 다른 하나로 원활하게 수신될 수 있다. 이로써, 하우징(210)의 전방 좌측 방향에 대해 보다 세밀한 감지가 가능하다.Accordingly, the ultrasound transmitted from one of the first left sensor 821 and the second left sensor 822 may be smoothly received by the other. Accordingly, it is possible to more precisely sense the front left direction of the housing 210 .

만일 제1레프트 센서(821)와 제2레프트 센서(822) 사이의 거리가 멀면 원활한 송수신이 어려워져 감지 거리에 왜곡이 발생할 수 있다.If the distance between the first left sensor 821 and the second left sensor 822 is long, smooth transmission and reception may be difficult, and distortion may occur in the sensing distance.

한편, 복수개의 초음파 센서(800)는 리어 센서(840)와, 제3레프트 센서(841)와, 제3라이트 센서(842)를 더 포함할 수 있다. 제3레프트 센서(841) 및 제3라이트 센서(842)는 제3사이드 센서로 명명할 수 있다.Meanwhile, the plurality of ultrasonic sensors 800 may further include a rear sensor 840 , a third left sensor 841 , and a third light sensor 842 . The third left sensor 841 and the third light sensor 842 may be referred to as a third side sensor.

리어 센서(840)와, 제3레프트 센서(841)와, 제3라이트 센서(842)는 리어 하우징(230)에 배치될 수 있다.The rear sensor 840 , the third left sensor 841 , and the third light sensor 842 may be disposed in the rear housing 230 .

리어 센서(840)는 후방을 향할 수 있다. 리어 센서(840)는 하우징(210), 좀 더 상세히는 리어 하우징(230)의 배면에 배치될 수 있다.The rear sensor 840 may face rearward. The rear sensor 840 may be disposed on the rear surface of the housing 210 , more specifically, the rear housing 230 .

제3레프트 센서(841)은 후방 좌측으로 경사진 방향을 향할 수 있고, 제3라이트 센서(842)는 후방 우측으로 경사진 방향을 향할 수 있다. 후방 좌측으로 경사진 방향은 후방과 좌측 방향의 사이의 일 방향을 의미할 수 있다. 후방 우측으로 경사진 방향은 후방과 우측 방향의 사이의 일 방향을 의미할 수 있다.The third left sensor 841 may face a direction inclined to the rear left, and the third light sensor 842 may face a direction inclined to the rear right. The direction inclined to the rear left may mean one direction between the rearward and leftward directions. A direction inclined to the rear right may refer to a direction between the rearward and rightward directions.

제3레프트 센서(841)는 하우징(210), 좀 더 상세히는 리어 하우징(230)의 좌측부에 배치될 수 있다. 즉, 제3레프트 센서(841)는 본체(200)의 좌측으로 편심될 수 있다.The third left sensor 841 may be disposed on the left side of the housing 210 , more specifically, the rear housing 230 . That is, the third left sensor 841 may be eccentric to the left side of the main body 200 .

제3라이트 센서(842)는 하우징(210), 좀 더 상세히는 리어 하우징(230)의 우측부에 배치될 수 있다. 즉, 제3라이트 센서(842)는 본체(200)의 우측으로 편심될 수 있다.The third light sensor 842 may be disposed on the right side of the housing 210 , more specifically, the rear housing 230 . That is, the third light sensor 842 may be eccentric to the right side of the main body 200 .

제3레프트 센서(841) 및 제3라이트 센서(842)는 리어 센서(840)와 이웃할 수 있다. 리어 센서(840)는 하우징(210)의 둘레 방향에 대해 제3레프트 센서(841) 및 제3라이트 센서(842)의 사이에 위치할 수 있다. 리어 센서(840)는 하우징(210)의 둘레 방향에 대해 제3레프트 센서(841) 및 제3라이트 센서(842)와 이격될 수 있다.The third left sensor 841 and the third light sensor 842 may be adjacent to the rear sensor 840 . The rear sensor 840 may be positioned between the third left sensor 841 and the third light sensor 842 in the circumferential direction of the housing 210 . The rear sensor 840 may be spaced apart from the third left sensor 841 and the third light sensor 842 in the circumferential direction of the housing 210 .

제3레프트 센서(841) 및 제3라이트 센서(842)는 좌우 대칭되게 배치될 수 있다. 좀 더 상세히, 제3레프트 센서(841) 및 제3라이트 센서(842)는 상기 기준면(P)에 대해 서로 대칭되게 배치될 수 있다.The third left sensor 841 and the third light sensor 842 may be symmetrically disposed. In more detail, the third left sensor 841 and the third light sensor 842 may be disposed symmetrically with respect to the reference plane P.

리어 센서(840)와, 제3레프트 센서(841)와, 제3라이트 센서(842)는 각각 초음파를 송수신할 수 있다. 즉, 리어 센서(840)와, 제3레프트 센서(841)와, 제3라이트 센서(842)는 에미터와 리시버가 동시에 활성화되는 다이렉트 방식으로 동작할 수 있다.The rear sensor 840 , the third left sensor 841 , and the third light sensor 842 may transmit and receive ultrasonic waves, respectively. That is, the rear sensor 840 , the third left sensor 841 , and the third light sensor 842 may operate in a direct manner in which the emitter and the receiver are simultaneously activated.

리어 센서(840)에서 송신된 초음파는 본체(200)의 후방에 위치한 오브젝트에서 반사될 수 있고, 리어 센서(840)는 상기 오브젝트에서 반사되어 되돌아온 초음파를 수신할 수 있다. 이로써, 리어 센서(840)는 본체(200)의 후방에 위치한 오브젝트를 감지할 수 있다.The ultrasonic wave transmitted from the rear sensor 840 may be reflected from an object located at the rear of the main body 200 , and the rear sensor 840 may receive the reflected ultrasonic wave from the object. Accordingly, the rear sensor 840 may detect an object located at the rear of the main body 200 .

제3레프트 센서(841)에서 송신된 초음파는 본체(200)의 후방 좌측에 위치한 오브젝트에서 반사될 수 있고, 제3레프트 센서(841)는 상기 오브젝트에서 반사되어 되돌아온 초음파를 수신할 수 있다. 이로써, 제3레프트 센서(841)는 본체(200)의 후방 좌측에 위치한 오브젝트를 감지할 수 있다.The ultrasonic wave transmitted from the third left sensor 841 may be reflected from an object located on the rear left side of the main body 200 , and the third left sensor 841 may receive the reflected ultrasonic wave from the object. Accordingly, the third left sensor 841 may detect an object located on the rear left side of the main body 200 .

제3라이트 센서(842)에서 송신된 초음파는 본체(200)의 후방 우측에 위치한 오브젝트에서 반사될 수 있고, 제3라이트 센서(842)는 상기 오브젝트에서 반사되어 되돌아온 초음파를 수신할 수 있다. 이로써, 제3라이트 센서(842)는 본체(200)의 후방 우측에 위치한 오브젝트를 감지할 수 있다.The ultrasonic wave transmitted from the third light sensor 842 may be reflected from an object located on the rear right side of the main body 200 , and the third light sensor 842 may receive the reflected ultrasonic wave from the object. Accordingly, the third light sensor 842 may detect an object located on the rear right side of the main body 200 .

이하, 본체(200)의 중심(C)에 대한 리어 센서(840) 및 제3레프트 센서(841)의 배치에 대해 설명한다. 이로부터, 당업자는 제2라이트 센서(842)의 배치에 대해서도 용이하게 이해할 수 있을 것이다.Hereinafter, the arrangement of the rear sensor 840 and the third left sensor 841 with respect to the center C of the main body 200 will be described. From this, a person skilled in the art may easily understand the arrangement of the second light sensor 842 .

리어 센서(840)는 좌우 방향에 대해 하우징(210)의 중앙에 위치할 수 있다. 좀 더 상세히, 리어 센서(840)는 하우징(210)의 중심(C)을 전후로 가로지르는 가상의 기준면(P) 상에 위치할 수 있다. The rear sensor 840 may be located at the center of the housing 210 in the left and right directions. In more detail, the rear sensor 840 may be located on a virtual reference plane P that crosses the center C of the housing 210 back and forth.

따라서, 리어 센서(840)는 전후 방향으로 프론트 센서(811)(812)와 비대칭되게 배치될 수 있다.Accordingly, the rear sensor 840 may be asymmetrically disposed with the front sensors 811 and 812 in the front-rear direction.

하우징(210)의 중심(C)을 좌우로 가로지르는 가상의 기준면(H)과 제2레프트 센서(822) 사이의 전후 거리(L1)는, 상기 기준면(H)과 제3레프트 센서(842) 사이의 전후 거리(L2)보다 가까울 수 있다.The front-back distance L1 between the imaginary reference plane H crossing the center C of the housing 210 left and right and the second left sensor 822 is the reference plane H and the third left sensor 842 ). It may be closer than the front-to-back distance L2 between them.

또한, 하우징(210)의 중심(C)을 기준으로, 리어 센서(840)와 제3레프트 센서(841) 사이의 각도(a3)는, 제1프론트 센서(811)와 제1레프트 센서(821) 사이의 각도(a1) 및 제1레프트 센서(821)와 제2레프트 센서(822) 사이의 각도(a2)보다 클 수 있다.In addition, the angle a3 between the rear sensor 840 and the third left sensor 841 with respect to the center C of the housing 210 is the first front sensor 811 and the first left sensor 821 . ) may be greater than an angle a1 between the , and an angle a2 between the first left sensor 821 and the second left sensor 822 .

즉, 제3레프트 센서(841)는, 전후 방향에 대해 제1레프트 센서(821) 및 제2레프트 센서(822)와 비대칭되게 배치될 수 있다.That is, the third left sensor 841 may be asymmetrically disposed with the first left sensor 821 and the second left sensor 822 in the front-rear direction.

따라서, 전방과 측방 사이의 일 방향을 향하는 초음파 센서(800)의 개수는, 후방과 측방 사이의 일 방향을 향하는 초음파 센서(800)의 개수보다 많을 수 있다. 이로써, 로봇(10a)의 전방과 측방 사이의 일 방향에 위치한 오브젝트를 상대적으로 정밀하게 감지할 수 있다.Accordingly, the number of the ultrasonic sensors 800 oriented in one direction between the front and the side may be greater than the number of the ultrasonic sensors 800 oriented in one direction between the rear and the side. Accordingly, an object located in one direction between the front and the side of the robot 10a can be detected relatively precisely.

도 7은 본 발명의 실시예에 따른 복수개의 초음파 센서와 하우징의 외둘레면 사이의 단차가 도시된 도면이다.7 is a diagram illustrating a step difference between a plurality of ultrasonic sensors and an outer peripheral surface of a housing according to an embodiment of the present invention.

도 7에는 제1프론트 센서(811), 제1레프트 센서(821) 및 제2레프트 센서(822)가 도시되어 있다. 이로부터 당업자는 제2프론트 센서(812), 제1라이트 센서(831) 및 제2라이트 센서(832)에 대해서도 용이하게 이해할 수 있을 것이다.7 shows a first front sensor 811 , a first left sensor 821 , and a second left sensor 822 . From this, those skilled in the art will also be able to easily understand the second front sensor 812 , the first light sensor 831 , and the second light sensor 832 .

복수개의 초음파 센서(800)는 본체(200), 즉 하우징(210)의 외둘레면에 대해 내측으로 단차지게 배치될 수 있다. 초음파 센서(800)는 하우징(210)의 개구(211)에서 돌출되지 않을 수 있다. The plurality of ultrasonic sensors 800 may be disposed to be stepped inward with respect to the outer circumferential surface of the main body 200 , that is, the housing 210 . The ultrasonic sensor 800 may not protrude from the opening 211 of the housing 210 .

좀 더 상세히, 초음파 센서(800)는 하우징(210)의 개구(211)를 통해 하우징(210)의 외둘레면과 내측으로 단차지게 배치될 수 있다. 일 초음파 센서(800)의 단차 거리는, 하우징(210)의 외둘레면에서부터 개구(211)를 통한 상기 일 초음파 센서(800)까지의 평균 깊이를 의미할 수 있다.In more detail, the ultrasonic sensor 800 may be disposed to be stepped inward from the outer circumferential surface of the housing 210 through the opening 211 of the housing 210 . The step distance of one ultrasonic sensor 800 may mean an average depth from the outer peripheral surface of the housing 210 to the one ultrasonic sensor 800 through the opening 211 .

하우징(210)의 외둘레면을 기준으로, 제1레프트 센서(821)의 단차 거리(g2)는 제1프론트 센서(811)의 단차 거리(g1) 및 제2레프트 센서(822)의 단차 거리(g3)보다 멀 수 있다.Based on the outer circumferential surface of the housing 210 , the step distance g2 of the first left sensor 821 is the step distance g1 of the first front sensor 811 and the step distance of the second left sensor 822 . It can be farther than (g3).

예를 들어, 제1레프트 센서(821)의 단차 거리(g2)는 약 3mm이고, 제1프론트 센서(811)의 단차 거리(g1) 및 제2레프트 센서(822)의 단차 거리(g3)는 약 1mm일 수 있다.For example, the step distance g2 of the first left sensor 821 is about 3 mm, the step distance g1 of the first front sensor 811 and the step distance g3 of the second left sensor 822 are It may be about 1 mm.

제1프론트 센서(811)는 초음파의 송수신이 동시에 이뤄지므로, 외부 초음파의 간섭에 상대적으로 더 민감할 수 있다. 따라서, 제1프론트 센서(811)와 이웃한 제1레프트 센서(821)의 단차 거리(g2)를 상대적으로 더 크게 형성하여, 제1레프트 센서(821)에서 송신된 초음파가 제1프론트 센서(811)에 간섭하는 것을 최소화시킬 수 있다.Since the first front sensor 811 transmits and receives ultrasonic waves at the same time, it may be relatively more sensitive to interference from external ultrasonic waves. Accordingly, the step distance g2 between the first front sensor 811 and the adjacent first left sensor 821 is made relatively larger, so that the ultrasonic wave transmitted from the first left sensor 821 is transmitted to the first front sensor ( 811) can be minimized.

제1레프트 센서(821)에서 송신된 초음파가 제1프론트 센서(811)에 간섭하는 것을 최소화하면서도 제1레프트 센서(821)의 감지 범위(FoV)가 지나치게 줄어드는 것을 방지하기 위해, 제1레프트 센서(821)의 단차 거리(g2)는 3mm 내지 5mm일 수 있다. In order to prevent the detection range (FoV) of the first left sensor 821 from being excessively reduced while minimizing interference of the ultrasonic wave transmitted from the first left sensor 821 to the first front sensor 811, the first left sensor The step distance g2 of 821 may be 3 mm to 5 mm.

좀 더 상세히, 제1레프트 센서(821)의 단차 거리(g2)가 3mm보다 가까우면 제1레프트 센서(821)에서 송신된 초음파가 제1프론트 센서(811)에 간섭할 위험이 커질 수 있다. 또한, 제1레프트 센서(821)의 단차 거리(g2)가 5mm보다 멀면 제1레프트 센서(821)의 감지 범위(FoV)가 지나치게 협소해질 수 있다.In more detail, if the step distance g2 of the first left sensor 821 is closer than 3 mm, the risk of the ultrasonic waves transmitted from the first left sensor 821 interfering with the first front sensor 811 may increase. Also, when the step distance g2 of the first left sensor 821 is greater than 5 mm, the sensing range FoV of the first left sensor 821 may be too narrow.

또한, 제1레프트 센서(821)의 감지 범위(FoV)가 지나치게 줄어는 것을 방지하기 위해, 제1레프트 센서(821)가 배치된 개구(211b)는 외측으로 갈수록 직경이 커지도록 테이퍼지게 형성될 수 있다.In addition, in order to prevent the detection range FoV of the first left sensor 821 from being excessively reduced, the opening 211b in which the first left sensor 821 is disposed is tapered to increase in diameter toward the outside. can

반면, 제1프론트 센서(811)가 배치된 개구(211a) 및 제2레프트 센서(822)가 배치된 개구(211c)는 직경이 일정하거나, 제1레프트 센서(821)가 배치된 개구(211b)보다 내둘레 기울기가 작게 테이퍼질 수 있다.On the other hand, the opening 211a in which the first front sensor 811 is disposed and the opening 211c in which the second left sensor 822 is disposed have a constant diameter or the opening 211b in which the first left sensor 821 is disposed. ) may be tapered smaller than the inner perimeter slope.

도 8A 및 도 8B는 본 발명의 실시예에 따른 복수개의 초음파 센서의 작용을 설명하기 위한 도면이다.8A and 8B are diagrams for explaining the operation of a plurality of ultrasonic sensors according to an embodiment of the present invention.

로봇(10a)의 프로세서(18)(도 1 참조)는 각 초음파 센서(800)의 감지 데이터를 전달받을 수 있다. 프로세서(18)는 상기 감지 데이터를 기반으로 오브젝트의 존재 여부 및 오브젝트와의 거리를 산출할 수 있다.The processor 18 (refer to FIG. 1 ) of the robot 10a may receive sensing data of each ultrasonic sensor 800 . The processor 18 may calculate whether an object exists and a distance to the object based on the sensed data.

프로세서(18)는 각 초음파 센서(800)를 제어할 수 있다. 좀 더 상세히, 프로세서(18)는 각 초음파 센서(800)의 에미터 및/또는 리미터를 활성화시키거나 비활성화시킬 수 있다.The processor 18 may control each ultrasonic sensor 800 . In more detail, the processor 18 may activate or deactivate the emitter and/or limiter of each ultrasonic sensor 800 .

프로세서(18)는 제1프론트 센서(811) 및 제2프론트 센서(812)를 기설정된 설정 주기에 따라 택일적으로 구동시킬 수 있다. 즉, 제1프론트 센서(811)와 제2프론트 센서(812)는 동시에 구동되지 않고 주기적으로 스위칭되어 구동될 수 있다.The processor 18 may selectively drive the first front sensor 811 and the second front sensor 812 according to a preset period. That is, the first front sensor 811 and the second front sensor 812 may not be driven simultaneously, but may be periodically switched and driven.

제1프론트 센서(811)가 구동되면 제1프론트 센서(811)는 초음파를 송수신할 수 있다. 좀 더 상세히, 제1프론트 센서(811)의 에미터에서는 초음파가 송신될 수 있고 리시버에서는 초음파가 수신될 수 있다. 이때 제2프론트 센서(812)의 작동은 정지된 상태일 수 있다.When the first front sensor 811 is driven, the first front sensor 811 may transmit and receive ultrasonic waves. In more detail, ultrasonic waves may be transmitted from the emitter of the first front sensor 811 and ultrasonic waves may be received from the receiver. In this case, the operation of the second front sensor 812 may be in a stopped state.

제2프론트 센서(812)가 구동되면 제2프론트 센서(812)는 초음파를 송수신할 수 있다. 좀 더 상세히, 제2프론트 센서(812)의 에미터에서는 초음파가 송신될 수 있고 리시버에서는 초음파가 수신될 수 있다. 이때 제1프론트 센서(811)의 작동은 정지된 상태일 수 있다.When the second front sensor 812 is driven, the second front sensor 812 may transmit/receive ultrasonic waves. In more detail, ultrasonic waves may be transmitted from the emitter of the second front sensor 812 and ultrasonic waves may be received from the receiver. In this case, the operation of the first front sensor 811 may be in a stopped state.

이로써, 제1프론트 센서(811) 및 제2프론트 센서(812)간에 초음파의 간섭이 발생하지 않는다.Accordingly, interference of ultrasonic waves does not occur between the first front sensor 811 and the second front sensor 812 .

또한, 프로세서(18)는 상기 설정 주기에 따라 제1레프트 센서(821)와 제2레프트 센서(831)의 초음파 송수신을 서로 스위칭할 수 있다. Also, the processor 18 may switch ultrasonic transmission/reception between the first left sensor 821 and the second left sensor 831 according to the set period.

즉, 제1레프트 센서(821) 및 제2레프트 센서(822) 중 초음파가 송신되는 센서와 초음파가 수신되는 센서는 주기적으로 스위칭될 수 있다. 좀 더 상세히, 제1레프트 센서(821)의 에미터가 활성화되면 제2레프트 센서(822)의 리시버가 활성화될 수 있다. 반대로 제1레프트 센서(821)의 리시버가 활성화되면 제2레프트 센서(822)의 에미터가 활성화될 수 있다.That is, a sensor that transmits an ultrasonic wave and a sensor that receives an ultrasonic wave among the first left sensor 821 and the second left sensor 822 may be periodically switched. In more detail, when the emitter of the first left sensor 821 is activated, the receiver of the second left sensor 822 may be activated. Conversely, when the receiver of the first left sensor 821 is activated, the emitter of the second left sensor 822 may be activated.

또한, 프로세서(18)는 상기 설정 주기에 따라 제1라이트 센서(831)와 제2라이트 센서(832)의 초음파 송수신을 서로 스위칭할 수 있다. Also, the processor 18 may switch ultrasonic transmission and reception between the first light sensor 831 and the second light sensor 832 according to the set period.

즉, 제1라이트 센서(831) 및 제2라이트 센서(832) 중 초음파가 송신되는 센서와 초음파가 수신되는 센서는 주기적으로 스위칭될 수 있다. 좀 더 상세히, 제1라이트 센서(831)의 에미터가 활성화되면 제2라이트 센서(832)의 리시버가 활성화될 수 있다. 반대로 제1라이트 센서(831)의 리시버가 활성화되면 제2라이트 센서(832)의 에미터가 활성화될 수 있다.That is, a sensor that transmits ultrasonic waves and a sensor that receives ultrasonic waves among the first light sensor 831 and the second light sensor 832 may be periodically switched. In more detail, when the emitter of the first light sensor 831 is activated, the receiver of the second light sensor 832 may be activated. Conversely, when the receiver of the first light sensor 831 is activated, the emitter of the second light sensor 832 may be activated.

도 8A에 도시된 바와 같이 제1프론트 센서(811)가 구동되고 제2프론트 센서(811)가 구동 중단되면, 프로세서(18)는 제1레프트 센서(821)에서 초음파를 송신시키고, 제2레프트 센서(822)에서 초음파를 수신시키고, 제1라이트 센서(831)에서 초음파를 수신시키고, 제2라이트 센서(832)에서 초음파를 송신시킬 수 있다.As shown in FIG. 8A , when the first front sensor 811 is driven and the second front sensor 811 is stopped, the processor 18 transmits an ultrasonic wave from the first left sensor 821 and the second left The sensor 822 may receive the ultrasonic wave, the first light sensor 831 may receive the ultrasonic wave, and the second light sensor 832 may transmit the ultrasonic wave.

즉, 프로세서(18)는 제1프론트 센서(811)의 에미터 및 리시버와, 제1레프트 센서(821)의 에미터와, 제2레프트 센서(822)의 리시버와, 제1라이트 센서(831)의 리시버와, 제2라이트 센서(832)의 에미터를 동시에 활성화시킬 수 있다.That is, the processor 18 includes the emitter and receiver of the first front sensor 811 , the emitter of the first left sensor 821 , the receiver of the second left sensor 822 , and the first light sensor 831 . ) and the emitter of the second light sensor 832 may be simultaneously activated.

초음파를 수신하는 제1라이트 센서(831)와 이웃한 제2프론트 센서(812)가 구동되지 않으므로, 제1라이트 센서(831)로 향하는 초음파가 제2프론트 센서(812)에 영향을 끼칠 우려를 방지할 수 있다.Since the first light sensor 831 that receives the ultrasonic wave and the adjacent second front sensor 812 are not driven, the ultrasonic wave directed to the first light sensor 831 may affect the second front sensor 812 . can be prevented

도 8B에 도시된 바와 같이 제2프론트 센서(812)가 구동되고 제1프론트 센서(811)가 구동 중단되면, 프로세서(18)는 제1레프트 센서(821)에서 초음파를 수신시키고, 제2레프트 센서(822)에서 초음파를 송신시키고, 제1라이트 센서(831)에서 초음파를 송신시키고, 제2라이트 센서(832)에서 초음파를 수신시킬 수 있다.As shown in FIG. 8B , when the second front sensor 812 is driven and the first front sensor 811 is stopped, the processor 18 receives the ultrasound from the first left sensor 821, and the second left The sensor 822 may transmit an ultrasonic wave, the first light sensor 831 may transmit an ultrasonic wave, and the second light sensor 832 may receive the ultrasonic wave.

즉, 프로세서(18)는 제2프론트 센서(812)의 에미터 및 리시버와, 제1레프트 센서(821)의 리시버와, 제2레프트 센서(822)의 에미터와, 제1라이트 센서(831)의 에미터와, 제2라이트 센서(832)의 리시버를 동시에 활성화시킬 수 있다.That is, the processor 18 includes the emitter and receiver of the second front sensor 812 , the receiver of the first left sensor 821 , the emitter of the second left sensor 822 , and the first light sensor 831 . ) and the receiver of the second light sensor 832 may be simultaneously activated.

초음파를 수신하는 제1레프트 센서(821)와 이웃한 제1프론트 센서(811)가 구동되지 않으므로, 제1레프트 센서(821)로 향하는 초음파가 제1프론트 센서(811)에 영향을 끼칠 우려를 방지할 수 있다.Since the first left sensor 821 that receives the ultrasonic wave and the adjacent first front sensor 811 are not driven, the ultrasonic wave directed to the first left sensor 821 may affect the first front sensor 811 . can be prevented

정리하면, 도 8A에 도시된 상태와 도 8B에 도시된 상태는 주기적으로 스위칭될 수 있다. 따라서, 본체(200)의 전방 및 좌우 양측을 연속적으로 감지하면서도, 다이렉트 방식으로 동작하는 프론트 센서(811)(812)에 간섭이 발생할 우려를 최소화시킬 수 있다. In summary, the state shown in Fig. 8A and the state shown in Fig. 8B can be switched periodically. Accordingly, while continuously sensing the front and left and right sides of the main body 200, it is possible to minimize the possibility of interference with the front sensors 811 and 812 operating in a direct manner.

또한, 프론트 센서(811)(812)가 초음파의 송수신이 병합된 다이렉트 방식으로 동작하므로 필요한 초음파 센서(800)의 개수가 줄어들 수 있다.Also, since the front sensors 811 and 812 operate in a direct method in which transmission and reception of ultrasound are combined, the number of required ultrasound sensors 800 may be reduced.

또한, 레프트 센서(821)(822) 및 라이트 센서(831)(832)는 초음파의 송신과 수신이 분리된 인다이렉트 방식으로 동작하므로, 본체(200)와 벽(W) 사이의 근접 거리를 정밀하게 측정할 수 있다. In addition, since the left sensors 821 and 822 and the light sensors 831 and 832 operate in an indirect manner in which transmission and reception of ultrasonic waves are separated, the proximity distance between the body 200 and the wall W can be precisely measured. can be measured accurately.

따라서, 프로세서(18)가 본체(200)의 측방에 인접한 벽(W)을 장애물로 인식하여 로봇의 주행을 중단시키는 것을 방지할 수 있고, 도 8A 및 도 8B에 도시된 바와 같이 로봇(10a)은 한 쌍의 벽(W) 사이에 형성된 협로를 용이하게 통과할 수 있다.Accordingly, it is possible to prevent the processor 18 from stopping the running of the robot by recognizing the wall W adjacent to the side of the main body 200 as an obstacle, and as shown in FIGS. 8A and 8B, the robot 10a Silver can easily pass through the narrow path formed between the pair of walls (W).

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains.

따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments.

본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

200: 본체 210: 하우징
211: 개구 800: 초음파 센서
811: 제1프론트 센서 812: 제2프론트 센서
821: 제1레프트 센서 822: 제2레프트 센서
831: 제1라이트 센서 832: 제2라이트 센서
200: body 210: housing
211: opening 800: ultrasonic sensor
811: first front sensor 812: second front sensor
821: first left sensor 822: second left sensor
831: first light sensor 832: second light sensor

Claims (32)

주행휠이 구비된 본체; 및
상기 본체의 둘레를 따라 서로 이격된 복수개의 초음파 센서를 포함하고,
상기 복수개의 초음파 센서는,
각각 초음파를 송수신하며 좌우로 이격된 제1,2프론트 센서;
좌측 방향 또는 전방 좌측으로 경사진 방향을 향하고 서로 이웃하며 어느 하나는 초음파를 송신하고 다른 하나는 초음파를 수신하는 제1,2레프트 센서; 및
우측 방향 또는 전방 우측으로 경사진 방향을 향하고 서로 이웃하며 어느 하나는 초음파를 송신하고 다른 하나는 초음파를 수신하는 제1,2라이트 센서를 포함하는 로봇.
a body provided with a driving wheel; and
A plurality of ultrasonic sensors spaced apart from each other along the circumference of the main body,
The plurality of ultrasonic sensors,
first and second front sensors that transmit and receive ultrasonic waves, respectively, and are spaced apart from one another;
first and second left sensors facing each other in a left direction or an inclined direction to the front left and adjacent to each other, one of which transmits an ultrasonic wave and the other receives the ultrasonic wave; and
A robot including first and second light sensors facing to the right or in a direction inclined to the front right and adjacent to each other, one of which transmits an ultrasonic wave and the other one receives the ultrasonic wave.
제 1 항에 있어서,
상기 제1레프트 센서는 상기 제1프론트 센서와 이웃하고, 상기 제1라이트 센서는 상기 제2프론트 센서와 이웃한 로봇.
The method of claim 1,
The first left sensor is adjacent to the first front sensor, and the first light sensor is adjacent to the second front sensor.
제 1 항에 있어서,
상기 제1프론트 센서는 상기 본체의 좌측으로 편심되고 상기 제2프론트 센서는 상기 본체의 우측으로 편심된 로봇.
The method of claim 1,
The first front sensor is eccentric to the left side of the main body and the second front sensor is eccentric to the right side of the main body.
제 2 항에 있어서,
상기 제1프론트 센서 및 제2프론트 센서를 기설정된 시간 간격에 따라 택일적으로 구동시키는 프로세서를 더 포함하는 로봇.
3. The method of claim 2,
The robot further comprising a processor for selectively driving the first front sensor and the second front sensor according to a preset time interval.
제 1 항에 있어서,
기설정된 시간 간격에 따라, 상기 제1레프트 센서와 상기 제2레프트 센서의 초음파 송수신을 서로 스위칭하고, 상기 제1라이트 센서와 상기 제2라이트 센서의 초음파 송수신을 서로 스위칭하는 프로세서를 더 포함하는 로봇.
The method of claim 1,
The robot further comprising a processor for switching the ultrasonic transmission and reception of the first left sensor and the second left sensor with each other according to a preset time interval, and for switching the ultrasonic transmission and reception of the first light sensor and the second light sensor with each other .
제 4 항에 있어서,
상기 프로세서는,
상기 제1프론트 센서가 구동되면, 상기 제1프론트 센서와 이웃한 상기 제1레프트 센서에서 초음파를 송신시키며 상기 제2레프트 센서에서 초음파를 수신시키고,
상기 제2프론트 센서가 구동되면, 상기 제2프론트 센서와 이웃한 상기 제1라이트 센서에서 초음파를 송신시키며 상기 제2라이트 센서에서 초음파를 수신시키는 로봇.
5. The method of claim 4,
The processor is
When the first front sensor is driven, the first left sensor adjacent to the first front sensor transmits an ultrasonic wave and the second left sensor receives the ultrasonic wave,
When the second front sensor is driven, the robot transmits ultrasonic waves from the first light sensor adjacent to the second front sensor and receives the ultrasonic waves from the second light sensor.
제 6 항에 있어서,
상기 프로세서는,
상기 제1프론트 센서가 구동되면, 상기 제2라이트 센서에서 초음파를 송신시키며 상기 제1라이트 센서에서 초음파를 수신시키고
상기 제2프론트 센서가 구동되면, 상기 제2레프트 센서에서 초음파를 송신시키며 상기 제1레프트 센서에서 초음파를 수신시키는 로봇.
7. The method of claim 6,
The processor is
When the first front sensor is driven, the second light sensor transmits an ultrasonic wave and the first light sensor receives the ultrasonic wave,
When the second front sensor is driven, the robot transmits an ultrasonic wave from the second left sensor and receives the ultrasonic wave from the first left sensor.
제 2 항에 있어서,
상기 복수개의 초음파 센서는 상기 본체의 외둘레면에 대해 내측으로 소정의 단차거리만큼 단차지게 배치되고,
상기 제1레프트 센서 및 제1라이트 센서의 각 단차 거리는 상기 제1프론트 센서의 단차 거리 및 제2프론트 센서의 단차 거리보다 먼 로봇.
3. The method of claim 2,
The plurality of ultrasonic sensors are disposed to be stepped by a predetermined step distance inward with respect to the outer circumferential surface of the main body,
The step distance between the first left sensor and the first light sensor is greater than the step distance of the first front sensor and the step distance of the second front sensor.
제 8 항에 있어서,
상기 제2레프트 센서 및 제2라이트 센서의 각 단차 거리는 상기 제1프론트 센서의 단차 거리 및 제2프론트 센서의 단차 거리와 동일한 로봇.
9. The method of claim 8,
The step distance of the second left sensor and the second light sensor is the same as the step distance of the first front sensor and the step distance of the second front sensor.
제 8 항에 있어서,
상기 제1레프트 센서 및 제1라이트 센서의 각 단차 거리는 3mm 내지 5mm인 로봇.
9. The method of claim 8,
The step distance between the first left sensor and the first light sensor is 3 mm to 5 mm.
제 2 항에 있어서,
상기 본체의 둘레면에는 상기 복수개의 초음파 센서가 배치된 복수개의 개구가 형성되고,
상기 제1레프트 센서 및 제1라이트 센서가 배치된 개구는 외측으로 갈수록 내경이 커지도록 테이퍼진 로봇.
3. The method of claim 2,
A plurality of openings in which the plurality of ultrasonic sensors are disposed are formed on the circumferential surface of the main body,
The opening in which the first left sensor and the first light sensor are disposed is tapered so that the inner diameter increases toward the outside.
제 1 항에 있어서,
상기 제1프론트 센서 및 제2프론트 센서는 좌우로 대칭되게 배치되고,
상기 제1레프트 센서 및 제1라이트 센서는 좌우로 대칭되게 배치되고,
상기 제2레프트 센서 및 제2라이트 센서는 좌우로 대칭되게 배치된 로봇.
The method of claim 1,
The first front sensor and the second front sensor are arranged symmetrically left and right,
The first left sensor and the first light sensor are arranged symmetrically left and right,
The second left sensor and the second light sensor are arranged symmetrically left and right.
제 2 항에 있어서,
상기 본체의 중심을 기준으로, 상기 제1프론트 센서와 상기 제1레프트 센서 사이의 각도는 상기 제1레프트 센서와 상기 제2레프트 센서 사이의 각도보다 크고,
상기 제2프론트 센서와 상기 제1라이트 센서 사이의 각도는 상기 제1라이트 센서와 상기 제2라이트 센서 사이의 각도보다 큰 로봇.
3. The method of claim 2,
Based on the center of the body, the angle between the first front sensor and the first left sensor is greater than the angle between the first left sensor and the second left sensor,
The angle between the second front sensor and the first light sensor is greater than the angle between the first light sensor and the second light sensor.
제 2 항에 있어서,
상기 복수개의 초음파 센서는,
좌우방향에 대해 상기 본체의 중심에 위치하며 후방을 향하는 리어 센서;
상기 본체의 좌측으로 편심되고 상기 리어 센서와 이웃하며 후방 좌측으로 경사진 방향을 향하는 제3레프트 센서; 및
상기 본체의 우측으로 편심되고 상기 리어 센서와 이웃하며 후방 우측으로 경사진 방향을 향하는 제3라이트 센서를 더 포함하는 로봇.
3. The method of claim 2,
The plurality of ultrasonic sensors,
a rear sensor located in the center of the main body in the left and right direction and facing rearward;
a third left sensor eccentric to the left side of the main body, adjacent to the rear sensor, and inclined toward the rear left; and
The robot further comprising a third light sensor eccentric to the right side of the main body, adjacent to the rear sensor, and inclined toward the rear right.
제 14 항에 있어서,
상기 제3레프트 센서와 상기 제3라이트 센서는 좌우로 대칭되게 배치된 로봇.
15. The method of claim 14,
The third left sensor and the third light sensor are arranged symmetrically left and right.
제 14 항에 있어서,
상기 본체의 중심을 좌우로 가로지르는 가상의 기준면과 상기 제2레프트 센서 사이의 전후 거리는, 상기 기준면과 상기 제3레프트 센서 사이의 전후 거리보다 가깝고,
상기 기준면과 상기 제2라이트 센서 사이의 전후 거리는, 상기 기준면과 상기 제3라이트 센서 사이의 전후 거리보다 가까운 로봇.
15. The method of claim 14,
The front-back distance between the imaginary reference plane crossing the center of the main body left and right and the second left sensor is closer than the front-back distance between the reference plane and the third left sensor,
The front-back distance between the reference plane and the second light sensor is closer than the front-back distance between the reference plane and the third light sensor.
제 14 항에 있어서,
상기 리어 센서는 전후 방향으로 상기 제1,2프론트 센서와 비대칭되게 배치되고,
상기 제3레프트 센서는 전후 방향으로 상기 제1,2레프트 센서와 비대칭되게 배치되고,
상기 제3라이트 센서는 전후 방향으로 상기 제1,2라이트 센서와 비대칭되게 배치된 로봇.
15. The method of claim 14,
The rear sensor is disposed asymmetrically with the first and second front sensors in the front-rear direction,
The third left sensor is disposed asymmetrically with the first and second left sensors in the front-rear direction,
The third light sensor is disposed asymmetrically with the first and second light sensors in the front-rear direction.
제 1 항에 있어서,
상기 제1프론트 센서는 전방 또는 전방 좌측으로 경사진 방향을 향하고,
상기 제2프론트 센서는 전방 또는 전방 우측으로 경사진 방향을 향하는 로봇.
The method of claim 1,
The first front sensor faces a direction inclined to the front or front left,
The second front sensor is a robot facing a direction inclined to the front or front right.
하우징;
상기 하우징의 둘레를 따라 서로 이격된 복수개의 개구; 및
상기 복수개의 개구를 통해 상기 하우징의 외부를 향하며 상기 하우징의 외둘레면에 대해 내측으로 소정의 단차거리만큼 단차지게 배치된 복수개의 초음파 센서를 포함하고,
상기 복수개의 초음파 센서는,
초음파를 송신 및 수신하는 프론트 센서;
상기 프론트 센서와 이웃하고 초음파를 송신 또는 수신하는 제1사이드 센서;
상기 제1사이드 센서와 이웃하고 상기 제1사이드 센서에서 송신된 초음파를 수신하거나 상기 제1사이드 센서에서 수신되는 초음파를 송신하는 제2사이드 센서를 포함하고,
상기 제1사이드 센서의 단차 거리는 상기 프론트 센서의 단차 거리 및 상기 제2사이드 센서의 단차 거리보다 먼 로봇.
housing;
a plurality of openings spaced apart from each other along the periphery of the housing; and
A plurality of ultrasonic sensors facing the outside of the housing through the plurality of openings and disposed to be stepped by a predetermined step distance inwardly with respect to the outer circumferential surface of the housing,
The plurality of ultrasonic sensors,
a front sensor that transmits and receives ultrasonic waves;
a first side sensor adjacent to the front sensor and transmitting or receiving ultrasonic waves;
a second side sensor adjacent to the first side sensor and configured to receive an ultrasonic wave transmitted from the first side sensor or transmit an ultrasonic wave received from the first side sensor;
The step distance of the first side sensor is greater than the step distance of the front sensor and the step distance of the second side sensor.
제 19 항에 있어서,
상기 제1사이드 센서의 단차 거리는 3mm 내지 5mm인 로봇.
20. The method of claim 19,
The step distance of the first side sensor is 3mm to 5mm robot.
제 19 항에 있어서,
상기 복수개의 개구 중 상기 제1사이드 센서가 배치된 개구는 외측으로 갈수록 직경이 커지도록 테이퍼진 로봇
20. The method of claim 19,
Among the plurality of openings, the opening in which the first side sensor is disposed is tapered so that the diameter increases toward the outside.
제 19 항에 있어서,
상기 프론트 센서는 전방 또는 전방과 측방 사이의 경사 방향을 향하고,
상기 제1사이드 센서 및 제2사이드 센서는 측방을 향하거나, 측방과 전방 사이의 경사 방향을 향하는 로봇.
20. The method of claim 19,
The front sensor faces the front or the oblique direction between the front and the side,
The first side sensor and the second side sensor face the side, or the robot that faces an inclination direction between the side and the front.
제 19 항에 있어서,
기설정된 시간 간격에 따라, 상기 프론트 센서를 온오프시키고 상기 제1사이드 센서 및 제2사이드 센서의 초음파 송수신을 스위칭시키는 프로세서를 더 포함하는 로봇.
20. The method of claim 19,
The robot further comprising a processor that turns on/off the front sensor and switches transmission/reception of ultrasonic waves between the first side sensor and the second side sensor according to a preset time interval.
제 23 항에 있어서,
상기 프로세서는,
상기 프론트 센서가 온 되면 상기 제1사이드 센서에서 초음파를 송신시키며 상기 제2사이드 센서에서 초음파를 수신시키고,
상기 프론트 센서가 오프 되면 상기 제2사이드 센서에서 초음파를 송신시키며 상기 제1사이드 센서에서 초음파를 수신시키는 로봇.
24. The method of claim 23,
The processor is
When the front sensor is turned on, the first side sensor transmits an ultrasonic wave and the second side sensor receives the ultrasonic wave,
When the front sensor is turned off, the robot transmits an ultrasonic wave from the second side sensor and receives the ultrasonic wave from the first side sensor.
제 19 항에 있어서,
상기 하우징의 중심을 기준으로, 상기 하우징의 중심을 전후로 가로지르는 가상의 기준면과 상기 프론트 센서 사이의 각도는 26도 이하이고, 상기 기준면과 상기 제1사이드 센서 사이의 각도는 26도 내지 50도이고, 상기 기준면과 상기 제2사이드 센서 사이의 각도는 50도 내지 71도인 로봇.
20. The method of claim 19,
Based on the center of the housing, the angle between the front sensor and the imaginary reference plane crossing the center of the housing back and forth is 26 degrees or less, and the angle between the reference plane and the first side sensor is 26 degrees to 50 degrees, , the angle between the reference plane and the second side sensor is 50 degrees to 71 degrees robot.
제 19 항에 있어서,
상기 하우징의 중심을 기준으로, 상기 프론트 센서와 상기 제1사이드 센서 사이의 각도는 상기 제1사이드 센서와 상기 제2사이드 센서 사이의 각도보다 큰 로봇.
20. The method of claim 19,
Based on the center of the housing, the angle between the front sensor and the first side sensor is greater than the angle between the first side sensor and the second side sensor.
제 19 항에 있어서,
상기 하우징의 중심을 기준으로, 상기 프론트 센서와 상기 제2사이드 센서 사이의 각도는, 상기 제1사이드 센서와 상기 제2사이드 센서 사이의 각도 및 상기 프론트 센서와 상기 제1사이드 센서 사이의 각도보다 큰 로봇.
20. The method of claim 19,
Based on the center of the housing, the angle between the front sensor and the second side sensor is greater than the angle between the first side sensor and the second side sensor and between the front sensor and the first side sensor. big robot.
제 19 항에 있어서,
상기 복수개의 초음파 센서는,
좌우방향에 대해 상기 하우징의 중앙에 위치하며 후방을 향하는 리어 센서; 및
상기 리어 센서와 이웃하고 측방과 후방 사이의 일 방향을 향하는 제3사이드 센서를 더 포함하는 로봇.
20. The method of claim 19,
The plurality of ultrasonic sensors,
a rear sensor located in the center of the housing in the left-right direction and facing rearward; and
The robot further comprising a third side sensor adjacent to the rear sensor and facing in one direction between the side and the rear.
제 28 항에 있어서,
상기 하우징의 중심을 좌우로 가로지르는 가상의 기준면과 상기 제2사이드 센서 사이의 전후 거리는, 상기 기준면과 상기 제3사이드 센서 사이의 전후 거리보다 가까운 로봇.
29. The method of claim 28,
The front-back distance between the second side sensor and the virtual reference plane crossing the center of the housing left and right is closer than the front-back distance between the reference plane and the third side sensor.
제 28 항에 있어서,
상기 리어 센서는 전후 방향으로 상기 프론트 센서와 비대칭되게 배치되고,
상기 제3사이드 센서는 전후 방향으로 상기 제1,2사이드 센서와 비대칭되게 배치된 로봇.
29. The method of claim 28,
The rear sensor is disposed asymmetrically with the front sensor in the front-rear direction,
The third side sensor is disposed asymmetrically with the first and second side sensors in the front-rear direction.
제 19 항에 있어서,
상기 하우징의 둘레 방향으로 길게 형성된 장공; 및
상기 장공을 통해 상기 하우징의 외부를 향하는 라이다를 더 포함하고,
상기 하우징의 하단을 기준으로 상기 라이다의 높이는 상기 초음파 센서의 높이보다 높은 로봇.
20. The method of claim 19,
a long hole formed long in the circumferential direction of the housing; and
Further comprising a lidar facing the outside of the housing through the long hole,
The height of the lidar based on the lower end of the housing is higher than the height of the ultrasonic sensor robot.
제 31 항에 있어서,
상기 라이다와 상기 프론트 센서 사이의 거리는, 상기 라이다와 상기 제1사이드 센서 사이의 거리 및 상기 라이다와 상기 제2사이드 센서 사이의 거리보다 가까운 로봇.
32. The method of claim 31,
A distance between the lidar and the front sensor is closer than a distance between the lidar and the first side sensor and a distance between the lidar and the second side sensor.
KR1020190175822A 2019-12-04 2019-12-27 Robot KR20210070153A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190159792 2019-12-04
KR1020190159792 2019-12-04

Publications (1)

Publication Number Publication Date
KR20210070153A true KR20210070153A (en) 2021-06-14

Family

ID=76417747

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190175822A KR20210070153A (en) 2019-12-04 2019-12-27 Robot

Country Status (1)

Country Link
KR (1) KR20210070153A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024085544A1 (en) * 2022-10-20 2024-04-25 삼성전자주식회사 Robot and control method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040057112A (en) 2002-12-24 2004-07-02 엘지전자 주식회사 Supersnic interference prevention structure for robot cleaner
KR20040063556A (en) 2003-01-08 2004-07-14 엘지전자 주식회사 Supersonic wave sensor use method for robot cleaner

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040057112A (en) 2002-12-24 2004-07-02 엘지전자 주식회사 Supersnic interference prevention structure for robot cleaner
KR20040063556A (en) 2003-01-08 2004-07-14 엘지전자 주식회사 Supersonic wave sensor use method for robot cleaner

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024085544A1 (en) * 2022-10-20 2024-04-25 삼성전자주식회사 Robot and control method thereof

Similar Documents

Publication Publication Date Title
KR102305206B1 (en) Robot cleaner for cleaning in consideration of floor state through artificial intelligence and operating method thereof
US11663936B2 (en) Robot
US11503971B2 (en) Cleaning robot
KR102281602B1 (en) Artificial intelligence apparatus and method for recognizing utterance voice of user
US11580385B2 (en) Artificial intelligence apparatus for cleaning in consideration of user&#39;s action and method for the same
KR20210041703A (en) Moving bed robot
US20210097852A1 (en) Moving robot
KR20210070825A (en) Robot
EP3782524B1 (en) Robot cleaner for avoiding stuck situation through artificial intelligence and method of operating the same
KR20210063121A (en) Robot and method for controlling same
US20210208595A1 (en) User recognition-based stroller robot and method for controlling the same
KR102288658B1 (en) Robot and its control method
KR20210068745A (en) Robot
KR20190104008A (en) Robot cleaner for cleaning using artificial intelligence and operating method thereof
KR20210083812A (en) Autonomous mobile robots and operating method thereof
KR20190104264A (en) An artificial intelligence apparatus and method for the same
US11648161B2 (en) Robot
KR102314372B1 (en) Robot system and Control method of the same
KR20210070153A (en) Robot
US11613000B2 (en) Robot
KR20190113690A (en) Robot System and Control method of the same
KR20190095195A (en) An artificial intelligence apparatus for providing service based on path of user and method for the same
KR20190095194A (en) An artificial intelligence apparatus for determining path of user and method for the same
KR20220047176A (en) Robot
KR20220043864A (en) Robot And Control method of the same