KR20210070153A - Robot - Google Patents
Robot Download PDFInfo
- Publication number
- KR20210070153A KR20210070153A KR1020190175822A KR20190175822A KR20210070153A KR 20210070153 A KR20210070153 A KR 20210070153A KR 1020190175822 A KR1020190175822 A KR 1020190175822A KR 20190175822 A KR20190175822 A KR 20190175822A KR 20210070153 A KR20210070153 A KR 20210070153A
- Authority
- KR
- South Korea
- Prior art keywords
- sensor
- ultrasonic
- robot
- sensors
- housing
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0009—Constructional details, e.g. manipulator supports, bases
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
본 발명은 초음파 센서를 포함하는 로봇에 관한 것이다.The present invention relates to a robot comprising an ultrasonic sensor.
공장 자동화의 일 부분을 담당하기 위해, 로봇은 산업용으로 개발되어 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되고 있는바, 의료용 로봇과 우주 항공용 로봇뿐만 아니라 일상 생활에서 사용될 수 있는 로봇도 개발되고 있다.To take on a part of factory automation, robots have been developed for industrial use. Recently, the field of application of robots has been further expanded, and robots that can be used in daily life as well as medical robots and aerospace robots are being developed.
이러한 일상 생활용 로봇은 사용자의 명령에 응답하여 특정 서비스(예를 들어, 쇼핑, 서빙, 대화, 청소 등)를 제공한다.These daily life robots provide specific services (eg, shopping, serving, chatting, cleaning, etc.) in response to a user's command.
특히, 주행이 가능한 로봇(예를 들어, 로봇 청소기)은 자율 주행을 원활하게 수행하기 위해 라이다 및 초음파 센서 등과 같은 다수의 센서를 포함한다.In particular, a driving robot (eg, a robot cleaner) includes a plurality of sensors such as lidar and ultrasonic sensors to smoothly perform autonomous driving.
이와 관련된 선행 문헌 1(KR 10-2004-0063556A)에는 인접한 초음파 센서의 간섭을 방지하기 위해 교대로 송수신 역할을 바꾸는 방법이 개시된다. 다만, 모든 초음파 센서가 송신/수신이 분리된 인다이렉트(indirect) 방식으로 운용되므로, 필요한 초음파 센서의 개수가 지나치게 많아지는 문제점이 있었다.Prior Document 1 (KR 10-2004-0063556A) related thereto discloses a method of alternately changing transmission/reception roles in order to prevent interference of adjacent ultrasonic sensors. However, since all ultrasonic sensors operate in an indirect method in which transmission/reception are separated, there is a problem in that the number of necessary ultrasonic sensors is excessively increased.
선행 문헌 2(KR 10-2004-0057112A)에는 인접한 초음파 센서로 인한 신호 간섭을 방지하기 위해 모든 센서에 일정한 깊이의 홈을 설치한 구성이 개시된다. 다만, 모든 초음파 센서가 송신/수신이 분리된 인다이렉트(indirect) 방식으로 운용되는 상태에서는 상기 홈에 의해 감지 사각지대가 발생할 수 있는 문제점이 있다.Prior Document 2 (KR 10-2004-0057112A) discloses a configuration in which grooves of a certain depth are installed in all sensors in order to prevent signal interference caused by adjacent ultrasonic sensors. However, there is a problem that a detection blind spot may occur due to the groove in a state in which all ultrasonic sensors are operated in an indirect method in which transmission/reception is separated.
본 발명이 해결하고자 하는 일 과제는, 상대적으로 적은 개수의 초음파 센서로 기존과 동일한 감지 범위를 커버할 수 있는 로봇을 제공하는 것이다.One problem to be solved by the present invention is to provide a robot capable of covering the same detection range as the conventional one with a relatively small number of ultrasonic sensors.
본 발명이 해결하고자 하는 다른 과제는, 서로 이웃한 초음파 센서의 간섭을 방지하면서도 사각지대를 최소화하는 로봇을 제공하는 것이다.Another object to be solved by the present invention is to provide a robot that minimizes blind spots while preventing interference of neighboring ultrasonic sensors.
본 발명의 실시예에 따른 로봇은, 프론트 센서는 각각 초음파의 송수신이 동시에 이뤄지는 다이렉트 방식으로 동작하고, 측방 또는 전방과 측방 사이의 일 방향을 향하는 한 쌍의 레프트 센서 및 한 쌍의 라이트 센서는 각각 초음파의 송신과 수신이 분리된 인다이렉트 방식으로 동작한다.In the robot according to an embodiment of the present invention, each of the front sensors operates in a direct manner in which transmission and reception of ultrasonic waves are simultaneously performed, and a pair of left sensors and a pair of light sensors directed to the side or one direction between the front and the side are each Transmission and reception of ultrasonic waves operate in a separate indirect manner.
좀 더 상세히, 본 발명의 실시예에 따른 로봇은, 주행휠이 구비된 본체; 및 상기 본체의 둘레를 따라 서로 이격된 복수개의 초음파 센서를 포함할 수 있다. 상기 복수개의 초음파 센서는, 각각 초음파를 송수신하며 좌우로 이격된 제1,2프론트 센서; 좌측 방향 또는 전방 좌측으로 경사진 방향을 향하고 서로 이웃하며 어느 하나는 초음파를 송신하고 다른 하나는 초음파를 수신하는 제1,2레프트 센서; 및 우측 방향 또는 전방 우측으로 경사진 방향을 향하고 서로 이웃하며 어느 하나는 초음파를 송신하고 다른 하나는 초음파를 수신하는 제1,2라이트 센서를 포함할 수 있다.In more detail, a robot according to an embodiment of the present invention includes a main body provided with a traveling wheel; and a plurality of ultrasonic sensors spaced apart from each other along the circumference of the main body. The plurality of ultrasonic sensors may include first and second front sensors that transmit and receive ultrasonic waves, respectively, and are spaced apart from one another; first and second left sensors facing each other in a left direction or an inclined direction to the front left and adjacent to each other, one of which transmits an ultrasonic wave and the other receives the ultrasonic wave; and first and second light sensors that are directed in a right direction or a direction inclined to the front right and are adjacent to each other, one of which transmits an ultrasonic wave and the other one receives the ultrasonic wave.
상기 제1레프트 센서는 상기 제1프론트 센서와 이웃하고, 상기 제1라이트 센서는 상기 제2프론트 센서와 이웃할 수 있다.The first left sensor may be adjacent to the first front sensor, and the first light sensor may be adjacent to the second front sensor.
상기 제1프론트 센서는 상기 본체의 좌측으로 편심되고 상기 제2프론트 센서는 상기 본체의 우측으로 편심될 수 있다.The first front sensor may be eccentric to the left side of the main body and the second front sensor may be eccentric to the right side of the main body.
상기 로봇은, 상기 제1프론트 센서 및 제2프론트 센서를 기설정된 시간 간격에 따라 택일적으로 구동시키는 프로세서를 더 포함할 수 있다.The robot may further include a processor for selectively driving the first front sensor and the second front sensor according to a preset time interval.
상기 로봇은, 기설정된 시간 간격에 따라, 상기 제1레프트 센서와 상기 제2레프트 센서의 초음파 송수신을 서로 스위칭하고, 상기 제1라이트 센서와 상기 제2라이트 센서의 초음파 송수신을 서로 스위칭하는 프로세서를 더 포함할 수 있다.The robot includes a processor that switches ultrasonic transmission and reception of the first left sensor and the second left sensor with each other, and the ultrasonic transmission/reception of the first light sensor and the second light sensor according to a preset time interval. may include more.
상기 프로세서는 상기 제1프론트 센서가 구동되면, 상기 제1프론트 센서와 이웃한 상기 제1레프트 센서에서 초음파를 송신시키며 상기 제2레프트 센서에서 초음파를 수신시킬 수 있다. 상기 프로세서는 상기 제2프론트 센서가 구동되면, 상기 제2프론트 센서와 이웃한 상기 제1라이트 센서에서 초음파를 송신시키며 상기 제2라이트 센서에서 초음파를 수신시킬 수 있다.When the first front sensor is driven, the processor may transmit an ultrasonic wave from the first left sensor adjacent to the first front sensor and receive the ultrasonic wave from the second left sensor. When the second front sensor is driven, the processor may transmit an ultrasonic wave from the first light sensor adjacent to the second front sensor and receive the ultrasonic wave from the second light sensor.
상기 프로세서는, 상기 제1프론트 센서가 구동되면, 상기 제2라이트 센서에서 초음파를 송신시키며 상기 제1라이트 센서에서 초음파를 수신시키고 상기 제2프론트 센서가 구동되면, 상기 제2레프트 센서에서 초음파를 송신시키며 상기 제1레프트 센서에서 초음파를 수신시킬 수 있다.When the first front sensor is driven, the processor transmits ultrasonic waves from the second light sensor, receives ultrasonic waves from the first light sensor, and generates ultrasonic waves from the second left sensor when the second front sensor is driven and transmit the ultrasonic wave from the first left sensor.
상기 복수개의 초음파 센서는 상기 본체의 외둘레면에 대해 내측으로 소정의 단차 거리만큼 단차지게 배치되고, 상기 제1레프트 센서 및 제1라이트 센서의 각 단차 거리는 상기 제1프론트 센서의 단차 거리 및 제2프론트 센서의 단차 거리보다 멀 수 있다.The plurality of ultrasonic sensors are disposed to be stepped by a predetermined step distance inward with respect to the outer circumferential surface of the main body, and each step distance between the first left sensor and the first light sensor is the step distance of the first front sensor and the second step distance. It may be farther than the step distance of the 2 front sensor.
상기 제2레프트 센서 및 제2라이트 센서의 각 단차 거리는 상기 제1프론트 센서의 단차 거리 및 제2프론트 센서의 단차 거리와 동일할 수 있다.The step distance between the second left sensor and the second light sensor may be the same as the step distance of the first front sensor and the step distance of the second front sensor.
상기 제1레프트 센서 및 제1라이트 센서의 각 단차 거리는 3mm 내지 5mm일 수 있다.Each step distance between the first left sensor and the first light sensor may be 3 mm to 5 mm.
상기 본체의 둘레면에는 상기 복수개의 초음파 센서가 배치된 복수개의 개구가 형성되고, 상기 제1레프트 센서 및 제1라이트 센서가 배치된 개구는 외측으로 갈수록 직경이 커지도록 테이퍼질 수 있다.A plurality of openings in which the plurality of ultrasonic sensors are disposed may be formed on a circumferential surface of the main body, and the openings in which the first left sensor and the first light sensor are disposed may be tapered to increase in diameter toward the outside.
상기 제1프론트 센서 및 제2프론트 센서는 좌우로 대칭되게 배치되고, 상기 제1레프트 센서 및 제1라이트 센서는 좌우로 대칭되게 배치되고, 상기 제2레프트 센서 및 제2라이트 센서는 좌우로 대칭되게 배치될 수 있다. The first front sensor and the second front sensor are symmetrically arranged left and right, the first left sensor and the first light sensor are symmetrically arranged left and right, and the second left sensor and the second light sensor are symmetrical left and right. can be placed so
상기 본체의 중심을 기준으로, 상기 제1프론트 센서와 상기 제1레프트 센서 사이의 각도는 상기 제1레프트 센서와 상기 제2레프트 센서 사이의 각도보다 크고, 상기 제2프론트 센서와 상기 제1라이트 센서 사이의 각도는 상기 제1라이트 센서와 상기 제2라이트 센서 사이의 각도보다 클 수 있다.Based on the center of the body, the angle between the first front sensor and the first left sensor is greater than the angle between the first left sensor and the second left sensor, and the second front sensor and the first light An angle between the sensors may be greater than an angle between the first light sensor and the second light sensor.
상기 복수개의 초음파 센서는, 좌우방향에 대해 상기 본체의 중심에 위치하며 후방을 향하는 리어 센서; 상기 본체의 좌측으로 편심되고 상기 리어 센서와 이웃하며 후방 좌측으로 경사진 방향을 향하는 제3레프트 센서; 및 상기 본체의 우측으로 편심되고 상기 리어 센서와 이웃하며 후방 우측으로 경사진 방향을 향하는 제3라이트 센서를 더 포함할 수 있다.The plurality of ultrasonic sensors may include: a rear sensor positioned at the center of the main body in a left and right direction and facing rearward; a third left sensor eccentric to the left side of the main body, adjacent to the rear sensor, and inclined toward the rear left; and a third light sensor eccentric to the right side of the main body, adjacent to the rear sensor, and inclined in a rear right direction.
상기 제3레프트 센서와 상기 제3라이트 센서는 좌우로 대칭되게 배치될 수 있다.The third left sensor and the third light sensor may be symmetrically disposed left and right.
상기 본체의 중심을 좌우로 가로지르는 가상의 기준면과 상기 제2레프트 센서 사이의 전후 거리는, 상기 기준면과 상기 제3레프트 센서 사이의 전후 거리보다 가까울 수 있다. 상기 기준면과 상기 제2라이트 센서 사이의 전후 거리는 상기 기준면과 상기 제3라이트 센서 사이의 전후 거리보다 가까울 수 있다.The front-back distance between the second left sensor and the virtual reference plane crossing the center of the main body left and right may be closer than the front-back distance between the reference plane and the third left sensor. A front-back distance between the reference plane and the second light sensor may be closer than a front-back distance between the reference plane and the third light sensor.
상기 리어 센서는 전후 방향으로 상기 제1,2프론트 센서와 비대칭되게 배치되고, 상기 제3레프트 센서는 전후 방향으로 상기 제1,2레프트 센서와 비대칭되게 배치되고, 상기 제3라이트 센서는 전후 방향으로 상기 제1,2라이트 센서와 비대칭되게 배치될 수 있다.The rear sensor is disposed asymmetrically with the first and second front sensors in the front-rear direction, the third left sensor is disposed asymmetrically with the first and second left sensors in the front-rear direction, and the third light sensor is disposed in the front-rear direction As a result, the first and second light sensors may be asymmetrically disposed.
상기 제1프론트 센서는 전방 또는 전방 좌측으로 경사진 방향을 향하고, 상기 제2프론트 센서는 전방 또는 전방 우측으로 경사진 방향을 향할 수 있다.The first front sensor may face a direction inclined forward or front left, and the second front sensor may face a direction inclined forward or front right.
본 발명의 실시예에 따른 로봇은, 하우징; 상기 하우징의 둘레를 따라 서로 이격된 복수개의 개구; 및 상기 복수개의 개구를 통해 상기 하우징의 외부를 향하며 상기 하우징의 외둘레면에 대해 내측으로 소정의 단차거리만큼 단차지게 배치된 복수개의 초음파 센서를 포함할 수 있다. 상기 복수개의 초음파 센서는, 초음파를 송신 및 수신하는 프론트 센서; 상기 프론트 센서와 이웃하고 초음파를 송신 또는 수신하는 제1사이드 센서; 상기 제1사이드 센서와 이웃하고 상기 제1사이드 센서에서 송신된 초음파를 수신하거나 상기 제1사이드 센서에서 수신되는 초음파를 송신하는 제2사이드 센서를 포함할 수 있다. 상기 제1사이드 센서의 단차 거리는 상기 프론트 센서의 단차 거리 및 상기 제2사이드 센서의 단차 거리보다 멀 수 있다.A robot according to an embodiment of the present invention includes a housing; a plurality of openings spaced apart from each other along the periphery of the housing; and a plurality of ultrasonic sensors facing the outside of the housing through the plurality of openings and disposed to be stepped by a predetermined step distance inward with respect to the outer circumferential surface of the housing. The plurality of ultrasonic sensors may include: a front sensor for transmitting and receiving ultrasonic waves; a first side sensor adjacent to the front sensor and transmitting or receiving ultrasonic waves; and a second side sensor adjacent to the first side sensor and configured to receive an ultrasonic wave transmitted from the first side sensor or transmit an ultrasonic wave received from the first side sensor. The step distance of the first side sensor may be greater than the step distance of the front sensor and the step distance of the second side sensor.
상기 제1사이드 센서의 단차 거리는 3mm 내지 5mm일 수 있다.The step distance of the first side sensor may be 3 mm to 5 mm.
상기 복수개의 개구 중 상기 제1사이드 센서가 배치된 개구는 외측으로 갈수록 직경이 커지도록 테이퍼질 수 있다.Among the plurality of openings, the opening in which the first side sensor is disposed may be tapered to increase in diameter toward the outside.
상기 프론트 센서는 전방 또는 전방과 측방 사이의 경사 방향을 향하고, 상기 제1사이드 센서 및 제2사이드 센서는 측방을 향하거나, 측방과 전방 사이의 경사 방향을 향할 수 있다.The front sensor may face a front or an oblique direction between the front and the side, and the first side sensor and the second side sensor may face a side or an oblique direction between the side and the front.
상기 로봇은, 기설정된 시간 간격에 따라 상기 프론트 센서를 온오프시키고 상기 제1사이드 센서 및 제2사이드 센서의 초음파 송수신을 스위칭시키는 프로세서를 더 포함할 수 있다.The robot may further include a processor that turns on/off the front sensor according to a preset time interval and switches transmission/reception of ultrasonic waves between the first side sensor and the second side sensor.
상기 프로세서는, 상기 프론트 센서가 온 되면 상기 제1사이드 센서에서 초음파를 송신시키며 상기 제2사이드 센서에서 초음파를 수신시키고, 상기 프론트 센서가 오프 되면 상기 제2사이드 센서에서 초음파를 송신시키며 상기 제1사이드 센서에서 초음파를 수신시킬 수 있다.The processor transmits ultrasonic waves from the first side sensor and receives ultrasonic waves from the second side sensor when the front sensor is turned on, and transmits ultrasonic waves from the second side sensor when the front sensor is turned off. Ultrasound can be received from the side sensor.
상기 하우징의 중심을 기준으로, 상기 하우징의 중심을 전후로 가로지르는 가상의 기준면과 상기 프론트 센서 사이의 각도는 26도 이하이고, 상기 기준면과 상기 제1사이드 센서 사이의 각도는 26도 내지 50도이고, 상기 기준면과 상기 제2사이드 센서 사이의 각도는 50도 내지 71도일 수 있다.Based on the center of the housing, the angle between the front sensor and the imaginary reference plane crossing the center of the housing back and forth is 26 degrees or less, and the angle between the reference plane and the first side sensor is 26 degrees to 50 degrees, , the angle between the reference plane and the second side sensor may be 50 degrees to 71 degrees.
상기 하우징의 중심을 기준으로, 상기 프론트 센서와 상기 제1사이드 센서 사이의 각도는 상기 제1사이드 센서와 상기 제2사이드 센서 사이의 각도보다 클 수 있다.With respect to the center of the housing, an angle between the front sensor and the first side sensor may be greater than an angle between the first side sensor and the second side sensor.
상기 하우징의 중심을 기준으로, 상기 프론트 센서와 상기 제2사이드 센서 사이의 각도는, 상기 제1사이드 센서와 상기 제2사이드 센서 사이의 각도 및 상기 프론트 센서와 상기 제1사이드 센서 사이의 각도보다 클 수 있다.Based on the center of the housing, the angle between the front sensor and the second side sensor is greater than the angle between the first side sensor and the second side sensor and between the front sensor and the first side sensor. can be large
상기 복수개의 초음파 센서는, 좌우방향에 대해 상기 하우징의 중앙에 위치하며 후방을 향하는 리어 센서; 및 상기 리어 센서와 이웃하고 측방과 후방 사이의 일 방향을 향하는 제3사이드 센서를 더 포함할 수 있다.The plurality of ultrasonic sensors may include: a rear sensor positioned at the center of the housing in a left and right direction and facing rearward; and a third side sensor adjacent to the rear sensor and facing in one direction between the side and the rear.
상기 하우징의 중심을 좌우로 가로지르는 가상의 기준면과 상기 제2사이드 센서 사이의 전후 거리는, 상기 기준면과 상기 제3사이드 센서 사이의 전후 거리보다 가까울 수 있다.A front-back distance between the second side sensor and a virtual reference plane crossing the center of the housing from side to side may be closer than a front-back distance between the reference plane and the third side sensor.
상기 리어 센서는 전후 방향으로 상기 프론트 센서와 비대칭되게 배치되고, 상기 제3사이드 센서는 전후 방향으로 상기 제1,2사이드 센서와 비대칭되게 배치될 수 있다.The rear sensor may be asymmetrically disposed with the front sensor in a front/rear direction, and the third side sensor may be disposed asymmetrically with the first and second side sensors in a front/rear direction.
상기 로봇은, 상기 하우징의 둘레 방향으로 길게 형성된 장공; 및 상기 장공을 통해 상기 하우징의 외부를 향하는 라이다를 더 포함할 수 있다. 상기 하우징의 하단을 기준으로 상기 라이다의 높이는 상기 초음파 센서의 높이보다 높을 수 있다.The robot may include a long hole formed long in a circumferential direction of the housing; And it may further include a lidar facing the outside of the housing through the long hole. The height of the lidar with respect to the lower end of the housing may be higher than the height of the ultrasonic sensor.
상기 라이다와 상기 프론트 센서 사이의 거리는, 상기 라이다와 상기 제1사이드 센서 사이의 거리 및 상기 라이다와 상기 제2사이드 센서 사이의 거리보다 가까울 수 있다.A distance between the lidar and the front sensor may be closer than a distance between the lidar and the first side sensor and a distance between the lidar and the second side sensor.
본 발명의 바람직한 실시예에 따르면, 프론트 센서가 초음파의 송수신이 병합된 다이렉트 방식으로 동작하므로, 동일한 감지 범위를 커버하는데 필요한 초음파 센서의 개수가 줄어들 수 있다. 이로써, 로봇의 제조 비용이 절감될 수 있다.According to a preferred embodiment of the present invention, since the front sensor operates in a direct method in which transmission and reception of ultrasound are merged, the number of ultrasound sensors required to cover the same sensing range can be reduced. Thereby, the manufacturing cost of the robot can be reduced.
또한, 사이드 센서는 초음파의 송신과 수신이 분리된 인다이렉트 방식으로 동작하므로, 본체의 측방에 인접한 오브젝트의 근접 거리를 정밀하게 측정할 수 있다. 이로써, 로봇이 협로를 통과하는 과정에서 로봇의 양측에 위치한 벽 등에 의해 로봇이 주행이 정지되지 않고, 상기 협로를 원활하게 주행할 수 있다.In addition, since the side sensor operates in an indirect method in which transmission and reception of ultrasonic waves are separated, it is possible to precisely measure the proximity distance of an object adjacent to the side of the main body. Accordingly, while the robot passes through the narrow path, the robot does not stop running due to walls located on both sides of the robot, and the robot can smoothly travel through the narrow path.
또한, 좌우로 이격된 한 쌍의 프론트 센서는 설정 주기에 따라 택일적으로 구동될 수 있다. 이로써, 한 쌍의 프론트 센서간에 초음파 간섭이 발생하는 것을 방지할 수 있다.In addition, a pair of front sensors spaced apart from side to side may be alternatively driven according to a set period. Accordingly, it is possible to prevent ultrasonic interference from occurring between the pair of front sensors.
또한, 일 프론트 센서가 구동되면 그와 이웃한 일 사이드 센서는 초음파를 송신하고, 상기 일 프론트 센서가 구동 중단되면 상기 일 사이드 센서는 초음파를 수신할 수 있다. 이로써, 상기 일 사이드 센서를 향하는 초음파가 상기 일 프론트 센서에 간섭하지 않을 수 있다.In addition, when one front sensor is driven, one side sensor adjacent thereto transmits an ultrasonic wave, and when the one front sensor is stopped, the one side sensor may receive an ultrasonic wave. Accordingly, the ultrasonic wave directed toward the one side sensor may not interfere with the one front sensor.
또한, 서로 이웃한 한 쌍의 사이드 센서는 초음파의 송수신이 설정 주기에 따라 스위칭될 수 있다. 이로써, 로봇의 전방 및 좌우 양측을 연속적으로 감지하면서도, 다이렉트 방식으로 동작하는 프론트 센서에 간섭이 발생할 우려를 최소화시킬 수 있다.In addition, a pair of side sensors adjacent to each other may switch transmission/reception of ultrasonic waves according to a set period. Accordingly, while continuously sensing the front and left and right sides of the robot, it is possible to minimize the risk of interference with the front sensor operating in a direct manner.
또한, 프론트 센서와 이웃한 제1사이드 센서는, 프론트 센서 및 제2사이드 센서에 비해 본체의 외둘레면의 내측으로 깊게 단차질 수 있다. 이로써, 제1사이드 센서와 프론트 센서 간의 초음파 간섭을 방지할 수 있다.In addition, the first side sensor adjacent to the front sensor may be deeply stepped inward of the outer circumferential surface of the main body compared to the front sensor and the second side sensor. Accordingly, ultrasonic interference between the first side sensor and the front sensor can be prevented.
또한, 제1사이드 센서가 배치된 개구는 외측으로 갈수록 내경이 커지도록 테이퍼지게 형성될 수 있다. 이로써, 제1사이드 센서에서 송신된 초음파가 제1프론트 센서에 간섭하는 것을 최소화하면서도 제1레프트 센서의 감지 범위(FoV)가 줄어들어 사각지대가 발생할 우려를 줄일 수 있다.In addition, the opening in which the first side sensor is disposed may be tapered so that the inner diameter increases toward the outside. Accordingly, while minimizing interference of the ultrasonic wave transmitted from the first side sensor to the first front sensor, the detection range (FoV) of the first left sensor is reduced, thereby reducing the possibility of a blind spot.
또한, 프론트 센서와 제1사이드 센서 사이의 각도는, 제1사이드 센서와 제2사이드 센서 사이의 각도보다 클 수 있다. 이로써, 본체의 전방에 위치한 오브젝트보다 전방과 측방 사이에 위치한 오브젝트를 상대적으로 정밀하게 감지할 수 있다Also, the angle between the front sensor and the first side sensor may be greater than the angle between the first side sensor and the second side sensor. Accordingly, it is possible to detect an object located between the front and the side more precisely than an object located in front of the main body.
본체의 중심을 좌우로 가로지르는 가상면과 제2사이드 센서 사이의 전후거리는, 상기 가상면과 제3사이드 센서 사이의 전후거리보다 가까울 수 있다. 이로써, 본체의 후방에 위치한 오브젝트보다 본체의 전방과 측방 사이에 위치한 오브젝트를 상대적으로 정밀하게 감지할 수 있다.The front-back distance between the second side sensor and the virtual surface crossing the center of the body left and right may be closer than the front-back distance between the virtual surface and the third side sensor. Accordingly, it is possible to detect an object located between the front and the side of the main body more precisely than the object located at the rear of the main body.
또한, 리어 하우징에 배치된 초음파 센서의 개수는 프론트 하우징에 배치된 초음파 센서의 개수보다 적을 수 있다. 이로써 로봇에 구비된 전체 초음파 센서의 개수가 줄어들고, 로봇의 제조 비용을 절감할 수 있다.Also, the number of ultrasonic sensors disposed in the rear housing may be less than the number of ultrasonic sensors disposed in the front housing. Accordingly, the total number of ultrasonic sensors provided in the robot can be reduced, and the manufacturing cost of the robot can be reduced.
도 1은 본 발명의 일 실시예에 따른 로봇을 포함하는 AI 장치를 나타낸다.
도 2는 본 발명의 일 실시예에 따른 로봇과 연결되는 AI 서버를 나타낸다.
도 3은 본 발명의 일 실시예에 따른 AI 시스템을 나타낸다.
도 4는 본 발명의 실시예에 따른 로봇의 사시도이다.
도 5는 본 발명의 실시예에 따른 프론트 하우징의 사시도이다.
도 6은 본 발명의 실시예에 따른 복수개의 초음파 센서의 배치를 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 복수개의 초음파 센서와 하우징의 외둘레면 사이의 단차가 도시된 도면이다.
도 8A 및 도 8B는 본 발명의 실시예에 따른 복수개의 초음파 센서의 작용을 설명하기 위한 도면이다.1 shows an AI device including a robot according to an embodiment of the present invention.
2 shows an AI server connected to a robot according to an embodiment of the present invention.
3 shows an AI system according to an embodiment of the present invention.
4 is a perspective view of a robot according to an embodiment of the present invention.
5 is a perspective view of a front housing according to an embodiment of the present invention.
6 is a view for explaining the arrangement of a plurality of ultrasonic sensors according to an embodiment of the present invention.
7 is a diagram illustrating a step difference between a plurality of ultrasonic sensors and an outer peripheral surface of a housing according to an embodiment of the present invention.
8A and 8B are diagrams for explaining the operation of a plurality of ultrasonic sensors according to an embodiment of the present invention.
이하에서는 본 발명의 구체적인 실시 예를 도면과 함께 상세히 설명하도록 한다. Hereinafter, specific embodiments of the present invention will be described in detail with drawings.
이하에서, 일 요소가 타 요소에 "체결" 또는 "연결"된다고 기재된 것은, 두 요소가 직접 체결되거나 연결된 것을 의미하거나, 두 요소 사이에 제3의 요소가 존재하고 상기 제3의 요소에 의해 두 요소가 서로 연결되거나 체결된 것을 의미할 수 있다. 반면, 일 요소가 타 요소에 "직접 체결" 또는 "직접 연결"된다고 기재한 것은, 두 요소 사이에 제3의 요소가 존재하지 않는다고 이해될 수 있을 것이다.Hereinafter, when an element is described as being "fastened" or "connected" to another element, it means that two elements are directly fastened or connected, or a third element exists between the two elements and two elements are connected by the third element. It may mean that the elements are connected or fastened to each other. On the other hand, when it is described that one element is "directly fastened" or "directly connected" to another element, it may be understood that a third element does not exist between the two elements.
<로봇(Robot)><Robot>
로봇은 스스로 보유한 능력에 의해 주어진 일을 자동으로 처리하거나 작동하는 기계를 의미할 수 있다. 특히, 환경을 인식하고 스스로 판단하여 동작을 수행하는 기능을 갖는 로봇을 지능형 로봇이라 칭할 수 있다.A robot can mean a machine that automatically handles or operates a task given by its own capabilities. In particular, a robot having a function of recognizing an environment and performing an operation by self-judgment may be referred to as an intelligent robot.
로봇은 사용 목적이나 분야에 따라 산업용, 의료용, 가정용, 군사용 등으로 분류할 수 있다.Robots can be classified into industrial, medical, home, military, etc. depending on the purpose or field of use.
로봇은 액츄에이터 또는 모터를 포함하는 구동부를 구비하여 로봇 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다. 또한, 이동 가능한 로봇은 구동부에 휠, 브레이크, 프로펠러 등이 포함되어, 구동부를 통해 지상에서 주행하거나 공중에서 비행할 수 있다.The robot may be provided with a driving unit including an actuator or a motor to perform various physical operations such as moving the robot joints. In addition, the movable robot includes a wheel, a brake, a propeller, and the like in the driving unit, and can travel on the ground or fly in the air through the driving unit.
<인공 지능(AI: Artificial Intelligence)><Artificial Intelligence (AI)>
인공 지능은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미하며, 머신 러닝(기계 학습, Machine Learning)은 인공 지능 분야에서 다루는 다양한 문제를 정의하고 그것을 해결하는 방법론을 연구하는 분야를 의미한다. 머신 러닝은 어떠한 작업에 대하여 꾸준한 경험을 통해 그 작업에 대한 성능을 높이는 알고리즘으로 정의하기도 한다.Artificial intelligence refers to a field that studies artificial intelligence or methodologies that can make it, and machine learning refers to a field that defines various problems dealt with in the field of artificial intelligence and studies methodologies to solve them. do. Machine learning is also defined as an algorithm that improves the performance of a certain task through constant experience.
인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로써, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.An artificial neural network (ANN) is a model used in machine learning, and may refer to an overall model having problem-solving ability, which is composed of artificial neurons (nodes) that form a network by combining synapses. An artificial neural network may be defined by a connection pattern between neurons of different layers, a learning process that updates model parameters, and an activation function that generates an output value.
인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)를 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. 인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함숫값을 출력할 수 있다. The artificial neural network may include an input layer, an output layer, and optionally one or more hidden layers. Each layer includes one or more neurons, and the artificial neural network may include neurons and synapses connecting neurons. In the artificial neural network, each neuron may output a function value of an activation function for input signals, weights, and biases input through synapses.
모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 시냅스 연결의 가중치와 뉴런의 편향 등이 포함된다. 그리고, 하이퍼파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미하며, 학습률(Learning Rate), 반복 횟수, 미니 배치 크기, 초기화 함수 등이 포함된다.Model parameters refer to parameters determined through learning, and include the weight of synaptic connections and the bias of neurons. In addition, the hyperparameter refers to a parameter to be set before learning in a machine learning algorithm, and includes a learning rate, the number of iterations, a mini-batch size, an initialization function, and the like.
인공 신경망의 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다. 손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다.The purpose of learning the artificial neural network can be seen as determining the model parameters that minimize the loss function. The loss function may be used as an index for determining optimal model parameters in the learning process of the artificial neural network.
머신 러닝은 학습 방식에 따라 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning)으로 분류할 수 있다.Machine learning can be classified into supervised learning, unsupervised learning, and reinforcement learning according to a learning method.
지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다.Supervised learning refers to a method of training an artificial neural network in a state where a label for training data is given, and the label is the correct answer (or result value) that the artificial neural network should infer when the training data is input to the artificial neural network. can mean Unsupervised learning may refer to a method of training an artificial neural network in a state where no labels are given for training data. Reinforcement learning can refer to a learning method in which an agent defined in an environment learns to select an action or sequence of actions that maximizes the cumulative reward in each state.
인공 신경망 중에서 복수의 은닉층을 포함하는 심층 신경망(DNN: Deep Neural Network)으로 구현되는 머신 러닝을 딥 러닝(심층 학습, Deep Learning)이라 부르기도 하며, 딥 러닝은 머신 러닝의 일부이다. 이하에서, 머신 러닝은 딥 러닝을 포함하는 의미로 사용된다.Among artificial neural networks, machine learning implemented as a deep neural network (DNN) including a plurality of hidden layers is also called deep learning (deep learning), and deep learning is a part of machine learning. Hereinafter, machine learning is used in a sense including deep learning.
<자율 주행(Self-Driving)><Self-Driving>
자율 주행은 스스로 주행하는 기술을 의미하며, 자율 주행 차량은 사용자의 조작 없이 또는 사용자의 최소한의 조작으로 주행하는 차량(Vehicle)을 의미한다.Autonomous driving refers to a technology that drives by itself, and an autonomous driving vehicle refers to a vehicle that runs without a user's manipulation or with a minimal user's manipulation.
예컨대, 자율 주행에는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술 등이 모두 포함될 수 있다.For example, autonomous driving includes technology for maintaining a driving lane, technology for automatically adjusting speed such as adaptive cruise control, technology for automatically driving along a predetermined route, technology for automatically setting a route when a destination is set, etc. All of these can be included.
차량은 내연 기관만을 구비하는 차량, 내연 기관과 전기 모터를 함께 구비하는 하이브리드 차량, 그리고 전기 모터만을 구비하는 전기 차량을 모두 포괄하며, 자동차뿐만 아니라 기차, 오토바이 등을 포함할 수 있다.The vehicle includes a vehicle having only an internal combustion engine, a hybrid vehicle having both an internal combustion engine and an electric motor, and an electric vehicle having only an electric motor, and may include not only automobiles, but also trains, motorcycles, and the like.
이때, 자율 주행 차량은 자율 주행 기능을 가진 로봇으로 볼 수 있다.In this case, the autonomous vehicle may be viewed as a robot having an autonomous driving function.
도 1은 본 발명의 일 실시 예에 따른 로봇을 포함하는 AI 장치(10)를 나타낸다.1 shows an
AI 장치(10)는 TV, 프로젝터, 휴대폰, 스마트폰, 데스크탑 컴퓨터, 노트북, 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), DMB 수신기, 라디오, 세탁기, 냉장고, 데스크탑 컴퓨터, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다. The
도 1을 참조하면, 단말기(10)는 통신 인터페이스(11), 입력 인터페이스(12), 러닝 프로세서(13), 센서(14), 출력 인터페이스(15), 메모리(17) 및 프로세서(18) 등을 포함할 수 있다.Referring to FIG. 1 , the terminal 10 includes a
통신 인터페이스(11)는 유무선 통신 기술을 이용하여 다른 AI 장치(10a 내지 10e)나 AI 서버(20) 등의 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 통신 인터페이스(11)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등을 송수신할 수 있다.The
이때, 통신 인터페이스(11)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth??), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.At this time, the communication technology used by the
입력 인터페이스(12)는 다양한 종류의 데이터를 획득할 수 있다.The
이때, 입력 인터페이스(12)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력 받기 위한 사용자 입력 인터페이스 등을 포함할 수 있다. 여기서, 카메라나 마이크로폰을 센서로 취급하여, 카메라나 마이크로폰으로부터 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.In this case, the
입력 인터페이스(12)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때 사용될 입력 데이터 등을 획득할 수 있다. 입력 인터페이스(12)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 프로세서(18) 또는 러닝 프로세서(13)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.The
러닝 프로세서(13)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있다. 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.The learning
이때, 러닝 프로세서(13)는 AI 서버(20)의 러닝 프로세서(24)과 함께 AI 프로세싱을 수행할 수 있다.At this time, the learning
이때, 러닝 프로세서(13)는 AI 장치(10)에 통합되거나 구현된 메모리를 포함할 수 있다. 또는, 러닝 프로세서(13)는 메모리(17), AI 장치(10)에 직접 결합된 외부 메모리 또는 외부 장치에서 유지되는 메모리를 사용하여 구현될 수도 있다.In this case, the learning
센서(14)는 다양한 센서들을 이용하여 AI 장치(10) 내부 정보, AI 장치(10)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.The
이때, 센서(14)에 포함되는 센서에는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등이 있다.At this time, sensors included in the
출력 인터페이스(15)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다. The
이때, 출력 인터페이스(15)에는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.In this case, the
메모리(17)는 AI 장치(10)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 메모리(17)는 입력 인터페이스(12)에서 획득한 입력 데이터, 학습 데이터, 학습 모델, 학습 히스토리 등을 저장할 수 있다.The
프로세서(18)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 장치(10)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 프로세서(18)는 AI 장치(10)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.The
이를 위해, 프로세서(18)는 러닝 프로세서(13) 또는 메모리(17)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 상기 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 장치(10)의 구성 요소들을 제어할 수 있다.To this end, the
이때, 프로세서(18)는 결정된 동작을 수행하기 위하여 외부 장치의 연계가 필요한 경우, 해당 외부 장치를 제어하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 해당 외부 장치에 전송할 수 있다.In this case, when the connection of the external device is required to perform the determined operation, the
프로세서(18)는 사용자 입력에 대하여 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 사용자의 요구 사항을 결정할 수 있다.The
이때, 프로세서(18)는 음성 입력을 문자열로 변환하기 위한 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다. In this case, the
이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서(13)에 의해 학습된 것이나, AI 서버(20)의 러닝 프로세서(24)에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.At this time, at least one of the STT engine and the NLP engine may be configured as an artificial neural network, at least a part of which is learned according to a machine learning algorithm. And, at least one of the STT engine or the NLP engine is learned by the learning
프로세서(18)는 AI 장치(10)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리(17) 또는 러닝 프로세서(13)에 저장하거나, AI 서버(20) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.The
프로세서(18)는 메모리(17)에 저장된 응용 프로그램을 구동하기 위하여, AI 장치(10)의 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(18)는 상기 응용 프로그램의 구동을 위하여, AI 장치(10)에 포함된 구성 요소들 중 둘 이상을 서로 조합하여 동작시킬 수 있다.The
도 2는 본 발명의 일 실시 예에 따른 로봇과 연결되는 AI 서버(20)를 나타낸다.2 shows an
도 2를 참조하면, AI 서버(20)는 머신 러닝 알고리즘을 이용하여 인공 신경망을 학습시키거나 학습된 인공 신경망을 이용하는 장치를 의미할 수 있다. 여기서, AI 서버(20)는 복수의 서버들로 구성되어 분산 처리를 수행할 수도 있고, 5G 네트워크로 정의될 수 있다. 이때, AI 서버(20)는 AI 장치(10)의 일부의 구성으로 포함되어, AI 프로세싱 중 적어도 일부를 함께 수행할 수도 있다.Referring to FIG. 2 , the
AI 서버(20)는 통신 인터페이스(21), 메모리(23), 러닝 프로세서(24) 및 프로세서(26) 등을 포함할 수 있다.The
통신 인터페이스(21)는 AI 장치(10) 등의 외부 장치와 데이터를 송수신할 수 있다.The
메모리(23)는 모델 스토리지(23a)를 포함할 수 있다. 모델 스토리지(23a)는 러닝 프로세서(24)을 통하여 학습 중인 또는 학습된 모델(또는 인공 신경망, 23b)을 저장할 수 있다.The
러닝 프로세서(24)는 학습 데이터를 이용하여 인공 신경망(23b)을 학습시킬 수 있다. 학습 모델은 인공 신경망의 AI 서버(20)에 탑재된 상태에서 이용되거나, AI 장치(10) 등의 외부 장치에 탑재되어 이용될 수도 있다.The learning
학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다. 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어(instruction)는 메모리(23)에 저장될 수 있다.The learning model may be implemented in hardware, software, or a combination of hardware and software. When a part or all of the learning model is implemented in software, one or more instructions constituting the learning model may be stored in the
프로세서(26)는 학습 모델을 이용하여 새로운 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수 있다.The
도 3은 본 발명의 일 실시 예에 따른 AI 시스템(1)을 나타낸다.3 shows an
도 3을 참조하면, AI 시스템(1)은 AI 서버(20), 로봇(10a), 자율 주행 차량(10b), XR 장치(10c), 스마트폰(10d) 또는 가전(10e) 중에서 적어도 하나 이상이 클라우드 네트워크(2)와 연결된다. 여기서, AI 기술이 적용된 로봇(10a), 자율 주행 차량(10b), XR 장치(10c), 스마트폰(10d) 또는 가전(10e) 등을 AI 장치(10a 내지 10e)라 칭할 수 있다.Referring to FIG. 3 , the
클라우드 네트워크(2)는 클라우드 컴퓨팅 인프라의 일부를 구성하거나 클라우드 컴퓨팅 인프라 안에 존재하는 네트워크를 의미할 수 있다. 여기서, 클라우드 네트워크(2)는 3G 네트워크, 4G 또는 LTE(Long Term Evolution) 네트워크 또는 5G 네트워크 등을 이용하여 구성될 수 있다.The
즉, AI 시스템(1)을 구성하는 각 장치들(10a 내지 10e, 200)은 클라우드 네트워크(2)를 통해 서로 연결될 수 있다. 특히, 각 장치들(10a 내지 10e, 200)은 기지국을 통해서 서로 통신할 수도 있지만, 기지국을 통하지 않고 직접 서로 통신할 수도 있다.That is, each of the
AI 서버(20)는 AI 프로세싱을 수행하는 서버와 빅 데이터에 대한 연산을 수행하는 서버를 포함할 수 있다.The
AI 서버(20)는 AI 시스템(1)을 구성하는 AI 장치들인 로봇(10a), 자율 주행 차량(10b), XR 장치(10c), 스마트폰(10d) 또는 가전(10e) 중에서 적어도 하나 이상과 클라우드 네트워크(2)을 통하여 연결되고, 연결된 AI 장치들(10a 내지 10e)의 AI 프로세싱을 적어도 일부를 도울 수 있다.The
이때, AI 서버(20)는 AI 장치(10a 내지 10e)를 대신하여 머신 러닝 알고리즘에 따라 인공 신경망을 학습시킬 수 있고, 학습 모델을 직접 저장하거나 AI 장치(10a 내지 10e)에 전송할 수 있다. In this case, the
이때, AI 서버(20)는 AI 장치(10a 내지 10e)로부터 입력 데이터를 수신하고, 학습 모델을 이용하여 수신한 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성하여 AI 장치(10a 내지 10e)로 전송할 수 있다.At this time, the
또는, AI 장치(10a 내지 10e)는 직접 학습 모델을 이용하여 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수도 있다.Alternatively, the
이하에서는, 상술한 기술이 적용되는 AI 장치(10a 내지 10e)의 다양한 실시 예들을 설명한다. 여기서, 도 3에 도시된 AI 장치(10a 내지 10e)는 도 1에 도시된 AI 장치(10)의 구체적인 실시 예로 볼 수 있다.Hereinafter, various embodiments of the
<AI+로봇><AI+Robot>
로봇(10a)은 AI 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.The
로봇(10a)은 동작을 제어하기 위한 로봇 제어 모듈을 포함할 수 있고, 로봇 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다.The
로봇(10a)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 로봇(10a)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 사용자 상호작용에 대한 응답을 결정하거나, 동작을 결정할 수 있다.The
여기서, 로봇(10a)은 이동 경로 및 주행 계획을 결정하기 위하여, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.Here, the
로봇(10a)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 로봇(10a)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 동작을 결정할 수 있다. 여기서, 학습 모델은 로봇(10a)에서 직접 학습되거나, AI 서버(20) 등의 외부 장치에서 학습된 것일 수 있다. The
이때, 로봇(10a)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(20) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.At this time, the
로봇(10a)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 로봇(10a)을 주행시킬 수 있다. The
맵 데이터에는 로봇(10a)이 이동하는 공간에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 벽, 문 등의 고정 객체들과 화분, 책상 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.The map data may include object identification information for various objects disposed in a space in which the
또한, 로봇(10a)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이때, 로봇(10a)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.In addition, the
<AI+로봇+자율주행><AI+Robot+Autonomous Driving>
로봇(10a)은 AI 기술 및 자율 주행 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.The
AI 기술과 자율 주행 기술이 적용된 로봇(10a)은 자율 주행 기능을 가진 로봇 자체나, 자율 주행 차량(10b)과 상호작용하는 로봇(10a) 등을 의미할 수 있다. The
자율 주행 기능을 가진 로봇(10a)은 사용자의 제어 없이도 주어진 동선에 따라 스스로 움직이거나, 동선을 스스로 결정하여 움직이는 장치들을 통칭할 수 있다.The
자율 주행 기능을 가진 로봇(10a) 및 자율 주행 차량(10b)은 이동 경로 또는 주행 계획 중 하나 이상을 결정하기 위해 공통적인 센싱 방법을 사용할 수 있다. 예를 들어, 자율 주행 기능을 가진 로봇(10a) 및 자율 주행 차량(10b)은 라이다, 레이더, 카메라를 통해 센싱된 정보를 이용하여, 이동 경로 또는 주행 계획 중 하나 이상을 결정할 수 있다.The
자율 주행 차량(10b)과 상호작용하는 로봇(10a)은 자율 주행 차량(10b)과 별개로 존재하면서, 자율 주행 차량(10b)의 내부에서 자율 주행 기능에 연계되거나, 자율 주행 차량(10b)에 탑승한 사용자와 연계된 동작을 수행할 수 있다.The
이때, 자율 주행 차량(10b)과 상호작용하는 로봇(10a)은 자율 주행 차량(10b)을 대신하여 센서 정보를 획득하여 자율 주행 차량(10b)에 제공하거나, 센서 정보를 획득하고 주변 환경 정보 또는 객체 정보를 생성하여 자율 주행 차량(10b)에 제공함으로써, 자율 주행 차량(10b)의 자율 주행 기능을 제어하거나 보조할 수 있다.At this time, the
또는, 자율 주행 차량(10b)과 상호작용하는 로봇(10a)은 자율 주행 차량(10b)에 탑승한 사용자를 모니터링하거나 사용자와의 상호작용을 통해 자율 주행 차량(10b)의 기능을 제어할 수 있다. 예컨대, 로봇(10a)은 운전자가 졸음 상태인 경우로 판단되는 경우, 자율 주행 차량(10b)의 자율 주행 기능을 활성화하거나 자율 주행 차량(10b)의 구동부의 제어를 보조할 수 있다. 여기서, 로봇(10a)이 제어하는 자율 주행 차량(10b)의 기능에는 단순히 자율 주행 기능뿐만 아니라, 자율 주행 차량(10b)의 내부에 구비된 네비게이션 시스템이나 오디오 시스템에서 제공하는 기능도 포함될 수 있다.Alternatively, the
또는, 자율 주행 차량(10b)과 상호작용하는 로봇(10a)은 자율 주행 차량(10b)의 외부에서 자율 주행 차량(10b)에 정보를 제공하거나 기능을 보조할 수 있다. 예컨대, 로봇(10a)은 스마트 신호등과 같이 자율 주행 차량(10b)에 신호 정보 등을 포함하는 교통 정보를 제공할 수도 있고, 전기 차량의 자동 전기 충전기와 같이 자율 주행 차량(10b)과 상호작용하여 충전구에 전기 충전기를 자동으로 연결할 수도 있다.Alternatively, the
도 4는 본 발명의 실시예에 따른 로봇의 사시도이다.4 is a perspective view of a robot according to an embodiment of the present invention.
본 실시예에 따른 로봇(10a)은, 본체(200)와, 넥 바디(300)와, 헤드(400)를 포함할 수 있다. 로봇(10a)은 서비스 모듈(900)을 더 포함할 수 있다.The
본체(200)는 로봇(10a)의 베이스를 이룰수 있다. 본체(200)에는 로봇(10a)을 주행시키는 주행휠(202)이 구비될 수 있다. 주행휠(202)은 본체(200)의 하측으로 돌출될 수 있다. The
본체(200)는 외관을 형성하는 하우징(210)을 포함할 수 있다. 하우징(210)은 본체(200)의 외둘레면을 형성할 수 있다. 하우징(210)의 외둘레면은 본체(200)의 외둘레면일 수 있다.The
하우징(210)의 상면은 개방될 수 있고, 후술할 서비스 모듈(900)은 하우징(210)의 개방된 상면을 상측에서 커버할 수 있다. 서비스 모듈(900)은 바디 프레임(220)을 상측에서 커버할 수 있다. 다만 이에 한정되는 것은 아니며, 하우징(210)의 상면이 서비스 모듈(900)을 지지하는 구성도 가능함은 물론이다.The upper surface of the
하우징(210)은 서로 분리 가능한 복수개의 부재가 결합되어 형성될 수 있다. 좀 더 상세히, 하우징(210)은 프론트 하우징(220)과 리어 하우징(230)을 포함할 수 있다. 따라서, 하우징(210)의 체결 및 분리 작업이 용이해질 수 있다.The
프론트 하우징(220)은 전방을 향해 볼록하게 휘어질 수 있고, 리어 하우징(230)은 후방을 향해 볼록하게 휘어질 수 있다. 프론트 하우징(220)의 후단과 리어 하우징(230)의 전단은 서로 맞닿을 수 있다. 프론트 하우징(220)과 리어 하우징(230)의 각 외면은 연속되게 이어질 수 있다.The
본체(200)에는 라이다(204)가 구비될 수 있다. The
좀 더 상세히, 하우징(210)에는 하우징(210)의 둘레 방향으로 길게 형성된 장공(220a)이 형성될 수 있다. 장공(220a)은 프론트 하우징(220)에 형성될 수 있다. 라이다(204)는 상기 장공(220a)을 통해 본체(200)의 외부를 향할 수 있고, 로봇(10a)의 전방에 위치한 장애물이나 사람을 감지할 수 있다.In more detail, the
본체(200)에는 복수개의 초음파 센서(800)가 구비될 수 있다. 복수개의 초음파 센서(800)는 본체(200)의 둘레 방향으로 서로 이격될 수 있다. A plurality of
하우징(210)의 외둘레에는 초음파 센서(800)가 배치된 복수개의 개구(211)(도 5 참조)가 형성될 수 있다. 각 초음파 센서(800)는 상기 개구(211)를 통해 이동 로봇(1) 주변의 물체를 감지할 수 있다.A plurality of openings 211 (see FIG. 5 ) in which the
초음파 센서(800)는 라이다(204)보다 낮은 위치에 설치될 수 있다. 좀 더 상세히, 본체(200)의 하단을 기준으로, 초음파 센서(800)의 높이는 라이다(204)의 높이보다 낮을 수 있다.The
초음파 센서(800)는 음파를 이용하여 본체 주변의 장애물이나 사람을 감지할 수 있다. 따라서, 빛을 흡수 또는 투과시키는 대상물(예를 들어, 유리창)도 용이하게 감지할 수 있다.The
한편, 넥 바디(300)는 본체(200)의 전방부에서 상측으로 길게 연장될 수 있다. 넥 바디(300)는 수직하게 형성될 수 있다. 넥 바디(300)는 서비스 모듈(900)보다 상측으로 돌출될 수 있다. 넥 바디(300)의 상측 일부는 후방 상측을 향해 절곡될 수 있다. Meanwhile, the
헤드(400)는 넥 바디(300)의 상단에 연결될 수 있다. 헤드(400)는 넥 바디(300)에 대해 전후로 틸팅될 수 있다. 헤드(400)는 서비스 모듈(900)의 상측에 위치할 수 있다.The
헤드(400)에는 디스플레이(430)가 구비될 수 있다. 디스플레이(430)는 헤드(400)의 전면에 구비될 수 있다. 디스플레이(430)에는 기설정된 이미지 또는 영상이 출력될 수 있다. 또한, 디스플레이(430)는 터치 패널을 포함하고, 터치 입력이 가능한 입력부로 기능할 수 있다.The
서비스 모듈(900)은 본체(200)를 상측에서 커버할 수 있다. 또한, 서비스 모듈(900)은 넥 바디(300)를 후방에서 커버할 수 있다. The
서비스 모듈(900)은 헤드(400)보다 하측에 위치할 수 있다. 좀 더 상세히, 본체(200)의 상단부터 헤드(400)까지의 높이는 서비스 모듈(900)의 높이보다 높을 수 있다.The
서비스 모듈(900)은 필요에 따라 달라질 수 있다. 일례로, 서비스 모듈(900)은 서로 다른 높이에 위치한 복수개의 드로워(미도시)를 포함할 수 있다. 상기 복수개의 드로워는 후방으로 슬라이딩되어 개방되거나, 전방으로 슬라이딩되어 클로즈될 수 있다. 로봇(10a)은 복수개의 드로워에 물품이 수용된 상태에서 자율 주행할 수 있고, 배달 로봇으로 기능할 수 있다.The
도 5는 본 발명의 실시예에 따른 프론트 하우징의 사시도이고, 도 6은 본 발명의 실시예에 따른 복수개의 초음파 센서의 배치를 설명하기 위한 도면이다.5 is a perspective view of a front housing according to an embodiment of the present invention, and FIG. 6 is a view for explaining the arrangement of a plurality of ultrasonic sensors according to an embodiment of the present invention.
하우징(210)에는 초음파 센서(800)가 배치되는 복수개의 개구(211)가 형성될 수 있다. 복수개의 개구(211)는 하우징(210)의 둘레를 따라 서로 이격될 수 있다. 초음파 센서(800)는 상기 개구(211)를 통해 하우징(210)의 외부를 향할 수 있다.A plurality of
복수개의 초음파 센서(800)는 프론트 센서(811)(812)와, 레프트 센서(821)(822)와, 라이트 센서(831)(832)를 포함할 수 있다.The plurality of
프론트 센서(811)(812)는 전방 또는 전방과 측방 사이의 일 방향을 향할 수 있다. 프론트 센서(811)(812)는 하우징(210), 좀 더 상세히는 프론트 하우징(220)의 전면에 배치될 수 있다.The
프론트 센서(811)(812)는 좌우로 이격된 한 쌍이 구비될 수 있다. 한 쌍의 프론트 센서(811)(812)는 본체(200)의 좌측으로 편심된 제1프론트 센서(811)와, 본체(200)의 우측으로 편심된 제2프론트 센서(812)를 포함할 수 있다.A pair of
제1프론트 센서(811)는 전방 또는 전방 좌측으로 경사진 방향을 향할 수 있다. 제2프론트 센서(812)는 전방 또는 전방 우측으로 경사진 방향을 향할 수 있다.The first
즉, 본체(200)의 중심(C)을 전후로 가로지르는 가상의 기준면(P)에 대해, 제1프론트 센서(811)와 제2프론트 센서(812)는 서로 반대편에 위치할 수 있다. 상기 본체(200)의 중심(C)은 하우징(210)의 중심일 수 있다. That is, the first
제1프론트 센서(811)와 제2프론트 센서(812)는 좌우 대칭되게 배치될 수 있다. 즉, 제1프론트 센서(811)와 제2프론트 센서(812)는 상기 기준면(P)에 대해 대칭되게 배치될 수 있다.The first
제1프론트 센서(811)와 제2프론트 센서(812)는 각각 초음파를 송수신할 수 있다.The first
좀 더 상세히, 각 프론트 센서(811)(812)는 초음파를 송신하도록 구성된 에미터(Emitter)와, 초음파를 수신하도록 구성된 리시버(Receiver)를 포함할 수 있다. 상기 에미터 및 리시버는 주지의 구성이므로 이에 관한 자세한 설명은 생략한다.In more detail, each of the
각 프론트 센서(811)(812)의 에미터 및 리시버는 동시에 활성화될 수 있다. 즉, 각 프론트 센서(811)(812)는 초음파의 송신기 및 수신기 역할을 동시에 수행하는 다이렉트(Direct) 방식으로 동작할 수 있다.The emitter and receiver of each
프론트 센서(811)(812)에서 송신된 초음파는 본체(200)의 전방에 위치한 오브젝트에서 반사될 수 있고, 프론트 센서(811)(812)는 상기 오브젝트에서 반사되어 되돌아온 초음파를 수신할 수 있다. 이로써, 각 프론트 센서(811)(812)는 본체(200)의 전방에 위치한 오브젝트를 감지할 수 있다.The ultrasonic waves transmitted from the
레프트 센서(821)(822)는 좌측 방향 또는 전방 좌측으로 경사진 방향을 향할 수 있다. 전방 좌측으로 경사진 방향은 전방과 좌측 방향의 사이의 일 방향을 의미할 수 있다.The
제1프론트 센서(811)가 향하는 방향과 레프트 센서(821)(822)가 향하는 방향은 서로 다를 수 있다.A direction that the first
레프트 센서(821)(822)는 하우징(210), 좀 더 상세히는 프론트 하우징(220)의 좌측부에 배치될 수 있다.The
레프트 센서(821)(822)는 서로 이웃한 한 쌍이 구비될 수 있다. A pair of
한 쌍의 초음파 센서(800)가 '이웃한'것은, 상기 한 쌍의 초음파 센서(800)의 사이에 또다른 초음파 센서가 없는 것을 의미한다.When the pair of
한 쌍의 레프트 센서(821)(822)는, 제1프론트 센서(811)와 이웃한 제1레프트 센서(821)와, 제1레프트 센서(821)와 이웃한 제2레프트 센서(822)를 포함할 수 있다.A pair of
즉, 제1레프트 센서(821)는 하우징(210)의 둘레 방향에 대해 제1프론트 센서(811)와 제2레프트 센서(822)의 사이에 위치할 수 있다.That is, the first
각 레프트 센서(821)(822)는 초음파를 송신 또는 수신할 수 있다.Each of the
좀 더 상세히, 각 레프트 센서(821)(822)는 초음파를 송신하도록 구성된 에미터(Emitter)와, 초음파를 수신하도록 구성된 리시버(Receiver)를 포함할 수 있고, 각 레프트 센서(821)(822)의 에미터 및 리시버는 택일적으로 활성화될 수 있다. In more detail, each
제1레프트 센서(821) 및 제2레프트 센서(822) 중 어느 하나의 에미터가 활성화되면 다른 하나의 리시버가 활성화될 수 있다. 즉, 제1레프트 센서(821) 및 제2레프트 센서(822)는, 어느 하나가 초음파의 송신기 역할을 수행하고 다른 하나는 초음파의 수신기 역할을 수행하는 인다이렉트(Indirect) 방식으로 동작할 수 있다.When one emitter of the first
제1레프트 센서(821) 및 제2레프트 센서(822) 중 어느 하나에서 송신된 초음파는 본체(200)의 좌측 또는 좌측 전방에 위치한 오브젝트에서 반사될 수 있다. 제1레프트 센서(821) 및 제2레프트 센서(822) 중 다른 하나는 상기 오브젝트에서 반사된 초음파를 수신할 수 있다. 이로써, 제1레프트 센서(821) 및 제2레프트 센서(822)는 본체(200)의 좌측 또는 좌측 전방에 위치한 오브젝트를 감지할 수 있다.The ultrasonic wave transmitted from any one of the first
라이트 센서(831)(832)는 우측 방향 또는 전방 우측으로 경사진 방향을 향할 수 있다. 전방 우측으로 경사진 방향은 전방과 우측 방향의 사이의 일 방향을 의미할 수 있다.The
제2프론트 센서(812)가 향하는 방향과 레프트 센서(821)(822)가 향하는 방향은 서로 다를 수 있다.The direction in which the second
라이트 센서(831)(832)는 하우징(210), 좀 더 상세히는 프론트 하우징(220)의 우측부에 배치될 수 있다.The
라이트 센서(831)(832)는 서로 이웃한 한 쌍이 구비될 수 있다. 한 쌍의 라이트 센서(831)(832)는 제2프론트 센서(812)와 이웃한 제1라이트 센서(831)와, 제1라이트 센서(831)와 이웃한 제2라이트 센서(832)를 포함할 수 있다.A pair of
즉, 제1라이트 센서(831)는 하우징(210)의 둘레 방향에 대해 제2프론트 센서(812)와 제2라이트 센서(832)의 사이에 위치할 수 있다.That is, the
각 라이트 센서(831)(832)는 초음파를 송신 또는 수신할 수 있다.Each of the
좀 더 상세히, 각 라이트 센서(831)(832)는 초음파를 송신하도록 구성된 에미터(Emitter)와, 초음파를 수신하도록 구성된 리시버(Receiver)를 포함할 수 있고, 각 라이트 센서(831)(832)의 에미터 및 리시버는 택일적으로 활성화될 수 있다. In more detail, each
제1라이트 센서(831) 및 제2라이트 센서(832) 중 어느 하나의 에미터가 활성화되면 다른 하나의 리시버가 활성화될 수 있다. 즉, 제1라이트 센서(831) 및 제2라이트 센서(832)는, 어느 하나가 초음파의 송신기 역할을 수행하고 다른 하나는 초음파의 수신기 역할을 수행하는 인다이렉트(Indirect) 방식으로 동작할 수 있다. When one emitter of the
제1라이트 센서(831) 및 제2라이트 센서(832) 중 어느 하나에서 송신된 초음파는 본체(200)의 우측 또는 우측 전방에 위치한 오브젝트에서 반사될 수 있다. 제1라이트 센서(831) 및 제2라이트 센서(832) 중 다른 하나는 상기 오브젝트에서 반사된 초음파를 수신할 수 있다. 이로써, 한 쌍의 레프트 센서(831)(832)는 본체(200)의 우측 또는 우측 전방에 위치한 오브젝트를 감지할 수 있다.Ultrasound transmitted from any one of the
레프트 센서(821)(822)와 라이트 센서(831)(832)는 좌우 대칭되게 배치될 수 있다. 좀 더 상세히, 제1레프트 센서(821)와 제1라이트 센서(831)는 상기 기준면(P)에 대해 대칭되게 배치될 수 있다. 또한, 제2레프트 센서(822)와 제2라이트 센서(832)는 상기 기준면(P)에 대해 대칭되게 배치될 수 있다.The
제1레프트 센서(821)와 제1라이트 센서(831)는 제1사이드 센서로 명명할 수 있다. 또한 제2레프트 센서(822)와 제2라이트 센서(832)는 제2사이드 센서로 명명할 수 있다.The first
이하, 제1프론트 센서(811), 제1레프트 센서(821) 및 제2레프트 센서(822)의 배치에 대해 설명한다. 이로부터, 당업자는 제2프론트 센서(812), 제1라이트 센서(831) 및 제2라이트 센서(832)의 배치에 대해서도 용이하게 이해할 수 있을 것이다.Hereinafter, the arrangement of the first
제1프론트 센서(811)는 복수개의 초음파 센서(800) 중 라이다(204)와 가장 인접할 수 있다. 좀 더 상세히, 제1프론트 센서(811)와 라이다(204)(도 4 참조) 사이의 거리는, 제1레프트 센서(821)와 라이다(204) 사이의 거리보다 가까울 수 있다. 또한, 제1레프트 센서(821)와 라이다(204) 사이의 거리는 제2레프트 센서(822)와 라이다(204) 사이의 거리보다 가까울 수 있다. The first
즉, 제1프론트 센서(811) 및/또는 제2프론트 센서(812)는 복수개의 초음파 센서(800) 중 라이다(204)에 가장 인접한 센서일 수 있다.That is, the first
또한, 하우징(210)의 중심(C)을 전후로 가로지르는 기준면(P)부터 제1프론트 센서(811)까지의 좌우 거리는, 상기 기준면(P)부터 제1레프트 센서(821)까지의 좌우 거리보다 가까울 수 있다. 또한, 상기 기준면(P)부터 제1레프트 센서(821)까지의 좌우 거리는 상기 기준면(P)부터 제2레프트 센서(822)까지의 좌우 거리보다 가까울 수 있다.In addition, the left and right distance from the reference plane P that crosses the center C of the
즉, 제1프론트 센서(811) 및/또는 제2프론트 센서(812)는 프론트 하우징(220)에 구비된 복수개의 초음파 센서(800) 중 상기 기준면(P)에 가장 인접하게 배치된 센서일 수 있다.That is, the first
또한, 하우징(210)의 중심(C)을 좌우로 가로지르는 기준면(H)부터 제1프론트 센서(811)까지의 전후 거리는, 상기 기준면(H)부터 제1레프트 센서(821)까지의 전후 거리보다 멀 수 있다. 또한, 상기 기준면(H)부터 제1레프트 센서(821)까지의 전후 거리는 상기 기준면(H)부터 제2레프트 센서(822)까지의 전후 거리보다 멀 수 있다.In addition, the front-back distance from the reference plane H that crosses the center C of the
즉, 제1프론트 센서(811) 및/또는 제2프론트 센서(812)는 프론트 하우징(220)에 구비된 복수개의 초음파 센서(800) 중 상기 기준면(H)으로부터 가장 멀게 배치된 센서일 수 있다.That is, the first
하우징(210)의 중심(C)을 기준으로, 상기 기준면(P)과 제1프론트 센서(811) 사이의 각도는 소정의 제1각도(T1)보다 작을 수 있다. 좀 더 상세히, 하우징(210)의 중심(C)을 통과하며 상기 기준면(P)과 상기 제1각도(T1)를 이루는 제1가상면(P1)에 대해, 제1프론트 센서(811)는 상기 기준면(P)과 상기 제1가상면(P1)의 사이에 위치할 수 있다.An angle between the reference plane P and the first
또한, 하우징(210)의 중심(C)을 기준으로, 상기 기준면(P)과 제1레프트 센서(821) 사이의 각도는 상기 제1각도(T1) 및 상기 제1각도(T1)보다 큰 제2각도(T2)의 사이일 수 있다. 좀 더 상세히, 하우징(210)의 중심(C)을 통과하며 상기 기준면(P)과 상기 제2각도(T2)를 이루는 제2가상면(P2)에 대해, 제1레프트 센서(821)는 상기 기준면(P)과 상기 제2가상면(P2)의 사이에 위치할 수 있다.In addition, based on the center C of the
또한, 하우징(210)의 중심(C)을 기준으로, 상기 기준면(P)과 제2레프트 센서(822) 사이의 각도는 상기 제2각도(T2) 및 상기 제2각도(T2)보다 큰 제3각도(T3)의 사이일 수 있다. 좀 더 상세히, 하우징(210)의 중심(C)을 통과하며 상기 기준면(P)과 상기 제3각도(T3)를 이루는 제3가상면(P3)에 대해, 제2레프트 센서(822)는 상기 기준면(P)과 상기 제3가상면(P3)의 사이에 위치할 수 있다.In addition, based on the center C of the
즉, 제1프론트 센서(811) 및/또는 제2프론트 센서(812)는 프론트 하우징(220)에 구비된 복수개의 초음파 센서(800) 중 하우징(210)의 중심(C)을 기준으로 상기 기준면(P)과 이루는 각도가 가장 작은 센서일 수 있다.복수개의 초음파 센서(800)의 감지 범위(FOV: Field of View)가 전방 및 전방 양측을 모두 커버하기 위해, 상기 제1각도(T1)는 26도이고, 상기 제2각도(T2)는 50도이고, 상기 제3각도(T3)는 71도일 수 있다. That is, the first
즉, 상기 하우징(210)의 중심(C)을 기준으로, 상기 기준면(P)과 제1초음파 센서(811) 사이의 각도는 26도 이하이고, 상기 기준면(P)과 제1레프트 센서(821) 사이의 각도는 26도 내지 50도이고, 상기 기준면(P)과 제2레프트 센서(822) 사이의 각도는 50도 내지 71도일 수 있다.That is, based on the center (C) of the
이로써, 수평 방향에 대한 복수개의 초음파 센서(800)의 감지 범위(FOV)가 넓어질 수 있다.Accordingly, the detection range (FOV) of the plurality of
하우징(210)의 중심(C)을 기준으로, 제1프론트 센서(811)와 제2레프트 센서(822) 사이의 각도(a1+a2)는, 제1프론트 센서(811)와 제1레프트 센서(821) 사이의 각도(a1) 및 제1레프트 센서(821)와 제2레프트 센서(822) 사이의 각도(a2)보다 클 수 있다.The angle (a1+a2) between the first
또한, 하우징(210)의 중심(C)을 기준으로, 제1프론트 센서(811)와 제1레프트 센서(821) 사이의 각도(a1)는, 제1레프트 센서(821)와 제2레프트 센서(822) 사이의 각도(a2)보다 클 수 있다. 즉, 전방에서 측방으로 갈수록 초음파 센서(800)간의 간격이 좁아질 수 있다. In addition, the angle a1 between the first
따라서, 제1레프트 센서(821)와 제2레프트 센서(822) 중 어느 하나에서 송신된 초음파가 다른 하나로 원활하게 수신될 수 있다. 이로써, 하우징(210)의 전방 좌측 방향에 대해 보다 세밀한 감지가 가능하다.Accordingly, the ultrasound transmitted from one of the first
만일 제1레프트 센서(821)와 제2레프트 센서(822) 사이의 거리가 멀면 원활한 송수신이 어려워져 감지 거리에 왜곡이 발생할 수 있다.If the distance between the first
한편, 복수개의 초음파 센서(800)는 리어 센서(840)와, 제3레프트 센서(841)와, 제3라이트 센서(842)를 더 포함할 수 있다. 제3레프트 센서(841) 및 제3라이트 센서(842)는 제3사이드 센서로 명명할 수 있다.Meanwhile, the plurality of
리어 센서(840)와, 제3레프트 센서(841)와, 제3라이트 센서(842)는 리어 하우징(230)에 배치될 수 있다.The
리어 센서(840)는 후방을 향할 수 있다. 리어 센서(840)는 하우징(210), 좀 더 상세히는 리어 하우징(230)의 배면에 배치될 수 있다.The
제3레프트 센서(841)은 후방 좌측으로 경사진 방향을 향할 수 있고, 제3라이트 센서(842)는 후방 우측으로 경사진 방향을 향할 수 있다. 후방 좌측으로 경사진 방향은 후방과 좌측 방향의 사이의 일 방향을 의미할 수 있다. 후방 우측으로 경사진 방향은 후방과 우측 방향의 사이의 일 방향을 의미할 수 있다.The third
제3레프트 센서(841)는 하우징(210), 좀 더 상세히는 리어 하우징(230)의 좌측부에 배치될 수 있다. 즉, 제3레프트 센서(841)는 본체(200)의 좌측으로 편심될 수 있다.The third
제3라이트 센서(842)는 하우징(210), 좀 더 상세히는 리어 하우징(230)의 우측부에 배치될 수 있다. 즉, 제3라이트 센서(842)는 본체(200)의 우측으로 편심될 수 있다.The third
제3레프트 센서(841) 및 제3라이트 센서(842)는 리어 센서(840)와 이웃할 수 있다. 리어 센서(840)는 하우징(210)의 둘레 방향에 대해 제3레프트 센서(841) 및 제3라이트 센서(842)의 사이에 위치할 수 있다. 리어 센서(840)는 하우징(210)의 둘레 방향에 대해 제3레프트 센서(841) 및 제3라이트 센서(842)와 이격될 수 있다.The third
제3레프트 센서(841) 및 제3라이트 센서(842)는 좌우 대칭되게 배치될 수 있다. 좀 더 상세히, 제3레프트 센서(841) 및 제3라이트 센서(842)는 상기 기준면(P)에 대해 서로 대칭되게 배치될 수 있다.The third
리어 센서(840)와, 제3레프트 센서(841)와, 제3라이트 센서(842)는 각각 초음파를 송수신할 수 있다. 즉, 리어 센서(840)와, 제3레프트 센서(841)와, 제3라이트 센서(842)는 에미터와 리시버가 동시에 활성화되는 다이렉트 방식으로 동작할 수 있다.The
리어 센서(840)에서 송신된 초음파는 본체(200)의 후방에 위치한 오브젝트에서 반사될 수 있고, 리어 센서(840)는 상기 오브젝트에서 반사되어 되돌아온 초음파를 수신할 수 있다. 이로써, 리어 센서(840)는 본체(200)의 후방에 위치한 오브젝트를 감지할 수 있다.The ultrasonic wave transmitted from the
제3레프트 센서(841)에서 송신된 초음파는 본체(200)의 후방 좌측에 위치한 오브젝트에서 반사될 수 있고, 제3레프트 센서(841)는 상기 오브젝트에서 반사되어 되돌아온 초음파를 수신할 수 있다. 이로써, 제3레프트 센서(841)는 본체(200)의 후방 좌측에 위치한 오브젝트를 감지할 수 있다.The ultrasonic wave transmitted from the third
제3라이트 센서(842)에서 송신된 초음파는 본체(200)의 후방 우측에 위치한 오브젝트에서 반사될 수 있고, 제3라이트 센서(842)는 상기 오브젝트에서 반사되어 되돌아온 초음파를 수신할 수 있다. 이로써, 제3라이트 센서(842)는 본체(200)의 후방 우측에 위치한 오브젝트를 감지할 수 있다.The ultrasonic wave transmitted from the third
이하, 본체(200)의 중심(C)에 대한 리어 센서(840) 및 제3레프트 센서(841)의 배치에 대해 설명한다. 이로부터, 당업자는 제2라이트 센서(842)의 배치에 대해서도 용이하게 이해할 수 있을 것이다.Hereinafter, the arrangement of the
리어 센서(840)는 좌우 방향에 대해 하우징(210)의 중앙에 위치할 수 있다. 좀 더 상세히, 리어 센서(840)는 하우징(210)의 중심(C)을 전후로 가로지르는 가상의 기준면(P) 상에 위치할 수 있다. The
따라서, 리어 센서(840)는 전후 방향으로 프론트 센서(811)(812)와 비대칭되게 배치될 수 있다.Accordingly, the
하우징(210)의 중심(C)을 좌우로 가로지르는 가상의 기준면(H)과 제2레프트 센서(822) 사이의 전후 거리(L1)는, 상기 기준면(H)과 제3레프트 센서(842) 사이의 전후 거리(L2)보다 가까울 수 있다.The front-back distance L1 between the imaginary reference plane H crossing the center C of the
또한, 하우징(210)의 중심(C)을 기준으로, 리어 센서(840)와 제3레프트 센서(841) 사이의 각도(a3)는, 제1프론트 센서(811)와 제1레프트 센서(821) 사이의 각도(a1) 및 제1레프트 센서(821)와 제2레프트 센서(822) 사이의 각도(a2)보다 클 수 있다.In addition, the angle a3 between the
즉, 제3레프트 센서(841)는, 전후 방향에 대해 제1레프트 센서(821) 및 제2레프트 센서(822)와 비대칭되게 배치될 수 있다.That is, the third
따라서, 전방과 측방 사이의 일 방향을 향하는 초음파 센서(800)의 개수는, 후방과 측방 사이의 일 방향을 향하는 초음파 센서(800)의 개수보다 많을 수 있다. 이로써, 로봇(10a)의 전방과 측방 사이의 일 방향에 위치한 오브젝트를 상대적으로 정밀하게 감지할 수 있다.Accordingly, the number of the
도 7은 본 발명의 실시예에 따른 복수개의 초음파 센서와 하우징의 외둘레면 사이의 단차가 도시된 도면이다.7 is a diagram illustrating a step difference between a plurality of ultrasonic sensors and an outer peripheral surface of a housing according to an embodiment of the present invention.
도 7에는 제1프론트 센서(811), 제1레프트 센서(821) 및 제2레프트 센서(822)가 도시되어 있다. 이로부터 당업자는 제2프론트 센서(812), 제1라이트 센서(831) 및 제2라이트 센서(832)에 대해서도 용이하게 이해할 수 있을 것이다.7 shows a first
복수개의 초음파 센서(800)는 본체(200), 즉 하우징(210)의 외둘레면에 대해 내측으로 단차지게 배치될 수 있다. 초음파 센서(800)는 하우징(210)의 개구(211)에서 돌출되지 않을 수 있다. The plurality of
좀 더 상세히, 초음파 센서(800)는 하우징(210)의 개구(211)를 통해 하우징(210)의 외둘레면과 내측으로 단차지게 배치될 수 있다. 일 초음파 센서(800)의 단차 거리는, 하우징(210)의 외둘레면에서부터 개구(211)를 통한 상기 일 초음파 센서(800)까지의 평균 깊이를 의미할 수 있다.In more detail, the
하우징(210)의 외둘레면을 기준으로, 제1레프트 센서(821)의 단차 거리(g2)는 제1프론트 센서(811)의 단차 거리(g1) 및 제2레프트 센서(822)의 단차 거리(g3)보다 멀 수 있다.Based on the outer circumferential surface of the
예를 들어, 제1레프트 센서(821)의 단차 거리(g2)는 약 3mm이고, 제1프론트 센서(811)의 단차 거리(g1) 및 제2레프트 센서(822)의 단차 거리(g3)는 약 1mm일 수 있다.For example, the step distance g2 of the first
제1프론트 센서(811)는 초음파의 송수신이 동시에 이뤄지므로, 외부 초음파의 간섭에 상대적으로 더 민감할 수 있다. 따라서, 제1프론트 센서(811)와 이웃한 제1레프트 센서(821)의 단차 거리(g2)를 상대적으로 더 크게 형성하여, 제1레프트 센서(821)에서 송신된 초음파가 제1프론트 센서(811)에 간섭하는 것을 최소화시킬 수 있다.Since the first
제1레프트 센서(821)에서 송신된 초음파가 제1프론트 센서(811)에 간섭하는 것을 최소화하면서도 제1레프트 센서(821)의 감지 범위(FoV)가 지나치게 줄어드는 것을 방지하기 위해, 제1레프트 센서(821)의 단차 거리(g2)는 3mm 내지 5mm일 수 있다. In order to prevent the detection range (FoV) of the first
좀 더 상세히, 제1레프트 센서(821)의 단차 거리(g2)가 3mm보다 가까우면 제1레프트 센서(821)에서 송신된 초음파가 제1프론트 센서(811)에 간섭할 위험이 커질 수 있다. 또한, 제1레프트 센서(821)의 단차 거리(g2)가 5mm보다 멀면 제1레프트 센서(821)의 감지 범위(FoV)가 지나치게 협소해질 수 있다.In more detail, if the step distance g2 of the first
또한, 제1레프트 센서(821)의 감지 범위(FoV)가 지나치게 줄어는 것을 방지하기 위해, 제1레프트 센서(821)가 배치된 개구(211b)는 외측으로 갈수록 직경이 커지도록 테이퍼지게 형성될 수 있다.In addition, in order to prevent the detection range FoV of the first
반면, 제1프론트 센서(811)가 배치된 개구(211a) 및 제2레프트 센서(822)가 배치된 개구(211c)는 직경이 일정하거나, 제1레프트 센서(821)가 배치된 개구(211b)보다 내둘레 기울기가 작게 테이퍼질 수 있다.On the other hand, the
도 8A 및 도 8B는 본 발명의 실시예에 따른 복수개의 초음파 센서의 작용을 설명하기 위한 도면이다.8A and 8B are diagrams for explaining the operation of a plurality of ultrasonic sensors according to an embodiment of the present invention.
로봇(10a)의 프로세서(18)(도 1 참조)는 각 초음파 센서(800)의 감지 데이터를 전달받을 수 있다. 프로세서(18)는 상기 감지 데이터를 기반으로 오브젝트의 존재 여부 및 오브젝트와의 거리를 산출할 수 있다.The processor 18 (refer to FIG. 1 ) of the
프로세서(18)는 각 초음파 센서(800)를 제어할 수 있다. 좀 더 상세히, 프로세서(18)는 각 초음파 센서(800)의 에미터 및/또는 리미터를 활성화시키거나 비활성화시킬 수 있다.The
프로세서(18)는 제1프론트 센서(811) 및 제2프론트 센서(812)를 기설정된 설정 주기에 따라 택일적으로 구동시킬 수 있다. 즉, 제1프론트 센서(811)와 제2프론트 센서(812)는 동시에 구동되지 않고 주기적으로 스위칭되어 구동될 수 있다.The
제1프론트 센서(811)가 구동되면 제1프론트 센서(811)는 초음파를 송수신할 수 있다. 좀 더 상세히, 제1프론트 센서(811)의 에미터에서는 초음파가 송신될 수 있고 리시버에서는 초음파가 수신될 수 있다. 이때 제2프론트 센서(812)의 작동은 정지된 상태일 수 있다.When the first
제2프론트 센서(812)가 구동되면 제2프론트 센서(812)는 초음파를 송수신할 수 있다. 좀 더 상세히, 제2프론트 센서(812)의 에미터에서는 초음파가 송신될 수 있고 리시버에서는 초음파가 수신될 수 있다. 이때 제1프론트 센서(811)의 작동은 정지된 상태일 수 있다.When the second
이로써, 제1프론트 센서(811) 및 제2프론트 센서(812)간에 초음파의 간섭이 발생하지 않는다.Accordingly, interference of ultrasonic waves does not occur between the first
또한, 프로세서(18)는 상기 설정 주기에 따라 제1레프트 센서(821)와 제2레프트 센서(831)의 초음파 송수신을 서로 스위칭할 수 있다. Also, the
즉, 제1레프트 센서(821) 및 제2레프트 센서(822) 중 초음파가 송신되는 센서와 초음파가 수신되는 센서는 주기적으로 스위칭될 수 있다. 좀 더 상세히, 제1레프트 센서(821)의 에미터가 활성화되면 제2레프트 센서(822)의 리시버가 활성화될 수 있다. 반대로 제1레프트 센서(821)의 리시버가 활성화되면 제2레프트 센서(822)의 에미터가 활성화될 수 있다.That is, a sensor that transmits an ultrasonic wave and a sensor that receives an ultrasonic wave among the first
또한, 프로세서(18)는 상기 설정 주기에 따라 제1라이트 센서(831)와 제2라이트 센서(832)의 초음파 송수신을 서로 스위칭할 수 있다. Also, the
즉, 제1라이트 센서(831) 및 제2라이트 센서(832) 중 초음파가 송신되는 센서와 초음파가 수신되는 센서는 주기적으로 스위칭될 수 있다. 좀 더 상세히, 제1라이트 센서(831)의 에미터가 활성화되면 제2라이트 센서(832)의 리시버가 활성화될 수 있다. 반대로 제1라이트 센서(831)의 리시버가 활성화되면 제2라이트 센서(832)의 에미터가 활성화될 수 있다.That is, a sensor that transmits ultrasonic waves and a sensor that receives ultrasonic waves among the
도 8A에 도시된 바와 같이 제1프론트 센서(811)가 구동되고 제2프론트 센서(811)가 구동 중단되면, 프로세서(18)는 제1레프트 센서(821)에서 초음파를 송신시키고, 제2레프트 센서(822)에서 초음파를 수신시키고, 제1라이트 센서(831)에서 초음파를 수신시키고, 제2라이트 센서(832)에서 초음파를 송신시킬 수 있다.As shown in FIG. 8A , when the first
즉, 프로세서(18)는 제1프론트 센서(811)의 에미터 및 리시버와, 제1레프트 센서(821)의 에미터와, 제2레프트 센서(822)의 리시버와, 제1라이트 센서(831)의 리시버와, 제2라이트 센서(832)의 에미터를 동시에 활성화시킬 수 있다.That is, the
초음파를 수신하는 제1라이트 센서(831)와 이웃한 제2프론트 센서(812)가 구동되지 않으므로, 제1라이트 센서(831)로 향하는 초음파가 제2프론트 센서(812)에 영향을 끼칠 우려를 방지할 수 있다.Since the
도 8B에 도시된 바와 같이 제2프론트 센서(812)가 구동되고 제1프론트 센서(811)가 구동 중단되면, 프로세서(18)는 제1레프트 센서(821)에서 초음파를 수신시키고, 제2레프트 센서(822)에서 초음파를 송신시키고, 제1라이트 센서(831)에서 초음파를 송신시키고, 제2라이트 센서(832)에서 초음파를 수신시킬 수 있다.As shown in FIG. 8B , when the second
즉, 프로세서(18)는 제2프론트 센서(812)의 에미터 및 리시버와, 제1레프트 센서(821)의 리시버와, 제2레프트 센서(822)의 에미터와, 제1라이트 센서(831)의 에미터와, 제2라이트 센서(832)의 리시버를 동시에 활성화시킬 수 있다.That is, the
초음파를 수신하는 제1레프트 센서(821)와 이웃한 제1프론트 센서(811)가 구동되지 않으므로, 제1레프트 센서(821)로 향하는 초음파가 제1프론트 센서(811)에 영향을 끼칠 우려를 방지할 수 있다.Since the first
정리하면, 도 8A에 도시된 상태와 도 8B에 도시된 상태는 주기적으로 스위칭될 수 있다. 따라서, 본체(200)의 전방 및 좌우 양측을 연속적으로 감지하면서도, 다이렉트 방식으로 동작하는 프론트 센서(811)(812)에 간섭이 발생할 우려를 최소화시킬 수 있다. In summary, the state shown in Fig. 8A and the state shown in Fig. 8B can be switched periodically. Accordingly, while continuously sensing the front and left and right sides of the
또한, 프론트 센서(811)(812)가 초음파의 송수신이 병합된 다이렉트 방식으로 동작하므로 필요한 초음파 센서(800)의 개수가 줄어들 수 있다.Also, since the
또한, 레프트 센서(821)(822) 및 라이트 센서(831)(832)는 초음파의 송신과 수신이 분리된 인다이렉트 방식으로 동작하므로, 본체(200)와 벽(W) 사이의 근접 거리를 정밀하게 측정할 수 있다. In addition, since the
따라서, 프로세서(18)가 본체(200)의 측방에 인접한 벽(W)을 장애물로 인식하여 로봇의 주행을 중단시키는 것을 방지할 수 있고, 도 8A 및 도 8B에 도시된 바와 같이 로봇(10a)은 한 쌍의 벽(W) 사이에 형성된 협로를 용이하게 통과할 수 있다.Accordingly, it is possible to prevent the
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains.
따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments.
본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.
200: 본체
210: 하우징
211: 개구
800: 초음파 센서
811: 제1프론트 센서
812: 제2프론트 센서
821: 제1레프트 센서
822: 제2레프트 센서
831: 제1라이트 센서
832: 제2라이트 센서200: body 210: housing
211: opening 800: ultrasonic sensor
811: first front sensor 812: second front sensor
821: first left sensor 822: second left sensor
831: first light sensor 832: second light sensor
Claims (32)
상기 본체의 둘레를 따라 서로 이격된 복수개의 초음파 센서를 포함하고,
상기 복수개의 초음파 센서는,
각각 초음파를 송수신하며 좌우로 이격된 제1,2프론트 센서;
좌측 방향 또는 전방 좌측으로 경사진 방향을 향하고 서로 이웃하며 어느 하나는 초음파를 송신하고 다른 하나는 초음파를 수신하는 제1,2레프트 센서; 및
우측 방향 또는 전방 우측으로 경사진 방향을 향하고 서로 이웃하며 어느 하나는 초음파를 송신하고 다른 하나는 초음파를 수신하는 제1,2라이트 센서를 포함하는 로봇.a body provided with a driving wheel; and
A plurality of ultrasonic sensors spaced apart from each other along the circumference of the main body,
The plurality of ultrasonic sensors,
first and second front sensors that transmit and receive ultrasonic waves, respectively, and are spaced apart from one another;
first and second left sensors facing each other in a left direction or an inclined direction to the front left and adjacent to each other, one of which transmits an ultrasonic wave and the other receives the ultrasonic wave; and
A robot including first and second light sensors facing to the right or in a direction inclined to the front right and adjacent to each other, one of which transmits an ultrasonic wave and the other one receives the ultrasonic wave.
상기 제1레프트 센서는 상기 제1프론트 센서와 이웃하고, 상기 제1라이트 센서는 상기 제2프론트 센서와 이웃한 로봇.The method of claim 1,
The first left sensor is adjacent to the first front sensor, and the first light sensor is adjacent to the second front sensor.
상기 제1프론트 센서는 상기 본체의 좌측으로 편심되고 상기 제2프론트 센서는 상기 본체의 우측으로 편심된 로봇.The method of claim 1,
The first front sensor is eccentric to the left side of the main body and the second front sensor is eccentric to the right side of the main body.
상기 제1프론트 센서 및 제2프론트 센서를 기설정된 시간 간격에 따라 택일적으로 구동시키는 프로세서를 더 포함하는 로봇.3. The method of claim 2,
The robot further comprising a processor for selectively driving the first front sensor and the second front sensor according to a preset time interval.
기설정된 시간 간격에 따라, 상기 제1레프트 센서와 상기 제2레프트 센서의 초음파 송수신을 서로 스위칭하고, 상기 제1라이트 센서와 상기 제2라이트 센서의 초음파 송수신을 서로 스위칭하는 프로세서를 더 포함하는 로봇.The method of claim 1,
The robot further comprising a processor for switching the ultrasonic transmission and reception of the first left sensor and the second left sensor with each other according to a preset time interval, and for switching the ultrasonic transmission and reception of the first light sensor and the second light sensor with each other .
상기 프로세서는,
상기 제1프론트 센서가 구동되면, 상기 제1프론트 센서와 이웃한 상기 제1레프트 센서에서 초음파를 송신시키며 상기 제2레프트 센서에서 초음파를 수신시키고,
상기 제2프론트 센서가 구동되면, 상기 제2프론트 센서와 이웃한 상기 제1라이트 센서에서 초음파를 송신시키며 상기 제2라이트 센서에서 초음파를 수신시키는 로봇.5. The method of claim 4,
The processor is
When the first front sensor is driven, the first left sensor adjacent to the first front sensor transmits an ultrasonic wave and the second left sensor receives the ultrasonic wave,
When the second front sensor is driven, the robot transmits ultrasonic waves from the first light sensor adjacent to the second front sensor and receives the ultrasonic waves from the second light sensor.
상기 프로세서는,
상기 제1프론트 센서가 구동되면, 상기 제2라이트 센서에서 초음파를 송신시키며 상기 제1라이트 센서에서 초음파를 수신시키고
상기 제2프론트 센서가 구동되면, 상기 제2레프트 센서에서 초음파를 송신시키며 상기 제1레프트 센서에서 초음파를 수신시키는 로봇.7. The method of claim 6,
The processor is
When the first front sensor is driven, the second light sensor transmits an ultrasonic wave and the first light sensor receives the ultrasonic wave,
When the second front sensor is driven, the robot transmits an ultrasonic wave from the second left sensor and receives the ultrasonic wave from the first left sensor.
상기 복수개의 초음파 센서는 상기 본체의 외둘레면에 대해 내측으로 소정의 단차거리만큼 단차지게 배치되고,
상기 제1레프트 센서 및 제1라이트 센서의 각 단차 거리는 상기 제1프론트 센서의 단차 거리 및 제2프론트 센서의 단차 거리보다 먼 로봇.3. The method of claim 2,
The plurality of ultrasonic sensors are disposed to be stepped by a predetermined step distance inward with respect to the outer circumferential surface of the main body,
The step distance between the first left sensor and the first light sensor is greater than the step distance of the first front sensor and the step distance of the second front sensor.
상기 제2레프트 센서 및 제2라이트 센서의 각 단차 거리는 상기 제1프론트 센서의 단차 거리 및 제2프론트 센서의 단차 거리와 동일한 로봇.9. The method of claim 8,
The step distance of the second left sensor and the second light sensor is the same as the step distance of the first front sensor and the step distance of the second front sensor.
상기 제1레프트 센서 및 제1라이트 센서의 각 단차 거리는 3mm 내지 5mm인 로봇.9. The method of claim 8,
The step distance between the first left sensor and the first light sensor is 3 mm to 5 mm.
상기 본체의 둘레면에는 상기 복수개의 초음파 센서가 배치된 복수개의 개구가 형성되고,
상기 제1레프트 센서 및 제1라이트 센서가 배치된 개구는 외측으로 갈수록 내경이 커지도록 테이퍼진 로봇.3. The method of claim 2,
A plurality of openings in which the plurality of ultrasonic sensors are disposed are formed on the circumferential surface of the main body,
The opening in which the first left sensor and the first light sensor are disposed is tapered so that the inner diameter increases toward the outside.
상기 제1프론트 센서 및 제2프론트 센서는 좌우로 대칭되게 배치되고,
상기 제1레프트 센서 및 제1라이트 센서는 좌우로 대칭되게 배치되고,
상기 제2레프트 센서 및 제2라이트 센서는 좌우로 대칭되게 배치된 로봇.The method of claim 1,
The first front sensor and the second front sensor are arranged symmetrically left and right,
The first left sensor and the first light sensor are arranged symmetrically left and right,
The second left sensor and the second light sensor are arranged symmetrically left and right.
상기 본체의 중심을 기준으로, 상기 제1프론트 센서와 상기 제1레프트 센서 사이의 각도는 상기 제1레프트 센서와 상기 제2레프트 센서 사이의 각도보다 크고,
상기 제2프론트 센서와 상기 제1라이트 센서 사이의 각도는 상기 제1라이트 센서와 상기 제2라이트 센서 사이의 각도보다 큰 로봇.3. The method of claim 2,
Based on the center of the body, the angle between the first front sensor and the first left sensor is greater than the angle between the first left sensor and the second left sensor,
The angle between the second front sensor and the first light sensor is greater than the angle between the first light sensor and the second light sensor.
상기 복수개의 초음파 센서는,
좌우방향에 대해 상기 본체의 중심에 위치하며 후방을 향하는 리어 센서;
상기 본체의 좌측으로 편심되고 상기 리어 센서와 이웃하며 후방 좌측으로 경사진 방향을 향하는 제3레프트 센서; 및
상기 본체의 우측으로 편심되고 상기 리어 센서와 이웃하며 후방 우측으로 경사진 방향을 향하는 제3라이트 센서를 더 포함하는 로봇.3. The method of claim 2,
The plurality of ultrasonic sensors,
a rear sensor located in the center of the main body in the left and right direction and facing rearward;
a third left sensor eccentric to the left side of the main body, adjacent to the rear sensor, and inclined toward the rear left; and
The robot further comprising a third light sensor eccentric to the right side of the main body, adjacent to the rear sensor, and inclined toward the rear right.
상기 제3레프트 센서와 상기 제3라이트 센서는 좌우로 대칭되게 배치된 로봇.15. The method of claim 14,
The third left sensor and the third light sensor are arranged symmetrically left and right.
상기 본체의 중심을 좌우로 가로지르는 가상의 기준면과 상기 제2레프트 센서 사이의 전후 거리는, 상기 기준면과 상기 제3레프트 센서 사이의 전후 거리보다 가깝고,
상기 기준면과 상기 제2라이트 센서 사이의 전후 거리는, 상기 기준면과 상기 제3라이트 센서 사이의 전후 거리보다 가까운 로봇.15. The method of claim 14,
The front-back distance between the imaginary reference plane crossing the center of the main body left and right and the second left sensor is closer than the front-back distance between the reference plane and the third left sensor,
The front-back distance between the reference plane and the second light sensor is closer than the front-back distance between the reference plane and the third light sensor.
상기 리어 센서는 전후 방향으로 상기 제1,2프론트 센서와 비대칭되게 배치되고,
상기 제3레프트 센서는 전후 방향으로 상기 제1,2레프트 센서와 비대칭되게 배치되고,
상기 제3라이트 센서는 전후 방향으로 상기 제1,2라이트 센서와 비대칭되게 배치된 로봇.15. The method of claim 14,
The rear sensor is disposed asymmetrically with the first and second front sensors in the front-rear direction,
The third left sensor is disposed asymmetrically with the first and second left sensors in the front-rear direction,
The third light sensor is disposed asymmetrically with the first and second light sensors in the front-rear direction.
상기 제1프론트 센서는 전방 또는 전방 좌측으로 경사진 방향을 향하고,
상기 제2프론트 센서는 전방 또는 전방 우측으로 경사진 방향을 향하는 로봇.The method of claim 1,
The first front sensor faces a direction inclined to the front or front left,
The second front sensor is a robot facing a direction inclined to the front or front right.
상기 하우징의 둘레를 따라 서로 이격된 복수개의 개구; 및
상기 복수개의 개구를 통해 상기 하우징의 외부를 향하며 상기 하우징의 외둘레면에 대해 내측으로 소정의 단차거리만큼 단차지게 배치된 복수개의 초음파 센서를 포함하고,
상기 복수개의 초음파 센서는,
초음파를 송신 및 수신하는 프론트 센서;
상기 프론트 센서와 이웃하고 초음파를 송신 또는 수신하는 제1사이드 센서;
상기 제1사이드 센서와 이웃하고 상기 제1사이드 센서에서 송신된 초음파를 수신하거나 상기 제1사이드 센서에서 수신되는 초음파를 송신하는 제2사이드 센서를 포함하고,
상기 제1사이드 센서의 단차 거리는 상기 프론트 센서의 단차 거리 및 상기 제2사이드 센서의 단차 거리보다 먼 로봇.housing;
a plurality of openings spaced apart from each other along the periphery of the housing; and
A plurality of ultrasonic sensors facing the outside of the housing through the plurality of openings and disposed to be stepped by a predetermined step distance inwardly with respect to the outer circumferential surface of the housing,
The plurality of ultrasonic sensors,
a front sensor that transmits and receives ultrasonic waves;
a first side sensor adjacent to the front sensor and transmitting or receiving ultrasonic waves;
a second side sensor adjacent to the first side sensor and configured to receive an ultrasonic wave transmitted from the first side sensor or transmit an ultrasonic wave received from the first side sensor;
The step distance of the first side sensor is greater than the step distance of the front sensor and the step distance of the second side sensor.
상기 제1사이드 센서의 단차 거리는 3mm 내지 5mm인 로봇.20. The method of claim 19,
The step distance of the first side sensor is 3mm to 5mm robot.
상기 복수개의 개구 중 상기 제1사이드 센서가 배치된 개구는 외측으로 갈수록 직경이 커지도록 테이퍼진 로봇20. The method of claim 19,
Among the plurality of openings, the opening in which the first side sensor is disposed is tapered so that the diameter increases toward the outside.
상기 프론트 센서는 전방 또는 전방과 측방 사이의 경사 방향을 향하고,
상기 제1사이드 센서 및 제2사이드 센서는 측방을 향하거나, 측방과 전방 사이의 경사 방향을 향하는 로봇.20. The method of claim 19,
The front sensor faces the front or the oblique direction between the front and the side,
The first side sensor and the second side sensor face the side, or the robot that faces an inclination direction between the side and the front.
기설정된 시간 간격에 따라, 상기 프론트 센서를 온오프시키고 상기 제1사이드 센서 및 제2사이드 센서의 초음파 송수신을 스위칭시키는 프로세서를 더 포함하는 로봇.20. The method of claim 19,
The robot further comprising a processor that turns on/off the front sensor and switches transmission/reception of ultrasonic waves between the first side sensor and the second side sensor according to a preset time interval.
상기 프로세서는,
상기 프론트 센서가 온 되면 상기 제1사이드 센서에서 초음파를 송신시키며 상기 제2사이드 센서에서 초음파를 수신시키고,
상기 프론트 센서가 오프 되면 상기 제2사이드 센서에서 초음파를 송신시키며 상기 제1사이드 센서에서 초음파를 수신시키는 로봇.24. The method of claim 23,
The processor is
When the front sensor is turned on, the first side sensor transmits an ultrasonic wave and the second side sensor receives the ultrasonic wave,
When the front sensor is turned off, the robot transmits an ultrasonic wave from the second side sensor and receives the ultrasonic wave from the first side sensor.
상기 하우징의 중심을 기준으로, 상기 하우징의 중심을 전후로 가로지르는 가상의 기준면과 상기 프론트 센서 사이의 각도는 26도 이하이고, 상기 기준면과 상기 제1사이드 센서 사이의 각도는 26도 내지 50도이고, 상기 기준면과 상기 제2사이드 센서 사이의 각도는 50도 내지 71도인 로봇.20. The method of claim 19,
Based on the center of the housing, the angle between the front sensor and the imaginary reference plane crossing the center of the housing back and forth is 26 degrees or less, and the angle between the reference plane and the first side sensor is 26 degrees to 50 degrees, , the angle between the reference plane and the second side sensor is 50 degrees to 71 degrees robot.
상기 하우징의 중심을 기준으로, 상기 프론트 센서와 상기 제1사이드 센서 사이의 각도는 상기 제1사이드 센서와 상기 제2사이드 센서 사이의 각도보다 큰 로봇.20. The method of claim 19,
Based on the center of the housing, the angle between the front sensor and the first side sensor is greater than the angle between the first side sensor and the second side sensor.
상기 하우징의 중심을 기준으로, 상기 프론트 센서와 상기 제2사이드 센서 사이의 각도는, 상기 제1사이드 센서와 상기 제2사이드 센서 사이의 각도 및 상기 프론트 센서와 상기 제1사이드 센서 사이의 각도보다 큰 로봇.20. The method of claim 19,
Based on the center of the housing, the angle between the front sensor and the second side sensor is greater than the angle between the first side sensor and the second side sensor and between the front sensor and the first side sensor. big robot.
상기 복수개의 초음파 센서는,
좌우방향에 대해 상기 하우징의 중앙에 위치하며 후방을 향하는 리어 센서; 및
상기 리어 센서와 이웃하고 측방과 후방 사이의 일 방향을 향하는 제3사이드 센서를 더 포함하는 로봇.20. The method of claim 19,
The plurality of ultrasonic sensors,
a rear sensor located in the center of the housing in the left-right direction and facing rearward; and
The robot further comprising a third side sensor adjacent to the rear sensor and facing in one direction between the side and the rear.
상기 하우징의 중심을 좌우로 가로지르는 가상의 기준면과 상기 제2사이드 센서 사이의 전후 거리는, 상기 기준면과 상기 제3사이드 센서 사이의 전후 거리보다 가까운 로봇.29. The method of claim 28,
The front-back distance between the second side sensor and the virtual reference plane crossing the center of the housing left and right is closer than the front-back distance between the reference plane and the third side sensor.
상기 리어 센서는 전후 방향으로 상기 프론트 센서와 비대칭되게 배치되고,
상기 제3사이드 센서는 전후 방향으로 상기 제1,2사이드 센서와 비대칭되게 배치된 로봇.29. The method of claim 28,
The rear sensor is disposed asymmetrically with the front sensor in the front-rear direction,
The third side sensor is disposed asymmetrically with the first and second side sensors in the front-rear direction.
상기 하우징의 둘레 방향으로 길게 형성된 장공; 및
상기 장공을 통해 상기 하우징의 외부를 향하는 라이다를 더 포함하고,
상기 하우징의 하단을 기준으로 상기 라이다의 높이는 상기 초음파 센서의 높이보다 높은 로봇.20. The method of claim 19,
a long hole formed long in the circumferential direction of the housing; and
Further comprising a lidar facing the outside of the housing through the long hole,
The height of the lidar based on the lower end of the housing is higher than the height of the ultrasonic sensor robot.
상기 라이다와 상기 프론트 센서 사이의 거리는, 상기 라이다와 상기 제1사이드 센서 사이의 거리 및 상기 라이다와 상기 제2사이드 센서 사이의 거리보다 가까운 로봇.32. The method of claim 31,
A distance between the lidar and the front sensor is closer than a distance between the lidar and the first side sensor and a distance between the lidar and the second side sensor.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20190159792 | 2019-12-04 | ||
KR1020190159792 | 2019-12-04 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210070153A true KR20210070153A (en) | 2021-06-14 |
Family
ID=76417747
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190175822A KR20210070153A (en) | 2019-12-04 | 2019-12-27 | Robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210070153A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024085544A1 (en) * | 2022-10-20 | 2024-04-25 | 삼성전자주식회사 | Robot and control method thereof |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040057112A (en) | 2002-12-24 | 2004-07-02 | 엘지전자 주식회사 | Supersnic interference prevention structure for robot cleaner |
KR20040063556A (en) | 2003-01-08 | 2004-07-14 | 엘지전자 주식회사 | Supersonic wave sensor use method for robot cleaner |
-
2019
- 2019-12-27 KR KR1020190175822A patent/KR20210070153A/en unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040057112A (en) | 2002-12-24 | 2004-07-02 | 엘지전자 주식회사 | Supersnic interference prevention structure for robot cleaner |
KR20040063556A (en) | 2003-01-08 | 2004-07-14 | 엘지전자 주식회사 | Supersonic wave sensor use method for robot cleaner |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024085544A1 (en) * | 2022-10-20 | 2024-04-25 | 삼성전자주식회사 | Robot and control method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102305206B1 (en) | Robot cleaner for cleaning in consideration of floor state through artificial intelligence and operating method thereof | |
US11663936B2 (en) | Robot | |
US11503971B2 (en) | Cleaning robot | |
KR102281602B1 (en) | Artificial intelligence apparatus and method for recognizing utterance voice of user | |
US11580385B2 (en) | Artificial intelligence apparatus for cleaning in consideration of user's action and method for the same | |
KR20210041703A (en) | Moving bed robot | |
US20210097852A1 (en) | Moving robot | |
KR20210070825A (en) | Robot | |
EP3782524B1 (en) | Robot cleaner for avoiding stuck situation through artificial intelligence and method of operating the same | |
KR20210063121A (en) | Robot and method for controlling same | |
US20210208595A1 (en) | User recognition-based stroller robot and method for controlling the same | |
KR102288658B1 (en) | Robot and its control method | |
KR20210068745A (en) | Robot | |
KR20190104008A (en) | Robot cleaner for cleaning using artificial intelligence and operating method thereof | |
KR20210083812A (en) | Autonomous mobile robots and operating method thereof | |
KR20190104264A (en) | An artificial intelligence apparatus and method for the same | |
US11648161B2 (en) | Robot | |
KR102314372B1 (en) | Robot system and Control method of the same | |
KR20210070153A (en) | Robot | |
US11613000B2 (en) | Robot | |
KR20190113690A (en) | Robot System and Control method of the same | |
KR20190095195A (en) | An artificial intelligence apparatus for providing service based on path of user and method for the same | |
KR20190095194A (en) | An artificial intelligence apparatus for determining path of user and method for the same | |
KR20220047176A (en) | Robot | |
KR20220043864A (en) | Robot And Control method of the same |