KR100825919B1 - Distance measurement sensor, moving robot having the distance measurement sensor and driving method for moving robot using the moving robot - Google Patents

Distance measurement sensor, moving robot having the distance measurement sensor and driving method for moving robot using the moving robot Download PDF

Info

Publication number
KR100825919B1
KR100825919B1 KR1020060129551A KR20060129551A KR100825919B1 KR 100825919 B1 KR100825919 B1 KR 100825919B1 KR 1020060129551 A KR1020060129551 A KR 1020060129551A KR 20060129551 A KR20060129551 A KR 20060129551A KR 100825919 B1 KR100825919 B1 KR 100825919B1
Authority
KR
South Korea
Prior art keywords
distance
mobile robot
point
measurement
image
Prior art date
Application number
KR1020060129551A
Other languages
Korean (ko)
Inventor
김영기
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020060129551A priority Critical patent/KR100825919B1/en
Application granted granted Critical
Publication of KR100825919B1 publication Critical patent/KR100825919B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

A distance measuring sensor built with relatively simple structure at low cost, a robot equipped with the distance measuring sensor and a method of driving the robot are provided to measure very short distance between a light source and a target surface, and to accurately determine the place at where height is changed. A distance measuring sensor includes a light source(110) apart from a target surface with an angle, a camera unit(120) taking images of the target surface containing a point created by the light source, a point position calculating unit extracting and outputting position information on the point on the image taken by the camera unit, a distance table describing distance corresponding to the position information, and a distance calculation unit calculating and outputting the distance between the light source and the target surface by looking up the distance table corresponding to the position calculated by the point position calculating unit.

Description

거리 측정 센서, 거리 측정 센서를 가진 이동로봇 및 그를 이용한 이동로봇 주행 방법{Distance measurement sensor, Moving robot having the Distance measurement sensor and Driving method for moving robot using the Moving robot}Distance measurement sensor, Moving robot having the Distance measurement sensor and Driving method for moving robot using the Moving robot}

도 1a는 본 발명의 바람직한 일 실시 예에 따른 거리 측정 센서를 개략적으로 도시한 개요도이다. 1A is a schematic diagram schematically illustrating a distance measuring sensor according to an exemplary embodiment of the present invention.

도 1b는 본 발명의 바람직한 일 실시 예에 따른 거리 측정 센서에 의해 촬상된 영상 속의 거리별 포인터의 위치 변화를 개략적으로 도시한 개요도이다. 1B is a schematic diagram schematically illustrating a change in position of a pointer for each distance in an image captured by a distance measuring sensor according to an exemplary embodiment of the present invention.

도 2는 본 발명의 바람직한 일 실시 예에 따른 거리 측정 센서를 개략적으로 도시한 블럭도이다. 2 is a block diagram schematically illustrating a distance measuring sensor according to an exemplary embodiment of the present invention.

도 3은 본 발명의 바람직한 일 실시 예에 따른 이동로봇을 개략적으로 도시한 블럭도이다. Figure 3 is a block diagram schematically showing a mobile robot according to an embodiment of the present invention.

도 4는 본 발명의 바람직한 일 실시 예에 따른 이동로봇의 주행 과정을 개략적으로 도시한 흐름도이다. 4 is a flowchart schematically illustrating a driving process of a mobile robot according to an exemplary embodiment of the present invention.

도 5는 본 발명의 제 2 실시 예에 따른 이동로봇의 주행 과정을 개략적으로 도시한 흐름도이다. 5 is a flowchart schematically illustrating a driving process of a mobile robot according to a second embodiment of the present invention.

본 발명은 거리 측정 기술에 관한 것으로 보다 상세하게는 측정 면과 측정 면의 소정 각도로 빔을 발산하는 광원의 거리 변화에 따라 변화하는 측정 면에서의 빔의 포인트의 위치 변화를 감지하여 광원과 측정 면과의 근접 거리를 산출하는 기술에 관한 것이다. The present invention relates to a distance measuring technique, and more particularly, to measure a position of a beam point on a measuring surface that changes according to a change in distance of a light source emitting a beam at a predetermined angle between the measuring surface and the measuring surface. The present invention relates to a technique for calculating a close distance to a face.

일반적으로 사용되는 근접 거리를 측정하는 방법으로는 적외선 세기 측정 방법과, PSD(Position Sensing Device)를 통한 측정 방법과, 초음파 센서를 이용한 방법 등이 있다. 적외선 세기 측정 방법은 적외선을 측정 면에 조사하여 반사되어 돌아오는 적외선의 세기를 측정하여 거리를 추정하는 방법으로 근접 거리의 측정은 가능하나 반사 적외선의 세기를 통해 추정하기 때문에 측정된 거리는 부정확하다. 또한, PSD를 통한 측정 방법은 적외선 삼각측량 방식으로 거리를 측정하는 PSD 센서를 이용하는 방법으로 비교적 정확하나 PSD 센서의 가격이 비싸고, 3cm이내의 근접 거리는 측정이 불가능하다. 그리고 초음파 센서를 이용한 방법은 초음파를 표적에 발신하여 반사되어 돌아오는 시간을 통해 거리를 측정하는 방법으로 비교적 정확한 측정이 가능하나 3cm 이내의 근접 거리는 측정이 어려운 단점이 있다. Commonly used methods of measuring the proximity distance include an infrared intensity measuring method, a PSD (Position Sensing Device) method, and an ultrasonic sensor. Infrared intensity measurement method is a method of estimating distance by measuring the intensity of infrared rays reflected back to the measurement surface by measuring the infrared ray, but the proximity distance can be measured, but the measured distance is incorrect because it is estimated by the intensity of the reflected infrared ray. In addition, the PSD measurement method is a relatively accurate method using a PSD sensor that measures the distance by infrared triangulation method, but the price of the PSD sensor is expensive, the proximity distance within 3cm is impossible to measure. In addition, the method using the ultrasonic sensor is a method of measuring the distance by transmitting the ultrasonic wave to the target and reflecting the return time, but relatively accurate measurement is possible, but it is difficult to measure the proximity distance within 3 cm.

한편, 로봇은 산업용으로 개발되어 공장 자동화의 일환으로 사용되거나, 인간이 견딜 수 없는 극한의 환경에서 인간을 대신하여 정보를 수집하거나 채집하는데 사용되어 왔다. 이러한 로봇공학 분야는 근래에 들어 최첨단 우주개발산업에 사용되면서 발전을 거듭하여 왔고, 최근에 들어서는 인간 친화적인 가정용 로봇이 개발되기에 까지 이르렀다. 이러한 인간 친화적인 가정용 로봇의 대표적인 예가 바로 청소로봇이다.Meanwhile, robots have been developed for industrial purposes and used as part of factory automation, or have been used to collect or collect information on behalf of humans in extreme environments that humans cannot tolerate. This field of robotics has been developed in recent years as it is used in the cutting-edge space development industry, and recently, until a human-friendly home robot was developed. A representative example of such a human-friendly home robot is a cleaning robot.

이동로봇의 하나인 청소로봇은 주택 또는 사무실과 같은 일정한 청소구역을 스스로 구동하면서, 먼지 또는 이물질을 흡입하는 기기이다. 이 같은 청소로봇은 먼지 또는 이물질을 흡입하는 일반적인 진공 청소기의 구성 이외에 해당 청소로봇을 주행시키는 우륜 및 좌륜모터를 포함하는 주행수단과, 청소구역 내에 있는 다양한 장애물과 충돌하지 않고 주행할 수 있도록 다수의 감지센서와, 장치 전반을 제어하는 마이컴 등으로 구성되어 있다. A cleaning robot, a mobile robot, is a device that inhales dust or foreign substances while driving itself in a certain cleaning area such as a house or an office. In addition to the configuration of a general vacuum cleaner that sucks in dust or foreign matter, such a cleaning robot includes a driving means including a right wheel and a left wheel motor for driving the cleaning robot, and a plurality of driving means for driving without colliding with various obstacles in the cleaning area. It consists of a sensor and a microcomputer to control the whole device.

이러한 청소로봇은 청소구역을 주행하면서 청소기에 설치된 센서를 통해 예를 들어, 청소구역 내에 물건, 가구와 같은 청소에 방해를 주는 장애물이나 문턱과 같이 높이가 달라지는 지역을 감지하고, 진행방향을 전환하여 장애물을 회피함으로써 청소구역의 청소를 계속하도록 한다. Such a cleaning robot detects an area having a different height, such as an obstacle or a threshold that prevents cleaning, such as an object or furniture, through a sensor installed in the cleaner while driving the cleaning area, and switches the direction of travel. Continue cleaning of the cleaning area by avoiding obstacles.

그러나 이동로봇의 임무 수행 영역 내에 있는 장애물과 달리 문턱과 같이 높이가 달라짐으로 인해 임무수행에 지장을 줄 수 있는 구조물의 경우에는 일반적으로 장애물 감지수단으로는 감지가 어려우며, 이동로봇의 물리적인 접촉에 의해서만 감지하여 주행 경로를 재설정하고, 해당 지역을 이탈하는 기술이 적용되고 있다. However, in the case of a structure that can interfere with the performance of the mission due to the height change like the threshold unlike the obstacle in the mission area of the mobile robot, it is generally difficult to detect the obstacle by means of obstacle detection means. It detects only to reset the driving route, and the technology that leaves the area has been applied.

이에 따라 이동로봇의 저면에 근접 거리 측정을 위한 센서가 설치되어 근접 거리의 변화를 측정하여 임무수행에 지장을 줄 수 있는 구조물을 감지하고, 이를 회피하는 기술이 사용된다. 상술한 바와 같이, 기존의 근접 거리 측정 방법은 고가의 센서를 이용하거나, 고가의 센서를 이용하더라도 3cm 내외의 근접 거리 측정 이 불가능하거나 측정하더라도 정확도가 떨어지는 단점이 있다. Accordingly, a sensor for measuring proximity distance is installed on the bottom of the mobile robot to measure a change in the proximity distance to detect a structure that may impede the performance of the mission, and to avoid this. As described above, the conventional method for measuring the proximity distance has a disadvantage in that the accuracy of the proximity distance measurement is not possible even if the measurement of the proximity distance of about 3cm or even using an expensive sensor or an expensive sensor.

본 발명은 이러한 문제점을 해결하기 위한 것으로, 그 목적은 간단한 구조와 저가의 광센서를 통해 초 근접 거리의 측정이 가능한 거리 측정 센서를 제공하는 데 있다. SUMMARY OF THE INVENTION The present invention has been made to solve this problem, and an object thereof is to provide a distance measuring sensor capable of measuring a very close distance through a simple structure and a low-cost optical sensor.

나아가, 초 근접 거리 측정이 가능한 거리 측정 센서를 통해 이동로봇과 바닥 면간의 정확한 거리 정보를 산출하여 이에 따라 구조물에 의해 높이가 달라지는 지역을 보다 정확하게 판단할 수 있는 이동로봇 및 그를 이용한 이동로봇의 주행 방법을 제공하는 데 있다. Furthermore, the mobile robot and the mobile robot using it can calculate the accurate distance information between the mobile robot and the floor surface through the distance measuring sensor that can measure the ultra close distance, and thus can more accurately determine the area where the height varies by the structure. To provide a way.

나아가, 근접 거리 측정이 가능한 거리 측정 센서를 통해 이동로봇의 월 팔로윙 주행시 벽면과 일정 거리를 유지하면서 이동로봇을 주행시킬 수 있는 이동로봇 및 그를 이용한 주행 방법을 제공하는 데 있다. Furthermore, the present invention provides a mobile robot capable of driving a mobile robot and a driving method using the same while maintaining a predetermined distance from a wall surface when the mobile robot is driving a wall following a distance measuring sensor capable of measuring a close distance.

상술한 본 발명의 일 양상에 따른 거리 측정 센서는 측정 면과 측정 면에 빔을 발산하는 광원의 거리 변화에 따라 변화하는 측정 면에서의 빔의 포인트의 위치 변화를 감지하여 광원과 측정 면의 거리를 산출한다. 이에 따라 본 발명에 따른 거리 측정 센서는 측정 면과 소정 각도로 이격되며 빔을 발산하는 광원과, 광원에 의해 측정 면에 생성되는 포인트를 포함하는 측정 면의 영상을 촬상하는 촬상부와, 촬상부에 의해 촬상된 측정 면의 영상 내에서 포인트의 위치 정보를 추출하여 출력하는 포인트 위치 산출부와, 측정 면 영상 내의 포인트 위치별 거리정보가 저장되 는 거리정보 테이블과, 포인트 위치 산출부에 의해 산출된 위치 정보를 통해 거리정보 테이블로부터 해당 포인트 위치 정보에 대응되는 광원과 측정 면 간의 거리정보를 참조하여 광원과 측정 면 간의 거리를 산출하여 출력하는 거리 산출부를 포함하여 구성된다. The distance measuring sensor according to the aspect of the present invention described above detects the position change of the point of the beam in the measurement plane that changes according to the distance change of the light source emitting the beam to the measurement plane and the measurement plane and the distance between the light source and the measurement plane. Calculate Accordingly, the distance measuring sensor according to the present invention includes an image pickup unit for capturing an image of a measurement plane including a light source spaced apart from the measurement plane at a predetermined angle and emitting a beam, and a point generated on the measurement plane by the light source, and an image pickup unit. A point position calculation unit which extracts and outputs the point position information in the image of the measurement plane imaged by the distance, a distance information table storing distance information for each point position in the measurement plane image, and a point position calculation unit And a distance calculator configured to calculate and output a distance between the light source and the measurement surface by referring to the distance information between the light source and the measurement surface corresponding to the point position information from the distance information table.

따라서, 본 발명에 따른 거리 측정 센서는 간단한 구조와 저가의 광센서를 통해 측정 면과 광원의 거리 변화에 따라 변화하는 측정 면에서의 빔의 포인트의 위치 변화를 감지하여 광원과 측정 면과의 근접 거리를 산출함으로써, 저가의 초 근접 거리의 측정이 가능한 장점을 갖는다. Therefore, the distance measuring sensor according to the present invention detects the positional change of the point of the beam on the measuring surface that changes according to the distance change of the measuring surface and the light source through a simple structure and an inexpensive optical sensor, thereby approaching the light source and the measuring surface. By calculating the distance, it is possible to measure inexpensive ultra close distance.

전술한, 그리고 추가적인 본 발명의 양상들은 첨부된 도면을 참조하여 설명되는 바람직한 실시 예들을 통하여 더욱 명백해질 것이다. 이하에서는 본 발명을 이러한 실시 예를 통해 당업자가 용이하게 이해하고 재현할 수 있도록 상세히 설명하기로 한다. The foregoing and further aspects of the present invention will become more apparent through the preferred embodiments described with reference to the accompanying drawings. Hereinafter, the present invention will be described in detail to enable those skilled in the art to easily understand and reproduce the present invention.

도 1a는 본 발명의 바람직한 일 실시 예에 따른 거리 측정 센서를 개략적으로 도시한 개요도이고, 도 1b는 본 발명의 바람직한 일 실시 예에 따른 거리 측정 센서에 의해 촬상된 영상 속의 거리별 포인터의 위치 변화를 개략적으로 도시한 개요도이며, 도 2는 본 발명의 바람직한 일 실시 예에 따른 거리 측정 센서를 개략적으로 도시한 블럭도이다. 도시된 바와 같이, 본 발명에 따른 거리 측정 센서(100)는 측정 면과 측정 면에 빔을 발산하는 광원(110)의 거리 변화에 따라 변화하는 측정 면에서의 빔의 포인트의 위치 변화를 감지하여 광원(110)과 측정 면의 거리를 산출한다. 1A is a schematic diagram schematically illustrating a distance measuring sensor according to an exemplary embodiment of the present invention, and FIG. 1B is a change in position of a pointer for each distance in an image captured by the distance measuring sensor according to an exemplary embodiment of the present invention. 2 is a schematic view schematically illustrating a distance measurement sensor according to an exemplary embodiment of the present invention. As shown, the distance measuring sensor 100 according to the present invention detects a change in the position of the point of the beam on the measurement surface that changes in accordance with the distance change of the light source 110 that emits the beam to the measurement surface and the measurement surface The distance between the light source 110 and the measurement surface is calculated.

이러한 거리 측정 센서(100)는 측정 면의 수직 방향에서 소정 각도로 이격된 방향에서 빔을 발산하는 광원(110)과, 광원(110)에 의해 측정 면에 생성되는 포인트를 포함하는 측정 면의 영상을 촬상하는 촬상부(120)와, 촬상부(120)에 의해 촬상된 측정 면 영상 내에서 포인트의 위치 정보를 추출하여 출력하는 포인트 위치 산출부(130)와, 측정 면 영상 내의 포인트 위치별 거리정보가 저장되는 거리정보 테이블(140)과, 포인트 위치 산출부(130)에 의해 산출된 위치 정보를 통해 거리정보 테이블(140)로부터 해당 포인트 위치 정보에 대응되는 광원(110)과 측정 면 간의 거리정보를 참조하여 광원(110)과 측정 면 간의 거리를 산출하여 출력하는 거리 산출부(150)를 포함하여 구성된다. 아울러 광원(110)으로부터 발산되는 빔을 집속하는 집속 렌즈를 포함할 수 있으며, 또한, 촬상부(120) 역시 측정 면의 촬영을 위한 하나 이상의 렌즈가 포함될 수 있다. The distance measuring sensor 100 includes an image of a measurement surface including a light source 110 that emits a beam in a direction spaced at a predetermined angle from a vertical direction of the measurement surface, and a point generated on the measurement surface by the light source 110. 120 for capturing the image, a point position calculator 130 for extracting and outputting position information of a point in the measurement plane image captured by the imaging unit 120, and a distance for each point position in the measurement plane image. The distance between the light source 110 corresponding to the point position information from the distance information table 140 and the measurement surface through the distance information table 140 in which the information is stored and the position information calculated by the point position calculator 130. And a distance calculator 150 for calculating and outputting a distance between the light source 110 and the measurement surface with reference to the information. In addition, the light source 110 may include a focusing lens for focusing the beam emitted from the light source 110, and the imaging unit 120 may also include one or more lenses for photographing the measurement surface.

광원(110)은 예를 들면, LED(111)와 같은 발광 소자나 직진성을 가지는 레이저 포인터로 구성될 수 있으며, 측정 면의 수직 방향과 소정 각도 이격된 방향에서 측정 면에 빔을 조사할 수 있도록 형성된다. 광원(110)을 통해 발산되는 빔은 측정 면과 쉽게 구분될 수 있는 색상으로 구성되는 것이 바람직하다. The light source 110 may be configured of, for example, a light emitting device such as an LED 111 or a laser pointer having a straightness, so that the beam is irradiated to the measurement surface in a direction spaced apart from the vertical direction of the measurement surface by a predetermined angle. Is formed. The beam emitted through the light source 110 is preferably composed of colors that can be easily distinguished from the measurement surface.

광원(110)은 촬상부(120)를 중심으로 수직에 소정 각도로 설치되어 소정 폭을 갖는 빔을 발산하고, 발산된 빔은 측정 면에 도달하여 포인트를 생성하게 된다. 이렇듯 광원(110)이 수직에 소정 각도로 설치되는 이유는 광원(110)과 측정 면의 거리 변화에 따라 포인트의 위치가 가변되게 하기 위함이다. The light source 110 is installed at a predetermined angle vertically with respect to the imaging unit 120 to emit a beam having a predetermined width, and the emitted beam reaches a measurement surface to generate a point. The reason why the light source 110 is installed at a predetermined angle in the vertical direction is to change the position of the point according to the change of the distance between the light source 110 and the measurement surface.

본 발명의 특징적인 양상에 따라 본 발명에 따른 광원(110)은 LED(111)와, LED(111)로부터 발산되는 광을 소정 폭과 직진성을 가지는 빔으로 집속하는 광 집속부(112)를 포함하여 구성될 수 있다. 일반적으로 LED(111)로부터 출력되는 광은 직진성이 없이 발산되는 광이기 때문에 측정 면에 일정한 포인트를 생성할 수 없다. 따라서, 광 집속부(112)는 LED(111)로부터 발산되는 광을 일정 폭과 직진성을 가지는 빔으로 집속한다. 이러한 광 집속부(112)는 하나 이상의 렌즈의 배열로 구현될 수 있으나 본 발명의 바람직한 실시 예에서는 LED(111)에 결합되되, 소정 크기의 홀이 형성된 커버로 구성된다. 커버는 빛이 투과할 수 없는 소재로 형성되며, LED(111)로부터 발산된 광은 홀을 통해 발산되므로 간단한 커버의 결합만으로 직진성을 가지는 짐을 출력할 수 있게 한다. According to a characteristic aspect of the present invention, the light source 110 according to the present invention includes an LED 111 and a light focusing unit 112 for focusing light emitted from the LED 111 into a beam having a predetermined width and straightness. It can be configured by. In general, since the light output from the LED 111 is emitted without straightness, it cannot generate a constant point on the measurement surface. Therefore, the light focusing unit 112 focuses the light emitted from the LED 111 into a beam having a predetermined width and straightness. The light focusing unit 112 may be implemented in an array of one or more lenses, but in the preferred embodiment of the present invention, the light focusing unit 112 is coupled to the LED 111 and is formed of a cover in which holes of a predetermined size are formed. The cover is formed of a material that can not transmit light, and the light emitted from the LED 111 is emitted through the hole so that it is possible to output a load having a straightness by simply combining the cover.

촬상부(120)는 측정 면과 평행하게 형성되며, 광원(110)으로부터 발산되는 빔에 의해 측정 면상에 생성되는 포인트를 포함하는 측정 면의 영상을 촬상하여 출력하는 광센서일 수 있다. 촬상부(120)는 광원(110)과 측정 면과의 이격 거리에 따라 달라지는 포인트를 포함하는 측정 면 영상을 촬상하여 포인트 위치 산출부(130)로 출력한다. The imaging unit 120 may be formed in parallel with the measurement surface, and may be an optical sensor for capturing and outputting an image of a measurement surface including a point generated on the measurement surface by a beam emitted from the light source 110. The imaging unit 120 captures an image of a measurement plane including a point that varies depending on a distance between the light source 110 and the measurement plane, and outputs the image to the point position calculator 130.

포인트 위치 산출부(130)는 포인트 위치 산출부(130)는 촬상부(120)를 통해 출력되는 측정 면 영상을 수신하여 측정 면 영상 내에서 포인트를 추출하고, 추출된 포인트의 측정 면 영상에서의 위치 정보를 산출하여 산출된 위치 정보를 거리 산출부(150)로 출력한다. 포인트 위치 산출부(130)는 측정 면과 색상이 다른 빔에 의해 생성된 포인트를 측정 면과의 색상 정보 차를 이용하여 추출하고, 포인트가 측정 면 영상에서 어느 위치에 생성되었는지를 산출하여 산출된 위치 정보를 거리 정보 산출부로 전송한다. The point position calculator 130 receives the measurement plane image output through the imaging unit 120, extracts a point from the measurement plane image, and extracts the point from the measurement plane image. The position information is calculated and the calculated position information is output to the distance calculator 150. The point position calculator 130 extracts a point generated by a beam having a different color from the measurement plane by using a color information difference from the measurement plane, and calculates a position at which the point is generated in the measurement plane image. The location information is transmitted to the distance information calculator.

거리정보 테이블(140)은 예를 들면, 콤팩트한 사이즈를 가지며, 읽고 쓰기가 가능한 플래시 메모리로 구성될 수 있다. 거리정보 테이블(140)은 실험에 의해 미리 산출된 측정 면 영상 내에서의 포인트 위치별로 그와 대응되는 광원(110)과 측정 면과의 거리 정보가 저장된다. 이렇게 저장된 데이터는 거리 산출부(150)에 의해 액세스 제어된다. The distance information table 140 may be, for example, a flash memory having a compact size and capable of reading and writing. The distance information table 140 stores distance information between the light source 110 and the measurement plane corresponding to each point position in the measurement plane image calculated by the experiment. The data stored in this way is accessed and controlled by the distance calculator 150.

거리 산출부(150)는 포인트 위치 산출부(130)로부터 출력되는 포인트의 위치 정보를 수신하고, 거리 정보테이블로부터 해당 거리 정보를 이용하여 그에 대응되는 광원(110)과 측정 면간의 거리를 액세스하고, 이를 제공한다. The distance calculator 150 receives the location information of the point output from the point location calculator 130 and accesses the distance between the light source 110 and the measurement surface corresponding thereto using the distance information from the distance information table. , To provide it.

이러한 포인트 위치 산출부(130)와 거리 산출부(150)의 산출 과정은 도 1은 통해 보다 상세히 설명하기로 한다. 도시된 바와 같이, 광원(110)에 의해 발산된 광은 광 집속부(112)에 의해 직진성을 갖는 빔으로 집속되어 측정 면으로 조사된다. 이때 측정 면에는 빔에 의한 포인트가 생성되며, 포인트는 도시된 바와 같이 광원(110)과 측정 면의 거리에 따라 변화하게 된다. The calculation process of the point position calculator 130 and the distance calculator 150 will be described in more detail with reference to FIG. 1. As shown, the light emitted by the light source 110 is focused by the light focusing unit 112 into a beam having a straightness and irradiated to the measurement surface. At this time, a point generated by the beam is generated on the measurement surface, and the point changes according to the distance between the light source 110 and the measurement surface as shown.

이러한 광원(110)과 측정 면간의 거리 변화에 따른 포인트의 위치 변화의 상관관계를 통해 거리 산출부(150)는 광원(110)과 측정 면간의 거리 정보를 산출한다. 이러한 포인트의 위치별 거리 정보는 상술한 바와 같이, 실험에 의해 산출된 실측 정보가 샘플링되어 거리정보 테이블(140)에 저장되며, 거리 산출부(150)는 해당 포인트 위치 산출부(130)에 의해 산출된 포인트의 위치 정보를 이용하여 해당 위치 정보에 대응되는 거리 정보를 거리정보 테이블(140)로부터 액세스하여 출력하 는 것이다. The distance calculator 150 calculates distance information between the light source 110 and the measurement plane through the correlation of the positional change of the point according to the distance change between the light source 110 and the measurement plane. As described above, the distance-specific distance information of the point is sampled, and the measured information calculated by the experiment is sampled and stored in the distance information table 140, and the distance calculator 150 is determined by the corresponding point position calculator 130. The distance information corresponding to the position information is accessed and output from the distance information table 140 using the calculated position information of the point.

이하에서는 상술한 거리 감지 센서를 이용한 이동로봇에 대해 상세히 설명함으로써, 당업자가 용이하게 이해하고 재현할 수 있도록 상세히 설명하기로 한다. Hereinafter, the mobile robot using the above-described distance sensor will be described in detail so that those skilled in the art can easily understand and reproduce the present invention.

도 3은 본 발명의 바람직한 일 실시 예에 따른 이동로봇의 일례인 청소로봇을 개략적으로 도시한 블럭도이다. 도시된 바와 같이, 본 발명에 따른 청소로봇(200)은 청소로봇(200)의 기본 구성 이외에 측정 면으로 빔을 조사하여 빔에 의해 생성된 포인트를 포함하는 측정 면 영상을 감지하여 출력하는 거리 측정 센서(210)와, 거리 측정 센서(210)로부터 출력되는 측정 면 영상 속의 빔 포인트의 위치 변화에 따른 거리 측정 센서(210)와 측정 면간의 거리를 산출하는 마이컴(270)을 포함하여 구성된다. Figure 3 is a block diagram schematically showing a cleaning robot as an example of a mobile robot according to an embodiment of the present invention. As shown, the cleaning robot 200 according to the present invention detects and outputs a measurement surface image including a point generated by the beam by irradiating the beam to the measurement surface in addition to the basic configuration of the cleaning robot 200 distance measurement The sensor 210 and the microcomputer 270 for calculating the distance between the distance measuring sensor 210 and the measurement surface according to the change of the position of the beam point in the measurement image output from the distance measurement sensor 210.

거리 측정 센서(210)는 측정 면으로 빔을 조사하여 빔에 의해 생성된 포인트를 포함하는 측정 면 영상을 감지하여 출력하되, 측정 면의 수직 방향에서 소정 각도로 이격된 방향에서 빔을 발산하는 광원(211)과, 광원(211)으로부터 조사된 빔에 의해 측정 면에 생성되는 빔 포인트를 포함하는 측정 면 영상을 촬영하여 마이컴(270)으로 출력하는 촬상부(212)를 포함하여 구성된다. 아울러 광원(211)으로부터 발산되는 빔을 집속하는 집속 렌즈를 포함할 수 있으며, 또한, 촬상부(212) 역시 측정 면의 촬영을 위한 하나 이상의 렌즈가 포함될 수 있다. The distance measuring sensor 210 detects and outputs a measurement surface image including a point generated by the beam by irradiating the beam to the measurement surface, and emits the beam in a direction spaced at a predetermined angle from the vertical direction of the measurement surface. 211 and an imaging unit 212 for capturing and outputting a measurement surface image including a beam point generated on the measurement surface by the beam irradiated from the light source 211 to the microcomputer 270. In addition, it may include a focusing lens for focusing the beam emitted from the light source 211, and the imaging unit 212 may also include one or more lenses for photographing the measurement surface.

광원(211)은 예를 들면, LED(111)와 같은 발광 소자나 직진성을 가지는 레이저 포인터로 구성될 수 있으며, 측정 면의 수직 방향과 소정 각도 이격된 방향에서 측정 면에 빔을 조사할 수 있도록 형성된다. 광원(211)을 통해 발산되는 빔은 측 정 면과 쉽게 구분될 수 있는 색상으로 구성되는 것이 바람직하다. The light source 211 may be configured of, for example, a light emitting element such as the LED 111 or a laser pointer having straightness, so that the beam can be irradiated to the measurement surface in a direction spaced apart from the vertical direction of the measurement surface by a predetermined angle. Is formed. The beam emitted through the light source 211 is preferably composed of a color that can be easily distinguished from the measurement surface.

광원(211)은 촬상부(212)를 중심으로 수직에 소정 각도로 설치되어 소정 폭을 갖는 빔을 발산하고, 발산된 빔은 측정 면에 도달하여 포인트를 생성하게 된다. 이렇듯 광원(211)이 수직에 소정 각도로 설치되는 이유는 광원(211)과 측정 면의 거리 변화에 따라 포인트의 위치가 가변되게 하기 위함이다. The light source 211 is installed at a predetermined angle vertically with respect to the imaging unit 212 to emit a beam having a predetermined width, and the emitted beam reaches a measurement surface to generate a point. The reason why the light source 211 is installed at a predetermined angle vertically is to change the position of the point according to the change of the distance between the light source 211 and the measurement surface.

본 발명의 특징적인 양상에 따라 본 발명에 따른 광원(211)은 LED(111)와, LED(111)로부터 발산되는 광을 소정 폭과 직진성을 가지는 빔으로 집속하는 광 집속부(112)를 포함하여 구성될 수 있다. 일반적으로 LED(111)로부터 출력되는 광은 직진성이 없이 발산되는 광이기 때문에 측정 면에 일정한 포인트를 생성할 수 없다. According to a characteristic aspect of the present invention, the light source 211 according to the present invention includes an LED 111 and a light focusing unit 112 for focusing light emitted from the LED 111 into a beam having a predetermined width and linearity. It can be configured by. In general, since the light output from the LED 111 is emitted without straightness, it cannot generate a constant point on the measurement surface.

따라서, 광 집속부(112)는 LED(111)로부터 발산되는 광을 일정 폭과 직진성을 가지는 빔으로 집속한다. 이러한 광 집속부(112)는 하나 이상의 렌즈의 배열로 구현될 수 있으나 본 발명의 바람직한 실시 예에서는 LED(111)에 결합되되, 소정 크기의 홀이 형성된 커버로 구성된다. 커버는 빛이 투과할 수 없는 소재로 형성되며, LED(111)로부터 발산된 광은 홀을 통해 발산되므로 간단한 커버의 결합만으로 직진성을 가지는 짐을 출력할 수 있게 한다. Therefore, the light focusing unit 112 focuses the light emitted from the LED 111 into a beam having a predetermined width and straightness. The light focusing unit 112 may be implemented in an array of one or more lenses, but in the preferred embodiment of the present invention, the light focusing unit 112 is coupled to the LED 111 and is formed of a cover in which holes of a predetermined size are formed. The cover is formed of a material that can not transmit light, and the light emitted from the LED 111 is emitted through the hole so that it is possible to output a load having a straightness by simply combining the cover.

촬상부(212)는 측정 면과 평행하게 형성되며, 광원(211)으로부터 발산되는 빔에 의해 측정 면상에 생성되는 포인트를 포함하는 측정 면의 영상을 촬상하여 출력하는 광센서일 수 있다. 촬상부(212)는 광원(211)과 측정 면과의 이격 거리에 따라 달라지는 포인트를 포함하는 측정 면 영상을 촬상하여 마이컴(270)으로 출력 한다. The imaging unit 212 may be an optical sensor that is formed in parallel with the measurement surface and captures and outputs an image of the measurement surface including a point generated on the measurement surface by a beam emitted from the light source 211. The imaging unit 212 captures a measurement surface image including a point that varies depending on a distance between the light source 211 and the measurement surface, and outputs the image to the microcomputer 270.

청소로봇(200)의 기본 구성을 살펴보면 청소구역 내의 먼지 또는 이물질을 감지하는 먼지 감지 센서를 포함하고, 먼지 감지 센서에 의해 감지된 먼지 또는 이물질을 흡입하는 흡입수단(221)과, 흡입수단(221)에 의해 집진 된 먼지 및 이물질을 수납하는 먼지 수납 수단(222)를 포함하는 진공 청소 수단(220)과, 청소로봇(200)을 주행시키는 주행수단(230)과, 진공 청소 수단(220) 및 주행수단(230)에 구동 전원을 공급하는 배터리(240)와, 소정 주기마다 배터리(240)의 잔량을 감지하여 그 값이 소정 값 이하일 경우 배터리 충전 요청 신호를 출력하는 배터리 감지 회로(250)와, 청소로봇(200)의 구동 프로그램이 저장되며, 안내신호로부터 산출된 충전대(100)의 위치정보가 저장되는 메모리(260) 및 사용자의 조작명령을 입력받는 입력부(280)와 청소로봇의 구동 상태를 표시하는 표시부(290)를 포함한다. Looking at the basic configuration of the cleaning robot 200 includes a dust detection sensor for detecting dust or foreign matter in the cleaning area, the suction means 221 for sucking the dust or foreign matter detected by the dust detection sensor, and the suction means 221 Vacuum cleaning means 220 including a dust storage means 222 for storing dust and foreign matter collected by the), the traveling means 230 for driving the cleaning robot 200, vacuum cleaning means 220 and A battery 240 for supplying driving power to the driving means 230, a battery detection circuit 250 for detecting a residual amount of the battery 240 at a predetermined cycle and outputting a battery charge request signal when the value is less than a predetermined value; The driving program of the cleaning robot 200 is stored, the memory 260 in which the position information of the charging stand 100 calculated from the guide signal is stored, and the input unit 280 for receiving a user's operation command and the driving state of the cleaning robot are stored. To display The display unit 290 is included.

이러한 청소로봇(200)의 구성중 진공 청소 수단(220), 배터리(240) 및 배터리 감지 회로(250)는 이미 주지된 구성이 될 수 있어 그 상세한 설명은 생략한다. The vacuum cleaning means 220, the battery 240 and the battery detection circuit 250 of the configuration of the cleaning robot 200 may be a well-known configuration, and a detailed description thereof will be omitted.

메모리(260)는 예를 들면, EEPROM 또는 플래시 메모리와 같은 비휘발성 메모리 소자로 구성되며, 이동로봇(200)의 구동을 위한 운영 프로그램이 저장되어 있다. 또한, 본 발명의 특징적인 양상에 따라 메모리(260)는 측정 면 영상 내의 포인트 위치별 거리정보가 저장된다 상술한 바와 같이, 포인트의 위치별 거리정보는 실험에 의해 산출된 실측 정보가 샘플링되어 저장되며, 이러한 데이터는 마이컴(270)에 의해 액세스 제어된다. The memory 260 is configured of, for example, a nonvolatile memory device such as an EEPROM or a flash memory, and stores an operating program for driving the mobile robot 200. In addition, according to a characteristic aspect of the present invention, the memory 260 stores distance information for each point position in the measurement plane image. As described above, the distance information for each point position of the point is sampled and stored. The data is then access controlled by the microcomputer 270.

주행수단(230)은 마이컴(270)으로부터 출력되는 제어신호에 따라 우륜 및 좌륜모터(221, 222)를 구동시켜 이동로봇(200)을 주행시킨다. 주행수단(230)의 우륜 및 좌륜모터(221, 222)는 이동로봇(200)을 주행시키는 좌/우 바퀴와 연결되어 있다. 따라서, 우륜 및 좌륜모터(221, 222)의 회전속도와 회전 방향에 따라 이동로봇(200)은 전후좌우로 주행한다. The driving means 230 drives the mobile robot 200 by driving the right wheel and left wheel motors 221 and 222 according to a control signal output from the microcomputer 270. The right wheel and left wheel motors 221 and 222 of the driving means 230 are connected to the left / right wheels for driving the mobile robot 200. Therefore, the mobile robot 200 travels forward, backward, left and right according to the rotational speeds and the rotational directions of the right and left wheel motors 221 and 222.

마이컴(270)은 메모리(260)에 저장된 운영 프로그램에 따라 이동로봇(200) 장치 전반을 제어하며, 거리 측정 센서(210)로부터 출력되는 측정 면 영상 속의 빔 포인트의 위치 변화에 따른 거리 측정 센서(210)와 측정 면간의 거리를 산출하고, 산출된 거리 정보에 따라 필요한 경우 주행 방향을 재설정한다. The microcomputer 270 controls the overall apparatus of the mobile robot 200 according to the operating program stored in the memory 260, and the distance measuring sensor according to the position change of the beam point in the measurement plane image output from the distance measuring sensor 210 ( 210 and calculates the distance between the measurement surface, and reset the driving direction if necessary according to the calculated distance information.

이러한 마이컴(270)의 기능은 이동로봇(200)에 탑재되는 운영 프로그램의 기능 모듈 중 하나로써, 소프트웨어 언어로 간단하게 구현가능하다. The function of the microcomputer 270 is one of the functional modules of the operating program mounted on the mobile robot 200, and can be simply implemented in a software language.

마이컴(270)은 주행수단(230)의 구동을 제어하는 주행 제어부(271)와, 거리 측정 센서(210)로부터 출력되는 측정 면 영상을 수신하여 포인트를 추출하고, 추출된 포인트 위치를 산출하는 포인트 위치 산출부(272)와, 포인트 위치 산출부(272)에 의해 산출된 위치 정보를 통해 해당 포인트 위치 정보에 대응되는 거리정보를 메모리(260)에서 참조하여 거리 측정 센서(210)와 측정 면간의 거리를 산출하는 거리 산출부(273)를 포함하여 구성된다. The microcomputer 270 receives the driving control unit 271 that controls the driving of the driving means 230 and the measurement surface image output from the distance measuring sensor 210, extracts a point, and calculates the extracted point position. The location calculator 272 and the distance information corresponding to the point location information through the location information calculated by the point location calculator 272 may be referred to the memory 260 to determine the distance between the distance sensor 210 and the measurement surface. And a distance calculator 273 for calculating the distance.

주행 제어부(271)는 이동로봇(200)의 운영 프로그램으로부터 출력되는 제어명령에 따라 이동로봇(200)을 주행시키는 주행수단(230)을 제어한다. The driving control unit 271 controls the driving means 230 for driving the mobile robot 200 according to a control command output from the operating program of the mobile robot 200.

포인트 위치 산출부(272)는 촬상부(212)를 통해 출력되는 측정 면 영상을 수 신하여 측정 면 영상 내에서 포인트를 추출하고, 추출된 포인트의 측정 면 영상에서의 위치 정보를 산출하여 산출된 위치 정보를 거리 산출부(273)로 출력한다. 포인트 위치 산출부(272)는 측정 면과 색상이 다른 빔에 의해 생성된 포인트를 측정 면과의 색상 정보 차를 이용하여 추출하고, 포인트가 측정 면 영상에서 어느 위치에 생성되었는지를 산출하여 산출된 위치 정보를 거리 정보 산출부로 전송한다. The point position calculator 272 receives the measurement plane image output through the imaging unit 212 to extract a point in the measurement plane image, and calculates the position information in the measurement plane image of the extracted point. The position information is output to the distance calculator 273. The point position calculator 272 extracts a point generated by a beam having a different color from the measurement plane by using a color information difference from the measurement plane, and calculates a position at which the point is generated in the measurement plane image. The location information is transmitted to the distance information calculator.

거리 산출부(273)는 포인트 위치 산출부(272)로부터 출력되는 포인트의 위치 정보를 수신하고, 메모리(260)로부터 해당 거리 정보를 이용하여 그에 대응되는 광원(211)과 측정 면간의 거리를 액세스하고, 이를 출력한다. The distance calculator 273 receives the location information of the point output from the point location calculator 272, and accesses the distance between the light source 211 and the measurement surface corresponding thereto using the distance information from the memory 260. And print it out.

본 발명의 추가적인 양상에 따라 본 발명에 따른 이동로봇(200)은 상술한 거리 측정 센서(210)를 저면에 설치하여 거리 산출부(273)에 의해 측정된 거리 정보를 통해 장애물 및 바닥 면과 이동로봇(200) 간의 높이가 달라지는 문턱과 같은 임무 수행 불가능 지역을 판단하여 해당 지역을 이탈할 수 있다. 이에 따라 본 발명에 따른 마이컴(270)은 거리 산출부(273)에 의해 산출된 측정 면간의 거리가 소정 오차 범위를 벗어나는 경우 장애물로 판단하고, 주행 방향을 재설정하여 재설정된 주행 방향에 따라 주행하도록 주행 제어부(271)로 제어 신호를 출력하는 주행 방향 설정부(274)를 더 포함한다. According to an additional aspect of the present invention, the mobile robot 200 according to the present invention installs the above-described distance measuring sensor 210 on a bottom thereof and moves with an obstacle and a bottom surface through the distance information measured by the distance calculator 273. It is possible to leave the area by determining the impossible area to perform the task, such as the threshold that the height between the robot 200 is different. Accordingly, the microcomputer 270 according to the present invention determines that the distance between the measurement planes calculated by the distance calculator 273 is out of a predetermined error range as an obstacle, and resets the driving direction so as to travel according to the reset driving direction. The apparatus further includes a driving direction setting unit 274 for outputting a control signal to the driving control unit 271.

주행 방향 설정부(274)는 거리 산출부(273)로부터 출력되는 거리 정보를 수신하여 기 설정된 기준 거리 정보의 오차 범위 이내에 해당되는지 판단하고, 판단 결과 설정된 기준 거리 정보의 오차 범위를 벗어나는 경우 해당 이동로봇(200)이 주행 중인 지역이 임무 수행 불가능 지역 또는 장애물 지역으로 판단하고, 해당 지 역을 이탈하도록 주행 방향을 재설정하고, 재설정된 주행 방향에 따라 이동로봇(200)이 주행하도록 주행 제어부(271)로 제어 신호를 출력한다. The driving direction setting unit 274 receives the distance information output from the distance calculating unit 273 to determine whether the driving direction falls within the error range of the preset reference distance information, and when the deviation is out of the error range of the predetermined reference distance information, the movement is performed. It is determined that the area in which the robot 200 is driving is a mission impossible area or an obstacle area, the driving direction is reset so as to deviate from the corresponding area, and the driving control unit 271 is configured to move the mobile robot 200 according to the reset driving direction. Outputs a control signal.

따라서, 본 발명에 따른 이동로봇(200)은 초 근접 거리 측정이 가능한 거리 측정 센서(210)를 통해 이동로봇(200)과 바닥 면간의 정확한 거리 정보를 산출하여 이에 따라 구조물에 의해 높이가 달라지는 지역을 보다 정확하게 판단하고, 이를 회피할 수 있는 장점을 갖는다. Therefore, the mobile robot 200 according to the present invention calculates accurate distance information between the mobile robot 200 and the floor surface through the distance measuring sensor 210 capable of measuring the ultra close distance, and thus the area of which the height varies according to the structure. Can be judged more accurately, and it can be avoided.

본 발명의 추가적인 양상에 따라 본 발명에 따른 이동로봇(200)은 상술한 거리 측정 센서(210)를 이동로봇(200)의 측면에 설치하여 월 팔로윙 주행시 해당 벽면으로부터 일정한 간격으로 주행할 수 있도록 한다. 이에 따라 본 발명에 따른 마이컴(270)의 주행 방향 설정부(274)는 거리 산출부(273)에 의해 산출된 측정 면과의 거리를 설정된 거리 정보와 비교하여 측정 면과의 거리가 설정된 거리 정보의 오차 범위 이내로 유지되도록 주행 방향을 재설정하고, 재설정된 주행방향에 따라 주행하도록 주행 제어부(271)로 제어 신호를 출력한다. According to an additional aspect of the present invention, the mobile robot 200 according to the present invention may install the above-described distance measuring sensor 210 on the side of the mobile robot 200 so as to travel at regular intervals from the corresponding wall surface during the wall following the driving. do. Accordingly, the driving direction setting unit 274 of the microcomputer 270 according to the present invention compares the distance with the measured surface calculated by the distance calculator 273 with the set distance information and sets the distance with the measured surface. The driving direction is reset so as to remain within the error range of and the control signal is output to the driving control unit 271 to travel in accordance with the reset driving direction.

주행 방향 설정부(274)는 거리 산출부(273)로부터 출력되는 이동로봇(200)과 벽면 간의 거리 정보를 수신하여 기 설정된 기준 거리 정보의 오차 범위 이내에 해당되는지 판단하고, 판단 결과 설정된 기준 거리 정보의 오차 범위 이내일 경우 이동로봇(200)의 진행방향을 유지시키되, 오차 범위를 벗어나는 경우 벽면과의 거리가 설정된 기준 거리 정보의 오차 범위 이내로 유지되도록 해당 이동로봇(200)의 진행 방향을 재설정하여 재설정된 주행 방향에 따라 이동로봇(200)이 주행하도록 주행 제어부(271)로 제어 신호를 출력한다. The driving direction setting unit 274 receives distance information between the mobile robot 200 and the wall surface output from the distance calculator 273 and determines whether the driving direction setting unit 274 falls within an error range of preset reference distance information. If within the error range of the mobile robot 200 to maintain the direction of travel, if outside the error range of the wall so that the distance is maintained within the error range of the set reference distance information by resetting the traveling direction of the mobile robot 200 A control signal is output to the driving controller 271 so that the mobile robot 200 travels according to the reset driving direction.

따라서, 본 발명에 따른 이동로봇(200)은 초 근접 거리 측정이 가능한 거리 측정 센서(210)를 통해 이동로봇(200)과 벽면 간의 정확한 거리 정보를 산출하여 벽면을 따라 주행하는 월 팔로윙 주행시 일정한 간격을 유지하며 주행하도록 할 수 있는 장점을 갖는다. Therefore, the mobile robot 200 according to the present invention calculates accurate distance information between the mobile robot 200 and the wall through the distance measuring sensor 210 capable of measuring the ultra-close distance, and is constant during the wall following driving that runs along the wall. It has the advantage of being able to drive at intervals.

본 발명의 추가적인 양상에 따라 본 발명에 따른 이동로봇(200)은 상술한 거리 측정 센서(210)가 측정 불가능한 상황에 처해 질 경우 사용자에게 이를 통보하도록 한다. 이에 따라 본 발명에 따른 마이컴(270)은 포인트 위치 산출부(272)에 의해 측정 면 영상 내에서 포인트가 존재하지 않을 경우 스피커(300) 또는 표시부(290)를 통해 사용자에게 측정 에러를 통보하는 측정 에러 통보부(275)를 더 포함한다. According to an additional aspect of the present invention, the mobile robot 200 according to the present invention allows a user to be notified when the above-mentioned distance measuring sensor 210 is in an unmeasurable situation. Accordingly, the microcomputer 270 according to the present invention measures by notifying the user of a measurement error through the speaker 300 or the display unit 290 when no point exists in the measurement plane image by the point position calculator 272. An error notification unit 275 is further included.

포인트 위치 산출부(272)는 촬상부(212)로부터 전송되는 측정 면의 영상에서 포인트를 추출하는데, 측정 면의 영상 내에서 포인트가 존재하지 않아 포인트의 위치를 산출하지 못할 경우 측정 에러 통보부(275)로 에러 신호를 출력한다. 측정 면의 영상 내에 포인트가 존재하지 않는 경우는 거리 측정 센서(210)와 측정 면간 거리가 촬상부(212)의 촬상 영역을 벗어난 것으로 판단할 수 있다. 이에 따라 측정 에러 통보부(275)는 에러 신호를 수신하여 이동로봇(200)에 구비된 스피커(300) 또는 표시부(290)을 통해 음성 또는 그래픽 데이터를 출력함으로써, 사용자에게 측정 에러를 통보한다. The point position calculation unit 272 extracts a point from an image of the measurement plane transmitted from the imaging unit 212. If the point does not exist in the image of the measurement plane and cannot calculate the position of the point, a measurement error notification unit ( 275) output an error signal. If a point does not exist in the image of the measurement plane, it may be determined that the distance between the distance sensor 210 and the measurement plane is out of the imaging area of the imaging unit 212. Accordingly, the measurement error notification unit 275 receives the error signal and outputs voice or graphic data through the speaker 300 or the display unit 290 provided in the mobile robot 200 to notify the user of the measurement error.

이하에서는 본 발명의 바람직한 일 실시 예에 따른 거리 측정 센서(210)를 이용한 이동로봇의 주행 방법을 도 4 및 도 5를 통해 보다 상세히 설명하기로 한 다. Hereinafter, the driving method of the mobile robot using the distance measuring sensor 210 according to an exemplary embodiment of the present invention will be described in more detail with reference to FIGS. 4 and 5.

도 4는 본 발명의 바람직한 일 실시 예에 따른 이동로봇의 주행 과정을 개략적으로 도시한 흐름도이다. 도시된 바와 같이, 벽면을 따라 주행하는 이동로봇의 주행 방법은 이동로봇(200)의 측면에 구비되며, 벽면으로 조사한 빔에 의해 생성된 포인트를 포함하는 벽면 영상을 출력하는 거리 측정 센서(210)로부터 벽면 영상을 수신하는 단계와, 벽면 영상에서 포인트를 추출하고, 추출된 포인트 위치 정보를 산출하는 단계와, 산출된 포인트 위치 정보를 통해 해당 포인트 위치 정보에 대응되는 거리정보를 벽면 영상 내의 포인트 위치별 거리정보가 저장되는 메모리(260)로부터 참조하여 거리 측정 센서(210)와 벽면 간의 거리를 산출하는 단계와, 산출된 벽면과의 거리를 기 설정된 거리 정보와 비교하여 이동로봇(200)과 벽면과의 거리가 설정된 거리 정보의 오차 범위 이내로 유지되도록 주행 방향을 재설정하고, 재설정된 주행방향에 따라 주행하도록 제어 신호를 출력하는 단계를 포함하여 구성된다. 4 is a flowchart schematically illustrating a driving process of a mobile robot according to an exemplary embodiment of the present invention. As shown, the traveling method of the mobile robot traveling along the wall surface is provided on the side of the mobile robot 200, the distance measuring sensor 210 for outputting a wall image including a point generated by the beam irradiated to the wall surface Receiving a wall image from the wall image; extracting a point from the wall image; calculating the extracted point position information; and using the calculated point position information, distance information corresponding to the point position information is obtained. Computing the distance between the distance measuring sensor 210 and the wall surface with reference to the memory 260 to store the distance information, and compares the calculated distance between the wall surface and the mobile robot 200 and the wall surface The driving direction is reset so that the distance between the vehicle and the vehicle is within the error range of the set distance information, and the control signal to drive the vehicle according to the reset driving direction. It is configured to include the step of outputting.

본 발명의 추가적인 양상에 따라 본 발명에 따른 이동로봇(200)의 주행 방법은 바닥 면 영상 내에서 포인트가 추출되지 않을 경우 스피커(300) 또는 표시부(290)을 통해 사용자에게 측정 에러를 통보하는 단계를 더 포함한다. According to an additional aspect of the present invention, the driving method of the mobile robot 200 according to the present invention includes notifying a measurement error to a user through the speaker 300 or the display unit 290 when a point is not extracted from the floor image. It further includes.

사용자가 이동로봇(200)의 구동 명령을 예를 들면, 이동로봇(200)에 구비된 입력버튼이나 구입시에 함께 제공된 리모콘의 입력버튼을 누르면(S101), 이동로봇(200)의 마이컴(270)은 구동명령을 입력받아 메모리(260)로부터 운영 프로그램을 액세스하여 이동로봇(200)의 각 부분으로 구동 명령을 전송함으로써 자동 주행하게 된다(S103). For example, when a user presses a driving command of the mobile robot 200, the input button of the mobile robot 200 or the input button of the remote controller provided at the time of purchase (S101), the microcomputer 270 of the mobile robot 200. ) Receives the driving command and accesses the operating program from the memory 260 to automatically drive the driving command to each part of the mobile robot 200 (S103).

이때 마이컴(270)은 이동로봇(200) 저면에 구비되는 하나 이상의 거리 측정 센서(210)로 구동 명령을 전송한다(S105). 거리 측정 센서(210)는 구동 명령에 따라 광원(211)을 통해 소정 폭을 가지는 빔을 바닥 면에 조사하고 촬상부(212)는 빔에 의해 바닥 면에 생성되는 포인트를 포함하는 바닥 면 영상을 촬상하여 마이컴(270)의 포인트 위치 산출부(272)로 출력한다(S107). At this time, the microcomputer 270 transmits a driving command to one or more distance measuring sensors 210 provided on the bottom surface of the mobile robot 200 (S105). The distance measuring sensor 210 irradiates a floor surface with a beam having a predetermined width through the light source 211 according to a driving command, and the imaging unit 212 generates a floor image including a point generated on the floor surface by the beam. The image is captured and output to the point position calculator 272 of the microcomputer 270 (S107).

포인트 위치 산출부(272)는 거리 측정 센서(210)로부터 출력되는 바닥 면 영상을 수신하여 바닥 면 영상 내에서 포인트를 추출하고, 추출된 포인트의 측정 면 영상에서의 위치 정보를 산출하여 산출된 위치 정보를 거리 산출부(273)로 출력한다(S113). The point position calculator 272 receives the bottom image output from the distance measuring sensor 210, extracts a point in the bottom image, and calculates the position information in the measured surface image of the extracted point. The information is output to the distance calculator 273 (S113).

거리 산출부(273)는 포인트 위치 산출부(272)로부터 출력되는 포인트의 위치 정보를 수신하고, 메모리(260)로부터 해당 거리 정보를 이용하여 그에 대응되는 광원(211)과 측정 면간의 거리를 액세스하고, 이를 주행 방향 설정부(274)로 출력한다(S115). The distance calculator 273 receives the location information of the point output from the point location calculator 272, and accesses the distance between the light source 211 and the measurement surface corresponding thereto using the distance information from the memory 260. And, this is output to the driving direction setting unit 274 (S115).

주행 방향 설정부(274)는 거리 산출부(273)로부터 출력되는 거리 정보를 수신하여 기 설정된 기준 거리 정보의 오차 범위 이내에 해당되는지 판단하고(S117), 판단 결과 설정된 기준 거리 정보의 오차 범위인 경우 주행을 유지하고(S123),설정된 기준 거리 정보의 오차 범위를 벗어나는 경우 해당 이동로봇(200)이 주행 중인 지역이 임무 수행 불가능 지역 또는 장애물 지역으로 판단하고, 해당 지역을 이탈하도록 주행 방향을 재설정하고(S119), 재설정된 주행 방향에 따라 이동로봇(200) 이 주행하도록 주행 제어부(271)로 제어 신호를 출력한다(S121). 임부가 완료되면 이동로봇(200)은 그 구동을 중지한다(S125).The driving direction setting unit 274 receives the distance information output from the distance calculating unit 273 and determines whether the driving direction is within an error range of the preset reference distance information (S117). Maintain driving (S123), if the deviation of the set reference distance information is out of the error range of the mobile robot 200 is determined to be a non-mission area or obstacle area, reset the driving direction to leave the area and In operation S119, a control signal is output to the driving controller 271 such that the mobile robot 200 travels according to the reset driving direction in operation S121. When the pregnancy is complete, the mobile robot 200 stops the driving (S125).

한편, 포인트 위치 산출부(272)는 촬상부(212)로부터 전송되는 바닥 면의 영상에서 포인트가 존재하지 않아 포인트의 위치를 산출하지 못할 경우(S109), 측정 에러 통보부(275)로 에러 신호를 출력한다. 바닥 면의 영상 내에 포인트가 존재하지 않는 경우는 거리 측정 센서(210)와 측정 면간 거리가 촬상부(212)의 촬상 영역을 벗어난 것으로 판단할 수 있다. 따라서, 측정 에러 통보부(275)는 에러 신호를 수신하여 이동로봇(200)에 구비된 스피커(300) 또는 표시부(290)을 통해 음성 또는 그래픽 데이터를 출력함으로써, 사용자에게 측정 에러를 통보한다(S111). On the other hand, when the point position calculation unit 272 fails to calculate the position of the point because the point does not exist in the image of the bottom surface transmitted from the imaging unit 212 (S109), an error signal is sent to the measurement error notification unit 275. Outputs When the point does not exist in the image of the bottom surface, it may be determined that the distance between the distance sensor 210 and the measurement plane is out of the imaging area of the imaging unit 212. Therefore, the measurement error notification unit 275 receives the error signal and outputs voice or graphic data through the speaker 300 or the display unit 290 provided in the mobile robot 200 to notify the user of the measurement error ( S111).

도 5는 본 발명의 제 2 실시 예에 따른 이동로봇의 주행 과정을 개략적으로 도시한 흐름도이다. 도시된 바와 같이, 본 발명에 따른 이동로봇 주행 방법은 이동로봇(200)의 측면에 구비되며, 벽면으로 조사한 빔에 의해 생성된 포인트를 포함하는 벽면 영상을 출력하는 거리 측정 센서(210)로부터 벽면 영상을 수신하는 단계와, 벽면 영상에서 포인트를 추출하고, 추출된 포인트 위치 정보를 산출하는 단계와, 산출된 포인트 위치 정보를 통해 해당 포인트 위치 정보에 대응되는 거리정보를 벽면 영상 내의 포인트 위치별 거리정보가 저장되는 메모리(260)로부터 참조하여 거리 측정 센서(210)와 벽면 간의 거리를 산출하는 단계와, 산출된 벽면과의 거리를 기 설정된 거리 정보와 비교하여 이동로봇(200)과 벽면과의 거리가 설정된 거리 정보의 오차 범위 이내로 유지되도록 주행 방향을 재설정하고, 재설정된 주행방향에 따라 주행하도록 제어 신호를 출력하는 단계를 포함하여 구성된다. 5 is a flowchart schematically illustrating a driving process of a mobile robot according to a second embodiment of the present invention. As shown, the mobile robot driving method according to the present invention is provided on the side of the mobile robot 200, the wall surface from the distance measuring sensor 210 for outputting a wall image including a point generated by the beam irradiated to the wall surface Receiving an image, extracting a point from the wall image, calculating the extracted point position information, and the distance information corresponding to the point position information through the calculated point position information distance of each point position in the wall image Calculating a distance between the distance measuring sensor 210 and the wall surface by referring to the memory 260 in which the information is stored, and comparing the calculated distance between the wall surface with the preset distance information with the mobile robot 200 and the wall surface. The driving direction is reset so that the distance remains within the error range of the set distance information, and a control signal is output to travel according to the reset driving direction. It is configured to include the steps:

본 발명의 추가적인 양상에 따라 본 발명에 따른 이동로봇(200)의 주행 방법은 벽면 영상 내에서 포인트가 추출되지 않을 경우 스피커(300) 또는 표시부(290)을 통해 사용자에게 측정 에러를 통보하는 단계를 더 포함한다. According to an additional aspect of the present invention, the driving method of the mobile robot 200 according to the present invention includes notifying a user of a measurement error through the speaker 300 or the display unit 290 when a point is not extracted from the wall image. It includes more.

사용자가 이동로봇(200)의 구동 명령을 예를 들면, 이동로봇(200)에 구비된 입력버튼이나 구입시에 함께 제공된 리모콘의 입력버튼을 누르면(S201), 이동로봇(200)의 마이컴(270)은 구동명령을 입력받아 메모리(260)로부터 운영 프로그램을 액세스하여 이동로봇(200)의 각 부분으로 구동 명령을 전송함으로써 벽면 주행이 이루어지도록 한다(S203). For example, when a user presses an input command of the mobile robot 200, an input button of the mobile robot 200 or an input button of a remote controller provided at the time of purchase (S201), the microcomputer 270 of the mobile robot 200 is pressed. ) Receives the driving command and accesses the operating program from the memory 260 to transmit the driving command to each part of the mobile robot 200 so as to drive the wall (S203).

이때 마이컴(270)은 이동로봇(200) 측면에 구비되는 하나 이상의 거리 측정 센서(210)로 구동 명령을 전송한다(S205). 거리 측정 센서(210)는 구동 명령에 따라 광원(211)을 통해 소정 폭을 가지는 빔을 벽면에 조사하고 촬상부(212)는 빔에 의해 벽면에 생성되는 포인트를 포함하는 벽면 영상을 촬상하여 마이컴(270)의 포인트 위치 산출부(272)로 출력한다(S207). At this time, the microcomputer 270 transmits a driving command to one or more distance measuring sensors 210 provided on the side of the mobile robot 200 (S205). The distance measuring sensor 210 irradiates a wall having a predetermined width to a wall through a light source 211 according to a driving command, and the imaging unit 212 captures a wall image including a point generated on the wall by the beam and receives a microcomputer. It outputs to the point position calculation part 272 of 270 (S207).

포인트 위치 산출부(272)는 거리 측정 센서(210)로부터 출력되는 벽면 영상을 수신하여 벽면 영상 내에서 포인트를 추출하고, 추출된 포인트의 측정 면 영상에서의 위치 정보를 산출하여 산출된 위치 정보를 거리 산출부(273)로 출력한다(S213). The point position calculator 272 receives a wall image output from the distance measuring sensor 210, extracts a point in the wall image, and calculates position information in the measured surface image of the extracted point. It outputs to the distance calculating part 273 (S213).

거리 산출부(273)는 포인트 위치 산출부(272)로부터 출력되는 포인트의 위치 정보를 수신하고, 메모리(260)로부터 해당 거리 정보를 이용하여 그에 대응되는 광원(211)과 측정 면간의 거리를 액세스하고, 이를 주행 방향 설정부(274)로 출력한 다(S215). The distance calculator 273 receives the location information of the point output from the point location calculator 272, and accesses the distance between the light source 211 and the measurement surface corresponding thereto using the distance information from the memory 260. And, this is output to the driving direction setting unit 274 (S215).

주행 방향 설정부(274)는 거리 산출부(273)로부터 출력되는 이동로봇(200)과 벽면 간의 거리 정보를 수신하여 기 설정된 기준 거리 정보의 오차 범위 이내에 해당되는지 판단하고(S217), 판단 결과 설정된 기준 거리 정보의 오차 범위 이내일 경우 이동로봇(200)의 진행방향을 유지시키되(S221), 오차 범위를 벗어나는 경우 벽면과의 거리가 설정된 기준 거리 정보의 오차 범위 이내로 유지되도록 해당 이동로봇(200)의 진행 방향을 재설정하여 재설정된 주행 방향에 따라 이동로봇(200)이 주행하도록 주행 제어부(271)로 제어 신호를 출력한다(S219). 임부가 완료되면 이동로봇(200)은 그 구동을 중지한다(S223).The driving direction setting unit 274 receives the distance information between the mobile robot 200 and the wall surface output from the distance calculating unit 273 and determines whether the driving direction is within an error range of preset reference distance information (S217). If it is within the error range of the reference distance information, the moving direction of the mobile robot 200 is maintained (S221), if out of the error range, the mobile robot 200 so that the distance to the wall is maintained within the error range of the set reference distance information The control signal is output to the driving control unit 271 so that the mobile robot 200 travels in accordance with the reset driving direction by resetting the traveling direction of the driving direction (S219). When the pregnancy is complete, the mobile robot 200 stops the driving (S223).

한편, 포인트 위치 산출부(272)는 촬상부(212)로부터 전송되는 벽면의 영상에서 포인트가 존재하지 않아 포인트의 위치를 산출하지 못할 경우 측정 에러 통보부(275)로 에러 신호를 출력한다. 벽면의 영상 내에 포인트가 존재하지 않는 경우는 거리 측정 센서(210)와 측정 면간 거리가 촬상부(212)의 촬상 영역을 벗어난 것으로 판단할 수 있다(S209). 따라서, 측정 에러 통보부(275)는 에러 신호를 수신하여 이동로봇(200)에 구비된 스피커(300) 또는 표시부(290)을 통해 음성 또는 그래픽 데이터를 출력함으로써, 사용자에게 측정 에러를 통보한다(S211). On the other hand, the point position calculation unit 272 outputs an error signal to the measurement error notification unit 275 when the point does not exist in the image of the wall surface transmitted from the imaging unit 212 and thus cannot calculate the position of the point. If the point does not exist in the image of the wall surface, it may be determined that the distance between the distance sensor 210 and the measurement plane is out of the imaging area of the imaging unit 212 (S209). Therefore, the measurement error notification unit 275 receives the error signal and outputs voice or graphic data through the speaker 300 or the display unit 290 provided in the mobile robot 200 to notify the user of the measurement error ( S211).

상술한 바와 같이, 본 발명에 따른 본 발명에 따른 측정 센서는 간단한 구조와 저가의 광센서를 통해 측정 면과 광원의 거리 변화에 따라 변화하는 측정 면에서의 빔의 포인트의 위치 변화를 감지하여 광원과 측정 면과의 근접 거리를 산출함 으로써, 저가의 초 근접 거리의 측정이 가능한 센서를 제공할 수 있는 장점을 갖는다. As described above, the measuring sensor according to the present invention according to the present invention through the simple structure and low-cost optical sensor detects the position change of the point of the beam in the measuring surface that changes according to the distance change of the measuring surface and the light source By calculating the proximity distance between the and the measurement surface, there is an advantage that can provide a sensor that can measure the low-cost ultra close distance.

또한, 본 발명에 따른 이동로봇은 초 근접 거리 측정이 가능한 거리 측정 센서를 통해 이동로봇과 바닥 면간의 정확한 거리 정보를 산출하여 이에 따라 구조물에 의해 높이가 달라지는 지역을 보다 정확하게 판단하고, 이를 회피할 수 있는 장점을 갖는다. In addition, the mobile robot according to the present invention calculates accurate distance information between the mobile robot and the floor surface through a distance measuring sensor capable of measuring a very close distance, thereby more accurately determine the area where the height varies by the structure, and avoid this Has the advantage.

또한, 본 발명에 따른 이동로봇은 초 근접 거리 측정이 가능한 거리 측정 센서를 통해 이동로봇과 벽면 간의 정확한 거리 정보를 산출하여 벽면을 따라 주행하는 월 팔로윙 주행시 일정한 간격을 유지하며 주행하도록 할 수 있는 장점을 갖는다. In addition, the mobile robot according to the present invention can calculate the accurate distance information between the mobile robot and the wall through the distance measuring sensor capable of measuring the ultra-close distance, it is possible to drive while maintaining a constant interval when running the wall following the wall running Has the advantage.

이상에서 본 발명은 바람직한 실시 예들을 참조하여 설명되었지만 여기에 한정되는 것은 아니며, 본 발명의 범주를 벗어남이 없이 당업자라면 자명하게 도출 가능한 많은 변형 예들을 포괄하도록 의도된 첨부된 특허청구범위에 의하여 해석되어져야 한다. The present invention has been described above with reference to preferred embodiments, but is not limited thereto, and is interpreted by the appended claims, which are intended to cover many modifications that will be apparent to those skilled in the art without departing from the scope of the present invention. Should be done.

Claims (20)

측정 면과 측정 면에 빔을 발산하는 광원의 거리 변화에 따라 변화하는 측정 면에서의 빔의 포인트의 위치 변화를 감지하여 상기 광원과 측정 면의 거리를 산출하는 거리 측정 센서. And a distance measuring sensor configured to calculate a distance between the light source and the measurement surface by detecting a positional change of a point of a beam on the measurement surface that changes according to a distance change of a light source emitting a beam to a measurement surface and the measurement surface. 청구항 1에 있어서, 상기 거리 측정 센서가:The method of claim 1, wherein the distance measuring sensor is: 상기 광원에 의해 측정 면에 생성되는 포인트를 포함하는 측정 면의 영상을 촬상하는 촬상부(120)와;An imaging unit 120 for capturing an image of a measurement surface including a point generated on the measurement surface by the light source; 상기 촬상부(120)에 의해 촬상된 측정 면 영상 내에서 포인트의 위치 정보를 추출하여 출력하는 포인트 위치 산출부(130)와;A point position calculation unit 130 for extracting and outputting position information of a point in the measurement plane image picked up by the imaging unit 120; 상기 측정 면 영상 내의 포인트 위치별 거리정보가 저장되는 거리정보 테이블(140)과;A distance information table 140 for storing distance information for each point location in the measurement plane image; 상기 포인트 위치 산출부(130)에 의해 산출된 위치 정보를 통해 상기 거리정보 테이블(140)로부터 해당 포인트 위치 정보에 대응되는 상기 광원과 측정 면 간의 거리정보를 참조하여 상기 광원과 측정 면 간의 거리를 산출하여 출력하는 거리 산출부(150);The distance between the light source and the measurement surface is determined by referring to distance information between the light source and the measurement surface corresponding to the point position information from the distance information table 140 through the position information calculated by the point position calculation unit 130. A distance calculator 150 for calculating and outputting the calculated distance; 를 포함하는 것을 특징으로 하는 거리 측정 센서Distance measuring sensor comprising a 청구항 2에 있어서, 상기 광원이:The method of claim 2, wherein the light source is: LED(111)와; 상기 LED(111)로부터 발산되는 광을 빔으로 집속하는 광 집속부(112);An LED 111; A light focusing unit 112 for focusing light emitted from the LEDs 111 into a beam; 를 포함하는 것을 특징으로 하는 거리 측정 센서. Distance measuring sensor comprising a. 청구항 3에 있어서, 상기 광 집속부가:The method of claim 3, wherein the light focusing unit: 상기 LED에 결합되며 소정 크기의 홀이 형성된 커버인 것;A cover coupled to the LED and having a hole having a predetermined size; 을 특징으로 하는 거리 측정 센서. Distance measuring sensor, characterized in that. 청구항 2에 있어서, The method according to claim 2, 상기 광원이 레이저인 것을 특징으로 하는 거리 측정 센서. Distance sensor, characterized in that the light source is a laser. 측정 면으로 빔을 조사하여 상기 빔에 의해 생성된 포인트를 포함하는 측정 면 영상을 감지하여 출력하는 거리 측정 센서(210)와;A distance measuring sensor 210 that irradiates a beam to a measurement plane and detects and outputs a measurement plane image including a point generated by the beam; 상기 거리 측정 센서(210)로부터 출력되는 측정 면 영상 속의 빔 포인트의 위치 변화에 따른 거리 측정 센서와 측정 면간의 거리를 산출하는 마이컴(270);A microcomputer 270 that calculates a distance between the distance sensor and the measurement surface according to a change in the position of the beam point in the image of the measurement surface output from the distance sensor 210; 을 포함하는 이동로봇.Mobile robot comprising a. 청구항 6에 있어서, 상기 거리 측정 센서가:The method of claim 6, wherein the distance measuring sensor is: 측정 면으로 빔을 조사하는 광원과;A light source for irradiating a beam to the measurement surface; 상기 광원으로부터 조사된 빔에 의해 측정 면에 생성되는 빔 포인트를 포함하는 측정 면 영상을 촬영하여 상기 마이컴으로 출력하는 촬상부;An imaging unit for capturing an image of a measurement plane including a beam point generated on a measurement plane by the beam irradiated from the light source and outputting the image to the microcomputer; 를 포함하는 것을 특징으로 하는 이동로봇. Mobile robot, comprising a. 청구항 7에 있어서, The method according to claim 7, 상기 광원이 LED이며; The light source is an LED; 상기 광원이:The light source is: 상기 LED으로부터 발산되는 광을 빔으로 집속하는 광 집속부를 포함하는 것;A light focusing unit configured to focus light emitted from the LED into a beam; 을 특징으로 하는 이동로봇. Mobile robot, characterized in that. 청구항 8에 있어서, 상기 광 집속부가:The method of claim 8, wherein the light focusing unit: 상기 LED로부터 발산되는 광이 빔으로 조사되도록 상기 LED에 결합되되, 소정 크기의 홀이 형성된 커버인 것;A cover coupled to the LED to radiate light emitted from the LED into a beam, the hole having a predetermined size formed; 을 특징으로 하는 이동로봇. Mobile robot, characterized in that. 청구항 7에 있어서, The method according to claim 7, 상기 광원이 레이저인 것을 특징으로 하는 이동로봇. A mobile robot, characterized in that the light source is a laser. 청구항 6 내지 청구항 10중 어느 한 항에 있어서, 상기 거리 측정 센서가:The sensor of claim 6, wherein the distance measuring sensor is: 이동로봇의 저면 또는 측면에 형성되는 것을 특징으로 하는 이동로봇. A mobile robot, characterized in that formed on the bottom or side of the mobile robot. 청구항 6에 있어서, 상기 이동로봇이:The method of claim 6, wherein the mobile robot: 상기 이동로봇의 주행을 위한 주행수단(230)과;A driving means 230 for driving the mobile robot; 상기 측정 면 영상 내의 포인트 위치별 거리정보가 저장되는 메모리(260)와;A memory 260 for storing distance information for each point position in the measurement plane image; 상기 마이컴(270)이 :The microcomputer 270 is: 상기 주행수단(230)의 구동을 제어하는 주행 제어부(271)와;A driving controller 271 for controlling the driving of the driving means 230; 상기 거리 측정 센서로부터 출력되는 측정 면 영상을 수신하여 포인트를 추출하고, 추출된 포인트 위치를 산출하는 포인트 위치 산출부(272)와;A point position calculator 272 which receives a measurement surface image output from the distance measuring sensor, extracts a point, and calculates the extracted point position; 상기 포인트 위치 산출부(272)에 의해 산출된 위치 정보를 통해 해당 포인트 위치 정보에 대응되는 거리정보를 상기 메모리(260)에서 참조하여 상기 거리 측정 센서와 측정 면간의 거리를 산출하는 거리 산출부(273)를 포함하는 것; A distance calculator configured to calculate a distance between the distance measuring sensor and the measurement surface by referring to the distance information corresponding to the point position information from the memory 260 through the position information calculated by the point position calculator 272 ( 273); 을 특징으로 하는 이동로봇. Mobile robot, characterized in that. 청구항 12에 있어서, 상기 마이컴이:The method according to claim 12, wherein the micom: 상기 거리 산출부에 의해 산출된 측정 면간의 거리가 기 설정된 기준 거리 정보의 소정 오차 범위를 벗어나는 경우 장애물로 판단하고, 주행 방향을 재설정하여 재설정된 주행 방향에 따라 주행하도록 상기 주행 제어부로 제어 신호를 출력하는 주행 방향 설정부(274);If the distance between the measurement surface calculated by the distance calculator is out of a predetermined error range of the predetermined reference distance information, it is determined that the obstacle, and the control signal to the driving control unit to reset the driving direction to travel in accordance with the reset driving direction A driving direction setting unit 274 for outputting; 를 포함하는 것을 특징으로 하는 이동로봇. Mobile robot, comprising a. 청구항 13에 있어서, 상기 주행 방향 설정부가:The method of claim 13, wherein the driving direction setting unit: 상기 거리 산출부에 의해 산출된 측정 면과의 거리를 설정된 거리 정보와 비교하여 측정 면과의 거리가 기 설정된 기준 거리 정보의 오차 범위 이내로 유지되 도록 주행 방향을 재설정하고, 재설정된 주행방향에 따라 주행하도록 상기 주행 제어부로 제어 신호를 출력하는 것;Compare the distance with the measurement surface calculated by the distance calculation unit with the set distance information to reset the driving direction so that the distance to the measurement surface is kept within the error range of the preset reference distance information, and according to the reset driving direction Outputting a control signal to the travel control unit to travel; 을 특징으로 하는 이동로봇. Mobile robot, characterized in that. 청구항 12에 있어서, 상기 마이컴이:The method according to claim 12, wherein the micom: 상기 포인트 위치 산출부에 의해 측정 면 영상 내에서 포인트가 존재하지 않을 경우 스피커 또는 표시부을 통해 사용자에게 측정 에러를 통보하는 측정 에러 통보부(275);A measurement error notification unit 275 for notifying a measurement error to a user through a speaker or a display unit when a point does not exist in the measurement plane image by the point position calculator; 를 더 포함하는 것을 특징으로 하는 이동로봇. Mobile robot, characterized in that it further comprises. 청구항 6에 있어서, The method according to claim 6, 상기 이동로봇이 청소로봇인 것을 특징으로 하는 이동로봇. Mobile robot, characterized in that the mobile robot is a cleaning robot. 바닥 면으로 조사한 빔에 의해 생성된 포인트를 포함하는 바닥 면 영상을 출력하는 거리 측정 센서로부터 바닥 면 영상을 수신하는 단계와;Receiving a bottom surface image from a distance measuring sensor that outputs a bottom surface image including a point generated by a beam irradiated to the bottom surface; 상기 바닥 면 영상에서 포인트를 추출하고, 추출된 포인트 위치 정보를 산출하는 단계와; Extracting points from the bottom image and calculating the extracted point position information; 산출된 포인트 위치 정보를 통해 해당 포인트 위치 정보에 대응되는 거리정보를 바닥 면 영상 내의 포인트 위치별 거리정보가 저장되는 메모리로부터 참조하여 상기 거리 측정 센서와 바닥 면간의 거리를 산출하는 단계와;Calculating distance between the distance sensor and the floor surface by referring to the distance information corresponding to the point location information from the memory in which the distance information for each point location in the floor image is stored through the calculated point location information; 산출된 거리가 기 설정된 기준거리 정보의 소정 오차 범위를 벗어나는 경우 장애물로 지역으로 판단하고, 주행 방향을 재설정하여 재설정된 주행 방향에 따라 주행하도록 제어 신호를 출력하는 단계;Determining the area as an obstacle when the calculated distance is out of a predetermined error range of the preset reference distance information, and resetting the driving direction to output a control signal to travel according to the reset driving direction; 를 포함하는 것을 특징으로 하는 이동로봇의 주행 방법. Traveling method of the mobile robot comprising a. 청구항 17에 있어서, 상기 이동로봇의 주행 방법이:The method of claim 17, wherein the traveling method of the mobile robot comprises: 상기 바닥 면 영상 내에서 포인트가 추출되지 않을 경우 스피커 또는 표시부을 통해 사용자에게 측정 에러를 통보하는 단계;Notifying a measurement error to a user through a speaker or a display unit when a point is not extracted from the bottom image; 를 더 포함하는 것을 특징으로 하는 이동로봇의 주행 방법. Driving method of a mobile robot, characterized in that it further comprises. 벽면을 따라 주행하는 이동로봇의 주행 방법에 있어서, In the traveling method of the mobile robot running along the wall surface, 상기 이동로봇의 측면에 구비되며, 벽면으로 조사한 빔에 의해 생성된 포인트를 포함하는 벽면 영상을 출력하는 거리 측정 센서로부터 벽면 영상을 수신하는 단계와;Receiving a wall image from a distance measuring sensor provided at a side of the mobile robot and outputting a wall image including a point generated by a beam irradiated to the wall; 상기 벽면 영상에서 포인트를 추출하고, 추출된 포인트 위치 정보를 산출하는 단계와;Extracting points from the wall image and calculating the extracted point position information; 산출된 포인트 위치 정보를 통해 해당 포인트 위치 정보에 대응되는 거리정보를 벽면 영상 내의 포인트 위치별 거리정보가 저장되는 메모리로부터 참조하여 상기 거리 측정 센서와 벽면 간의 거리를 산출하는 단계와;Calculating distance between the distance sensor and the wall surface by referring to distance information corresponding to the point position information from the memory in which the distance information for each point position in the wall image is stored through the calculated point position information; 산출된 벽면과의 거리를 기 설정된 거리 정보와 비교하여 상기 이동로봇과 벽면과의 거리가 설정된 거리 정보의 오차 범위 이내로 유지되도록 주행 방향을 재설정하고, 재설정된 주행방향에 따라 주행하도록 제어 신호를 출력하는 단계;By comparing the calculated distance between the wall surface and the preset distance information, the driving direction is reset so that the distance between the mobile robot and the wall remains within the error range of the set distance information, and a control signal is output to travel according to the reset driving direction. Doing; 를 포함하는 것을 특징으로 하는 이동로봇의 주행 방법. Traveling method of the mobile robot comprising a. 청구항 19에 있어서, 상기 이동로봇의 주행 방법이:The method of claim 19, wherein the traveling method of the mobile robot comprises: 상기 벽면 영상 내에서 포인트가 추출되지 않을 경우 스피커 또는 표시부을 통해 사용자에게 측정 에러를 통보하는 단계;Notifying a measurement error to a user through a speaker or a display unit when a point is not extracted from the wall image; 를 더 포함하는 것을 특징으로 하는 이동로봇의 주행 방법. Driving method of a mobile robot, characterized in that it further comprises.
KR1020060129551A 2006-12-18 2006-12-18 Distance measurement sensor, moving robot having the distance measurement sensor and driving method for moving robot using the moving robot KR100825919B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060129551A KR100825919B1 (en) 2006-12-18 2006-12-18 Distance measurement sensor, moving robot having the distance measurement sensor and driving method for moving robot using the moving robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060129551A KR100825919B1 (en) 2006-12-18 2006-12-18 Distance measurement sensor, moving robot having the distance measurement sensor and driving method for moving robot using the moving robot

Publications (1)

Publication Number Publication Date
KR100825919B1 true KR100825919B1 (en) 2008-04-28

Family

ID=39572827

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060129551A KR100825919B1 (en) 2006-12-18 2006-12-18 Distance measurement sensor, moving robot having the distance measurement sensor and driving method for moving robot using the moving robot

Country Status (1)

Country Link
KR (1) KR100825919B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140085621A1 (en) * 2012-09-26 2014-03-27 Samsung Electronics Co., Ltd. Proximity sensor and proximity sensing method using event-based vision sensor
WO2015102212A1 (en) * 2013-12-31 2015-07-09 고려대학교 산학협력단 Method for evaluating type of distance measured by laser range finder and method for estimating positon of mobile robot by using same
KR101744499B1 (en) 2016-11-30 2017-06-09 주식회사 세니젠 Apparatus for partitioning surface of solid material using laser beam
WO2020046038A1 (en) * 2018-08-30 2020-03-05 삼성전자주식회사 Robot and control method therefor
US10602086B2 (en) 2010-12-21 2020-03-24 Samsung Electronics Co., Ltd. Methods of operating image sensors
WO2021021163A1 (en) 2019-07-31 2021-02-04 Hewlett-Packard Development Company, L.P. Positioning autonomous vehicles
KR20230148627A (en) * 2022-04-18 2023-10-25 주식회사 윈텍오토메이션 Image acquisition system for detecting cemented carbide insert position and image acquisition method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6043868A (en) 1996-08-23 2000-03-28 Laser Technology, Inc. Distance measurement and ranging instrument having a light emitting diode-based transmitter
KR20040101494A (en) 2002-04-15 2004-12-02 에포스 테크놀로지즈 리미티드 Method and system for obtaining positioning data
US20050285024A1 (en) 2003-10-27 2005-12-29 Bea S.A., Allee Des Noisetiers Distance measurement sensor
KR20060015163A (en) 2004-08-13 2006-02-16 주식회사 넥스트아이 Localization apparatus and method of mobile robot
KR20060059006A (en) 2004-11-26 2006-06-01 삼성전자주식회사 Method and apparatus of self-propelled mobile unit with obstacle avoidance during wall-following

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6043868A (en) 1996-08-23 2000-03-28 Laser Technology, Inc. Distance measurement and ranging instrument having a light emitting diode-based transmitter
KR20040101494A (en) 2002-04-15 2004-12-02 에포스 테크놀로지즈 리미티드 Method and system for obtaining positioning data
US20050285024A1 (en) 2003-10-27 2005-12-29 Bea S.A., Allee Des Noisetiers Distance measurement sensor
KR20060015163A (en) 2004-08-13 2006-02-16 주식회사 넥스트아이 Localization apparatus and method of mobile robot
KR20060059006A (en) 2004-11-26 2006-06-01 삼성전자주식회사 Method and apparatus of self-propelled mobile unit with obstacle avoidance during wall-following

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10602086B2 (en) 2010-12-21 2020-03-24 Samsung Electronics Co., Ltd. Methods of operating image sensors
EP2902803A4 (en) * 2012-09-26 2016-04-27 Samsung Electronics Co Ltd Proximity sensor and proximity sensing method using event-based vision sensor
US9921310B2 (en) 2012-09-26 2018-03-20 Samsung Electronics Co., Ltd. Proximity sensor and proximity sensing method using event-based vision sensor
US20140085621A1 (en) * 2012-09-26 2014-03-27 Samsung Electronics Co., Ltd. Proximity sensor and proximity sensing method using event-based vision sensor
WO2015102212A1 (en) * 2013-12-31 2015-07-09 고려대학교 산학협력단 Method for evaluating type of distance measured by laser range finder and method for estimating positon of mobile robot by using same
US10107897B2 (en) 2013-12-31 2018-10-23 Korea University Research And Business Foundation Method for evaluating type of distance measured by laser range finder and method for estimating position of mobile robot by using same
KR101744499B1 (en) 2016-11-30 2017-06-09 주식회사 세니젠 Apparatus for partitioning surface of solid material using laser beam
WO2020046038A1 (en) * 2018-08-30 2020-03-05 삼성전자주식회사 Robot and control method therefor
US20210213619A1 (en) * 2018-08-30 2021-07-15 Samsung Electronics Co., Ltd. Robot and control method therefor
WO2021021163A1 (en) 2019-07-31 2021-02-04 Hewlett-Packard Development Company, L.P. Positioning autonomous vehicles
EP3966654A4 (en) * 2019-07-31 2023-05-10 Hewlett-Packard Development Company, L.P. Positioning autonomous vehicles
KR20230148627A (en) * 2022-04-18 2023-10-25 주식회사 윈텍오토메이션 Image acquisition system for detecting cemented carbide insert position and image acquisition method
WO2023204320A1 (en) * 2022-04-18 2023-10-26 주식회사 윈텍오토메이션 Image acquisition system for detecting carbide insert locations and image acquisition method thereof
KR102666019B1 (en) * 2022-04-18 2024-05-14 주식회사 윈텍오토메이션 Image acquisition system for detecting cemented carbide insert position and image acquisition method

Similar Documents

Publication Publication Date Title
EP3459691B1 (en) Robot vacuum cleaner
KR100825919B1 (en) Distance measurement sensor, moving robot having the distance measurement sensor and driving method for moving robot using the moving robot
KR101542498B1 (en) Robot cleaner and method for detecting position thereof
US9180596B2 (en) Robot cleaner and method of operating the same
EP3415281B1 (en) Robot cleaner and method for controlling the same
EP3104194B1 (en) Robot positioning system
EP3459689A2 (en) Mobile robot and control method therefor
EP2677386B1 (en) Robot cleaner and obstacle detection control method of the same
US20200341479A1 (en) Ai mobile robot for learning obstacle and method of controlling the same
US7227327B2 (en) System and method for automatically returning self-moving robot to charger
RU2254227C1 (en) Movable robot including image pickup and method for measuring distance walked by robot
CN105813526B (en) Robot cleaning device and method for landmark recognition
RU2304423C2 (en) Object position detecting method for mobile robot and apparatus for performing the same
US20200088524A1 (en) Airport guide robot and operation method therefor
CN110031002B (en) Method and system for detecting obstacle and sensor subsystem thereof
US20070058838A1 (en) Object position detecting apparatus, map creating apparatus, autonomous mobile apparatus, object position detecting method, and computer program product for object position detection
KR20150050161A (en) mobile robot, charging apparatus for the mobile robot, and mobile robot system
CN112153928B (en) Sweeper and control method thereof
JPH0683442A (en) Traveling robot
SE523910C2 (en) Cleaning robot, cleaning robot system and method for a cleaning robot for return to an external charging device
KR100960650B1 (en) Moving robot and operating method for same
KR20120006407A (en) Robot cleaner and controlling method of the same
KR101553950B1 (en) Robot cleaner and method for detecting position thereof
KR101412751B1 (en) Moving robot and operating method for same
US11231720B2 (en) Moving robot and control method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment
FPAY Annual fee payment

Payment date: 20140414

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20160324

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20170314

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20180314

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20190314

Year of fee payment: 12