KR100825919B1 - Distance measurement sensor, moving robot having the distance measurement sensor and driving method for moving robot using the moving robot - Google Patents
Distance measurement sensor, moving robot having the distance measurement sensor and driving method for moving robot using the moving robot Download PDFInfo
- Publication number
- KR100825919B1 KR100825919B1 KR1020060129551A KR20060129551A KR100825919B1 KR 100825919 B1 KR100825919 B1 KR 100825919B1 KR 1020060129551 A KR1020060129551 A KR 1020060129551A KR 20060129551 A KR20060129551 A KR 20060129551A KR 100825919 B1 KR100825919 B1 KR 100825919B1
- Authority
- KR
- South Korea
- Prior art keywords
- distance
- mobile robot
- point
- measurement
- image
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
- B25J11/0085—Cleaning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/022—Optical sensing devices using lasers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1653—Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
도 1a는 본 발명의 바람직한 일 실시 예에 따른 거리 측정 센서를 개략적으로 도시한 개요도이다. 1A is a schematic diagram schematically illustrating a distance measuring sensor according to an exemplary embodiment of the present invention.
도 1b는 본 발명의 바람직한 일 실시 예에 따른 거리 측정 센서에 의해 촬상된 영상 속의 거리별 포인터의 위치 변화를 개략적으로 도시한 개요도이다. 1B is a schematic diagram schematically illustrating a change in position of a pointer for each distance in an image captured by a distance measuring sensor according to an exemplary embodiment of the present invention.
도 2는 본 발명의 바람직한 일 실시 예에 따른 거리 측정 센서를 개략적으로 도시한 블럭도이다. 2 is a block diagram schematically illustrating a distance measuring sensor according to an exemplary embodiment of the present invention.
도 3은 본 발명의 바람직한 일 실시 예에 따른 이동로봇을 개략적으로 도시한 블럭도이다. Figure 3 is a block diagram schematically showing a mobile robot according to an embodiment of the present invention.
도 4는 본 발명의 바람직한 일 실시 예에 따른 이동로봇의 주행 과정을 개략적으로 도시한 흐름도이다. 4 is a flowchart schematically illustrating a driving process of a mobile robot according to an exemplary embodiment of the present invention.
도 5는 본 발명의 제 2 실시 예에 따른 이동로봇의 주행 과정을 개략적으로 도시한 흐름도이다. 5 is a flowchart schematically illustrating a driving process of a mobile robot according to a second embodiment of the present invention.
본 발명은 거리 측정 기술에 관한 것으로 보다 상세하게는 측정 면과 측정 면의 소정 각도로 빔을 발산하는 광원의 거리 변화에 따라 변화하는 측정 면에서의 빔의 포인트의 위치 변화를 감지하여 광원과 측정 면과의 근접 거리를 산출하는 기술에 관한 것이다. The present invention relates to a distance measuring technique, and more particularly, to measure a position of a beam point on a measuring surface that changes according to a change in distance of a light source emitting a beam at a predetermined angle between the measuring surface and the measuring surface. The present invention relates to a technique for calculating a close distance to a face.
일반적으로 사용되는 근접 거리를 측정하는 방법으로는 적외선 세기 측정 방법과, PSD(Position Sensing Device)를 통한 측정 방법과, 초음파 센서를 이용한 방법 등이 있다. 적외선 세기 측정 방법은 적외선을 측정 면에 조사하여 반사되어 돌아오는 적외선의 세기를 측정하여 거리를 추정하는 방법으로 근접 거리의 측정은 가능하나 반사 적외선의 세기를 통해 추정하기 때문에 측정된 거리는 부정확하다. 또한, PSD를 통한 측정 방법은 적외선 삼각측량 방식으로 거리를 측정하는 PSD 센서를 이용하는 방법으로 비교적 정확하나 PSD 센서의 가격이 비싸고, 3cm이내의 근접 거리는 측정이 불가능하다. 그리고 초음파 센서를 이용한 방법은 초음파를 표적에 발신하여 반사되어 돌아오는 시간을 통해 거리를 측정하는 방법으로 비교적 정확한 측정이 가능하나 3cm 이내의 근접 거리는 측정이 어려운 단점이 있다. Commonly used methods of measuring the proximity distance include an infrared intensity measuring method, a PSD (Position Sensing Device) method, and an ultrasonic sensor. Infrared intensity measurement method is a method of estimating distance by measuring the intensity of infrared rays reflected back to the measurement surface by measuring the infrared ray, but the proximity distance can be measured, but the measured distance is incorrect because it is estimated by the intensity of the reflected infrared ray. In addition, the PSD measurement method is a relatively accurate method using a PSD sensor that measures the distance by infrared triangulation method, but the price of the PSD sensor is expensive, the proximity distance within 3cm is impossible to measure. In addition, the method using the ultrasonic sensor is a method of measuring the distance by transmitting the ultrasonic wave to the target and reflecting the return time, but relatively accurate measurement is possible, but it is difficult to measure the proximity distance within 3 cm.
한편, 로봇은 산업용으로 개발되어 공장 자동화의 일환으로 사용되거나, 인간이 견딜 수 없는 극한의 환경에서 인간을 대신하여 정보를 수집하거나 채집하는데 사용되어 왔다. 이러한 로봇공학 분야는 근래에 들어 최첨단 우주개발산업에 사용되면서 발전을 거듭하여 왔고, 최근에 들어서는 인간 친화적인 가정용 로봇이 개발되기에 까지 이르렀다. 이러한 인간 친화적인 가정용 로봇의 대표적인 예가 바로 청소로봇이다.Meanwhile, robots have been developed for industrial purposes and used as part of factory automation, or have been used to collect or collect information on behalf of humans in extreme environments that humans cannot tolerate. This field of robotics has been developed in recent years as it is used in the cutting-edge space development industry, and recently, until a human-friendly home robot was developed. A representative example of such a human-friendly home robot is a cleaning robot.
이동로봇의 하나인 청소로봇은 주택 또는 사무실과 같은 일정한 청소구역을 스스로 구동하면서, 먼지 또는 이물질을 흡입하는 기기이다. 이 같은 청소로봇은 먼지 또는 이물질을 흡입하는 일반적인 진공 청소기의 구성 이외에 해당 청소로봇을 주행시키는 우륜 및 좌륜모터를 포함하는 주행수단과, 청소구역 내에 있는 다양한 장애물과 충돌하지 않고 주행할 수 있도록 다수의 감지센서와, 장치 전반을 제어하는 마이컴 등으로 구성되어 있다. A cleaning robot, a mobile robot, is a device that inhales dust or foreign substances while driving itself in a certain cleaning area such as a house or an office. In addition to the configuration of a general vacuum cleaner that sucks in dust or foreign matter, such a cleaning robot includes a driving means including a right wheel and a left wheel motor for driving the cleaning robot, and a plurality of driving means for driving without colliding with various obstacles in the cleaning area. It consists of a sensor and a microcomputer to control the whole device.
이러한 청소로봇은 청소구역을 주행하면서 청소기에 설치된 센서를 통해 예를 들어, 청소구역 내에 물건, 가구와 같은 청소에 방해를 주는 장애물이나 문턱과 같이 높이가 달라지는 지역을 감지하고, 진행방향을 전환하여 장애물을 회피함으로써 청소구역의 청소를 계속하도록 한다. Such a cleaning robot detects an area having a different height, such as an obstacle or a threshold that prevents cleaning, such as an object or furniture, through a sensor installed in the cleaner while driving the cleaning area, and switches the direction of travel. Continue cleaning of the cleaning area by avoiding obstacles.
그러나 이동로봇의 임무 수행 영역 내에 있는 장애물과 달리 문턱과 같이 높이가 달라짐으로 인해 임무수행에 지장을 줄 수 있는 구조물의 경우에는 일반적으로 장애물 감지수단으로는 감지가 어려우며, 이동로봇의 물리적인 접촉에 의해서만 감지하여 주행 경로를 재설정하고, 해당 지역을 이탈하는 기술이 적용되고 있다. However, in the case of a structure that can interfere with the performance of the mission due to the height change like the threshold unlike the obstacle in the mission area of the mobile robot, it is generally difficult to detect the obstacle by means of obstacle detection means. It detects only to reset the driving route, and the technology that leaves the area has been applied.
이에 따라 이동로봇의 저면에 근접 거리 측정을 위한 센서가 설치되어 근접 거리의 변화를 측정하여 임무수행에 지장을 줄 수 있는 구조물을 감지하고, 이를 회피하는 기술이 사용된다. 상술한 바와 같이, 기존의 근접 거리 측정 방법은 고가의 센서를 이용하거나, 고가의 센서를 이용하더라도 3cm 내외의 근접 거리 측정 이 불가능하거나 측정하더라도 정확도가 떨어지는 단점이 있다. Accordingly, a sensor for measuring proximity distance is installed on the bottom of the mobile robot to measure a change in the proximity distance to detect a structure that may impede the performance of the mission, and to avoid this. As described above, the conventional method for measuring the proximity distance has a disadvantage in that the accuracy of the proximity distance measurement is not possible even if the measurement of the proximity distance of about 3cm or even using an expensive sensor or an expensive sensor.
본 발명은 이러한 문제점을 해결하기 위한 것으로, 그 목적은 간단한 구조와 저가의 광센서를 통해 초 근접 거리의 측정이 가능한 거리 측정 센서를 제공하는 데 있다. SUMMARY OF THE INVENTION The present invention has been made to solve this problem, and an object thereof is to provide a distance measuring sensor capable of measuring a very close distance through a simple structure and a low-cost optical sensor.
나아가, 초 근접 거리 측정이 가능한 거리 측정 센서를 통해 이동로봇과 바닥 면간의 정확한 거리 정보를 산출하여 이에 따라 구조물에 의해 높이가 달라지는 지역을 보다 정확하게 판단할 수 있는 이동로봇 및 그를 이용한 이동로봇의 주행 방법을 제공하는 데 있다. Furthermore, the mobile robot and the mobile robot using it can calculate the accurate distance information between the mobile robot and the floor surface through the distance measuring sensor that can measure the ultra close distance, and thus can more accurately determine the area where the height varies by the structure. To provide a way.
나아가, 근접 거리 측정이 가능한 거리 측정 센서를 통해 이동로봇의 월 팔로윙 주행시 벽면과 일정 거리를 유지하면서 이동로봇을 주행시킬 수 있는 이동로봇 및 그를 이용한 주행 방법을 제공하는 데 있다. Furthermore, the present invention provides a mobile robot capable of driving a mobile robot and a driving method using the same while maintaining a predetermined distance from a wall surface when the mobile robot is driving a wall following a distance measuring sensor capable of measuring a close distance.
상술한 본 발명의 일 양상에 따른 거리 측정 센서는 측정 면과 측정 면에 빔을 발산하는 광원의 거리 변화에 따라 변화하는 측정 면에서의 빔의 포인트의 위치 변화를 감지하여 광원과 측정 면의 거리를 산출한다. 이에 따라 본 발명에 따른 거리 측정 센서는 측정 면과 소정 각도로 이격되며 빔을 발산하는 광원과, 광원에 의해 측정 면에 생성되는 포인트를 포함하는 측정 면의 영상을 촬상하는 촬상부와, 촬상부에 의해 촬상된 측정 면의 영상 내에서 포인트의 위치 정보를 추출하여 출력하는 포인트 위치 산출부와, 측정 면 영상 내의 포인트 위치별 거리정보가 저장되 는 거리정보 테이블과, 포인트 위치 산출부에 의해 산출된 위치 정보를 통해 거리정보 테이블로부터 해당 포인트 위치 정보에 대응되는 광원과 측정 면 간의 거리정보를 참조하여 광원과 측정 면 간의 거리를 산출하여 출력하는 거리 산출부를 포함하여 구성된다. The distance measuring sensor according to the aspect of the present invention described above detects the position change of the point of the beam in the measurement plane that changes according to the distance change of the light source emitting the beam to the measurement plane and the measurement plane and the distance between the light source and the measurement plane. Calculate Accordingly, the distance measuring sensor according to the present invention includes an image pickup unit for capturing an image of a measurement plane including a light source spaced apart from the measurement plane at a predetermined angle and emitting a beam, and a point generated on the measurement plane by the light source, and an image pickup unit. A point position calculation unit which extracts and outputs the point position information in the image of the measurement plane imaged by the distance, a distance information table storing distance information for each point position in the measurement plane image, and a point position calculation unit And a distance calculator configured to calculate and output a distance between the light source and the measurement surface by referring to the distance information between the light source and the measurement surface corresponding to the point position information from the distance information table.
따라서, 본 발명에 따른 거리 측정 센서는 간단한 구조와 저가의 광센서를 통해 측정 면과 광원의 거리 변화에 따라 변화하는 측정 면에서의 빔의 포인트의 위치 변화를 감지하여 광원과 측정 면과의 근접 거리를 산출함으로써, 저가의 초 근접 거리의 측정이 가능한 장점을 갖는다. Therefore, the distance measuring sensor according to the present invention detects the positional change of the point of the beam on the measuring surface that changes according to the distance change of the measuring surface and the light source through a simple structure and an inexpensive optical sensor, thereby approaching the light source and the measuring surface. By calculating the distance, it is possible to measure inexpensive ultra close distance.
전술한, 그리고 추가적인 본 발명의 양상들은 첨부된 도면을 참조하여 설명되는 바람직한 실시 예들을 통하여 더욱 명백해질 것이다. 이하에서는 본 발명을 이러한 실시 예를 통해 당업자가 용이하게 이해하고 재현할 수 있도록 상세히 설명하기로 한다. The foregoing and further aspects of the present invention will become more apparent through the preferred embodiments described with reference to the accompanying drawings. Hereinafter, the present invention will be described in detail to enable those skilled in the art to easily understand and reproduce the present invention.
도 1a는 본 발명의 바람직한 일 실시 예에 따른 거리 측정 센서를 개략적으로 도시한 개요도이고, 도 1b는 본 발명의 바람직한 일 실시 예에 따른 거리 측정 센서에 의해 촬상된 영상 속의 거리별 포인터의 위치 변화를 개략적으로 도시한 개요도이며, 도 2는 본 발명의 바람직한 일 실시 예에 따른 거리 측정 센서를 개략적으로 도시한 블럭도이다. 도시된 바와 같이, 본 발명에 따른 거리 측정 센서(100)는 측정 면과 측정 면에 빔을 발산하는 광원(110)의 거리 변화에 따라 변화하는 측정 면에서의 빔의 포인트의 위치 변화를 감지하여 광원(110)과 측정 면의 거리를 산출한다. 1A is a schematic diagram schematically illustrating a distance measuring sensor according to an exemplary embodiment of the present invention, and FIG. 1B is a change in position of a pointer for each distance in an image captured by the distance measuring sensor according to an exemplary embodiment of the present invention. 2 is a schematic view schematically illustrating a distance measurement sensor according to an exemplary embodiment of the present invention. As shown, the
이러한 거리 측정 센서(100)는 측정 면의 수직 방향에서 소정 각도로 이격된 방향에서 빔을 발산하는 광원(110)과, 광원(110)에 의해 측정 면에 생성되는 포인트를 포함하는 측정 면의 영상을 촬상하는 촬상부(120)와, 촬상부(120)에 의해 촬상된 측정 면 영상 내에서 포인트의 위치 정보를 추출하여 출력하는 포인트 위치 산출부(130)와, 측정 면 영상 내의 포인트 위치별 거리정보가 저장되는 거리정보 테이블(140)과, 포인트 위치 산출부(130)에 의해 산출된 위치 정보를 통해 거리정보 테이블(140)로부터 해당 포인트 위치 정보에 대응되는 광원(110)과 측정 면 간의 거리정보를 참조하여 광원(110)과 측정 면 간의 거리를 산출하여 출력하는 거리 산출부(150)를 포함하여 구성된다. 아울러 광원(110)으로부터 발산되는 빔을 집속하는 집속 렌즈를 포함할 수 있으며, 또한, 촬상부(120) 역시 측정 면의 촬영을 위한 하나 이상의 렌즈가 포함될 수 있다. The
광원(110)은 예를 들면, LED(111)와 같은 발광 소자나 직진성을 가지는 레이저 포인터로 구성될 수 있으며, 측정 면의 수직 방향과 소정 각도 이격된 방향에서 측정 면에 빔을 조사할 수 있도록 형성된다. 광원(110)을 통해 발산되는 빔은 측정 면과 쉽게 구분될 수 있는 색상으로 구성되는 것이 바람직하다. The
광원(110)은 촬상부(120)를 중심으로 수직에 소정 각도로 설치되어 소정 폭을 갖는 빔을 발산하고, 발산된 빔은 측정 면에 도달하여 포인트를 생성하게 된다. 이렇듯 광원(110)이 수직에 소정 각도로 설치되는 이유는 광원(110)과 측정 면의 거리 변화에 따라 포인트의 위치가 가변되게 하기 위함이다. The
본 발명의 특징적인 양상에 따라 본 발명에 따른 광원(110)은 LED(111)와, LED(111)로부터 발산되는 광을 소정 폭과 직진성을 가지는 빔으로 집속하는 광 집속부(112)를 포함하여 구성될 수 있다. 일반적으로 LED(111)로부터 출력되는 광은 직진성이 없이 발산되는 광이기 때문에 측정 면에 일정한 포인트를 생성할 수 없다. 따라서, 광 집속부(112)는 LED(111)로부터 발산되는 광을 일정 폭과 직진성을 가지는 빔으로 집속한다. 이러한 광 집속부(112)는 하나 이상의 렌즈의 배열로 구현될 수 있으나 본 발명의 바람직한 실시 예에서는 LED(111)에 결합되되, 소정 크기의 홀이 형성된 커버로 구성된다. 커버는 빛이 투과할 수 없는 소재로 형성되며, LED(111)로부터 발산된 광은 홀을 통해 발산되므로 간단한 커버의 결합만으로 직진성을 가지는 짐을 출력할 수 있게 한다. According to a characteristic aspect of the present invention, the
촬상부(120)는 측정 면과 평행하게 형성되며, 광원(110)으로부터 발산되는 빔에 의해 측정 면상에 생성되는 포인트를 포함하는 측정 면의 영상을 촬상하여 출력하는 광센서일 수 있다. 촬상부(120)는 광원(110)과 측정 면과의 이격 거리에 따라 달라지는 포인트를 포함하는 측정 면 영상을 촬상하여 포인트 위치 산출부(130)로 출력한다. The
포인트 위치 산출부(130)는 포인트 위치 산출부(130)는 촬상부(120)를 통해 출력되는 측정 면 영상을 수신하여 측정 면 영상 내에서 포인트를 추출하고, 추출된 포인트의 측정 면 영상에서의 위치 정보를 산출하여 산출된 위치 정보를 거리 산출부(150)로 출력한다. 포인트 위치 산출부(130)는 측정 면과 색상이 다른 빔에 의해 생성된 포인트를 측정 면과의 색상 정보 차를 이용하여 추출하고, 포인트가 측정 면 영상에서 어느 위치에 생성되었는지를 산출하여 산출된 위치 정보를 거리 정보 산출부로 전송한다. The
거리정보 테이블(140)은 예를 들면, 콤팩트한 사이즈를 가지며, 읽고 쓰기가 가능한 플래시 메모리로 구성될 수 있다. 거리정보 테이블(140)은 실험에 의해 미리 산출된 측정 면 영상 내에서의 포인트 위치별로 그와 대응되는 광원(110)과 측정 면과의 거리 정보가 저장된다. 이렇게 저장된 데이터는 거리 산출부(150)에 의해 액세스 제어된다. The distance information table 140 may be, for example, a flash memory having a compact size and capable of reading and writing. The distance information table 140 stores distance information between the
거리 산출부(150)는 포인트 위치 산출부(130)로부터 출력되는 포인트의 위치 정보를 수신하고, 거리 정보테이블로부터 해당 거리 정보를 이용하여 그에 대응되는 광원(110)과 측정 면간의 거리를 액세스하고, 이를 제공한다. The distance calculator 150 receives the location information of the point output from the
이러한 포인트 위치 산출부(130)와 거리 산출부(150)의 산출 과정은 도 1은 통해 보다 상세히 설명하기로 한다. 도시된 바와 같이, 광원(110)에 의해 발산된 광은 광 집속부(112)에 의해 직진성을 갖는 빔으로 집속되어 측정 면으로 조사된다. 이때 측정 면에는 빔에 의한 포인트가 생성되며, 포인트는 도시된 바와 같이 광원(110)과 측정 면의 거리에 따라 변화하게 된다. The calculation process of the
이러한 광원(110)과 측정 면간의 거리 변화에 따른 포인트의 위치 변화의 상관관계를 통해 거리 산출부(150)는 광원(110)과 측정 면간의 거리 정보를 산출한다. 이러한 포인트의 위치별 거리 정보는 상술한 바와 같이, 실험에 의해 산출된 실측 정보가 샘플링되어 거리정보 테이블(140)에 저장되며, 거리 산출부(150)는 해당 포인트 위치 산출부(130)에 의해 산출된 포인트의 위치 정보를 이용하여 해당 위치 정보에 대응되는 거리 정보를 거리정보 테이블(140)로부터 액세스하여 출력하 는 것이다. The distance calculator 150 calculates distance information between the
이하에서는 상술한 거리 감지 센서를 이용한 이동로봇에 대해 상세히 설명함으로써, 당업자가 용이하게 이해하고 재현할 수 있도록 상세히 설명하기로 한다. Hereinafter, the mobile robot using the above-described distance sensor will be described in detail so that those skilled in the art can easily understand and reproduce the present invention.
도 3은 본 발명의 바람직한 일 실시 예에 따른 이동로봇의 일례인 청소로봇을 개략적으로 도시한 블럭도이다. 도시된 바와 같이, 본 발명에 따른 청소로봇(200)은 청소로봇(200)의 기본 구성 이외에 측정 면으로 빔을 조사하여 빔에 의해 생성된 포인트를 포함하는 측정 면 영상을 감지하여 출력하는 거리 측정 센서(210)와, 거리 측정 센서(210)로부터 출력되는 측정 면 영상 속의 빔 포인트의 위치 변화에 따른 거리 측정 센서(210)와 측정 면간의 거리를 산출하는 마이컴(270)을 포함하여 구성된다. Figure 3 is a block diagram schematically showing a cleaning robot as an example of a mobile robot according to an embodiment of the present invention. As shown, the cleaning
거리 측정 센서(210)는 측정 면으로 빔을 조사하여 빔에 의해 생성된 포인트를 포함하는 측정 면 영상을 감지하여 출력하되, 측정 면의 수직 방향에서 소정 각도로 이격된 방향에서 빔을 발산하는 광원(211)과, 광원(211)으로부터 조사된 빔에 의해 측정 면에 생성되는 빔 포인트를 포함하는 측정 면 영상을 촬영하여 마이컴(270)으로 출력하는 촬상부(212)를 포함하여 구성된다. 아울러 광원(211)으로부터 발산되는 빔을 집속하는 집속 렌즈를 포함할 수 있으며, 또한, 촬상부(212) 역시 측정 면의 촬영을 위한 하나 이상의 렌즈가 포함될 수 있다. The
광원(211)은 예를 들면, LED(111)와 같은 발광 소자나 직진성을 가지는 레이저 포인터로 구성될 수 있으며, 측정 면의 수직 방향과 소정 각도 이격된 방향에서 측정 면에 빔을 조사할 수 있도록 형성된다. 광원(211)을 통해 발산되는 빔은 측 정 면과 쉽게 구분될 수 있는 색상으로 구성되는 것이 바람직하다. The
광원(211)은 촬상부(212)를 중심으로 수직에 소정 각도로 설치되어 소정 폭을 갖는 빔을 발산하고, 발산된 빔은 측정 면에 도달하여 포인트를 생성하게 된다. 이렇듯 광원(211)이 수직에 소정 각도로 설치되는 이유는 광원(211)과 측정 면의 거리 변화에 따라 포인트의 위치가 가변되게 하기 위함이다. The
본 발명의 특징적인 양상에 따라 본 발명에 따른 광원(211)은 LED(111)와, LED(111)로부터 발산되는 광을 소정 폭과 직진성을 가지는 빔으로 집속하는 광 집속부(112)를 포함하여 구성될 수 있다. 일반적으로 LED(111)로부터 출력되는 광은 직진성이 없이 발산되는 광이기 때문에 측정 면에 일정한 포인트를 생성할 수 없다. According to a characteristic aspect of the present invention, the
따라서, 광 집속부(112)는 LED(111)로부터 발산되는 광을 일정 폭과 직진성을 가지는 빔으로 집속한다. 이러한 광 집속부(112)는 하나 이상의 렌즈의 배열로 구현될 수 있으나 본 발명의 바람직한 실시 예에서는 LED(111)에 결합되되, 소정 크기의 홀이 형성된 커버로 구성된다. 커버는 빛이 투과할 수 없는 소재로 형성되며, LED(111)로부터 발산된 광은 홀을 통해 발산되므로 간단한 커버의 결합만으로 직진성을 가지는 짐을 출력할 수 있게 한다. Therefore, the
촬상부(212)는 측정 면과 평행하게 형성되며, 광원(211)으로부터 발산되는 빔에 의해 측정 면상에 생성되는 포인트를 포함하는 측정 면의 영상을 촬상하여 출력하는 광센서일 수 있다. 촬상부(212)는 광원(211)과 측정 면과의 이격 거리에 따라 달라지는 포인트를 포함하는 측정 면 영상을 촬상하여 마이컴(270)으로 출력 한다. The
청소로봇(200)의 기본 구성을 살펴보면 청소구역 내의 먼지 또는 이물질을 감지하는 먼지 감지 센서를 포함하고, 먼지 감지 센서에 의해 감지된 먼지 또는 이물질을 흡입하는 흡입수단(221)과, 흡입수단(221)에 의해 집진 된 먼지 및 이물질을 수납하는 먼지 수납 수단(222)를 포함하는 진공 청소 수단(220)과, 청소로봇(200)을 주행시키는 주행수단(230)과, 진공 청소 수단(220) 및 주행수단(230)에 구동 전원을 공급하는 배터리(240)와, 소정 주기마다 배터리(240)의 잔량을 감지하여 그 값이 소정 값 이하일 경우 배터리 충전 요청 신호를 출력하는 배터리 감지 회로(250)와, 청소로봇(200)의 구동 프로그램이 저장되며, 안내신호로부터 산출된 충전대(100)의 위치정보가 저장되는 메모리(260) 및 사용자의 조작명령을 입력받는 입력부(280)와 청소로봇의 구동 상태를 표시하는 표시부(290)를 포함한다. Looking at the basic configuration of the
이러한 청소로봇(200)의 구성중 진공 청소 수단(220), 배터리(240) 및 배터리 감지 회로(250)는 이미 주지된 구성이 될 수 있어 그 상세한 설명은 생략한다. The vacuum cleaning means 220, the
메모리(260)는 예를 들면, EEPROM 또는 플래시 메모리와 같은 비휘발성 메모리 소자로 구성되며, 이동로봇(200)의 구동을 위한 운영 프로그램이 저장되어 있다. 또한, 본 발명의 특징적인 양상에 따라 메모리(260)는 측정 면 영상 내의 포인트 위치별 거리정보가 저장된다 상술한 바와 같이, 포인트의 위치별 거리정보는 실험에 의해 산출된 실측 정보가 샘플링되어 저장되며, 이러한 데이터는 마이컴(270)에 의해 액세스 제어된다. The
주행수단(230)은 마이컴(270)으로부터 출력되는 제어신호에 따라 우륜 및 좌륜모터(221, 222)를 구동시켜 이동로봇(200)을 주행시킨다. 주행수단(230)의 우륜 및 좌륜모터(221, 222)는 이동로봇(200)을 주행시키는 좌/우 바퀴와 연결되어 있다. 따라서, 우륜 및 좌륜모터(221, 222)의 회전속도와 회전 방향에 따라 이동로봇(200)은 전후좌우로 주행한다. The driving means 230 drives the
마이컴(270)은 메모리(260)에 저장된 운영 프로그램에 따라 이동로봇(200) 장치 전반을 제어하며, 거리 측정 센서(210)로부터 출력되는 측정 면 영상 속의 빔 포인트의 위치 변화에 따른 거리 측정 센서(210)와 측정 면간의 거리를 산출하고, 산출된 거리 정보에 따라 필요한 경우 주행 방향을 재설정한다. The
이러한 마이컴(270)의 기능은 이동로봇(200)에 탑재되는 운영 프로그램의 기능 모듈 중 하나로써, 소프트웨어 언어로 간단하게 구현가능하다. The function of the
마이컴(270)은 주행수단(230)의 구동을 제어하는 주행 제어부(271)와, 거리 측정 센서(210)로부터 출력되는 측정 면 영상을 수신하여 포인트를 추출하고, 추출된 포인트 위치를 산출하는 포인트 위치 산출부(272)와, 포인트 위치 산출부(272)에 의해 산출된 위치 정보를 통해 해당 포인트 위치 정보에 대응되는 거리정보를 메모리(260)에서 참조하여 거리 측정 센서(210)와 측정 면간의 거리를 산출하는 거리 산출부(273)를 포함하여 구성된다. The
주행 제어부(271)는 이동로봇(200)의 운영 프로그램으로부터 출력되는 제어명령에 따라 이동로봇(200)을 주행시키는 주행수단(230)을 제어한다. The driving
포인트 위치 산출부(272)는 촬상부(212)를 통해 출력되는 측정 면 영상을 수 신하여 측정 면 영상 내에서 포인트를 추출하고, 추출된 포인트의 측정 면 영상에서의 위치 정보를 산출하여 산출된 위치 정보를 거리 산출부(273)로 출력한다. 포인트 위치 산출부(272)는 측정 면과 색상이 다른 빔에 의해 생성된 포인트를 측정 면과의 색상 정보 차를 이용하여 추출하고, 포인트가 측정 면 영상에서 어느 위치에 생성되었는지를 산출하여 산출된 위치 정보를 거리 정보 산출부로 전송한다. The
거리 산출부(273)는 포인트 위치 산출부(272)로부터 출력되는 포인트의 위치 정보를 수신하고, 메모리(260)로부터 해당 거리 정보를 이용하여 그에 대응되는 광원(211)과 측정 면간의 거리를 액세스하고, 이를 출력한다. The
본 발명의 추가적인 양상에 따라 본 발명에 따른 이동로봇(200)은 상술한 거리 측정 센서(210)를 저면에 설치하여 거리 산출부(273)에 의해 측정된 거리 정보를 통해 장애물 및 바닥 면과 이동로봇(200) 간의 높이가 달라지는 문턱과 같은 임무 수행 불가능 지역을 판단하여 해당 지역을 이탈할 수 있다. 이에 따라 본 발명에 따른 마이컴(270)은 거리 산출부(273)에 의해 산출된 측정 면간의 거리가 소정 오차 범위를 벗어나는 경우 장애물로 판단하고, 주행 방향을 재설정하여 재설정된 주행 방향에 따라 주행하도록 주행 제어부(271)로 제어 신호를 출력하는 주행 방향 설정부(274)를 더 포함한다. According to an additional aspect of the present invention, the
주행 방향 설정부(274)는 거리 산출부(273)로부터 출력되는 거리 정보를 수신하여 기 설정된 기준 거리 정보의 오차 범위 이내에 해당되는지 판단하고, 판단 결과 설정된 기준 거리 정보의 오차 범위를 벗어나는 경우 해당 이동로봇(200)이 주행 중인 지역이 임무 수행 불가능 지역 또는 장애물 지역으로 판단하고, 해당 지 역을 이탈하도록 주행 방향을 재설정하고, 재설정된 주행 방향에 따라 이동로봇(200)이 주행하도록 주행 제어부(271)로 제어 신호를 출력한다. The driving
따라서, 본 발명에 따른 이동로봇(200)은 초 근접 거리 측정이 가능한 거리 측정 센서(210)를 통해 이동로봇(200)과 바닥 면간의 정확한 거리 정보를 산출하여 이에 따라 구조물에 의해 높이가 달라지는 지역을 보다 정확하게 판단하고, 이를 회피할 수 있는 장점을 갖는다. Therefore, the
본 발명의 추가적인 양상에 따라 본 발명에 따른 이동로봇(200)은 상술한 거리 측정 센서(210)를 이동로봇(200)의 측면에 설치하여 월 팔로윙 주행시 해당 벽면으로부터 일정한 간격으로 주행할 수 있도록 한다. 이에 따라 본 발명에 따른 마이컴(270)의 주행 방향 설정부(274)는 거리 산출부(273)에 의해 산출된 측정 면과의 거리를 설정된 거리 정보와 비교하여 측정 면과의 거리가 설정된 거리 정보의 오차 범위 이내로 유지되도록 주행 방향을 재설정하고, 재설정된 주행방향에 따라 주행하도록 주행 제어부(271)로 제어 신호를 출력한다. According to an additional aspect of the present invention, the
주행 방향 설정부(274)는 거리 산출부(273)로부터 출력되는 이동로봇(200)과 벽면 간의 거리 정보를 수신하여 기 설정된 기준 거리 정보의 오차 범위 이내에 해당되는지 판단하고, 판단 결과 설정된 기준 거리 정보의 오차 범위 이내일 경우 이동로봇(200)의 진행방향을 유지시키되, 오차 범위를 벗어나는 경우 벽면과의 거리가 설정된 기준 거리 정보의 오차 범위 이내로 유지되도록 해당 이동로봇(200)의 진행 방향을 재설정하여 재설정된 주행 방향에 따라 이동로봇(200)이 주행하도록 주행 제어부(271)로 제어 신호를 출력한다. The driving
따라서, 본 발명에 따른 이동로봇(200)은 초 근접 거리 측정이 가능한 거리 측정 센서(210)를 통해 이동로봇(200)과 벽면 간의 정확한 거리 정보를 산출하여 벽면을 따라 주행하는 월 팔로윙 주행시 일정한 간격을 유지하며 주행하도록 할 수 있는 장점을 갖는다. Therefore, the
본 발명의 추가적인 양상에 따라 본 발명에 따른 이동로봇(200)은 상술한 거리 측정 센서(210)가 측정 불가능한 상황에 처해 질 경우 사용자에게 이를 통보하도록 한다. 이에 따라 본 발명에 따른 마이컴(270)은 포인트 위치 산출부(272)에 의해 측정 면 영상 내에서 포인트가 존재하지 않을 경우 스피커(300) 또는 표시부(290)를 통해 사용자에게 측정 에러를 통보하는 측정 에러 통보부(275)를 더 포함한다. According to an additional aspect of the present invention, the
포인트 위치 산출부(272)는 촬상부(212)로부터 전송되는 측정 면의 영상에서 포인트를 추출하는데, 측정 면의 영상 내에서 포인트가 존재하지 않아 포인트의 위치를 산출하지 못할 경우 측정 에러 통보부(275)로 에러 신호를 출력한다. 측정 면의 영상 내에 포인트가 존재하지 않는 경우는 거리 측정 센서(210)와 측정 면간 거리가 촬상부(212)의 촬상 영역을 벗어난 것으로 판단할 수 있다. 이에 따라 측정 에러 통보부(275)는 에러 신호를 수신하여 이동로봇(200)에 구비된 스피커(300) 또는 표시부(290)을 통해 음성 또는 그래픽 데이터를 출력함으로써, 사용자에게 측정 에러를 통보한다. The point
이하에서는 본 발명의 바람직한 일 실시 예에 따른 거리 측정 센서(210)를 이용한 이동로봇의 주행 방법을 도 4 및 도 5를 통해 보다 상세히 설명하기로 한 다. Hereinafter, the driving method of the mobile robot using the
도 4는 본 발명의 바람직한 일 실시 예에 따른 이동로봇의 주행 과정을 개략적으로 도시한 흐름도이다. 도시된 바와 같이, 벽면을 따라 주행하는 이동로봇의 주행 방법은 이동로봇(200)의 측면에 구비되며, 벽면으로 조사한 빔에 의해 생성된 포인트를 포함하는 벽면 영상을 출력하는 거리 측정 센서(210)로부터 벽면 영상을 수신하는 단계와, 벽면 영상에서 포인트를 추출하고, 추출된 포인트 위치 정보를 산출하는 단계와, 산출된 포인트 위치 정보를 통해 해당 포인트 위치 정보에 대응되는 거리정보를 벽면 영상 내의 포인트 위치별 거리정보가 저장되는 메모리(260)로부터 참조하여 거리 측정 센서(210)와 벽면 간의 거리를 산출하는 단계와, 산출된 벽면과의 거리를 기 설정된 거리 정보와 비교하여 이동로봇(200)과 벽면과의 거리가 설정된 거리 정보의 오차 범위 이내로 유지되도록 주행 방향을 재설정하고, 재설정된 주행방향에 따라 주행하도록 제어 신호를 출력하는 단계를 포함하여 구성된다. 4 is a flowchart schematically illustrating a driving process of a mobile robot according to an exemplary embodiment of the present invention. As shown, the traveling method of the mobile robot traveling along the wall surface is provided on the side of the
본 발명의 추가적인 양상에 따라 본 발명에 따른 이동로봇(200)의 주행 방법은 바닥 면 영상 내에서 포인트가 추출되지 않을 경우 스피커(300) 또는 표시부(290)을 통해 사용자에게 측정 에러를 통보하는 단계를 더 포함한다. According to an additional aspect of the present invention, the driving method of the
사용자가 이동로봇(200)의 구동 명령을 예를 들면, 이동로봇(200)에 구비된 입력버튼이나 구입시에 함께 제공된 리모콘의 입력버튼을 누르면(S101), 이동로봇(200)의 마이컴(270)은 구동명령을 입력받아 메모리(260)로부터 운영 프로그램을 액세스하여 이동로봇(200)의 각 부분으로 구동 명령을 전송함으로써 자동 주행하게 된다(S103). For example, when a user presses a driving command of the
이때 마이컴(270)은 이동로봇(200) 저면에 구비되는 하나 이상의 거리 측정 센서(210)로 구동 명령을 전송한다(S105). 거리 측정 센서(210)는 구동 명령에 따라 광원(211)을 통해 소정 폭을 가지는 빔을 바닥 면에 조사하고 촬상부(212)는 빔에 의해 바닥 면에 생성되는 포인트를 포함하는 바닥 면 영상을 촬상하여 마이컴(270)의 포인트 위치 산출부(272)로 출력한다(S107). At this time, the
포인트 위치 산출부(272)는 거리 측정 센서(210)로부터 출력되는 바닥 면 영상을 수신하여 바닥 면 영상 내에서 포인트를 추출하고, 추출된 포인트의 측정 면 영상에서의 위치 정보를 산출하여 산출된 위치 정보를 거리 산출부(273)로 출력한다(S113). The
거리 산출부(273)는 포인트 위치 산출부(272)로부터 출력되는 포인트의 위치 정보를 수신하고, 메모리(260)로부터 해당 거리 정보를 이용하여 그에 대응되는 광원(211)과 측정 면간의 거리를 액세스하고, 이를 주행 방향 설정부(274)로 출력한다(S115). The
주행 방향 설정부(274)는 거리 산출부(273)로부터 출력되는 거리 정보를 수신하여 기 설정된 기준 거리 정보의 오차 범위 이내에 해당되는지 판단하고(S117), 판단 결과 설정된 기준 거리 정보의 오차 범위인 경우 주행을 유지하고(S123),설정된 기준 거리 정보의 오차 범위를 벗어나는 경우 해당 이동로봇(200)이 주행 중인 지역이 임무 수행 불가능 지역 또는 장애물 지역으로 판단하고, 해당 지역을 이탈하도록 주행 방향을 재설정하고(S119), 재설정된 주행 방향에 따라 이동로봇(200) 이 주행하도록 주행 제어부(271)로 제어 신호를 출력한다(S121). 임부가 완료되면 이동로봇(200)은 그 구동을 중지한다(S125).The driving
한편, 포인트 위치 산출부(272)는 촬상부(212)로부터 전송되는 바닥 면의 영상에서 포인트가 존재하지 않아 포인트의 위치를 산출하지 못할 경우(S109), 측정 에러 통보부(275)로 에러 신호를 출력한다. 바닥 면의 영상 내에 포인트가 존재하지 않는 경우는 거리 측정 센서(210)와 측정 면간 거리가 촬상부(212)의 촬상 영역을 벗어난 것으로 판단할 수 있다. 따라서, 측정 에러 통보부(275)는 에러 신호를 수신하여 이동로봇(200)에 구비된 스피커(300) 또는 표시부(290)을 통해 음성 또는 그래픽 데이터를 출력함으로써, 사용자에게 측정 에러를 통보한다(S111). On the other hand, when the point
도 5는 본 발명의 제 2 실시 예에 따른 이동로봇의 주행 과정을 개략적으로 도시한 흐름도이다. 도시된 바와 같이, 본 발명에 따른 이동로봇 주행 방법은 이동로봇(200)의 측면에 구비되며, 벽면으로 조사한 빔에 의해 생성된 포인트를 포함하는 벽면 영상을 출력하는 거리 측정 센서(210)로부터 벽면 영상을 수신하는 단계와, 벽면 영상에서 포인트를 추출하고, 추출된 포인트 위치 정보를 산출하는 단계와, 산출된 포인트 위치 정보를 통해 해당 포인트 위치 정보에 대응되는 거리정보를 벽면 영상 내의 포인트 위치별 거리정보가 저장되는 메모리(260)로부터 참조하여 거리 측정 센서(210)와 벽면 간의 거리를 산출하는 단계와, 산출된 벽면과의 거리를 기 설정된 거리 정보와 비교하여 이동로봇(200)과 벽면과의 거리가 설정된 거리 정보의 오차 범위 이내로 유지되도록 주행 방향을 재설정하고, 재설정된 주행방향에 따라 주행하도록 제어 신호를 출력하는 단계를 포함하여 구성된다. 5 is a flowchart schematically illustrating a driving process of a mobile robot according to a second embodiment of the present invention. As shown, the mobile robot driving method according to the present invention is provided on the side of the
본 발명의 추가적인 양상에 따라 본 발명에 따른 이동로봇(200)의 주행 방법은 벽면 영상 내에서 포인트가 추출되지 않을 경우 스피커(300) 또는 표시부(290)을 통해 사용자에게 측정 에러를 통보하는 단계를 더 포함한다. According to an additional aspect of the present invention, the driving method of the
사용자가 이동로봇(200)의 구동 명령을 예를 들면, 이동로봇(200)에 구비된 입력버튼이나 구입시에 함께 제공된 리모콘의 입력버튼을 누르면(S201), 이동로봇(200)의 마이컴(270)은 구동명령을 입력받아 메모리(260)로부터 운영 프로그램을 액세스하여 이동로봇(200)의 각 부분으로 구동 명령을 전송함으로써 벽면 주행이 이루어지도록 한다(S203). For example, when a user presses an input command of the
이때 마이컴(270)은 이동로봇(200) 측면에 구비되는 하나 이상의 거리 측정 센서(210)로 구동 명령을 전송한다(S205). 거리 측정 센서(210)는 구동 명령에 따라 광원(211)을 통해 소정 폭을 가지는 빔을 벽면에 조사하고 촬상부(212)는 빔에 의해 벽면에 생성되는 포인트를 포함하는 벽면 영상을 촬상하여 마이컴(270)의 포인트 위치 산출부(272)로 출력한다(S207). At this time, the
포인트 위치 산출부(272)는 거리 측정 센서(210)로부터 출력되는 벽면 영상을 수신하여 벽면 영상 내에서 포인트를 추출하고, 추출된 포인트의 측정 면 영상에서의 위치 정보를 산출하여 산출된 위치 정보를 거리 산출부(273)로 출력한다(S213). The
거리 산출부(273)는 포인트 위치 산출부(272)로부터 출력되는 포인트의 위치 정보를 수신하고, 메모리(260)로부터 해당 거리 정보를 이용하여 그에 대응되는 광원(211)과 측정 면간의 거리를 액세스하고, 이를 주행 방향 설정부(274)로 출력한 다(S215). The
주행 방향 설정부(274)는 거리 산출부(273)로부터 출력되는 이동로봇(200)과 벽면 간의 거리 정보를 수신하여 기 설정된 기준 거리 정보의 오차 범위 이내에 해당되는지 판단하고(S217), 판단 결과 설정된 기준 거리 정보의 오차 범위 이내일 경우 이동로봇(200)의 진행방향을 유지시키되(S221), 오차 범위를 벗어나는 경우 벽면과의 거리가 설정된 기준 거리 정보의 오차 범위 이내로 유지되도록 해당 이동로봇(200)의 진행 방향을 재설정하여 재설정된 주행 방향에 따라 이동로봇(200)이 주행하도록 주행 제어부(271)로 제어 신호를 출력한다(S219). 임부가 완료되면 이동로봇(200)은 그 구동을 중지한다(S223).The driving
한편, 포인트 위치 산출부(272)는 촬상부(212)로부터 전송되는 벽면의 영상에서 포인트가 존재하지 않아 포인트의 위치를 산출하지 못할 경우 측정 에러 통보부(275)로 에러 신호를 출력한다. 벽면의 영상 내에 포인트가 존재하지 않는 경우는 거리 측정 센서(210)와 측정 면간 거리가 촬상부(212)의 촬상 영역을 벗어난 것으로 판단할 수 있다(S209). 따라서, 측정 에러 통보부(275)는 에러 신호를 수신하여 이동로봇(200)에 구비된 스피커(300) 또는 표시부(290)을 통해 음성 또는 그래픽 데이터를 출력함으로써, 사용자에게 측정 에러를 통보한다(S211). On the other hand, the point
상술한 바와 같이, 본 발명에 따른 본 발명에 따른 측정 센서는 간단한 구조와 저가의 광센서를 통해 측정 면과 광원의 거리 변화에 따라 변화하는 측정 면에서의 빔의 포인트의 위치 변화를 감지하여 광원과 측정 면과의 근접 거리를 산출함 으로써, 저가의 초 근접 거리의 측정이 가능한 센서를 제공할 수 있는 장점을 갖는다. As described above, the measuring sensor according to the present invention according to the present invention through the simple structure and low-cost optical sensor detects the position change of the point of the beam in the measuring surface that changes according to the distance change of the measuring surface and the light source By calculating the proximity distance between the and the measurement surface, there is an advantage that can provide a sensor that can measure the low-cost ultra close distance.
또한, 본 발명에 따른 이동로봇은 초 근접 거리 측정이 가능한 거리 측정 센서를 통해 이동로봇과 바닥 면간의 정확한 거리 정보를 산출하여 이에 따라 구조물에 의해 높이가 달라지는 지역을 보다 정확하게 판단하고, 이를 회피할 수 있는 장점을 갖는다. In addition, the mobile robot according to the present invention calculates accurate distance information between the mobile robot and the floor surface through a distance measuring sensor capable of measuring a very close distance, thereby more accurately determine the area where the height varies by the structure, and avoid this Has the advantage.
또한, 본 발명에 따른 이동로봇은 초 근접 거리 측정이 가능한 거리 측정 센서를 통해 이동로봇과 벽면 간의 정확한 거리 정보를 산출하여 벽면을 따라 주행하는 월 팔로윙 주행시 일정한 간격을 유지하며 주행하도록 할 수 있는 장점을 갖는다. In addition, the mobile robot according to the present invention can calculate the accurate distance information between the mobile robot and the wall through the distance measuring sensor capable of measuring the ultra-close distance, it is possible to drive while maintaining a constant interval when running the wall following the wall running Has the advantage.
이상에서 본 발명은 바람직한 실시 예들을 참조하여 설명되었지만 여기에 한정되는 것은 아니며, 본 발명의 범주를 벗어남이 없이 당업자라면 자명하게 도출 가능한 많은 변형 예들을 포괄하도록 의도된 첨부된 특허청구범위에 의하여 해석되어져야 한다. The present invention has been described above with reference to preferred embodiments, but is not limited thereto, and is interpreted by the appended claims, which are intended to cover many modifications that will be apparent to those skilled in the art without departing from the scope of the present invention. Should be done.
Claims (20)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060129551A KR100825919B1 (en) | 2006-12-18 | 2006-12-18 | Distance measurement sensor, moving robot having the distance measurement sensor and driving method for moving robot using the moving robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060129551A KR100825919B1 (en) | 2006-12-18 | 2006-12-18 | Distance measurement sensor, moving robot having the distance measurement sensor and driving method for moving robot using the moving robot |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100825919B1 true KR100825919B1 (en) | 2008-04-28 |
Family
ID=39572827
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060129551A KR100825919B1 (en) | 2006-12-18 | 2006-12-18 | Distance measurement sensor, moving robot having the distance measurement sensor and driving method for moving robot using the moving robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100825919B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140085621A1 (en) * | 2012-09-26 | 2014-03-27 | Samsung Electronics Co., Ltd. | Proximity sensor and proximity sensing method using event-based vision sensor |
WO2015102212A1 (en) * | 2013-12-31 | 2015-07-09 | 고려대학교 산학협력단 | Method for evaluating type of distance measured by laser range finder and method for estimating positon of mobile robot by using same |
KR101744499B1 (en) | 2016-11-30 | 2017-06-09 | 주식회사 세니젠 | Apparatus for partitioning surface of solid material using laser beam |
WO2020046038A1 (en) * | 2018-08-30 | 2020-03-05 | 삼성전자주식회사 | Robot and control method therefor |
US10602086B2 (en) | 2010-12-21 | 2020-03-24 | Samsung Electronics Co., Ltd. | Methods of operating image sensors |
WO2021021163A1 (en) | 2019-07-31 | 2021-02-04 | Hewlett-Packard Development Company, L.P. | Positioning autonomous vehicles |
KR20230148627A (en) * | 2022-04-18 | 2023-10-25 | 주식회사 윈텍오토메이션 | Image acquisition system for detecting cemented carbide insert position and image acquisition method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6043868A (en) | 1996-08-23 | 2000-03-28 | Laser Technology, Inc. | Distance measurement and ranging instrument having a light emitting diode-based transmitter |
KR20040101494A (en) | 2002-04-15 | 2004-12-02 | 에포스 테크놀로지즈 리미티드 | Method and system for obtaining positioning data |
US20050285024A1 (en) | 2003-10-27 | 2005-12-29 | Bea S.A., Allee Des Noisetiers | Distance measurement sensor |
KR20060015163A (en) | 2004-08-13 | 2006-02-16 | 주식회사 넥스트아이 | Localization apparatus and method of mobile robot |
KR20060059006A (en) | 2004-11-26 | 2006-06-01 | 삼성전자주식회사 | Method and apparatus of self-propelled mobile unit with obstacle avoidance during wall-following |
-
2006
- 2006-12-18 KR KR1020060129551A patent/KR100825919B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6043868A (en) | 1996-08-23 | 2000-03-28 | Laser Technology, Inc. | Distance measurement and ranging instrument having a light emitting diode-based transmitter |
KR20040101494A (en) | 2002-04-15 | 2004-12-02 | 에포스 테크놀로지즈 리미티드 | Method and system for obtaining positioning data |
US20050285024A1 (en) | 2003-10-27 | 2005-12-29 | Bea S.A., Allee Des Noisetiers | Distance measurement sensor |
KR20060015163A (en) | 2004-08-13 | 2006-02-16 | 주식회사 넥스트아이 | Localization apparatus and method of mobile robot |
KR20060059006A (en) | 2004-11-26 | 2006-06-01 | 삼성전자주식회사 | Method and apparatus of self-propelled mobile unit with obstacle avoidance during wall-following |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10602086B2 (en) | 2010-12-21 | 2020-03-24 | Samsung Electronics Co., Ltd. | Methods of operating image sensors |
EP2902803A4 (en) * | 2012-09-26 | 2016-04-27 | Samsung Electronics Co Ltd | Proximity sensor and proximity sensing method using event-based vision sensor |
US9921310B2 (en) | 2012-09-26 | 2018-03-20 | Samsung Electronics Co., Ltd. | Proximity sensor and proximity sensing method using event-based vision sensor |
US20140085621A1 (en) * | 2012-09-26 | 2014-03-27 | Samsung Electronics Co., Ltd. | Proximity sensor and proximity sensing method using event-based vision sensor |
WO2015102212A1 (en) * | 2013-12-31 | 2015-07-09 | 고려대학교 산학협력단 | Method for evaluating type of distance measured by laser range finder and method for estimating positon of mobile robot by using same |
US10107897B2 (en) | 2013-12-31 | 2018-10-23 | Korea University Research And Business Foundation | Method for evaluating type of distance measured by laser range finder and method for estimating position of mobile robot by using same |
KR101744499B1 (en) | 2016-11-30 | 2017-06-09 | 주식회사 세니젠 | Apparatus for partitioning surface of solid material using laser beam |
WO2020046038A1 (en) * | 2018-08-30 | 2020-03-05 | 삼성전자주식회사 | Robot and control method therefor |
US20210213619A1 (en) * | 2018-08-30 | 2021-07-15 | Samsung Electronics Co., Ltd. | Robot and control method therefor |
WO2021021163A1 (en) | 2019-07-31 | 2021-02-04 | Hewlett-Packard Development Company, L.P. | Positioning autonomous vehicles |
EP3966654A4 (en) * | 2019-07-31 | 2023-05-10 | Hewlett-Packard Development Company, L.P. | Positioning autonomous vehicles |
KR20230148627A (en) * | 2022-04-18 | 2023-10-25 | 주식회사 윈텍오토메이션 | Image acquisition system for detecting cemented carbide insert position and image acquisition method |
WO2023204320A1 (en) * | 2022-04-18 | 2023-10-26 | 주식회사 윈텍오토메이션 | Image acquisition system for detecting carbide insert locations and image acquisition method thereof |
KR102666019B1 (en) * | 2022-04-18 | 2024-05-14 | 주식회사 윈텍오토메이션 | Image acquisition system for detecting cemented carbide insert position and image acquisition method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3459691B1 (en) | Robot vacuum cleaner | |
KR100825919B1 (en) | Distance measurement sensor, moving robot having the distance measurement sensor and driving method for moving robot using the moving robot | |
KR101542498B1 (en) | Robot cleaner and method for detecting position thereof | |
US9180596B2 (en) | Robot cleaner and method of operating the same | |
EP3415281B1 (en) | Robot cleaner and method for controlling the same | |
EP3104194B1 (en) | Robot positioning system | |
EP3459689A2 (en) | Mobile robot and control method therefor | |
EP2677386B1 (en) | Robot cleaner and obstacle detection control method of the same | |
US20200341479A1 (en) | Ai mobile robot for learning obstacle and method of controlling the same | |
US7227327B2 (en) | System and method for automatically returning self-moving robot to charger | |
RU2254227C1 (en) | Movable robot including image pickup and method for measuring distance walked by robot | |
CN105813526B (en) | Robot cleaning device and method for landmark recognition | |
RU2304423C2 (en) | Object position detecting method for mobile robot and apparatus for performing the same | |
US20200088524A1 (en) | Airport guide robot and operation method therefor | |
CN110031002B (en) | Method and system for detecting obstacle and sensor subsystem thereof | |
US20070058838A1 (en) | Object position detecting apparatus, map creating apparatus, autonomous mobile apparatus, object position detecting method, and computer program product for object position detection | |
KR20150050161A (en) | mobile robot, charging apparatus for the mobile robot, and mobile robot system | |
CN112153928B (en) | Sweeper and control method thereof | |
JPH0683442A (en) | Traveling robot | |
SE523910C2 (en) | Cleaning robot, cleaning robot system and method for a cleaning robot for return to an external charging device | |
KR100960650B1 (en) | Moving robot and operating method for same | |
KR20120006407A (en) | Robot cleaner and controlling method of the same | |
KR101553950B1 (en) | Robot cleaner and method for detecting position thereof | |
KR101412751B1 (en) | Moving robot and operating method for same | |
US11231720B2 (en) | Moving robot and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment | ||
FPAY | Annual fee payment |
Payment date: 20140414 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20160324 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20170314 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20180314 Year of fee payment: 11 |
|
FPAY | Annual fee payment |
Payment date: 20190314 Year of fee payment: 12 |