KR101022785B1 - mapping method for circumstances of robot using a nerve network and evolutionary computation - Google Patents

mapping method for circumstances of robot using a nerve network and evolutionary computation Download PDF

Info

Publication number
KR101022785B1
KR101022785B1 KR1020080090923A KR20080090923A KR101022785B1 KR 101022785 B1 KR101022785 B1 KR 101022785B1 KR 1020080090923 A KR1020080090923 A KR 1020080090923A KR 20080090923 A KR20080090923 A KR 20080090923A KR 101022785 B1 KR101022785 B1 KR 101022785B1
Authority
KR
South Korea
Prior art keywords
robot
neural network
map
chromosomes
evolutionary
Prior art date
Application number
KR1020080090923A
Other languages
Korean (ko)
Other versions
KR20100031992A (en
Inventor
강정관
김선효
오세영
Original Assignee
포항공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포항공과대학교 산학협력단 filed Critical 포항공과대학교 산학협력단
Priority to KR1020080090923A priority Critical patent/KR101022785B1/en
Publication of KR20100031992A publication Critical patent/KR20100031992A/en
Application granted granted Critical
Publication of KR101022785B1 publication Critical patent/KR101022785B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/004Map manufacture or repair; Tear or ink or water resistant maps; Long-life maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Software Systems (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Feedback Control In General (AREA)

Abstract

본 발명은 이동 로봇이 주변 환경에 대한 지도 작성 및 위치 인식을 동시에 수행하는 방법(Simultaneous Localization and Mapbuilding, SLAM)에 관한 것으로, 특히 신경망과 진화연산을 이용하여 주변 환경에 대한 지도 작성 및 위치 인식을 동시에 하는 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법에 관한 것이다.The present invention relates to a method of simultaneously performing mapping and location recognition of a surrounding environment by a mobile robot (SAM), and in particular, by using neural networks and evolutionary operations, mapping and location recognition of a surrounding environment are performed. The present invention relates to a method of environment mapping of a robot using a neural network and evolutionary computation.

본 발명에 따른 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법에 의하면 로봇과 센서의 잡음 모델에 따라 신경망의 연결 강도를 최적으로 조절하여 지도를 작성하기 때문에 잡음 모델이 가우시안 기반의 백색 잡음이 아니더라도 정확한 지도를 작성할 수 있다는 장점이 있다. 또한 예측한 특징점과 실제 관측된 특징점이 서로 같은 특징점인지를 확인하는 절차가 없더라도 정확한 지도를 얻을 수 있는 효과가 있다.According to the method of environment mapping of a robot using neural networks and evolutionary operations according to the present invention, since the map is created by optimally adjusting the connection strength of neural networks according to the noise model of the robot and the sensor, even if the noise model is not Gaussian-based white noise, The advantage is that you can create an accurate map. In addition, even if there is no procedure for checking whether the predicted feature point and the observed feature point are the same feature points, an accurate map can be obtained.

신경망, 진화연산, 특징점, 로봇지도 Neural Network, Evolutionary Computation, Feature Points, Robot Map

Description

신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법{mapping method for circumstances of robot using a nerve network and evolutionary computation} Mapping method for circumstances of robot using a nerve network and evolutionary computation

본 발명은 이동 로봇이 주변 환경에 대한 지도 작성 및 위치 인식을 동시에 수행하는 방법(Simultaneous Localization and Mapbuilding, SLAM)에 관한 것으로, 특히 신경망과 진화연산을 이용하여 주변 환경에 대한 지도 작성 및 위치 인식을 동시에 하는 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법에 관한 것이다.The present invention relates to a method of simultaneously performing mapping and location recognition of a surrounding environment by a mobile robot (SAM), and in particular, by using neural networks and evolutionary operations, mapping and location recognition of a surrounding environment are performed. The present invention relates to a method of environment mapping of a robot using a neural network and evolutionary computation.

종래의 로봇의 지도 작성 방법은 주로 확장 칼만 필터(Extended Kalman Filter : 이하 'EKF'라 한다.)를 이용하여 구현되어 왔다. EKF는 센서를 통해 입력되는 정보로부터 얻은 특징점들을 추적하여 로봇의 정확한 궤적과 그에 따른 특징점들의 정확한 위치를 결정하는 방법으로서 예측(Prediction) 단계와 관측(Measurement) 단계의 2가지 단계를 거쳐 정확한 로봇의 궤적과 특징점의 위치를 계산하게 된다. The conventional map mapping method of the robot has been mainly implemented using an Extended Kalman Filter (hereinafter, referred to as 'EKF'). EKF is a method to determine the exact trajectory of the robot and the exact location of the feature points by tracking the feature points obtained from the information input through the sensor. The trajectory and the position of the feature point are calculated.

예측단계는 로봇에 입력된 속도 명령을 이용하여 로봇의 현재 위치를 추정하 는 단계이다. 관측 단계는 예측된 로봇의 현재 위치에서 관측 할 수 있는 특징점의 위치를 계산하고 이를 센서를 통해 실제로 측정한 특징점의 위치와 비교하여 그 오차만큼 로봇의 현재위치와 특징점의 위치를 수정하는 단계이며, EKF를 통한 지도 작성 방식은 이와 같이 예측과 관측 단계를 반복함으로써 로봇의 정확한 궤적과 특징점의 위치를 추적하게 된다.The predicting step is a step of estimating the current position of the robot using a speed command input to the robot. The observation step is to calculate the position of the feature point that can be observed from the predicted current position of the robot, compare it with the position of the feature point actually measured by the sensor, and correct the current position of the robot and the position of the feature point by the error. The mapping method through EKF repeats the prediction and observation steps to track the exact trajectory of the robot and the location of the feature points.

그러나 EKF를 이용한 로봇의 지도 작성 방법은 그 구현에 있어 몇 가지 단점이 있다.  However, the mapping method of the robot using EKF has some disadvantages in its implementation.

첫째, EKF를 이용하여 로봇 지도 작성 기술을 구현하기 위해서는 로봇 시스템에서 발생하는 노이즈와 로봇에 사용한 센서에서 발생하는 노이즈에 대한 정확한 모델이 필요한데, 노이즈의 모델에 따라 EKF의 성능이 크게 차이가 난다. First, in order to implement the robot mapping technology using EKF, accurate model of noise generated from the robot system and noise generated from the sensor used in the robot is required. The performance of the EKF varies greatly according to the noise model.

둘째, EKF에서는 시스템과 센서에 적용되는 잡음을 가우시안 형태의 백색잡음으로 가정하는데, 실제 로봇 구동 시에는 가우시안 백색 잡음뿐 만 아니라 다른 형태의 잡음이 로봇 시스템에 영향을 줄 수 있고, 이런 경우에 있어 EKF를 이용한 지도 작성 기법의 성능은 크게 저하된다. Second, the EKF assumes that the noise applied to the system and the sensor is Gaussian-type white noise. In real robot operation, not only Gaussian white noise but also other types of noise can affect the robot system. The performance of mapping techniques using EKF is greatly degraded.

셋째, EKF는 일반적으로 특징점의 개수의 제곱에 비례하여 계산량이 늘어나기 때문에 특징점의 개수가 많은 공간에서는 처리시간이 길어지는 단점이 있다. Third, since EKF generally increases the amount of calculation in proportion to the square of the number of feature points, processing time is long in a space having a large number of feature points.

마지막으로 EKF기반의 지도 작성 방법은 관측 단계에서 예측된 현재위치에서 관측할 수 있는 특징점의 위치와 실제로 측정한 특징점의 위치를 비교하는 과정에서 예측한 특징점과 실제 관측된 특징점이 서로 같은 특징점인지를 확인하는 단계가 필요한데, 특징점들이 좁은 영역에 몰려 있거나, 로봇의 위치 오차가 큰 경우 이 단계에서도 지도 작성오차가 발생할 수 있는 문제가 있다.Finally, the EKF-based mapping method checks whether the predicted feature and the observed feature are the same feature in the process of comparing the position of the feature point that can be observed at the current position predicted at the observation stage with the position of the measured feature point. In this step, if the feature points are concentrated in a narrow area or the position error of the robot is large, there is a problem that a mapping error may occur at this step.

본 발명이 이루고자 하는 기술적 과제는 로봇이 주변 환경에 대한 지도 작성 및 위치 인식을 수행하는데 있어서 신경망을 이용하여 로봇의 궤적을 계산하고 진화연산을 이용하여 로봇의 자세 변화에 따라 발생하는 오차를 보정하여 정확한 지도 작성이 가능하게 하는 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법을 제공하는 데 있다.The technical problem to be achieved by the present invention is to calculate the trajectory of the robot using a neural network in the mapping and location recognition of the environment surrounding the robot and to correct the error caused by the change in the attitude of the robot using the evolution operation An object of the present invention is to provide an environmental mapping method of a robot using neural networks and evolutionary operations that enable accurate mapping.

본 발명에 따른 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법은 (a)신경망을 이용하여 상기 로봇의 궤적을 계산하는 단계(S110), (b)상기 계산된 궤적을 바탕으로 상기 로봇이 관측한 특징점들의 지도를 작성하는 단계(S120), (c)상기 작성된 지도를 평가하여 지도 작성을 종료할 것인지 판단하는 단계(S130) 및 (d) 상기 작성된 지도를 평가한 결과 소정의 기준을 만족하지 않는 경우 진화연산 기법을 사용하여 상기 신경망 내부의 노드들의 연결 상태를 조절하는 단계(S140);를 구비하고, 상기 (d) 단계 이후 상기 (a) 단계 내지 상기 (c)단계를 반복하는 것을 특징으로 한다.According to the present invention, a method for preparing an environment map of a robot using a neural network and an evolutionary operation includes: (a) calculating a trajectory of the robot using a neural network (S110), and (b) the robot observes the calculated trajectory based on the calculated trajectory. Steps of creating a map of one feature point (S120), (c) evaluating the created map to determine whether to finish the map (S130) and (d) evaluating the created map does not meet a predetermined criterion If not, the step of adjusting the connection state of the nodes in the neural network using an evolution calculation technique (S140); and after the step (d) and repeating the steps (a) to (c). It is done.

본 발명에 따른 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법에 의하면 로봇과 센서의 잡음 모델에 따라 신경망의 연결 강도를 최적으로 조절하여 지도를 작성하기 때문에 잡음 모델이 가우시안 기반의 백색 잡음이 아니더라도 정확한 지도를 작성할 수 있다는 장점이 있다.According to the method of environment mapping of a robot using neural networks and evolutionary operations according to the present invention, since the map is created by optimally adjusting the connection strength of neural networks according to the noise model of the robot and the sensor, even if the noise model is not Gaussian-based white noise, The advantage is that you can create an accurate map.

또한 예측한 특징점과 실제 관측된 특징점이 서로 같은 특징점인지를 확인하는 절차가 없더라도 정확한 지도를 얻을 수 있는 효과가 있다.In addition, even if there is no procedure for checking whether the predicted feature point and the observed feature point are the same feature points, an accurate map can be obtained.

이하 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있도록 본 발명의 가장 바람직한 실시예를 첨부 도면을 참조하여 설명하기로 한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings so that those skilled in the art may easily implement the technical idea of the present invention.

도 1은 본 발명에 따른 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법의 흐름을 나타내는 도면이고, 도 2는 도 1에 도시된 신경망을 이용하여 로봇의 궤적을 계산하는 단계의 구체적인 방법을 나타내는 도면이다.1 is a view showing a flow of a method for creating an environment map of a robot using neural networks and evolutionary operations according to the present invention, and FIG. 2 is a diagram illustrating a specific method of calculating a trajectory of a robot using the neural network shown in FIG. 1. Drawing.

도 1에 도시된 바와 같이 본 발명의 실시 예에 따른 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법은 신경망을 이용하여 로봇의 정확한 궤적을 계산하는 단계(S110), 상기 계산된 궤적을 바탕으로 로봇이 관측한 특징점들의 지도를 작성하는 단계(S120), 상기 작성된 지도를 평가하여 지도 작성을 종료할 것인지 판단하는 단계(S130) 및 작성된 지도를 평가한 결과 소정의 기준을 만족하지 않는 경우 진화연산 기법을 사용하여 상기 신경망 내부의 노드들의 연결 상태를 조절하는 단계(S140)를 구비한다.As shown in FIG. 1, the method for preparing an environment map of a robot using neural networks and evolutionary operations according to an embodiment of the present invention includes calculating an accurate trajectory of the robot using a neural network (S110), based on the calculated trajectory. Step (S120) of creating a map of the feature points observed by the robot, determining whether to finish the map by evaluating the created map (S130) and evaluation of the prepared map does not meet the predetermined criteria evolutionary calculation Adjusting the connection state of the nodes inside the neural network using the technique (S140).

신경망을 이용하여 로봇의 궤적을 계산하는 단계(S110)는 도 2에 상세히 도시되어 있다. 도 2는 도 1에 도시된 신경망을 이용하여 로봇의 궤적을 계산하는 단 계의 구체적인 방법을 나타내는 도면이다.Computing the trajectory of the robot using the neural network (S110) is shown in detail in FIG. 2. FIG. 2 is a diagram illustrating a specific method of calculating a robot trajectory using the neural network shown in FIG. 1.

도 2를 참조하면 로봇에 장착된 인코더 센서를 이용하여 계산한 로봇의 현재 위치 정보와 바로 이전 시점에서 계산한 위치 정보의 차를 통해 얻은 로봇의 자세 변화 값과, 이전 시점에서 관측한 특징점의 위치와, 현재 시점에서 같은 특징점을 관측했을 때의 위치가 신경망에 입력된다(S210). Referring to FIG. 2, the posture change value of the robot obtained by the difference between the current position information of the robot calculated using the encoder sensor mounted on the robot and the position information calculated at the previous time point, and the position of the feature point observed at the previous time point. And the position when the same feature point is observed at the present time is input to the neural network (S210).

신경망은 이를 토대로 로봇의 자세 변화에 대한 오차를 예측하여 출력하고 이를 이용하여 현재 위치와 이전 위치 정보의 차를 통해 구한 로봇의 자세 변화 값을 수정한다(S220). Based on this, the neural network predicts and outputs an error of the posture change of the robot, and uses this to modify the posture change value of the robot obtained through the difference between the current position and the previous position information (S220).

이어서 상기 로봇의 이전 위치에 수정된 자세 변화 값을 더하여 오차가 보정된 현재 위치를 계산하며(S230), 상기의 과정을 통해서 오차가 보정된 로봇의 궤적을 계산한다(S240).Subsequently, the corrected posture change value is added to the previous position of the robot to calculate the current position where the error is corrected (S230), and the trajectory of the robot whose error is corrected through the above process is calculated (S240).

상기 계산된 궤적을 바탕으로 로봇이 관측한 특징점들의 지도를 작성하는 단계(S120)에서는 로봇의 위치를 계산하는 시점에서 관측된 특징점들을 로봇의 궤적을 중심으로 표시를 하여 지도를 작성한다. 이때 하나의 특징점을 여러 위치에서 관측할 수 있기 때문에 각 특징점들의 위치가 중복되어 표시될 수 있다. In the step S120 of creating a map of the feature points observed by the robot based on the calculated trajectory, the feature points observed at the time of calculating the position of the robot are displayed based on the trajectory of the robot. In this case, since one feature point may be observed at various positions, the positions of the feature points may overlap each other.

로봇 시스템과 센서 시스템에 잡음이 존재하지 않는다면 상기 특징점들은 거의 동일한 위치에 표시된다. 그러나 실제 로봇 시스템 또는 센서 시스템에는 잡음이 존재하고, 따라서 상기 특징점들은 어느 정도 흩어져서 분포된다.If no noise is present in the robotic system and the sensor system, the feature points are displayed at approximately the same location. However, there is noise in a real robotic system or sensor system, so the feature points are scattered to some extent.

도 3은 환경지도 작성을 위한 실험 공간의 모습을 나타내는 도면이다3 is a view showing a state of an experiment space for creating an environment map.

도 3에 도시된 바와 같이 설정된 실험 공간을 로봇이 주행하면서 공간 내부 에 분포되어 있는 검은 점(특징점)들을 센서로 관측하여 표시를 하는 경우, 로봇 시스템에 잡음이 없다면, 즉 로봇의 궤적이 정확하다면 중복 표시된 특징점들의 분산은 센서가 가지고 있는 잡음 모델의 분산에 따라 결정된다.3, when the robot moves in the experiment space set as shown in FIG. 3, and displays black dots (feature points) distributed in the space with a sensor, if there is no noise in the robot system, that is, if the trajectory of the robot is correct The variance of overlapping feature points is determined by the variance of the noise model of the sensor.

도 4는 센서 시스템에만 잡음이 존재하는 경우 전체 로봇의 궤적에 따른 특징점들의 분포 모습을 나타내는 도면이고, 도 5는 로봇 시스템과 센서 시스템에 모두 잡음이 존재하는 경우 로봇 궤적에 따른 특징점들의 분포 모습을 나타내는 도면이다. 4 is a diagram illustrating the distribution of feature points according to the trajectory of the entire robot when noise exists only in the sensor system, and FIG. 5 is a diagram illustrating the distribution of feature points according to the robot trajectory when noise exists in both the robot system and the sensor system. It is a figure which shows.

도 4의 왼쪽 그림은 시스템 잡음이 없는 로봇이 도 3에서 설정된 실험 공간을 시계방향으로 주행했을 때의 궤적과 주행하는 동안 관측한 특징점들의 위치를 표시한 것이다. 이 경우 로봇의 시스템 잡음이 없기 때문에 특징점들은 센서 시스템의 잡음만 더해져서 그 위치가 측정되고, 따라서 도 4의 왼쪽 그림에서 보는 바와 같이 관측된 특징점들이 분포하게 된다. The left figure of FIG. 4 shows the trajectory when the robot without system noise travels clockwise in the experiment space set in FIG. 3 and the positions of the feature points observed while driving. In this case, since there is no system noise of the robot, the feature points are measured by adding only the noise of the sensor system, and thus the observed feature points are distributed as shown in the left figure of FIG.

도 4의 오른쪽 그림은 도4의 왼쪽 그림에서 특정한 특징점 하나를 확대하여 표시한 것으로서, 로봇의 위치가 x(t), x(t+1), x(t+2), 그리고 x(t+3)일 때 동일한 특징점을 관측하더라도 센서 시스템의 잡음으로 인해서 관측된 특징점의 위치는 같은 지점에 표시되지 않고 s(t), s(t+1), s(t+2), 그리고 s(t+3)의 지점에 표시된다. 이 때, 센서가 가지고 있는 잡음 모델의 분산 정도에 따라서 s(t) ~ s(t+3)의 분포가 결정된다.The right figure of FIG. 4 is an enlarged view of one specific feature point in the left figure of FIG. 4, and the positions of the robot are x (t), x (t + 1), x (t + 2), and x (t +. Even when the same feature point is observed, the position of the observed feature point due to the noise of the sensor system is not displayed at the same point, but s (t), s (t + 1), s (t + 2), and s (t At the point of +3). At this time, the distribution of s (t) to s (t + 3) is determined according to the dispersion degree of the noise model possessed by the sensor.

반면에 도 3의 공간을 로봇 시스템과 센서 시스템에 모두 잡음이 더해진 로봇이 주행을 하면, 즉 로봇의 궤적이 정확하지 않다면, 관측된 특징점들의 위치는 센서 시스템의 잡음에 로봇 시스템의 잡음까지 더해져서 계산되어 도 5의 왼쪽 그림에서 보는 것과 같이 분포하게 될 것이다. On the other hand, if the robot of which the noise is added to both the robot system and the sensor system is driven in the space of FIG. 3, that is, the locus of the robot is not correct, the position of the observed feature points is added to the noise of the sensor system to the noise of the robot system. It will be calculated and distributed as shown in the left figure of FIG.

도 5의 오른쪽 그림은 마찬가지로 도 5의 왼쪽 그림에서의 특징점 하나를 확대 표시한 것으로서, 실제로는 로봇이 x(t) ~ x(t+3)의 위치를 따라 이동하지만, 로봇 시스템의 잡음으로 인해서 로봇의 궤적은 x'(t) ~ x'(t+3)으로 계산될 때, 관측된 특징점들의 위치는 s(t) ~ s(t+3)의 지점에 표시되고, s(t) ~ s(t+3)의 분포는 로봇 시스템이 가지고 있는 잡음 모델과 센서가 가지고 있는 잡음 모델이 더해져서 결정이 된다. The right figure of FIG. 5 is an enlarged view of one feature point in the left figure of FIG. 5, but the robot actually moves along the positions of x (t) to x (t + 3), but due to the noise of the robot system. When the trajectory of the robot is calculated from x '(t) to x' (t + 3), the positions of the observed feature points are displayed at the points s (t) to s (t + 3), and s (t) to The distribution of s (t + 3) is determined by adding the noise model of the robot system and the noise model of the sensor.

따라서 관측된 특징점들의 위치에 대한 분산을 통해서 신경망을 이용하여 로봇의 궤적을 계산하는 단계(S110)에서 계산된 로봇의 궤적을 평가할 수 있다. 다시 말해서 관측된 특징점들의 분산이 작으면 작을수록 신경망을 이용하여 로봇의 궤적을 계산하는 단계(S110)에서 계산된 로봇의 궤적이 정확하게 된다. Therefore, the calculated trajectory of the robot can be evaluated in step S110 of calculating the trajectory of the robot using a neural network through variance of the observed feature points. In other words, the smaller the variance of the observed feature points, the more accurate the trajectory of the robot calculated in step S110 of calculating the trajectory of the robot using a neural network.

상기 계산된 궤적을 바탕으로 로봇이 관측한 특징점들의 지도를 작성하는 단계(S120)에서 만들어진 특징점 지도에서 특징점들을 그 위치에 따라 서로 가까운 곳에 위치한 특징점들 끼리 클러스터링(clustering)을 하게 되는데, 각 특징점의 클러스터(cluster)들의 분산 및 각 클러스터들의 분산의 총합은 다음의 식(1) 내지 식(3)을 통해 계산할 수 있다.Based on the calculated trajectories, clustering of the feature points located near each other according to the position of the feature points in the feature point map created in step S120 of creating the map of the feature points observed by the robot, The sum of the variance of clusters and the variance of each cluster can be calculated through the following equations (1) to (3).

Figure 112008065317442-pat00001
식(1)
Figure 112008065317442-pat00001
Formula (1)

Figure 112008065317442-pat00002
식(2)
Figure 112008065317442-pat00002
Equation (2)

Figure 112008065317442-pat00003
식(3)
Figure 112008065317442-pat00003
Equation (3)

각 클러스터의 분산을 계산하기 위한 식(1)과 식(2)를 살펴보면, 임의의 i번째 클러스터에 대하여 해당 클러스터가 M i 개의 특징점들을 가지고 있고, i번째 클러스터 내의 j번째 특징점의 위치가

Figure 112008065317442-pat00004
로 표시되며, 이들 특징점들의 위치에 대한 평균이
Figure 112008065317442-pat00005
와 같이 표시될 때, i번째 클러스터의 특징점들의 x좌표에 대한 분산은 상기 식(1)과 같이 계산되고, y좌표에 대한 분산은 상기 식(2)와 같이 계산된다. Referring to formula (1) and (2) for calculating the distribution of each cluster, the cluster with respect to an arbitrary i-th cluster, and has a M i of the feature points, the position of the j-th feature point in the i th cluster
Figure 112008065317442-pat00004
, The mean of the location of these feature points
Figure 112008065317442-pat00005
When expressed as, the variance of the feature points of the i th cluster with respect to the x coordinate is calculated as in Equation (1), and the variance with respect to the y coordinate is calculated as in Equation (2).

또한 이러한 클러스터가 N개 존재할 경우 각 클러스터들의 분산의 총합은 상기 식(3)과 같이 계산된다. 이때 로봇의 궤적이 정확하면 할수록 각 특징점들은 하나의 점에 수렴하고, 따라서 식(3)을 통해 계산된 클러스터들의 분산의 총합이 작아지게 된다.In addition, when there are N such clusters, the sum of the variances of the clusters is calculated as in Equation (3). At this time, the more accurate the trajectory of the robot is, the more the feature points converge on a single point, and thus, the sum of the variances of the clusters calculated by Equation (3) becomes smaller.

상기 작성된 지도를 평가하여 지도 작성을 종료할 것인지 판단하는 단계(S130)에서는 각 클러스터들의 분산의 총합을 소정의 기준 값과 비교하여 지도작성을 종료할 것인지, 보다 정확한 로봇의 궤적을 계산할 것인지를 판단한다.In step S130 of evaluating the created map to determine whether to finish the map, it is determined whether to finish the map by comparing the total sum of the variances of the clusters with a predetermined reference value or to calculate the trajectory of the robot more accurately. do.

상기 작성된 지도를 평가한 결과에 따라 신경망 내부의 노드들의 연결 상태를 조절하는 단계(S140)에서는 각 클러스터들의 분산의 총합이 소정의 기준 값보다 큰 경우 신경망이 출력하는 자세 변화 오차 값의 정확도가 높아지도록 신경망 내부 의 노드들 사이의 연결 강도를 조절하기 위해 진화 연산 기법을 사용한다.In the step S140 of adjusting the connection state of the nodes in the neural network according to the result of evaluating the prepared map, the accuracy of the posture change error value that the neural network outputs is increased when the sum of the variance of each cluster is larger than a predetermined reference value. We use evolutionary computation techniques to control the strength of connections between nodes in neural networks.

진화 연산(evolutionary computation) 기법은 유리한 형질을 가진 개체들이 더 많이 생존하게 되고, 이들 개체들이 자손을 낳아 개체의 수를 늘려가는 과정에서 더 좋은 형질로의 진화가 이루어지는 유전 법칙에서 영감을 얻어 개발된 기술로서 주로 전산학 분야에서 조합 최적화 문제를 푸는데 이용된다. 본 발명에서는 로봇의 자세 변화 오차를 계산하는 신경망의 최적화에 사용된다.  Evolutionary computation techniques are inspired by genetic laws that allow more individuals with favorable traits to survive, and that they evolve into better traits as they produce offspring and increase the number of individuals. As a technique, it is mainly used to solve combinatorial optimization problems in the field of computer science. In the present invention, it is used for the optimization of the neural network for calculating the change in the attitude of the robot.

본 발명에 사용된 진화연산 기법은 도 6에서 나타난 절차에 따라 신경망의 최적화 문제를 푸는데 적용된다.  The evolutionary computation technique used in the present invention is applied to solve the neural network optimization problem according to the procedure shown in FIG.

도 6은 진화 연산 기법을 이용하여 신경망 내부의 노드들 사이의 연결 강도를 조절하는 절차의 흐름을 나타내는 도면이고, 도 7은 본 발명에 따른 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법에 사용된 신경망의 구조를 나타내는 도면이며, 도 8은 신경망을 진화 연산에 적합한 염색체(chromosome)의 형태로 변환시킨 것을 나타내는 도면이다.6 is a view showing a flow of a procedure for adjusting the strength of connections between nodes in a neural network using an evolutionary computation technique, and FIG. 7 is used in a method for preparing an environment map of a robot using neural networks and evolutionary computations according to the present invention. It is a figure which shows the structure of the neural network, and FIG. 8 is a figure which shows that the neural network was converted into the form of the chromosome suitable for evolutionary calculation.

도 7의 신경망은 7개의 입력 노드로 구성된 입력층과 다수의 은닉 노드로 구성된 은닉층 그리고 3개의 출력 노드로 구성된 출력층을 갖는 신경망으로서 입력층을 구성하는 7개의 입력 노드는 식(4)와 같이 벡터 형태로 표시된다.The neural network of FIG. 7 is a neural network having an input layer composed of seven input nodes, a hidden layer composed of a plurality of hidden nodes, and an output layer composed of three output nodes. The seven input nodes constituting the input layer are a vector as shown in Equation (4). In the form of:

Figure 112008065317442-pat00006
식(4)
Figure 112008065317442-pat00006
Formula (4)

식(4)에 나타난 신경망의 입력 벡터 x in 은 로봇이 x(t-1) 지점에서 x(t) 지점으로 이동했을 때, 로봇의 위치의 변화량 (dx, dy, dq )과 x(t-1)지점에서 관측 한 특징점의 위치 (

Figure 112008065317442-pat00007
)와 같은 특징점을 x(t)지점에서 관측했을 때의 위치 (
Figure 112008065317442-pat00008
)로 이루어진다. The input vector x in of the neural network shown in Equation (4) is the amount of change of the robot's position ( dx , dy , dq ) and x (t- when the robot moves from x (t-1) to x (t). 1) the position of the feature point observed from the point (
Figure 112008065317442-pat00007
The position when the feature point such as) is observed at the x (t)
Figure 112008065317442-pat00008
)

이렇게 구성된 입력 벡터는 입력층과 은닉층을 잇는 연결에 대한 연결 강도 값이 곱해져서 은닉층에 대한 입력벡터 u를 구성한다. 입력 노드의 수가 n개, 은닉 노드의 수가 m개인 경우 식(5)를 이용하여 신경망의 은닉층에 대한 입력 벡터를 계산할 수 있다The input vector configured as described above is multiplied by the connection strength value for the connection between the input layer and the hidden layer to form the input vector u for the hidden layer. If the number of input nodes is n and the number of hidden nodes is m, the input vector for the hidden layer of the neural network can be calculated using Equation (5).

Figure 112008065317442-pat00009
식(5)
Figure 112008065317442-pat00009
Formula (5)

식(5)에서

Figure 112008065317442-pat00010
는 신경망의 입력층과 은닉층을 잇는 연결에 대한 연결 강도 값들로 이루어진 행렬로서,
Figure 112008065317442-pat00011
은 입력층과 은닉층을 잇는 연결 강도들 중, n번째 입력 노드와 m번째 출력 노드를 잇는 연결에 대한 연결 강도를 나타낸다.In equation (5)
Figure 112008065317442-pat00010
Is a matrix of connection strength values for the connection between the input and hidden layers of the neural network.
Figure 112008065317442-pat00011
Represents the connection strength of the connection between the nth input node and the mth output node among the connection strengths connecting the input layer and the hidden layer.

은닉층에 대한 출력 벡터 h는 식(5)를 통해 계산된 은닉층에 대한 입력 벡터 u를 실행함수(activation function) σ에 입력했을 때의 출력으로서 식(6)과 같이 계산된다.The output vector h for the hidden layer is calculated as in Eq. (6) as an output when the input vector u for the hidden layer, which is calculated through Eq. (5), is input to the activation function σ.

Figure 112008065317442-pat00012
식(6)
Figure 112008065317442-pat00012
Formula (6)

식(6)에서 a는 상수로서 본 발명에서는 a=1 로 설정을 하였다. In Formula (6), a is a constant and is set to a = 1 in the present invention.

은닉층 출력 벡터 h는 은닉층과 출력층을 잇는 연결에 대한 연결 강도가 식(7)과 같이 곱해져서 출력층 입력 벡터 o가 계산되고, 출력층 입력 벡터 o를 출력층의 실행 함수 σ에 입력하면 최종적으로 로봇이 x(t-1) 지점에서 x(t) 지점으로 이동했을 때 발생한 로봇의 위치 오차를 나타내는 신경망 출력 벡터 e가 계산된다.The hidden layer output vector h is obtained by multiplying the connection strength of the connection between the hidden layer and the output layer as shown in Equation (7), and calculating the output layer input vector o and inputting the output layer input vector o to the execution function σ of the output layer. The neural network output vector e representing the positional error of the robot generated when moving from the point (t-1) to the point x (t) is calculated.

Figure 112008065317442-pat00013
식(7)
Figure 112008065317442-pat00013
Formula (7)

식(7)에서 s는 은닉층 노드의 개수, r은 출력층 노드의 개수,

Figure 112008065317442-pat00014
는 은닉층과 출력층을 잇는 연결 강도들 중 s번째 노드와 r번째 노드를 잇는 연결 강도를 나타낸다. In equation (7), s is the number of hidden layer nodes, r is the number of output layer nodes,
Figure 112008065317442-pat00014
Denotes the connection strength between the sth node and the rth node among the connection strengths between the hidden layer and the output layer.

신경망의 출력 벡터 e는 아래 식(8)과 같이 계산된다The output vector e of the neural network is calculated as shown in Equation (8) below.

Figure 112008065317442-pat00015
식(8)
Figure 112008065317442-pat00015
Formula (8)

식(8)에서 실행함수 σ는 식(6)에서 사용한 것과 같다.The execution function σ in Eq. (8) is the same as that used in Eq. (6).

이와 같은 절차를 통해서 신경망은 입력 벡터 x가 주어졌을 때 출력 벡터 e를 계산하고, 출력 벡터 e는 로봇의 위치 오차를 나타내는 값으로서 로봇이 x(t-1)에서 x(t)로 이동할 때 발생하는 오차를 보정하는 역할을 한다.Through this procedure, the neural network calculates the output vector e when the input vector x is given, and the output vector e is a value representing the position error of the robot. It occurs when the robot moves from x (t-1) to x (t). It serves to correct the error.

도 6에 도시된 바와 같이 본 발명에 사용된 진화연산 기법은 초기화단 계(S610), 돌연변이단계(S620), 평가단계(S630), 선택단계(S640) 및 정지조건 판단단계(S650)를 구비하며, 이를 통해서 신경망을 이루는 입력층, 은닉층, 출력층 들을 잇는 연결의 연결 강도들의 값을 결정한다.As shown in FIG. 6, the evolutionary computation technique used in the present invention includes an initialization step (S610), a mutation step (S620), an evaluation step (S630), a selection step (S640), and a stop condition determination step (S650). This determines the values of the connection strengths of the connections between the input, hidden and output layers that make up the neural network.

초기화(initialize) 단계(S610)에서는 우선 도 7에 도시된 바와 같은 신경망의 노드를 잇는 연결 강도 값들을 도 8과 같이 하나의 배열로 만들고, 이러한 배열을 N개 생성한다. 도 8에 도시된 것과 같은 배열을 진화 연산 기법에서는 염색체(chromosome) 라고 부른다.In the initializing step (S610), first, the connection strength values connecting the nodes of the neural network as shown in FIG. 7 are formed into one array as shown in FIG. 8, and N such arrays are generated. An arrangement such as that shown in FIG. 8 is called a chromosome in evolutionary computational techniques.

돌연변이(mutation)단계(S620)에서는 상기 N개의 염색체(chromosome)들 각각에 대하여 돌연변이(mutation)를 통해 또 다른 N개의 염색체(chromosome)을 생성한다.The mutation (mutation) step (S620) and generates a further N chromosomes (chromosome) through the mutation (mutation) with respect to the N chromosomes (chromosome), respectively.

평가(evaluation)단계(S630)에서는 초기화단계(S610)와 돌연변이단계(S620)를 통해 만든 2N개의 염색체(chromosome)들 각각을 도 7의 신경망에 적용하고 로봇의 궤적을 계산하여 앞서 설명한 바와 같이 특징점 들을 클러스터링 했을 때, 각 클러스터들의 분산의 총합을 계산한다.In the evaluation step (S630), each of the 2 N chromosomes made through the initialization step (S610) and the mutation step (S620) is applied to the neural network of FIG. 7, and the locus of the robot is calculated as described above. When clustering feature points, calculate the sum of the variance of each cluster.

선택(selection)단계(S640)에서는 상기 2N개의 염색체(chromosome)들 중에서 클러스터들의 분산의 총합이 작은 N개의 염색체(chromosome)을 선택한다.Selection (selection) step (S640) selects the said 2 N chromosomes (chromosome) of the smaller among the total of the distribution of the cluster N chromosomes (chromosome).

정지조건 판단단계(S650)에서는 선택(selection)단계(S640)에서 선택된 염색체(chromosome) 중에서, 분산의 총합의 크기가 가장 작은 값이 미리 정해둔 정지조건을 만족하는지 여부를 판단한다.In the stop condition determination step S650, it is determined whether a value having the smallest sum of variances among the chromosomes selected in the selection step S640 satisfies a predetermined stop condition.

분산의 총합의 크기가 가장 작은 값이 미리 정해둔 정지조건을 만족하는 경 우, 해당 염색체(chromosome)를 도 7의 신경망에 적용했을 때 얻은 로봇의 궤적과 특징점을 최종적인 로봇의 지도로서 출력하고 절차를 종료하게 된다.When the smallest value of the sum of variances satisfies the predetermined stop condition, the locus and feature points of the robot obtained when the chromosome is applied to the neural network of FIG. 7 are output as a map of the final robot. The procedure ends.

그러나 분산의 총합의 크기가 가장 작은 값이 미리 정해둔 정지조건을 만족하지 않을 경우에는 분산의 총합이 미리 정해둔 정지조건을 만족할 때까지 선택된 N개의 염색체(chromosome)에 대하여 돌연변이단계(S620), 평가단계(S630) 및 선택단계(S640)를 반복하게 된다. However, if the smallest value of the sum of the variances does not satisfy the predetermined stop condition, mutation step (S620), for the selected N chromosomes until the sum of the variances meets the predetermined stop condition, The evaluation step S630 and the selection step S640 are repeated.

상기 살펴본 바와 같이 본 발명에서는 EKF기반의 지도 작성 기술이 가지는 단점을 해결하기 위해 로봇 지도 작성에 적합하도록 신경망의 구조를 설계하고 로봇의 위치 정보와 센서를 통한 특징점의 관측 정보가 입력되면 오차가 보정된 로봇의 위치 정보가 출력되도록 전체 시스템을 구현하였다. 또한 진화연산 기법을 이용하여 로봇이 움직인 거리에 따라 발생하는 위치 오차를 신경망을 통해 얻을 수 있도록 신경망 내부 노드들 사이의 연결 강도의 크기를 조절함으로써 보다 정확한 지도 작성이 가능하도록 하였다.As described above, in the present invention, in order to solve the disadvantage of the EKF-based mapping technology, the structure of the neural network is designed to be suitable for the mapping of the robot, and the error is corrected when the position information of the robot and the observation information of the feature point through the sensor are input. The entire system was implemented to output the location information of the robot. In addition, the evolutionary computation technique enables more accurate mapping by adjusting the size of the connection strength between nodes inside the neural network so that the position error generated by the distance of the robot can be obtained through the neural network.

또한 본 발명에 따른 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법은 안내 및 배달 서비스 로봇에 적용되어 로봇의 이동을 위한 경로 계획 및 위치 인식에 필요한 실내 환경 지도를 작성하는데 이용될 수 있으며, 청소로봇에 적용되어 로봇이 청소할 공간에 대한 실내 지형 지도를 작성하는 데에도 유용하게 이용될 수 있다.In addition, the environment map preparation method of the robot using the neural network and the evolutionary operation according to the present invention can be applied to the guidance and delivery service robot can be used to create the indoor environment map for the path planning and location recognition for the movement of the robot, cleaning Applied to the robot can also be useful for creating an indoor topographic map of the space to be cleaned by the robot.

이상에서는 본 발명에 대한 기술사상을 첨부 도면과 함께 서술하였지만 이는 본 발명의 바람직한 실시 예를 예시적으로 설명한 것이지 본 발명을 한정하는 것은 아니다. 또한 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 이라면 누구나 본 발명의 기술적 사상의 범주를 이탈하지 않는 범위 내에서 다양한 변형 및 모방이 가능함은 명백한 사실이다. In the above description, the technical idea of the present invention has been described with the accompanying drawings, which illustrate exemplary embodiments of the present invention by way of example and do not limit the present invention. It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the scope of the present invention.

도 1은 본 발명에 따른 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법의 흐름을 나타내는 도면이다.1 is a view showing the flow of the environment mapping method of the robot using the neural network and the evolution operation according to the present invention.

도 2는 도 1에 도시된 신경망을 이용하여 로봇의 궤적을 계산하는 단계의 구 체적인 방법을 나타내는 도면이다.FIG. 2 is a diagram illustrating a specific method of calculating a trajectory of a robot using the neural network shown in FIG. 1.

도 3은 환경지도 작성을 위한 실험 공간의 모습을 나타내는 도면이다3 is a view showing a state of an experiment space for creating an environment map.

도 4는 센서 시스템에만 잡음이 존재하는 경우 전체 로봇의 궤적에 따른 특징점들의 분포 모습을 나타내는 도면이다.4 is a diagram illustrating a distribution of feature points according to the trajectory of the entire robot when noise is present only in the sensor system.

도 5는 로봇 시스템과 센서 시스템에 모두 잡음이 존재하는 경우 로봇 궤적에 따른 특징점들의 분포 모습을 나타내는 도면이다.5 is a diagram illustrating a distribution of feature points according to a robot trajectory when noise exists in both the robot system and the sensor system.

도 6은 진화 연산 기법을 이용하여 신경망 내부의 노드들 사이의 연결 강도를 조절하는 절차의 흐름을 나타내는 도면이다.6 is a diagram illustrating a flow of a procedure for adjusting connection strength between nodes in a neural network using an evolutionary computation technique.

도 7은 본 발명에 따른 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법에 사용된 신경망의 구조를 나타내는 도면이다.7 is a diagram illustrating the structure of a neural network used in a method for preparing an environment map of a robot using neural networks and evolutionary operations according to the present invention.

도 8은 신경망을 진화 연산에 적합한 염색체의 형태로 변환시킨 것을 나타내는 도면이다8 is a diagram showing that the neural network is converted into the form of a chromosome suitable for evolutionary computation.

Claims (6)

삭제delete 로봇의 환경 지도 작성 방법에 있어서,In the environmental mapping method of the robot, (a)신경망을 이용하여 상기 로봇의 궤적을 계산하는 단계;(a) calculating a trajectory of the robot using a neural network; (b)상기 계산된 궤적을 바탕으로 상기 로봇이 관측한 특징점들의 지도를 작성하는 단계;(b) preparing a map of feature points observed by the robot based on the calculated trajectory; (c)상기 작성된 지도를 평가하여 지도 작성을 종료할 것인지 판단하는 단계; 및(c) evaluating the created map to determine whether to finish creating the map; And (d) 상기 작성된 지도를 평가한 결과 소정의 기준을 만족하지 않는 경우 진화연산 기법을 사용하여 상기 신경망 내부의 노드들의 연결 상태를 조절하는 단계;를 구비하고,(d) adjusting a connection state of nodes in the neural network by using an evolutionary calculation method when the result of evaluating the created map does not satisfy a predetermined criterion; 상기 (d) 단계 이후 상기 (a) 단계 내지 상기 (c)단계를 반복하되,After the step (d), repeat the steps (a) to (c), 상기 (a)단계는 Step (a) is (a1) 상기 로봇에 장착된 인코더 센서로부터 계산된 상기 로봇의 현재 위치 정보와 바로 이전 시점의 위치 정보의 차를 이용하여 얻은 로봇의 자세 변화값과, 현재 시점에서의 특징점의 위치와, 바로 이전 시점에서의 특징점의 위치를 상기 신경망에 입력하는 단계;(a1) the posture change value of the robot obtained by using the difference between the current position information of the robot and the position information of the previous time point calculated from the encoder sensor mounted on the robot, the position of the feature point at the current time point, and immediately before Inputting a position of a feature point at a viewpoint to the neural network; (a2) 상기 신경망에서 로봇의 자세 변화에 대한 오차를 출력하고 상기 로봇의 자세 변화에 대한 오차를 이용하여 현재 위치 정보와 이전 위치 정보의 차를 통해 상기 로봇의 자세 변화 값을 수정하는 단계;(a2) outputting an error of the posture change of the robot in the neural network and correcting the posture change value of the robot through a difference between the current position information and the previous position information by using the error of the posture change of the robot; (a3) 상기 로봇의 이전 위치에 상기 수정된 자세 변화 값을 더하여 오차가 보정된 현재 위치를 계산하는 단계; 및 (a3) calculating a current position where the error is corrected by adding the corrected posture change value to a previous position of the robot; And (a4) 오차가 보정된 로봇의 궤적을 계산하는 단계를 구비하는 것을 특징으로 하는 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법.(a4) A method for creating an environment map of a robot using neural networks and evolutionary operations, comprising calculating a trajectory of an error-corrected robot. 제2항에 있어서, 상기 (d)단계는The method of claim 2, wherein step (d) (d1) 상기 신경망의 노드를 잇는 연결 강도 값을 하나의 배열로 만든 염색체를 N개 생성하고 이를 초기화 하는 단계;(d1) generating and initializing N chromosomes in one array of connection strength values connecting the nodes of the neural network; (d2) 상기 N개의 염색체로부터 돌연변이를 통해 자손을 생성하여 2N개의 염색체를 생성하는 단계;(d2) generating progeny from the N chromosomes through mutations to generate 2N chromosomes; (d3) 상기 2N개의 염색체를 상기 신경망에 적용하여 상기 로봇의 궤적을 계산하고 특징점에 대한 클러스터들의 분산의 총합을 계산하여 평가하는 단계;(d3) calculating the trajectory of the robot by applying the 2N chromosomes to the neural network, and calculating and evaluating a total sum of variances of clusters of feature points; (d4) 상기 계산된 분산의 총합의 결과에 따라 상기 2N개의 염색체 중 새로운 N개의 염색체를 선택하는 단계; 및(d4) selecting new N chromosomes among the 2N chromosomes according to the result of the sum of the calculated variances; And (d5) 상기 선택된 N개의 염색체 중 상기 클러스터들의 분산의 총합이 가장 작은 값이 소정의 정지조건을 만족하는지 여부를 판단하는 단계;를 구비하는 것을 특징으로 하는 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법.(d5) determining whether the smallest sum of the variance of the clusters among the selected N chromosomes satisfies a predetermined stop condition; and an environment map of the robot using neural networks and evolutionary operations How to write. 제3항에 있어서, 상기 (d4)단계는The method of claim 3, wherein step (d4) 상기 2N개의 염색체 중 상기 클러스터들의 분산의 총합이 작은 N개의 염색체를 선택하는 단계인 것을 특징으로 하는 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법.A method for generating an environmental map of a robot using neural networks and evolutionary operations, characterized in that selecting the N chromosomes having a small sum of variance of the clusters among the 2N chromosomes. 제4항에 있어서, 상기 (d5)단계는The method of claim 4, wherein step (d5) 상기 정지조건을 만족하는 경우 상기 클러스터들의 분산의 총합이 가장 작은 염색체를 상기 신경망에 적용하여 얻은 로봇의 궤적과 특징점을 최종적인 로봇의 지도로서 출력하는 단계를 더 구비하는 것을 특징으로 하는 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법.And a step of outputting the locus and feature points of the robot obtained by applying the chromosome having the smallest sum of the variances of the clusters to the neural network as the final map of the robot when the stopping condition is satisfied. How to create environment map of robot using arithmetic. 제4항에 있어서, 상기 (d5)단계는The method of claim 4, wherein step (d5) 상기 정지조건을 만족하지 않는 경우 상기 정지조건을 만족할 때 까지 상기 (d2)단계 내지 상기 (d4)단계를 반복하는 단계를 더 구비하는 것을 특징으로 하는 신경망과 진화연산을 이용한 로봇의 환경 지도 작성 방법.If the stop condition is not satisfied, further comprising repeating the steps (d2) to (d4) until the stop condition is satisfied neural network and evolutionary operation of the environment map preparation method of the robot .
KR1020080090923A 2008-09-17 2008-09-17 mapping method for circumstances of robot using a nerve network and evolutionary computation KR101022785B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080090923A KR101022785B1 (en) 2008-09-17 2008-09-17 mapping method for circumstances of robot using a nerve network and evolutionary computation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080090923A KR101022785B1 (en) 2008-09-17 2008-09-17 mapping method for circumstances of robot using a nerve network and evolutionary computation

Publications (2)

Publication Number Publication Date
KR20100031992A KR20100031992A (en) 2010-03-25
KR101022785B1 true KR101022785B1 (en) 2011-03-17

Family

ID=42181343

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080090923A KR101022785B1 (en) 2008-09-17 2008-09-17 mapping method for circumstances of robot using a nerve network and evolutionary computation

Country Status (1)

Country Link
KR (1) KR101022785B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104765929A (en) * 2015-04-17 2015-07-08 浙江工业大学 Nonlinear state decoupling observation method based on multi-time scale recurrent neural network

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107053168A (en) * 2016-12-09 2017-08-18 南京理工大学 A kind of target identification method and hot line robot based on deep learning network
CN109978243A (en) * 2019-03-12 2019-07-05 北京百度网讯科技有限公司 Track of vehicle planing method, device, computer equipment, computer storage medium
EP3745310A1 (en) * 2019-05-28 2020-12-02 Robert Bosch GmbH Method for calibrating a multi-sensor system using an artificial neural network
CN114161421B (en) * 2021-12-14 2024-01-19 深圳市优必选科技股份有限公司 Motion terrain determination method, device, robot and readable storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002048513A (en) * 2000-05-26 2002-02-15 Honda Motor Co Ltd Position detector, method of detecting position, and program for detecting position
KR20070099330A (en) * 2006-04-04 2007-10-09 삼성전자주식회사 Robot and method for localization of the robot using calculated covariance
KR20070120780A (en) * 2006-06-20 2007-12-26 삼성전자주식회사 Method of building gridmap in mobile robot and method of cell decomposition using it
JP2008040731A (en) * 2006-08-04 2008-02-21 Matsushita Electric Ind Co Ltd Cooling/heating system and vending machine using it

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002048513A (en) * 2000-05-26 2002-02-15 Honda Motor Co Ltd Position detector, method of detecting position, and program for detecting position
KR20070099330A (en) * 2006-04-04 2007-10-09 삼성전자주식회사 Robot and method for localization of the robot using calculated covariance
KR20070120780A (en) * 2006-06-20 2007-12-26 삼성전자주식회사 Method of building gridmap in mobile robot and method of cell decomposition using it
JP2008040731A (en) * 2006-08-04 2008-02-21 Matsushita Electric Ind Co Ltd Cooling/heating system and vending machine using it

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문.2004.07.31*

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104765929A (en) * 2015-04-17 2015-07-08 浙江工业大学 Nonlinear state decoupling observation method based on multi-time scale recurrent neural network
CN104765929B (en) * 2015-04-17 2017-08-11 浙江工业大学 A kind of nonlinear state decoupling observation procedure based on Multiple Time Scales recurrent neural network

Also Published As

Publication number Publication date
KR20100031992A (en) 2010-03-25

Similar Documents

Publication Publication Date Title
CN111008999B (en) Method for tracking object using CNN including tracking network and apparatus using the same
KR100601960B1 (en) Simultaneous localization and map building method for robot
Makarenko et al. An experiment in integrated exploration
CN107450593B (en) Unmanned aerial vehicle autonomous navigation method and system
Foka et al. Predictive autonomous robot navigation
CN109597864B (en) Method and system for real-time positioning and map construction of ellipsoid boundary Kalman filtering
KR101022785B1 (en) mapping method for circumstances of robot using a nerve network and evolutionary computation
JP5391164B2 (en) Autonomous mobile robot motion planning method, autonomous mobile robot control method using autonomous mobile robot motion planning method, autonomous mobile robot motion planning device, autonomous mobile robot motion control device, autonomous mobile robot motion planning program, autonomous mobile robot Mobile robot control program
Kwok et al. Evolutionary computing based mobile robot localization
CN113110521B (en) Mobile robot path planning control method, control device thereof and storage medium
JP6895911B2 (en) Object tracking device, object tracking method and computer program for object tracking
KR101234797B1 (en) Robot and method for localization of the robot using calculated covariance
Frank et al. Using gaussian process regression for efficient motion planning in environments with deformable objects
Moreno et al. Evolutionary filter for robust mobile robot global localization
CN112091964B (en) Method and system for generating a robot program for industrial coating
CN110362081B (en) Mobile robot path planning method
CN113993205B (en) UWB positioning system and method based on digital twinning
CN114608585A (en) Method and device for synchronous positioning and mapping of mobile robot
CN110779526B (en) Path planning method, device and storage medium
CN111522335B (en) Robot path optimization method and system based on improved particle swarm optimization
CN113156473A (en) Self-adaptive discrimination method for satellite signal environment of information fusion positioning system
KR101436858B1 (en) Path generating method for autonomous mobile robot using uncertainty
Xi et al. Simulation research for active simultaneous localization and mapping based on extended kalman filter
US11872703B2 (en) Method and device for deterministic sampling-based motion planning
CN113671942A (en) Apparatus and method for controlling robot

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131231

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee