KR102609489B1 - Obstacle detection system for autonomous vehicle or robot - Google Patents
Obstacle detection system for autonomous vehicle or robot Download PDFInfo
- Publication number
- KR102609489B1 KR102609489B1 KR1020210150641A KR20210150641A KR102609489B1 KR 102609489 B1 KR102609489 B1 KR 102609489B1 KR 1020210150641 A KR1020210150641 A KR 1020210150641A KR 20210150641 A KR20210150641 A KR 20210150641A KR 102609489 B1 KR102609489 B1 KR 102609489B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- encoder
- lidar
- compressed
- vision
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 22
- 230000000007 visual effect Effects 0.000 claims abstract description 25
- 238000010801 machine learning Methods 0.000 claims abstract description 19
- 239000000284 extract Substances 0.000 claims description 11
- 238000000034 method Methods 0.000 claims description 6
- 230000001133 acceleration Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/86—Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1684—Tracking a line or surface by means of sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/02—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
- G01S15/04—Systems determining presence of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/04—Systems determining the presence of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/003—Transmission of data between radar, sonar or lidar systems and remote stations
- G01S7/006—Transmission of data between radar, sonar or lidar systems and remote stations using shared front-end circuitry, e.g. antennas
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4029—Pedestrians
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4042—Longitudinal speed
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- Transportation (AREA)
- Electromagnetism (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Acoustics & Sound (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명은, 시각 정보 및 음향 정보를 취득하기 위한 복수의 센서를 포함하는 센서부와; 복수의 상기 센서가 취득한 데이터로부터 각 데이터의 압축 정보를 추출하는 인코더부; 및 미리 주어진 장애물 정보를 이용하여 공간 인코더와 함께 압축 공간 정보를 장애물의 공간 정보로 복원시키도록 기계 학습되며, 상기 인코더부를 통해 추출된 시각 정보 및 음향 정보의 압축 정보로부터 장애물에 대한 공간 예측 정보를 출력하는 공간 디코더;를 포함하는, 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템에 관한 것이다.The present invention includes a sensor unit including a plurality of sensors for acquiring visual information and sound information; an encoder unit extracting compressed information of each data from the data acquired by the plurality of sensors; And machine learning is performed to restore the compressed spatial information to the spatial information of the obstacle with a spatial encoder using pre-given obstacle information, and spatial prediction information about the obstacle is generated from the compressed information of the visual information and sound information extracted through the encoder unit. It relates to an obstacle detection system for an autonomous vehicle or robot, including a spatial decoder that outputs.
Description
본 발명은 시각적 센서와 비시각적 센서를 이용하여 자율 주행 차량 또는 로봇의 자율 주행시 시각적으로 관측이 불가능한 장애물을 탐지할 수 있는 장애물 탐지 시스템에 관한 것이다.The present invention relates to an obstacle detection system that can detect obstacles that cannot be visually observed during autonomous driving of an autonomous vehicle or robot using visual and non-visual sensors.
차량 또는 로봇의 자율 주행 기술에 대한 기술 개발이 가속화되면서, 사각 지대, 즉 라이다나 카메라 등의 시각적 센서를 통해 관측할 수 없는 공간으로부터 나타나 자율 주행 차량 또는 주행에 장애를 일으키는 장애물을 탐지하기 위한 기술 또한 다양한 방식으로 개발되고 있다.As technology development for autonomous driving technology for vehicles or robots accelerates, technology to detect blind spots, i.e. obstacles that appear from spaces that cannot be observed through visual sensors such as lidar or cameras, and cause obstacles to autonomous vehicles or driving. It is also being developed in various ways.
예를 들어, 다른 공간에 위치한 다른 차량이나 로봇으로부터 주변 정보를 통신 수단을 통해 전달받아, 해당 차량 또는 로봇에서 공간 정보를 취득하는 기술을 들 수 있다. 이에 따르면, 사각 지대에 대한 공간 정보뿐만 아니라 해당 차량 또는 로봇과 통신 가능한 협력 관계의 차량 또는 로봇이 존재하는 공간의 주변 정보를 취득할 수 있다. 그러나 이러한 기술의 경우 장애물 탐지를 위해서는 반드시 협력 관계의 차량 또는 로봇이 필요하다는 한계 또한 존재한다. For example, there is a technology that acquires spatial information from another vehicle or robot by receiving surrounding information from another vehicle or robot located in another space through communication means. According to this, it is possible to obtain not only spatial information about blind spots but also information about the surroundings of the space where a cooperative vehicle or robot capable of communicating with the vehicle or robot exists. However, this technology also has a limitation in that it requires a cooperative vehicle or robot to detect obstacles.
다른 예로서, 레이더 센서를 통해 강한 전자기파를 발사하고 물체로부터 반사된 반사파를 분석함으로써 물체의 위치와 속도를 분석하는 기술을 들 수 있다. 이러한 방식의 경우, 골목길에서 물체에 직접 반사된 전자기파를 분석하지 않고 주변 벽 등 물체를 거쳐 이중으로 반사된 전자기파를 분석함으로써, 사각 지대에 위치하는 물체를 관측할 수 있다. 그러나 이러한 기술 복잡한 구성의 레이더 센서가 사용될 뿐만 아니라 센싱 정보를 이용한 탐지 방식이 매우 복잡하다는 단점이 있다.Another example is a technology that analyzes the position and speed of an object by emitting strong electromagnetic waves through a radar sensor and analyzing the reflected waves reflected from the object. In the case of this method, it is possible to observe objects located in blind spots by analyzing electromagnetic waves doubly reflected through objects such as surrounding walls, rather than analyzing electromagnetic waves directly reflected by objects in an alley. However, this technology has the disadvantage that not only is a radar sensor with a complex configuration used, but the detection method using sensing information is very complicated.
본 발명은 상기와 같은 점을 감안하여 안출된 것으로서, 간단한 센서인 마이크 등의 음향 센서를 이용하여 취득한 음향 정보를 이용하여, 사각 지대에 위치한 장애물을 탐지할 수 있는 장애물 탐지 시스템을 제공하는 것을 기술적 과제로 한다.The present invention was conceived in consideration of the above points, and aims to provide an obstacle detection system capable of detecting obstacles located in blind spots using acoustic information acquired using acoustic sensors such as microphones, which are simple sensors. Make it an assignment.
본 발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved by the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.
본 발명의 일 실시예에 따르면, 시각 정보 및 음향 정보를 취득하기 위한 복수의 센서를 포함하는 센서부와; 복수의 상기 센서가 취득한 데이터로부터 각 데이터의 압축 정보를 추출하는 인코더부; 및 미리 주어진 장애물 정보를 이용하여 공간 인코더와 함께 압축 공간 정보를 장애물의 공간 정보로 복원시키도록 기계 학습되며, 상기 인코더부를 통해 추출된 시각 정보 및 음향 정보의 압축 정보로부터 장애물에 대한 공간 예측 정보를 출력하는 공간 디코더;를 포함하는, 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템이 개시된다.According to one embodiment of the present invention, a sensor unit including a plurality of sensors for acquiring visual information and sound information; an encoder unit extracting compressed information of each data from the data acquired by the plurality of sensors; And machine learning is performed to restore the compressed spatial information to the spatial information of the obstacle with a spatial encoder using pre-given obstacle information, and spatial prediction information about the obstacle is generated from the compressed information of the visual information and sound information extracted through the encoder unit. An obstacle detection system for an autonomous vehicle or robot, including a spatial decoder that outputs, is disclosed.
또한, 복수의 상기 센서는, 라이다, 카메라 및 마이크를 포함할 수 있다.Additionally, the plurality of sensors may include lidar, cameras, and microphones.
또한, 상기 인코더부는, 지도 정보와 상기 라이다가 취득한 라이다 정보를 이용하여 압축 라이다 정보를 추출하는 라이다 인코더와; 지도 정보와 상기 카메라가 취득한 비전 정보를 이용하여 압축 비전 정보를 추출하는 비전 인코더; 및 지도 정보와 상기 마이크가 취득한 음향 정보를 이용하여 압축 음향 정보를 추출하는 사운드 인코더;를 포함할 수 있다.In addition, the encoder unit includes a LiDAR encoder that extracts compressed LiDAR information using map information and LiDAR information acquired by the LiDAR; a vision encoder that extracts compressed vision information using map information and vision information acquired by the camera; and a sound encoder that extracts compressed sound information using map information and sound information acquired by the microphone.
또한, 상기 공간 디코더는, 상기 압축 라이다 정보, 상기 압축 비전 정보 및 상기 압축 음향 정보의 평균값을 이용하여 상기 장애물에 대한 공간 예측 정보를 출력할 수 있다.Additionally, the spatial decoder may output spatial prediction information about the obstacle using an average value of the compressed LiDAR information, the compressed vision information, and the compressed sound information.
또한, 상기 장애물에 대한 공간 예측 정보는 예측되는 장애물의 위치, 속도, 가속도 및 미래 경로 중 하나 이상을 포함할 수 있다. Additionally, the spatial prediction information about the obstacle may include one or more of the position, speed, acceleration, and future path of the predicted obstacle.
또한, 상기 라이다 인코더, 상기 비전 인코더, 상기 사운드 인코더 및 상기 공간 디코더는 오토인코더를 통한 기계 학습부에 의해 학습될 수 있다.Additionally, the LIDAR encoder, the vision encoder, the sound encoder, and the spatial decoder may be learned by a machine learning unit through an autoencoder.
또한, 상기 기계 학습부는, 미리 주어진 라이다 정보와 지도 정보를 이용하여 상기 라이다 인코더와 라이다 디코더를 비지도 학습시키고, 미리 주어진 비전 정보와 지도 정보를 이용하여 상기 비전 인코더와 비전 디코더를 비지도 학습시키며, 미리 주어진 음향 정보와 지도 정보를 이용하여 상기 사운드 인코더와 사운드 디코더를 비지도 학습시키며, 미리 주어진 장애물 정보와 지도 정보를 이용하여 상기 공간 인코더와 상기 공간 디코더를 비지도 학습시킬 수 있다.In addition, the machine learning unit unsupervisedly trains the LiDAR encoder and LiDAR decoder using pre-given LiDAR information and map information, and unsupervisedly trains the vision encoder and vision decoder using pre-given vision information and map information. The sound encoder and sound decoder can be trained unsupervised using pre-given acoustic information and map information, and the spatial encoder and spatial decoder can be unsupervised trained using pre-given obstacle information and map information. .
또한, 상기 기계 학습부는, 상기 라이다 인코더, 상기 비전 인코더, 상기 사운드 인코더 및 상기 공간 인코더 각각을 통해 압축된 압축 정보들의 특징 공간 내에서의 상호 거리를 좁히는 방향으로 학습을 진행할 수 있다. In addition, the machine learning unit may conduct learning in the direction of narrowing the mutual distance within the feature space of compressed information compressed through each of the LiDAR encoder, the vision encoder, the sound encoder, and the spatial encoder.
또한, 상기 라이다 디코더는 상기 라이다를 통한 라이다 정보의 취득 불가시 비전 인코더 또는 사운드 인코더의 압축 정보를 이용하여 상기 라이다 정보를 복원시키고, 상기 비전 디코더는 상기 카메라를 통한 비전 정보의 취득 불가시 상기 라이다 인코더 또는 상기 사운드 인코더의 압축 정보를 이용하여 상기 비전 정보를 복원시키고, 상기 사운드 디코더는 상기 마이크를 통한 음향 정보의 취득 불가시 상기 라이다 인코더 또는 상기 비전 인코더의 압축 정보를 이용하여 상기 음향 정보를 복원시킬 수 있다. In addition, when acquisition of LiDAR information through the LiDAR is impossible, the LiDAR decoder restores the LiDAR information using compressed information of a vision encoder or sound encoder, and the vision decoder acquires vision information through the camera. When it is impossible to obtain sound information through the microphone, the vision information is restored using compressed information from the LiDAR encoder or the sound encoder, and when acquisition of sound information through the microphone is impossible, the sound decoder uses compressed information from the LiDAR encoder or the vision encoder. Thus, the sound information can be restored.
또한, 상기 공간 디코더는 상기 라이다를 통한 라이다 정보 및 상기 카메라를 통한 비전 정보의 취득 불가시 상기 사운드 인코더의 압축 정보를 이용하여 상기 장애물 정보를 복원시킬 수 있다. In addition, the spatial decoder may restore the obstacle information using compressed information of the sound encoder when it is impossible to obtain lidar information through the lidar and vision information through the camera.
본 발명의 실시예에 따르면, 시각적 센서 및 비시각적 센서의 압축 정보가 특징 공간에서 비슷한 값을 가지도록 기계 학습시키고, 이를 이용하여 시각적 센서 및 비시각적 센서를 통해 취득된 시각 정보 및 음향 정보를 통해 사각지대를 포함한 주변 공간의 장애물을 탐지할 수 있는 효과가 있다.According to an embodiment of the present invention, the compressed information of the visual sensor and the non-visual sensor is machine-learned to have similar values in the feature space, and by using this, the visual information and acoustic information acquired through the visual sensor and the non-visual sensor are used. It is effective in detecting obstacles in the surrounding space, including blind spots.
또한, 본 발명의 실시예에 따르면, 각 센서의 압축 정보가 유사한 값을 가지도록 학습되기 때문에, 특정 센서가 고장 나거나 사용될 수 없어 계측 데이터를 취득할 수 없는 상황에서도, 다른 센서의 정보를 복원하여 사용할 수 있는 이점이 있다. 또한, 특정 센서의 정보가 없는 경우에도 정확도가 조금 떨어지더라도 장애물 정보에 대한 예측이 가능한 이점이 있다.In addition, according to an embodiment of the present invention, since the compressed information of each sensor is learned to have similar values, even in a situation where measurement data cannot be acquired because a specific sensor is broken or cannot be used, information from other sensors can be restored. There are benefits to using it. In addition, even when there is no information from a specific sensor, there is an advantage that obstacle information can be predicted even if the accuracy is slightly lower.
도 1은 본 발명의 일 실시예에 따른 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템의 동작을 예시한 개념도.
도 2는 본 발명의 일 실시예에 따른 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템의 블록 다이어그램.
도 3 내지 6은 도 2의 센서별 인코더와 공간 디코더의 기계 학습 방법을 나타낸 도면.
도 7은 도 3 내지 6에 도시된 기계 학습 방법의 학습 흐름을 나타낸 도면.
도 8 및 9는 서로 다른 종류의 인코더와 디코더를 이용하여 다른 종류의 센서 정보를 복원하는 방법을 나타낸 도면.1 is a conceptual diagram illustrating the operation of an obstacle detection system for an autonomous vehicle or robot according to an embodiment of the present invention.
2 is a block diagram of an obstacle detection system for an autonomous vehicle or robot according to an embodiment of the present invention.
Figures 3 to 6 are diagrams showing a machine learning method for the sensor-specific encoder and spatial decoder of Figure 2.
Figure 7 is a diagram showing the learning flow of the machine learning method shown in Figures 3 to 6.
Figures 8 and 9 are diagrams showing methods for restoring different types of sensor information using different types of encoders and decoders.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Since the present invention can be modified in various ways and can have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all transformations, equivalents, and substitutes included in the spirit and technical scope of the present invention. In describing the present invention, if it is determined that a detailed description of related known technologies may obscure the gist of the present invention, the detailed description will be omitted.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms such as first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.
이하, 본 발명에 의한 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템의 실시예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of an obstacle detection system for an autonomous vehicle or robot according to the present invention will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, identical or corresponding components are denoted by the same drawing numbers. will be given and any redundant explanation will be omitted.
도 1은 본 발명의 일 실시예에 따른 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템의 동작을 예시한 개념도이고, 도 2는 본 발명의 일 실시예에 따른 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템의 블록 다이어그램이다.1 is a conceptual diagram illustrating the operation of an obstacle detection system for an autonomous vehicle or robot according to an embodiment of the present invention, and FIG. 2 is a conceptual diagram illustrating the operation of an obstacle detection system for an autonomous vehicle or robot according to an embodiment of the present invention. This is a block diagram.
본 실시예에 따른 장애물 탐지 시스템은 자율 주행 차량 또는 로봇(1)에 탑재되는 것으로서, 자율 주행 차량 또는 로봇(1)의 시각적 센서로 관측할 수 없는 지역, 즉, 사각지대(3)에 위치한 장애물(2)을 탐지하여 장애물(2)의 공간 정보, 예를 들어, 장애물(2)의 위치 정보 및 속도 정보를 예측한다.The obstacle detection system according to this embodiment is mounted on an autonomous vehicle or robot (1), and is an obstacle located in an area that cannot be observed by the visual sensor of the autonomous vehicle or robot (1), that is, a blind spot (3). By detecting (2), spatial information of the obstacle (2), for example, location information and speed information of the obstacle (2) are predicted.
도 2를 참조하면, 본 실시예에 따른 장애물 탐지 시스템은, 센서부(100), 인코더부(200) 및 공간 디코더(300)를 포함한다. Referring to FIG. 2, the obstacle detection system according to this embodiment includes a
센서부(100)는 시각 정보 및 음향 정보를 취득하기 위한 복수의 센서를 포함하며, 이러한 센서는 시각 정보를 취득하는 시각적 센서와, 음향 정보를 취득하는 비시각적 센서를 포함한다. 시각적 센서는 능동 시야 내 감지기와 수동 시야 내 감지기로 구분 가능하다. 본 실시예의 경우 시각적 센서 중 능동 시야 내 감지기로서 라이다(110, Lidar)를,수동 시야 내 감지기로서 카메라(120)를 예시하고 있고, 비시각적 센서로서 마이크(130)를 예시하고 있다. The
다만, 본 발명에 적용 가능한 센서부(100)의 센서들은 본 실시예에서 예시한 센서에 한정되는 것은 아니며, 다양한 종류의 센서들, 예를 들어, 레이더, 초음파 센서, 적외선 카메라 등을 모두 포함할 수 있다.However, the sensors of the
라이다(110)는 주변 공간에 레이저를 조사하여 반사된 레이저 신호로부터 포인트클라우드(pointcloud)를 취득하고, 카메라(120)은 주변 공간을 촬용하여 비전 이미지를 취득한다. 아울러 마이크(130)는 주변의 가청 가능한 대역(KHz 대역)의 음향을 센싱하여 음향 정보를 출력한다.The LIDAR 110 irradiates a laser to the surrounding space and acquires a point cloud from the reflected laser signal, and the
인코더부(200)는 복수의 센서(110, 120, 130)가 취득한 데이터로부터 각 데이터의 압축 정보를 추출한다. 인코더부(200)는 자율 주행 차량 또는 로봇(1) 주변의 지도 정보(10)와 라이다(120)가 취득한 라이다 정보(11)를 이용하여 압축 라이다 정보(14)를 추출하는 라이다 인코더(210)와, 지도 정보(10)와 카메라(120)가 취득한 비전 정보(12)를 이용하여 압축 비전 정보(15)를 추출하는 비전 인코더(220)와, 지도 정보(10)와 마이크가 취득한 음향 정보(13)를 이용하여 압축 음향 정보(16)를 추출하는 사운드 인코더(230)를 포함한다. The
공간 디코더(300)는 미리 주어진 장애물 정보(예를 들어, 장애물의 위치, 속도, 가속도, 미래 경로 등)를 이용하여 공간 인코더(310, 도 6 참조)와 함께 압축 공간 정보(19, 도 6 참조)를 장애물(2)의 공간 정보(20)로 복원시키도록 기계 학습된다. The
공간 디코더(300)는 인코더부(200)를 통해 추출된 시각 정보 및 음향 정보의 압축 정보(14, 15, 16)로부터 장애물(2)에 대한 공간 예측 정보(18)를 출력한다. 여기서 장애물(2)의 공간 예측 정보(18)는, 장애물(2)의 예측되는 위치, 속도, 가속도, 미래 경로 등을 포함한다.The
공간 디코더(300)는 압축 라이다 정보(14), 압축 비전 정보(15) 및 상기 압축 음향 정보(16)의 평균값을 통해 도출된 공통된 압축 정보(17)를 이용하여 장애물(2)의 공간 예측 정보(18)를 출력한다. 이 때, 자율 주행 차량 또는 로봇(1) 주변의 지도 데이터를 함께 사용할 수 있다.The
라이다(110)와 카메라(120)와 같은 시각적 센서는 빛의 직진성을 이용하기 때문에 공간 정보를 얻어냄에 있어 정확한 거리와 방향을 측정할 수 있다는 장점이 있지만, 사각 지대가 반드시 존재한다는 단점이 있다. 그에 반해 장애물(2)이 내는 음향 정보는 회절이 용이하므로 사각지대 없이 데이터를 취득할 수 있다는 장점이 있다. 다만 장애물(2)의 음향 정보는 정확한 거리나 방향을 측정하기 어렵지만, 본 발명의 장애물 탐지 시스템의 경우, 기계 학습부를 통해 인코더부(200) 및 공간 디코더(300)를 학습시킴으로써, 시각 정보와 음향 정보를 이용하여 장애물(2)에 대한 정확한 공간 예측 정보(18)를 출력할 수 있다.Visual sensors such as
기계 학습부는 라이다 인코더, 비전 인코더(210), 사운드 인코더(230) 및 공간 디코더(300)를 오토인코더(Autoencoder)를 통해 학습시킬 수 있으며, 도 3 내지 6은 도 2의 센서별 인코더(210, 220, 230)와 공간 디코더(300)의 기계 학습 방법을 나타내고 있다. The machine learning unit can learn the LIDAR encoder,
오토인코더(Autoencoder)는 데이터를 압축하고 다시 복원해낼 수 있는 인코더(Encoder)/디코더(Decoder)로 이루어져 있는 딥러닝 네트워크이다. 인코더(Encoder)는 데이터를 압축하여 데이터가 가지고 있는 압축 정보(또는 함축적 정보)를 추출한다. 압축 정보가 존재하는 공간을 특징 공간(Feature space)라고 하며, 특징 공간에서 정보 사이의 거리가 짧을수록 유사한 내용을 함축하고 있는 정보이다. 디코더(Decoder)는 특징 공간의 압축된 정보를 원래대로 복원한다. 특징 공간의 압축된 정보는 사람이 이해할 수 있는 형태가 아니기 때문에, 정보를 사람이 사용할 수 있는 원래의 형태로 복원하는 것이다. 학습된 인코더(Encoder)와 디코더(Decoder)는 각각 따로 사용될 수 있다.Autoencoder is a deep learning network consisting of an encoder/decoder that can compress and restore data. An encoder compresses data and extracts the compressed information (or implicit information) contained in the data. The space where compressed information exists is called feature space, and the shorter the distance between information in the feature space, the more information it contains. The decoder restores the compressed information in the feature space to its original state. Since the compressed information in the feature space is not in a form that humans can understand, the information is restored to its original form that can be used by humans. The learned encoder and decoder can be used separately.
본 실시예에 따르면, 오토인코더(Autoencoder)를 통한 기계 학습시 미리 알고 있는 지도 정보(10)를 추가로 넣어 줌으로써, 더 정확한 정보 압축 및 복원을 가능하게 하였다. 이는 오토인코더(autoencoder)가 더 잘 학습할 수 있도록 추가적인 조건을 제공하기 위함이며, 본 실시예의 경우 함축된 공간 정보를 가장 잘 나타내고 있는 지도 정보(10)를 추가적인 조건으로 제공함으로써 학습이 더 원활하게 진행되게 할 수 있다. According to this embodiment, by adding
오토인코더를 통한 기계 학습시 필요한 데이터는 미리 주어진 라이다 정보(11, 포인트클라우드 데이터), 비전 정보(12, 비전 이미지), 음향 정보(13), 자율 주행 차량 또는 로봇(1) 주변의 지도 정보(10), 그리고 일정 범위 내의 장애물 정보(20)를 포함한다. 이 때 장애물(2)은 사각 지대(3)에 있는 장애물까지 포함한다. The data required for machine learning through an autoencoder is pre-given lidar information (11, point cloud data), vision information (12, vision image), acoustic information (13), and map information around the autonomous vehicle or robot (1). (10), and includes obstacle information (20) within a certain range. At this time, the obstacle (2) includes the obstacle in the blind spot (3).
기계 학습에 사용되는 이상과 같은 라이다 정보(11), 비전 정보(12), 음향 정보(13), 지도 정보(10), 장애물 정보(20)는 서로 시간적으로 동기화되어 제공될 수 있다.The
도 3과 같이, 미리 주어진 라이다 정보(11)와 지도 정보(10)를 이용하여 오토인코더를 통해 라이다 인코더(210)와 라이다 디코더(211)를 비지도 학습시킬 수 있고, 도 4와 같이, 미리 주어진 비전 정보(12)와 지도 정보(10)를 이용하여 비전 인코더(220)와 비전 디코더(221)를 비지도 학습시킬 수 있다. 또한, 도 5와 같이, 미리 주어진 음향 정보(13)와 지도 정보(10)를 이용하여 사운드 인코더(230)와 사운드 디코더(231)를 비지도 학습시킬 수 있으며, 도 6과 같이, 미리 주어진 장애물 정보(20)와 지도 정보(10)를 이용하여 공간 인코더(310)와 공간 디코더(300)를 비지도 학습시킬 수 있다.As shown in FIG. 3, the
도 7은 도 3 내지 6에 도시된 기계 학습 방법의 학습 흐름을 나타내고 있다. Figure 7 shows the learning flow of the machine learning method shown in Figures 3 to 6.
각 센서별 압축 정보, 즉, 압축 라이다 정보(14), 압축 비전 정보(15), 압축 음향 정보(16) 및 압축 공간 정보(19)는 각각 시간적으로 동기화되어 있기 때문에, 동일한 형태를 가져야 한다. 그러나, 라이다 인코더(210), 비전 인코더(220), 사운드 인코더(230) 및 공간 인코더(310)는 서로 개별적으로 학습되었기 때문에, 도 7의 (a)와 같이, 압축 라이다 정보(14), 압축 비전 정보(15), 압축 음향 정보(16)와 압축 공간 정보(19)는 특징 공간 내에서 서로 거리를 두고 위치하게 된다. 특징 공간 내에서 거리가 멀다는 것은 서로 유사하지 않다는 것을 의미한다. Compressed information for each sensor, that is, compressed lidar information (14), compressed vision information (15), compressed acoustic information (16), and compressed spatial information (19), are each temporally synchronized and must have the same form. . However, because the
하지만 실제로 4가지 압축 정보는 동일해야 하기 때문에, 기계 학습부는, 도 7의 (b)와 같이, 압축 라이다 정보(14), 압축 비전 정보(15), 압축 음향 정보(16) 및 압축 공간 정보(19)들이 특징 공간 내에서 상호 거리를 좁히는 방향으로 학습을 진행한다. 구체적으로, 학습시 손실 함수(loss function)에 특징 공간 사이의 코사인 유사도(cosine similarity)를 항으로 넣어, 각 센서의 인코더와 디코더가 올바르게 학습되게 할 수 있다. However, since the four types of compressed information must actually be the same, the machine learning unit uses compressed lidar information (14), compressed vision information (15), compressed acoustic information (16), and compressed space information, as shown in (b) of Figure 7. (19) The learning proceeds in the direction of narrowing the mutual distance within the feature space. Specifically, by adding the cosine similarity between feature spaces to the loss function during learning, the encoder and decoder of each sensor can be learned correctly.
학습이 완료된 후, 각 인코더(210, 220, 230, 310)을 통해 압축된 압축 라이다 정보(14), 압축 비전 정보(15), 압축 음향 정보(16) 및 압축 공간 정보(19)는, 도 7의 (c)와 같이, 거의 공통된 값을 가지게 되며, 이와 같이 공통된 압축 정보를 그 시점의 공간 정보를 제대로 압축한 정보로 볼 수 있다.After learning is completed, the compressed LIDAR information (14), compressed vision information (15), compressed acoustic information (16), and compressed spatial information (19) compressed through each encoder (210, 220, 230, 310) are, As shown in (c) of Figure 7, they have almost common values, and this common compressed information can be viewed as information that properly compresses the spatial information at that point in time.
다시 도 2를 참조하면, 라이다 인코더(210), 비전 인코더(220), 사운드 인코더(230)는 센서부(100)를 통해 실시간으로 계측된 계측 정보를 이용하여 압축 라이다 정보(14), 압축 비전 정보(15), 압축 음향 정보(16)를 각각 추출하며, 이를 평균 내어 공통된 압축 정보(17)를 얻어 지도 정보(10)와 함께 공간 디코더(300)를 통과시킴으로써 장애물(2)에 대한 공간 예측 정보(18)를 출력할 수 있다. Referring again to FIG. 2, the
도 8 및 9는 서로 다른 종류의 인코더와 디코더를 이용하여 다른 종류의 센서 정보를 복원하는 방법을 나타낸 도면이다.Figures 8 and 9 are diagrams showing methods for restoring different types of sensor information using different types of encoders and decoders.
비전 디코더(14)는 카메라(120)의 고장 또는 사용 불가로 인한 비전 정보(12)의 취득 불가시 라이다 인코더(210) 또는 사운드 인코더(230)의 압축 정보를 이용하여 카메라(120)의 비전 정보(12)를 복원시킬 수 있다. 도 8은 비전 디코더(221)가 라이다 인코더(210)를 통한 압축 라이다 정보(14)를 이용하여 비전 정보(12)를 복원하는 경우를 보이고 있다. When the
이와 같은 경우뿐만 아니라, 라이다(110)를 통한 라이다 정보(11)의 취득 불가시 라이다 디코더(211)는 비전 인코더(220) 또는 사운드 인코더(230)의 압축 정보를 이용하여 라이다 정보(11)를 복원시킬 수 있고, 마이크(130)를 통한 음향 정보의 취득 불가시 사운드 디코더(231)는 라이다 인코더(210) 또는 비전 인코더(220)의 압축 정보를 이용하여 음향 정보(13)를 복원시킬 수 있다. In addition to this case, when it is impossible to acquire the
이에 따르면, 특정 센서가 고장 나거나 사용될 수 없어 계측 데이터를 취득할 수 없는 상황에서도, 다른 센서의 정보를 복원하여 장애물 예측 정보(18)의 도출에 사용할 수 있다. According to this, even in a situation where measurement data cannot be acquired because a specific sensor is broken or cannot be used, information from other sensors can be restored and used to derive
한편, 도 9와 같이, 공간 디코더(300)는 라이다(110)를 통한 라이다 정보(11) 또는 카메라(120)를 통한 비전 정보(12)의 취득 불가시 사운드 인코더(230)의 압축 정보만을 이용하여 장애물에 대한 예측 정보(18)를 복원시킬 수 있다. 이에 따르면, 라이다 정보(11)나 비전 정보(12)를 취득할 수 없는 경우에도, 정확도가 조금 떨어지더라도, 장애물 정보에 대한 예측이 가능하다. On the other hand, as shown in FIG. 9, the
상기에서는 본 발명의 특정의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the present invention has been described above with reference to specific embodiments, those skilled in the art can vary the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that it can be modified and changed.
100: 센서부 110: 라이다
120: 카메라 130: 마이크
200: 인코더부 210: 라이다 인코더
211: 라이다 디코더 220: 비전 인코더
221: 비전 디코더 230: 사운드 인코더
231: 사운드 디코더 300: 공간 디코더
310: 공간 인코더100: sensor unit 110: lidar
120: Camera 130: Microphone
200: Encoder unit 210: LiDAR encoder
211: Lidar decoder 220: Vision encoder
221: Vision decoder 230: Sound encoder
231: sound decoder 300: spatial decoder
310: spatial encoder
Claims (10)
복수의 상기 센서가 취득한 데이터로부터 각 데이터의 압축 정보를 추출하는 인코더부; 및
미리 주어진 장애물 정보를 이용하여 공간 인코더와 함께 압축 공간 정보를 장애물의 공간 정보로 복원시키도록 기계 학습되며, 상기 인코더부를 통해 추출된 시각 정보 및 음향 정보의 압축 정보로부터 장애물에 대한 공간 예측 정보를 출력하는 공간 디코더;를 포함하고,
상기 인코더부는,
지도 정보와 상기 라이다가 취득한 라이다 정보를 이용하여 압축 라이다 정보를 추출하는 라이다 인코더;
지도 정보와 상기 카메라가 취득한 비전 정보를 이용하여 압축 비전 정보를 추출하는 비전 인코더; 및
지도 정보와 상기 마이크가 취득한 음향 정보를 이용하여 압축 음향 정보를 추출하는 사운드 인코더;를 포함하는 것을 특징으로 하는, 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템.
A sensor unit including a lidar, a camera, and a microphone as a plurality of sensors for acquiring visual information and acoustic information;
an encoder unit extracting compressed information of each data from the data acquired by the plurality of sensors; and
Using pre-given obstacle information, machine learning is performed with a spatial encoder to restore the compressed spatial information to the spatial information of the obstacle, and spatial prediction information about the obstacle is output from the compressed information of the visual and acoustic information extracted through the encoder unit. Includes a spatial decoder;
The encoder unit,
A LiDAR encoder that extracts compressed LiDAR information using map information and LiDAR information acquired by the LiDAR;
a vision encoder that extracts compressed vision information using map information and vision information acquired by the camera; and
An obstacle detection system for an autonomous vehicle or robot, comprising a sound encoder that extracts compressed sound information using map information and sound information acquired by the microphone.
상기 장애물에 대한 공간 예측 정보는 예측되는 장애물의 위치, 속도, 가속도 및 미래 경로 중 하나 이상을 포함하는 것을 특징으로 하는, 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템.
According to paragraph 1,
An obstacle detection system for an autonomous vehicle or robot, wherein the spatial prediction information about the obstacle includes one or more of the position, speed, acceleration, and future path of the predicted obstacle.
상기 압축 라이다 정보, 상기 압축 비전 정보 및 상기 압축 음향 정보의 평균값을 이용하여 상기 장애물에 대한 공간 예측 정보를 출력하는 것을 특징으로 하는, 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템.
The method of claim 1, wherein the spatial decoder,
An obstacle detection system for an autonomous vehicle or robot, characterized in that it outputs spatial prediction information about the obstacle using an average value of the compressed LiDAR information, the compressed vision information, and the compressed acoustic information.
상기 라이다 인코더, 상기 비전 인코더, 상기 사운드 인코더 및 상기 공간 디코더는 오토인코더를 통한 기계 학습부에 의해 학습되는 것을 특징으로 하는, 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템.
According to paragraph 1,
An obstacle detection system for an autonomous vehicle or robot, characterized in that the lidar encoder, the vision encoder, the sound encoder, and the spatial decoder are learned by a machine learning unit through an autoencoder.
미리 주어진 라이다 정보와 지도 정보를 이용하여 상기 라이다 인코더와 라이다 디코더를 비지도 학습시키고,
미리 주어진 비전 정보와 지도 정보를 이용하여 상기 비전 인코더와 비전 디코더를 비지도 학습시키며,
미리 주어진 음향 정보와 지도 정보를 이용하여 상기 사운드 인코더와 사운드 디코더를 비지도 학습시키며,
미리 주어진 장애물 정보와 지도 정보를 이용하여 상기 공간 인코더와 상기 공간 디코더를 비지도 학습시키는 것을 특징으로 하는, 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템.
The method of claim 6, wherein the machine learning unit,
Unsupervised learning of the LiDAR encoder and LiDAR decoder using pre-given LiDAR information and map information,
The vision encoder and vision decoder are trained unsupervised using pre-given vision information and map information,
Unsupervised learning of the sound encoder and sound decoder using pre-given sound information and map information,
An obstacle detection system for an autonomous vehicle or robot, characterized by unsupervised learning of the spatial encoder and the spatial decoder using pre-given obstacle information and map information.
상기 라이다 인코더, 상기 비전 인코더, 상기 사운드 인코더 및 상기 공간 인코더 각각을 통해 압축된 압축 정보들의 특징 공간 내에서의 상호 거리를 좁히는 방향으로 학습을 진행하는 것을 특징으로 하는, 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템.
The method of claim 7, wherein the machine learning unit,
An autonomous vehicle or robot, characterized in that learning is conducted in the direction of narrowing the mutual distance within the feature space of compressed information compressed through each of the LiDAR encoder, the vision encoder, the sound encoder, and the spatial encoder. obstacle detection system for
상기 라이다 디코더는 상기 라이다를 통한 라이다 정보의 취득 불가시 비전 인코더 또는 사운드 인코더의 압축 정보를 이용하여 상기 라이다 정보를 복원시키고,
상기 비전 디코더는 상기 카메라를 통한 비전 정보의 취득 불가시 상기 라이다 인코더 또는 상기 사운드 인코더의 압축 정보를 이용하여 상기 비전 정보를 복원시키고,
상기 사운드 디코더는 상기 마이크를 통한 음향 정보의 취득 불가시 상기 라이다 인코더 또는 상기 비전 인코더의 압축 정보를 이용하여 상기 음향 정보를 복원시키는 것을 특징으로 하는, 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템.
In clause 7,
The LiDAR decoder restores the LiDAR information using compressed information of a vision encoder or sound encoder when acquisition of LiDAR information through the LiDAR is impossible,
When it is impossible to obtain vision information through the camera, the vision decoder restores the vision information using compressed information from the LIDAR encoder or the sound encoder,
The sound decoder is an obstacle detection system for an autonomous vehicle or robot, characterized in that when acquisition of sound information through the microphone is impossible, the sound information is restored using compressed information of the LIDAR encoder or the vision encoder.
상기 공간 디코더는 상기 라이다를 통한 라이다 정보 및 상기 카메라를 통한 비전 정보의 취득 불가시 상기 사운드 인코더의 압축 정보를 이용하여 상기 장애물 정보를 복원시키는 것을 특징으로 하는, 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템.
In clause 7,
The spatial decoder is for an autonomous vehicle or robot, characterized in that it restores the obstacle information using compressed information of the sound encoder when it is impossible to obtain lidar information through the lidar and vision information through the camera. Obstacle detection system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210150641A KR102609489B1 (en) | 2021-11-04 | 2021-11-04 | Obstacle detection system for autonomous vehicle or robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210150641A KR102609489B1 (en) | 2021-11-04 | 2021-11-04 | Obstacle detection system for autonomous vehicle or robot |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230065419A KR20230065419A (en) | 2023-05-12 |
KR102609489B1 true KR102609489B1 (en) | 2023-12-06 |
Family
ID=86385866
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210150641A KR102609489B1 (en) | 2021-11-04 | 2021-11-04 | Obstacle detection system for autonomous vehicle or robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102609489B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019133450A (en) | 2018-01-31 | 2019-08-08 | パナソニックIpマネジメント株式会社 | Mobile robot and control method of the same |
US20210063198A1 (en) | 2019-08-31 | 2021-03-04 | Nvidia Corporation | Map creation and localization for autonomous driving applications |
JP2021163038A (en) * | 2020-03-31 | 2021-10-11 | 東芝情報システム株式会社 | Plane data processing device, plane data processing method and plane data processing program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101149800B1 (en) | 2011-12-01 | 2012-06-08 | 국방과학연구소 | Detection apparatus and the method for concealed obstacle using uwb radar and stereo cameras |
KR102061810B1 (en) * | 2018-03-23 | 2020-01-02 | 단국대학교 산학협력단 | System and Method for Processing Multi type Sensor Signal Based on Multi modal Deep Learning |
KR102280803B1 (en) * | 2019-07-02 | 2021-07-21 | 엘지전자 주식회사 | Robot and operating method thereof |
-
2021
- 2021-11-04 KR KR1020210150641A patent/KR102609489B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019133450A (en) | 2018-01-31 | 2019-08-08 | パナソニックIpマネジメント株式会社 | Mobile robot and control method of the same |
US20210063198A1 (en) | 2019-08-31 | 2021-03-04 | Nvidia Corporation | Map creation and localization for autonomous driving applications |
JP2021163038A (en) * | 2020-03-31 | 2021-10-11 | 東芝情報システム株式会社 | Plane data processing device, plane data processing method and plane data processing program |
Non-Patent Citations (1)
Title |
---|
Fayyad, Jamil, et al. Deep learning sensor fusion for autonomous vehicle perception and localization: A review. Sensors. 2020.* |
Also Published As
Publication number | Publication date |
---|---|
KR20230065419A (en) | 2023-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102576495B (en) | Collision monitor for a motor vehicle | |
US20170341645A1 (en) | Information processor and movable body apparatus | |
US8687063B2 (en) | Method for predicting lane line and lane departure warning system using the same | |
CN110936959B (en) | On-line diagnosis and prediction of vehicle perception system | |
US11315349B2 (en) | Method, apparatus and device for identifying passenger state in unmanned vehicle, and storage medium | |
US20210349467A1 (en) | Control device, information processing method, and program | |
WO2018052714A2 (en) | Video to radar | |
KR102609489B1 (en) | Obstacle detection system for autonomous vehicle or robot | |
JP7160257B2 (en) | Information processing device, information processing method, and program | |
JP2022012173A (en) | Information processing device, information processing system, information processing method, and program | |
US20220237921A1 (en) | Outside environment recognition device | |
CN112526525A (en) | Classification of static and dynamic objects | |
KR20180066668A (en) | Apparatus and method constructing driving environment of unmanned vehicle | |
KR20200143161A (en) | Safety Inspection Method of Structure Using Drone with Simultaneous Localization and Mapping | |
US20210142216A1 (en) | Method of training a machine learning system for an object recognition device | |
CN115565058A (en) | Robot, obstacle avoidance method, device and storage medium | |
CN111352128B (en) | Multi-sensor fusion sensing method and system based on fusion point cloud | |
KR20230079855A (en) | Apparatus and method for evaluating obstacle recognition performance of autonomous vehicle | |
KR102252174B1 (en) | Safety Inspection Vehicle of Structure Using Mobile Mapping System | |
JP2018169924A (en) | Learning data collection apparatus, learning data collection system, and learning data collection method | |
CN114092899A (en) | Method and apparatus for identifying objects from input data | |
WO2021214542A1 (en) | Tracking vulnerable road users across image frames using fingerprints obtained from image analysis | |
CN109478366B (en) | Solution for monitoring a parking area of a motor vehicle | |
Shinde et al. | Development of sensor data fusion for obstacle detection for electric mini tractor | |
US12046132B2 (en) | Sensor localization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |