KR102609489B1 - Obstacle detection system for autonomous vehicle or robot - Google Patents

Obstacle detection system for autonomous vehicle or robot Download PDF

Info

Publication number
KR102609489B1
KR102609489B1 KR1020210150641A KR20210150641A KR102609489B1 KR 102609489 B1 KR102609489 B1 KR 102609489B1 KR 1020210150641 A KR1020210150641 A KR 1020210150641A KR 20210150641 A KR20210150641 A KR 20210150641A KR 102609489 B1 KR102609489 B1 KR 102609489B1
Authority
KR
South Korea
Prior art keywords
information
encoder
lidar
compressed
vision
Prior art date
Application number
KR1020210150641A
Other languages
Korean (ko)
Other versions
KR20230065419A (en
Inventor
김성우
조재경
Original Assignee
서울대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교 산학협력단 filed Critical 서울대학교 산학협력단
Priority to KR1020210150641A priority Critical patent/KR102609489B1/en
Publication of KR20230065419A publication Critical patent/KR20230065419A/en
Application granted granted Critical
Publication of KR102609489B1 publication Critical patent/KR102609489B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • G01S7/006Transmission of data between radar, sonar or lidar systems and remote stations using shared front-end circuitry, e.g. antennas
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Transportation (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Acoustics & Sound (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은, 시각 정보 및 음향 정보를 취득하기 위한 복수의 센서를 포함하는 센서부와; 복수의 상기 센서가 취득한 데이터로부터 각 데이터의 압축 정보를 추출하는 인코더부; 및 미리 주어진 장애물 정보를 이용하여 공간 인코더와 함께 압축 공간 정보를 장애물의 공간 정보로 복원시키도록 기계 학습되며, 상기 인코더부를 통해 추출된 시각 정보 및 음향 정보의 압축 정보로부터 장애물에 대한 공간 예측 정보를 출력하는 공간 디코더;를 포함하는, 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템에 관한 것이다.The present invention includes a sensor unit including a plurality of sensors for acquiring visual information and sound information; an encoder unit extracting compressed information of each data from the data acquired by the plurality of sensors; And machine learning is performed to restore the compressed spatial information to the spatial information of the obstacle with a spatial encoder using pre-given obstacle information, and spatial prediction information about the obstacle is generated from the compressed information of the visual information and sound information extracted through the encoder unit. It relates to an obstacle detection system for an autonomous vehicle or robot, including a spatial decoder that outputs.

Description

자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템 {Obstacle detection system for autonomous vehicle or robot}Obstacle detection system for autonomous vehicle or robot}

본 발명은 시각적 센서와 비시각적 센서를 이용하여 자율 주행 차량 또는 로봇의 자율 주행시 시각적으로 관측이 불가능한 장애물을 탐지할 수 있는 장애물 탐지 시스템에 관한 것이다.The present invention relates to an obstacle detection system that can detect obstacles that cannot be visually observed during autonomous driving of an autonomous vehicle or robot using visual and non-visual sensors.

차량 또는 로봇의 자율 주행 기술에 대한 기술 개발이 가속화되면서, 사각 지대, 즉 라이다나 카메라 등의 시각적 센서를 통해 관측할 수 없는 공간으로부터 나타나 자율 주행 차량 또는 주행에 장애를 일으키는 장애물을 탐지하기 위한 기술 또한 다양한 방식으로 개발되고 있다.As technology development for autonomous driving technology for vehicles or robots accelerates, technology to detect blind spots, i.e. obstacles that appear from spaces that cannot be observed through visual sensors such as lidar or cameras, and cause obstacles to autonomous vehicles or driving. It is also being developed in various ways.

예를 들어, 다른 공간에 위치한 다른 차량이나 로봇으로부터 주변 정보를 통신 수단을 통해 전달받아, 해당 차량 또는 로봇에서 공간 정보를 취득하는 기술을 들 수 있다. 이에 따르면, 사각 지대에 대한 공간 정보뿐만 아니라 해당 차량 또는 로봇과 통신 가능한 협력 관계의 차량 또는 로봇이 존재하는 공간의 주변 정보를 취득할 수 있다. 그러나 이러한 기술의 경우 장애물 탐지를 위해서는 반드시 협력 관계의 차량 또는 로봇이 필요하다는 한계 또한 존재한다. For example, there is a technology that acquires spatial information from another vehicle or robot by receiving surrounding information from another vehicle or robot located in another space through communication means. According to this, it is possible to obtain not only spatial information about blind spots but also information about the surroundings of the space where a cooperative vehicle or robot capable of communicating with the vehicle or robot exists. However, this technology also has a limitation in that it requires a cooperative vehicle or robot to detect obstacles.

다른 예로서, 레이더 센서를 통해 강한 전자기파를 발사하고 물체로부터 반사된 반사파를 분석함으로써 물체의 위치와 속도를 분석하는 기술을 들 수 있다. 이러한 방식의 경우, 골목길에서 물체에 직접 반사된 전자기파를 분석하지 않고 주변 벽 등 물체를 거쳐 이중으로 반사된 전자기파를 분석함으로써, 사각 지대에 위치하는 물체를 관측할 수 있다. 그러나 이러한 기술 복잡한 구성의 레이더 센서가 사용될 뿐만 아니라 센싱 정보를 이용한 탐지 방식이 매우 복잡하다는 단점이 있다.Another example is a technology that analyzes the position and speed of an object by emitting strong electromagnetic waves through a radar sensor and analyzing the reflected waves reflected from the object. In the case of this method, it is possible to observe objects located in blind spots by analyzing electromagnetic waves doubly reflected through objects such as surrounding walls, rather than analyzing electromagnetic waves directly reflected by objects in an alley. However, this technology has the disadvantage that not only is a radar sensor with a complex configuration used, but the detection method using sensing information is very complicated.

등록특허공보 제10-1149800호 (2012.05.18)Registered Patent Publication No. 10-1149800 (2012.05.18)

본 발명은 상기와 같은 점을 감안하여 안출된 것으로서, 간단한 센서인 마이크 등의 음향 센서를 이용하여 취득한 음향 정보를 이용하여, 사각 지대에 위치한 장애물을 탐지할 수 있는 장애물 탐지 시스템을 제공하는 것을 기술적 과제로 한다.The present invention was conceived in consideration of the above points, and aims to provide an obstacle detection system capable of detecting obstacles located in blind spots using acoustic information acquired using acoustic sensors such as microphones, which are simple sensors. Make it an assignment.

본 발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved by the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.

본 발명의 일 실시예에 따르면, 시각 정보 및 음향 정보를 취득하기 위한 복수의 센서를 포함하는 센서부와; 복수의 상기 센서가 취득한 데이터로부터 각 데이터의 압축 정보를 추출하는 인코더부; 및 미리 주어진 장애물 정보를 이용하여 공간 인코더와 함께 압축 공간 정보를 장애물의 공간 정보로 복원시키도록 기계 학습되며, 상기 인코더부를 통해 추출된 시각 정보 및 음향 정보의 압축 정보로부터 장애물에 대한 공간 예측 정보를 출력하는 공간 디코더;를 포함하는, 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템이 개시된다.According to one embodiment of the present invention, a sensor unit including a plurality of sensors for acquiring visual information and sound information; an encoder unit extracting compressed information of each data from the data acquired by the plurality of sensors; And machine learning is performed to restore the compressed spatial information to the spatial information of the obstacle with a spatial encoder using pre-given obstacle information, and spatial prediction information about the obstacle is generated from the compressed information of the visual information and sound information extracted through the encoder unit. An obstacle detection system for an autonomous vehicle or robot, including a spatial decoder that outputs, is disclosed.

또한, 복수의 상기 센서는, 라이다, 카메라 및 마이크를 포함할 수 있다.Additionally, the plurality of sensors may include lidar, cameras, and microphones.

또한, 상기 인코더부는, 지도 정보와 상기 라이다가 취득한 라이다 정보를 이용하여 압축 라이다 정보를 추출하는 라이다 인코더와; 지도 정보와 상기 카메라가 취득한 비전 정보를 이용하여 압축 비전 정보를 추출하는 비전 인코더; 및 지도 정보와 상기 마이크가 취득한 음향 정보를 이용하여 압축 음향 정보를 추출하는 사운드 인코더;를 포함할 수 있다.In addition, the encoder unit includes a LiDAR encoder that extracts compressed LiDAR information using map information and LiDAR information acquired by the LiDAR; a vision encoder that extracts compressed vision information using map information and vision information acquired by the camera; and a sound encoder that extracts compressed sound information using map information and sound information acquired by the microphone.

또한, 상기 공간 디코더는, 상기 압축 라이다 정보, 상기 압축 비전 정보 및 상기 압축 음향 정보의 평균값을 이용하여 상기 장애물에 대한 공간 예측 정보를 출력할 수 있다.Additionally, the spatial decoder may output spatial prediction information about the obstacle using an average value of the compressed LiDAR information, the compressed vision information, and the compressed sound information.

또한, 상기 장애물에 대한 공간 예측 정보는 예측되는 장애물의 위치, 속도, 가속도 및 미래 경로 중 하나 이상을 포함할 수 있다. Additionally, the spatial prediction information about the obstacle may include one or more of the position, speed, acceleration, and future path of the predicted obstacle.

또한, 상기 라이다 인코더, 상기 비전 인코더, 상기 사운드 인코더 및 상기 공간 디코더는 오토인코더를 통한 기계 학습부에 의해 학습될 수 있다.Additionally, the LIDAR encoder, the vision encoder, the sound encoder, and the spatial decoder may be learned by a machine learning unit through an autoencoder.

또한, 상기 기계 학습부는, 미리 주어진 라이다 정보와 지도 정보를 이용하여 상기 라이다 인코더와 라이다 디코더를 비지도 학습시키고, 미리 주어진 비전 정보와 지도 정보를 이용하여 상기 비전 인코더와 비전 디코더를 비지도 학습시키며, 미리 주어진 음향 정보와 지도 정보를 이용하여 상기 사운드 인코더와 사운드 디코더를 비지도 학습시키며, 미리 주어진 장애물 정보와 지도 정보를 이용하여 상기 공간 인코더와 상기 공간 디코더를 비지도 학습시킬 수 있다.In addition, the machine learning unit unsupervisedly trains the LiDAR encoder and LiDAR decoder using pre-given LiDAR information and map information, and unsupervisedly trains the vision encoder and vision decoder using pre-given vision information and map information. The sound encoder and sound decoder can be trained unsupervised using pre-given acoustic information and map information, and the spatial encoder and spatial decoder can be unsupervised trained using pre-given obstacle information and map information. .

또한, 상기 기계 학습부는, 상기 라이다 인코더, 상기 비전 인코더, 상기 사운드 인코더 및 상기 공간 인코더 각각을 통해 압축된 압축 정보들의 특징 공간 내에서의 상호 거리를 좁히는 방향으로 학습을 진행할 수 있다. In addition, the machine learning unit may conduct learning in the direction of narrowing the mutual distance within the feature space of compressed information compressed through each of the LiDAR encoder, the vision encoder, the sound encoder, and the spatial encoder.

또한, 상기 라이다 디코더는 상기 라이다를 통한 라이다 정보의 취득 불가시 비전 인코더 또는 사운드 인코더의 압축 정보를 이용하여 상기 라이다 정보를 복원시키고, 상기 비전 디코더는 상기 카메라를 통한 비전 정보의 취득 불가시 상기 라이다 인코더 또는 상기 사운드 인코더의 압축 정보를 이용하여 상기 비전 정보를 복원시키고, 상기 사운드 디코더는 상기 마이크를 통한 음향 정보의 취득 불가시 상기 라이다 인코더 또는 상기 비전 인코더의 압축 정보를 이용하여 상기 음향 정보를 복원시킬 수 있다. In addition, when acquisition of LiDAR information through the LiDAR is impossible, the LiDAR decoder restores the LiDAR information using compressed information of a vision encoder or sound encoder, and the vision decoder acquires vision information through the camera. When it is impossible to obtain sound information through the microphone, the vision information is restored using compressed information from the LiDAR encoder or the sound encoder, and when acquisition of sound information through the microphone is impossible, the sound decoder uses compressed information from the LiDAR encoder or the vision encoder. Thus, the sound information can be restored.

또한, 상기 공간 디코더는 상기 라이다를 통한 라이다 정보 및 상기 카메라를 통한 비전 정보의 취득 불가시 상기 사운드 인코더의 압축 정보를 이용하여 상기 장애물 정보를 복원시킬 수 있다. In addition, the spatial decoder may restore the obstacle information using compressed information of the sound encoder when it is impossible to obtain lidar information through the lidar and vision information through the camera.

본 발명의 실시예에 따르면, 시각적 센서 및 비시각적 센서의 압축 정보가 특징 공간에서 비슷한 값을 가지도록 기계 학습시키고, 이를 이용하여 시각적 센서 및 비시각적 센서를 통해 취득된 시각 정보 및 음향 정보를 통해 사각지대를 포함한 주변 공간의 장애물을 탐지할 수 있는 효과가 있다.According to an embodiment of the present invention, the compressed information of the visual sensor and the non-visual sensor is machine-learned to have similar values in the feature space, and by using this, the visual information and acoustic information acquired through the visual sensor and the non-visual sensor are used. It is effective in detecting obstacles in the surrounding space, including blind spots.

또한, 본 발명의 실시예에 따르면, 각 센서의 압축 정보가 유사한 값을 가지도록 학습되기 때문에, 특정 센서가 고장 나거나 사용될 수 없어 계측 데이터를 취득할 수 없는 상황에서도, 다른 센서의 정보를 복원하여 사용할 수 있는 이점이 있다. 또한, 특정 센서의 정보가 없는 경우에도 정확도가 조금 떨어지더라도 장애물 정보에 대한 예측이 가능한 이점이 있다.In addition, according to an embodiment of the present invention, since the compressed information of each sensor is learned to have similar values, even in a situation where measurement data cannot be acquired because a specific sensor is broken or cannot be used, information from other sensors can be restored. There are benefits to using it. In addition, even when there is no information from a specific sensor, there is an advantage that obstacle information can be predicted even if the accuracy is slightly lower.

도 1은 본 발명의 일 실시예에 따른 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템의 동작을 예시한 개념도.
도 2는 본 발명의 일 실시예에 따른 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템의 블록 다이어그램.
도 3 내지 6은 도 2의 센서별 인코더와 공간 디코더의 기계 학습 방법을 나타낸 도면.
도 7은 도 3 내지 6에 도시된 기계 학습 방법의 학습 흐름을 나타낸 도면.
도 8 및 9는 서로 다른 종류의 인코더와 디코더를 이용하여 다른 종류의 센서 정보를 복원하는 방법을 나타낸 도면.
1 is a conceptual diagram illustrating the operation of an obstacle detection system for an autonomous vehicle or robot according to an embodiment of the present invention.
2 is a block diagram of an obstacle detection system for an autonomous vehicle or robot according to an embodiment of the present invention.
Figures 3 to 6 are diagrams showing a machine learning method for the sensor-specific encoder and spatial decoder of Figure 2.
Figure 7 is a diagram showing the learning flow of the machine learning method shown in Figures 3 to 6.
Figures 8 and 9 are diagrams showing methods for restoring different types of sensor information using different types of encoders and decoders.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Since the present invention can be modified in various ways and can have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all transformations, equivalents, and substitutes included in the spirit and technical scope of the present invention. In describing the present invention, if it is determined that a detailed description of related known technologies may obscure the gist of the present invention, the detailed description will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms such as first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

이하, 본 발명에 의한 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템의 실시예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of an obstacle detection system for an autonomous vehicle or robot according to the present invention will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, identical or corresponding components are denoted by the same drawing numbers. will be given and any redundant explanation will be omitted.

도 1은 본 발명의 일 실시예에 따른 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템의 동작을 예시한 개념도이고, 도 2는 본 발명의 일 실시예에 따른 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템의 블록 다이어그램이다.1 is a conceptual diagram illustrating the operation of an obstacle detection system for an autonomous vehicle or robot according to an embodiment of the present invention, and FIG. 2 is a conceptual diagram illustrating the operation of an obstacle detection system for an autonomous vehicle or robot according to an embodiment of the present invention. This is a block diagram.

본 실시예에 따른 장애물 탐지 시스템은 자율 주행 차량 또는 로봇(1)에 탑재되는 것으로서, 자율 주행 차량 또는 로봇(1)의 시각적 센서로 관측할 수 없는 지역, 즉, 사각지대(3)에 위치한 장애물(2)을 탐지하여 장애물(2)의 공간 정보, 예를 들어, 장애물(2)의 위치 정보 및 속도 정보를 예측한다.The obstacle detection system according to this embodiment is mounted on an autonomous vehicle or robot (1), and is an obstacle located in an area that cannot be observed by the visual sensor of the autonomous vehicle or robot (1), that is, a blind spot (3). By detecting (2), spatial information of the obstacle (2), for example, location information and speed information of the obstacle (2) are predicted.

도 2를 참조하면, 본 실시예에 따른 장애물 탐지 시스템은, 센서부(100), 인코더부(200) 및 공간 디코더(300)를 포함한다. Referring to FIG. 2, the obstacle detection system according to this embodiment includes a sensor unit 100, an encoder unit 200, and a spatial decoder 300.

센서부(100)는 시각 정보 및 음향 정보를 취득하기 위한 복수의 센서를 포함하며, 이러한 센서는 시각 정보를 취득하는 시각적 센서와, 음향 정보를 취득하는 비시각적 센서를 포함한다. 시각적 센서는 능동 시야 내 감지기와 수동 시야 내 감지기로 구분 가능하다. 본 실시예의 경우 시각적 센서 중 능동 시야 내 감지기로서 라이다(110, Lidar)를,수동 시야 내 감지기로서 카메라(120)를 예시하고 있고, 비시각적 센서로서 마이크(130)를 예시하고 있다. The sensor unit 100 includes a plurality of sensors for acquiring visual information and acoustic information, and these sensors include a visual sensor for acquiring visual information and a non-visual sensor for acquiring acoustic information. Visual sensors can be divided into active field-of-view sensors and passive field-of-view sensors. In the case of this embodiment, Lidar 110 is exemplified as an active in-field sensor among visual sensors, the camera 120 is exemplified as a passive in-field sensor, and the microphone 130 is exemplified as a non-visual sensor.

다만, 본 발명에 적용 가능한 센서부(100)의 센서들은 본 실시예에서 예시한 센서에 한정되는 것은 아니며, 다양한 종류의 센서들, 예를 들어, 레이더, 초음파 센서, 적외선 카메라 등을 모두 포함할 수 있다.However, the sensors of the sensor unit 100 applicable to the present invention are not limited to the sensors illustrated in this embodiment, and may include various types of sensors, such as radar, ultrasonic sensors, and infrared cameras. You can.

라이다(110)는 주변 공간에 레이저를 조사하여 반사된 레이저 신호로부터 포인트클라우드(pointcloud)를 취득하고, 카메라(120)은 주변 공간을 촬용하여 비전 이미지를 취득한다. 아울러 마이크(130)는 주변의 가청 가능한 대역(KHz 대역)의 음향을 센싱하여 음향 정보를 출력한다.The LIDAR 110 irradiates a laser to the surrounding space and acquires a point cloud from the reflected laser signal, and the camera 120 acquires a vision image by photographing the surrounding space. In addition, the microphone 130 senses sound in the surrounding audible band (KHz band) and outputs sound information.

인코더부(200)는 복수의 센서(110, 120, 130)가 취득한 데이터로부터 각 데이터의 압축 정보를 추출한다. 인코더부(200)는 자율 주행 차량 또는 로봇(1) 주변의 지도 정보(10)와 라이다(120)가 취득한 라이다 정보(11)를 이용하여 압축 라이다 정보(14)를 추출하는 라이다 인코더(210)와, 지도 정보(10)와 카메라(120)가 취득한 비전 정보(12)를 이용하여 압축 비전 정보(15)를 추출하는 비전 인코더(220)와, 지도 정보(10)와 마이크가 취득한 음향 정보(13)를 이용하여 압축 음향 정보(16)를 추출하는 사운드 인코더(230)를 포함한다. The encoder unit 200 extracts compressed information for each data from data acquired by the plurality of sensors 110, 120, and 130. The encoder unit 200 is a LiDAR unit that extracts compressed LiDAR information 14 using map information 10 around the autonomous vehicle or robot 1 and LiDAR information 11 acquired by LiDAR 120. An encoder 210, a vision encoder 220 that extracts compressed vision information 15 using the map information 10 and the vision information 12 acquired by the camera 120, map information 10, and a microphone It includes a sound encoder 230 that extracts compressed sound information 16 using the acquired sound information 13.

공간 디코더(300)는 미리 주어진 장애물 정보(예를 들어, 장애물의 위치, 속도, 가속도, 미래 경로 등)를 이용하여 공간 인코더(310, 도 6 참조)와 함께 압축 공간 정보(19, 도 6 참조)를 장애물(2)의 공간 정보(20)로 복원시키도록 기계 학습된다. The spatial decoder 300 uses pre-given obstacle information (e.g., obstacle position, speed, acceleration, future path, etc.) to compress spatial information 19 (see FIG. 6) together with the spatial encoder 310 (see FIG. 6). ) is machine learned to restore the spatial information 20 of the obstacle 2.

공간 디코더(300)는 인코더부(200)를 통해 추출된 시각 정보 및 음향 정보의 압축 정보(14, 15, 16)로부터 장애물(2)에 대한 공간 예측 정보(18)를 출력한다. 여기서 장애물(2)의 공간 예측 정보(18)는, 장애물(2)의 예측되는 위치, 속도, 가속도, 미래 경로 등을 포함한다.The spatial decoder 300 outputs spatial prediction information 18 about the obstacle 2 from the compressed information 14, 15, and 16 of the visual information and sound information extracted through the encoder unit 200. Here, the spatial prediction information 18 of the obstacle 2 includes the predicted position, speed, acceleration, future path, etc. of the obstacle 2.

공간 디코더(300)는 압축 라이다 정보(14), 압축 비전 정보(15) 및 상기 압축 음향 정보(16)의 평균값을 통해 도출된 공통된 압축 정보(17)를 이용하여 장애물(2)의 공간 예측 정보(18)를 출력한다. 이 때, 자율 주행 차량 또는 로봇(1) 주변의 지도 데이터를 함께 사용할 수 있다.The spatial decoder 300 predicts the space of the obstacle 2 using common compressed information 17 derived from the average value of compressed lidar information 14, compressed vision information 15, and the compressed acoustic information 16. Outputs information (18). At this time, map data around the autonomous vehicle or robot (1) can be used together.

라이다(110)와 카메라(120)와 같은 시각적 센서는 빛의 직진성을 이용하기 때문에 공간 정보를 얻어냄에 있어 정확한 거리와 방향을 측정할 수 있다는 장점이 있지만, 사각 지대가 반드시 존재한다는 단점이 있다. 그에 반해 장애물(2)이 내는 음향 정보는 회절이 용이하므로 사각지대 없이 데이터를 취득할 수 있다는 장점이 있다. 다만 장애물(2)의 음향 정보는 정확한 거리나 방향을 측정하기 어렵지만, 본 발명의 장애물 탐지 시스템의 경우, 기계 학습부를 통해 인코더부(200) 및 공간 디코더(300)를 학습시킴으로써, 시각 정보와 음향 정보를 이용하여 장애물(2)에 대한 정확한 공간 예측 정보(18)를 출력할 수 있다.Visual sensors such as LIDAR 110 and camera 120 have the advantage of being able to measure accurate distance and direction in obtaining spatial information because they use the straight-line nature of light, but have the disadvantage that blind spots always exist. there is. On the other hand, the acoustic information emitted by the obstacle 2 is easily diffracted, so there is an advantage in that data can be acquired without blind spots. However, it is difficult to measure the exact distance or direction of the acoustic information of the obstacle 2, but in the case of the obstacle detection system of the present invention, the encoder unit 200 and the spatial decoder 300 are trained through the machine learning unit to obtain visual information and audio. Using the information, accurate spatial prediction information 18 about the obstacle 2 can be output.

기계 학습부는 라이다 인코더, 비전 인코더(210), 사운드 인코더(230) 및 공간 디코더(300)를 오토인코더(Autoencoder)를 통해 학습시킬 수 있으며, 도 3 내지 6은 도 2의 센서별 인코더(210, 220, 230)와 공간 디코더(300)의 기계 학습 방법을 나타내고 있다. The machine learning unit can learn the LIDAR encoder, vision encoder 210, sound encoder 230, and spatial decoder 300 through an autoencoder, and FIGS. 3 to 6 show the sensor-specific encoder 210 of FIG. 2. , 220, 230) and the machine learning method of the spatial decoder 300.

오토인코더(Autoencoder)는 데이터를 압축하고 다시 복원해낼 수 있는 인코더(Encoder)/디코더(Decoder)로 이루어져 있는 딥러닝 네트워크이다. 인코더(Encoder)는 데이터를 압축하여 데이터가 가지고 있는 압축 정보(또는 함축적 정보)를 추출한다. 압축 정보가 존재하는 공간을 특징 공간(Feature space)라고 하며, 특징 공간에서 정보 사이의 거리가 짧을수록 유사한 내용을 함축하고 있는 정보이다. 디코더(Decoder)는 특징 공간의 압축된 정보를 원래대로 복원한다. 특징 공간의 압축된 정보는 사람이 이해할 수 있는 형태가 아니기 때문에, 정보를 사람이 사용할 수 있는 원래의 형태로 복원하는 것이다. 학습된 인코더(Encoder)와 디코더(Decoder)는 각각 따로 사용될 수 있다.Autoencoder is a deep learning network consisting of an encoder/decoder that can compress and restore data. An encoder compresses data and extracts the compressed information (or implicit information) contained in the data. The space where compressed information exists is called feature space, and the shorter the distance between information in the feature space, the more information it contains. The decoder restores the compressed information in the feature space to its original state. Since the compressed information in the feature space is not in a form that humans can understand, the information is restored to its original form that can be used by humans. The learned encoder and decoder can be used separately.

본 실시예에 따르면, 오토인코더(Autoencoder)를 통한 기계 학습시 미리 알고 있는 지도 정보(10)를 추가로 넣어 줌으로써, 더 정확한 정보 압축 및 복원을 가능하게 하였다. 이는 오토인코더(autoencoder)가 더 잘 학습할 수 있도록 추가적인 조건을 제공하기 위함이며, 본 실시예의 경우 함축된 공간 정보를 가장 잘 나타내고 있는 지도 정보(10)를 추가적인 조건으로 제공함으로써 학습이 더 원활하게 진행되게 할 수 있다. According to this embodiment, by adding map information 10 that is known in advance during machine learning using an autoencoder, more accurate information compression and restoration are possible. This is to provide additional conditions so that the autoencoder can learn better. In this embodiment, map information 10, which best represents the implied spatial information, is provided as an additional condition to facilitate learning more smoothly. You can make it progress.

오토인코더를 통한 기계 학습시 필요한 데이터는 미리 주어진 라이다 정보(11, 포인트클라우드 데이터), 비전 정보(12, 비전 이미지), 음향 정보(13), 자율 주행 차량 또는 로봇(1) 주변의 지도 정보(10), 그리고 일정 범위 내의 장애물 정보(20)를 포함한다. 이 때 장애물(2)은 사각 지대(3)에 있는 장애물까지 포함한다. The data required for machine learning through an autoencoder is pre-given lidar information (11, point cloud data), vision information (12, vision image), acoustic information (13), and map information around the autonomous vehicle or robot (1). (10), and includes obstacle information (20) within a certain range. At this time, the obstacle (2) includes the obstacle in the blind spot (3).

기계 학습에 사용되는 이상과 같은 라이다 정보(11), 비전 정보(12), 음향 정보(13), 지도 정보(10), 장애물 정보(20)는 서로 시간적으로 동기화되어 제공될 수 있다.The above lidar information 11, vision information 12, acoustic information 13, map information 10, and obstacle information 20 used in machine learning may be provided in temporal synchronization with each other.

도 3과 같이, 미리 주어진 라이다 정보(11)와 지도 정보(10)를 이용하여 오토인코더를 통해 라이다 인코더(210)와 라이다 디코더(211)를 비지도 학습시킬 수 있고, 도 4와 같이, 미리 주어진 비전 정보(12)와 지도 정보(10)를 이용하여 비전 인코더(220)와 비전 디코더(221)를 비지도 학습시킬 수 있다. 또한, 도 5와 같이, 미리 주어진 음향 정보(13)와 지도 정보(10)를 이용하여 사운드 인코더(230)와 사운드 디코더(231)를 비지도 학습시킬 수 있으며, 도 6과 같이, 미리 주어진 장애물 정보(20)와 지도 정보(10)를 이용하여 공간 인코더(310)와 공간 디코더(300)를 비지도 학습시킬 수 있다.As shown in FIG. 3, the LiDAR encoder 210 and the LiDAR decoder 211 can be trained unsupervised through an autoencoder using pre-given LiDAR information 11 and map information 10, and as shown in FIG. 4 Likewise, the vision encoder 220 and the vision decoder 221 can be subjected to unsupervised learning using the previously given vision information 12 and map information 10. In addition, as shown in FIG. 5, the sound encoder 230 and the sound decoder 231 can be trained unsupervised using pre-given acoustic information 13 and map information 10, and as shown in FIG. 6, pre-given obstacles The spatial encoder 310 and the spatial decoder 300 can be subjected to unsupervised learning using the information 20 and map information 10.

도 7은 도 3 내지 6에 도시된 기계 학습 방법의 학습 흐름을 나타내고 있다. Figure 7 shows the learning flow of the machine learning method shown in Figures 3 to 6.

각 센서별 압축 정보, 즉, 압축 라이다 정보(14), 압축 비전 정보(15), 압축 음향 정보(16) 및 압축 공간 정보(19)는 각각 시간적으로 동기화되어 있기 때문에, 동일한 형태를 가져야 한다. 그러나, 라이다 인코더(210), 비전 인코더(220), 사운드 인코더(230) 및 공간 인코더(310)는 서로 개별적으로 학습되었기 때문에, 도 7의 (a)와 같이, 압축 라이다 정보(14), 압축 비전 정보(15), 압축 음향 정보(16)와 압축 공간 정보(19)는 특징 공간 내에서 서로 거리를 두고 위치하게 된다. 특징 공간 내에서 거리가 멀다는 것은 서로 유사하지 않다는 것을 의미한다. Compressed information for each sensor, that is, compressed lidar information (14), compressed vision information (15), compressed acoustic information (16), and compressed spatial information (19), are each temporally synchronized and must have the same form. . However, because the LiDAR encoder 210, vision encoder 220, sound encoder 230, and spatial encoder 310 were individually learned from each other, as shown in (a) of FIG. 7, compressed LiDAR information 14 , Compressed vision information 15, compressed sound information 16, and compressed space information 19 are located at a distance from each other in the feature space. A large distance within the feature space means that they are not similar to each other.

하지만 실제로 4가지 압축 정보는 동일해야 하기 때문에, 기계 학습부는, 도 7의 (b)와 같이, 압축 라이다 정보(14), 압축 비전 정보(15), 압축 음향 정보(16) 및 압축 공간 정보(19)들이 특징 공간 내에서 상호 거리를 좁히는 방향으로 학습을 진행한다. 구체적으로, 학습시 손실 함수(loss function)에 특징 공간 사이의 코사인 유사도(cosine similarity)를 항으로 넣어, 각 센서의 인코더와 디코더가 올바르게 학습되게 할 수 있다. However, since the four types of compressed information must actually be the same, the machine learning unit uses compressed lidar information (14), compressed vision information (15), compressed acoustic information (16), and compressed space information, as shown in (b) of Figure 7. (19) The learning proceeds in the direction of narrowing the mutual distance within the feature space. Specifically, by adding the cosine similarity between feature spaces to the loss function during learning, the encoder and decoder of each sensor can be learned correctly.

학습이 완료된 후, 각 인코더(210, 220, 230, 310)을 통해 압축된 압축 라이다 정보(14), 압축 비전 정보(15), 압축 음향 정보(16) 및 압축 공간 정보(19)는, 도 7의 (c)와 같이, 거의 공통된 값을 가지게 되며, 이와 같이 공통된 압축 정보를 그 시점의 공간 정보를 제대로 압축한 정보로 볼 수 있다.After learning is completed, the compressed LIDAR information (14), compressed vision information (15), compressed acoustic information (16), and compressed spatial information (19) compressed through each encoder (210, 220, 230, 310) are, As shown in (c) of Figure 7, they have almost common values, and this common compressed information can be viewed as information that properly compresses the spatial information at that point in time.

다시 도 2를 참조하면, 라이다 인코더(210), 비전 인코더(220), 사운드 인코더(230)는 센서부(100)를 통해 실시간으로 계측된 계측 정보를 이용하여 압축 라이다 정보(14), 압축 비전 정보(15), 압축 음향 정보(16)를 각각 추출하며, 이를 평균 내어 공통된 압축 정보(17)를 얻어 지도 정보(10)와 함께 공간 디코더(300)를 통과시킴으로써 장애물(2)에 대한 공간 예측 정보(18)를 출력할 수 있다. Referring again to FIG. 2, the LiDAR encoder 210, vision encoder 220, and sound encoder 230 use measurement information measured in real time through the sensor unit 100 to compress LiDAR information 14, Compressed vision information (15) and compressed sound information (16) are each extracted, averaged to obtain common compressed information (17), and passed through the spatial decoder (300) together with the map information (10) to determine the obstacle (2). Spatial prediction information 18 can be output.

도 8 및 9는 서로 다른 종류의 인코더와 디코더를 이용하여 다른 종류의 센서 정보를 복원하는 방법을 나타낸 도면이다.Figures 8 and 9 are diagrams showing methods for restoring different types of sensor information using different types of encoders and decoders.

비전 디코더(14)는 카메라(120)의 고장 또는 사용 불가로 인한 비전 정보(12)의 취득 불가시 라이다 인코더(210) 또는 사운드 인코더(230)의 압축 정보를 이용하여 카메라(120)의 비전 정보(12)를 복원시킬 수 있다. 도 8은 비전 디코더(221)가 라이다 인코더(210)를 통한 압축 라이다 정보(14)를 이용하여 비전 정보(12)를 복원하는 경우를 보이고 있다. When the vision information 12 cannot be acquired due to a breakdown or unavailability of the camera 120, the vision decoder 14 uses the compressed information of the lidar encoder 210 or the sound encoder 230 to provide the vision information of the camera 120. Information 12 can be restored. FIG. 8 shows a case where the vision decoder 221 restores the vision information 12 using compressed LIDAR information 14 through the LIDAR encoder 210.

이와 같은 경우뿐만 아니라, 라이다(110)를 통한 라이다 정보(11)의 취득 불가시 라이다 디코더(211)는 비전 인코더(220) 또는 사운드 인코더(230)의 압축 정보를 이용하여 라이다 정보(11)를 복원시킬 수 있고, 마이크(130)를 통한 음향 정보의 취득 불가시 사운드 디코더(231)는 라이다 인코더(210) 또는 비전 인코더(220)의 압축 정보를 이용하여 음향 정보(13)를 복원시킬 수 있다. In addition to this case, when it is impossible to acquire the LiDAR information 11 through the LiDAR 110, the LiDAR decoder 211 uses the compressed information of the vision encoder 220 or the sound encoder 230 to provide LiDAR information. (11) can be restored, and when it is impossible to acquire acoustic information through the microphone 130, the sound decoder 231 uses the compressed information of the LiDAR encoder 210 or the vision encoder 220 to obtain acoustic information 13. can be restored.

이에 따르면, 특정 센서가 고장 나거나 사용될 수 없어 계측 데이터를 취득할 수 없는 상황에서도, 다른 센서의 정보를 복원하여 장애물 예측 정보(18)의 도출에 사용할 수 있다. According to this, even in a situation where measurement data cannot be acquired because a specific sensor is broken or cannot be used, information from other sensors can be restored and used to derive obstacle prediction information 18.

한편, 도 9와 같이, 공간 디코더(300)는 라이다(110)를 통한 라이다 정보(11) 또는 카메라(120)를 통한 비전 정보(12)의 취득 불가시 사운드 인코더(230)의 압축 정보만을 이용하여 장애물에 대한 예측 정보(18)를 복원시킬 수 있다. 이에 따르면, 라이다 정보(11)나 비전 정보(12)를 취득할 수 없는 경우에도, 정확도가 조금 떨어지더라도, 장애물 정보에 대한 예측이 가능하다. On the other hand, as shown in FIG. 9, the spatial decoder 300 cannot acquire the lidar information 11 through the lidar 110 or the vision information 12 through the camera 120, and compressed information of the sound encoder 230 The prediction information 18 about the obstacle can be restored using only . According to this, even when lidar information 11 or vision information 12 cannot be acquired, obstacle information can be predicted even if the accuracy is slightly lower.

상기에서는 본 발명의 특정의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the present invention has been described above with reference to specific embodiments, those skilled in the art can vary the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that it can be modified and changed.

100: 센서부 110: 라이다
120: 카메라 130: 마이크
200: 인코더부 210: 라이다 인코더
211: 라이다 디코더 220: 비전 인코더
221: 비전 디코더 230: 사운드 인코더
231: 사운드 디코더 300: 공간 디코더
310: 공간 인코더
100: sensor unit 110: lidar
120: Camera 130: Microphone
200: Encoder unit 210: LiDAR encoder
211: Lidar decoder 220: Vision encoder
221: Vision decoder 230: Sound encoder
231: sound decoder 300: spatial decoder
310: spatial encoder

Claims (10)

시각 정보 및 음향 정보를 취득하기 위한 복수의 센서로서 라이다, 카메라 및 마이크를 포함하는 센서부;
복수의 상기 센서가 취득한 데이터로부터 각 데이터의 압축 정보를 추출하는 인코더부; 및
미리 주어진 장애물 정보를 이용하여 공간 인코더와 함께 압축 공간 정보를 장애물의 공간 정보로 복원시키도록 기계 학습되며, 상기 인코더부를 통해 추출된 시각 정보 및 음향 정보의 압축 정보로부터 장애물에 대한 공간 예측 정보를 출력하는 공간 디코더;를 포함하고,
상기 인코더부는,
지도 정보와 상기 라이다가 취득한 라이다 정보를 이용하여 압축 라이다 정보를 추출하는 라이다 인코더;
지도 정보와 상기 카메라가 취득한 비전 정보를 이용하여 압축 비전 정보를 추출하는 비전 인코더; 및
지도 정보와 상기 마이크가 취득한 음향 정보를 이용하여 압축 음향 정보를 추출하는 사운드 인코더;를 포함하는 것을 특징으로 하는, 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템.
A sensor unit including a lidar, a camera, and a microphone as a plurality of sensors for acquiring visual information and acoustic information;
an encoder unit extracting compressed information of each data from the data acquired by the plurality of sensors; and
Using pre-given obstacle information, machine learning is performed with a spatial encoder to restore the compressed spatial information to the spatial information of the obstacle, and spatial prediction information about the obstacle is output from the compressed information of the visual and acoustic information extracted through the encoder unit. Includes a spatial decoder;
The encoder unit,
A LiDAR encoder that extracts compressed LiDAR information using map information and LiDAR information acquired by the LiDAR;
a vision encoder that extracts compressed vision information using map information and vision information acquired by the camera; and
An obstacle detection system for an autonomous vehicle or robot, comprising a sound encoder that extracts compressed sound information using map information and sound information acquired by the microphone.
제1항에 있어서,
상기 장애물에 대한 공간 예측 정보는 예측되는 장애물의 위치, 속도, 가속도 및 미래 경로 중 하나 이상을 포함하는 것을 특징으로 하는, 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템.
According to paragraph 1,
An obstacle detection system for an autonomous vehicle or robot, wherein the spatial prediction information about the obstacle includes one or more of the position, speed, acceleration, and future path of the predicted obstacle.
삭제delete 삭제delete 제1항에 있어서, 상기 공간 디코더는,
상기 압축 라이다 정보, 상기 압축 비전 정보 및 상기 압축 음향 정보의 평균값을 이용하여 상기 장애물에 대한 공간 예측 정보를 출력하는 것을 특징으로 하는, 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템.
The method of claim 1, wherein the spatial decoder,
An obstacle detection system for an autonomous vehicle or robot, characterized in that it outputs spatial prediction information about the obstacle using an average value of the compressed LiDAR information, the compressed vision information, and the compressed acoustic information.
제1항에 있어서,
상기 라이다 인코더, 상기 비전 인코더, 상기 사운드 인코더 및 상기 공간 디코더는 오토인코더를 통한 기계 학습부에 의해 학습되는 것을 특징으로 하는, 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템.
According to paragraph 1,
An obstacle detection system for an autonomous vehicle or robot, characterized in that the lidar encoder, the vision encoder, the sound encoder, and the spatial decoder are learned by a machine learning unit through an autoencoder.
제6항에 있어서, 상기 기계 학습부는,
미리 주어진 라이다 정보와 지도 정보를 이용하여 상기 라이다 인코더와 라이다 디코더를 비지도 학습시키고,
미리 주어진 비전 정보와 지도 정보를 이용하여 상기 비전 인코더와 비전 디코더를 비지도 학습시키며,
미리 주어진 음향 정보와 지도 정보를 이용하여 상기 사운드 인코더와 사운드 디코더를 비지도 학습시키며,
미리 주어진 장애물 정보와 지도 정보를 이용하여 상기 공간 인코더와 상기 공간 디코더를 비지도 학습시키는 것을 특징으로 하는, 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템.
The method of claim 6, wherein the machine learning unit,
Unsupervised learning of the LiDAR encoder and LiDAR decoder using pre-given LiDAR information and map information,
The vision encoder and vision decoder are trained unsupervised using pre-given vision information and map information,
Unsupervised learning of the sound encoder and sound decoder using pre-given sound information and map information,
An obstacle detection system for an autonomous vehicle or robot, characterized by unsupervised learning of the spatial encoder and the spatial decoder using pre-given obstacle information and map information.
제7항에 있어서, 상기 기계 학습부는,
상기 라이다 인코더, 상기 비전 인코더, 상기 사운드 인코더 및 상기 공간 인코더 각각을 통해 압축된 압축 정보들의 특징 공간 내에서의 상호 거리를 좁히는 방향으로 학습을 진행하는 것을 특징으로 하는, 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템.
The method of claim 7, wherein the machine learning unit,
An autonomous vehicle or robot, characterized in that learning is conducted in the direction of narrowing the mutual distance within the feature space of compressed information compressed through each of the LiDAR encoder, the vision encoder, the sound encoder, and the spatial encoder. obstacle detection system for
제7항에 있어서,
상기 라이다 디코더는 상기 라이다를 통한 라이다 정보의 취득 불가시 비전 인코더 또는 사운드 인코더의 압축 정보를 이용하여 상기 라이다 정보를 복원시키고,
상기 비전 디코더는 상기 카메라를 통한 비전 정보의 취득 불가시 상기 라이다 인코더 또는 상기 사운드 인코더의 압축 정보를 이용하여 상기 비전 정보를 복원시키고,
상기 사운드 디코더는 상기 마이크를 통한 음향 정보의 취득 불가시 상기 라이다 인코더 또는 상기 비전 인코더의 압축 정보를 이용하여 상기 음향 정보를 복원시키는 것을 특징으로 하는, 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템.
In clause 7,
The LiDAR decoder restores the LiDAR information using compressed information of a vision encoder or sound encoder when acquisition of LiDAR information through the LiDAR is impossible,
When it is impossible to obtain vision information through the camera, the vision decoder restores the vision information using compressed information from the LIDAR encoder or the sound encoder,
The sound decoder is an obstacle detection system for an autonomous vehicle or robot, characterized in that when acquisition of sound information through the microphone is impossible, the sound information is restored using compressed information of the LIDAR encoder or the vision encoder.
제7항에 있어서,
상기 공간 디코더는 상기 라이다를 통한 라이다 정보 및 상기 카메라를 통한 비전 정보의 취득 불가시 상기 사운드 인코더의 압축 정보를 이용하여 상기 장애물 정보를 복원시키는 것을 특징으로 하는, 자율 주행 차량 또는 로봇을 위한 장애물 탐지 시스템.
In clause 7,
The spatial decoder is for an autonomous vehicle or robot, characterized in that it restores the obstacle information using compressed information of the sound encoder when it is impossible to obtain lidar information through the lidar and vision information through the camera. Obstacle detection system.
KR1020210150641A 2021-11-04 2021-11-04 Obstacle detection system for autonomous vehicle or robot KR102609489B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210150641A KR102609489B1 (en) 2021-11-04 2021-11-04 Obstacle detection system for autonomous vehicle or robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210150641A KR102609489B1 (en) 2021-11-04 2021-11-04 Obstacle detection system for autonomous vehicle or robot

Publications (2)

Publication Number Publication Date
KR20230065419A KR20230065419A (en) 2023-05-12
KR102609489B1 true KR102609489B1 (en) 2023-12-06

Family

ID=86385866

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210150641A KR102609489B1 (en) 2021-11-04 2021-11-04 Obstacle detection system for autonomous vehicle or robot

Country Status (1)

Country Link
KR (1) KR102609489B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133450A (en) 2018-01-31 2019-08-08 パナソニックIpマネジメント株式会社 Mobile robot and control method of the same
US20210063198A1 (en) 2019-08-31 2021-03-04 Nvidia Corporation Map creation and localization for autonomous driving applications
JP2021163038A (en) * 2020-03-31 2021-10-11 東芝情報システム株式会社 Plane data processing device, plane data processing method and plane data processing program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101149800B1 (en) 2011-12-01 2012-06-08 국방과학연구소 Detection apparatus and the method for concealed obstacle using uwb radar and stereo cameras
KR102061810B1 (en) * 2018-03-23 2020-01-02 단국대학교 산학협력단 System and Method for Processing Multi type Sensor Signal Based on Multi modal Deep Learning
KR102280803B1 (en) * 2019-07-02 2021-07-21 엘지전자 주식회사 Robot and operating method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133450A (en) 2018-01-31 2019-08-08 パナソニックIpマネジメント株式会社 Mobile robot and control method of the same
US20210063198A1 (en) 2019-08-31 2021-03-04 Nvidia Corporation Map creation and localization for autonomous driving applications
JP2021163038A (en) * 2020-03-31 2021-10-11 東芝情報システム株式会社 Plane data processing device, plane data processing method and plane data processing program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Fayyad, Jamil, et al. Deep learning sensor fusion for autonomous vehicle perception and localization: A review. Sensors. 2020.*

Also Published As

Publication number Publication date
KR20230065419A (en) 2023-05-12

Similar Documents

Publication Publication Date Title
CN102576495B (en) Collision monitor for a motor vehicle
US20170341645A1 (en) Information processor and movable body apparatus
US8687063B2 (en) Method for predicting lane line and lane departure warning system using the same
CN110936959B (en) On-line diagnosis and prediction of vehicle perception system
US11315349B2 (en) Method, apparatus and device for identifying passenger state in unmanned vehicle, and storage medium
US20210349467A1 (en) Control device, information processing method, and program
WO2018052714A2 (en) Video to radar
KR102609489B1 (en) Obstacle detection system for autonomous vehicle or robot
JP7160257B2 (en) Information processing device, information processing method, and program
JP2022012173A (en) Information processing device, information processing system, information processing method, and program
US20220237921A1 (en) Outside environment recognition device
CN112526525A (en) Classification of static and dynamic objects
KR20180066668A (en) Apparatus and method constructing driving environment of unmanned vehicle
KR20200143161A (en) Safety Inspection Method of Structure Using Drone with Simultaneous Localization and Mapping
US20210142216A1 (en) Method of training a machine learning system for an object recognition device
CN115565058A (en) Robot, obstacle avoidance method, device and storage medium
CN111352128B (en) Multi-sensor fusion sensing method and system based on fusion point cloud
KR20230079855A (en) Apparatus and method for evaluating obstacle recognition performance of autonomous vehicle
KR102252174B1 (en) Safety Inspection Vehicle of Structure Using Mobile Mapping System
JP2018169924A (en) Learning data collection apparatus, learning data collection system, and learning data collection method
CN114092899A (en) Method and apparatus for identifying objects from input data
WO2021214542A1 (en) Tracking vulnerable road users across image frames using fingerprints obtained from image analysis
CN109478366B (en) Solution for monitoring a parking area of a motor vehicle
Shinde et al. Development of sensor data fusion for obstacle detection for electric mini tractor
US12046132B2 (en) Sensor localization

Legal Events

Date Code Title Description
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant