KR20210122155A - Integrated fusion sensor apparatus including detachable light source with built-in intelligent camera - Google Patents

Integrated fusion sensor apparatus including detachable light source with built-in intelligent camera Download PDF

Info

Publication number
KR20210122155A
KR20210122155A KR1020210039502A KR20210039502A KR20210122155A KR 20210122155 A KR20210122155 A KR 20210122155A KR 1020210039502 A KR1020210039502 A KR 1020210039502A KR 20210039502 A KR20210039502 A KR 20210039502A KR 20210122155 A KR20210122155 A KR 20210122155A
Authority
KR
South Korea
Prior art keywords
mirror
lidar
receiving
sensor
integrated fusion
Prior art date
Application number
KR1020210039502A
Other languages
Korean (ko)
Other versions
KR102610855B1 (en
Inventor
박성조
Original Assignee
우창정보기술(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 우창정보기술(주) filed Critical 우창정보기술(주)
Publication of KR20210122155A publication Critical patent/KR20210122155A/en
Application granted granted Critical
Publication of KR102610855B1 publication Critical patent/KR102610855B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/18Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors
    • G02B7/182Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors for mirrors
    • G02B7/1821Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors for mirrors for rotating or oscillating mirrors
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02KDYNAMO-ELECTRIC MACHINES
    • H02K7/00Arrangements for handling mechanical energy structurally associated with dynamo-electric machines, e.g. structural association with mechanical driving motors or auxiliary dynamo-electric machines
    • H02K7/003Couplings; Details of shafts
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B2003/0093Simple or compound lenses characterised by the shape

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Power Engineering (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Disclosed is an integrated fusion sensor apparatus. According to an embodiment of the present invention, the integrated fusion sensor apparatus comprises: a detachable lidar sensor wherein a transmission module transmitting a lidar light signal and a reception module receiving the lidar light signal are detached; an intelligent image sensor acquiring a camera image of an object; and a control unit integrating and controlling object recognition using the detachable lidar sensor and object recognition using the intelligent image sensor. The transmission module comprises a transmission unit generating and outputting the lidar light signal and a transmission mirror reflecting the light signal output from the transmission unit. The reception module comprises a reception unit receiving the lidar light signal reflected and returning from the object and a reception mirror reflecting the received light signal from the reception unit.

Description

통합 퓨전 센서 장치 {Integrated fusion sensor apparatus including detachable light source with built-in intelligent camera}Integrated fusion sensor apparatus including detachable light source with built-in intelligent camera}

본 발명은 라이다(LIDAR) 광 센서에 관한 기술이다.The present invention relates to a LIDAR light sensor.

라이다(LIDAR: Light Detection And Ranging)는 빛을 이용하여 대상물을 감지하고 대상물까지의 거리를 측정하는 장치이다. 라이다는 기능에 있어서 레이다 RADAR: Radio Detection And Ranging)와 유사하지만, 전파를 이용하는 레이다와 달리 빛을 이용하여 측정한다는 점에서 차이가 있다. 빛과 마이크로파 간의 도플러 효과 차이로 인하여, 라이다는 레이다에 비하여 방위 분해능, 거리 분해능 등이 우수하다는 특징을 가진다.LIDAR (Light Detection And Ranging) is a device that detects an object using light and measures the distance to the object. Lidar is similar to radar RADAR (Radio Detection And Ranging) in function, but it is different from radar using radio waves in that it measures using light. Due to the difference in the Doppler effect between light and microwaves, lidar has superior azimuth resolution and distance resolution compared to radar.

라이다 장치는 위성이나 항공기에서 레이저 펄스를 방출하고, 대기중의 입자에 의해 후방 산란되는 펄스를 지상 관측소에서 수신하는 항공 라이다가 주류를 이루어 왔으며, 이러한 항공 라이다는 바람 정보와 함께 먼지, 연기, 에어로졸, 구름 입자 등의 존재와 이동을 측정하고, 대기 중의 먼지입자의 분포 또는 대기 오염도를 분석하는데 사용되어왔다.LiDAR devices emit laser pulses from satellites or aircraft, and aerial lidars that receive pulses backscattered by particles in the atmosphere from a ground observatory have been mainstream. It has been used to measure the presence and movement of smoke, aerosols, and cloud particles, and to analyze the distribution of dust particles in the atmosphere or air pollution.

최근에는 장애물 탐지, 지형 모델링, 대상물 까지의 위치 획득 기능을 수행하는 지상 라이다 감시정찰로봇, 전투로봇, 무인 수상함, 무인 헬기, 드론 등의 국방분야나, 민수용 이동로봇, 지능형자동차, 무인 자동차, 중장비, 지하철, 도로 요금징수 등의 민수용 분야에 대한 적용을 염두에 두고 활발히 연구가 이루어지고 있다.Recently, land lidar surveillance and reconnaissance robots, combat robots, unmanned surface ships, unmanned helicopters, drones, etc. that perform obstacle detection, terrain modeling, and location acquisition functions are used in defense fields, civil mobile robots, intelligent cars, unmanned vehicles, Research is being actively carried out with the application of heavy equipment, subway, and road toll collection in mind.

일 실시 예에 따라, 분리형 라이다 센서와 지능형 영상 센서를 통합한 통합 퓨전 센서 장치를 제안한다.According to an embodiment, an integrated fusion sensor device in which a separate lidar sensor and an intelligent image sensor are integrated is proposed.

일 실시 예에 따른 통합 퓨전 센서 장치는, 라이다 광신호를 송신하는 송신 모듈과 라이다 광신호를 수신하는 수신 모듈이 분리된 분리형 라이다 센서와, 대상체의 카메라 영상을 획득하는 지능형 영상 센서와, 분리형 라이다 센서를 이용한 객체인식과 지능형 영상 센서를 이용한 딥 러닝 기반 객체인식을 통합하여 제어하는 제어부를 포함하고, 송신 모듈은 라이다 광신호를 생성하여 출력하는 송신부와 송신부를 통해 출력된 광신호를 반사시키는 송신 미러를 포함하며, 수신 모듈은 대상체에서 반사되어 되돌아오는 라이다 광신호를 수신하는 수신부와 수신부를 통해 수신된 광신호를 반사시키는 수신 미러를 포함한다.An integrated fusion sensor device according to an embodiment includes a separate lidar sensor in which a transmission module for transmitting a lidar optical signal and a reception module for receiving a lidar optical signal are separated, and an intelligent image sensor for acquiring a camera image of an object; , a control unit that integrates and controls object recognition using a separate lidar sensor and deep learning-based object recognition using an intelligent image sensor, and the transmitting module includes a transmitter that generates and outputs a LiDAR optical signal and a light output through the transmitter It includes a transmitting mirror that reflects the signal, and the receiving module includes a receiving unit for receiving the LIDAR optical signal reflected from the object and returning, and a receiving mirror for reflecting the optical signal received through the receiving unit.

통합 퓨전 센서 장치는, 송신 미러 및 수신 미러를 결합하는 연결부와, 연결부가 결합되고 송신 미러 및 수신 미러를 회전시키는 양 축 모터를 더 포함할 수 있다.The integrated fusion sensor device may further include a connection unit for coupling the transmission mirror and the reception mirror, and a two-axis motor coupled to the connection unit and rotating the transmission mirror and the reception mirror.

양 축 모터는, 분리형 광학구조를 만들기 위해 송신 모듈과 수신 모듈을 분리하여 동작시키는 엔코더가 내장될 수 있다.The two-axis motor may have an encoder that separates and operates the transmitting module and the receiving module to create a separate optical structure.

제어부는, 양 축 모터의 구동을 제어하되, 송신 미러와 수신 미러를 동시에 동일한 방향으로 회전시키는 제1 모드, 송신 미러와 수신 미러를 상이한 방향으로 회전시키는 제2 모드, 송신 미러 및 수신 미러 중 어느 하나의 미러를 회전시키는 제3 모드, 사용자 설정에 따라 송신 미러 및 수신 미러 중 적어도 하나를 회전시키는 제4 모드 중 어느 하나의 모드로 진입하여 각 미러의 회전 유무 및 회전방향을 제어할 수 있다.The control unit controls the driving of both axis motors, but any one of a first mode in which the transmitting mirror and the receiving mirror are rotated in the same direction at the same time, a second mode in which the transmitting mirror and the receiving mirror are rotated in different directions, and the transmitting mirror and the receiving mirror The third mode of rotating one mirror and the fourth mode of rotating at least one of the transmitting mirror and the receiving mirror according to a user setting may be entered to control the presence or absence of rotation and the rotation direction of each mirror.

제어부는, 분리형 라이다 센서 및 지능형 영상 센서의 원(raw) 데이터를 이용하여 각각의 객체를 검출하고, 분리형 라이다 센서의 객체 검출 결과로부터 공간 상에서 객체의 거리 및 각도를 계산하고, 지능형 영상 센서를 통해 얻은 객체 검출 결과로부터 이미지 상에서 객체의 IoU를 계산하며, 공간 상에서 객체의 거리 및 각도와 이미지 상에서 객체의 IoU를 융합할 수 있다.The control unit detects each object using raw data of the separate lidar sensor and the intelligent image sensor, calculates the distance and angle of the object in space from the object detection result of the separate lidar sensor, and the intelligent image sensor The IoU of the object on the image is calculated from the object detection result obtained through

통합 퓨전 센서 장치는, 분리형 라이다 센서를 통해 미리 설정된 거리 내 270도의 스캔 범위 내 대상체를 감지하고, 분리형 라이다 센서 및 지능형 영상 센서를 통해 전방 90도의 스캔 범위의 대상체를 통합적으로 감지할 수 있다.The integrated fusion sensor device detects an object within a scan range of 270 degrees within a preset distance through a separate lidar sensor, and can integrally detect an object with a scan range of 90 degrees in front through a separate lidar sensor and an intelligent image sensor. .

각 미러는 옆면을 포함하는 다각형 기둥 형상 또는 원기둥 형상일 수 있다.Each mirror may have a polygonal columnar shape including a side surface or a cylindrical shape.

통합 퓨전 센서 장치는, 송신 커버와 수신 커버를 더 포함하며, 각 커버는 광원이 일정하게 출력되고 수신되도록 할 수 있다.The integrated fusion sensor device further includes a transmitting cover and a receiving cover, and each cover may allow a light source to be constantly output and received.

일 실시 예에 따른 통합 퓨전 센서 장치에 따르면, 기존 라이다 광 센서의 문제(각종 악천후 상황에서 신호 간섭에 따른 문제점으로 상용화에 어려움이 발생되었으며, 사용자의 요구사항보다 제품특성에 국한된 라이다 특성으로 많은 문제점을 해결할 수가 없었음)를 해결할 수 있다.According to the integrated fusion sensor device according to an embodiment, the problem of the existing lidar light sensor (the problem of signal interference in various bad weather conditions caused difficulties in commercialization, and the lidar characteristic limited to product characteristics rather than user requirements) Many problems could not be solved).

통합 퓨전 센서 장치는 라이다 센서의 송신 모듈과 수신 모듈이 분리되어 일체형으로 구동됨에 따라 상하 좌우 어느 위치에서도 신호 송수신이 가능하다.The integrated fusion sensor device is capable of transmitting and receiving signals at any position, up, down, left, or right as the transmitting module and the receiving module of the lidar sensor are separated and driven integrally.

양 축 모터의 구동 모드에 따라 다양한 센서 기능을 만들 수 있고, 사용자의 편의에 따라 맞춤형으로 구성될 수 있다.Various sensor functions can be created according to the driving mode of the two-axis motor, and can be customized according to the user's convenience.

지능형 영상 센서를 장착하여 라이다 신호와 영상 신호를 복합한 통합 센서를 제공함에 따라, 종래의 라이다 센서의 문제점을 보완하고 향후 자율 주행 자동차 및 산업용 안전장치로 활용할 수 있다.By installing an intelligent image sensor and providing an integrated sensor that combines a lidar signal and an image signal, the problems of the conventional lidar sensor can be supplemented and can be used as a safety device for autonomous vehicles and industrial use in the future.

방해 광원(백열등, 형광등, 스트로브스코프 라이트, 깜박이는 표지, 햇빛, 적외선 광원) 등의 간섭으로 인해 감지 면에서 ±5도 이상 떨어진 곳에 설치해야 하는 문제를 지능형 영상 센서를 통해 해결할 수 있다.The intelligent image sensor can solve the problem of installing at a distance of more than ±5 degrees from the sensing plane due to interference from interfering light sources (incandescent, fluorescent, stroboscope light, flashing sign, sunlight, infrared light source).

장애물을 감지하고 거리와 각도를 알려주는 라이다 센서와 장애물에 대한 이미지 전송과 그 이미지로 딥 러닝 학습을 실행하는 지능형 영상 센서로 현장 학습 및 사고에 대한 학습을 통해 카메라 영상과 라이다의 거리 및 각도의 감지 능력을 결합하여 통합 제어가 가능하다.A lidar sensor that detects obstacles and informs the distance and angle, and an intelligent image sensor that transmits images of obstacles and executes deep learning learning with the images Combined with the ability to sense angles, integrated control is possible.

라이다 센서의 특성에 따른 외부 간섭 및 내부 신호의 크로스토크에 의한 영향을 최대한 줄이면서 라이다 본연의 특성을 발휘하고 다양한 위치에서도 라이다 특성을 살릴 수 있다.While minimizing the influence of external interference and internal signal crosstalk according to the characteristics of the lidar sensor, the original characteristics of lidar can be exhibited and lidar characteristics can be utilized in various locations.

라이다가 스캐닝 하는 위치의 정확한 위치정보 및 영역에 대한 존 설정과 물체 인식에 대한 정확도를 높이고 다양한 각도에서 위치 정보를 만들기 위해서는 정확하게 신호를 출력하고 이 신호를 제대로 수신하기 위해 라이다 광 센서의 역할이 중요한데, 분리형 광 센서 기술을 통해 이를 극복할 수 있다.The role of the LiDAR light sensor to accurately output signals and to properly receive these signals to increase the accuracy of accurate location information of the location scanned by the lidar and zone setting and object recognition, and to create position information from various angles This is important, and can be overcome with discrete optical sensor technology.

라이다 센서에 지능형 영상 센서를 접목함에 따라, 라이다의 감지능력과 카메라의 영상처리 능력을 이용하여 라이다의 악천후 환경에 대한 문제점을 지능형 영상 센서의 딥 러닝을 통한 학습으로 개선할 수 있다.By grafting the intelligent image sensor to the lidar sensor, the problem of the bad weather environment of the lidar can be improved by learning through the deep learning of the intelligent image sensor by using the detection ability of the lidar and the image processing ability of the camera.

지능형 영상 센서에서 부족한 물체 감지능력을 라이다 센서의 거리 및 감지 능력으로 보완하고, 여기에 지능형 영상 센서로 객체인식 및 사물 파악 능력을 향상시키는 알고리즘으로 정밀한 통합 센서를 제공할 수 있다. 이를 토대로 복합영상 기술로 통합 안전 센서 산업을 구축할 수 있다.It is possible to provide a precise integrated sensor with an algorithm that supplements the object detection ability lacking in the intelligent image sensor with the distance and detection ability of the lidar sensor, and improves the object recognition and object recognition ability with the intelligent image sensor. Based on this, an integrated safety sensor industry can be built with composite image technology.

도 1은 본 발명의 일 실시 예에 따른 통합 퓨전 센서 장치의 구성을 도시한 도면,
도 2는 본 발명의 일 실시 예에 따른 통합 퓨전 센서 장치의 세부 구성을 도시한 도면,
도 3은 본 발명의 일 실시 예에 따른 통합 퓨전 센서 장치의 외관을 도시한 도면,
도 4는 본 발명의 일 실시 예에 따른 통합 퓨전 센서 장치의 스캔 범위를 도시한 도면이다.
1 is a view showing the configuration of an integrated fusion sensor device according to an embodiment of the present invention;
2 is a view showing a detailed configuration of an integrated fusion sensor device according to an embodiment of the present invention;
3 is a view showing an appearance of an integrated fusion sensor device according to an embodiment of the present invention;
4 is a diagram illustrating a scan range of an integrated fusion sensor device according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains. It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이며, 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the description of the embodiments of the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted, and the terms to be described later are used in the embodiment of the present invention. These terms are defined in consideration of the function of Therefore, the definition should be made based on the content throughout this specification.

첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다.Each block in the accompanying block diagram and combinations of steps in the flowchart may be executed by computer program instructions (execution engine), which computer program instructions are executed by the processor of a general-purpose computer, special-purpose computer, or other programmable data processing device. It may be mounted so that its instructions, which are executed by the processor of a computer or other programmable data processing device, create means for performing the functions described in each block of the block diagram or in each step of the flowchart.

이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치를 지향할 수 있는 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.These computer program instructions may also be stored in a computer-usable or computer-readable memory that may direct a computer or other programmable data processing device to implement a function in a particular manner, and thus the computer-usable or computer-readable memory. It is also possible for the instructions stored in the block diagram to produce an article of manufacture containing instruction means for performing a function described in each block of the block diagram or each step of the flowchart.

그리고 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.And since the computer program instructions may be mounted on a computer or other programmable data processing device, a series of operational steps is performed on the computer or other programmable data processing device to create a computer-executable process to create a computer or other programmable data processing device. It is also possible that the instructions for performing the data processing apparatus provide steps for executing the functions described in each block of the block diagram and each step of the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.In addition, each block or step may represent a module, segment, or portion of code comprising one or more executable instructions for executing specified logical functions, and in some alternative embodiments the blocks or steps referred to in the block or steps. It should be noted that it is also possible for functions to occur out of sequence. For example, it is possible that two blocks or steps shown one after another may be performed substantially simultaneously, and also the blocks or steps may be performed in the reverse order of the corresponding functions, if necessary.

이하, 첨부 도면을 참조하여 본 발명의 실시 예를 상세하게 설명한다. 그러나 다음에 예시하는 본 발명의 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 상술하는 실시 예에 한정되는 것은 아니다. 본 발명의 실시 예는 이 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공된다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the embodiments of the present invention illustrated below may be modified in various other forms, and the scope of the present invention is not limited to the embodiments described below. The embodiments of the present invention are provided to more completely explain the present invention to those of ordinary skill in the art to which the present invention pertains.

도 1은 본 발명의 일 실시 예에 따른 통합 퓨전 센서 장치의 구성을 도시한 도면이다.1 is a diagram illustrating a configuration of an integrated fusion sensor device according to an embodiment of the present invention.

도 1을 참조하면, 통합 퓨전 센서 장치(1)는 분리형 라이다 센서(10)와 지능형 영상 센서(20) 및 제어부(30)를 포함한다.Referring to FIG. 1 , the integrated fusion sensor device 1 includes a detachable lidar sensor 10 , an intelligent image sensor 20 , and a controller 30 .

분리형 라이다 센서(10)는 송신 모듈과 수신 모듈이 분리된 형태이다. 이에 비해, 일체형 라이다 센서는 커버가 한 개로 구성되어 광 출력과 광 수신이 하나로 이루어지므로 내부적인 크로스 토크 및 신호 간섭을 피할 수 없는 구조이다. 이로 인한 문제점으로 근거리 측정에 오차율을 줄일 수가 없고 악조건 환경(일 예로 비, 눈, 우박, 색상, 햇빛 등등)에 따른 문제점도 해결이 어렵다. 이러한 구조적인 문제를 해결하기 위해, 본 발명은 대상체에 라이다 광신호를 송신하는 송신 모듈과 대상체로부터 반사되어 되돌아오는 라이다 광신호를 수신하는 수신 모듈을 분리한 분리형 라이다 센서(10)를 제안한다. 분리형 라이다 센서(10)는 송신 광학구조와 수신 광학구조가 분리되고, 양 축 모터를 가짐에 따라 270도 광 스캐닝이 가능하며 상, 하, 좌, 우 다양한 방향에서도 신호 감지가 가능하다.The detachable lidar sensor 10 has a form in which a transmitting module and a receiving module are separated. On the other hand, the integrated lidar sensor has a single cover, so that light output and light reception are performed in one, so internal crosstalk and signal interference cannot be avoided. Due to this problem, it is not possible to reduce the error rate in short-distance measurement, and it is difficult to solve problems caused by adverse conditions (eg rain, snow, hail, color, sunlight, etc.). In order to solve this structural problem, the present invention provides a detachable lidar sensor 10 in which a transmission module for transmitting a lidar optical signal to an object and a reception module for receiving a lidar optical signal reflected back from the object are separated. suggest The detachable lidar sensor 10 has a separate transmit optical structure and a receive optical structure, and as it has a dual-axis motor, 270 degree optical scanning is possible, and signals can be detected in various directions up, down, left, and right.

전술한 바와 같이 송신 모듈과 수신 모듈이 분리되면, 외부 영향 및 내부 영향에 따른 문제를 해결할 수 있고 보다 정밀한 측정값을 얻을 수 있다. 또한 소형화가 가능하고 복합적인 제품을 만들 수가 있다.When the transmitting module and the receiving module are separated as described above, problems caused by external influences and internal influences can be solved, and a more precise measurement value can be obtained. In addition, it is possible to miniaturize and make complex products.

통합 퓨전 센서 장치(1)는 인공지능 분야에서 주목받는 딥 러닝 기술을 적용한 산업용 퓨전 센서로, 기존의 단순화된 센서보다 상황 판단이 정확하며 사용자가 더 안전하게 사용할 수 있는 지능형 영상 센서(20)를 사용한다. 지능형 영상 센서(20)는 대상체의 카메라 영상을 획득한다. 라이다 센서만을 이용하는 경우, 악천후 시 성능 저하로 인해 오작동의 확률이 높고 제품의 가격이 고가인 문제가 있다. 이를 개선하기 위해 지능형 영상 센서(20)를 이용하여 객체 인식의 정확성을 높이고자 한다.The integrated fusion sensor device (1) is an industrial fusion sensor to which deep learning technology is attracting attention in the field of artificial intelligence. It uses an intelligent image sensor (20) that has more accurate situational judgment than the existing simplified sensor and can be used more safely by users. do. The intelligent image sensor 20 acquires a camera image of the object. If only the lidar sensor is used, there is a problem that the probability of malfunction is high due to performance degradation in bad weather and the price of the product is high. In order to improve this, it is intended to increase the accuracy of object recognition by using the intelligent image sensor 20 .

제어부(30)는 통합 퓨전 센서 장치(1)의 전체적인 동작을 제어한다. 예를 들어, 분리형 라이다 센서(10)의 송신 모듈과 수신 모듈의 동작 및 동기화를 제어하고, 분리형 라이다 센서(10)를 이용한 객체인식과 지능형 영상 센서(20)를 이용한 딥 러닝 기반 객체인식을 통합하여 제어한다. 분리형 라이다 센서(10) 및 지능형 영상 센서(20)를 이용하여 객체를 인식하되, 분리형 라이다 센서(10)를 이용하여 대상체의 거리 및 각도를 측정할 수 있고, 지능형 영상 센서(20)를 이용하여 객체인식의 정확도를 높이고 지능형 학습 능력을 향상시킬 수 있다.The controller 30 controls the overall operation of the integrated fusion sensor device 1 . For example, it controls the operation and synchronization of the transmitting module and the receiving module of the separate lidar sensor 10 , and object recognition using the separate lidar sensor 10 and deep learning-based object recognition using the intelligent image sensor 20 . integrated and controlled. An object is recognized using the detachable lidar sensor 10 and the intelligent image sensor 20, but the distance and angle of the object can be measured using the detachable lidar sensor 10, and the intelligent image sensor 20 It can increase the accuracy of object recognition and improve intelligent learning ability.

분리형 라이다 센서(10)의 support vector machine(SVM) 등을 이용한 객체 검출을 통해 얻은 객체의 각도, 거리 그리고 score 정보를 검출하며, 지능형 영상 센서(20)를 통해 CNN 등을 이용하여 이미지 상에 존재하는 객체를 검출한다. 제어부(30)는 분리형 라이다 센서(10)와 지능형 영상 센서(20)를 통하여 검출된 결과를 융합한다.It detects the angle, distance, and score information of an object obtained through object detection using a support vector machine (SVM) of the detachable lidar sensor 10, and is displayed on the image using CNN through the intelligent image sensor 20 Detects an existing object. The control unit 30 fuses the results detected through the separate lidar sensor 10 and the intelligent image sensor 20 .

제어부(30)는 분리형 라이다 센서(10)를 이용하여 장애물을 감지하고 거리와 각도를 계산하며, 지능형 영상 센서(20)를 이용하여 장애물에 대한 이미지 전송과 이 이미지로 딥 러닝 학습을 실행한다. 지능형 영상 센서(20)의 카메라 영상에 대한 현장 학습을 통한 객체 인식과 분리형 라이다 센서(10)의 객체에 대한 거리 및 각도의 감지 능력을 결합할 수 있다. 인터페이스(Interface) 모듈과 디스플레이(Display) 모듈을 이용하여 두 개의 센서(10, 20)를 통합 제어할 수 있다.The control unit 30 detects an obstacle using the detachable lidar sensor 10 and calculates the distance and angle, and transmits an image of the obstacle using the intelligent image sensor 20 and executes deep learning learning with this image. . It is possible to combine object recognition through field learning of the camera image of the intelligent image sensor 20 and the sensing ability of the distance and angle to the object of the detachable lidar sensor 10 . The two sensors 10 and 20 may be controlled in an integrated manner using an interface module and a display module.

제어부(30)는 분리형 라이다 센서(10) 및 지능형 영상 센서(20)의 원(raw) 데이터를 이용하여 각각의 객체를 검출한다. 분리형 라이다 센서(10)의 객체 검출 결과로부터 공간 상에서 객체의 거리(distance) 및 각도(angle)를 계산하고, 지능형 영상 센서(20)를 통해 얻은 객체 검출 결과로부터 이미지 상에서 객체의 IoU(Intersection over Union)를 계산한다. 이후, 공간 상에서 객체의 거리 및 각도와 이미지 상에서 객체의 IoU를 융합한다.The controller 30 detects each object by using the raw data of the separate lidar sensor 10 and the intelligent image sensor 20 . The distance and angle of the object in space are calculated from the object detection result of the separate lidar sensor 10 , and Intersection over (IoU) of the object on the image from the object detection result obtained through the intelligent image sensor 20 Union) is calculated. Then, the distance and angle of the object in space and the IoU of the object in the image are fused.

도 2는 본 발명의 일 실시 예에 따른 통합 퓨전 센서 장치의 세부 구성을 도시한 도면이다.2 is a diagram illustrating a detailed configuration of an integrated fusion sensor device according to an embodiment of the present invention.

도 1 및 도 2를 참조하면, 분리형 라이다 센서(10)는 송신 모듈(12) 및 수신 모듈(14)을 포함하며, 연결부(15)와 양 축 모터(16)를 포함할 수 있다. 송신 모듈(12)은 송신부(121), 송신 미러(122) 및 송신 커버(123)를 포함하며, 수신 모듈(14)은 수신부(142), 수신 미러(141) 및 수신 커버(143)를 포함한다.1 and 2 , the detachable lidar sensor 10 includes a transmission module 12 and a reception module 14 , and may include a connection unit 15 and a two-axis motor 16 . The transmitting module 12 includes a transmitting unit 121 , a transmitting mirror 122 and a transmitting cover 123 , and the receiving module 14 includes a receiving unit 142 , a receiving mirror 141 and a receiving cover 143 . do.

송신부(121)는 라이다 광신호를 생성하여 출력하고, 송신 미러(122)는 송신부(121)를 통해 출력된 광신호를 반사시킨다. 수신부(142)는 대상체에서 반사되어 되돌아오는 라이다 광신호를 수신하고, 수신 미러(141)는 수신부(142)를 통해 수신된 광신호를 반사시킨다.The transmitter 121 generates and outputs the LIDAR optical signal, and the transmission mirror 122 reflects the optical signal output through the transmitter 121 . The receiver 142 receives the LIDAR optical signal reflected from the object and returns, and the receiving mirror 141 reflects the optical signal received through the receiver 142 .

보다 세부적으로, 송신 모듈(12)은 변조된 레이저 빔을 광학계를 통해 균일한 패턴의 레이저 빔을 발광하도록 구성된 모듈로써, 광원인 LD(Laser Diode), 레이저 변조신호를 제어하는 Illumination Board 및 광학계 등으로 구성된다. LD(Laser Diode)는 라이다의 거리 측정에 매우 중요한 부품이다. Collimator Lens는 레이저 광 신호를 집적하여 균일하게 출력하는 렌즈이다. 송신 미러(122)는 레이저 빔, 송신 신호 품질 등에 따라 사이즈 변경이 가능하다. 송신 미러(122)는 옆면을 포함하는 다각형 기둥 형상 또는 원기둥 형상일 수 있다. 본 실시예에서는 타원형의 형상을 도시하고 있다.In more detail, the transmission module 12 is a module configured to emit a laser beam of a uniform pattern through an optical system with a modulated laser beam, and includes an LD (Laser Diode) as a light source, an Illumination Board for controlling a laser modulation signal, and an optical system. is composed of LD (Laser Diode) is a very important component for measuring the distance of LiDAR. Collimator Lens is a lens that integrates laser light signals and outputs them uniformly. The size of the transmission mirror 122 may be changed according to a laser beam, transmission signal quality, and the like. The transmission mirror 122 may have a polygonal columnar shape including a side surface or a cylindrical shape. In this embodiment, an elliptical shape is shown.

수신 모듈(14)은 대상체로부터 반사되어 돌아오는 다수의 레이저 점 군을 인식하는 PD(Photodiode) Array, 반사되어 돌아오는 빛을 집광하기 위해 사용되는 광학계, PD Array에서 전송된 신호를 처리하는 신호 처리부를 포함한다. 수신 미러(141)의 형상은 다양한 형태의 모양을 구성할 수 있고, 옆면이 미러로 코팅되어 있고, 평탄한 다각형 기둥 형상 또는 원기둥 형상일 수 있다. 본 실시예에서는 타원형의 형상을 도시하고 있다.The receiving module 14 includes a PD (Photodiode) Array that recognizes a plurality of laser point groups that are reflected back from the object, an optical system used to collect the reflected and returned light, and a signal processing unit that processes signals transmitted from the PD Array. includes The shape of the receiving mirror 141 may be of various shapes, the side surface may be coated with a mirror, and may be a flat polygonal column shape or a cylindrical shape. In this embodiment, an elliptical shape is shown.

분리형 라이다 센서(10)는 넓은 각도로 대상물을 감지하기 위해 레이저가 광 출력되고, 내부 광학부품을 보호하며, 원통 형상 및 빗살형 구조의 송신 커버(123)와 수신 커버(143)를 포함한다. 송신 커버(123)와 수신 커버(143)는 레이저가 통과 가능한 재질로 구성될 수 있다.The detachable lidar sensor 10 includes a transmitting cover 123 and a receiving cover 143 in which a laser light is output to detect an object at a wide angle, protects internal optical components, and has a cylindrical shape and a comb-like structure. . The transmitting cover 123 and the receiving cover 143 may be made of a material through which a laser can pass.

일 실시 예에 따른 분리형 라이다 센서(10)는 커버가 송신 커버(123)와 수신 커버(143)가 분리된 분리형 커버로 구성되고, 송신 미러(122)와 수신 미러(141)를 분리하며, 2개의 축을 가진 양 축 모터(16)를 사용하여 송신 미러(122)와 수신 미러(141)를 회전시킨다. 송신 커버(123)와 수신 커버(143)를 연결하여 고정시키는 연결부(15)를 가지고 있고, 내부의 미러를 제품 용도에 따라 각도를 달리할 수 있다. 이 미러를 같은 방향으로의 회전과 각각 다른 방향으로도 회전시켜서, 넓은 각도의 센싱 지역을 센싱 할 수 있다. 송신 미러(122)가 양 축 모터(16)의 하부 축을 통해서 회전에 따른 광원을 송출하도록 하며 송출 각도에 따라 광원의 송출이 다르게 구성될 수 있고 송출 광원을 발생시키는 송신부(121)가 같이 장착된다. 수신 미러(141)가 양 축 모터(16)의 상부 축을 통해서 회전에 따른 광원을 수신하도록 하며 수신 각도에 따라 광원의 수신이 다르게 구성될 수 있고 수신부(142)가 같이 장착된다.In the detachable lidar sensor 10 according to an embodiment, the cover is composed of a detachable cover in which the transmitting cover 123 and the receiving cover 143 are separated, and separating the transmitting mirror 122 and the receiving mirror 141, The transmission mirror 122 and the reception mirror 141 are rotated using a biaxial motor 16 having two axes. It has a connection part 15 for connecting and fixing the transmission cover 123 and the reception cover 143, and the angle of the internal mirror can be changed according to the use of the product. By rotating this mirror in the same direction and in different directions, it is possible to sense a wide-angle sensing area. The transmission mirror 122 transmits the light source according to rotation through the lower shaft of the both-axis motor 16, and the transmission of the light source can be configured differently depending on the transmission angle, and the transmission unit 121 for generating the transmitted light source is mounted together. . The reception mirror 141 receives the light source according to rotation through the upper shaft of the both-axis motor 16, and the reception of the light source may be configured differently depending on the reception angle, and the reception unit 142 is mounted together.

일체형 라이다 센서의 경우 광학부품의 배치 등이 성능을 크게 좌지우지하기 때문에, 제품 용도에 따라 다양한 시스템으로 변형될 수 없다. 그러나 일 실시 예에 따른 분리형 라이다 센서(10)는 분리형 광원을 사용하므로 광학 부품의 배치가 용이하고, 외부 및 내부에서 발생되는 광 신호에 따른 문제점을 해결할 수 있으며, 제품의 상하좌우 위치에 제약 없이 사용할 수 있다.In the case of an integrated lidar sensor, since the arrangement of optical components greatly influences the performance, it cannot be transformed into various systems depending on the product use. However, since the detachable lidar sensor 10 according to an embodiment uses a separate light source, the arrangement of optical components is easy, problems caused by optical signals generated from outside and inside can be solved, and there is a restriction on the vertical and horizontal positions of the product. can be used without

수신 커버(143)는 수신 미러(141)로 센싱 신호를 수신하고, 송신 커버(123)는 송신 미러(122)로 센싱 신호를 출력한다. 송신 커버(123) 및 수신 커버(143)는 별도의 마크를 통해서 구분될 수 있고, 별도의 구분 표시 없이 나누어질 수 있다. 송신 커버(123)는 광원이 일정하게 출력되도록 하고 수신 커버(143)는 광원이 일정하게 수신되도록 구성된다.The receiving cover 143 receives a sensing signal to the receiving mirror 141 , and the transmitting cover 123 outputs the sensing signal to the transmitting mirror 122 . The transmission cover 123 and the reception cover 143 may be distinguished through a separate mark, and may be divided without a separate distinction mark. The transmission cover 123 is configured such that the light source is constantly output, and the reception cover 143 is configured so that the light source is constantly received.

양 축 모터(15)는 양 축 방향, 즉 두 개의 축을 가지며, 송신 커버(123) 및 수신 커버(143)를 지지한다. 양 축 모터(16)는 송신 모듈(12)과 수신 모듈(14)을 분리하여 동작시키는 엔코더가 내장될 수 있다. 양 축 모터(16)는 수신 미러(141)와 송신 미러(122)의 사이에 위치할 수 있다. 양 축 모터(16)의 일 면은 연결부(15)를 통해 수신 미러(141)와 연결되고, 양 축 모터(16)의 타면은 연결부(15)를 통해서 송신 미러(122)와 연결될 수 있다. 연결부(15)는 하나의 축으로 구성할 수 있고, 2개의 축을 이용하여 구성할 수 있다.The two-axis motor 15 has two axes, ie, two axes, and supports the transmitting cover 123 and the receiving cover 143 . The two-axis motor 16 may have a built-in encoder that separates the transmission module 12 and the reception module 14 to operate. The two-axis motor 16 may be positioned between the receiving mirror 141 and the transmitting mirror 122 . One surface of the two-axis motor 16 may be connected to the receiving mirror 141 through the connection unit 15 , and the other surface of the bi-axial motor 16 may be connected to the transmitting mirror 122 through the connection unit 15 . The connection part 15 may be configured by one shaft, and may be configured by using two shafts.

제어부(30)는 양 축 모터(16)의 구동을 제어한다. 예를 들어, 양 축 모터(16)의 구동을 통해 송신 미러(122)와 수신 미러(141)를 동시에 동일한 방향으로 회전시키는 제1 모드, 송신 미러(122)와 수신 미러(141)를 상이한 방향으로 회전시키는 제2 모드, 송신 미러(122) 및 수신 미러(141) 중 어느 하나의 미러를 회전시키는 제3 모드, 사용자 설정에 따라 송신 미러(122) 및 수신 미러(141) 중 적어도 하나를 회전시키는 제4 모드 중 어느 하나의 모드로 진입하여 각 미러(122, 141)의 회전 유무 및 회전방향을 제어한다.The control unit 30 controls the driving of the two-axis motor 16 . For example, the first mode in which the transmission mirror 122 and the reception mirror 141 are simultaneously rotated in the same direction through the driving of the two-axis motor 16, the transmission mirror 122 and the reception mirror 141 are rotated in different directions A second mode of rotating to , a third mode of rotating any one of the transmitting mirror 122 and the receiving mirror 141, rotating at least one of the transmitting mirror 122 and the receiving mirror 141 according to a user setting and enters any one of the fourth modes to control the presence or absence of rotation of each of the mirrors 122 and 141 and the direction of rotation.

양 축 모터(16)에 송신 미러(122) 및 수신 미러(141)가 동적으로 결합되는 경우, 양 축 모터(16)가 회전을 하게 되면 수신 미러(141)가 같이 회전을 하게 된다. 또한, 송신 미러(122)도 연결부(15)에 의해서 양 축 모터(16)와 결합되는 경우, 수신 미러(141)와 같이 회전을 하게 된다.When the transmission mirror 122 and the reception mirror 141 are dynamically coupled to the two-axis motor 16, when the two-axis motor 16 rotates, the reception mirror 141 rotates together. In addition, when the transmission mirror 122 is also coupled to the two-axis motor 16 by the connection unit 15 , it rotates like the reception mirror 141 .

지능형 영상 센서(20)는 카메라(18-1, 18-2, 18-3)를 포함한다. 도 2에서는 상부, 하부 및 중앙에 배치되어 있으나, 카메라(18-1, 18-2, 18-3)의 위치는 이에 한정되지 않는다. 카메라(18-1, 18-2, 18-3)는 근거리용, 중거리용 등과 같이 거리를 다르게 사용할 수 있고, 지능형 알고리즘으로 정밀도를 높이고 통합 퓨전 알고리즘의 정립과 다양성을 확립하며, 필요에 따라 적외선 카메라 등으로 산업에서 필요한 용도로 응용이 가능하다. 카메라(18-1, 18-2, 18-3)를 통해 라이다 센서의 문제점을 해결할 수 있다. 예를 들어, 라이다 센서의 악천후 시, 딥 러닝 학습에 따라 장애물 검지 오류 및 외란광(태양광) 간섭 등의 문제를 해결하고, 자율 주행 시스템으로의 진화가 가능하다.The intelligent image sensor 20 includes cameras 18-1, 18-2, and 18-3. In FIG. 2 , the positions of the cameras 18 - 1 , 18 - 2 and 18 - 3 are not limited thereto. The cameras 18-1, 18-2, 18-3 can use different distances, such as for short-range, medium-range, etc., increase precision with an intelligent algorithm, establish the establishment and diversity of the integrated fusion algorithm, and, if necessary, It can be applied to necessary uses in industry such as cameras. It is possible to solve the problem of the lidar sensor through the cameras 18-1, 18-2, 18-3. For example, it is possible to solve problems such as obstacle detection errors and disturbance light (solar light) interference according to deep learning learning in bad weather of the lidar sensor, and it is possible to evolve into an autonomous driving system.

도 3은 본 발명의 일 실시 예에 따른 통합 퓨전 센서 장치의 외관을 도시한 도면이다.3 is a view illustrating an external appearance of an integrated fusion sensor device according to an embodiment of the present invention.

보다 상세하게는, (a)는 측면을, (b)는 정면의 앞면을, (c)는 정면의 역상을, (d)는 사이드 면을 각각 도시한 것이다.In more detail, (a) is a side view, (b) is a front view of the front, (c) is a reverse image of the front, (d) is a side view, respectively.

도 4는 본 발명의 일 실시 예에 따른 통합 퓨전 센서 장치의 스캔 범위를 도시한 도면이다.4 is a diagram illustrating a scan range of an integrated fusion sensor device according to an embodiment of the present invention.

도 1 및 도 4를 참조하면, 통합 퓨전 센서 장치(1)는 미리 설정된 거리(예를 들어, 50m) 내 270°를 분리형 라이다 센서(10)가 모두 감지하면서, 전방 90°의 경우, 분리형 라이다 센서(10)와 지능형 영상 센서(20)가 통합으로 감지할 수 있다.1 and 4 , the integrated fusion sensor device 1 detects all 270° within a preset distance (eg, 50 m) while the detachable lidar sensor 10 detects all of them, and in the case of a front 90°, separate type The lidar sensor 10 and the intelligent image sensor 20 may be integrated to detect.

이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at focusing on the embodiments thereof. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention may be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

Claims (8)

라이다 광신호를 송신하는 송신 모듈과 라이다 광신호를 수신하는 수신 모듈이 분리된 분리형 라이다 센서;
대상체의 카메라 영상을 획득하는 지능형 영상 센서; 및
상기 분리형 라이다 센서를 이용한 객체인식과 상기 지능형 영상 센서를 이용한 딥 러닝 기반 객체인식을 통합하여 제어하는 제어부; 를 포함하고,
상기 송신 모듈은
라이다 광신호를 생성하여 출력하는 송신부; 및
송신부를 통해 출력된 광신호를 반사시키는 송신 미러; 를 포함하며,
상기 수신 모듈은
대상체에서 반사되어 되돌아오는 라이다 광신호를 수신하는 수신부; 및
수신부를 통해 수신된 광신호를 반사시키는 수신 미러; 를 포함하는 것을 특징으로 하는 통합 퓨전 센서 장치.
a detachable lidar sensor in which a transmitting module for transmitting a lidar optical signal and a receiving module for receiving a lidar optical signal are separated;
an intelligent image sensor for acquiring a camera image of an object; and
a controller for integrating and controlling object recognition using the separate lidar sensor and deep learning-based object recognition using the intelligent image sensor; including,
The sending module is
a transmitter for generating and outputting a lidar optical signal; and
a transmitting mirror that reflects the optical signal output through the transmitting unit; includes,
The receiving module is
a receiver for receiving the LIDAR optical signal reflected from the object; and
a receiving mirror for reflecting the optical signal received through the receiving unit; An integrated fusion sensor device comprising a.
제 1 항에 있어서, 통합 퓨전 센서 장치는
송신 미러 및 수신 미러를 결합하는 연결부; 및
연결부가 결합되고 송신 미러 및 수신 미러를 회전시키는 양 축 모터;
를 더 포함하는 것을 특징으로 하는 통합 퓨전 센서 장치.
The method of claim 1, wherein the integrated fusion sensor device is
a connection unit for coupling the transmit mirror and the receive mirror; and
a two-axis motor coupled to the connector and rotating the transmitting mirror and the receiving mirror;
Integrated fusion sensor device, characterized in that it further comprises.
제 2 항에 있어서, 양 축 모터는
분리형 광학구조를 만들기 위해 송신 모듈과 수신 모듈을 분리하여 동작시키는 엔코더가 내장되는 것을 특징으로 하는 통합 퓨전 센서 장치.
3. The two-axis motor according to claim 2,
An integrated fusion sensor device, characterized in that an encoder is built-in to separate and operate the transmitting module and the receiving module in order to create a separate optical structure.
제 2 항에 있어서, 제어부는
양 축 모터의 구동을 제어하되, 송신 미러와 수신 미러를 동시에 동일한 방향으로 회전시키는 제1 모드, 송신 미러와 수신 미러를 상이한 방향으로 회전시키는 제2 모드, 송신 미러 및 수신 미러 중 어느 하나의 미러를 회전시키는 제3 모드, 사용자 설정에 따라 송신 미러 및 수신 미러 중 적어도 하나를 회전시키는 제4 모드 중 어느 하나의 모드로 진입하여 각 미러의 회전 유무 및 회전방향을 제어하는 것을 특징으로 하는 통합 퓨전 센서 장치.
The method of claim 2, wherein the control unit
A first mode for controlling the driving of both axis motors at the same time rotating the transmitting mirror and the receiving mirror in the same direction, a second mode for rotating the transmitting mirror and the receiving mirror in different directions, any one of the transmitting mirror and the receiving mirror Integrated fusion characterized in that it enters into any one of the third mode of rotating the , and the fourth mode of rotating at least one of the transmitting mirror and the receiving mirror according to user settings to control the presence or absence of rotation and the direction of rotation of each mirror sensor device.
제 1 항에 있어서, 제어부는
분리형 라이다 센서 및 지능형 영상 센서의 원(raw) 데이터를 이용하여 각각의 객체를 검출하고,
분리형 라이다 센서의 객체 검출 결과로부터 공간 상에서 객체의 거리 및 각도를 계산하고,
지능형 영상 센서를 통해 얻은 객체 검출 결과로부터 이미지 상에서 객체의 IoU를 계산하며,
공간 상에서 객체의 거리 및 각도와 이미지 상에서 객체의 IoU를 융합하는 것을 특징으로 하는 통합 퓨전 센서 장치.
The method of claim 1, wherein the control unit
Each object is detected using the raw data of the separate LiDAR sensor and the intelligent image sensor,
Calculate the distance and angle of the object in space from the object detection result of the separate lidar sensor,
Calculate the IoU of the object on the image from the object detection result obtained through the intelligent image sensor,
An integrated fusion sensor device characterized in that it fuses the distance and angle of the object in space and the IoU of the object in the image.
제 1 항에 있어서, 통합 퓨전 센서 장치는
분리형 라이다 센서를 통해 미리 설정된 거리 내 270도의 스캔 범위 내 대상체를 감지하고,
분리형 라이다 센서 및 지능형 영상 센서를 통해 전방 90도의 스캔 범위의 대상체를 통합적으로 감지하는 것을 특징으로 하는 통합 퓨전 센서 장치.
The method of claim 1, wherein the integrated fusion sensor device is
Detects an object within a scan range of 270 degrees within a preset distance through a detachable lidar sensor,
An integrated fusion sensor device, characterized in that it integrally detects an object in a scan range of 90 degrees in front through a separate lidar sensor and an intelligent image sensor.
제 1 항에 있어서, 각 미러는
옆면을 포함하는 다각형 기둥 형상 또는 원기둥 형상인 것을 특징으로 하는 통합 퓨전 센서 장치.
The method of claim 1, wherein each mirror is
An integrated fusion sensor device, characterized in that it has a polygonal columnar shape or a cylindrical shape including a side surface.
제 1 항에 있어서, 통합 퓨전 센서 장치는
송신 커버; 및
수신 커버; 를 더 포함하며,
각 커버는 광원이 일정하게 출력되고 수신되도록 하는 것을 특징으로 하는 통합 퓨전 센서 장치.
The method of claim 1, wherein the integrated fusion sensor device is
transmission cover; and
receiving cover; further comprising,
An integrated fusion sensor device, characterized in that each cover allows the light source to be output and received uniformly.
KR1020210039502A 2020-03-27 2021-03-26 Integrated fusion sensor apparatus including detachable light source with built-in intelligent camera KR102610855B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200037455 2020-03-27
KR20200037455 2020-03-27

Publications (2)

Publication Number Publication Date
KR20210122155A true KR20210122155A (en) 2021-10-08
KR102610855B1 KR102610855B1 (en) 2023-12-08

Family

ID=78610006

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210039502A KR102610855B1 (en) 2020-03-27 2021-03-26 Integrated fusion sensor apparatus including detachable light source with built-in intelligent camera

Country Status (1)

Country Link
KR (1) KR102610855B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230064859A (en) * 2021-11-04 2023-05-11 주식회사 라이드로 Lidar apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071038A (en) * 2012-09-28 2014-04-21 Denso Wave Inc Laser radar device
KR101644370B1 (en) * 2014-10-23 2016-08-01 현대모비스 주식회사 Object detecting apparatus, and method for operating the same
KR101899549B1 (en) * 2017-12-27 2018-09-17 재단법인 경북아이티융합 산업기술원 Obstacle recognition apparatus of obstacle recognition using camara and lidar sensor and method thereof
KR20190066349A (en) * 2017-12-05 2019-06-13 광주과학기술원 Lidar device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071038A (en) * 2012-09-28 2014-04-21 Denso Wave Inc Laser radar device
KR101644370B1 (en) * 2014-10-23 2016-08-01 현대모비스 주식회사 Object detecting apparatus, and method for operating the same
KR20190066349A (en) * 2017-12-05 2019-06-13 광주과학기술원 Lidar device
KR101899549B1 (en) * 2017-12-27 2018-09-17 재단법인 경북아이티융합 산업기술원 Obstacle recognition apparatus of obstacle recognition using camara and lidar sensor and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230064859A (en) * 2021-11-04 2023-05-11 주식회사 라이드로 Lidar apparatus

Also Published As

Publication number Publication date
KR102610855B1 (en) 2023-12-08

Similar Documents

Publication Publication Date Title
CN110799853B (en) Environment sensing system and mobile platform
EP3742200B1 (en) Detection apparatus and parameter adjustment method thereof
EP3425332B1 (en) Laser scanner and surveying system
EP3273267B1 (en) Lidar device
CN107650908B (en) Unmanned vehicle environment sensing system
EP3460521A1 (en) Laser measuring method and laser measuring instrument
US10353074B2 (en) Agile navigation and guidance enabled by LIDAR (ANGEL)
KR20180058068A (en) Mirror rotational optical structure for 360˚ multichannel scanning and 3d lidar system comprising the same
KR101903960B1 (en) LIDAR Apparatus
KR101545971B1 (en) System for sensing complex image
CN111587381A (en) Method for adjusting motion speed of scanning element, distance measuring device and mobile platform
JP2021516763A (en) Methods and equipment for object detection using beam steering radar and convolutional neural network systems
KR20210122155A (en) Integrated fusion sensor apparatus including detachable light source with built-in intelligent camera
CN111239760A (en) Multi-view-field target environment information acquisition device and method based on fusion sensor
CN207274661U (en) Unmanned vehicle context aware systems
US20230090576A1 (en) Dynamic control and configuration of autonomous navigation systems
CN112986958B (en) Large-range laser scanning device based on high-density echo analysis and control system thereof
US11747481B2 (en) High performance three dimensional light detection and ranging (LIDAR) system for drone obstacle avoidance
RU148255U1 (en) LASER OPTICAL AND LOCATION STATION
CN113204002A (en) Two-dimensional scanning laser radar system
Bers et al. Laser radar system for obstacle avoidance
WO2018088991A1 (en) Lidar system providing a conic scan
WO2023040788A1 (en) Laser radar, detection device, and vehicle
CN111025322B (en) Laser target identification system and method based on modulated wave
Novick Market Survey of Airborne Small Unmanned Aircraft System Sensors February 2020

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right