KR20160013736A - Intergrated sensor system of the vehicles - Google Patents
Intergrated sensor system of the vehicles Download PDFInfo
- Publication number
- KR20160013736A KR20160013736A KR1020140095942A KR20140095942A KR20160013736A KR 20160013736 A KR20160013736 A KR 20160013736A KR 1020140095942 A KR1020140095942 A KR 1020140095942A KR 20140095942 A KR20140095942 A KR 20140095942A KR 20160013736 A KR20160013736 A KR 20160013736A
- Authority
- KR
- South Korea
- Prior art keywords
- target
- information
- targets
- coordinate
- sensor module
- Prior art date
Links
- 230000004927 fusion Effects 0.000 claims abstract description 13
- 238000000034 method Methods 0.000 claims description 13
- 238000009434 installation Methods 0.000 claims description 8
- 230000005540 biological transmission Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 description 8
- 230000009466 transformation Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/68—Radar-tracking systems; Analogous systems for angle tracking only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/70—Radar-tracking systems; Analogous systems for range tracking only
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/408—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2720/00—Output or target parameters relating to overall vehicle dynamics
- B60W2720/10—Longitudinal speed
Abstract
Description
본 발명은 자동차의 통합센서 시스템에 관한 것으로서, 더욱 상세하게는 차량의 전방에 주행하는 선행차량을 인식하기 용이한 자동차의 통합센서 시스템에 관한 것이다. BACKGROUND OF THE
라이다(Lidar) 센서와 카메라 센서는 차량 전방의 장애물을 관측하여 충돌 경보 혹은 AEB를 작동시키기 위한 목적으로 사용된다. Lidar sensors and camera sensors are used to observe obstacles in front of the vehicle and to operate collision alarms or AEBs.
라이다 센서는 물체 검출 신뢰성 및 거리 정확도는 높지만 물체 분류가 어려운 반면, 카메라는 물체 분류는 가능하지만 거리 정확도와 검출율이 낮으며 환경에 민감한 단점을 갖고 있다. Although the Raidasensor has high object detection reliability and distance accuracy, it is difficult to classify objects, while cameras can classify objects, but have low distance accuracy and detection rate and are environmentally sensitive.
따라서, 두 센서를 상호보완적으로 퓨전하여 통합 센서 시스템의 성능 및 신뢰성을 높이는 것이 필요하다.Therefore, it is necessary to enhance the performance and reliability of the integrated sensor system by complementarily fusing the two sensors.
하지만, 통합 센서 시스템은 일반적으로 두 센서에서 모두 물체가 검출된 경우에만 물체 검출로 판단하고 하나의 센서에서 물체 검출이 되지 않은 경우에는 미검출로 판단하고 검출된 정보를 버리는 방법을 사용하고 있어, 물체 검출이 된 경우의 신뢰성은 높여주는 반면 물체 검출율은 오히려 낮출수 있다.However, in the integrated sensor system, in general, both of the sensors detect an object only when the object is detected, and when one object does not detect the object, it is determined that the object is not detected and the detected information is discarded, The reliability of the object detection is increased, but the object detection rate can be lowered.
최근 들어, 통합 센서 시스템을 적용하여, 물체 검출에 대한 정확도 및 검출율을 높이기 위한 연구가 진행 중에 있다.In recent years, research is underway to increase the accuracy and detection rate for object detection by applying an integrated sensor system.
본 발명의 목적은, 차량의 전방에 주행하는 선행차량을 인식하기 용이한 자동차의 통합센서 시스템을 제공함에 있다.An object of the present invention is to provide an integrated sensor system of a vehicle which is easy to recognize a preceding vehicle traveling in front of the vehicle.
본 발명에 따른 자동차의 통합센서 시스템은, 제1 영역 내에 주행하는 제1 타겟(target)을 감지하여, 타겟정보를 출력하는 라이다 센서모듈, 상기 제1 영역과 일부 영역이 중첩되는 제2 영역 내에 주행하는 제2 타겟(target)을 포함하는 타겟영상정보를 출력하는 카메라 센서모듈 및 상기 타겟정보 및 상기 타겟영상정보 입력시, 설정된 퓨전인식 알고리즘에 따라 상기 제1, 2 타겟이 동일타겟 여부를 판단하여, 차속을 능동제어하거나 또는 경고를 발생시키는 제어모듈을 포함할 수 있다.An integrated sensor system of an automobile according to the present invention includes a Raid sensor module for sensing a first target traveling in a first area and outputting target information, a second sensor module for overlapping the first area with a first area, And a second sensor that detects whether or not the first and second targets are the same target according to a fusion recognition algorithm that is set upon inputting the target information and the target image information. And may include a control module for judging, actively controlling the vehicle speed, or generating an alarm.
상기 제1 라이다 센서모듈은, 상기 제1 영역으로 제1 신호를 송신하는 송신부, 상기 제1 영역 내에 주행하는 상기 제1 타겟으로부터 상기 제1 신호에 따라 반사된 제2 신호를 수신하는 수신부 및 상기 제1, 2 신호를 기반으로 상기 제1 타겟에 대한 상기 타겟정보를 생성 및 출력하는 센서제어부를 포함할 수 있다.Wherein the first RL sensor module comprises: a transmitter for transmitting a first signal to the first area; a receiver for receiving a second signal reflected from the first target running in the first area according to the first signal; And a sensor control unit for generating and outputting the target information for the first target based on the first and second signals.
상기 수신부는, 상기 제2 신호를 수신하는 수신각도가 다른 복수의 라이다 센서를 포함할 수 있다.The receiving unit may include a plurality of Lada sensors for receiving the second signal at different receiving angles.
상기 센서제어부는, 상기 제1, 2 신호의 신호크기, 상기 제2 신호의 수신각도 및 상기 제1, 2 신호 사이의 송수신 소요시간 중 적어도 하나를 기반으로, 상기 제1 타겟의 위치, 거리 및 상대속도를 포함하는 상기 타겟정보를 생성 및 출력한다.The sensor control unit may control the position, the distance, and the position of the first target based on at least one of the signal size of the first and second signals, the reception angle of the second signal, and the transmission / reception time between the first and second signals. And generates and outputs the target information including the relative speed.
상기 카메라 센서모듈은, 상기 제2 타겟이 포함된 영상을 촬영하는 적어도 하나의 이미지 센서를 포함하고, 상기 카메라 센서모듈은, 상기 적어도 하나의 이미지 센서에서 촬영한 상기 영상에 대응하는 상기 타겟영상정보를 생성 및 출력한다.Wherein the camera sensor module includes at least one image sensor for capturing an image including the second target, wherein the camera sensor module is configured to detect the target image information corresponding to the image captured by the at least one image sensor, Respectively.
상기 제1 영역은, 상기 라이다 센서모듈의 설치지점에서 상기 차량의 전방으로 20m의 거리를 포함하는 영역이며, 상기 일부영역은, 상기 설치지점에서 7m 에서 20m의 거리를 포함하는 영역이다.The first region is a region including a distance of 20 m from the installation point of the Lidar sensor module to the front of the vehicle, and the partial region is a region including a distance of 7 m to 20 m from the installation point.
상기 제2 영역은, 상기 카메라 센서모듈의 설치지점에서 7 m 떨어진 지점에서 100 m의 거리를 포함하는 영역이다.The second area is a region including a distance of 100 m at a point 7 m away from the installation point of the camera sensor module.
상기 제어모듈은, 상기 타겟정보 및 상기 타겟영상정보의 입력시간을 동기화시켜 정렬하고, 정렬된 동기화 순서에 따라 상기 일부영역에서 상기 타겟정보가 입력되는지 판단하는 타겟 판단부 및 상기 일부영역에서 상기 타겟정보가 입력되면, 상기 퓨전인식 알고리즘에 적용하여 상기 제1, 2 타겟이 동일타겟이면 퓨전타겟ID를 부여하여 차속을 능동제어하거나, 또는 상기 제1, 2 타겟이 다른타겟이면 경고를 발생시키는 타겟인식 실행부를 포함할 수 있다.Wherein the control module comprises: a target determination unit for aligning the input time of the target information and the target video information in synchronization, determining whether the target information is input in the partial area according to the aligned synchronization sequence, The information on the target is applied to the fusion recognition algorithm, and if the first and second targets are the same target, the fusion target ID is assigned to actively control the vehicle speed, or if the first and second targets are different targets, And a recognition execution unit.
상기 타겟인식 실행부는, 상기 일부영역에서 상기 타겟정보 입력시, 상기 타겟정보에 포함된 수신각도를 기반으로 상기 제1 타겟의 위치에 대응하는 제1 위치좌표를 라이다좌표계에서 영상좌표계로 변환하는 좌표 변환부, 상기 제1 위치좌표 및 상기 제2 타겟의 제2 위치좌표를 기반으로, 제1 타겟 중심좌표 및 제2 타겟 중심좌표를 산출하고, 상기 제1, 2 타겟 중심좌표가 설정된 제1 임계값 범위 내에 속하는지 판단하는 좌표 판단부, 상기 제1 위치좌표 및 상기 제2 위치좌표를 기반으로 상기 제1, 2 타겟 사이의 거리차가 설정된 제2 임계값 범위 내에 속하는지 판단하는 거리 판단부, 상기 타겟정보에 포함된 상대속도 및 상기 타겟영상정보를 기반으로 산출한 속도 사이의 속도차가 설정된 제3 임계값 범위 내에 속하는지 판단하는 속도 판단부 및 상기 제1, 2, 3 임계값 범위 내에 모두 속하면 상기 제1, 2 타겟이 동일타겟으로 판단하여 퓨전타겟ID를 부여하여 상기 차속을 능동제어하고, 상기 제1, 2, 3 임계값 범위 중 하나라도 속하지 않으면 상기 제1, 2 타겟이 다른타겟으로 판단하면 상기 경고를 발생시키는 제어부를 포함할 수 있다.The target recognition execution unit converts the first position coordinate corresponding to the position of the first target from the Lada coordinate system to the image coordinate system based on the reception angle included in the target information when the target information is input in the partial area A first target center coordinate and a second target center coordinate are calculated on the basis of the first position coordinate and the second position coordinate of the second target, A distance determination unit for determining whether a distance difference between the first and second targets is within a second threshold value range set based on the first position coordinate and the second position coordinate, A speed determination unit for determining whether a speed difference between a relative speed included in the target information and a speed calculated based on the target image information is within a set third threshold range, 2, and 3 threshold values, the first and second targets are determined to be the same target, and the fusion target ID is assigned thereto to actively control the vehicle speed. If none of the first, second, and third threshold values are included And a controller for generating the warning if the first and second targets are determined to be different targets.
상기 제어부는, 상기 일부영역에서 상기 타겟정보가 입력되지 않으면, 상기 경고를 발생시킨다.The control unit generates the warning if the target information is not input in the partial area.
본 발명에 따른 자동차의 통합센서 시스템은, 차량의 전방에 주행하는 선행차량, 즉 타겟을 라이다 센서모듈 및 카메라 센서모듈을 검출하고, 라이다 센서모듈 및 카메라 센서모듈에서 검출한 타겟이 동일 타겟으로 판단하기 용이하도록 함으로써 타겟에 대한 검출 인식에 대한 정확도 및 검출율을 높일 수 있는 이점이 있다.The integrated sensor system of an automobile according to the present invention detects a preceding vehicle, that is, a target that runs on the front of the vehicle, a Lidar sensor module and a camera sensor module, It is advantageous to increase the accuracy and detection rate for detection recognition of the target.
또한, 본 발명에 따른 자동차의 통합센서 시스템은, 라이다 센서모듈에서 감지한 타겟과 카메라 센서모듈에서 감지한 타겟이 서로 다른 타겟이면, 경고를 발생시킬 수 있는 이점이 있다.In addition, the integrated sensor system of the automobile according to the present invention has an advantage that a warning can be generated if the target detected by the Lada sensor module and the target detected by the camera sensor module are different from each other.
도 1은 본 발명에 따른 자동차의 통합센서 시스템에서 타겟을 검출하는 영역을 나타낸 도이다.
도 2는 본 발명에 따른 자동차의 통합센서 시스템에 대한 제어구성을 나타낸 제어블록도이다.
도 3은 본 발명에 따른 자동차의 통합센서 시스템에 대한 동작방법을 나타낸 순서도이다.1 is a view showing a region for detecting a target in an integrated sensor system of a vehicle according to the present invention.
2 is a control block diagram showing a control configuration for an integrated sensor system of an automobile according to the present invention.
3 is a flowchart illustrating an operation method for an integrated sensor system of an automobile according to the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않은 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.
또한, 본 발명의 구조를 설명하는 과정에서 언급하는 각도와 방향은 도면에 기재된 것을 기준으로 한다. 명세서에서 발광소자를 이루는 구조에 대한 설명에서, 각도에 대한 기준점과 위치관계를 명확히 언급하지 않은 경우, 관련 도면을 참조하도록 한다.Further, the angles and directions mentioned in the course of describing the structure of the present invention are based on those described in the drawings. In the description of the structure of the light emitting device in the specification, reference points and positional relationship with respect to angles are not explicitly referred to, refer to the related drawings.
도 1은 본 발명에 따른 자동차의 통합센서 시스템에서 타겟을 검출하는 영역을 나타낸 도 및 도 2는 본 발명에 따른 자동차의 통합센서 시스템에 대한 제어구성을 나타낸 제어블록도이다.FIG. 1 is a view showing a region for detecting a target in an integrated sensor system of an automobile according to the present invention, and FIG. 2 is a control block diagram showing a control structure for an integrated sensor system of an automobile according to the present invention.
도 1 및 도 2를 참조하면, 자동차의 통합센서 시스템은 차량의 중앙부, 즉 윈드쉴드(windshield)에 장착되며, 차량의 진행방향을 위치한 물체, 즉 장애물 및 전방차량을 감지할 수 있다.Referring to FIGS. 1 and 2, an integrated sensor system of an automobile is installed in a central portion of a vehicle, that is, a windshield, and can detect an object in which a traveling direction of the vehicle is located, that is, an obstacle and a forward vehicle.
실시 예에서, 통합센서 시스템은 라이다 센서모듈(110), 카메라 센서모듈(120) 및 제어모듈(130)을 포함할 수 있다.In an embodiment, the integrated sensor system may include a Lidar
여기서, 라이다 센서모듈(110) 및 카메라 센서모듈(120)은 별도의 센서모듈인 것으로 나타내고 설명하지만, 하나의 통합센서 모듈로 구현될 수 있으며, 이에 한정을 두지 않는다.Here, the LIDAR
(a)는 통합센서 시스템에 대하여 상면 또는 평면으로 감지하는 영역을 나타낸 것이며, (b)는 통합센서 시스템에서 차량의 측면으로 감지하는 영역을 나타낸 것이다.(a) shows an area sensed on the upper surface or the plane of the integrated sensor system, and (b) shows a sensing area on the side of the vehicle in the integrated sensor system.
(a) 및 (b)에 나타낸 바와 같이, 통합센서 시스템은 차량의 전방방향으로 라이다 센서모듈(110)의 제1, 2 보조영역(①, ②)을 포함하는 제1 영역(미도시)에 위치한 제1 타겟을 검출할 수 있으며, 카메라 센서모듈(120)의 제2, 3 보조영역(②, ③)을 포함하는 제2 영역(미도시)에 위치한 제2 타겟을 검출할 수 있다.the integrated sensor system includes a first area (not shown) including the first and second auxiliary areas (1, 2) of the
여기서, 제2 보조영역(②)은 상기 제1, 2 영역 사이에 서로 중첩되는 일부영역이며, 이에 한정을 두지 않는다.Here, the second auxiliary area (2) is a partial area overlapping between the first and second areas, but is not limited thereto.
실시 예에서, 라이다 센서모듈(110) 및 카메라 센서모듈(120) 각각은 하나의 제1, 2 타겟을 검출하는 것으로 설명하였으나, 상기 제1, 2 타겟의 개수 및 위치에 대하여 한정을 두지 않는다.In the embodiment, each of the LIDAR
우선, 라이다 센서모듈(110)은 차량에서 제1 거리(d1)에 해당되는 제1 보조영역(①) 및 제1 보조영역(①)에서 제2 거리(d2)에 해당되는 제2 보조영역(②)에 위치한 상기 제1 물체를 검출할 수 있다.First, the RIDAR
제1 거리(d1)는 라이다 센서모듈(110)의 설치지점에서 7m의 거리이며, 제2 거리(d2)는 상기 설치지점에서 제1 거리(d1) 이후에 7m 에서 20m의 거리이다.The first distance d1 is a distance of 7 m from the installation point of the Raidasensor
즉, 라이다 센서모듈(110)은 제1, 2 보조 영역(①, ②)으로 제1 신호를 송신하는 송신부(112), 제1, 2 보조 영역(①, ②)에 위치한 상기 제1 타겟에서 상기 제1 신호에 대응하여 반사된 제2 신호를 수신하는 수신부(114) 및 상기 제1, 2 신호를 기반으로, 상기 제1 타겟에 대한 상기 타겟정보를 생성 및 출력하는 센서제어부(116)를 포함할 수 있다.That is, the RIAR
여기서, 송신부(112)는 제1, 2 보조 영역(①, ②)으로 상기 제1 신호를 송신 또는 방사할 수 있다.Here, the
수신부(114)는 송신부(112)에서 송신된 상기 제1 신호에 대응하며, 상기 제1 물체에서 반사된 제2 신호를 수신할 수 있다.The
실시 예에서, 수신부(114)는 상기 제2 신호를 수신하는 복수의 라이다 센서를 포함할 수 있으며, 상기 복수의 라이다 센서 중 적어도 하나는 상기 제2 신호를 수신하는 수신각도가 서로 다를 수 있으며, 이에 한정을 두지 않는다.In an embodiment, the
센서제어부(116)는 상기 제1, 2 신호의 신호크기, 상기 제2 신호의 수신각도 및 상기 제1, 2 신호 사이의 송수신 소요시간 중 적어도 하나를 기반으로, 상기 제1 타겟의 위치, 거리 및 상대속도를 포함하는 상기 타겟정보를 생성 및 출력할 수 있다.The
카메라 센서모듈(120)은 제2, 3 보조영역(②, ③)에 위치하는 상기 제2 타겟을 포함하는 영상을 촬영하여, 상기 영상에 대응하는 타겟영상정보를 생성 및 출력할 수 있다.The
즉, 카메라 센서모듈(120)은 제2 보조 영역(②)에서 제3 거리(d3)에 해당하는 제3 보조영역(③)에 대한 상기 영상을 촬영하는 적어도 하나의 이미지 센서를 포함할 수 있다.That is, the
제3 거리(d3)는 제2 거리(d2) 이후지점에서 80m 의 거리이다.The third distance d3 is a distance of 80 m from the point after the second distance d2.
카메라 센서모듈(120)은 상기 적어도 이미지 센서에서 촬영한 상기 영상을 기반으로 상기 타겟영상정보를 생성할 수 있으며, 실시 예에서 상기 타겟영상정보에는 상기 제2 타겟이 포함된 것으로 설명한다.The
제어모듈(130)은 상기 타겟정보 및 상기 타겟영상정보의 입력시간을 동기화시켜 정렬하고, 정렬된 동기화 순서에 따라 제2 보조 영역(②)에서 상기 타겟정보가 입력되는지 판단하는 타겟 판단부(132) 및 제2 보조 영역(②)에서 상기 타겟정보가 입력되면, 상기 퓨전인식 알고리즘에 적용하여 상기 제1, 2 타겟이 동일타겟이면 퓨전타겟ID를 부여하여 차속을 능동제어하거나, 또는 상기 제1, 2 타겟이 다른타겟이면 경고를 발생시키는 타겟인식 실행부(134)를 포함한다.The
우선, 타겟 판단부(132)는 라이다 센서모듈(110)로부터 입력된 상기 타겟정보 및 카메라 센서모듈(120)로부터 입력된 상기 타겟영상정보의 입력시점을 기준으로 시간 정렬하하고, 정렬된 동기화 순서에 따라 제2 보조 영역(②)에서 상기 타겟정보가 입력되는지 판단할 수 있다.First, the
타겟인식 실행부(134)는 좌표 변환부(135), 좌표 판단부(136), 거리 판단부(137), 속도 판단부(138) 및 제어부(139)를 포함할 수 있다.The target
우선, 좌표 변환부(135)는 라이다 센서모듈(110)에서 감지된 상기 제1 타겟이 제2 보조 영역(②)에 존재하는 것으로 판단하면, 카메라 로직 구현에 이용한 Visual C를 이용하여 이미지 프로세스 chip에 로직을 구현되며, 이미지 처리를 위해서는 라이다 센서모듈(110)에서 입력된 상기 타겟정보를 라이다 좌표계에서 설정된 영상 좌표계로 변환한다.First, when the
이때, 좌표 변환부(135)는 상기 타겟정보에 포함된 상기 제2 신호의 수신각도를 이용하여 변환한다. At this time, the coordinate transforming
즉, 좌표변환부(137)는 라이다 센서모듈(110)에서 감지한 상기 제1 타겟과 카메라 센서모듈(120)에서 촬영한 상기 제2 타겟이 동일 타겟인지 확인하기 위해 동일한 영상좌표계로 변환한다. That is, the coordinate
좌표변환부(137)는 하기의 [수학식 1]에 따라 상기 수신각도를 기반으로 상기 제1 타겟의 위치좌표로 변환할 수 있다.다.The coordinate transforming
여기서, Y위치좌표는 영상좌표계로 변환된 제1 물체의 위치좌표이며, C중심위치는 제1 물체의 외관에 따른 거리에 따라 형성된 외관 중 중심거리에 해당되는 위치이며, T거리좌표이미지는 제1 물체의 외관 이미지 크기이며, N라이다센서개수는 라이다 센서모듈(110)에 포함된 복수의 라이다 센서 개수이며, X수신각도는 복수의 라이다 센서에서 제2 신호를 수신하는 수신각도를 나타낸다.Here, Y position coordinates are position coordinates of the first object is converted into the image coordinate system, a position corresponding to the center distance of the C center of gravity is outside formed in accordance with the distance along the exterior of the first object, T distance coordinate image of the The number of sensors is the number of Lidar sensors included in the
좌표 판단부(136)는 상기 제1 타겟의 제1 위치좌표 및 상기 제2 타겟의 제2 위치좌표를 기반으로, 제1 타겟 중심좌표 및 제2 타겟 중심좌표를 산출하고, 상기 제1, 2 타겟 중심좌표 사이의 차가 설정된 제1 임계값 범위 내에 속하는지 판단한다.The coordinate
또한, 상기 제1 임계값 범위는 영상좌표계의 x축 중심좌표를 사이에 두고 설정된 상기 제1 임계값 범위 내에 상기 제1, 2 위치좌표 또는 상기 제1, 2 타겟 중심좌표가 속하는지 판단할 수 있다.In addition, the first threshold value range may determine whether the first, second position coordinates, or the first and second target center coordinates fall within the first threshold value range set between the x-axis center coordinates of the image coordinate system have.
좌표 판단부(136)는 상기 제1, 2 타겟 중심좌표 사이의 차가 상기 제1 임계값 범위 내에 속하면 상기 제1, 2 타겟을 그룹핑한다.The coordinate
거리 판단부(137)는 상기 제1 위치좌표 및 상기 제2 위치좌표를 기반으로 상기 제1, 2 타겟 사이의 거리차가 설정된 제2 임계값 범위 내에 속하는지를 판단한다.The
즉, 거리 판단부(137)는 좌표 판단부(136)와 별도로 동작하여, 상기 제1, 2 타겟 사이이 거리차가 상기 제2 임계값 범위 내에 속하면 동일 타겟으로 그룹핑할 수 있다.That is, the
속도 판단부(138)는 상기 타겟정보에 포함된 상대속도 및 상기 타겟영상정보를 기반으로 산출한 속도 사이의 속도차가 설정된 제3 임계값 범위 내에 속하는지 판단한다.The
즉, 속도 판단부(138)는 차량의 차속을 기반으로 상기 제1 타겟의 상대속도 및 상기 제2 타겟의 속도를 정확하게 판단할 수 있으며, 이에 따라 상기 제1, 2 타겟 사이의 속도차가 상기 제3 임계값 범위 내에 속하면 상기 제1, 2 타겟을 그룹핑한다.That is, the
제어부(139)는 좌표 판단부(136), 거리 판단부(137) 및 속도 판단부(138) 각각의 판단결과에 따라 상기 제1, 2 타겟이 동일 타겟인지를 판단하며, 상기 제1, 2 타겟이 동일 타겟으로 판단되면 퓨전타겟ID를 부여하여 차속을 능동제어하고, 상기 제1, 2 타겟이 다른 타겟으로 판단하면 경고를 발생시킬 수 있다.The
여기서, 제어부(139)는 상기 제1, 2 타겟이 동일 타겟이 아니면, 상기 제1, 2 타겟이 각각 제2, 3 보조 영역(②, ③)에 위치하는 것으로 인식하여 경고를 발생시킨다.Here, if the first and second targets are not the same target, the
도 3은 본 발명에 따른 자동차의 통합센서 시스템에 대한 동작방법을 나타낸 순서도이다.3 is a flowchart illustrating an operation method for an integrated sensor system of an automobile according to the present invention.
도 3을 참조하면, 통합센서 시스템은 라이다 센서모듈(110)로부터 타겟정보 및 카메라 센서모듈(120)로부터 타겟영상정보를 수신하고(S110), 상기 타겟정보 및 상기 타겟영상정보의 입력시간을 동기화시켜 정렬하고(S120), 상기 동기화된 상기 타겟정보 및 상기 타겟영상정보 각각에 포함된 제1, 2 타겟의 위치좌표를 설정된 동일 좌표계로 변환한다(S130).3, the integrated sensor system receives target information from the
상기 동일 좌표계는 상술한 바와 같이 영상 좌표계일 수 있으며, 다른 좌표계일 수 있으며, 이에 한정을 두지 않는다.The same coordinate system may be an image coordinate system as described above, and may be a different coordinate system, but is not limited thereto.
이때, 통합센서 시스템은 라이다 센서모듈(110)에서 수신한 상기 타겟정보 내에 상기 제1 타겟이 감지되었는지 판단하고(S140), 상기 제1 타겟이 감지되면 상기 제1 타겟이 설정된 제1 보조영역(①) 내에 위치하는지 판단한다(S150).At this time, the integrated sensor system determines whether the first target is detected in the target information received by the Raidasensor module 110 (S140). If the first target is detected, (1) (S150).
통합센서 시스템은 상기 제1 타겟이 제1 보조영역(①)에 위치하지 않으면, 좌표 판단부(136)에서 상기 제1, 2 타겟 각각에 대응하는 제1, 2 타겟 중심좌표 사이의 차가 설정된 제1 임계값 범위 내에 속하는지 판단하고(S160), 거리 판단부(137)에서 상기 제1, 2 타겟 사이의 거리차가 설정된 제2 임계값 범위 내에 속하는지 판단하고(S170), 속도 판단부(138)에서 상기 제1 타겟의 상대속도 및 상기 제2 타겟의 속도 사이의 속도차가 설정된 제3 임계값 범위 내에 속하는지 판단한다(S180).If the first target is not located in the first subarea (1), the coordinate determination unit (136) determines the difference between the first and second target center coordinates corresponding to the first and second targets (S160). The
통합센서 시스템은 (S160) 단계, (S170) 단계 및 (S180) 단계 모두의 판단결결과, 상기 제1, 2, 3 임계값 범위 내에 속하면 상기 제1, 2 타겟이 제2 보조영역(②)에 위치하는 것으로 판단하여, 상기 제1, 2 타겟을 그루핑하여 퓨전타겟ID를 부여하며 차속을 능동제어하고(S190), (S160) 단계, (S170) 단계 및 (S180) 단계 중 어느 하나라도 임계값을 만족하지 않으면, 상기 제1, 2 타겟이 다른 타겟으로 판단하고 제2, 3 보조영역(② ③)에 각각 위치하는 것으로 판단하여 경고를 발생시킨다(S200).If the integrated sensor system is within the first, second, and third threshold values as a result of the determination in step S160, step S170 and step S180, the first and second targets are in the second subareas S190), S160, S170, and S180 are performed to determine whether or not the first target and the second target are located, If the threshold value is not satisfied, it is determined that the first and second targets are different targets and are located in the second and third subareas (2 & cir &
이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다.It is to be understood that the terms "comprises", "comprising", or "having" as used in the foregoing description mean that the constituent element can be implanted unless specifically stated to the contrary, But should be construed as further including other elements.
이상에서는 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It should be understood that various modifications may be made by those skilled in the art without departing from the spirit and scope of the present invention.
Claims (10)
상기 제1 영역과 일부 영역이 중첩되는 제2 영역 내에 주행하는 제2 타겟(target)을 포함하는 타겟영상정보를 출력하는 카메라 센서모듈; 및
상기 타겟정보 및 상기 타겟영상정보 입력시, 설정된 퓨전인식 알고리즘에 따라 상기 제1, 2 타겟이 동일타겟 여부를 판단하여, 차속을 능동제어하거나 또는 경고를 발생시키는 제어모듈;을 포함하는 자동차의 통합센서 시스템.A Lada sensor module for sensing a first target traveling in a first area and outputting target information;
A camera sensor module for outputting target image information including a second target traveling in a second region in which the first region overlaps with the first region; And
And a control module for determining whether the first target and the second target are the same target according to a fusion recognition algorithm when the target information and the target video information are inputted and thereby to actively control the vehicle speed or to generate a warning Sensor system.
상기 제1 라이다 센서모듈은,
상기 제1 영역으로 제1 신호를 송신하는 송신부;
상기 제1 영역 내에 주행하는 상기 제1 타겟으로부터 상기 제1 신호에 따라 반사된 제2 신호를 수신하는 수신부; 및
상기 제1, 2 신호를 기반으로 상기 제1 타겟에 대한 상기 타겟정보를 생성 및 출력하는 센서제어부;를 포함하는 자동차의 통합센서 시스템.The method according to claim 1,
Wherein the first RL sensor module comprises:
A transmitter for transmitting a first signal to the first area;
A receiver for receiving a second signal reflected from the first target traveling in the first region according to the first signal; And
And a sensor controller for generating and outputting the target information for the first target based on the first and second signals.
상기 수신부는,
상기 제2 신호를 수신하는 수신각도가 다른 복수의 라이다 센서를 포함하는 자동차의 통합센서 시스템.3. The method of claim 2,
The receiver may further comprise:
And a plurality of radar sensors having different receiving angles for receiving the second signals.
상기 센서제어부는,
상기 제1, 2 신호의 신호크기, 상기 제2 신호의 수신각도 및 상기 제1, 2 신호 사이의 송수신 소요시간 중 적어도 하나를 기반으로, 상기 제1 타겟의 위치, 거리 및 상대속도를 포함하는 상기 타겟정보를 생성 및 출력하는 자동차의 통합센서 시스템.3. The method of claim 2,
The sensor control unit,
A distance and a relative speed of the first target based on at least one of a signal size of the first and second signals, a reception angle of the second signal, and a transmission / reception time between the first and second signals, And generates and outputs the target information.
상기 카메라 센서모듈은,
상기 제2 타겟이 포함된 영상을 촬영하는 적어도 하나의 이미지 센서를 포함하고,
상기 카메라 센서모듈은,
상기 적어도 하나의 이미지 센서에서 촬영한 상기 영상에 대응하는 상기 타겟영상정보를 생성 및 출력하는 자동차의 통합센서 시스템.The method according to claim 1,
Wherein the camera sensor module comprises:
And at least one image sensor for capturing an image including the second target,
Wherein the camera sensor module comprises:
And generates and outputs the target image information corresponding to the image photographed by the at least one image sensor.
상기 제1 영역은,
상기 라이다 센서모듈의 설치지점에서 상기 차량의 전방으로 20m의 거리를 포함하는 영역이며,
상기 일부영역은,
상기 설치지점에서 7m 에서 20m의 거리를 포함하는 영역인 자동차의 통합센서 시스템. The method according to claim 1,
Wherein the first region comprises:
An area including a distance of 20 m from the installation point of the LIDAR sensor module to the front of the vehicle,
The partial area may include,
And an area including a distance of 7 m to 20 m from the installation point.
상기 제2 영역은,
상기 카메라 센서모듈의 설치지점에서 7 m 떨어진 지점에서 100 m의 거리를 포함하는 영역인 자동차의 통합센서 시스템.The method according to claim 6,
Wherein the second region comprises:
And a distance of 100 m from a point 7 m away from the installation point of the camera sensor module.
상기 제어모듈은,
상기 타겟정보 및 상기 타겟영상정보의 입력시간을 동기화시켜 정렬하고, 정렬된 동기화 순서에 따라 상기 일부영역에서 상기 타겟정보가 입력되는지 판단하는 타겟 판단부; 및
상기 일부영역에서 상 기 타겟정보가 입력되면, 상기 퓨전인식 알고리즘에 적용하여 상기 제1, 2 타겟이 동일타겟이면 퓨전타겟ID를 부여하여 차속을 능동제어하거나, 또는 상기 제1, 2 타겟이 다른타겟이면 경고를 발생시키는 타겟인식 실행부;를 포함하는 자동차의 통합센서 시스템.The method according to claim 1,
The control module includes:
A target determining unit for aligning the input time of the target information and the target video information by aligning them and determining whether the target information is input in the partial area according to the aligned synchronization sequence; And
If the target information is input in the partial region, the fusion target algorithm is applied to the fusion recognition algorithm to provide the fusion target ID if the first and second targets are the same target, or the vehicle speed is actively controlled, And a target recognition executing unit for generating a warning if the target is a target.
상기 타겟인식 실행부는,
상기 일부영역에서 상기 타겟정보 입력시, 상기 타겟정보에 포함된 수신각도를 기반으로 상기 제1 타겟의 위치에 대응하는 제1 위치좌표를 라이다좌표계에서 영상좌표계로 변환하는 좌표 변환부;
상기 제1 위치좌표 및 상기 제2 타겟의 제2 위치좌표를 기반으로, 제1 타겟 중심좌표 및 제2 타겟 중심좌표를 산출하고, 상기 제1, 2 타겟 중심좌표가 설정된 제1 임계값 범위 내에 속하는지 판단하는 좌표 판단부;
상기 제1 위치좌표 및 상기 제2 위치좌표를 기반으로 상기 제1, 2 타겟 사이의 거리차가 설정된 제2 임계값 범위 내에 속하는지 판단하는 거리 판단부;
상기 타겟정보에 포함된 상대속도 및 상기 타겟영상정보를 기반으로 산출한 속도 사이의 속도차가 설정된 제3 임계값 범위 내에 속하는지 판단하는 속도 판단부; 및
상기 제1, 2, 3 임계값 범위 내에 모두 속하면 상기 제1, 2 타겟이 동일타겟으로 판단하여 퓨전타겟ID를 부여하여 상기 차속을 능동제어하고, 상기 제1, 2, 3 임계값 범위 중 하나라도 속하지 않으면 상기 제1, 2 타겟이 다른타겟으로 판단하면 상기 경고를 발생시키는 제어부;를 포함하는 자동차의 통합센서 시스템.9. The method of claim 8,
Wherein the target recognition unit
A coordinate converter for converting a first position coordinate corresponding to a position of the first target from a Lada coordinate system to an image coordinate system based on a reception angle included in the target information when the target information is input in the partial area;
Calculating a first target center coordinate and a second target center coordinate based on the first position coordinate and the second position coordinate of the second target and calculating the first target center coordinate within a first threshold value range A coordinate determination unit for determining whether the object belongs;
A distance determination unit for determining whether a distance difference between the first and second targets is within a second threshold value range based on the first position coordinate and the second position coordinate;
A speed determining unit for determining whether a speed difference between a relative speed included in the target information and a speed calculated based on the target image information is within a third threshold value range set; And
The first and second targets are determined to be the same target and the fusion target ID is given to active control of the vehicle speed, and if the first and second targets are within the first, second and third threshold values, And generating the warning if the first and second targets are determined to be different targets if at least one of the first and second targets is not included.
상기 제어부는,
상기 일부영역에서 상기 타겟정보가 입력되지 않으면, 상기 경고를 발생시키는 자동차의 통합센서 시스템.10. The method of claim 9,
Wherein,
And if the target information is not input in the partial area, generates the warning.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140095942A KR102192256B1 (en) | 2014-07-28 | 2014-07-28 | Intergrated sensor system of the vehicles |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140095942A KR102192256B1 (en) | 2014-07-28 | 2014-07-28 | Intergrated sensor system of the vehicles |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160013736A true KR20160013736A (en) | 2016-02-05 |
KR102192256B1 KR102192256B1 (en) | 2020-12-17 |
Family
ID=55353553
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140095942A KR102192256B1 (en) | 2014-07-28 | 2014-07-28 | Intergrated sensor system of the vehicles |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102192256B1 (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106908783A (en) * | 2017-02-23 | 2017-06-30 | 苏州大学 | Obstacle detection method based on multi-sensor information fusion |
KR20200067506A (en) * | 2018-12-04 | 2020-06-12 | 현대자동차주식회사 | Apparatus and method for performing omnidirectional sensor-fusion and vehicle including the same |
KR20210048890A (en) * | 2019-10-24 | 2021-05-04 | 현대모비스 주식회사 | Automotive sensor integration module |
KR20210048891A (en) * | 2019-10-24 | 2021-05-04 | 현대모비스 주식회사 | Automotive sensor integration module and system using the same |
KR20210049237A (en) * | 2019-10-24 | 2021-05-06 | 현대모비스 주식회사 | Automotive sensor integration module |
KR20210050570A (en) * | 2019-10-24 | 2021-05-07 | 트라이아이 엘티디. | Photonics system and method |
KR20210066572A (en) * | 2019-11-28 | 2021-06-07 | 슈어소프트테크주식회사 | Electronic device for combining image data and sensing data, and data combining method of the electronic device |
CN114291077A (en) * | 2021-12-23 | 2022-04-08 | 海宁奕斯伟集成电路设计有限公司 | Vehicle anti-collision early warning method and device |
US11606515B2 (en) | 2019-10-24 | 2023-03-14 | Trieye Ltd | Methods and systems for active SWIR imaging using germanium receivers |
US11664471B2 (en) | 2019-10-24 | 2023-05-30 | Trieye Ltd. | Systems, methods, and computer program products for image generation |
US11665447B2 (en) | 2019-10-24 | 2023-05-30 | Trieye Ltd. | Systems and methods for compensating for dark current in a photodetecting device |
KR20230078846A (en) * | 2021-11-26 | 2023-06-05 | 재단법인 지능형자동차부품진흥원 | Omnidirectional image awareness device for autonomous vechicles using multiple sensors and method thereof |
US11768918B2 (en) | 2019-10-25 | 2023-09-26 | Hyundai Mobis Co., Ltd. | Automotive sensor integration module |
US11811194B2 (en) | 2019-10-24 | 2023-11-07 | Trieye Ltd. | Passive Q-switched lasers and methods for operation and manufacture thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010244474A (en) * | 2009-04-09 | 2010-10-28 | Hitachi Automotive Systems Ltd | External world recognition device of automobile |
KR20110126938A (en) * | 2010-05-18 | 2011-11-24 | 주식회사 만도 | Sensor and alignment adjusting method |
JP4933144B2 (en) * | 2006-05-15 | 2012-05-16 | 本田技研工業株式会社 | Object detection device |
JP2014006123A (en) * | 2012-06-22 | 2014-01-16 | Toyota Motor Corp | Object detection device, information processing device, and object detection method |
-
2014
- 2014-07-28 KR KR1020140095942A patent/KR102192256B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4933144B2 (en) * | 2006-05-15 | 2012-05-16 | 本田技研工業株式会社 | Object detection device |
JP2010244474A (en) * | 2009-04-09 | 2010-10-28 | Hitachi Automotive Systems Ltd | External world recognition device of automobile |
KR20110126938A (en) * | 2010-05-18 | 2011-11-24 | 주식회사 만도 | Sensor and alignment adjusting method |
JP2014006123A (en) * | 2012-06-22 | 2014-01-16 | Toyota Motor Corp | Object detection device, information processing device, and object detection method |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106908783A (en) * | 2017-02-23 | 2017-06-30 | 苏州大学 | Obstacle detection method based on multi-sensor information fusion |
CN106908783B (en) * | 2017-02-23 | 2019-10-01 | 苏州大学 | Based on obstacle detection method combined of multi-sensor information |
KR20200067506A (en) * | 2018-12-04 | 2020-06-12 | 현대자동차주식회사 | Apparatus and method for performing omnidirectional sensor-fusion and vehicle including the same |
US11789141B2 (en) | 2018-12-04 | 2023-10-17 | Hyundai Motor Company | Omnidirectional sensor fusion system and method and vehicle including the same |
US11606515B2 (en) | 2019-10-24 | 2023-03-14 | Trieye Ltd | Methods and systems for active SWIR imaging using germanium receivers |
US11810990B2 (en) | 2019-10-24 | 2023-11-07 | Trieye Ltd. | Electro-optical systems, methods and computer program products for image generation |
KR20210050570A (en) * | 2019-10-24 | 2021-05-07 | 트라이아이 엘티디. | Photonics system and method |
CN114679531B (en) * | 2019-10-24 | 2024-03-05 | 趣眼有限公司 | System for generating image, method for generating image information, and computer-readable medium |
US11827236B2 (en) | 2019-10-24 | 2023-11-28 | Hyundai Mobis Co., Ltd. | Automotive sensor integration module and system using the same |
CN114679531A (en) * | 2019-10-24 | 2022-06-28 | 趣眼有限公司 | System for generating image, method for generating image information, and computer-readable medium |
KR20210048891A (en) * | 2019-10-24 | 2021-05-04 | 현대모비스 주식회사 | Automotive sensor integration module and system using the same |
US11664471B2 (en) | 2019-10-24 | 2023-05-30 | Trieye Ltd. | Systems, methods, and computer program products for image generation |
US11665447B2 (en) | 2019-10-24 | 2023-05-30 | Trieye Ltd. | Systems and methods for compensating for dark current in a photodetecting device |
US11811194B2 (en) | 2019-10-24 | 2023-11-07 | Trieye Ltd. | Passive Q-switched lasers and methods for operation and manufacture thereof |
KR20210049237A (en) * | 2019-10-24 | 2021-05-06 | 현대모비스 주식회사 | Automotive sensor integration module |
US11782153B2 (en) | 2019-10-24 | 2023-10-10 | Hyundai Mobis Co., Ltd. | Automotive sensor integration module |
KR20210048890A (en) * | 2019-10-24 | 2021-05-04 | 현대모비스 주식회사 | Automotive sensor integration module |
US11768918B2 (en) | 2019-10-25 | 2023-09-26 | Hyundai Mobis Co., Ltd. | Automotive sensor integration module |
KR20210066572A (en) * | 2019-11-28 | 2021-06-07 | 슈어소프트테크주식회사 | Electronic device for combining image data and sensing data, and data combining method of the electronic device |
KR20230078846A (en) * | 2021-11-26 | 2023-06-05 | 재단법인 지능형자동차부품진흥원 | Omnidirectional image awareness device for autonomous vechicles using multiple sensors and method thereof |
CN114291077A (en) * | 2021-12-23 | 2022-04-08 | 海宁奕斯伟集成电路设计有限公司 | Vehicle anti-collision early warning method and device |
Also Published As
Publication number | Publication date |
---|---|
KR102192256B1 (en) | 2020-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102192256B1 (en) | Intergrated sensor system of the vehicles | |
US9934690B2 (en) | Object recognition apparatus and vehicle travel controller using same | |
JP6369390B2 (en) | Lane junction determination device | |
US9223311B2 (en) | Vehicle driving support control apparatus | |
US9623869B2 (en) | Vehicle driving support control apparatus | |
US9809223B2 (en) | Driving assistant for vehicles | |
KR101787996B1 (en) | Apparatus of estimating traffic lane in vehicle, control method of thereof | |
US10922561B2 (en) | Object recognition device and vehicle travel control system | |
KR102027771B1 (en) | Obstacle detecting apparatus and method for adaptation to vehicle velocity | |
JP6361366B2 (en) | Object recognition device | |
US10836388B2 (en) | Vehicle control method and apparatus | |
KR102178433B1 (en) | Auto emergency braking system and method for recognizing pedestrian of the same | |
KR102042438B1 (en) | Radar-camera fusion system and target detecting method using the same | |
JP2014085331A (en) | Method and system for recognizing space of road shoulder | |
US10527719B2 (en) | Object detection apparatus and object detection method | |
KR20140137577A (en) | Apparatus and method for providing vehicle of circumference environment information | |
KR20180007412A (en) | Multi sensor based obstacle detection apparatus and method | |
JP2010162975A (en) | Vehicle control system | |
JP7122101B2 (en) | Vehicle obstacle detection device | |
KR20150142542A (en) | Intergrated sensor system of the vehicles | |
KR20150142543A (en) | Intergrated sensor system of the vehicles | |
KR101789294B1 (en) | Around view system of vehicle and method thereof | |
JP4394476B2 (en) | Vehicle driving support device | |
KR102535598B1 (en) | Vision based obstacle detection apparatus and method using radar and camera | |
JP6014534B2 (en) | Vehicle white line recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |