WO2022075607A1 - 도로 노면 감지가 가능한 라이다 시스템 및 데이터 처리방법 - Google Patents

도로 노면 감지가 가능한 라이다 시스템 및 데이터 처리방법 Download PDF

Info

Publication number
WO2022075607A1
WO2022075607A1 PCT/KR2021/012259 KR2021012259W WO2022075607A1 WO 2022075607 A1 WO2022075607 A1 WO 2022075607A1 KR 2021012259 W KR2021012259 W KR 2021012259W WO 2022075607 A1 WO2022075607 A1 WO 2022075607A1
Authority
WO
WIPO (PCT)
Prior art keywords
road surface
optical signal
point cloud
cloud data
unit
Prior art date
Application number
PCT/KR2021/012259
Other languages
English (en)
French (fr)
Inventor
이용구
이상진
장경찬
Original Assignee
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원 filed Critical 광주과학기술원
Publication of WO2022075607A1 publication Critical patent/WO2022075607A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/493Extracting wanted echo signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar

Definitions

  • the present invention relates to a lidar system capable of detecting a road surface and a data processing method, which obtains positioning through comparison with point cloud data based on mapped road surface information in the process of detecting a road surface condition.
  • methods for detecting the road surface of a road include a method of visually confirming while moving a road, and a method of detecting the road surface of a road by recording it through imaging. This method is mainly performed for the purpose of road repair work, but in order to improve reliability and improve the driving performance of the vehicle, the sensing device installed in the vehicle changes the driving information based on the road surface information detected through the lidar in real time. is also used
  • a high-performance sensor is required to analyze and respond immediately to the condition of the road surface located on the moving line of the vehicle traveling in real time, which increases the cost and requires complex logic design of the sensor.
  • the distance from the road surface to which the optical signal is reached and the incident angle of the optical signal to the road surface is to improve the reliability of information that may be degraded according to the intensity of the optical signal that varies depending on the
  • An embodiment of the present invention aims to improve reliability compared to a result of detecting a road surface condition depending on point cloud data included in an optical signal reflected through a transmitted optical signal, and to include positioning information in the detection result.
  • the present invention obtains positioning through comparison with point cloud data based on mapped road surface information in the process of detecting the road surface condition, and transmits a first optical signal toward the road surface and includes point cloud data corresponding to the road surface
  • the first LiDAR head receives the second optical signal, which is a signal in which the first optical signal is reflected from the road surface, and the point cloud data of the second optical signal is subjected to intensity correction processing, and information on the road surface is included.
  • a first unit comprising a first control unit for forming mapping information
  • a second lidar head that receives mapping information from the first unit, transmits a transmission signal toward the road surface, and receives a reception signal that includes point cloud data corresponding to the road surface and the transmission signal is a signal reflected on the road surface, and mapping
  • a lidar system capable of detecting a road surface is provided, including; a second unit including a second controller configured to obtain positioning by matching the information and point cloud data included in the received signal.
  • the first controller performs planar feature extraction based on the point cloud data included in the second optical signal, and performs contrast correction processing conditional on the incident angle and intensity of the second optical signal, A corrected data set can be formed with the correction value calculated through the GNSS sensor.
  • the intensity of the second optical signal in the contrast correction process is the intensity of the second optical signal in the contrast correction process.
  • the second controller may form the corrected first comparison information from the point cloud data by performing a contrast correction process based on the point cloud data included in the received signal.
  • the second control unit generates second comparison information combining the mapping information including the positioning and the first comparison information, and compares the three-dimensional point cloud data between the first comparison information and the second comparison information to determine the positioning of the second unit.
  • mapping information In the data processing method of generating mapping information by the first control unit of the first unit and transmitting it to the second control unit of the second unit, after transmitting the first optical signal to the road surface, receiving the second optical signal reflected from the road surface; , Object point cloud data corrected by performing planar feature extraction on the point cloud data included in the second optical signal and performing intensity correction on the point cloud data on which planar feature extraction has been performed , generates mapping information by combining the target point cloud data with the positioning sensed through GNSS (Global Navigation Satellite System), and transmits the mapping information to the second controller, and transmits the transmission signal to the road surface and then reflects it from the road surface
  • the second control unit receives the received signal, and generates first comparison information that is corrected point cloud data by performing planar feature extraction and contrast correction on the point cloud data included in the received signal, and mapping information including positioning and A data processing method for detecting a road surface, generating second comparison information by detecting a feature point through combining the first comparison information, and acquiring the positioning of the second unit through comparison
  • the first controller performs planar feature detection based on the point cloud data included in the second optical signal, performs contrast correction processing conditional on the incident angle and intensity of the second optical signal, and calculates through the GNSS sensor.
  • a corrected data set can be formed with the corrected correction values.
  • the intensity of the second optical signal in the contrast correction process is the intensity of the second optical signal in the contrast correction process.
  • the point cloud data in the process of sensing the road surface condition depending on the point cloud data included in the optical signal reflected through the transmitted optical signal, the distance from the road surface to which the optical signal is reached and the incident angle of the optical signal to the road surface
  • the point cloud data is subjected to contrast correction processing to correct the received information that varies depending on the difference in the light intensity and the incident angle of the light. It is possible to provide a lidar system and a data processing method.
  • reliability is improved compared to the result of detecting the road surface condition depending on the point cloud data included in the optical signal reflected through the transmitted optical signal, and through GNSS to include positioning information in the detection result. It is possible to provide a lidar system and a data processing method capable of detecting the road surface included in the result along with the collection of point cloud data using the obtained geographic information.
  • FIG. 1 is a view showing a connection relationship between a first unit and a second unit according to an embodiment of the present invention
  • FIG. 2 is a flowchart illustrating a process in which data is processed in a first unit according to an embodiment of the present invention
  • FIG. 3 is a view showing that the first unit corrects the point cloud data in the contrast correction step according to an embodiment of the present invention
  • FIG. 4 is a view showing an incident angle condition of an optical signal from a lidar head according to an embodiment of the present invention
  • FIG. 5 is a flowchart illustrating a process of data processing in a second unit according to an embodiment of the present invention
  • FIG. 1 is a diagram illustrating a connection relationship between a first unit and a second unit according to an embodiment of the present invention.
  • the present invention may be implemented by transferring information between a first unit and a second unit. If the first unit generates information to be transmitted preferentially and transmits it to the second unit, the second unit may perform a process of comparing and processing the information generated in the first unit with the information generated in the second unit.
  • optical signals may be transmitted through the first lidar head and the second lidar head, respectively. The light at this time is referred to as follows for convenience of classification. .
  • the optical signal transmitted from the first unit is the first optical signal
  • the optical signal received from the first unit is the second optical signal
  • the signal transmitted from the second unit is the transmission signal
  • the signal received from the second unit is the reception signal.
  • the first unit may be a vehicle as a configuration for constructing road surface information.
  • the first unit may transmit a first optical signal to the road surface to collect and process information on the road surface.
  • the first unit includes a first lidar head for transmitting an optical signal and a first control unit for collecting and processing a second optical signal received.
  • the first unit transmits an optical signal to the road surface and receives a second optical signal that is reflected by the road surface, where the second optical signal may include shape information of the road surface and the like.
  • the second optical signal may include shape information of the road surface and the like.
  • point cloud data can be formed.
  • the point cloud data is corrected and additional information is combined, so that mapping including positioning and road surface information is performed.
  • the mapping information generated here is transmitted to the second unit and compared with the point cloud data generated by the second unit, so that the second unit can acquire the positioning of the second unit.
  • FIG. 2 is a flowchart illustrating a process of data processing in the first unit according to an embodiment of the present invention. Referring to FIG. 2 , a data processing method in which the first controller of the first unit generates mapping information and transmits it to the second controller of the second unit is illustrated.
  • the first unit may transmit (S10) the first optical signal to the road surface through the first lidar head, and then receive (S20) the second optical signal reflected from the road surface. Since the second optical signal includes road surface information, the first controller may perform a predetermined correction in order to generate information using the information.
  • the predetermined correction may be a process of detecting a feature on a plane and a process of correcting contrast to reveal point cloud data more clearly in two dimensions.
  • planar feature extraction may be performed on the point cloud data included in the second optical signal (S30).
  • planar feature detection may be a process in which a pattern to be detected is detected, a point cloud of the pattern is formed to configure a surface shape.
  • Planar feature detection is mainly processed with spatial coordinate data of point cloud data, and the feature points detected as light and dark data of point cloud data such as road surface signs and road cracks are somewhat unclear depending on the intensity of light incident upon reflection of the light signal on the first unit. can be displayed. Accordingly, in order to correct this, another process, an intensity correction process, may be performed.
  • the contrast correction process may be performed on the point cloud data included in the second optical signal (S21). This can be performed when the second optical signal is received separately from the plane feature detection ( S30 ). However, after the plane feature detection ( S30 ) is performed, the contrast correction process ( S21 ) may be sequentially performed.
  • the object (road surface) point cloud data is generated (S40).
  • the generated object point cloud data may be 3D point cloud data.
  • positioning information obtained through a global navigation satellite system (GNSS) may be added to the target point cloud data. That is, after the road surface condition is detected through the flat feature detection (S30) and the contrast correction process (S21), the mapping can be completed by adding the positioning information.
  • the first unit may generate mapping information.
  • mapping information generated here is transmitted to the second unit to be processed in advance by the second control unit.
  • the contrast correction and planar feature detection process described with reference to FIG. 2 will be described in more detail with reference to FIGS. 3 and 4 .
  • FIG. 3 is a view showing that the first unit corrects point cloud data in the contrast correction step according to an embodiment of the present invention
  • FIG. 4 is an incident angle condition of an optical signal from a lidar head according to an embodiment of the present invention. the drawing shown.
  • the optical signal may be imaged more indefinitely in the point cloud data as the intensity of the light changes. Accordingly, by compensating this and differentially compensating for the intensity of the reflected and returned light, the imaging can be made clear.
  • the intensity of light may vary according to an incident angle of the first optical signal and a reflection angle of the second optical signal. That is, the intensity of the light may vary depending on the angle at which the first optical signal transmitted from the first lidar head reaches the road surface and is reflected, and the reflected second optical signal is incident on the first unit.
  • the first optical signal 10 when the first optical signal 10 is transmitted from the vehicle, which is the first unit 1 , to the road surface, the first optical signal reaching a farther distance is reflected back to the first unit as the second optical signal.
  • the angle of incidence with respect to the vertical direction from the ground eg, when the ground is horizontal
  • the intensity (intensity) of the second optical signal may be weakened, and the weakened second optical signal may more indefinitely record intensity information (Intensity) in the point cloud data.
  • this process may be a contrast correction process. That is, the contrast correction process may be information that can be derived from the relationship between the intensity of the second optical signal, which is weak and incident, and the distance of the road surface to which the first optical signal arrives.
  • the equation is defined as follows.
  • the intensity of the second light signal reflected from the road is proportional to the cosine value of the angle formed with the normal direction of the surface, and the magnitude of the second light signal is It can be expressed as Equation (2). This is also because the cosine component of the incident angle of the road surface is proportional to the size of the optical signal of the receiver.
  • the incident angle of the second optical signal is a factor that can be determined by the vertical scan angle with respect to the road surface and the angle of the first lidar head with the ground.
  • the intensity of the first optical signal affects factors such as distance and incident angle in addition to reflectivity depending on the condition of the road surface. crazy
  • the data set may be mapping information.
  • the first optical signal and the second optical signal described above are replaced with a transmission signal and a reception signal, so that the plane feature detection and contrast correction processing can be applied to the second unit, as well as the transmission signal transmission ( P10) and the reception signal reception (P20) step may be applied.
  • FIG. 5 is a flowchart illustrating a process in which data is processed in a second unit according to an embodiment of the present invention.
  • the second unit may receive the mapping information generated by the first unit from the first unit. This is used to generate the second comparison information, and may be compared with the first comparison information, which is point cloud data generated by the second unit.
  • the second control unit After transmitting the transmission signal to the road surface (P10), the reception signal reflected from the road surface is received (P20), and the second control unit performs planar feature extraction and contrast correction on the point cloud data included in the reception signal.
  • First comparison information that is corrected point cloud data may be generated (P21), and feature points may be detected (P30) by combining mapping information including positioning and the first comparison information to generate second comparison information (P40). .
  • the positioning of the second unit may be acquired (P60) through the comparison (P50) between the first comparison information and the second comparison information.
  • the comparison between the first comparison information and the second comparison information may be a comparison between three-dimensional point cloud data, and positioning may be obtained by matching information. That is, the second control unit generates second comparison information by combining the mapping information including the positioning and the first comparison information, and compares the three-dimensional point cloud data between the first comparison information and the second comparison information to determine the positioning of the second unit. can be obtained

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

본 발명은 도로 노면 상태를 검출하는 과정에서 맵핑된 도로 노면 정보를 기초로 점군 데이터와의 비교를 통해 측위를 획득하는 것으로서, 제1광신호를 노면을 향해 송신하고 노면에 대응되는 점군 데이터를 포함하며 제1광신호가 노면에 반사된 신호인 제2광신호를 수신하는 제1라이다 헤드, 및 제2광신호의 점군 데이터를 대상으로 명암 보정(Intensity correction) 처리를 수행하고 노면의 정보를 포함한 맵핑정보를 형성하는 제1제어부를 포함하는, 제1유닛; 및 제1유닛으로부터 맵핑정보를 전달받고, 노면을 향해 송신신호를 송신하고 노면에 대응되는 점군 데이터를 포함하고 송신신호가 노면에 반사된 신호인 수신신호를 수신하는 제2라이다 헤드, 및 맵핑정보와 수신신호에 포함된 점군 데이터를 매칭하여 측위를 획득하는 제2제어부를 포함하는, 제2유닛;을 포함하는, 도로 노면 감지가 가능한 라이다 시스템이 제공된다.

Description

도로 노면 감지가 가능한 라이다 시스템 및 데이터 처리방법
본 발명은 도로 노면 상태를 검출하는 과정에서 맵핑된 도로 노면 정보를 기초로 점군 데이터와의 비교를 통해 측위를 획득하는 것으로서, 도로 노면 감지가 가능한 라이다 시스템 및 데이터 처리방법에 관한 것이다.
일반적으로 도로의 노면을 검출하는 방법은 도로를 이동하며 육안으로 확인하는 방법과 촬상을 통해 기록하여 도로의 노면을 검출하는 방법 등이 있다. 이러한 방법은 주로 도로 보수공사를 목적으로 수행되나, 보다 신뢰도를 향상시켜 차량의 주행성능을 개선시키기 위해 차량에 설치된 감지장치가 실시간으로 라이다를 통해 감지된 노면정보를 기초로 주행정보를 변경하는데 사용되기도 한다.
그러나 이러한 경우 실시간으로 주행하는 차량이 이동선상에 위치한 노면의 상태를 분석하여 즉각적으로 대응하기 위해 고성능의 센서 등의 장착이 요구되고 이는 비용의 증가와 센서의 복잡한 로직의 설계가 요구된다.
따라서, 보다 단순한 로직을 통해 도로 노면의 상태를 감지 및 처리할 수 있는 도로 노면 검출 시스템 및 검출 방법이 요구된다.
본 발명의 일 실시예는 송신된 광신호를 통해 반사된 광신호에 포함된 점군 데이터에 의존하여 노면상태를 감지하는 과정에서 광신호가 도달된 노면과의 거리 및 노면에 도달한 광신호의 입사각도에 따라 달라지는 광신호의 세기에 따라 저하될 수 있는 정보의 신뢰도를 개선하기 위한 것을 목적으로 한다.
본 발명의 일 실시예는 송신된 광신호를 통해 반사된 광신호에 포함된 점군 데이터에 의존하여 노면 상태를 감지한 결과보다 신뢰도를 향상시키고, 감지결과에 측위정보를 포함하는 것을 목적으로 한다.
본 발명은 도로 노면 상태를 검출하는 과정에서 맵핑된 도로 노면 정보를 기초로 점군 데이터와의 비교를 통해 측위를 획득하는 것으로서, 제1광신호를 노면을 향해 송신하고 노면에 대응되는 점군 데이터를 포함하며 제1광신호가 노면에 반사된 신호인 제2광신호를 수신하는 제1라이다 헤드, 및 제2광신호의 점군 데이터를 대상으로 명암 보정(Intensity correction) 처리를 수행하고 노면의 정보를 포함한 맵핑정보를 형성하는 제1제어부를 포함하는, 제1유닛; 및 제1유닛으로부터 맵핑정보를 전달받고, 노면을 향해 송신신호를 송신하고 노면에 대응되는 점군 데이터를 포함하고 송신신호가 노면에 반사된 신호인 수신신호를 수신하는 제2라이다 헤드, 및 맵핑정보와 수신신호에 포함된 점군 데이터를 매칭하여 측위를 획득하는 제2제어부를 포함하는, 제2유닛;을 포함하는, 도로 노면 감지가 가능한 라이다 시스템이 제공된다.
그리고, 제1제어부는, 제2광신호에 포함된 점군 데이터를 기초로 평면 특징 검출(Planar Feature Extraction)을 수행하고, 제2광신호의 입사각 및 강도를 조건으로 하는 명암 보정 처리를 수행하며, GNSS 센서를 통해 산출된 보정값으로 보정된 데이터 셋을 형성할 수 있다.
또한, 명암 보정 처리에서의 제2광신호의 강도는
Figure PCTKR2021012259-appb-img-000001
의 수식을 만족하고, 입사각을 산입하여 제2광신호의 보정은
Figure PCTKR2021012259-appb-img-000002
의 수식을 만족하도록 수행될 수 있다.
또한, 제2제어부는, 수신신호에 포함된 점군 데이터를 기초로 명암 보정 처리를 수행함으로써 점군 데이터로부터 보정된 제1비교정보를 형성할 수 있다.
또한, 제2제어부는, 측위를 포함하는 맵핑정보와 제1비교정보를 결합한 제2비교정보를 생성하고, 제1비교정보와 제2비교정보 간 삼차원 점군 데이터를 비교하여 제2유닛의 측위를 획득할 수 있다.
제1유닛의 제1제어부가 매핑정보를 생성하여 제2유닛의 제2제어부로 전달하는 데이터 처리방법에 있어서, 제1광신호를 노면에 송신한 후에 노면으로부터 반사되는 제2광신호를 수신하고, 제2광신호에 포함된 점군 데이터를 대상으로 평면 특징 검출(Planar Feature Extraction)을 수행하고, 평면 특징 추출이 수행된 점군 데이터를 대상으로 명암 보정 (Intensity correction)을 수행하여 보정된 대상물 점군 데이터를 획득하고, 대상물 점군 데이터에 GNSS(Global Navigation Satellite System)를 통해 감지된 측위를 결합함으로써 맵핑정보를 생성하고, 매핑정보를 제2제어부로 전달하고, 송신신호를 노면에 송신한 후에 노면으로부터 반사된 수신신호를 제2제어부가 수신하고, 수신신호에 포함된 점군 데이터를 대상으로 평면 특징 추출 및 명암 보정을 수행함으로써 보정된 점군 데이터인 제1비교정보를 생성하고, 측위를 포함하는 매핑정보와 제1비교정보의 결합을 통해 특징점을 검출하여 제2비교정보를 생성하고, 제1비교정보 및 제2비교정보 간의 비교를 통해 제2유닛의 측위를 획득하는, 도로 노면 감지를 위한 데이터 처리방법이 제공된다.
그리고, 제1제어부는, 제2광신호에 포함된 점군 데이터를 기초로 평면 특징 검출을 수행하고, 제2광신호의 입사각 및 강도를 조건으로 하는 명암 보정 처리를 수행하며, GNSS 센서를 통해 산출된 보정값으로 보정된 데이터 셋을 형성할 수 있다.
또한, 명암 보정 처리에서의 제2광신호의 강도는
Figure PCTKR2021012259-appb-img-000003
의 수식을 만족하고, 수식에 입사각을 적용한 제2광신호의 강도는
Figure PCTKR2021012259-appb-img-000004
의 수식을 만족하도록 수행될 수 있다.
본 발명의 일 실시예에 따르면 송신된 광신호를 통해 반사된 광신호에 포함된 점군 데이터에 의존하여 노면상태를 감지하는 과정에서 광신호가 도달된 노면과의 거리 및 노면에 도달한 광신호의 입사각도에 따라 달라지는 광신호의 세기에 따라 저하될 수 있는 정보의 신뢰도를 개선하기 위해 점군 데이터를 명암 보정 처리하여 광세기 및 광의 입사각의 차이에 따라 달라지는 수신정보를 보정할 수 있는 도로 노면 감지가 가능한 라이다 시스템 및 데이터 처리방법을 제공할 수 있다.
본 발명의 일 실시예에 따르면 송신된 광신호를 통해 반사된 광신호에 포함된 점군 데이터에 의존하여 노면 상태를 감지한 결과보다 신뢰도를 향상시키고, 감지결과에 측위정보를 포함하기 위해 GNSS를 통해 획득한 지리정보를 점군 데이터의 수집과 함께 결과에 포함된 도로 노면 감지가 가능한 라이다 시스템 및 데이터 처리방법을 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 제1유닛 및 제2유닛 간의 연결관계를 나타낸 도면,
도 2는 본 발명의 일 실시예에 따른 제1유닛 내에서 데이터가 처리되는 과정을 나타낸 순서도,
도 3은 본 발명의 일 실시예에 따른 제1유닛이 명암 보정 단계에서 점군 데이터를 보정하는 것을 나타낸 도면,
도 4는 본 발명의 일 실시예에 따른 라이다 헤드로부터 광신호의 입사각 조건을 나타낸 도면,
도 5는 본 발명의 일 실시예에 따른 제2유닛 내에서 데이터가 처리되는 과정을 나타낸 순서도.
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.
본 발명을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하의 실시예는 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.
도 1은 본 발명의 일 실시예에 따른 제1유닛 및 제2유닛 간의 연결관계를 나타낸 도면이다.
도 1을 참조하면, 본 발명은 제1유닛 및 제2유닛 간의 정보전달에 의해서 구현될 수 있다. 우선적으로 제1유닛에서 전달할 정보를 생성하여 제2유닛으로 전달하면 제2유닛에서는 제1유닛에서 생성한 정보를 제2유닛에서 생성한 정보와 비교 및 가공하는 과정을 수행할 수 있다. 제1유닛 및 제2유닛에서 정보를 생성하기 위해 각각 제1라이다 헤드 및 제2라이다 헤드를 통해 광신호를 송신 할 수 있는데 이때의 광은 구분의 편의를 위해 이하에서 다음와 같이 지칭하도록 한다. 제1유닛에서 송신하는 광신호는 제1광신호, 제1유닛에서 수신하는 광신호는 제2광신호, 제2유닛에서 송신하는 신호는 송신신호 및 제2유닛에서 수신하는 신호는 수신신호라고 하기로 한다.
본 발명의 일 예를 구체적으로 설명하면, 제1유닛은 노면의 정보를 구축하기 위한 구성으로써 차량이 될 수 있다. 제1유닛은 노면의 정보를 수집 및 가공하기 위해 제1광신호를 노면으로 송신할 수 있다. 제1유닛은 광신호를 송신하는 제1라이다 헤드 및 수신되는 제2광신호를 수집 및 가공하는 제1제어부를 포함한다.
즉, 제1유닛은 노면으로 광신호를 송신하고 노면에 반사되면서 돌아오는 제2광신호를 수신하는데 여기서 제2광신호에는 노면의 형상정보 등이 포함될 수 있다. 이러한 정보를 통해 점군 데이터를 형성할 수 있다. 이 때의 점군 데이터는 보정 및 추가정보의 결합이 이루어져 측위 및 노면정보를 포함한 맵핑이 이루어진다. 여기서 생성된 맵핑정보는 제2유닛으로 전달되어 제2유닛에서 생성된 점군 데이터와 비교되어 제2유닛은 제2유닛의 측위를 획득할 수 있다.
전술한 과정을 이하에서 보다 구체적으로 설명하기로 한다. 특히, 도 2 내지 도 4에서는 제1유닛에서 이루어지는 데이터 처리과정에 대하여 설명을 하고 도 5에서는 제2유닛에서 이루어지는 데이터 처리과정을 설명하기로 한다.
도 2는 본 발명의 일 실시예에 따른 제1유닛 내에서 데이터가 처리되는 과정을 나타낸 순서도이다. 도 2를 참조하면, 제1유닛의 제1제어부가 매핑정보를 생성하여 제2유닛의 제2제어부로 전달하는 데이터 처리방법을 도시화하였다.
제1유닛은 제1라이다 헤드를 통해 제1광신호를 노면에 송신(S10)한 후에 노면으로부터 반사되는 제2광신호를 수신(S20)할 수 있다. 제2광신호에는 노면 정보가 포함되어 있으므로 이를 이용하여 정보를 생성하기 위해 제1제어부에서는 기 결정된 보정을 할 수 있다.
상기 기 결정된 보정은 평면상에서 특징을 검출하는 처리와 명암을 보정하여 2차원 상에서 보다 명확하게 점군 데이터를 드러나게 하는 처리일 수 있다.
하나는, 제2광신호에 포함된 점군 데이터를 대상으로 평면 특징 검출(Planar Feature Extraction)을 수행(S30)할 수 있다. 예를 들어, 평면 특징 검출은 검출대상 패턴이 감지되면 패턴의 점군이 형성되어 표면형상을 구성하는 처리일 수 있다. 평면 특징 검출은 주로 점군 데이터의 공간좌표 데이터로 처리되며, 도로노면표지 및 도로균열과 같은 점군 데이터의 명암데이터로 검출되는 특징점들은 제1유닛에 광신호가 반사되어 입사되는 광의 강도에 따라 다소 불명확하게 표시될 수 있다. 따라서, 이를 보정하기 위해 다른 하나의 처리인 명암 보정(Intensity correction) 처리가 수행될 수 있다.
즉, 다른 하나는, 제2광신호에 포함된 점군 데이터를 대상으로 명암보정 처리를 수행(S21)할 수 있다. 이는 평면 특징 검출(S30)과 별개로 제2광신호가 수신되면 이를 통해 수행할 수 있으나 평면 특징 검출(S30)을 수행한 후에 순차적으로 명암 보정 처리(S21)가 수행될 수 있다.
앞서 설명한 제1제어부를 통한 평면 특징 검출 및 명암보정이 완료되면 대상물(노면) 점군 데이터가 생성(S40)된 것을 의미한다. 생성된 대상물 점군 데이터는 삼차원 점군 데이터일 수 있다. 나아가, 대상물 점군 데이터에 GNSS(Global Navigation Satellite System)를 통해 획득한 측위정보가 더해질 수 있다. 즉, 노면상태를 평면 특징 검출(S30) 및 명암 보정 처리(S21)를 통해 감지한 후에 측위정보를 더하여 맵핑을 완료할 수 있다. 이러한 과정을 통해 제1유닛은 맵핑정보를 생성할 수 있다.
여기서 생성된 맵핑 정보는 제2유닛으로 전달되어 제2제어부에 의해 기 결정된 처리가 되게 된다. 이와 관련해서는 도 5를 통해 구체적으로 후술하도록 하고 우선, 도 2를 통해 설명한 명암 보정 및 평면 특징 검출 처리에 대하여 도 3 및 도 4를 통해 보다 구체적으로 설명하기로 한다.
도 3은 본 발명의 일 실시예에 따른 제1유닛이 명암 보정 단계에서 점군 데이터를 보정하는 것을 나타낸 도면이고, 도 4는 본 발명의 일 실시예에 따른 라이다 헤드로부터 광신호의 입사각 조건을 나타낸 도면이다.
광신호는 광의 세기가 달라짐에 따라 점군 데이터 내에서 보다 불명확하게 이미지화 될 수 있다. 따라서, 이를 보정하여 반사되어 돌아오는 광의 세기에 차등적으로 보상함으로써 상기 이미지화를 명확하게 할 수 있다. 광의 세기는 제1광신호의 입사각도 및 제2광신호의 반사각도에 따라 달라질 수 있다. 즉, 제1라이다 헤드로부터 송신된 제1광신호가 노면에 도달하여 반사되고, 반사된 제2광신호가 제1유닛으로 입사되는 각도에 따라 광의 세기가 달라질 수 있는 것이다.
도 3을 참조하면, 제1유닛(1)인 차량으로부터 제1광신호(10)가 노면으로 송신될 때, 보다 먼 곳에 도달한 제1광신호가 제2광신호로서 제1유닛으로 반사되어 돌아올 때 지면(예를 들어, 지면이 수평인 경우)으로부터 수직방향에 대하여 입사각이 클 수 있다. 상기 입사각이 크면 제2광신호의 세기(강도)는 약해질 수 있고, 약해진 제2광신호는 점군 데이터에 보다 불명확하게 명암 정보(Intensity)를 기록하게 될 수 있다.
따라서, 이러한 현상을 보완하기 위해 제2광신호가 상대적으로 먼곳으로부터 반사되어 돌아올 때 약해진 세기만큼 점군 데이터에 보상을 하여 보다 명확한 점군 데이터를 획득할 수 있다. 이러한 과정이 명암 보정 처리일 수 있다. 즉, 명암 보정 처리는 약해져서 입사되는 제2광신호의 세기와 제1광신호가 도달되는 노면의 거리와의 관계 속에서 도출할 수 있는 정보일 수 있다. 동시에 제1광신호의 송신시 세기를 기준으로 하여 수식으로 정의하면 아래와 같다.
[수학식 1]
Figure PCTKR2021012259-appb-img-000005
또한, 표면의 휘도가 등방성을 가지는 램버시안 표면으로 가정하면, 노면에서 반사되는 제2광신호의 세기는 표면의 법선 방향과 이루는 각의 코사인 값에 비례하며, 제2광신호의 크기는 아래의 수학식2와 같이 나타낼 수 있다. 이는 노면의 입사각의 코사인 성분이 수신부 광신호 크기와 비례한 것이기도 하다.
[수학식2]
Figure PCTKR2021012259-appb-img-000006
한편, 제2광신호의 입사각은 도 4에 도시된 바와 같이 노면을 기준으로 수직 주사각도 및 제1라이다 헤드의 지면과의 각도에 의하여 결정될 수 있는 요인이다. 제1유닛에 제1라이다 헤드를 장착하고 노면을 향해 제1광신호를 송신할 때 도 3과 같이 제1광신호의 세기는 노면의 상태에 따른 반사도 외에 거리 및 입사각과 같은 요인에 영향을 미친다.
따라서, f2(R-2), f3(cosθ) 값을 모델링 하여 아래의 수학식3과 같이 거리에 따른 요인은 보상함으로써 도로노면표지 및 도로균열과 같은 노면의 특징만 나타낼 수 있는 데이터로 보정할 수 있다. 이러한 보정을 통해 점군 데이터를 보다 신뢰도 높은 데이터로 보정할 수 있는 것이다.
[수학식3]
Figure PCTKR2021012259-appb-img-000007
나아가, GNSS 센서를 통해 산출된 측위를 보정된 점군데이터에 더해 데이터 셋을 형성할 수 있다. 상기 데이터 셋이 맵핑정보일 수 있다.
전술한 제1광신호 및 제2광신호는 송신신호 및 수신신호로 치환되어 평면 특징 검출 및 명암 보정 처리는 제2유닛에 적용될 수 있음은 물론이며 도 5를 통해 이하에서 설명할 송신신호 송신(P10) 및 수신신호 수신(P20) 단계에서 적용될 수 있다.
도 5는 본 발명의 일 실시예에 따른 제2유닛 내에서 데이터가 처리되는 과정을 나타낸 순서도이다.
우선, 도 2를 통하여 설명한 바와 같이 제1유닛에서 생성된 맵핑정보를 제1유닛으로부터 제2유닛이 전달받을 수 있다. 이는 제2비교정보를 생성하는데 이용되며, 제2유닛이 생성한 점군 데이터인 제1비교정보와 비교될 수 있다.
구체적으로, 송신신호를 노면에 송신(P10)한 후에 노면으로부터 반사된 수신신호를 수신(P20)하고, 제2제어부는 수신신호에 포함된 점군 데이터를 대상으로 평면 특징 추출 및 명암 보정을 수행함으로써 보정된 점군 데이터인 제1비교정보를 생성(P21)하고, 측위를 포함하는 매핑정보와 제1비교정보의 결합을 통해 특징점을 검출(P30)하여 제2비교정보를 생성(P40)할 수 있다.
제1비교정보 및 제2비교정보 간의 비교(P50)를 통해 제2유닛의 측위를 획득(P60)할 수 있다. 여기서 제1비교정보 및 제2비교정보 간의 비교는 삼차원 점군 데이터 간의 비교일 수 있고 매칭되는 정보에 의해 측위를 획득할 수 있다. 즉, 제2제어부는, 측위를 포함하는 맵핑정보와 제1비교정보를 결합한 제2비교정보를 생성하고, 제1비교정보와 제2비교정보 간 삼차원 점군 데이터를 비교하여 제2유닛의 측위를 획득할 수 있다.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.

Claims (8)

  1. 제1광신호를 노면을 향해 송신하고 상기 노면에 대응되는 점군 데이터를 포함하며 상기 제1광신호가 상기 노면에 반사된 신호인 제2광신호를 수신하는 제1라이다 헤드, 및 상기 제2광신호의 점군 데이터를 대상으로 명암 보정(Intensity correction) 처리를 수행하고 상기 노면의 정보를 포함한 맵핑정보를 형성하는 제1제어부를 포함하는, 제1유닛; 및
    상기 제1유닛으로부터 상기 맵핑정보를 전달받고, 상기 노면을 향해 송신신호를 송신하고 상기 노면에 대응되는 점군 데이터를 포함하고 상기 송신신호가 상기 노면에 반사된 신호인 수신신호를 수신하는 제2라이다 헤드, 및 상기 맵핑정보와 상기 수신신호에 포함된 점군 데이터를 매칭하여 측위를 획득하는 제2제어부를 포함하는, 제2유닛;을 포함하는, 도로 노면 감지가 가능한 라이다 시스템.
  2. 청구항 1에 있어서,
    상기 제1제어부는,
    상기 제2광신호에 포함된 점군 데이터를 기초로 평면 특징 검출(Planar Feature Extraction)을 수행하고, 상기 제2광신호의 입사각 및 강도를 조건으로 하는 상기 명암 보정 처리를 수행하며, GNSS 센서를 통해 산출된 보정값으로 보정된 데이터 셋을 형성하는, 도로 노면 감지가 가능한 라이다 시스템.
  3. 청구항 2에 있어서,
    상기 명암 보정 처리에서의 상기 제2광신호의 강도는
    Figure PCTKR2021012259-appb-img-000008
    의 수식을 만족하고, 입사각을 산입하여 상기 제2광신호의 보정은
    Figure PCTKR2021012259-appb-img-000009
    의 수식을 만족하도록 수행되는, 도로 노면 감지가 가능한 라이다 시스템.
  4. 청구항 1에 있어서,
    상기 제2제어부는,
    상기 수신신호에 포함된 점군 데이터를 기초로 명암 보정 처리를 수행함으로써 점군 데이터로부터 보정된 제1비교정보를 형성하는, 도로 노면 감지가 가능한 라이다 시스템.
  5. 청구항 4에 있어서,
    상기 제2제어부는,
    상기 측위를 포함하는 상기 맵핑정보와 상기 제1비교정보를 결합한 제2비교정보를 생성하고, 상기 제1비교정보와 상기 제2비교정보 간 삼차원 점군 데이터를 비교하여 상기 제2유닛의 상기 측위를 획득하는, 도로 노면 감지가 가능한 라이다 시스템.
  6. 제1유닛의 제1제어부가 매핑정보를 생성하여 제2유닛의 제2제어부로 전달하는 데이터 처리방법에 있어서,
    제1광신호를 노면에 송신한 후에 상기 노면으로부터 반사되는 제2광신호를 수신하고,
    상기 제2광신호에 포함된 점군 데이터를 대상으로 평면 특징 검출(Planar Feature Extraction)을 수행하고,
    상기 평면 특징 추출이 수행된 점군 데이터를 대상으로 명암 보정 (Intensity correction)을 수행하여 보정된 대상물 점군 데이터를 획득하고,
    상기 대상물 점군 데이터에 GNSS(Global Navigation Satellite System)를 통해 감지된 측위를 결합함으로써 맵핑정보를 생성하고,
    상기 매핑정보를 상기 제2제어부로 전달하고,
    송신신호를 상기 노면에 송신한 후에 상기 노면으로부터 반사된 수신신호를 제2제어부가 수신하고,
    상기 수신신호에 포함된 점군 데이터를 대상으로 상기 평면 특징 추출 및 상기 명암 보정을 수행함으로써 보정된 점군 데이터인 제1비교정보를 생성하고,
    상기 측위를 포함하는 상기 매핑정보와 상기 제1비교정보의 결합을 통해 특징점을 검출하여 제2비교정보를 생성하고,
    상기 제1비교정보 및 상기 제2비교정보 간의 비교를 통해 상기 제2유닛의 측위를 획득하는, 도로 노면 감지를 위한 데이터 처리방법.
  7. 청구항 6에 있어서,
    상기 제1제어부는,
    상기 제2광신호에 포함된 점군 데이터를 기초로 상기 평면 특징 검출을 수행하고, 상기 제2광신호의 입사각 및 강도를 조건으로 하는 상기 명암 보정 처리를 수행하며, GNSS 센서를 통해 산출된 보정값으로 보정된 데이터 셋을 형성하는, 도로 노면 감지를 위한 데이터 처리방법.
  8. 청구항 7에 있어서,
    상기 명암 보정 처리에서의 상기 제2광신호의 강도는
    Figure PCTKR2021012259-appb-img-000010
    의 수식을 만족하고, 상기 수식에 상기 입사각을 적용한 상기 제2광신호의 강도는
    Figure PCTKR2021012259-appb-img-000011
    의 수식을 만족하도록 수행되는, 도로 노면 감지를 위한 데이터 처리방법.
PCT/KR2021/012259 2020-10-06 2021-09-09 도로 노면 감지가 가능한 라이다 시스템 및 데이터 처리방법 WO2022075607A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0128736 2020-10-06
KR1020200128736A KR20220045736A (ko) 2020-10-06 2020-10-06 도로 노면 감지가 가능한 라이다 시스템 및 데이터 처리방법

Publications (1)

Publication Number Publication Date
WO2022075607A1 true WO2022075607A1 (ko) 2022-04-14

Family

ID=81126587

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/012259 WO2022075607A1 (ko) 2020-10-06 2021-09-09 도로 노면 감지가 가능한 라이다 시스템 및 데이터 처리방법

Country Status (2)

Country Link
KR (1) KR20220045736A (ko)
WO (1) WO2022075607A1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020074485A (ko) * 2000-12-27 2002-09-30 후지쓰 텐 가부시키가이샤 노면 검지 장치 및 차량 탑재용 레이더의 상하향 축변위검출 장치
KR20190014237A (ko) * 2017-07-31 2019-02-12 현대엠엔소프트 주식회사 모바일 맵핑 시스템을 이용한 도로 차선 취득 장치 및 방법
US20200150233A1 (en) * 2018-11-09 2020-05-14 Beijing Didi Infinity Technology And Development Co., Ltd. Vehicle positioning system using lidar
KR20200071293A (ko) * 2018-12-11 2020-06-19 삼성전자주식회사 3차원 컬러 맵 기반의 측위 방법 및 장치

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101547940B1 (ko) 2014-12-17 2015-08-28 가톨릭관동대학교산학협력단 동일평면상에 있는 지상 라이다 자료의 오차 조정 시스템 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020074485A (ko) * 2000-12-27 2002-09-30 후지쓰 텐 가부시키가이샤 노면 검지 장치 및 차량 탑재용 레이더의 상하향 축변위검출 장치
KR20190014237A (ko) * 2017-07-31 2019-02-12 현대엠엔소프트 주식회사 모바일 맵핑 시스템을 이용한 도로 차선 취득 장치 및 방법
US20200150233A1 (en) * 2018-11-09 2020-05-14 Beijing Didi Infinity Technology And Development Co., Ltd. Vehicle positioning system using lidar
KR20200071293A (ko) * 2018-12-11 2020-06-19 삼성전자주식회사 3차원 컬러 맵 기반의 측위 방법 및 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FANG WEI; HUANG XIANFENG; ZHANG FAN; LI DEREN: "Intensity Correction of Terrestrial Laser Scanning Data by Estimating Laser Transmission Function", IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING, vol. 53, no. 2, 1 February 2015 (2015-02-01), USA, pages 942 - 951, XP011556016, ISSN: 0196-2892, DOI: 10.1109/TGRS.2014.2330852 *

Also Published As

Publication number Publication date
KR20220045736A (ko) 2022-04-13

Similar Documents

Publication Publication Date Title
WO2021112462A1 (ko) 2차원 영상의 픽셀별 3차원 좌표값 추정 방법 및 이를 이용한 자율주행정보 추정 방법
WO2012023639A1 (ko) 다수의 센서를 이용하는 객체 계수 방법 및 장치
WO2019225817A1 (ko) 차량의 위치 추정 장치, 차량의 위치 추정 방법, 및 이러한 방법을 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독 가능 기록매체
CN108510530B (zh) 一种三维点云匹配方法及其系统
WO2020004817A1 (ko) 차선 정보 검출 장치, 방법 및 이러한 방법을 수행하도록 프로그램된 컴퓨 프로그램을 저장하는 컴퓨터 판독가능한 기록매체
WO2020235734A1 (ko) 모노카메라를 이용한 자율주행 차량의 거리 및 위치 추정 방법
CN111435081B (zh) 海面测量系统、海面测量方法以及存储介质
EP3359971A1 (en) Camera-based speed estimation and system calibration therefor
WO2017116134A1 (ko) 레이더 및 영상 융합 차량 단속시스템
WO2020015748A1 (en) Systems and methods for lidar detection
CN105865349B (zh) 一种大型建筑物位移监测方法
WO2017195965A1 (ko) 차량 속도에 따른 영상 처리 장치 및 방법
CN110533649B (zh) 一种无人机通用结构裂缝识别检测装置及方法
WO2016206108A1 (en) System and method for measuring a displacement of a mobile platform
WO2018101746A2 (ko) 도로면 폐색 영역 복원 장치 및 방법
JP2019078700A (ja) 情報処理装置および情報処理システム
CN104967769A (zh) 一种车底扫描系统和方法
WO2019172500A1 (ko) 인공지능을 이용한 영상분석 시정계
WO2015102280A1 (ko) 스테레오 카메라 장치 및 그의 렉티피케이션 방법
WO2024205014A1 (ko) 차량 센서 교정 방법 및 시스템
WO2022114455A1 (ko) 노면 영상정보를 이용한 자율주행 차량의 위치신호 보정장치
CN113340405B (zh) 桥梁振型的测量方法、装置及系统
WO2022075607A1 (ko) 도로 노면 감지가 가능한 라이다 시스템 및 데이터 처리방법
CN116958265A (zh) 一种基于双目视觉的船舶位姿测量方法及系统
CN112284509A (zh) 一种基于手机视频的桥梁结构振型测量方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21877859

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 03/08/2023)

122 Ep: pct application non-entry in european phase

Ref document number: 21877859

Country of ref document: EP

Kind code of ref document: A1