KR102580683B1 - Network-based positioning system and method using thereof - Google Patents

Network-based positioning system and method using thereof Download PDF

Info

Publication number
KR102580683B1
KR102580683B1 KR1020220159835A KR20220159835A KR102580683B1 KR 102580683 B1 KR102580683 B1 KR 102580683B1 KR 1020220159835 A KR1020220159835 A KR 1020220159835A KR 20220159835 A KR20220159835 A KR 20220159835A KR 102580683 B1 KR102580683 B1 KR 102580683B1
Authority
KR
South Korea
Prior art keywords
vehicle
information
feature point
infrastructure device
based positioning
Prior art date
Application number
KR1020220159835A
Other languages
Korean (ko)
Inventor
윤상훈
임기택
신대교
장수현
장성현
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Priority to KR1020220159835A priority Critical patent/KR102580683B1/en
Application granted granted Critical
Publication of KR102580683B1 publication Critical patent/KR102580683B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/183Compensation of inertial measurements, e.g. for temperature effects
    • G01C21/188Compensation of inertial measurements, e.g. for temperature effects for accumulated errors, e.g. by coupling inertial systems with absolute positioning systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • G01S19/47Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 네트워크 기반 측위 시스템 및 그 방법에 관한 것이다.
본 발명에 따른 네트워크 기반 측위 시스템은 네트워크 기반 측위 서비스 지역에 접근하여 측위 서비스를 요청하고 차량 특징점 정보를 전송하는 차량 및 차량 특징점 정보를 이용하여 차량의 주행 정보를 검출하고, 주행 정보를 차량으로 전달하는 인프라 장치를 포함하고, 차량은 인프라 장치로부터 수신한 주행 정보를 이용하여 IMU 기반 측위 정보를 보정한다.
The present invention relates to a network-based positioning system and method.
The network-based positioning system according to the present invention detects the driving information of the vehicle using the vehicle and vehicle characteristic point information that accesses the network-based positioning service area, requests positioning service, and transmits vehicle characteristic point information, and transmits the driving information to the vehicle. It includes an infrastructure device, and the vehicle corrects the IMU-based positioning information using driving information received from the infrastructure device.

Description

네트워크 기반 측위 시스템 및 그 방법{NETWORK-BASED POSITIONING SYSTEM AND METHOD USING THEREOF}Network-based positioning system and method {NETWORK-BASED POSITIONING SYSTEM AND METHOD USING THEREOF}

본 발명은 네트워크 기반 측위 시스템 및 그 방법에 관한 것이다. The present invention relates to a network-based positioning system and method.

터널이나 실내 주차장과 같은 GPS 음영지역에서의 측위를 위해 데드 레코닝(Dead Reckoning) 기술이 많이 사용되고 있다. 그런데 이러한 기술은 IMU에 주로 의존하므로 오차 누적으로 인해 오랜 기간 측위 정확도를 유지하기 어려워, 긴 구간의 터널 또는 긴 시간 차량을 정차하는 주차 환경 등에 적용하기에는 어려움이 있다. Dead Reckoning technology is widely used for positioning in GPS shadow areas such as tunnels or indoor parking lots. However, since this technology mainly relies on the IMU, it is difficult to maintain positioning accuracy for a long period of time due to error accumulation, making it difficult to apply to long tunnels or parking environments where vehicles are stopped for a long time.

또한, 빛을 이용해 위치를 알아내는 LiDAR는 사전에 해당 지역의 지도를 작성해야 하고, 작성된 지도를 저장하고 있어야 하며, 해당 지역의 구조가 변경될 경우 LiDAR(point Cloud) 지도를 새롭게 작성해야 한다는 문제가 있다. In addition, LiDAR, which uses light to determine location, must create a map of the area in advance, store the map, and create a new LiDAR (point cloud) map if the structure of the area changes. There is.

최근 측위 정확도 향상을 위해 다양한 센서를 융합하는 기술이 제안되고 있는데, 해당 분야에서 가장 중요하게 요구되는 부분 중 하나는 센서간 측위 시간의 동기화 이슈이다. 융합 대상 센서들이 차량 내에 유선으로 연결되어 있으면, 동일 클럭 이용 등의 방식을 통해 동기화를 수행할 수 있으나, 무선으로 연결된 센서 간의 정보 융합 시에는 많은 문제가 있다. Recently, technologies for fusing various sensors have been proposed to improve positioning accuracy, and one of the most important aspects in this field is the issue of synchronization of positioning times between sensors. If the sensors subject to fusion are connected by wire within the vehicle, synchronization can be performed through methods such as using the same clock, but there are many problems when fusing information between wirelessly connected sensors.

본 발명은 전술한 문제점을 해결하기 위해 제안된 것으로, GPS가 관측되지 않는 GPS 음영지역에서도 이동체의 측위 정확도를 지속적으로 유지하는 것이 가능한 네트워크 기반 측위 시스템 및 방법을 제공하는데 그 목적이 있다. The present invention was proposed to solve the above-mentioned problems, and its purpose is to provide a network-based positioning system and method that can continuously maintain the positioning accuracy of a moving object even in GPS shadow areas where GPS is not observed.

본 발명에 따른 네트워크 기반 측위 시스템은 네트워크 기반 측위 서비스 지역에 접근하여 측위 서비스를 요청하고 차량 특징점 정보를 전송하는 차량 및 차량 특징점 정보를 이용하여 차량의 주행 정보를 검출하고, 주행 정보를 차량으로 전달하는 인프라 장치를 포함하고, 차량은 인프라 장치로부터 수신한 주행 정보를 이용하여 IMU 기반 측위 정보를 보정한다. The network-based positioning system according to the present invention detects the driving information of the vehicle using the vehicle and vehicle characteristic point information that accesses the network-based positioning service area, requests positioning service, and transmits vehicle characteristic point information, and transmits the driving information to the vehicle. It includes an infrastructure device, and the vehicle corrects the IMU-based positioning information using driving information received from the infrastructure device.

상기 인프라 장치는 상기 차량 특징점 정보를 분석하고, 상기 차량에 부여한 ID에 대해 상기 차량의 위치, 주행 방향 및 속도 정보를 포함하는 상기 주행 정보를 검출한다. The infrastructure device analyzes the vehicle feature point information and detects the driving information including the location, driving direction, and speed information of the vehicle with respect to the ID assigned to the vehicle.

상기 차량은 상기 네트워크 기반 측위 서비스 지역 내에서 현재 위치 정보를 전송하고, 상기 인프라 장치는 상기 현재 위치 정보에 대한 응답으로 상기 주행 정보를 전송한다. The vehicle transmits current location information within the network-based positioning service area, and the infrastructure device transmits the driving information in response to the current location information.

상기 인프라 장치는 상기 차량 특징점 정보를 이용하여 특징점 매칭을 수행하여 호모그래피 매트릭스를 추출한다. The infrastructure device extracts a homography matrix by performing feature point matching using the vehicle feature point information.

상기 인프라 장치는 상기 호모그래피 매트릭스, 매칭 대상 좌표, CCTV 좌표, 타임 스탬프를 상기 차량으로 전송한다. The infrastructure device transmits the homography matrix, matching target coordinates, CCTV coordinates, and time stamp to the vehicle.

상기 차량은 측위 결과 취득 시간을 저장하고, 상기 네트워크 기반 측위 서비스 지역에 진입하기 직전 상기 인프라 장치로부터 기설정 지역을 지나는 시점에 대한 시각 정보를 수신하여, 동일 좌표에 해당되는 시간의 차이를 이용하여 시간 동기화를 수행한다. The vehicle stores the acquisition time of the positioning result, receives time information about the time of passing through the preset area from the infrastructure device just before entering the network-based positioning service area, and uses the difference in time corresponding to the same coordinates. Perform time synchronization.

본 발명에 따른 네트워크 기반 측위 방법은 (a) 차량의 특징점 정보를 전송하는 단계와, (b) 차량의 특징점 정보를 이용한 매칭 수행 결과에 따라 주행 정보를 수신하는 단계 및 (c) 주행 정보를 이용하여 IMU 기반 측위 정보에 대한 보정을 수행하는 단계를 포함한다. The network-based positioning method according to the present invention includes (a) transmitting feature point information of the vehicle, (b) receiving driving information according to the result of matching using the feature point information of the vehicle, and (c) using the driving information. This includes performing correction on the IMU-based positioning information.

상기 (b) 단계는 상기 차량의 위치, 주행 방향 및 속도 정보를 포함하는 상기 주행 정보를 수신한다. In step (b), the driving information including the location, driving direction, and speed information of the vehicle is received.

상기 (b) 단계는 상기 차량의 특징점 정보를 이용한 매칭 수행 결과에 따른 호모그래피 매트릭스와, 매칭 대상 좌표, CCTV 좌표, 타임 스탬프를 수신한다. In step (b), a homography matrix according to the result of matching using feature point information of the vehicle, matching target coordinates, CCTV coordinates, and time stamp are received.

상기 (c) 단계는 측위 결과 취득 시각 정보를 저장하고, 인프라 장치의 기설정 지역을 지나는 시점에 대한 시각 정보를 수신하여, 동일 좌표에 해당하는 시간 차이를 이용하여 시간 동기화를 수행한다. In step (c), the acquisition time information of the positioning result is stored, time information about the point of time passing through the preset area of the infrastructure device is received, and time synchronization is performed using the time difference corresponding to the same coordinates.

본 발명에 따르면, 터널 또는 실내 주차장 등 GPS 음영 지역에서도 지속적으로 C-ITS 서비스를 제공하고, 끊김 없는 내비게이션 서비스를 제공하며, 주차된 차량의 위치를 운전자에게 자동 전달하는 것이 가능한 효과가 있다. According to the present invention, it is possible to continuously provide C-ITS service even in GPS shadow areas such as tunnels or indoor parking lots, provide uninterrupted navigation service, and automatically transmit the location of the parked vehicle to the driver.

본 발명의 효과는 이상에서 언급한 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 실시예에 따른 네트워크 기반 측위 시스템을 도시한다.
도 2a 내지 도 2h는 차량 특징점 정보를 이용한 네트워크 기반 측위를 도시한다.
도 3은 본 발명의 실시예에 따른 네트워크 기반 측위 과정을 도시한다.
도 4는 본 발명의 실시예에 따른 방법을 구현하기 위한 컴퓨터 시스템을 나타낸 블록도이다.
1 shows a network-based positioning system according to an embodiment of the present invention.
Figures 2a to 2h show network-based positioning using vehicle feature point information.
Figure 3 shows a network-based positioning process according to an embodiment of the present invention.
Figure 4 is a block diagram showing a computer system for implementing a method according to an embodiment of the present invention.

본 발명의 전술한 목적 및 그 이외의 목적과 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. The above-mentioned object and other objects, advantages and features of the present invention, and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings.

그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 목적, 구성 및 효과를 용이하게 알려주기 위해 제공되는 것일 뿐으로서, 본 발명의 권리범위는 청구항의 기재에 의해 정의된다. However, the present invention is not limited to the embodiments disclosed below and can be implemented in various different forms. The following embodiments are merely intended to convey to those skilled in the art the purpose of the invention, It is only provided to easily inform the configuration and effect, and the scope of rights of the present invention is defined by the description of the claims.

한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성소자, 단계, 동작 및/또는 소자가 하나 이상의 다른 구성소자, 단계, 동작 및/또는 소자의 존재 또는 추가됨을 배제하지 않는다.Meanwhile, the terms used in this specification are for describing embodiments and are not intended to limit the present invention. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, “comprises” and/or “comprising” means that the mentioned element, step, operation and/or element precludes the presence of one or more other elements, steps, operations and/or elements. Or it is not excluded that it is added.

본 발명의 실시예에 따르면, 카메라 등이 장착된 인프라와 정보를 송수신하는 단말(무선 통신 네트워크로 연결된 단말)을 이용하여, 터널, 지하 주차장 등 GPS 음영 지역에서 단말의 위치를 정확히 찾아내는 것이 가능하다. According to an embodiment of the present invention, it is possible to accurately find the location of the terminal in GPS shadow areas such as tunnels and underground parking lots by using a terminal (a terminal connected to a wireless communication network) that transmits and receives information with an infrastructure equipped with cameras, etc. .

본 발명의 실시예에 따르면, GPS 음영 지역에서의 정확한 위치 추정을 통해, 자율주행차의 자율주행 가능 지역을 확대하고, 전국 도로 중 약 10% 이상을 차지하는 터널 주행 환경에서 운전자의 안전을 도모하는 것이 가능하다. According to an embodiment of the present invention, through accurate location estimation in GPS shadow areas, the autonomous driving area of autonomous vehicles is expanded and driver safety is promoted in the tunnel driving environment, which accounts for more than 10% of roads nationwide. It is possible.

무선 통신 장치를 장착한 차량 간의 정보 소통을 통해 상호 안전 운전을 도모하기 위해, 지역에 구애받지 않는 정확한 측위 기술이 기본적으로 전제되어야 하며, 본 발명의 실시예에 따르면 GPS가 관측되지 않는 GPS 음영지역에서도 이동체의 측위 정확도를 지속적으로 유지하는 것이 가능한 네트워크 기반 측위 시스템 및 그 방법을 제안한다. In order to promote mutually safe driving through information communication between vehicles equipped with wireless communication devices, accurate positioning technology regardless of region must be a basic premise, and according to an embodiment of the present invention, GPS shadow area where GPS is not observed proposes a network-based positioning system and method that can continuously maintain the positioning accuracy of a moving object.

본 발명의 실시예에 따르면, 인프라와 이동 단말 간 측위 정보 전달을 위한 통신 프로토콜을 제시하고, 유선으로 연결되지 않은 센서 그룹 간의 동기화 방안을 제시하여, 기존의 단말에 추가적인 하드웨어 구성을 추가하지 않고도 GPS 음영 지역에서의 측위 정확도를 유지하는 것이 가능하다. According to an embodiment of the present invention, a communication protocol for transmitting positioning information between infrastructure and mobile terminals is proposed, and a synchronization method between sensor groups that are not connected by wires is proposed, thereby providing GPS without adding additional hardware configuration to existing terminals. It is possible to maintain positioning accuracy in shaded areas.

도 1은 본 발명의 실시예에 따른 네트워크 기반 측위 시스템을 도시한다. 1 shows a network-based positioning system according to an embodiment of the present invention.

본 발명의 실시예에 따르면, 무선통신을 통해 차량(200)의 특징점 정보를 인프라 장치(300)에 전달하고, 인프라 장치(300)는 차량(200)을 검출하여 위치, 속도, 주행 방향 등에 관한 정보를 차량(200)으로 전달하며, 차량(200)은 IMU에 기반한 측위 정보를 보정함으로써 측위 정확도와 업데이트 시급성을 동시에 확보할 수 있다. According to an embodiment of the present invention, feature point information of the vehicle 200 is transmitted to the infrastructure device 300 through wireless communication, and the infrastructure device 300 detects the vehicle 200 and provides information about the location, speed, driving direction, etc. The information is transmitted to the vehicle 200, and the vehicle 200 can simultaneously secure positioning accuracy and update urgency by correcting positioning information based on the IMU.

차량(200)은 네트워크 기반 측위 서비스 지역에 접근(예: 터널 등 GPS 음영 지역의 입구에 접근)하여 측위 서비스를 요청하고, 차량 특징점 정보를 인프라 장치(300)로 전송한다. 이 때, 차량 특징점 정보는 차량 포지션 별 특징점 정보를 포함한다. The vehicle 200 approaches a network-based positioning service area (e.g., approaches the entrance of a GPS shadow area such as a tunnel), requests a positioning service, and transmits vehicle feature point information to the infrastructure device 300. At this time, the vehicle feature point information includes feature point information for each vehicle position.

인프라 장치(300)는 차량으로부터 차량 특징점 정보를 수신하는 차량 특징점 정보 수신부(310)와, 기설정 지역을 지나는 차량 이미지를 촬영하는 영상 획득부(320) 및 차량 특징점 정보와 차량 이미지를 이용하여 주행정보를 검출하는 주행정보 검출부(330)를 포함한다. The infrastructure device 300 includes a vehicle feature point information receiver 310 that receives vehicle feature point information from the vehicle, an image acquisition section 320 that captures an image of a vehicle passing through a preset area, and driving using the vehicle feature point information and vehicle image. It includes a driving information detection unit 330 that detects information.

차량(200)은 위성(100)으로부터 GPS 기반 특정 절대 좌표 취득 시각 정보를 수신한다. 인프라 장치(300)는 차량 특징점 정보를 이용하여 차량(200)의 주행 정보를 검출하고, 주행 정보를 차량(200)으로 전달한다. 전술한 음영 지역 입구에 위치한 인프라 장치(300)는 인프라 기반 특정 절대좌표 취득 시각 정보를 차량(200)으로 전송한다. 차량(200)은 인프라 장치(300)로부터 수신한 주행 정보를 이용하여, IMU 기반 측위 정보를 보정한다. The vehicle 200 receives GPS-based specific absolute coordinate acquisition time information from the satellite 100. The infrastructure device 300 detects driving information of the vehicle 200 using vehicle feature point information and transmits the driving information to the vehicle 200. The infrastructure device 300 located at the entrance to the aforementioned shaded area transmits infrastructure-based specific absolute coordinate acquisition time information to the vehicle 200. The vehicle 200 uses the driving information received from the infrastructure device 300 to correct the IMU-based positioning information.

차량(200) 자체의 시각과 인프라 장치(300)의 시각 동기화를 위해, 특정 지역을 지나는 시점을 사후 비교하여 동기화를 이룰 수 있도록 한다. 차량(200)에서는 측위 결과가 취득되는 시각 정보를 저장하고, GPS 음영 지역 진입 직전 인프라 장치(300)로부터 수신한 시각 정보를 취득하며, 차량(200)은 동일 좌표를 생산하는 시간 차이를 이용하여 시간 동기화를 수행한다. In order to synchronize the time of the vehicle 200 itself and the time of the infrastructure device 300, the time when passing through a specific area is compared to achieve synchronization. The vehicle 200 stores the time information at which the positioning result is acquired, acquires the time information received from the infrastructure device 300 just before entering the GPS shadow area, and uses the time difference in producing the same coordinates. Perform time synchronization.

인프라 장치(300)는 차량 특징점 정보를 분석하고, 차량(200)에 부여한 ID에 대해 차량(200)의 위치, 주행 방향 및 속도 정보를 포함하는 주행 정보를 검출한다. The infrastructure device 300 analyzes vehicle feature point information and detects driving information including the location, driving direction, and speed information of the vehicle 200 with respect to the ID assigned to the vehicle 200.

인프라 장치(300)는 음영 지역 입구 외에도, 음영 지역 내에서 기설정 위치에 배치되어, 기설정 지역을 지나는 차량(200)의 주행 정보를 검출하고, 주행 정보를 차량(200)으로 전송한다. 인프라 장치(300)는 차량 별로 위치와 속도를 추정하고, 영상 인식을 통해 매칭 대상 좌표를 추출하게 된다. 인프라 장치(300)는 차량 특징점 정보를 이용하여 특징점 매칭을 수행하고, 호모그래피 매트릭스(homography matrix)를 추출한다. 인프라 장치(300)는 호모그래피 매트릭스, 매칭 대상 좌표, CCTV 좌표, 타임 스탬프를 차량(200)으로 전송한다. The infrastructure device 300 is disposed at a preset location in the shaded area, in addition to the entrance to the shaded area, detects driving information of the vehicle 200 passing through the preset area, and transmits the driving information to the vehicle 200. The infrastructure device 300 estimates the location and speed of each vehicle and extracts matching target coordinates through image recognition. The infrastructure device 300 performs feature point matching using vehicle feature point information and extracts a homography matrix. The infrastructure device 300 transmits the homography matrix, matching target coordinates, CCTV coordinates, and time stamp to the vehicle 200.

도 2a 내지 도 2h는 차량 특징점 정보를 이용한 네트워크 기반 측위를 도시한다. Figures 2a to 2h show network-based positioning using vehicle feature point information.

도 2a를 참조하면, 제1 차량(201) 및 제2 차량(202)은 차종, 모델에 따라 상이한 특징점 정보를 가진다. 일 실시예에 따르면, 차량은 특징점 정보를 가공/증식하여 인식 각도에 따른 특징점 정보를 전송할 수 있다. 다른 실시예에 따르면, 인프라 장치는 차량으로부터 특징점 정보를 수신하면, 이를 가공/증식하여 인식 각도에 따른 특징점 정보 데이터베이스를 구축하고, 촬영 영상 분석을 통해 동일 차량 여부를 판별할 수 있다. 또 다른 실시예에 따르면, 인프라 장치는 차량으로부터 특징점 정보를 수신하고, 촬영 영상 분석을 통해 추출된 특징점 정보가 차량으로부터 수신한 특징점 정보와 매칭되는지 여부를 확인하여 동일 차량 여부를 판별할 수 있다. Referring to FIG. 2A, the first vehicle 201 and the second vehicle 202 have different feature point information depending on the vehicle type and model. According to one embodiment, the vehicle may process/enlarge feature point information and transmit feature point information according to the recognition angle. According to another embodiment, when the infrastructure device receives feature point information from a vehicle, it processes/enlarges it to build a feature point information database according to the recognition angle, and determines whether it is the same vehicle through analysis of the captured image. According to another embodiment, the infrastructure device may receive feature point information from a vehicle and determine whether the vehicle is the same by checking whether feature point information extracted through analysis of captured images matches feature point information received from the vehicle.

도 2b를 참조하면, 차량(200)은 음영 지역 진입 전 배치된 제1 인프라 장치(300a)의 촬영 지역(A1-1)에서 제1 인프라 장치(300a)와 정보를 송수신하고, 음영 지역 내 배치된 제2 인프라 장치(300b)의 촬영 지역(A1-2) 및 제3 인프라 장치(300c)의 촬영 지역(A1-3)에서 제2 인프라 장치(300b) 및 제3 인프라 장치(300c)와 정보를 송수신하여, IMU 측위 정보를 보정한다. 다른 예로서, 차량(200)은 터널 내 주행을 하며 IMU 측위 정보를 생성하고, 제2 인프라 장치(300b) 및 제3 인프라 장치(300c)로부터 차량 촬영 영상 분석을 통해 특징점 매칭을 수행한 결과에 따른 주행 정보(위치, 속도, 주행 방향 등)를 수신하고, 주행 정보를 이용하여 IMU 측위 정보를 보정한다. Referring to FIG. 2B, the vehicle 200 transmits and receives information to and from the first infrastructure device 300a in the capturing area (A1-1) of the first infrastructure device 300a deployed before entering the shaded area, and is placed within the shaded area. The second infrastructure device 300b and the third infrastructure device 300c and information in the shooting area A1-2 of the second infrastructure device 300b and the shooting area A1-3 of the third infrastructure device 300c. By transmitting and receiving, the IMU positioning information is corrected. As another example, the vehicle 200 generates IMU positioning information while driving in a tunnel, and performs feature point matching through analysis of vehicle captured images from the second infrastructure device 300b and the third infrastructure device 300c. It receives driving information (position, speed, driving direction, etc.) and corrects the IMU positioning information using the driving information.

도 2c를 참조하면, 인프라 장치로부터 획득되는 영상에서, 제1 영역(A1)에는 제1 차량(201)이, 제2 영역(A2)에는 제2 차량(202)에 대한 영상이 획득된다. 인프라 장치는 기획득된 특징점 정보를 이용한 매칭을 수행하여, 제1 차량(201) 및 제2 차량(202)을 구분하여 인식하고, 각각의 차량으로 주행 정보를 전송한다. Referring to FIG. 2C, in the image obtained from the infrastructure device, an image of the first vehicle 201 is obtained in the first area (A1) and an image of the second vehicle 202 is acquired in the second area (A2). The infrastructure device performs matching using the obtained feature point information, recognizes the first vehicle 201 and the second vehicle 202, and transmits driving information to each vehicle.

도 2d를 참조하면, 인프라 장치로부터 획득되는 영상에서, 제1 영역(A1)에는 제1 차량(201)이, 제2 영역(A2)에는 제2 차량(202)에 대한 영상이 획득되는데, 제2 차량(202)은 전면 뷰에 가까운 특징점 정보가 영상 내에 포함되는 반면, 제1 차량(201)은 차선 변경 등의 헤딩 각도에 따라 전면 뷰에서 각도가 틀어진 형태의 특징점 정보가 영상 내에 포함된다. 전술한 바와 같이, 차량 특징점 정보는 차량, 인프라 장치, 또는 제3의 서버에 의해 가공/증식될 수 있고, 인프라 장치는 특징점 정보 매칭을 통해 동일 차량 여부를 판별하는 것이 가능하다. 동일 차량 여부 판별에 따라, 인프라 장치는 제1 차량(201)에게 주행 정보(위치, 속도, 주행 방향 등)를 전송하고, 제1 차량(201)은 주행 정보를 고려하여 IMU 측위 정보에 대한 보정을 수행하고, 측위 정확도를 유지하는 것이 가능하다. Referring to FIG. 2D, in the image obtained from the infrastructure device, the first vehicle 201 is obtained in the first area A1, and the image of the second vehicle 202 is acquired in the second area A2. While the second vehicle 202 includes feature point information close to the front view in the image, the first vehicle 201 includes feature point information in the form of an angle deviated from the front view depending on the heading angle such as changing lanes. As described above, vehicle feature point information may be processed/proliferated by a vehicle, an infrastructure device, or a third party server, and the infrastructure device can determine whether the vehicle is the same through feature point information matching. Depending on whether the vehicle is the same, the infrastructure device transmits driving information (position, speed, driving direction, etc.) to the first vehicle 201, and the first vehicle 201 compensates for the IMU positioning information by considering the driving information. It is possible to perform and maintain positioning accuracy.

도 2e를 참조하면, 인프라 장치로부터 획득되는 영상에서, 제1 영역(A1)에는 제1 차량(201)이, 제2 영역(A2)에는 제2 차량(202)에 대한 영상이 획득되는데, 선행하는 제2 차량(202)에 의해, 제1 차량(201)의 일부 영역이 가려진 형태로 영상이 획득된다. 인프라 장치는 차량 특징점 정보의 매칭 과정에서, 영상 내에서 객체들간의 일부 겹쳐짐이 발생됨을 고려하여, 일부 특징점 정보를 이용하여 특징점 매칭을 통해 동일 차량 여부를 판별한다. 음영 지역 내 정체 구간이 발생되는 경우, 영상 내 객체들 간의 겹쳐짐 현상이 상대적으로 더 커질 것이므로, 특징점 매칭을 통한 동일 차량 여부 판별 시 판단 대상 특징점 정보에 대한 기준치를 조정할 수 있다. Referring to FIG. 2E, in the image obtained from the infrastructure device, the image of the first vehicle 201 is acquired in the first area (A1) and the image of the second vehicle 202 is acquired in the second area (A2), as shown in FIG. An image is obtained with a partial area of the first vehicle 201 obscured by the second vehicle 202 . In the process of matching vehicle feature point information, the infrastructure device considers that some overlap occurs between objects in the image and uses some feature point information to determine whether the vehicle is the same through feature point matching. If a congestion section occurs in the shaded area, the overlap between objects in the image will become relatively larger, so the reference value for the feature point information to be judged can be adjusted when determining whether the vehicle is the same through feature point matching.

도 2f 및 도 2g를 참조하면, 동일 차종/모델의 제1-1 차량(201a) 및 제1-2 차량(201b)이 순차적으로 음영 지역에 진입하는 상황을 가정한다. 제1 인프라 장치(300a)의 촬영 영역(A1)에서, 제1-1차량(201a)과의 정보 송수신이 수행된다. 이어서, 제1 인프라 장치(300b)의 촬영 영역(A1)에서, 제1-2차량(201b)와의 정보 송수신이 수행되며, 이 시점에서 제1-1차량(201a)는 제2 인프라 장치(300b)의 촬영 영역(A2)에 위치할 수 있다. 일정 시간이 지나, 도 2h를 참조하면, 제3 인프라 장치(300c)는 촬영 영역(A3)에서 차량을 식별하게 되는데, 특징점 정보 매칭만을 통해서는 해당 차량이 제1-1 차량(201a)인지, 제1-2 차량(201b)인지 여부를 판정하기 어려운 상황이 발생될 수 있다. 일 실시예에 따르면, 인프라 장치(300c)는 영상 촬영 및 분석을 통해 특징점 매칭을 수행하고, 주행 정보를 전송하는 것으로, 제1-1차량(201a) 및 제1-2차량(201b)은 주행 정보를 수신하고 IMU 측위 정보에 대한 보정을 수행하므로, 인프라 장치(300c)가 제1-1차량(201a)인지, 또는 제1-2차량(201b)인지 여부까지 정확히 판별하여야 할 필요는 없다. 그런데, 다른 실시예로서, 인프라 장치(300c)가 해당 경우에서 인식된 차량이 1차량(201a)인지, 또는 제1-2차량(201b)인지 여부까지 판별하는 경우를 예를 들어 설명하면, 터널 진입 전 제1 인프라 장치(300a)는 제1-1 차량(201a) 및 제2-2 차량(201b)의 번호판 정보를 식별하여 구분짓거나, ID를 부여하여 구분지을 수 있다(ReID 방식을 적용할 수 있음). 또 다른 예로서, 인프라 장치는 음영 지역의 길이 정보, 구간 내 제한속도 정보, 구간 내 교통상황정보(원활/지체/정체)를 종합적으로 고려하여, 물리적으로 제1-2차량(201b)이 제1-1차량(201a)을 앞지를 수 없는 경우, 제3 인프라 장치(300c)는 먼저 촬영/식별된 차량을 제1-1차량(201a)으로 인식하고, 뒤이어 촬영/식별된 차량을 제1-2차량(201b)로 인식하는 것도 가능하다. Referring to FIGS. 2F and 2G , it is assumed that a 1-1 vehicle 201a and a 1-2 vehicle 201b of the same vehicle type/model sequentially enter the shaded area. In the capturing area A1 of the first infrastructure device 300a, information transmission and reception with the 1-1 vehicle 201a is performed. Subsequently, information transmission and reception with the 1st-2 vehicle 201b is performed in the capturing area A1 of the first infrastructure device 300b, and at this point, the 1st-1 vehicle 201a is connected to the second infrastructure device 300b. ) can be located in the imaging area (A2). After a certain period of time, referring to FIG. 2H, the third infrastructure device 300c identifies the vehicle in the shooting area A3, and determines whether the vehicle in question is the 1-1 vehicle 201a only through feature point information matching. A situation may arise where it is difficult to determine whether the vehicle is the 1-2 vehicle 201b. According to one embodiment, the infrastructure device 300c performs feature point matching through image capture and analysis and transmits driving information, and the 1-1 vehicle 201a and the 1-2 vehicle 201b are driven. Since information is received and correction is performed on the IMU positioning information, there is no need to accurately determine whether the infrastructure device 300c is the 1-1 vehicle 201a or the 1-2 vehicle 201b. However, as another example, if the infrastructure device 300c determines whether the vehicle recognized in the case is the first vehicle 201a or the first and second vehicles 201b, the tunnel Before entering, the first infrastructure device 300a can identify and distinguish the license plate information of the 1-1 vehicle 201a and the 2-2 vehicle 201b, or assign IDs to distinguish them (ReID method applied) can). As another example, the infrastructure device comprehensively considers the length information of the shaded area, the speed limit information within the section, and the traffic situation information (smoothness/delay/congestion) within the section, so that the first and second vehicles (201b) are physically If it is not possible to overtake the 1-1 vehicle (201a), the third infrastructure device (300c) first recognizes the photographed/identified vehicle as the 1-1 vehicle (201a), and subsequently recognizes the photographed/identified vehicle as the 1-1 vehicle (201a). It is also possible to recognize it as a second vehicle (201b).

도 3은 본 발명의 실시예에 따른 네트워크 기반 측위 과정을 도시한다. Figure 3 shows a network-based positioning process according to an embodiment of the present invention.

차량(200)과 인프라 장치(300)는 도 3에 도시한 프로토콜을 통해 정보를 송수신할 수 있고, 프로토콜에는 LiDAR를 통한 측위 정확도 향상 등을 위해 지도 정보, 차량의 현재 위치 정보 등의 전달이 포함될 수 있다. The vehicle 200 and the infrastructure device 300 can transmit and receive information through the protocol shown in FIG. 3, and the protocol includes transmission of map information and current location information of the vehicle to improve positioning accuracy through LiDAR. You can.

서비스 지역 접근 구간에서, 차량(200)은 서비스 요청을 인프라 장치(300)로 전송하고(S301), 인프라 장치(300)는 서비스 요청에 대한 응답을 전송한다(S302). 차량(200)은 대상 차량 특징점 정보를 전송하고(S303), 인프라 장치(300)는 대상 지역의 지도를 브로드캐스팅 전송한다(S304). In the service area access section, the vehicle 200 transmits a service request to the infrastructure device 300 (S301), and the infrastructure device 300 transmits a response to the service request (S302). The vehicle 200 transmits target vehicle feature point information (S303), and the infrastructure device 300 broadcasts and transmits a map of the target area (S304).

서비스 지역 내 구간에서, 차량(200)은 대상 차량의 현재 위치 정보를 전송하고(S305), 인프라 장치(300)는 대상 차량의 위치, 방향 정보를 포함하는 주행 정보를 전송한다(S306). In a section within the service area, the vehicle 200 transmits the current location information of the target vehicle (S305), and the infrastructure device 300 transmits driving information including the location and direction information of the target vehicle (S306).

서비스 지역 이탈 구간에서, 차량(200)은 서비스 종료 요청을 전송한다(S307). In the service area departure section, the vehicle 200 transmits a service termination request (S307).

도 4는 본 발명의 실시예에 따른 방법을 구현하기 위한 컴퓨터 시스템을 나타낸 블록도이다.Figure 4 is a block diagram showing a computer system for implementing a method according to an embodiment of the present invention.

도 4를 참조하면, 컴퓨터 시스템(1000)은, 버스(1070)를 통해 통신하는 프로세서(1010), 메모리(1030), 입력 인터페이스 장치(1050), 출력 인터페이스 장치(1060), 및 저장 장치(1040) 중 적어도 하나를 포함할 수 있다. 컴퓨터 시스템(1000)은 또한 네트워크에 결합된 통신 장치(1020)를 포함할 수 있다. 프로세서(1010)는 중앙 처리 장치(central processing unit, CPU)이거나, 또는 메모리(1030) 또는 저장 장치(1040)에 저장된 명령을 실행하는 반도체 장치일 수 있다. 메모리(1030) 및 저장 장치(1040)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(read only memory) 및 RAM(random access memory)를 포함할 수 있다. 본 기재의 실시예에서 메모리는 프로세서의 내부 또는 외부에 위치할 수 있고, 메모리는 이미 알려진 다양한 수단을 통해 프로세서와 연결될 수 있다. 메모리는 다양한 형태의 휘발성 또는 비휘발성 저장 매체이며, 예를 들어, 메모리는 읽기 전용 메모리(read-only memory, ROM) 또는 랜덤 액세스 메모리(random access memory, RAM)를 포함할 수 있다.Referring to FIG. 4, the computer system 1000 includes a processor 1010, a memory 1030, an input interface device 1050, an output interface device 1060, and a storage device 1040 that communicate through a bus 1070. ) may include at least one of Computer system 1000 may also include a communication device 1020 coupled to a network. The processor 1010 may be a central processing unit (CPU) or a semiconductor device that executes instructions stored in the memory 1030 or the storage device 1040. Memory 1030 and storage device 1040 may include various types of volatile or non-volatile storage media. For example, memory may include read only memory (ROM) and random access memory (RAM). In embodiments of the present disclosure, the memory may be located inside or outside the processor, and the memory may be connected to the processor through various known means. Memory is various forms of volatile or non-volatile storage media, for example, memory may include read-only memory (ROM) or random access memory (RAM).

따라서, 본 발명의 실시예는 컴퓨터에 구현된 방법으로서 구현되거나, 컴퓨터 실행 가능 명령이 저장된 비일시적 컴퓨터 판독 가능 매체로서 구현될 수 있다. 한 실시예에서, 프로세서에 의해 실행될 때, 컴퓨터 판독 가능 명령은 본 기재의 적어도 하나의 양상에 따른 방법을 수행할 수 있다.Accordingly, embodiments of the present invention may be implemented as a computer-implemented method or as a non-transitory computer-readable medium storing computer-executable instructions. In one embodiment, when executed by a processor, computer readable instructions may perform a method according to at least one aspect of the present disclosure.

통신 장치(1020)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다.The communication device 1020 can transmit or receive wired signals or wireless signals.

또한, 본 발명의 실시예에 따른 방법은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어, 컴퓨터 판독 가능 매체에 기록될 수 있다. Additionally, the method according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium.

상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은, 본 발명의 실시예를 위해 특별히 설계되어 구성된 것이거나, 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체는 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치를 포함할 수 있다. 예를 들어, 컴퓨터 판독 가능 기록 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 롬(ROM), 램(RAM), 플래시 메모리 등일 수 있다. 프로그램 명령은 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라, 인터프리터 등을 통해 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the computer-readable medium may be specially designed and configured for embodiments of the present invention, or may be known and usable by those skilled in the art of computer software. A computer-readable recording medium may include a hardware device configured to store and perform program instructions. For example, computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and floptical disks. It may be the same magneto-optical media, ROM, RAM, flash memory, etc. Program instructions may include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer through an interpreter, etc.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements made by those skilled in the art using the basic concept of the present invention defined in the following claims are also possible. It falls within the scope of rights.

Claims (10)

네트워크 기반 측위 서비스 지역에 접근하여 측위 서비스를 요청하고 차량 특징점 정보를 전송하는 차량; 및
상기 차량 특징점 정보를 이용하여 상기 차량의 주행 정보를 검출하고, 상기 주행 정보를 상기 차량으로 전달하는 인프라 장치를 포함하고,
상기 인프라 장치는 상기 차량 특징점 정보를 가공하고 증식하여 인식 각도에 따라 구축된 특징점 정보 데이터베이스와, 촬영 영상을 이용하여 특징점 매칭을 수행한 결과에 따라 상기 주행 정보를 전송하고, 상기 차량은 상기 주행 정보를 이용하여 IMU 기반 측위 정보를 보정하고,
상기 인프라 장치는 음영 지역 내 정체 구간 발생 시 복수의 차량에 의해 일부 영역이 가려진 차량 영상이 획득되는 경우, 판단 대상 특징점 정보에 대한 기준치를 조정하여 동일 차량 여부를 판별하는 것
인 네트워크 기반 측위 시스템.
A vehicle that accesses a network-based positioning service area, requests positioning services, and transmits vehicle feature point information; and
An infrastructure device that detects driving information of the vehicle using the vehicle feature point information and transmits the driving information to the vehicle,
The infrastructure device processes and proliferates the vehicle feature point information and transmits the driving information according to a feature point information database built according to the recognition angle and a result of feature point matching using the captured image, and the vehicle transmits the driving information. Correct the IMU-based positioning information using
The infrastructure device determines whether the vehicle is the same by adjusting the standard value for the feature point information to be judged when a vehicle image with some areas obscured by a plurality of vehicles is obtained when a congestion section occurs in a shaded area.
In-network based positioning system.
제1항에 있어서,
상기 인프라 장치는 상기 차량 특징점 정보를 분석하고, 상기 차량에 부여한 ID에 대해 상기 차량의 위치, 주행 방향 및 속도 정보를 포함하는 상기 주행 정보를 검출하는 것
인 네트워크 기반 측위 시스템.
According to paragraph 1,
The infrastructure device analyzes the vehicle feature point information and detects the driving information including the location, driving direction, and speed information of the vehicle with respect to the ID assigned to the vehicle.
In-network based positioning system.
제2항에 있어서,
상기 차량은 상기 네트워크 기반 측위 서비스 지역 내에서 현재 위치 정보를 전송하고, 상기 인프라 장치는 상기 현재 위치 정보에 대한 응답으로 상기 주행 정보를 전송하는 것
인 네트워크 기반 측위 시스템.
According to paragraph 2,
The vehicle transmits current location information within the network-based positioning service area, and the infrastructure device transmits the driving information in response to the current location information.
In-network based positioning system.
제2항에 있어서,
상기 인프라 장치는 상기 차량 특징점 정보를 이용하여 특징점 매칭을 수행하여 호모그래피 매트릭스를 추출하는 것
인 네트워크 기반 측위 시스템.
According to paragraph 2,
The infrastructure device extracts a homography matrix by performing feature point matching using the vehicle feature point information.
In-network based positioning system.
제4항에 있어서,
상기 인프라 장치는 상기 호모그래피 매트릭스, 매칭 대상 좌표, CCTV 좌표, 타임 스탬프를 상기 차량으로 전송하는 것
인 네트워크 기반 측위 시스템.
According to paragraph 4,
The infrastructure device transmits the homography matrix, matching target coordinates, CCTV coordinates, and time stamp to the vehicle.
In-network based positioning system.
제1항에 있어서,
상기 차량은 측위 결과 취득 시간을 저장하고, 상기 네트워크 기반 측위 서비스 지역에 진입하기 직전 상기 인프라 장치로부터 기설정 지역을 지나는 시점에 대한 시각 정보를 수신하여, 동일 좌표에 해당되는 시간의 차이를 이용하여 시간 동기화를 수행하는 것
인 네트워크 기반 측위 시스템.
According to paragraph 1,
The vehicle stores the acquisition time of the positioning result, receives time information about the time of passing through the preset area from the infrastructure device just before entering the network-based positioning service area, and uses the difference in time corresponding to the same coordinates. Performing time synchronization
In-network based positioning system.
네트워크 기반 측위 시스템에 의해 수행되는 네트워크 기반 측위 방법에 있어서,
(a) 차량의 특징점 정보를 전송하는 단계;
(b) 상기 차량의 특징점 정보를 이용한 매칭 수행 결과에 따라 주행 정보를 수신하는 단계; 및
(c) 상기 주행 정보를 이용하여 IMU 기반 측위 정보에 대한 보정을 수행하는 단계를 포함하고,
상기 (b) 단계는 상기 차량 특징점 정보를 가공하고 증식하여 인식 각도에 따라 구축된 특징점 정보 데이터베이스와, 촬영 영상을 이용하여 특징점 매칭을 수행한 결과에 따라 생성된 상기 주행 정보를 수신하고,
상기 (b) 단계는 음영 지역 내 정체 구간 발생 시 복수의 차량에 의해 일부 영역이 가려진 차량 영상이 획득되는 경우, 판단 대상 특징점 정보에 대한 기준치가 조정되어 판별된 상기 매칭 수행 결과에 따라 상기 주행 정보를 수신하는 것
인 네트워크 기반 측위 방법.
In a network-based positioning method performed by a network-based positioning system,
(a) transmitting feature point information of the vehicle;
(b) receiving driving information according to a matching result using feature point information of the vehicle; and
(c) comprising the step of performing correction on IMU-based positioning information using the driving information,
In step (b), the vehicle feature point information is processed and multiplied to receive a feature point information database built according to the recognition angle, and the driving information generated according to a result of feature point matching using a captured image,
In step (b), when a vehicle image with some areas obscured by a plurality of vehicles is obtained when a congestion section occurs in a shaded area, the reference value for the feature point information to be determined is adjusted and the driving information is determined according to the determined matching result. receiving
In-network based localization method.
제7항에 있어서,
상기 (b) 단계는 상기 차량의 위치, 주행 방향 및 속도 정보를 포함하는 상기 주행 정보를 수신하는 것
인 네트워크 기반 측위 방법.
In clause 7,
The step (b) involves receiving the driving information including the location, driving direction, and speed information of the vehicle.
In-network based localization method.
제7항에 있어서,
상기 (b) 단계는 상기 차량의 특징점 정보를 이용한 매칭 수행 결과에 따른 호모그래피 매트릭스와, 매칭 대상 좌표, CCTV 좌표, 타임 스탬프를 수신하는 것
인 네트워크 기반 측위 방법.
In clause 7,
The step (b) involves receiving a homography matrix according to the result of matching using the feature point information of the vehicle, matching target coordinates, CCTV coordinates, and time stamp.
In-network based localization method.
제7항에 있어서,
상기 (c) 단계는 측위 결과 취득 시각 정보를 저장하고, 인프라 장치의 기설정 지역을 지나는 시점에 대한 시각 정보를 수신하여, 동일 좌표에 해당하는 시간 차이를 이용하여 시간 동기화를 수행하는 것
인 네트워크 기반 측위 방법.
In clause 7,
In step (c), the acquisition time information of the positioning result is stored, the time information about the time passing through the preset area of the infrastructure device is received, and time synchronization is performed using the time difference corresponding to the same coordinates.
In-network based localization method.
KR1020220159835A 2022-11-24 2022-11-24 Network-based positioning system and method using thereof KR102580683B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220159835A KR102580683B1 (en) 2022-11-24 2022-11-24 Network-based positioning system and method using thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220159835A KR102580683B1 (en) 2022-11-24 2022-11-24 Network-based positioning system and method using thereof

Publications (1)

Publication Number Publication Date
KR102580683B1 true KR102580683B1 (en) 2023-09-21

Family

ID=88189211

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220159835A KR102580683B1 (en) 2022-11-24 2022-11-24 Network-based positioning system and method using thereof

Country Status (1)

Country Link
KR (1) KR102580683B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101153980B1 (en) * 2011-10-28 2012-06-08 주식회사 디아이랩 Vehicle monitoring apparatus
KR101234046B1 (en) * 2011-11-11 2013-02-15 재단법인대구경북과학기술원 Method for tracking object using features in object and apparatus thereof
KR20170071207A (en) * 2015-12-15 2017-06-23 한양대학교 산학협력단 Autonomous driving method and system for determing position of car graft on gps, uwb and v2x
KR102248588B1 (en) * 2019-12-17 2021-05-06 재단법인대구경북과학기술원 Vehicle positioning system in tunnel using wave communication and radar

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101153980B1 (en) * 2011-10-28 2012-06-08 주식회사 디아이랩 Vehicle monitoring apparatus
KR101234046B1 (en) * 2011-11-11 2013-02-15 재단법인대구경북과학기술원 Method for tracking object using features in object and apparatus thereof
KR20170071207A (en) * 2015-12-15 2017-06-23 한양대학교 산학협력단 Autonomous driving method and system for determing position of car graft on gps, uwb and v2x
KR102248588B1 (en) * 2019-12-17 2021-05-06 재단법인대구경북과학기술원 Vehicle positioning system in tunnel using wave communication and radar

Similar Documents

Publication Publication Date Title
JP6325806B2 (en) Vehicle position estimation system
JP4506790B2 (en) Road information generation apparatus, road information generation method, and road information generation program
US9767372B2 (en) Target detection apparatus and target detection method
US20170052032A1 (en) Method and system for determining a position relative to a digital map
WO2017057042A1 (en) Signal processing device, signal processing method, program, and object detection system
WO2016093028A1 (en) Host vehicle position estimation device
US10917808B2 (en) Extra-vehicular communication device, onboard device, onboard communication system, communication control method, and communication control program
CN111025308B (en) Vehicle positioning method, device, system and storage medium
KR20070090194A (en) Image recognizing apparatus and method, and position determining apparatus, vehicle controlling apparatus and navigation apparatus using the image recognizing apparatus or method
CN114127822B (en) Information processing device, information processing method, and information processing program
US20210041263A1 (en) Map information updating system and map information updating program
KR20060132302A (en) Method and apparatus for compensating for car position in car navigation system
CN110998684B (en) Image collection system, image collection method, image collection device, and recording medium
US10867402B2 (en) System and method for determining distance to object on road
JP2019078700A (en) Information processor and information processing system
JP2020193954A (en) Position correction server, position management device, moving object position management system and method, position information correction method, computer program, onboard device, and vehicle
US20220012939A1 (en) Provisioning real-time three-dimensional maps for autonomous vehicles
US20200125868A1 (en) Method and system for detecting a parking vehicle
KR102580683B1 (en) Network-based positioning system and method using thereof
KR102630991B1 (en) Method for determining driving posision of vehicle, apparatus thereof and driving control system
WO2022255190A1 (en) Pedestrian device and positioning method for same
JP7325296B2 (en) Object recognition method and object recognition system
JP6593240B2 (en) Recommended lane guidance system and recommended lane guidance program
RU2772620C1 (en) Creation of structured map data with vehicle sensors and camera arrays
JP7036783B2 (en) Position estimation system, position estimation method, and position estimation program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant