KR102315703B1 - A method and apparatus for sharing object sensing information of infra sensor - Google Patents
A method and apparatus for sharing object sensing information of infra sensor Download PDFInfo
- Publication number
- KR102315703B1 KR102315703B1 KR1020190041042A KR20190041042A KR102315703B1 KR 102315703 B1 KR102315703 B1 KR 102315703B1 KR 1020190041042 A KR1020190041042 A KR 1020190041042A KR 20190041042 A KR20190041042 A KR 20190041042A KR 102315703 B1 KR102315703 B1 KR 102315703B1
- Authority
- KR
- South Korea
- Prior art keywords
- absolute coordinates
- region
- positioning information
- image
- calculating
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000004891 communication Methods 0.000 claims description 20
- 230000001133 acceleration Effects 0.000 claims description 16
- 238000010586 diagram Methods 0.000 description 20
- 238000005516 engineering process Methods 0.000 description 8
- 238000012937 correction Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003334 potential effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G06K9/00664—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
-
- G06K9/3233—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명은 인프라 센서의 객체 센싱 정보를 공유하기 위한 방법 및 장치에 관한 것이다. 본 발명의 일 실시예에 따른 인프라 센서 장치의 동작 방법은 (a) 관심 지역 영상을 획득하는 단계; (b) 상기 관심 지역 영상에 포함된 적어도 하나의 객체를 추출하는 단계; (c) 상기 적어도 하나의 객체 각각의 절대좌표를 이용하여 상기 적어도 하나의 객체에 대한 측위 정보를 획득하는 단계; 및 (d) 상기 적어도 하나의 객체에게 상기 측위 정보를 송신하는 단계;를 포함하고, 상기 송신된 측위 정보는, 상기 적어도 하나의 객체 각각이 서로의 위치를 인지하기 위해 이용될 수 있다.The present invention relates to a method and apparatus for sharing object sensing information of an infrastructure sensor. A method of operating an infrastructure sensor device according to an embodiment of the present invention includes the steps of: (a) acquiring an image of a region of interest; (b) extracting at least one object included in the region of interest image; (c) obtaining positioning information for the at least one object by using the absolute coordinates of each of the at least one object; and (d) transmitting the location information to the at least one object, wherein the transmitted location information may be used for each of the at least one object to recognize a location of each other.
Description
본 발명은 인프라 센서의 객체 센싱 정보를 공유하기 위한 방법 및 장치에 관한 것으로, 더욱 상세하게는 인프라 센서의 객체 센싱 정보를 주변 객체들에게 전송하고, 지도 정보를 이용하여 객체의 절대좌표를 산출하고, 인프라 센서에 의해 측정된 객체의 위치와 각 객체에 의해 측정된 위치를 비교하여 측위 오차 보정을 수행하기 위한 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for sharing object sensing information of an infrastructure sensor, and more particularly, transmits object sensing information of an infrastructure sensor to surrounding objects, calculates absolute coordinates of an object using map information, and , to a method and apparatus for performing positioning error correction by comparing the position of an object measured by an infrastructure sensor with a position measured by each object.
요즘 들어 과학기술의 발전과 더불어 운전자 없이 자동으로 운행하는 자율주행 차량 기술이 개발되고 있으며, 이러한 자율주행 차량 이용한 도로 주행에서 몇몇 가시적인 성과가 나타나고 있다. 이러한 자율주행 차량 기술은 차량 내에 다양한 센서를 장착하여 차량의 주행에 관련된 모든 센싱 정보를 수집한 후, 이를 이용하여 자율 주행을 구현할 수 있다.These days, along with the development of science and technology, autonomous vehicle technology that operates automatically without a driver is being developed, and some tangible results are showing in road driving using such an autonomous vehicle. Such autonomous vehicle technology can implement autonomous driving by installing various sensors in the vehicle to collect all sensing information related to the vehicle's driving, and then using it.
이 경우, 자율주행 차량은 해당 차량에 장착된 카메라, 라이다, 레이더 등의 센서를 이용하여 주변 상황을 인지하고 판단하여 원하는 경로로 이동하도록 제어한다. 그러나, 차량에 장착된 카메라, 라이다, 레이더는 빛, 레이저, 전파를 이용하기 때문에 보이지 않는 영역인 사각지역에 대한 상황을 인지할 수 없다는 문제점이 있다. 따라서, 이러한 문제점을 해결할 기술이 요구되나 이에 대한 연구는 미흡한 실정이다. In this case, the autonomous vehicle uses sensors such as a camera, lidar, and radar installed in the vehicle to recognize and determine surrounding conditions and control the vehicle to move to a desired path. However, there is a problem in that the camera, lidar, and radar mounted on the vehicle cannot recognize the situation of the blind area, which is an invisible area, because they use light, laser, and radio waves. Therefore, technology to solve these problems is required, but research on this is insufficient.
본 발명은 전술한 문제점을 해결하기 위하여 창출된 것으로, 인프라 센서의 객체 센싱 정보를 공유하기 위한 방법 및 장치를 제공하는 것을 그 목적으로 한다.The present invention was created to solve the above problems, and an object of the present invention is to provide a method and an apparatus for sharing object sensing information of an infrastructure sensor.
또한, 본 발명은 객체 각각에 대한 식별자(identification, ID), 절대좌표, 이동방향, 이동속도, 가속도 및 상기 관심 지역 영상의 촬영시간 중 적어도 하나를 포함하는 측위 정보를 주변 객체들에게 송신하는 협력 센싱 기술을 구현하는 것을 그 목적으로 한다. In addition, the present invention is an identifier for each object (identification, ID), absolute coordinates, movement direction, movement speed, acceleration, and cooperation for transmitting positioning information including at least one of the shooting time of the image of the region of interest to surrounding objects It aims to implement sensing technology.
또한, 본 발명은 고정밀 지도의 주요 도로 표시선의 절대좌표를 이용하여 관심 지역 영상에 포함된 객체들에 대한 절대좌표를 산출하는 것을 그 목적으로 한다.Another object of the present invention is to calculate absolute coordinates of objects included in an image of a region of interest by using absolute coordinates of major road marking lines of a high-precision map.
또한, 본 발명은 인프라 센서 장치에 의해 측정된 객체의 위치와 객체 장치에 의해 측정된 객체의 위치를 비교하여, 측위 오차 보정을 수행하는 것을 그 목적으로 한다. Another object of the present invention is to perform positioning error correction by comparing the position of the object measured by the infrastructure sensor device with the position of the object measured by the object device.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.Objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood from the description below.
상기한 목적들을 달성하기 위하여, 본 발명의 일 실시예에 따른 인프라 센서 장치의 동작 방법은 (a) 관심 지역 영상을 획득하는 단계; (b) 상기 관심 지역 영상에 포함된 적어도 하나의 객체를 추출하는 단계; (c) 상기 적어도 하나의 객체 각각의 절대좌표를 이용하여 상기 적어도 하나의 객체에 대한 측위 정보를 획득하는 단계; 및 (d) 상기 적어도 하나의 객체에게 상기 측위 정보를 송신하는 단계;를 포함하고, 상기 송신된 측위 정보는, 상기 적어도 하나의 객체 각각이 서로의 위치를 인지하기 위해 이용될 수 있다.In order to achieve the above objects, a method of operating an infrastructure sensor device according to an embodiment of the present invention comprises the steps of: (a) acquiring an image of a region of interest; (b) extracting at least one object included in the region of interest image; (c) obtaining positioning information for the at least one object by using the absolute coordinates of each of the at least one object; and (d) transmitting the location information to the at least one object, wherein the transmitted location information may be used for each of the at least one object to recognize a location of each other.
실시예에서, 인프라 센서 장치의 동작 방법은 상기 (b) 단계 이후에, 상기 추출된 적어도 하나의 객체 각각에 대하여 식별자(identification, ID)를 할당하는 단계;를 더 포함할 수 있다.In an embodiment, the method of operating the infrastructure sensor device may further include, after step (b), allocating an identifier (ID) to each of the at least one extracted object.
실시예에서, 상기 측위 정보는, 상기 적어도 하나의 객체 각각에 대한 식별자(identification, ID), 절대좌표, 이동방향, 이동속도, 가속도 및 상기 관심 지역 영상의 촬영시간 중 적어도 하나를 포함할 수 있다.In an embodiment, the positioning information may include at least one of an identifier (ID) for each of the at least one object, an absolute coordinate, a moving direction, a moving speed, an acceleration, and a capturing time of the image of the region of interest. .
실시예에서, 상기 (c) 단계는, 상기 적어도 하나의 객체 각각의 절대좌표를 산출하는 단계; 및 상기 절대좌표를 이용하여 상기 적어도 하나의 객체 각각의 이동방향, 이동속도 및 가속도 중 적어도 하나를 산출하는 단계;를 포함할 수 있다.In an embodiment, the step (c) may include calculating the absolute coordinates of each of the at least one object; and calculating at least one of a moving direction, a moving speed, and an acceleration of each of the at least one object by using the absolute coordinates.
실시예에서, 상기 절대좌표를 산출하는 단계는, 지도 정보의 도로 표시선의 절대좌표를 이용하여, 상기 관심 지역 영상에 포함된 도로 표시선의 절대좌표를 산출하는 단계; 상기 관심 지역 영상에 포함된 도로 표시선의 절대좌표를 이용하여, 상기 관심 지역 영상의 모든 픽셀에 대한 절대좌표를 산출하는 단계; 및 상기 관심 지역 영상의 모든 픽셀에 대한 절대좌표와 매칭되는 상기 적어도 하나의 객체 각각의 절대좌표를 산출하는 단계;를 포함할 수 있다.In an embodiment, the calculating of the absolute coordinates may include: calculating absolute coordinates of the road marking lines included in the image of the region of interest by using the absolute coordinates of the road marking lines of the map information; calculating absolute coordinates of all pixels of the region of interest image by using absolute coordinates of road marking lines included in the region of interest image; and calculating the absolute coordinates of each of the at least one object matching the absolute coordinates of all pixels of the region of interest image.
실시예에서, 상기 관심 지역 영상의 모든 픽셀에 대한 절대좌표를 산출하는 단계는, 상기 관심 지역 영상에 포함된 도로 표시선의 절대좌표를 인터폴레이션(interpolation) 또는 엑스트라폴레이션(extrapolation)하여, 상기 관심 지역 영상의 모든 픽셀에 대한 절대좌표를 산출하는 단계;를 포함할 수 있다.In an embodiment, the calculating of the absolute coordinates for all pixels of the region of interest image includes interpolating or extrapolating the absolute coordinates of road marking lines included in the region of interest image, and the region of interest It may include; calculating absolute coordinates for all pixels of the image.
실시예에서, 객체 장치의 동작 방법은 (a) 인프라 센서 장치로부터 적어도 하나의 객체에 대한 측위 정보를 수신하는 단계; 및 (b) 상기 측위 정보를 이용하여 상기 적어도 하나의 객체의 제1 위치를 산출하는 단계;를 포함하고, 상기 측위 정보는, 상기 적어도 하나의 객체 각각의 절대좌표를 이용하여 획득될 수 있다.In an embodiment, a method of operating an object device includes: (a) receiving positioning information for at least one object from an infrastructure sensor device; and (b) calculating a first location of the at least one object by using the location information, wherein the location information may be obtained using the absolute coordinates of each of the at least one object.
실시예에서, 상기 측위 정보는, 상기 적어도 하나의 객체 각각에 대한 식별자(identification, ID), 절대좌표, 이동방향, 이동속도, 가속도 및 상기 적어도 하나의 객체가 포함된 관심 지역 영상의 촬영시간 중 적어도 하나를 포함할 수 있다.In an embodiment, the positioning information includes an identifier (ID) for each of the at least one object, absolute coordinates, a moving direction, a moving speed, an acceleration, and a recording time of an ROI image including the at least one object. It may include at least one.
실시예에서, 상기 (b) 단계는, 상기 제1 위치를 산출하는 단계; 상기 객체 장치에 의해 산출된 적어도 하나의 객체의 제2 위치와 상기 측위 정보에 포함된 상기 적어도 하나의 객체의 제1 위치를 비교하는 단계; 및 상기 제1 위치와 상기 제2 위치의 차이가 임계값보다 큰 경우, 상기 제1 위치를 상기 적어도 하나의 객체의 위치로 산출하는 단계;를 포함할 수 있다.In an embodiment, the step (b) comprises: calculating the first position; comparing the second position of the at least one object calculated by the object device with the first position of the at least one object included in the positioning information; and calculating the first location as the location of the at least one object when a difference between the first location and the second location is greater than a threshold value.
실시예에서, 인프라 센서 장치는 관심 지역 영상을 획득하는 센서부; 상기 관심 지역 영상에 포함된 적어도 하나의 객체를 추출하고, 상기 적어도 하나의 객체 각각의 절대좌표를 이용하여 상기 적어도 하나의 객체에 대한 측위 정보를 획득하는 제어부; 및 상기 적어도 하나의 객체에게 상기 측위 정보를 송신하는 통신부;를 포함하고, 상기 송신된 측위 정보는, 상기 적어도 하나의 객체 각각이 서로의 위치를 인지하기 위해 이용될 수 있다.In an embodiment, the infrastructure sensor device includes: a sensor unit configured to acquire an image of a region of interest; a control unit extracting at least one object included in the region of interest image and obtaining positioning information on the at least one object by using the absolute coordinates of each of the at least one object; and a communication unit configured to transmit the positioning information to the at least one object, wherein the transmitted positioning information may be used for each of the at least one object to recognize a location of each other.
실시예에서, 상기 제어부는, 상기 추출된 적어도 하나의 객체 각각에 대하여 식별자(identification, ID)를 할당할 수 있다.In an embodiment, the controller may allocate an identification (ID) to each of the at least one extracted object.
실시예에서, 상기 측위 정보는, 상기 적어도 하나의 객체 각각에 대한 식별자(identification, ID), 절대좌표, 이동방향, 이동속도, 가속도 및 상기 관심 지역 영상의 촬영시간 중 적어도 하나를 포함할 수 있다.In an embodiment, the positioning information may include at least one of an identifier (ID) for each of the at least one object, an absolute coordinate, a moving direction, a moving speed, an acceleration, and a capturing time of the image of the region of interest. .
실시예에서, 상기 제어부는, 상기 적어도 하나의 객체 각각의 절대좌표를 산출하고, 상기 절대좌표를 이용하여 상기 적어도 하나의 객체 각각의 이동방향, 이동속도 및 가속도 중 적어도 하나를 산출할 수 있다.In an embodiment, the controller may calculate absolute coordinates of each of the at least one object, and calculate at least one of a movement direction, a movement speed, and an acceleration of each of the at least one object by using the absolute coordinates.
실시예에서, 상기 제어부는, 지도 정보의 도로 표시선의 절대좌표를 이용하여, 상기 관심 지역 영상에 포함된 도로 표시선의 절대좌표를 산출하고, 상기 관심 지역 영상에 포함된 도로 표시선의 절대좌표를 이용하여, 상기 관심 지역 영상의 모든 픽셀에 대한 절대좌표를 산출하며, 상기 관심 지역 영상의 모든 픽셀에 대한 절대좌표와 매칭되는 상기 적어도 하나의 객체 각각의 절대좌표를 산출할 수 있다.In an embodiment, the controller calculates the absolute coordinates of the road marking line included in the image of the region of interest by using the absolute coordinates of the road marking line of the map information, and uses the absolute coordinates of the road marking line included in the image of the region of interest. Thus, absolute coordinates of all pixels of the region of interest image may be calculated, and absolute coordinates of each of the at least one object matching the absolute coordinates of all pixels of the region of interest image may be calculated.
실시예에서, 상기 제어부는, 상기 관심 지역 영상에 포함된 도로 표시선의 절대좌표를 인터폴레이션(interpolation) 또는 엑스트라폴레이션(extrapolation)하여, 상기 관심 지역 영상의 모든 픽셀에 대한 절대좌표를 산출할 수 있다.In an embodiment, the controller may calculate absolute coordinates for all pixels of the region of interest image by interpolating or extrapolating the absolute coordinates of the road marking lines included in the region of interest image. .
실시예에서, 객체 장치는, 인프라 센서 장치로부터 적어도 하나의 객체에 대한 측위 정보를 수신하는 통신부; 및 상기 측위 정보를 이용하여 상기 적어도 하나의 객체의 제1 위치를 산출하는 제어부;를 포함하고, 상기 측위 정보는, 상기 적어도 하나의 객체 각각의 절대좌표를 이용하여 획득될 수 있다.In an embodiment, the object device may include: a communication unit configured to receive positioning information on at least one object from an infrastructure sensor device; and a controller configured to calculate a first position of the at least one object by using the positioning information, wherein the positioning information may be obtained using the absolute coordinates of each of the at least one object.
실시예에서, 상기 측위 정보는, 상기 적어도 하나의 객체 각각에 대한 식별자(identification, ID), 절대좌표, 이동방향, 이동속도, 가속도 및 상기 적어도 하나의 객체가 포함된 관심 지역 영상의 촬영시간 중 적어도 하나를 포함할 수 있다.In an embodiment, the positioning information includes an identifier (ID) for each of the at least one object, absolute coordinates, a moving direction, a moving speed, an acceleration, and a recording time of an ROI image including the at least one object. It may include at least one.
실시예에서, 상기 객체 장치는, 상기 적어도 하나의 객체의 제2 위치를 산출하는 센서부;를 더 포함하고, 상기 제어부는, 상기 객체 장치에 의해 산출된 적어도 하나의 객체의 제2 위치와 상기 측위 정보에 포함된 상기 적어도 하나의 객체의 제1 위치를 비교하고, 상기 제1 위치와 상기 제2 위치의 차이가 임계값보다 큰 경우, 상기 제1 위치를 상기 적어도 하나의 객체의 위치로 산출할 수 있다. In an embodiment, the object device may further include a sensor unit configured to calculate a second position of the at least one object, wherein the controller includes: the second position of the at least one object calculated by the object device and the The first position of the at least one object included in the positioning information is compared, and when the difference between the first position and the second position is greater than a threshold value, the first position is calculated as the position of the at least one object can do.
상기한 목적들을 달성하기 위한 구체적인 사항들은 첨부된 도면과 함께 상세하게 후술될 실시예들을 참조하면 명확해질 것이다.Specific details for achieving the above objects will become clear with reference to the embodiments to be described in detail below in conjunction with the accompanying drawings.
그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라, 서로 다른 다양한 형태로 구성될 수 있으며, 본 발명의 개시가 완전하도록 하고 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자(이하, "통상의 기술자")에게 발명의 범주를 완전하게 알려주기 위해서 제공되는 것이다.However, the present invention is not limited to the embodiments disclosed below, but may be configured in various different forms, and those of ordinary skill in the art to which the present invention belongs ( Hereinafter, "a person skilled in the art") is provided to fully inform the scope of the invention.
본 발명의 일 실시예에 의하면, 주변 객체들에게 측위 정보를 송신하는 협력 센싱 기술을 구현함으로써, 사각지대에 위치한 객체들이 서로를 인지할 수 있다. According to an embodiment of the present invention, objects located in a blind spot may recognize each other by implementing a cooperative sensing technology for transmitting positioning information to surrounding objects.
또한, 본 발명의 일 실시예에 의하면, 인프라 센서 장치에 의해 측정된 객체의 위치와 객체 장치에 의해 측정된 객체의 위치를 비교하여, 측위 오차 보정을 수행함으로써, 각 객체의 위치를 보다 정밀하게 산출할 수 있다. In addition, according to an embodiment of the present invention, the position of each object is more precisely determined by comparing the position of the object measured by the infrastructure sensor device and the position of the object measured by the object device and performing positioning error correction. can be calculated.
본 발명의 효과들은 상술된 효과들로 제한되지 않으며, 본 발명의 기술적 특징들에 의하여 기대되는 잠정적인 효과들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-described effects, and potential effects expected by the technical features of the present invention will be clearly understood from the following description.
도 1은 본 발명의 일 실시예에 따른 객체 센싱 정보를 공유하기 위한 인프라 센서 장치의 동작 방법을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 객체 센싱 정보를 공유하기 위한 도로 교통 시스템을 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 객체의 절대좌표를 산출하기 위한 인프라 센서 장치의 동작 방법을 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 객체의 절대좌표를 산출하기 위한 개념도를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 객체의 위치 보정을 위한 객체 장치의 동작 방법을 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 객체의 위치 보정을 위한 개념도를 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 인프라 센서 장치의 기능적 구성을 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 객체 장치의 기능적 구성을 도시한 도면이다.1 is a diagram illustrating an operation method of an infrastructure sensor device for sharing object sensing information according to an embodiment of the present invention.
2 is a diagram illustrating a road traffic system for sharing object sensing information according to an embodiment of the present invention.
3 is a diagram illustrating an operation method of an infrastructure sensor device for calculating absolute coordinates of an object according to an embodiment of the present invention.
4 is a diagram illustrating a conceptual diagram for calculating absolute coordinates of an object according to an embodiment of the present invention.
5 is a diagram illustrating a method of operating an object device for correcting a position of an object according to an embodiment of the present invention.
6 is a diagram illustrating a conceptual diagram for correcting the position of an object according to an embodiment of the present invention.
7 is a diagram illustrating a functional configuration of an infrastructure sensor device according to an embodiment of the present invention.
8 is a diagram illustrating a functional configuration of an object device according to an embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고, 여러 가지 실시예들을 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail.
청구범위에 개시된 발명의 다양한 특징들은 도면 및 상세한 설명을 고려하여 더 잘 이해될 수 있을 것이다. 명세서에 개시된 장치, 방법, 제법 및 다양한 실시예들은 예시를 위해서 제공되는 것이다. 개시된 구조 및 기능상의 특징들은 통상의 기술자로 하여금 다양한 실시예들을 구체적으로 실시할 수 있도록 하기 위한 것이고, 발명의 범위를 제한하기 위한 것이 아니다. 개시된 용어 및 문장들은 개시된 발명의 다양한 특징들을 이해하기 쉽게 설명하기 위한 것이고, 발명의 범위를 제한하기 위한 것이 아니다.Various features of the invention disclosed in the claims may be better understood upon consideration of the drawings and detailed description. The apparatus, methods, preparations, and various embodiments disclosed herein are provided for purposes of illustration. The disclosed structural and functional features are intended to enable those skilled in the art to specifically practice the various embodiments, and are not intended to limit the scope of the invention. The terms and sentences disclosed are for the purpose of easy-to-understand descriptions of various features of the disclosed invention, and are not intended to limit the scope of the invention.
본 발명을 설명함에 있어서, 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.In describing the present invention, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.
이하, 본 발명의 일 실시예에 따른 인프라 센서의 객체 센싱 정보를 공유하기 위한 방법 및 장치를 설명한다. Hereinafter, a method and apparatus for sharing object sensing information of an infrastructure sensor according to an embodiment of the present invention will be described.
도 1은 본 발명의 일 실시예에 따른 객체 센싱 정보를 공유하기 위한 인프라 센서 장치(110)의 동작 방법을 도시한 도면이다. 도 2는 본 발명의 일 실시예에 따른 객체 센싱 정보를 공유하기 위한 도로 교통 시스템을 도시한 도면이다.1 is a diagram illustrating an operation method of an
도 1 및 2를 참고하면, S101 단계는, 관심 지역 영상을 획득하는 단계이다.1 and 2 , step S101 is a step of acquiring an ROI image.
S103 단계는, 관심 지역 영상에 포함된 적어도 하나의 객체(120-1 내지 120-6)를 추출하는 단계이다. 일 실시예에서, 인공지능 기술을 이용하여, 관심 지역 영상으로부터 적어도 하나의 객체(120-1 내지 120-6)와 차선 및 횡단보도와 같은 도로 표시선을 추출할 수 있다. Step S103 is a step of extracting at least one object 120 - 1 to 120 - 6 included in the ROI image. In an embodiment, using artificial intelligence technology, at least one object 120 - 1 to 120 - 6 and road marking lines such as lanes and crosswalks may be extracted from the image of the region of interest.
일 실시예에서, 추출된 적어도 하나의 객체(120-1 내지 120-6) 각각에 대하여 식별자(identification, ID)를 할당할 수 있다. 여기서, 적어도 하나의 객체(120-1 내지 120-6)는 관심 지역 내의 자동차, 보행자, 자전거, 낙하물 등과 같은 객체를 포함할 수 있다. In an embodiment, an identifier (ID) may be assigned to each of the at least one extracted object 120 - 1 to 120 - 6 . Here, the at least one object 120 - 1 to 120 - 6 may include an object such as a car, a pedestrian, a bicycle, a falling object, etc. within the ROI.
S105 단계는, 적어도 하나의 객체(120-1 내지 120-6) 각각의 절대좌표를 이용하여 적어도 하나의 객체(120-1 내지 120-6)에 대한 측위 정보를 획득하는 단계이다. 예를 들어, 상기 측위 정보는, 적어도 하나의 객체(120-1 내지 120-6) 각각에 대한 식별자, 절대좌표, 이동방향, 이동속도, 가속도 및 관심 지역 영상의 촬영시간 중 적어도 하나를 포함할 수 있다. Step S105 is a step of acquiring positioning information for at least one object 120-1 to 120-6 by using the absolute coordinates of each of the at least one object 120-1 to 120-6. For example, the positioning information may include at least one of an identifier for each of the at least one object 120-1 to 120-6, an absolute coordinate, a moving direction, a moving speed, an acceleration, and a capturing time of an image of the region of interest. can
일 실시예에서, 적어도 하나의 객체(120-1 내지 120-6) 각각의 절대좌표를 산출할 수 있다. 일 실시예에서, 식별자가 할당된 객체에 대해서는 객체의 이동 궤적을 추적(tracking)할 수 있다. 이 경우, 객체의 식별자를 기준으로, 해당 객체의 기준 시간 당 좌표이동을 산출하여 객체의 이동방향 및 이동속도를 추정할 수 있다. In an embodiment, the absolute coordinates of each of the at least one object 120-1 to 120-6 may be calculated. In an embodiment, with respect to the object to which the identifier is assigned, the movement trajectory of the object may be tracked. In this case, the movement direction and movement speed of the object may be estimated by calculating the coordinate movement per reference time of the object based on the identifier of the object.
일 실시예에서, 지도 정보의 도로 표시선의 절대좌표를 이용하여, 관심 지역 영상에 포함된 도로 표시선의 절대좌표를 산출할 수 있다. In an embodiment, the absolute coordinates of the road marking line included in the ROI image may be calculated by using the absolute coordinates of the road marking line of the map information.
이 경우, 관심 지역 영상에 포함된 도로 표시선의 절대좌표를 이용하여, 관심 지역 영상의 모든 픽셀에 대한 절대좌표를 산출할 수 있다. In this case, absolute coordinates of all pixels of the region of interest image may be calculated by using the absolute coordinates of the road marking lines included in the region of interest image.
이후, 관심 지역 영상의 모든 픽셀에 대한 절대좌표와 매칭되는 적어도 하나의 객체(120-1 내지 120-6) 각각의 절대좌표를 산출할 수 있다. 예를 들어, 관심 지역 영상에 포함된 도로 표시선의 절대좌표를 인터폴레이션(interpolation) 또는 엑스트라폴레이션(extrapolation)하여, 관심 지역 영상의 모든 픽셀에 대한 절대좌표를 산출할 수 있다. Thereafter, the absolute coordinates of each of the at least one object 120 - 1 to 120 - 6 matching the absolute coordinates of all pixels of the ROI image may be calculated. For example, absolute coordinates of all pixels of the region of interest image may be calculated by interpolating or extrapolating the absolute coordinates of road marking lines included in the region of interest image.
또한, 절대좌표를 이용하여 적어도 하나의 객체(120-1 내지 120-6) 각각의 이동방향, 이동속도 및 가속도 중 적어도 하나를 산출할 수 있다.Also, at least one of a movement direction, a movement speed, and an acceleration of each of the at least one object 120-1 to 120-6 may be calculated using the absolute coordinates.
S107 단계는, 적어도 하나의 객체(120-1 내지 120-6)에게 측위 정보를 송신하는 단계이다. 예를 들어, 측위 정보를 IEEE 802.11p/ Wave의 WSMP 프로토콜 또는 3GPP V2X 통신의 사이드링크(sidelink)를 이용하여 적어도 하나의 객체(120-1 내지 120-6)에게 송신할 수 있다. Step S107 is a step of transmitting positioning information to at least one object 120-1 to 120-6. For example, positioning information may be transmitted to at least one object 120-1 to 120-6 using a WSMP protocol of IEEE 802.11p/Wave or a sidelink of 3GPP V2X communication.
일 실시예에서, 측위 정보는 협력센싱 메시지를 통해 송신될 수 있다. 이 경우, 협력센싱 메시지의 각 필드(field)는 하기 <표 1>과 같이 정의될 수 있으며, 인프라 센서 장치(110)가 관심 영역 영상을 촬영한 시간은 Time Stamp 필드에 입력될 수 있다.In an embodiment, the positioning information may be transmitted through a cooperative sensing message. In this case, each field of the cooperative sensing message may be defined as shown in Table 1 below, and the time at which the
(x,y)coordinate
(x,y)
(dx,dy)direction of movement
(dx,dy)
(vx,vy)speed
(vx,vy)
(ax,ay)acceleration
(ax,ay)
도 3은 본 발명의 일 실시예에 따른 객체의 절대좌표를 산출하기 위한 인프라 센서 장치(110)의 동작 방법을 도시한 도면이다. 도 4는 본 발명의 일 실시예에 따른 객체의 절대좌표를 산출하기 위한 개념도를 도시한 도면이다.3 is a diagram illustrating an operation method of the
도 3 및 4를 참고하면, S301 단계는, 지도 정보의 도로 표시선의 절대좌표를 이용하여, 관심 지역 영상에 포함된 도로 표시선의 절대좌표를 산출하는 단계이다. 일 실시예에서, 지도 정보는 오프라인으로 취득된 고정밀 지도를 의미할 수 있다. 예를 들어, 도 4를 참고하면, 관심 지역 영상의 도로 표시선의 절대좌표를 매핑할 수 있다. Referring to FIGS. 3 and 4 , step S301 is a step of calculating the absolute coordinates of the road marking lines included in the ROI image by using the absolute coordinates of the road marking lines of the map information. In an embodiment, the map information may mean a high-precision map acquired offline. For example, referring to FIG. 4 , the absolute coordinates of the road marking line of the ROI image may be mapped.
S303 단계는, 관심 지역 영상에 포함된 도로 표시선의 절대좌표를 이용하여, 관심 지역 영상의 모든 픽셀에 대한 절대좌표를 산출하는 단계이다. 일 실시예에서, 관심 지역 영상에 포함된 도로 표시선의 절대좌표를 인터폴레이션(interpolation) 또는 엑스트라폴레이션(extrapolation)하여, 관심 지역 영상의 모든 픽셀에 대한 절대좌표를 산출할 수 있다. 예를 들어, 도 4를 참고하면, 관심 지역 영상의 각 픽셀에 대하여 위도와 경도를 나누어 절대좌표를 산출할 수 있다. Step S303 is a step of calculating absolute coordinates for all pixels of the region of interest image by using the absolute coordinates of the road marking lines included in the region of interest image. In an embodiment, the absolute coordinates of all pixels of the region of interest image may be calculated by interpolating or extrapolating the absolute coordinates of the road marking lines included in the region of interest image. For example, referring to FIG. 4 , absolute coordinates may be calculated by dividing latitude and longitude for each pixel of an ROI image.
S305 단계는, 관심 지역 영상의 모든 픽셀에 대한 절대좌표와 매칭되는 적어도 하나의 객체(120-1 내지 120-6) 각각의 절대좌표를 산출하는 단계이다. 즉, 관심 지역 영상의 모든 픽셀에서, 적어도 하나의 객체(120-1 내지 120-6)의 픽셀에 해당하는 절대좌표를 1:1로 매칭하여 각 객체의 절대좌표를 산출할 수 있다. Step S305 is a step of calculating the absolute coordinates of each of the at least one object 120-1 to 120-6 matching the absolute coordinates of all pixels of the region of interest image. That is, in all pixels of the ROI image, absolute coordinates corresponding to pixels of at least one object 120 - 1 to 120 - 6 may be matched 1:1 to calculate the absolute coordinates of each object.
도 5는 본 발명의 일 실시예에 따른 객체의 위치 보정을 위한 객체 장치(120-1)의 동작 방법을 도시한 도면이다. 도 6은 본 발명의 일 실시예에 따른 객체의 위치 보정을 위한 개념도를 도시한 도면이다. 5 is a diagram illustrating an operation method of the object device 120-1 for correcting the position of an object according to an embodiment of the present invention. 6 is a diagram illustrating a conceptual diagram for correcting the position of an object according to an embodiment of the present invention.
도 5 및 6을 참고하면, S501 단계는, 인프라 센서 장치로부터 적어도 하나의 객체(120-1 내지 120-4)에 대한 측위 정보를 수신하는 단계이다. 이 경우, 적어도 하나의 객체(120-1 내지 120-4)는 객체 장치(120-1)와 주변 객체들(120-2 내지 120-4)을 포함할 수 있다. 일 실시예에서, 측위 정보는 적어도 하나의 객체(120-1 내지 120-4) 각각의 절대좌표를 이용하여 획득될 수 있다. 5 and 6 , step S501 is a step of receiving positioning information on at least one object 120 - 1 to 120 - 4 from the infrastructure sensor device. In this case, the at least one object 120 - 1 to 120 - 4 may include the object device 120 - 1 and surrounding objects 120 - 2 to 120 - 4 . In an embodiment, the positioning information may be obtained using the absolute coordinates of each of the at least one object 120-1 to 120-4.
S503 단계는, 객체 장치(120-1)에 의해 산출된 적어도 하나의 객체(120-1 내지 120-4)의 제2 위치(620)와 측위 정보에 포함된 적어도 하나의 객체(120-1 내지 120-4)의 제1 위치(610)를 비교하는 단계이다. In step S503, the second location 620 of the at least one object 120-1 to 120-4 calculated by the object device 120-1 and the at least one object 120-1 to 120-1 included in the positioning information 120-4) of the first position 610 is compared.
일 실시예에서, 객체 장치(120-1)는 자체 센서를 통해 측정한 위치, 이동속도 및 이동방향 중 적어도 하나에 기반하여 적어도 하나의 객체(120-1 내지 120-4)의 제2 위치(620)를 산출할 수 있다. In an embodiment, the object device 120-1 is configured to provide a second position ( 620) can be calculated.
S505 단계는, 제1 위치(610)와 제2 위치(620)의 차이가 임계값보다 큰 경우, 제1 위치(610)를 적어도 하나의 객체(120-1 내지 120-4)의 위치로 인지하는 단계이다. 예를 들어, 객체(120-2)와 객체(120-4)의 경우, 제1 위치(610)와 제2 위치(620)의 차이가 임계값보다 크기 때문에, 객체(120-2)와 객체(120-4)의 위치를 인지하기 위한 측위 오차 보정은 수행될 수 있다. In step S505, when the difference between the first location 610 and the second location 620 is greater than a threshold value, the first location 610 is recognized as the location of the at least one object 120-1 to 120-4. is a step to For example, in the case of the object 120-2 and the object 120-4, since the difference between the first location 610 and the second location 620 is greater than a threshold value, the object 120-2 and the object 120-4 Positioning error correction for recognizing the position of (120-4) may be performed.
따라서, 객체 장치(120-1)가 자체 센서를 통해 산출한 자신과 주변 객체들의 위치 및 이동정보와 인프라 센서 장치(110)로부터 수신된 적어도 하나의 객체(120-1 내지 120-6)의 위치 및 이동정보를 비교하여, 객체 장치(120-1)는 자기 위치 및 타 객체의 위치에 대한 측위 오차를 보정할 수 있다. Accordingly, location and movement information of itself and surrounding objects calculated by the object device 120-1 through its own sensor and the location of at least one object 120-1 to 120-6 received from the
또한, 이러한 객체 위치 인지를 통해 사각지대에 위치한 객체를 인지할 수 있다. 예를 들어, 객체(120-1)와 객체(120-2)는 서로 교차로의 사각지역에 위치하기 때문에 각 객체의 자체 센서로는 인지가 불가능하지만, 인프라 센서 장치(110)가 객체(120-1)와 객체(120-2)를 인지하고, 측위 정보를 객체(120-1)와 객체(120-2)에 전달되기 때문에, 협력센싱에 의해 객체(120-1)와 객체(120-2)는 서로를 인지할 수 있다. In addition, it is possible to recognize an object located in a blind spot through such object position recognition. For example, since the object 120-1 and the object 120-2 are located in the blind area of the intersection, it is impossible to recognize each object with its own sensor, but the
일 실시예에서, 제1 위치(610)와 제2 위치(620)의 차이가 임계값보다 작은 경우, 측위 오차 보정은 수행되지 않을 수 있다. 이 경우, 제1 위치(610) 또는 제2 위치(620)를 적어도 하나의 객체(120-1 내지 120-6)의 위치로 인지할 수 있다. 예를 들어, 객체(120-1)와 객체(120-3)의 경우, 제1 위치(610)와 제2 위치(620)의 차이가 임계값보다 작기 때문에, 객체(120-1)와 객체(120-3)의 위치를 인지하기 위한 측위 오차 보정은 수행되지 않을 수 있다. In an embodiment, when the difference between the first position 610 and the second position 620 is less than a threshold value, positioning error correction may not be performed. In this case, the first location 610 or the second location 620 may be recognized as the location of the at least one object 120-1 to 120-6. For example, in the case of the object 120-1 and the object 120-3, since the difference between the first location 610 and the second location 620 is smaller than a threshold value, the object 120-1 and the object 120-3 Positioning error correction for recognizing the position of (120-3) may not be performed.
도 7은 본 발명의 일 실시예에 따른 인프라 센서 장치(110)의 기능적 구성을 도시한 도면이다.7 is a diagram illustrating a functional configuration of the
도 7을 참고하면, 인프라 센서 장치는 센서부(710), 저장부(720), 제어부(730) 및 통신부(740)를 포함할 수 있다.Referring to FIG. 7 , the infrastructure sensor device may include a
센서부(710)는 적어도 하나의 객체(120-1 내지 120-6)가 포함된 관심 지역 영상을 획득할 수 있다. 일 실시예에서, 센서부(710)는 카메라, 레이더 및 라이다 중 적어도 하나를 포함할 수 있다. The
저장부(720)는 지도 정보를 저장할 수 있다. 일 실시예에서, 지도 정보는 오프라인 또는 무선 통신 네트워크를 통해 전달되어 저장될 수 있다. The
일 실시예에서, 저장부(720)는 휘발성 메모리, 비휘발성 메모리 또는 휘발성 메모리와 비휘발성 메모리의 조합으로 구성될 수 있다. 그리고, 저장부(720)는 제어부(730)의 요청에 따라 저장된 데이터를 제공할 수 있다.In an embodiment, the
제어부(730)는 관심 지역 영상을 처리하여 적어도 하나의 객체(120-1 내지 120-6)를 추출할 수 있다. 일 실시예에서, 제어부(730)는 영상처리 임베디드를 포함할 수 있다. 제어부(730)는 추출된 적어도 하나의 객체(120-1 내지 120-6)에 대한 측위 정보를 획득할 수 있다. The
일 실시예에서, 제어부(730)는 적어도 하나의 프로세서 또는 마이크로(micro) 프로세서를 포함하거나, 또는, 프로세서의 일부일 수 있다. 또한, 제어부(730)는 CP(communication processor)라 지칭될 수 있다. 제어부(730)는 본 발명의 다양한 실시예에 따른 인프라 센서 장치(110)의 각 동작을 제어할 수 있다. In an embodiment, the
통신부(740)는 적어도 하나의 객체(120-1 내지 120-6)에게 측위 정보를 송신할 수 있다. 일 실시예에서, 통신부(740)는 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다. 통신부(740)의 전부 또는 일부는 '송신부', '수신부' 또는 '송수신부(transceiver)'로 지칭될 수 있다.The
도 8은 본 발명의 일 실시예에 따른 객체 장치(120-1)의 기능적 구성을 도시한 도면이다.8 is a diagram illustrating a functional configuration of an object device 120-1 according to an embodiment of the present invention.
도 8을 참고하면, 객체 장치(120-1)는 센서부(810), 통신부(820) 및 제어부(830)를 포함할 수 있다.Referring to FIG. 8 , the object device 120 - 1 may include a
센서부(810)는 적어도 하나의 객체(120-1 내지 120-6)를 검출할 수 있다. 즉, 객체 장치(120-1)는 자신의 센서부(810)를 통해 자기 자신뿐만 아니라, 주변 객체들을 검출할 수 있다. 일 실시예에서, 센서부(810)는 카메라, 레이더 및 라이다 중 적어도 하나를 포함할 수 있다.The
통신부(820)는 인프라 센서 장치(110)로부터 적어도 하나의 객체(120-1 내지 120-6)에 대한 측위 정보를 수신할 수 있다. The
일 실시예에서, 통신부(820)는 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다. 통신부(820)의 전부 또는 일부는 '송신부', '수신부' 또는 '송수신부(transceiver)'로 지칭될 수 있다.In an embodiment, the
제어부(830)는 측위 정보를 이용하여 적어도 하나의 객체(120-1 내지 120-6)의 위치를 산출할 수 있다. 일 실시예에서, 제어부(830)는 객체 장치(120-1)에 의해 산출된 적어도 하나의 객체(120-1 내지 120-6)의 위치와 측위 정보에 포함된 적어도 하나의 객체(120-1 내지 120-6)의 위치를 비교하여 측위 오차 보정을 수행할 수 있다. The
일 실시예에서, 제어부(830)는 적어도 하나의 프로세서 또는 마이크로(micro) 프로세서를 포함하거나, 또는, 프로세서의 일부일 수 있다. 또한, 제어부(830)는 CP(communication processor)라 지칭될 수 있다. 제어부(830)는 본 발명의 다양한 실시예에 따른 객체 장치(120-1)의 각 동작을 제어할 수 있다. In an embodiment, the
도 8에서 설명된 객체 장치(120-1)의 기능적 구성은 적어도 하나의 주변 객체들(120-2 내지 120-6)의 기능적 구성으로 동일하게 적용될 수 있다. The functional configuration of the object device 120-1 described in FIG. 8 may be equally applied to the functional configuration of the at least one neighboring objects 120-2 to 120-6.
이상의 설명은 본 발명의 기술적 사상을 예시적으로 설명한 것에 불과한 것으로, 통상의 기술자라면 본 발명의 본질적인 특성이 벗어나지 않는 범위에서 다양한 변경 및 수정이 가능할 것이다.The above description is merely illustrative of the technical spirit of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention.
따라서, 본 명세서에 개시된 실시예들은 본 발명의 기술적 사상을 한정하기 위한 것이 아니라, 설명하기 위한 것이고, 이러한 실시예들에 의하여 본 발명의 범위가 한정되는 것은 아니다.Accordingly, the embodiments disclosed in the present specification are not intended to limit the technical spirit of the present invention, but to illustrate, and the scope of the present invention is not limited by these embodiments.
본 발명의 보호범위는 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 이해되어야 한다.The protection scope of the present invention should be interpreted by the claims, and all technical ideas within the scope equivalent thereto should be understood to be included in the scope of the present invention.
110: 인프라 센서 장치
120-1 내지 120-6: 객체
610: 제1 위치
620: 제2 위치110: infrastructure sensor device
120-1 to 120-6: object
610: first position
620: second position
Claims (18)
상기 관심 지역 영상에 포함된 적어도 하나의 객체를 추출하는 단계;
지도 정보의 도로 표시선의 절대좌표를 이용하여, 상기 관심 지역 영상에 포함된 도로 표시선의 절대좌표를 산출하는 단계;
상기 관심 지역 영상에 포함된 도로 표시선의 절대좌표를 이용하여, 상기 관심 지역 영상의 모든 픽셀에 대한 절대좌표를 산출하는 단계;
상기 관심 지역 영상의 모든 픽셀에 대한 절대좌표와 매칭되는 상기 적어도 하나의 객체 각각의 절대좌표를 산출하는 단계;
상기 절대좌표를 이용하여 상기 적어도 하나의 객체 각각의 이동방향, 이동속도 및 가속도 중 적어도 하나를 포함하는 측위 정보를 산출하는 단계; 및
상기 적어도 하나의 객체에게 상기 측위 정보를 송신하는 단계;
를 포함하고,
상기 송신된 측위 정보는, 상기 적어도 하나의 객체 각각이 서로의 위치를 인지하기 위해 이용되는,
인프라 센서 장치의 동작 방법.
acquiring an image of a region of interest;
extracting at least one object included in the region of interest image;
calculating the absolute coordinates of the road marking lines included in the ROI image by using the absolute coordinates of the road marking lines of the map information;
calculating absolute coordinates of all pixels of the region of interest image by using absolute coordinates of road marking lines included in the region of interest image;
calculating absolute coordinates of each of the at least one object matching the absolute coordinates of all pixels of the region of interest image;
calculating positioning information including at least one of a moving direction, a moving speed, and an acceleration of each of the at least one object by using the absolute coordinates; and
transmitting the positioning information to the at least one object;
including,
The transmitted positioning information is used for each of the at least one object to recognize the location of each other,
How infrastructure sensor devices work.
상기 적어도 하나의 객체를 추출하는 단계 이후에,
상기 추출된 적어도 하나의 객체 각각에 대하여 식별자(identification, ID)를 할당하는 단계;
를 더 포함하는,
인프라 센서 장치의 동작 방법.
According to claim 1,
After extracting the at least one object,
allocating an identifier (ID) to each of the at least one extracted object;
further comprising,
How infrastructure sensor devices work.
상기 측위 정보는, 상기 적어도 하나의 객체 각각에 대한 식별자(identification, ID), 절대좌표, 이동방향, 이동속도, 가속도 및 상기 관심 지역 영상의 촬영시간 중 적어도 하나를 포함하는,
인프라 센서 장치의 동작 방법.
According to claim 1,
The positioning information includes at least one of an identification (ID), absolute coordinates, moving direction, moving speed, acceleration, and capturing time of the region of interest image for each of the at least one object,
How infrastructure sensor devices work.
상기 관심 지역 영상의 모든 픽셀에 대한 절대좌표를 산출하는 단계는,
상기 관심 지역 영상에 포함된 도로 표시선의 절대좌표를 인터폴레이션(interpolation) 또는 엑스트라폴레이션(extrapolation)하여, 상기 관심 지역 영상의 모든 픽셀에 대한 절대좌표를 산출하는 단계;
를 포함하는,
인프라 센서 장치의 동작 방법.
According to claim 1,
Calculating absolute coordinates for all pixels of the region of interest image includes:
calculating absolute coordinates for all pixels of the region of interest image by interpolating or extrapolating the absolute coordinates of road marking lines included in the region of interest image;
containing,
How infrastructure sensor devices work.
객체 장치에 의해 산출된 상기 적어도 하나의 객체의 제2 위치와 상기 측위 정보에 포함된 상기 적어도 하나의 객체의 제1 위치를 비교하는 단계; 및
상기 제1 위치와 상기 제2 위치의 차이가 임계값보다 큰 경우, 상기 제1 위치를 상기 적어도 하나의 객체의 위치로 산출하는 단계;
를 포함하고,
상기 측위 정보는, 상기 적어도 하나의 객체 각각의 절대좌표를 이용하여 획득되고,
상기 제1 위치는, 상기 적어도 하나의 객체 각각의 절대좌표를 포함하는,
객체 장치의 동작 방법.
Receiving positioning information for at least one object from the infrastructure sensor device;
comparing the second position of the at least one object calculated by the object device with the first position of the at least one object included in the positioning information; and
calculating the first location as a location of the at least one object when a difference between the first location and the second location is greater than a threshold value;
including,
The positioning information is obtained using the absolute coordinates of each of the at least one object,
The first position includes the absolute coordinates of each of the at least one object,
How the object device works.
상기 측위 정보는, 상기 적어도 하나의 객체 각각에 대한 식별자(identification, ID), 절대좌표, 이동방향, 이동속도, 가속도 및 상기 적어도 하나의 객체가 포함된 관심 지역 영상의 촬영시간 중 적어도 하나를 포함하는,
객체 장치의 동작 방법.
8. The method of claim 7,
The positioning information includes at least one of an identification (ID), absolute coordinates, moving direction, moving speed, acceleration, and capturing time of an ROI image including the at least one object for each of the at least one object doing,
How the object device works.
상기 관심 지역 영상에 포함된 적어도 하나의 객체를 추출하고,
지도 정보의 도로 표시선의 절대좌표를 이용하여, 상기 관심 지역 영상에 포함된 도로 표시선의 절대좌표를 산출하고,
상기 관심 지역 영상에 포함된 도로 표시선의 절대좌표를 이용하여, 상기 관심 지역 영상의 모든 픽셀에 대한 절대좌표를 산출하며,
상기 관심 지역 영상의 모든 픽셀에 대한 절대좌표와 매칭되는 상기 적어도 하나의 객체 각각의 절대좌표를 산출하고,
상기 절대좌표를 이용하여 상기 적어도 하나의 객체 각각의 이동방향, 이동속도 및 가속도 중 적어도 하나를 포함하는 측위 정보를 산출하는 제어부; 및
상기 적어도 하나의 객체에게 상기 측위 정보를 송신하는 통신부;
를 포함하고,
상기 송신된 측위 정보는, 상기 적어도 하나의 객체 각각이 서로의 위치를 인지하기 위해 이용되는,
인프라 센서 장치.
a sensor unit for acquiring an image of a region of interest;
extracting at least one object included in the region of interest image,
calculating the absolute coordinates of the road marking lines included in the image of the region of interest by using the absolute coordinates of the road marking lines of the map information,
calculating absolute coordinates for all pixels of the region of interest image by using the absolute coordinates of road marking lines included in the region of interest image,
calculating the absolute coordinates of each of the at least one object matching the absolute coordinates of all pixels of the region of interest image,
a control unit for calculating positioning information including at least one of a moving direction, a moving speed, and an acceleration of each of the at least one object by using the absolute coordinates; and
a communication unit for transmitting the positioning information to the at least one object;
including,
The transmitted positioning information is used for each of the at least one object to recognize the location of each other,
infrastructure sensor devices.
상기 제어부는,
상기 추출된 적어도 하나의 객체 각각에 대하여 식별자(identification, ID)를 할당하는,
인프라 센서 장치.
11. The method of claim 10,
The control unit is
Allocating an identifier (identification, ID) to each of the extracted at least one object,
infrastructure sensor devices.
상기 측위 정보는, 상기 적어도 하나의 객체 각각에 대한 식별자(identification, ID), 절대좌표, 이동방향, 이동속도, 가속도 및 상기 관심 지역 영상의 촬영시간 중 적어도 하나를 포함하는,
인프라 센서 장치.
11. The method of claim 10,
The positioning information includes at least one of an identification (ID), absolute coordinates, moving direction, moving speed, acceleration, and capturing time of the region of interest image for each of the at least one object,
infrastructure sensor devices.
상기 제어부는,
상기 관심 지역 영상에 포함된 도로 표시선의 절대좌표를 인터폴레이션(interpolation) 또는 엑스트라폴레이션(extrapolation)하여, 상기 관심 지역 영상의 모든 픽셀에 대한 절대좌표를 산출하는,
인프라 센서 장치.
11. The method of claim 10,
The control unit is
calculating absolute coordinates for all pixels of the region of interest image by interpolating or extrapolating the absolute coordinates of road marking lines included in the region of interest image;
infrastructure sensor devices.
상기 적어도 하나의 객체의 제2 위치를 산출하는 센서부; 및
상기 적어도 하나의 객체의 제2 위치와 상기 측위 정보에 포함된 상기 적어도 하나의 객체의 제1 위치를 비교하고,
상기 제1 위치와 상기 제2 위치의 차이가 임계값보다 큰 경우, 상기 제1 위치를 상기 적어도 하나의 객체의 위치로 산출하는 제어부;
를 포함하고,
상기 측위 정보는, 상기 적어도 하나의 객체 각각의 절대좌표를 이용하여 획득되고,
상기 제1 위치는, 상기 적어도 하나의 객체 각각의 절대좌표를 포함하는,
객체 장치.
a communication unit for receiving positioning information on at least one object from the infrastructure sensor device;
a sensor unit for calculating a second position of the at least one object; and
comparing the second position of the at least one object with the first position of the at least one object included in the positioning information,
a control unit configured to calculate the first position as a position of the at least one object when a difference between the first position and the second position is greater than a threshold value;
including,
The positioning information is obtained using the absolute coordinates of each of the at least one object,
The first position includes the absolute coordinates of each of the at least one object,
object device.
상기 측위 정보는, 상기 적어도 하나의 객체 각각에 대한 식별자(identification, ID), 절대좌표, 이동방향, 이동속도, 가속도 및 상기 적어도 하나의 객체가 포함된 관심 지역 영상의 촬영시간 중 적어도 하나를 포함하는,
객체 장치.
17. The method of claim 16,
The positioning information includes at least one of an identification (ID), absolute coordinates, moving direction, moving speed, acceleration, and capturing time of an ROI image including the at least one object for each of the at least one object doing,
object device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190041042A KR102315703B1 (en) | 2019-04-08 | 2019-04-08 | A method and apparatus for sharing object sensing information of infra sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190041042A KR102315703B1 (en) | 2019-04-08 | 2019-04-08 | A method and apparatus for sharing object sensing information of infra sensor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200120981A KR20200120981A (en) | 2020-10-23 |
KR102315703B1 true KR102315703B1 (en) | 2021-10-20 |
Family
ID=73039421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190041042A KR102315703B1 (en) | 2019-04-08 | 2019-04-08 | A method and apparatus for sharing object sensing information of infra sensor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102315703B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101905952B1 (en) * | 2016-05-02 | 2018-10-10 | 전자부품연구원 | Digital Map Generation System and Method based on Vehicles and Infrastructure |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150075774A (en) | 2013-12-26 | 2015-07-06 | 한국전자통신연구원 | Autonomous driving vehicle and infra for supporting autonomous drive |
KR102463698B1 (en) * | 2016-12-14 | 2022-11-07 | 현대자동차주식회사 | System and method for building a location information database of road sign, apparatus and method for estimating location of vehicle using the same |
KR102331312B1 (en) * | 2017-10-11 | 2021-11-24 | 재단법인대구경북과학기술원 | 3D vehicular navigation system using vehicular internal sensor, camera, and GNSS terminal |
-
2019
- 2019-04-08 KR KR1020190041042A patent/KR102315703B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101905952B1 (en) * | 2016-05-02 | 2018-10-10 | 전자부품연구원 | Digital Map Generation System and Method based on Vehicles and Infrastructure |
Also Published As
Publication number | Publication date |
---|---|
KR20200120981A (en) | 2020-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7160040B2 (en) | Signal processing device, signal processing method, program, moving object, and signal processing system | |
US10490079B2 (en) | Method and device for selecting and transmitting sensor data from a first motor vehicle to a second motor vehicle | |
KR102420476B1 (en) | Apparatus and method for estimating location of vehicle and computer recordable medium storing computer program thereof | |
EP3627269A1 (en) | Target tracking method and apparatus, mobile device and storage medium | |
TWI770544B (en) | Apparatus of vision and radio fusion based precise indoor localization and storage medium thereof | |
US20060066723A1 (en) | Mobile tracking system, camera and photographing method | |
EP3147629B1 (en) | Object detection device and object detection method | |
US20160033963A1 (en) | Remote autonomous driving system based on high accuracy of localization by indoor infrastructure map and sensor and method thereof | |
US20190349716A1 (en) | Positioning Method and Device | |
JP7190261B2 (en) | position estimator | |
EP3913328A1 (en) | Vehicle positioning apparatus, system and method, and vehicle | |
KR20160040911A (en) | Device for recognizing the surrounding environment of vehicle based on V2X communication and method thereof | |
KR102428765B1 (en) | Autonomous driving vehicle navigation system using the tunnel lighting | |
US9229088B2 (en) | Device, system and method for identifying wireless apparatus | |
CN104793637A (en) | Real-time tracking system and method of mobile equipment | |
CN107783555B (en) | Target positioning method, device and system based on unmanned aerial vehicle | |
US20200342620A1 (en) | Object location coordinate determination | |
CN112486172B (en) | Road edge detection method and robot | |
US20210148707A1 (en) | Location-estimating device and computer program for location estimation | |
WO2021049233A1 (en) | Information processing device, information processing method, and program | |
JP2017181476A (en) | Vehicle location detection device, vehicle location detection method and vehicle location detection-purpose computer program | |
US20230288211A1 (en) | Method, apparatus and computer program for a vehicle | |
CN114610032A (en) | Target object following method and device, electronic equipment and readable storage medium | |
KR102315703B1 (en) | A method and apparatus for sharing object sensing information of infra sensor | |
EP3223188A1 (en) | A vehicle environment mapping system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |