KR102454599B1 - Method and apparatus for determining the position of an object on a lane map - Google Patents

Method and apparatus for determining the position of an object on a lane map Download PDF

Info

Publication number
KR102454599B1
KR102454599B1 KR1020210169973A KR20210169973A KR102454599B1 KR 102454599 B1 KR102454599 B1 KR 102454599B1 KR 1020210169973 A KR1020210169973 A KR 1020210169973A KR 20210169973 A KR20210169973 A KR 20210169973A KR 102454599 B1 KR102454599 B1 KR 102454599B1
Authority
KR
South Korea
Prior art keywords
image data
feature
vehicle
features
determining
Prior art date
Application number
KR1020210169973A
Other languages
Korean (ko)
Inventor
김호성
최종범
이자용
Original Assignee
포티투닷 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포티투닷 주식회사 filed Critical 포티투닷 주식회사
Priority to JP2023572657A priority Critical patent/JP2024520399A/en
Priority to DE112022002754.1T priority patent/DE112022002754T5/en
Priority to PCT/KR2022/007516 priority patent/WO2022250480A1/en
Application granted granted Critical
Publication of KR102454599B1 publication Critical patent/KR102454599B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18154Approaching an intersection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/10Path keeping
    • B60Y2300/12Lane keeping
    • G05D2201/0213

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

The present disclosure relates to a method and an apparatus for determining the position of an object on a lane map. In the method according to an embodiment of the present disclosure, image data captured by a camera mounted on a vehicle can be obtained. In addition, in the method, predetermined processing is performed on the image data to generate feature information about a plurality of features included in the image data. Furthermore, in the method, a plurality of features corresponding to the same object can be determined from a plurality of pieces of image data based on the correlation between the plurality of features included in the image data. In addition, in the method, the position of an object on a lane map can be determined based on the position information of a vehicle on the lane map and the feature position information on the plurality of pieces of image data.

Description

차로 맵 상에 객체의 위치를 결정하기 위한 방법 및 장치{METHOD AND APPARATUS FOR DETERMINING THE POSITION OF AN OBJECT ON A LANE MAP}METHOD AND APPARATUS FOR DETERMINING THE POSITION OF AN OBJECT ON A LANE MAP

본 발명은 차로 맵 상에 객체의 위치를 결정하기 위한 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for determining the location of an object on a road map.

도로에서 주행 중인 차량은 도로에 포함된 복수개의 차로 중 어느 하나의 차로 상에서 주행을 할 수 있다. 차량은 주행 중에 빈번하게 차로를 변경할 수 있고, 도로 상에서 차로의 개수가 변경되는 상황 또한 빈번하게 발생한다.A vehicle traveling on a road may drive on any one of a plurality of lanes included in the road. A vehicle may frequently change lanes while driving, and a situation in which the number of lanes on a road is changed frequently also occurs.

정보통신 기술과 차량 산업의 융합으로 인해 빠르게 차량의 스마트화가 진행되고 있다. 스마트화로 인해, 차량은 단순한 기계적 장치에서 스마트카로 진화하고 있으며, 특히 스마트카의 핵심기술로 자율 주행이 주목 받고 있다. 자율 주행이란 운전자가 핸들과 가속페달, 브레이크 등을 조작하지 않아도 차량 스스로 목적지까지 찾아가는 기술이다.Due to the convergence of information and communication technology and the vehicle industry, the smartization of vehicles is rapidly progressing. Due to smartization, vehicles are evolving from simple mechanical devices to smart cars, and autonomous driving is attracting attention as a core technology of smart cars. Autonomous driving is a technology that allows the vehicle to reach its destination on its own without the driver operating the steering wheel, accelerator pedal, or brake.

자율 주행과 관련된 다양한 부가 기능들이 지속적으로 개발되고 있으며, 각종 데이터를 이용하여 주행 환경을 인지하고 판단하여 자동차를 제어함으로써 탑승자에게 안전한 자율 주행 경험을 제공할 수 있는 방법에 대한 연구가 요구되고 있다.Various additional functions related to autonomous driving are continuously being developed, and research on how to provide a safe autonomous driving experience to passengers by recognizing and judging the driving environment using various data and controlling the vehicle is required.

최근에는, 차량이 주행하는 도로 상에 위치하거나 도로 주변에 위치하는 각종 객체(예를 들어, 신호등, 도로 표지판, 방지턱 등)를 더 적은 연산량으로 보다 정확하게 맵 상에 표시하기 위한 연구가 필요한 실정이다.Recently, research is needed to more accurately display various objects (for example, traffic lights, road signs, bumps, etc.) located on or around the road on which the vehicle travels on the map with less computation. .

전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.The above-mentioned background art is technical information possessed by the inventor for the derivation of the present invention or acquired in the process of derivation of the present invention, and cannot necessarily be said to be a known technique disclosed to the general public prior to the filing of the present invention.

본 발명은 차로 맵 상에 객체의 위치를 결정하기 위한 방법 및 장치를 제공하는데 있다. 본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제에 한정되지 않으며, 언급되지 않은 본 발명의 다른 과제 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시 예에 의해보다 분명하게 이해될 것이다. 또한, 본 발명이 해결하고자 하는 과제 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 알 수 있을 것이다.SUMMARY OF THE INVENTION The present invention is to provide a method and apparatus for determining the location of an object on a road map. The problem to be solved by the present invention is not limited to the above-mentioned problems, and other problems and advantages of the present invention not mentioned can be understood by the following description, and more clearly understood by the embodiments of the present invention will be In addition, it will be appreciated that the problems and advantages to be solved by the present invention can be realized by means and combinations thereof indicated in the claims.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제1 측면은, 차로 맵 상에 객체 의 위치를 결정하는 방법에 있어서, 차량에 탑재된 카메라에서 촬영된 이미지 데이터를 획득하는 단계; 상기 이미지 데이터에 대해 소정의 처리를 수행함으로써 상기 이미지 데이터에 포함된 복수의 피쳐들에 대한 피쳐 정보(feature information)를 생성하는 단계; 상기 이미지 데이터에 포함된 상기 복수의 피쳐들 간의 상관도 에 기초하여, 복수의 이미지 데이터에서 동일한 객체에 해당하는 복수의 피쳐들을 결정하는 단계; 및 상기 차량의 차로 맵 상의 위치 정보 및 상기 복수의 이미지 데이터 상의 피쳐 위치 정보에 기초하여 상기 차로 맵 상에 객체의 위치를 결정하는 단계;를 포함하는, 방법을 제공할 수 있다.As a technical means for achieving the above-described technical problem, a first aspect of the present disclosure is a method for determining a position of an object on a road map, the method comprising: acquiring image data captured by a camera mounted on a vehicle; generating feature information for a plurality of features included in the image data by performing predetermined processing on the image data; determining a plurality of features corresponding to the same object in a plurality of image data based on a degree of correlation between the plurality of features included in the image data; and determining a location of an object on the road map based on location information of the vehicle on the road map and feature location information on the plurality of image data.

본 개시의 제 2 측면은, 차로 맵 상에 객체의 위치를 결정하기 위한 장치에 있어서, 적어도 하나의 프로그램이 저장된 메모리; 및 상기 적어도 하나의 프로그램을 실행함으로써 연산을 수행하는 프로세서를 포함하고, 상기 프로세서는, 차량에 탑재된 카메라에서 촬영된 이미지 데이터를 획득하고, 상기 이미지 데이터에 대해 소정의 처리를 수행함으로써 상기 이미지 데이터에 포함된 복수의 피쳐들에 대한 피쳐 정보(feature information)를 생성하고, 상기 이미지 데이터에 포함된 상기 복수의 피쳐들 간의 상관도에 기초하여, 복수의 이미지 데이터에서 동일한 객체에 해당하는 복수의 피쳐들을 결정하며, 상기 차량의 차로 맵 상의 위치 정보 및 상기 복수의 이미지 데이터 상의 피쳐 위치 정보에 기초하여 상기 차로 맵 상에 객체의 위치를 결정하는 것인, 장치를 제공할 수 있다.A second aspect of the present disclosure provides an apparatus for determining a location of an object on a road map, comprising: a memory in which at least one program is stored; and a processor that performs an operation by executing the at least one program, wherein the processor acquires image data captured by a camera mounted on a vehicle, and performs predetermined processing on the image data to obtain the image data Generates feature information for a plurality of features included in , and based on a degree of correlation between the plurality of features included in the image data, a plurality of features corresponding to the same object in the plurality of image data and determining the location of the object on the road map based on the location information on the lane map of the vehicle and the feature location information on the plurality of image data.

본 개시의 제 3 측면은, 제 1 측면에 따른 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다.A third aspect of the present disclosure may provide a computer-readable recording medium recording a program for executing the method according to the first aspect on a computer.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램이 저장된 컴퓨터로 판독 가능한 기록매체가 더 제공될 수 있다.In addition to this, another method for implementing the present invention, another system, and a computer-readable recording medium storing a computer program for executing the method may be further provided.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.

전술한 본 개시의 과제 해결 수단에 의하면, 이미지 데이터 전체를 이용하지 않고, 객체에 대한 메타데이터에 해당하는 피쳐 정보를 활용하여 복수의 이미지 데이터 내에서 동일한 객체가 어떤 것인지 결정함으로써, 데이터 경량화가 가능하다.According to the problem solving means of the present disclosure described above, it is possible to reduce data weight by determining which object is the same in a plurality of image data by using feature information corresponding to metadata about the object without using the entire image data. do.

도 1 내지 도 3은 일 실시예에 따른 자율 주행 방식을 설명하기 위한 도면들이다.
도 4는 일 실시예에 따른 이미지 데이터에 포함되는 복수의 객체들 예시를 설명하기 위한 도면이다.
도 5a 내지 도 5b는 일 실시예에 따른 이미지 데이터에 포함된 피쳐 정보를 설명하기 위한 도면이다.
도 6a 내지 도 6b는 일 실시예에 따른 이미지 데이터 내 피쳐 병합을 설명하기 위한 예시적인 도면이다.
도 7은 일 실시예에 따른 차로 맵 상에 객체의 위치를 결정하는 방법을 설명하기 위한 예시적인 도면이다.
도 8은 일 실시예에 따른 차량의 위치 정보와 이미지 상의 피쳐 위치에 기초하여 객체의 위치를 결정하는 방법을 설명하기 위한 예시적인 도면이다.
도 9는 일 실시예에 따른 복수의 주행 궤적을 이용하여 차로 맵 상에 객체의 위치를 결정하는 방법을 설명하기 위한 예시적인 도면이다.
도 10은 일 실시예에 따른 차로 피팅 및 객체 피팅 방법을 설명하기 위한 예시적인 도면이다.
도 11은 일 실시예에 따른 차로 맵 상에 객체의 위치를 결정하는 방법의 흐름도이다.
도 12는 일 실시예에 따른 객체 위치 결정 장치의 블록도이다.
1 to 3 are diagrams for explaining an autonomous driving method according to an exemplary embodiment.
4 is a diagram for explaining an example of a plurality of objects included in image data according to an exemplary embodiment.
5A to 5B are diagrams for explaining feature information included in image data according to an exemplary embodiment.
6A to 6B are exemplary diagrams for describing feature merging in image data according to an embodiment.
7 is an exemplary diagram for describing a method of determining a location of an object on a road map according to an exemplary embodiment.
8 is an exemplary view for explaining a method of determining a position of an object based on position information of a vehicle and a position of a feature on an image according to an embodiment.
9 is an exemplary diagram for describing a method of determining a location of an object on a road map using a plurality of driving trajectories, according to an exemplary embodiment.
10 is an exemplary diagram for describing a vehicle fitting method and an object fitting method according to an exemplary embodiment.
11 is a flowchart of a method of determining a location of an object on a road map according to an exemplary embodiment.
12 is a block diagram of an object positioning apparatus according to an embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 설명되는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 아래에서 제시되는 실시 예들로 한정되는 것이 아니라, 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 아래에 제시되는 실시 예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Advantages and features of the present invention, and a method for achieving them will become apparent with reference to the detailed description in conjunction with the accompanying drawings. However, it should be understood that the present invention is not limited to the embodiments presented below, but may be implemented in a variety of different forms, and includes all transformations, equivalents, and substitutes included in the spirit and scope of the present invention. . The embodiments presented below are provided to complete the disclosure of the present invention, and to completely inform those of ordinary skill in the art to the scope of the present invention. In describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

본 개시의 일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다."매커니즘", "요소", "수단" 및 "구성"등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.Some embodiments of the present disclosure may be represented by functional block configurations and various processing steps. Some or all of these functional blocks may be implemented in various numbers of hardware and/or software configurations that perform specific functions. For example, the functional blocks of the present disclosure may be implemented by one or more microprocessors, or by circuit configurations for a given function. Also, for example, the functional blocks of the present disclosure may be implemented in various programming or scripting languages. The functional blocks may be implemented as an algorithm running on one or more processors. Further, the present disclosure may employ prior art techniques for electronic configuration, signal processing, and/or data processing, etc. Terms such as "mechanism", "element", "means" and "configuration" will be used broadly. and are not limited to mechanical and physical configurations.

또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다.In addition, the connecting lines or connecting members between the components shown in the drawings only exemplify functional connections and/or physical or circuit connections. In an actual device, a connection between components may be represented by various functional connections, physical connections, or circuit connections that are replaceable or added.

이하에서, '차량'은 자동차, 버스, 오토바이, 킥보드 또는 트럭과 같이 기관을 가지고 사람이나 물건을 이동시키기 위해 이용되는 모든 종류의 운송 수단을 의미할 수 있다.Hereinafter, a 'vehicle' may mean any type of transportation means used to move people or things with an engine, such as a car, a bus, a motorcycle, a kickboard, or a truck.

이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings.

도 1 내지 도 3은 일 실시예에 따른 자율 주행 방식을 설명하기 위한 도면들이다.1 to 3 are diagrams for explaining an autonomous driving method according to an exemplary embodiment.

도 1을 참조하면, 본 발명의 일 실시예에 따른 자율 주행 장치는, 차량에 장착되어 자율 주행 차량(10)을 구현할 수 있다. 자율 주행 차량(10)에 장착되는 자율 주행 장치는, 주변의 상황 정보를 수집하기 위한 다양한 센서들을 포함할 수 있다. 일례로, 자율 주행 장치는 자율 주행 차량(10)의 전면에 장착된 이미지 센서 및/또는 이벤트 센서를 통해, 전방에서 운행 중인 선행 차량(20)의 움직임을 감지할 수 있다. 자율 주행 장치는 자율 주행 차량(10)의 전면은 물론, 옆 차로에서 운행중인 다른 주행 차량(30)과, 자율 주행 차량(10) 주변의 보행자 등을 감지하기 위한 센서들을 더 포함할 수 있다.Referring to FIG. 1 , an autonomous driving device according to an embodiment of the present invention may be mounted on a vehicle to implement an autonomous driving vehicle 10 . The autonomous driving device mounted on the autonomous driving vehicle 10 may include various sensors for collecting surrounding context information. For example, the autonomous driving device may detect the movement of the preceding vehicle 20 driving in front through an image sensor and/or an event sensor mounted on the front of the autonomous driving vehicle 10 . The autonomous driving device may further include sensors for detecting the front of the autonomous driving vehicle 10 as well as other driving vehicles 30 running in the adjacent lane, and pedestrians in the vicinity of the autonomous driving vehicle 10 .

자율 주행 차량 주변의 상황 정보를 수집하기 위한 센서들 중 적어도 하나는, 도 1에 도시한 바와 같이 소정의 화각(FoV)을 가질 수 있다. 일례로, 자율 주행 차량(10)의 전면에 장착된 센서가 도 1에 도시한 바와 같은 화각(FoV)을 갖는 경우에, 센서의 중앙에서 검출되는 정보가 상대적으로 높은 중요도를 가질 수 있다. 이는, 센서의 중앙에서 검출되는 정보에, 선행 차량(20)의 움직임에 대응하는 정보가 대부분 포함되어 있기 때문일 수 있다.At least one of the sensors for collecting situation information around the autonomous vehicle may have a predetermined angle of view (FoV) as shown in FIG. 1 . For example, when the sensor mounted on the front of the autonomous vehicle 10 has an angle of view (FoV) as shown in FIG. 1 , information detected from the center of the sensor may have a relatively high importance. This may be because information corresponding to the movement of the preceding vehicle 20 is mostly included in the information detected from the center of the sensor.

자율 주행 장치는, 자율 주행 차량(10)의 센서들이 수집한 정보를 실시간으로 처리하여 자율 주행 차량(10)의 움직임을 제어하는 한편, 센서들이 수집한 정보 중에 적어도 일부는 메모리 장치에 저장할 수 있다. The autonomous driving device controls the movement of the autonomous driving vehicle 10 by processing information collected by the sensors of the autonomous driving vehicle 10 in real time, while at least some of the information collected by the sensors may be stored in a memory device. .

도 2를 참조하면, 자율 주행 장치(40)는 센서부(41), 프로세서(46), 메모리 시스템(47), 및 차체 제어 모듈(48) 등을 포함할 수 있다. 센서부(41)는 복수의 센서들(42-45)을 포함하며, 복수의 센서들(42-45)은 이미지 센서, 이벤트 센서, 조도 센서, GPS 장치, 가속도 센서 등을 포함할 수 있다.Referring to FIG. 2 , the autonomous driving device 40 may include a sensor unit 41 , a processor 46 , a memory system 47 , and a vehicle body control module 48 . The sensor unit 41 includes a plurality of sensors 42-45, and the plurality of sensors 42-45 may include an image sensor, an event sensor, an illuminance sensor, a GPS device, an acceleration sensor, and the like.

센서들(42-45)이 수집한 데이터는 프로세서(46)로 전달될 수 있다. 프로세서(46)는 센서들(42-45)이 수집한 데이터를 메모리 시스템(47)에 저장하고, 센서들(42-45)이 수집한 데이터에 기초하여 차체 제어 모듈(48)을 제어하여 차량의 움직임을 결정할 수 있다. 메모리 시스템(47)은 둘 이상의 메모리 장치들과, 메모리 장치들을 제어하기 위한 시스템 컨트롤러를 포함할 수 있다. 메모리 장치들 각각은 하나의 반도체 칩으로 제공될 수 있다.Data collected by the sensors 42 - 45 may be transmitted to the processor 46 . The processor 46 stores the data collected by the sensors 42-45 in the memory system 47, and controls the vehicle body control module 48 based on the data collected by the sensors 42-45 to control the vehicle. can determine the movement of The memory system 47 may include two or more memory devices and a system controller for controlling the memory devices. Each of the memory devices may be provided as one semiconductor chip.

메모리 시스템(47)의 시스템 컨트롤러 외에, 메모리 시스템(47)에 포함되는 메모리 장치들 각각은 메모리 컨트롤러를 포함할 수 있으며, 메모리 컨트롤러는 신경망과 같은 인공지능(AI) 연산 회로를 포함할 수 있다. 메모리 컨트롤러는 센서들(42-45) 또는 프로세서(46)로부터 수신한 데이터에 소정의 가중치를 부여하여 연산 데이터를 생성하고, 연산 데이터를 메모리 칩에 저장할 수 있다. In addition to the system controller of the memory system 47 , each of the memory devices included in the memory system 47 may include a memory controller, and the memory controller may include an artificial intelligence (AI) operation circuit such as a neural network. The memory controller may generate arithmetic data by giving a predetermined weight to data received from the sensors 42 - 45 or the processor 46 , and store the arithmetic data in the memory chip.

도 3은 자율 주행 장치가 탑재된 자율 주행 차량의 센서가 획득한 영상 데이터의 예시를 나타낸 도면이다. 도 3을 참조하면, 영상 데이터(50)는 자율 주행 차량의 전면에 장착된 센서가 획득한 데이터일 수 있다. 따라서 영상 데이터(50)에는 자율 주행 차량의 전면부(51), 자율 주행 차량과 같은 차로의 선행 차량(52), 자율 주행 차량 주변의 주행 차량(53) 및 배경(54) 등이 포함될 수 있다.3 is a diagram illustrating an example of image data acquired by a sensor of an autonomous vehicle equipped with an autonomous driving device. Referring to FIG. 3 , image data 50 may be data acquired by a sensor mounted on the front of the autonomous vehicle. Therefore, the image data 50 may include the front part 51 of the autonomous driving vehicle, the preceding vehicle 52 in the same lane as the autonomous driving vehicle, and the driving vehicle 53 and the background 54 around the autonomous driving vehicle. .

도 3에 도시한 실시예에 따른 영상 데이터(50)에서, 자율 주행 차량의 전면부(51)와 배경(54)이 나타나는 영역의 데이터는 자율 주행 차량의 운행에 영향을 미칠 가능성이 거의 없는 데이터일 수 있다. 다시 말해, 자율 주행 차량의 전면부(51)와 배경(54)은 상대적으로 낮은 중요도를 갖는 데이터로 간주될 수 있다.In the image data 50 according to the embodiment shown in FIG. 3 , data of an area in which the front part 51 and the background 54 of the autonomous vehicle appear is data with little possibility of affecting the operation of the autonomous vehicle. can be In other words, the front part 51 and the background 54 of the autonomous vehicle may be regarded as data having relatively low importance.

반면, 선행 차량(52)과의 거리, 및 주행 차량(53)의 차로 변경 움직임 등은 자율 주행 차량의 안전한 운행에 있어서 매우 중요한 요소일 수 있다. 따라서, 영상 데이터(50)에서 선행 차량(52) 및 주행 차량(53) 등이 포함되는 영역의 데이터는 자율 주행 차량의 운행에 있어서 상대적으로 높은 중요도를 가질 수 있다.On the other hand, the distance from the preceding vehicle 52 and the lane change movement of the driving vehicle 53 may be very important factors in the safe operation of the autonomous vehicle. Accordingly, data of a region including the preceding vehicle 52 and the driving vehicle 53 in the image data 50 may have relatively high importance in driving the autonomous vehicle.

자율 주행 장치의 메모리 장치는, 센서로부터 수신한 영상 데이터(50)의 영역별로 가중치를 다르게 부여하여 저장할 수 있다. 일례로, 선행 차량(52)과 주행 차량(53) 등이 포함되는 영역의 데이터에는 높은 가중치를 부여하고, 자율 주행 차량의 전면부(51)와 배경(54)이 나타나는 영역의 데이터에는 낮은 가중치를 부여할 수 있다.The memory device of the autonomous driving device may store the image data 50 received from the sensor by assigning different weights to each region. For example, a high weight is given to data in an area including the preceding vehicle 52 and the driving vehicle 53 , and a low weight is given to data in an area in which the front part 51 and the background 54 of the autonomous vehicle appear. can be given

도 4는 일 실시예에 따른 이미지 데이터에 포함되는 복수의 객체들 예시를 설명하기 위한 도면이다.4 is a diagram for explaining an example of a plurality of objects included in image data according to an exemplary embodiment.

특정 시점에 차량에 탑재된 카메라로부터 획득된 이미지 데이터에는 복수의 객체들이 포함될 수 있다.A plurality of objects may be included in image data acquired from a camera mounted on a vehicle at a specific point in time.

객체에 관한 정보는 객체 종류 정보 및 객체 속성 정보를 포함한다. 여기에서, 객체 종류 정보는 객체의 종류를 나타내는 인덱스 정보이며, 큰 범위인 그룹과 세부 범위인 클래스로 구성된다. 그리고, 객체 속성 정보는 객체의 현재 상태에 대한 속성 정보를 나타내는 것이며, 움직임 정보, 회전 정보, 교통 정보, 색상 정보, 및 가시성 정보를 포함한다.The information about the object includes object type information and object attribute information. Here, the object type information is index information indicating the type of object, and is composed of a group that is a large range and a class that is a detailed range. And, the object attribute information indicates attribute information on the current state of the object, and includes motion information, rotation information, traffic information, color information, and visibility information.

일 실시예에서, 객체 종류 정보에 포함되는 그룹 및 클래스는 아래의 표 1과 같을 수 있으나, 이에 제한되지 않는다.In an embodiment, the groups and classes included in the object type information may be as shown in Table 1 below, but is not limited thereto.

Figure 112021139360807-pat00001
Figure 112021139360807-pat00001

또한, 객체 속성 정보에 포함되는 정보에는 Action, Rotate, Traffic info, color, Visibility 정보가 포함될 수 있다.In addition, the information included in the object property information may include Action, Rotate, Traffic info, color, and Visibility information.

Action 정보는 객체의 움직임 정보를 표현하며 정차, 주차, 이동 등으로 정의될 수 있다. 차량의 경우 정차, 주차, 이동이 객체 속성 정보로 결정될 수 있고, 신호등과 같이 움직일 수 없는 객체의 경우 디폴트 값인 정지로 객체 속성 정보가 결정될 수 있다.Action information expresses motion information of an object and may be defined as stopping, parking, moving, and the like. In the case of a vehicle, stop, parking, and movement may be determined as object property information, and in the case of an immovable object such as a traffic light, object property information may be determined as a default value of stop.

Rotate 정보는 객체의 회전 정보를 표현하며 정면, 후면, 수평(horizontal), 수직(vertical), 측면 등으로 정의될 수 있다. 차량의 경우 정면, 후면, 측면으로 객체 속성 정보가 정해질 수 있고, 가로 또는 세로 방향의 신호등은 각각 수평 또는 수직으로 객체 속성 정보가 정해질 수 있다.Rotate information represents rotation information of an object and may be defined as front, rear, horizontal, vertical, and side. In the case of a vehicle, object property information may be determined in the front, rear, and side directions, and for a traffic light in a horizontal or vertical direction, object property information may be determined horizontally or vertically, respectively.

Traffic info는 객체의 교통정보를 의미하며, 교통표지판의 지시, 주의, 규제, 보조 표지 등으로 정의될 수 있다. Color는 객체의 색상 정보를 의미하며 객체의 색상, 신호등 및 교통표지판의 색상을 표현할 수 있다. Traffic info means traffic information of an object, and can be defined as an instruction, caution, regulation, auxiliary sign, etc. of a traffic sign. Color refers to the color information of an object, and it can express the color of an object, the color of a traffic light, and a traffic sign.

예를 들어, 특정 차량의 객체 속성 정보는 정차, 정면, 빨간색, visibility level 3으로 결정될 수 있다.For example, object attribute information of a specific vehicle may be determined as stop, front, red, visibility level 3 .

도 4를 참조하면, 카메라로부터 획득된 이미지(400)에 포함된 객체들은 신호등, 표지판, 현재 주행 차로(ego-lane), 교차로, 로드 마킹, 방지턱 등일 수 있으나, 이에 제한되지 않는다.Referring to FIG. 4 , the objects included in the image 400 obtained from the camera may be, but are not limited to, traffic lights, signs, ego-lanes, intersections, road markings, bumps, and the like.

도 5a 내지 도 5b는 일 실시예에 따른 이미지 데이터에 포함된 피쳐 정보를 설명하기 위한 도면이다.5A to 5B are diagrams for explaining feature information included in image data according to an exemplary embodiment.

차량이 도로를 주행함에 따라 차량에 탑재된 카메라로부터 복수의 이미지 데이터가 획득될 수 있다.As the vehicle travels on the road, a plurality of image data may be acquired from a camera mounted on the vehicle.

차량에 탑재된 카메라로부터 획득된 이미지 데이터(510)에는 객체(511)가 포함될 수 있다. 도 5a를 참조하면, 객체(511)는 신호등일 수 있다.An object 511 may be included in the image data 510 obtained from the camera mounted on the vehicle. Referring to FIG. 5A , the object 511 may be a traffic light.

이미지 데이터는 소정의 크기 M x N (M, N은 자연수)을 가질 수 있다. 복수의 이미지 데이터에는 동일한 객체(511)가 포함될 수 있으나, 차량이 도로를 따라 주행함에 따라 차량과 객체(511)의 상대적 위치는 계속 변화하게 되며, 이에 따라 동일한 객체(511)라도 각 이미지 데이터 내에서의 위치가 달라지게 된다.The image data may have a predetermined size M x N (M and N are natural numbers). The plurality of image data may include the same object 511, but as the vehicle travels along the road, the relative positions of the vehicle and the object 511 continue to change. position will change.

각 이미지 데이터에서 동일한 객체가 어떤 것인지 결정하기 위해 이미지 데이터 전체를 이용하는 경우, 데이터 전송량 및 연산량이 상당히 커지게 된다. 이에 따라, 차량에 탑재되는 장치에서 엣지 컴퓨팅을 통해 처리되기 어렵고, 실시간 분석 또한 어렵다.When the entire image data is used to determine which object is the same in each image data, the amount of data transfer and calculation becomes considerably large. Accordingly, it is difficult to process through edge computing in a device mounted on a vehicle, and real-time analysis is also difficult.

도 5b를 참조하면, 이미지 데이터(520)에 포함된 피쳐(521)가 도시된다. 피쳐(521)는 객체(511)에 대한 메타데이터로써, 피쳐 정보에는 객체 종류 정보(그룹, 클래스 등), 이미지 데이터(520) 상의 객체(511)의 위치 정보, 객체(511)의 크기 정보 등이 포함될 수 있다. 도 5b를 참조하면, 피쳐 정보는 해당 객체(511)가 신호등 클래스에 해당한다는 정보와, 직사각형 모양을 갖는다는 정보, 객체(511)의 좌측 아래 꼭지점이 이미지 데이터 상의 (m, n) 에 위치한다는 정보, 그리고 객체(511)의 크기가 a x b 라는 정보를 포함할 수 있다. Referring to FIG. 5B , a feature 521 included in image data 520 is shown. The feature 521 is metadata about the object 511, and the feature information includes object type information (group, class, etc.), location information of the object 511 on the image data 520, size information of the object 511, etc. this may be included. Referring to FIG. 5B , the feature information includes information that the corresponding object 511 corresponds to a traffic light class, information that has a rectangular shape, and that the lower left vertex of the object 511 is located at (m, n) on the image data. Information and information that the size of the object 511 is a x b may be included.

본 개시에서는 이미지 데이터 전체를 이용하지 않고, 객체에 대한 메타데이터에 해당하는 피쳐 정보를 활용함으로써 복수의 이미지 데이터 내에서 동일한 객체가 어떤 것인지 결정할 수 있다. In the present disclosure, instead of using the entire image data, it is possible to determine which object is the same in a plurality of image data by using feature information corresponding to metadata about the object.

도 6a 내지 도 6b는 일 실시예에 따른 이미지 데이터 내 피쳐 병합을 설명하기 위한 예시적인 도면이다.6A to 6B are exemplary diagrams for describing feature merging in image data according to an embodiment.

도 6a를 참조하면, 특정 시점에 차량에 탑재된 카메라로부터 획득된 이미지 데이터들이 도시된다. 제1 이미지 데이터(610)는 제1 시점에 획득된 이미지 데이터이고, 제2 이미지 데이터(620)는 제1 시점으로부터 소정의 시간이 흐른 뒤인 제2 시점에 획득된 이미지 데이터이다.Referring to FIG. 6A , image data acquired from a camera mounted on a vehicle at a specific time is shown. The first image data 610 is image data obtained at a first time point, and the second image data 620 is image data obtained at a second time point after a predetermined time has elapsed from the first time point.

한편, 제1 이미지(601) 및 제2 이미지(602)는 설명을 돕기 위한 것으로써, 카메라에서 촬영된 실제 도로의 모습을 도시하고 있다.Meanwhile, the first image 601 and the second image 602 are provided to help explain, and show an actual road photographed by a camera.

제1 이미지 데이터(610)와 제2 이미지 데이터(620)에는 동일한 객체들이 포함되어 있다.The same objects are included in the first image data 610 and the second image data 620 .

차로 맵 상에 객체의 위치를 결정하는 장치(이하, '객체 위치 결정 장치')는, 복수의 이미지 데이터에서 동일한 객체를 나타내는 복수의 피쳐들을 결정할 수 있다.An apparatus for determining a location of an object on a map by road (hereinafter, an 'object location determining apparatus') may determine a plurality of features representing the same object from a plurality of image data.

도 6a를 참조하면, 제1 이미지 데이터(610)에서는 제1 피쳐 그룹(611)과 제2 피쳐 그룹(612)이 서로 인접하여 위치할 수 있다. 즉, 제1 피쳐 그룹(611) 및 제2 피쳐 그룹(612)에 대응하는 객체들과 차량 간의 거리가 멀리 떨어져 있는 경우, 제1 피쳐 그룹(611) 및 제2 피쳐 그룹(612)에 대응하는 객체들 간의 실제 거리 차이가 반영되지 못하고 제1 이미지 데이터(610) 상에서는 객체들이 서로 인접하여 위치할 수 있다.Referring to FIG. 6A , in the first image data 610 , a first feature group 611 and a second feature group 612 may be positioned adjacent to each other. That is, when the distance between the objects corresponding to the first feature group 611 and the second feature group 612 and the vehicle is far apart, corresponding to the first feature group 611 and the second feature group 612 . The actual distance difference between the objects may not be reflected, and the objects may be located adjacent to each other on the first image data 610 .

반면, 제2 이미지 데이터(620)에서는 제1 피쳐 그룹(621)과 제2 피쳐 그룹(622)이 서로 어느 정도 떨어진 위치에 위치할 수 있다. 즉, 제1 이미지 데이터(610)를 촬영했을 때의 차량의 위치에 비해, 제1 피쳐 그룹(611) 및 제2 피쳐 그룹(612)에 대응하는 객체들과 차량 간의 거리가 가까워진 경우, 제1 피쳐 그룹(611) 및 제2 피쳐 그룹(612)에 대응하는 객체들 간의 실제 거리 차이가 더 반영되어 제2 이미지 데이터(620) 상에서는 객체들이 서로 어느 정도 떨어진 위치에 위치할 수 있다.On the other hand, in the second image data 620 , the first feature group 621 and the second feature group 622 may be located at a certain distance from each other. That is, when the distance between the objects corresponding to the first feature group 611 and the second feature group 612 and the vehicle becomes closer compared to the location of the vehicle when the first image data 610 is captured, the first The difference in actual distance between the objects corresponding to the feature group 611 and the second feature group 612 is further reflected, so that the objects may be located at some distance from each other on the second image data 620 .

한편, 제1 이미지 데이터(610) 및 제2 이미지 데이터(620)에서 제1 피쳐 그룹(611, 621)은 동일한 객체들을 나타내고, 제2 피쳐 그룹(612, 622)은 동일한 객체들을 나타내지만, 이미지 데이터에 따라 크기도 달라질 수 있다.Meanwhile, in the first image data 610 and the second image data 620 , the first feature groups 611 and 621 represent the same objects, and the second feature groups 612 and 622 represent the same objects, but The size may also vary depending on the data.

제1 이미지 데이터(610) 및 제2 이미지 데이터(620)의 예시와 같이, 차량이 주행하는 과정에서 촬영한 이미지 데이터들 상에는 동일한 객체를 나타내는 복수의 피쳐들이 포함될 수 있으나, 차량이 주행하는 과정에서 차량과 객체 간의 위치가 시시각각 변함에 따라 복수의 피쳐들의 위치, 크기, 위치 관계 및 배치 관계 등은 각 이미지 데이터 상에서 서로 달라지게 된다.As in the examples of the first image data 610 and the second image data 620 , a plurality of features representing the same object may be included in image data captured while the vehicle is driving, but in the process of driving the vehicle, As the position between the vehicle and the object changes every moment, the position, size, positional relationship, and arrangement relationship of a plurality of features are different from each other on each image data.

객체 위치 결정 장치는 복수의 이미지 데이터 내 피쳐들을 병합(aggregation)함으로써 복수의 이미지 데이터에서 동일한 객체에 해당하는 복수의 피쳐들을 결정할 수 있다.The object positioning apparatus may determine a plurality of features corresponding to the same object in the plurality of image data by aggregating the features in the plurality of image data.

객체 위치 결정 장치는 이미지 데이터에 포함된 복수의 피쳐들 간의 상관도에 기초하여, 복수의 이미지 데이터에서 동일한 객체에 해당하는 복수의 피쳐들을 결정할 수 있다. 상관도는 복수의 피쳐들 간의 배치 관계, 크기 관계에 기초하여 결정될 수 있으나, 상관도를 결정하는 펙터는 이에 제한되지 않는다.The object positioning apparatus may determine a plurality of features corresponding to the same object in a plurality of image data based on a degree of correlation between a plurality of features included in the image data. The degree of correlation may be determined based on an arrangement relationship and a size relationship between the plurality of features, but the factor determining the degree of correlation is not limited thereto.

일 실시예에서, 객체 위치 결정 장치는 그래프-매칭(graph-matching) 방법을 이용하여 복수의 이미지 데이터에서 동일한 객체를 나타내는 복수의 피쳐들을 결정할 수 있다.In an embodiment, the object positioning apparatus may determine a plurality of features representing the same object from a plurality of image data using a graph-matching method.

객체 위치 결정 장치는 이미지 데이터에서 키(key) 피쳐를 포함하는 복수의 피쳐들을 노드로 지정하고 복수의 피쳐들 간 연결 관계를 링크로 설정하여, 노드와 링크로 구성된 그래프를 등록할 수 있다. 또한, 객체 위치 결정 장치는 서로 다른 이미지 데이터로부터 등록된 그래프 간의 비교를 통해, 각 이미지 데이터 내에서 키 피쳐들이 동일한 객체를 나타내는지 여부를 결정할 수 있다.The object positioning apparatus may register a graph composed of nodes and links by designating a plurality of features including a key feature as nodes in the image data and setting a connection relationship between the plurality of features as links. Also, the object positioning apparatus may determine whether key features in each image data represent the same object through comparison between graphs registered from different image data.

구체적으로, 객체 위치 결정 장치는 제1 이미지 데이터의 제1 피쳐(611a) 및 제2 이미지 데이터(620)의 제2 피쳐(621a)를 선택하고, 제1 피쳐(611a) 및 제2 피쳐(621a) 주변의 다른 피쳐를 탐색할 수 있다. 객체 위치 결정 장치는 제1 피쳐(611a) 주변의 제1 이웃 피쳐(neighbor feature)(611b)와 속성이 유사한 제2 이웃 피쳐(621b)가 제2 피쳐(621a) 주변에 존재하는 경우, 제1 이웃 피쳐(611b) 및 제2 이웃 피쳐(621b) 각각에 대해 제1 피쳐(611a) 및 제2 피쳐(621a)를 키(key) 피쳐로 하는 그래프로 등록할 수 있다. 여기서, 속성은 클래스(class), 피쳐의 가로/세로 비율, 거리 및 각도 중 적어도 하나를 포함할 수 있다.Specifically, the object positioning apparatus selects the first feature 611a of the first image data and the second feature 621a of the second image data 620, and the first feature 611a and the second feature 621a ) to explore other nearby features. The object positioning apparatus determines that when a second neighboring feature 621b having properties similar to a first neighbor feature 611b around the first feature 611a exists around the second feature 621a, the first A graph using the first feature 611a and the second feature 621a as key features may be registered for each of the neighboring feature 611b and the second neighboring feature 621b. Here, the attribute may include at least one of a class, an aspect ratio of a feature, a distance, and an angle.

객체 위치 결정 장치는 제1 피쳐(611a) 주변의 모든 피쳐를 대상으로 탐색하는 단계 및 등록하는 단계를 반복할 수 있다. 객체 위치 결정 장치는 제1 피쳐(611a) 주변의 모든 피쳐를 대상으로 그래프 구성을 시도한 후, 피쳐의 개수, 등록된 키 피쳐의 유사도(예를 들어, 크기, 이웃 피쳐와의 크기 관계 등)에 기초하여, 제1 피쳐(611a)와 제2 피쳐(621a) 간의 유사도를 산출할 수 있다. 객체 위치 결정 장치는 제2 이미지 데이터(620)의 제2 피쳐(621a)를 제외한 나머지 피쳐에 대해, 탐색하는 단계, 그래프로 등록하는 단계, 반복하는 단계 및 유사도를 산출하는 단계를 수행함으로써, 제1 이미지 데이터(610)의 제1 피쳐(611a)와 유사도가 가장 높은 제2 이미지 데이터(620)의 제2 피쳐(621a)가, 동일한 객체를 나타내는 것으로 결정할 수 있다.The object positioning apparatus may repeat the steps of searching and registering all the features around the first feature 611a as a target. After attempting to construct a graph for all the features around the first feature 611a, the object positioning device determines the number of features and the similarity of the registered key features (eg, size, size relationship with neighboring features, etc.) Based on the similarity between the first feature 611a and the second feature 621a may be calculated. The object positioning apparatus performs the steps of searching, registering as a graph, repeating, and calculating the similarity with respect to the remaining features except for the second feature 621a of the second image data 620. It may be determined that the first feature 611a of the first image data 610 and the second feature 621a of the second image data 620 having the highest similarity represent the same object.

본 개시에서는 이미지 데이터 전체를 이용하지 않고, 객체에 대한 메타데이터에 해당하는 피쳐 정보를 활용활 수 있다. 이로써, 본 개시에서는 차량이 주행하는 과정에서 차량과 객체 간의 위치가 시시각각 변함에 따라 복수의 피쳐들의 위치, 크기, 위치 관계 및 배치 관계 등이 각 이미지 데이터 상에서 서로 달라지더라도, 복수의 이미지 데이터 내에서 동일한 객체가 어떤 것인지 결정할 수 있다.In the present disclosure, it is possible to utilize feature information corresponding to metadata about an object without using the entire image data. Accordingly, in the present disclosure, as the position between the vehicle and the object changes every moment in the process of driving the vehicle, even if the position, size, positional relationship, and arrangement relationship of a plurality of features are different on each image data, within the plurality of image data can be determined which is the same object in .

한편, 객체 위치 결정 장치는 그래프에 포함된 피쳐들이 동일한 깊이(depth)를 갖는 것으로 결정할 수 있다. 동일한 깊이를 갖는다는 것은, 도로의 횡방향(차량의 주행 방향) 위치가 동일하거나 소정 범위 내(예를 들어, 1m)인 것을 의미할 수 있다.Meanwhile, the object positioning apparatus may determine that features included in the graph have the same depth. Having the same depth may mean that the position in the lateral direction of the road (the driving direction of the vehicle) is the same or within a predetermined range (eg, 1 m).

객체 위치 결정 장치는 소정의 피쳐에 대해 후처리를 수행하는 경우, 동일한 깊이를 갖는 그래프에 포함된 나머지 피쳐들에 대해서도 동일한 후처리를 수행할 수 있다.When the object positioning apparatus performs post-processing on a predetermined feature, the same post-processing may be performed on the remaining features included in the graph having the same depth.

도 6a를 참조하면, 객체 위치 결정 장치는 제1 피쳐 그룹(611, 621)에 포함된 복수의 피쳐들은 서로 동일한 깊이를 갖고, 제2 피쳐 그룹(612, 622)에 포함된 복수의 피쳐들은 서로 동일한 깊이를 갖는 것으로 결정할 수 있다. 이 경우, 객체 위치 결정 장치는 제1 피쳐 그룹(611, 621)에 포함된 소정의 피쳐에 대해 위치를 보정하는 경우, 제1 피쳐 그룹(611, 621)에 포함된 나머지 피쳐에 대해서도 동일하게 위치를 보정할 수 있다.Referring to FIG. 6A , in the object positioning apparatus, the plurality of features included in the first feature groups 611 and 621 have the same depth, and the plurality of features included in the second feature groups 612 and 622 are mutually exclusive. It can be determined to have the same depth. In this case, when the object positioning apparatus corrects the position of a predetermined feature included in the first feature groups 611 and 621 , the same position is also applied to the remaining features included in the first feature groups 611 and 621 . can be corrected.

도 6b를 참조하면, 특정 시점에 차량에 탑재된 카메라로부터 획득된 이미지 데이터들이 도시된다. 차량 주행 중에 차량의 도로 종방향 위치가 변경될 수 있다 (예를 들어, 차로 변경). 제1 이미지 데이터(630)는 도로의 1차로를 주행하는 차량에서 촬영된 이미지 데이터이고, 제2 이미지 데이터(640)는 도로의 4차로를 주행하는 차량에서 촬영된 이미지 데이터이다.Referring to FIG. 6B , image data acquired from a camera mounted on a vehicle at a specific point in time is illustrated. The vehicle's longitudinal position on the road may change (eg change lanes) while the vehicle is running. The first image data 630 is image data photographed by a vehicle traveling on the first lane of the road, and the second image data 640 is image data photographed by a vehicle traveling on the fourth lane of the road.

한편, 제1 이미지(603) 및 제2 이미지(604)는 설명을 돕기 위한 것으로써, 카메라에서 촬영된 실제 도로의 모습을 도시하고 있다.Meanwhile, the first image 603 and the second image 604 are for illustrative purposes, and show the appearance of an actual road photographed by a camera.

제1 이미지 데이터(630)와 제2 이미지 데이터(640)에는 동일한 객체들이 포함되어 있다.The same objects are included in the first image data 630 and the second image data 640 .

객체 위치 결정 장치는 복수의 이미지 데이터에서 동일한 객체를 나타내는 복수의 피쳐들을 결정할 수 있다.The object positioning apparatus may determine a plurality of features representing the same object from a plurality of image data.

도 6b를 참조하면, 제1 이미지 데이터(630)에서는 제1 피쳐 그룹(631)과 제2 피쳐 그룹(632)이 서로 인접하여 위치할 수 있다. 또한, 제1 피쳐 그룹(631)이 제2 피쳐 그룹(632)의 우측 편에 위치할 수 있다. 즉, 차량이 1차로에서 주행 중인 상태에서 촬영한 제1 이미지 데이터(630) 상에서는 차량과 복수의 객체들 간의 상대적 위치 관계에 따라 제1 피쳐 그룹(631)과 제2 피쳐 그룹(632) 간의 배치 관계가 상술한 것과 같이 결정될 수 있다.Referring to FIG. 6B , in the first image data 630 , a first feature group 631 and a second feature group 632 may be positioned adjacent to each other. Also, the first feature group 631 may be positioned on the right side of the second feature group 632 . That is, the arrangement between the first feature group 631 and the second feature group 632 according to the relative positional relationship between the vehicle and the plurality of objects on the first image data 630 captured while the vehicle is driving in the first lane. The relationship may be determined as described above.

반면, 제2 이미지 데이터(640)에서는 제1 피쳐 그룹(641)과 제2 피쳐 그룹(642)이 서로 어느 정도 떨어진 위치에 위치할 수 있다. 또한, 제1 피쳐 그룹(641)이 제2 피쳐 그룹(642)의 좌측 편에 위치할 수 있다. 즉, 차량이 4차로에서 주행 중인 상태에서 촬영한 제2 이미지 데이터(640) 상에서는 차량과 복수의 객체들 간의 상대적 위치 관계에 따라 제1 피쳐 그룹(641)과 제2 피쳐 그룹(642) 간의 배치 관계가 상술한 것과 같이 결정될 수 있다.On the other hand, in the second image data 640 , the first feature group 641 and the second feature group 642 may be located at a certain distance from each other. Also, the first feature group 641 may be positioned on the left side of the second feature group 642 . That is, the arrangement between the first feature group 641 and the second feature group 642 according to the relative positional relationship between the vehicle and the plurality of objects on the second image data 640 taken while the vehicle is driving in the four lanes. The relationship may be determined as described above.

한편, 제1 이미지 데이터(630) 및 제2 이미지 데이터(640)에서 제1 피쳐 그룹(631, 641)은 동일한 객체들을 나타내고, 제2 피쳐 그룹(632, 642)은 동일한 객체들을 나타내지만, 이미지 데이터에 따라 크기도 달라질 수 있다.Meanwhile, in the first image data 630 and the second image data 640 , the first feature groups 631 and 641 represent the same objects, and the second feature groups 632 and 642 represent the same objects, but images The size may also vary depending on the data.

제1 이미지 데이터(630) 및 제2 이미지 데이터(640)의 예시와 같이, 차량이 주행하는 과정에서 촬영한 이미지 데이터들 상에는 동일한 객체를 나타내는 복수의 피쳐들이 포함될 수 있으나, 차량이 어느 차로를 주행하는지에 따라 차량과 객체 간의 위치가 달라짐에 따라 복수의 피쳐들의 위치, 크기, 위치 관계 및 배치 관계 등은 각 이미지 데이터 상에서 서로 달라지게 된다.As in the examples of the first image data 630 and the second image data 640 , a plurality of features representing the same object may be included in image data captured while the vehicle is driving, but the vehicle is driving in a certain lane. As the position between the vehicle and the object varies depending on the function, the position, size, positional relationship, and arrangement relationship of a plurality of features are different from each other on each image data.

객체 위치 결정 장치는 복수의 이미지 데이터 내 피쳐들을 병합함으로써 복수의 이미지 데이터에서 동일한 객체에 해당하는 복수의 피쳐들을 결정할 수 있다.The object positioning apparatus may determine a plurality of features corresponding to the same object in the plurality of image data by merging the features in the plurality of image data.

객체 위치 결정 장치는 이미지 데이터에 포함된 복수의 피쳐들 간의 상관도에 기초하여, 복수의 이미지 데이터에서 동일한 객체에 해당하는 복수의 피쳐들을 결정할 수 있다.The object positioning apparatus may determine a plurality of features corresponding to the same object in a plurality of image data based on a degree of correlation between a plurality of features included in the image data.

도 6b에서 상술한 방법을 이용하여 객체 위치 결정 장치는 복수의 이미지 데이터에서 동일한 객체에 해당하는 복수의 피쳐들을 결정할 수 있다.Using the method described above in FIG. 6B , the object positioning apparatus may determine a plurality of features corresponding to the same object from a plurality of image data.

본 개시에서는 이미지 데이터 전체를 이용하지 않고, 객체에 대한 메타데이터에 해당하는 피쳐 정보를 활용할 수 있다. 이로써, 본 개시에서는 차량이 서로 다른 주행 차로에서 주행하여 차량과 객체 간의 위치가 달라짐에 따라 복수의 피쳐들의 위치, 크기, 위치 관계 및 배치 관계 등이 각 이미지 데이터 상에서 서로 달라지더라도, 복수의 이미지 데이터 내에서 동일한 객체가 어떤 것인지 결정할 수 있다.In the present disclosure, instead of using the entire image data, feature information corresponding to metadata about an object may be used. Accordingly, in the present disclosure, even if the location, size, positional relationship, and arrangement relationship of a plurality of features are different on each image data as the location between the vehicle and the object changes as the vehicle travels in different driving lanes, the plurality of images You can determine which objects are identical within your data.

도 7은 일 실시예에 따른 차로 맵 상에 객체의 위치를 결정하는 방법을 설명하기 위한 예시적인 도면이다.7 is an exemplary diagram for describing a method of determining a location of an object on a road map according to an exemplary embodiment.

객체 위치 결정 장치는 차량에 탑재된 GPS를 이용하여 차량의 위치 정보를 획득할 수 있다. 차량의 위치 정보는 차로 맵 상의 위치 정보일 수 있다.The object positioning apparatus may acquire location information of the vehicle using a GPS mounted on the vehicle. The location information of the vehicle may be location information on a road map.

또한, 객체 위치 결정 장치는 복수의 이미지 데이터 내에서 동일한 객체에 해당하는 것으로 결정된 복수의 피쳐들의 이미지 데이터 내 위치 정보를 이용하여 차로 맵 상에 객체의 위치를 결정할 수 있다.Also, the object positioning apparatus may determine the location of the object on the road map by using location information in the image data of a plurality of features determined to correspond to the same object in the plurality of image data.

도 7을 참조하면, 도 6a 내지 도 6b에서 설명한 바와 같이 제1 이미지 데이터(630) 및 제2 이미지 데이터(640)에서 제1 피쳐 그룹(631, 641)은 동일한 객체들을 나타내고, 제2 피쳐 그룹(632, 642)은 동일한 객체들을 나타낼 수 있다.Referring to FIG. 7 , as described with reference to FIGS. 6A to 6B , in the first image data 630 and the second image data 640 , the first feature groups 631 and 641 represent the same objects, and the second feature group (632, 642) may represent the same objects.

일 실시예에서 객체 위치 결정 장치는 차량에 연결된 위치 확인 장치를 통해 획득된 차로 맵 상의 위치 정보와, 제1 이미지 데이터(630) 및 제2 이미지 데이터(640)를 이용하여 차로 맵 상에 객체의 위치를 결정할 수 있다. 한편, 객체 위치 결정 장치는 차로 맵 상에 객체의 위치를 결정하기 위해 한 개 또는 세 개 이상의 이미지 데이터를 이용할 수도 있다.In an embodiment, the object positioning device uses the location information on the road map obtained through the location checking device connected to the vehicle, and the first image data 630 and the second image data 640 of the object on the road map. location can be determined. Meanwhile, the object positioning apparatus may use one or three or more image data to determine the location of the object on the road map.

도 7을 참조하면, 객체 위치 결정 장치는 제1 피쳐 그룹(631, 641)에 대응하는 제1 객체 그룹(710)의 위치 및 제2 피쳐 그룹(632, 642)에 대응하는 제2 객체 그룹(720)의 위치를 결정하고, 차로 맵(700) 상에 표시할 수 있다.Referring to FIG. 7 , the apparatus for determining an object position includes a position of a first object group 710 corresponding to the first feature group 631 and 641 and a second object group corresponding to the second feature group 632 and 642 ( The location of 720 ) may be determined and displayed on the road map 700 .

도 8은 일 실시예에 따른 차량의 위치 정보와 이미지 상의 피쳐 위치에 기초하여 객체의 위치를 결정하는 방법을 설명하기 위한 예시적인 도면이다.8 is an exemplary view for explaining a method of determining a position of an object based on position information of a vehicle and a position of a feature on an image according to an embodiment.

도 8을 참조하면, 차량(800)은 주행 경로를 따라 제1 위치에서 제2 위치로 이동하고 있다.Referring to FIG. 8 , the vehicle 800 is moving from a first position to a second position along a driving path.

객체 위치 결정 장치는 차량(800)에 탑재된 GPS 또는 차량에 연결된 위치 확인 장치 등을 이용하여 차량(800)의 위치 정보를 획득할 수 있다. 객체 위치 결정 장치는 차량(800)의 위치 정보를 이용하여 차량(800)의 차선 맵 상의 위치 정보를 획득할 수 있다.The object positioning device may acquire location information of the vehicle 800 using a GPS mounted on the vehicle 800 or a location checking device connected to the vehicle. The object positioning apparatus may obtain location information on a lane map of the vehicle 800 by using location information of the vehicle 800 .

객체 위치 결정 장치는 차량(800)에 탑재된 카메라(830)로부터 차량(800)의 주변(전방, 측방, 후방 등) 이미지 데이터(810a, 810b)를 획득할 수 있다. The object positioning apparatus may obtain peripheral (front, side, rear, etc.) image data 810a and 810b of the vehicle 800 from the camera 830 mounted on the vehicle 800 .

제1 이미지 데이터(810a)는 차량(800)이 제1 위치에 위치할 때 카메라(830)에서 촬영된 이미지 데이터이고, 제2 이미지 데이터(810b)는 차량(800)이 제2 위치에 위치할 때 카메라(830)에서 촬영된 이미지 데이터이다.The first image data 810a is image data captured by the camera 830 when the vehicle 800 is located at the first position, and the second image data 810b is the image data when the vehicle 800 is located at the second position. This is image data captured by the camera 830 when the

제1 이미지 데이터(810a)에는 제1 피쳐(811)가 포함되고, 제2 이미지 데이터(810b)에는 제2 피쳐(812)가 포함될 수 있다. 제1 피쳐(811)와 제2 피쳐(812)는 동일한 객체인 신호등(820)을 나타낸다.The first image data 810a may include a first feature 811 , and the second image data 810b may include a second feature 812 . The first feature 811 and the second feature 812 represent the same object, the traffic light 820 .

제1 피쳐(811)와 제2 피쳐(812)는 동일한 객체를 나타내지만, 차량(800)이 제1 위치에서 제2 위치로 이동하게 되면, 차량(800)과 신호등(820) 간 상대적 거리가 달라지게 되고, 이에 따라 차량(800)의 카메라(830)에서 촬영된 각 이미지 데이터(810a, 810b) 내에서 신호등(820)을 나타내는 피쳐(811, 812)의 위치 및 크기 등이 달라지게 된다.Although the first feature 811 and the second feature 812 represent the same object, when the vehicle 800 moves from the first position to the second position, the relative distance between the vehicle 800 and the traffic light 820 is The position and size of the features 811 and 812 indicating the traffic light 820 in each image data 810a and 810b captured by the camera 830 of the vehicle 800 are changed accordingly.

객체 위치 결정 장치는 차량(800)의 차로 맵 상의 위치 정보 및 이미지 데이터(810a, 810b) 상의 피쳐(811, 812) 위치 정보에 기초하여 차로 맵 상의 객체(820)의 위치를 결정할 수 있다.The object positioning apparatus may determine the location of the object 820 on the road map based on location information of the vehicle 800 on the road map and location information of the features 811 and 812 on the image data 810a and 810b.

일 실시예에서, 객체 위치 결정 장치는 거리 측정 방식을 이용하여 차로 맵 상의 객체(820)의 위치를 결정할 수 있으나, 차로 맵 상의 객체(820)의 위치를 결정하는 방식은 이에 제한되지 않는다.In an embodiment, the object positioning apparatus may determine the location of the object 820 on the road map by using a distance measurement method, but the method of determining the location of the object 820 on the road map is not limited thereto.

일 실시예에서, 객체 위치 결정 장치는 카메라(830)의 자세값을 획득할 수 있다. 카메라(830)의 자세값은, 카메라(830)의 설치 위치, 설치 방향, 설치 각도에 관한 팩터를 포함할 수 있다.In an embodiment, the object positioning apparatus may acquire the posture value of the camera 830 . The posture value of the camera 830 may include factors related to an installation position, an installation direction, and an installation angle of the camera 830 .

도 8을 참조하면, 객체 위치 결정 장치는 카메라(830)의 자세값을 고려하여, 카메라(830)에서 출발하여 이미지 데이터(810a, 810b) 상의 피쳐(811, 812)를 통과하는 가상의 광선들(rays)이 만나는 지점의 위치를 결정할 수 있다. Referring to FIG. 8 , the object positioning apparatus considers the attitude value of the camera 830 , and virtual rays passing through the features 811 and 812 on the image data 810a and 810b from the camera 830 . You can determine the location of the point where (rays) meet.

구체적으로, 차량(800)이 제1 위치에서 제2 위치로 주행 중일 수 있다. 제1 위치에 위치한 차량(800)의 카메라(830)에서 촬영된 제1 이미지 데이터(810a)에는 객체(820)를 나타내는 피쳐(811)가 표시되고, 제2 위치에 위치한 차량(800)의 카메라(830)에서 촬영된 제2 이미지 데이터(810b)에는 객체(820)를 나타내는 피쳐(812)가 표시될 수 있다. 객체 위치 결정 장치는 제1 위치의 차량(800)의 카메라(830)에서 출발하여 제1 이미지 데이터(810a) 상의 피쳐(811)를 통과하는 가상의 제1 광선(841)과, 제2 위치의 차량(800)의 카메라(830)에서 출발하여 제2 이미지 데이터(810b) 상의 피쳐(812)를 통과하는 가상의 제2 광선(842)이 서로 만나는 지점의 위치(850)를 결정할 수 있다.Specifically, the vehicle 800 may be traveling from the first position to the second position. A feature 811 representing the object 820 is displayed in the first image data 810a captured by the camera 830 of the vehicle 800 located at the first position, and the camera of the vehicle 800 located at the second position is displayed. A feature 812 representing the object 820 may be displayed in the second image data 810b captured in operation 830 . The object positioning device includes an imaginary first ray 841 that starts from the camera 830 of the vehicle 800 at a first position and passes through a feature 811 on the first image data 810a, and A location 850 of a point where a virtual second light ray 842 starting from the camera 830 of the vehicle 800 and passing through the feature 812 on the second image data 810b meets each other may be determined.

객체 위치 결정 장치는 차량(800)의 이동 거리 및 가상의 광선들이 만나는 지점의 위치에 기초하여 차로 맵 상의 객체(820)의 위치를 결정할 수 있다.The object positioning apparatus may determine the location of the object 820 on the road map based on the moving distance of the vehicle 800 and the location of the point where the virtual rays meet.

구체적으로, 객체 위치 결정 장치는 제1 광선(841) 및 제2 광선(842)이 만나는 지점의 위치(850)와, 차량(800)이 제1 위치에서 제2 위치로 이동한 거리를 이용하여, 객체(820)의 차선 맵 상의 위치를 결정할 수 있다.Specifically, the object positioning apparatus uses a position 850 of a point where the first ray 841 and the second ray 842 meet, and the distance the vehicle 800 moves from the first position to the second position. , the location of the object 820 on the lane map may be determined.

일 실시예에서, 객체 위치 결정 장치는 차량(800)의 자세값을 더 획득할 수 있다. 차량(800)의 자세값은, 차량(800)이 주행 중인 도로의 경사도, 차량(800)의 타이어 간 공기압 차이, 차량(800)의 조향 각에 관한 팩터를 포함할 수 있다.In an embodiment, the object positioning apparatus may further acquire an attitude value of the vehicle 800 . The attitude value of the vehicle 800 may include a factor related to a slope of a road on which the vehicle 800 is traveling, a difference in air pressure between tires of the vehicle 800 , and a steering angle of the vehicle 800 .

객체 위치 결정 장치는 카메라(830)의 자세값 및 차량(800)의 자세값을 고려하여, 카메라(830)에서 출발하여 이미지 데이터(810a, 810b) 상의 피쳐(811, 812)를 통과하는 가상의 광선들(rays)이 만나는 지점의 위치를 결정할 수 있다. 도 9는 일 실시예에 따른 복수의 주행 궤적을 이용하여 차로 맵 상에 객체의 위치를 결정하는 방법을 설명하기 위한 예시적인 도면이다.The object positioning apparatus considers the attitude value of the camera 830 and the attitude value of the vehicle 800, and starts from the camera 830 and passes through the features 811 and 812 on the image data 810a, 810b. It is possible to determine the location of the point where the rays meet. 9 is an exemplary diagram for describing a method of determining a location of an object on a road map using a plurality of driving trajectories, according to an exemplary embodiment.

도 9를 참조하면, 소정의 도로를 주행한 차량의 제1 궤적(910) 및 제2 궤적(920)이 도시된다. 도 9에서, 제1-1 객체(911)의 위치 및 제1-2 객체(921)의 위치는, 차량이 제1 궤적(910)을 따라 주행하는 과정에서 촬영된 복수의 이미지 데이터에 기초하여 결정된 위치이다. 또한, 제2-1 객체(912)의 위치 및 제2-2 객체(922)의 위치는, 차량이 제2 궤적(920)을 따라 주행하는 과정에서 촬영된 복수의 이미지 데이터에 기초하여 결정된 위치이다. Referring to FIG. 9 , a first trajectory 910 and a second trajectory 920 of a vehicle traveling on a predetermined road are shown. In FIG. 9 , the position of the 1-1 object 911 and the position of the 1-2 th object 921 are determined based on a plurality of image data captured while the vehicle travels along the first trajectory 910 . a determined position. In addition, the position of the 2-1 object 912 and the position of the 2-2 object 922 are positions determined based on a plurality of image data captured while the vehicle travels along the second trajectory 920 . to be.

제1-1 객체(911) 및 제1-2 객체(921)는 제1 그룹 객체들로 지칭되고, 제2-1 객체(912) 및 제2-2 객체(922)는 제2 그룹 객체들로 지칭하기로 한다.The 1-1 object 911 and the 1-2 object 921 are referred to as first group objects, and the 2-1 object 912 and the 2-2 object 922 are second group objects. to be referred to as

객체 위치 결정 장치는, 제1 그룹 객체들을 이용하여 제1 그래프를 구성하고, 제2 그룹 객체들을 이용하여 제2 그래프를 구성하고, 제1 그래프 및 제2 그래프 간의 유사도 비교를 통해 제1 그룹 객체들과 제2 그룹 객체들에서 동일한 객체를 결정할 수 있다.The object positioning device configures a first graph using the first group objects, configures a second graph using the second group objects, and compares the similarity between the first graph and the second graph to the first group object It is possible to determine the same object in the group objects and the second group objects.

구체적으로, 객체 위치 결정 장치는 객체들 간의 상관도를 산출하기 위해, 차량 별 또는 시간 별로 생성된 소정의 객체를 대상으로, 소정의 객체 주변(예를 들어, 차로로부터 유사한 거리 및 방향)에 동일한 클래스의 객체가 존재하는 경우 그래프에 등록하고, 위치 등을 기반으로 유사도를 계산하여 가장 높은 유사도를 갖는 객체들을 동일한 객체인 것으로 결정할 수 있다.Specifically, in order to calculate the degree of correlation between the objects, the object positioning apparatus targets a predetermined object generated for each vehicle or each time, and is located in the vicinity of the predetermined object (eg, a similar distance and direction from the road). When an object of a class exists, it can be registered in the graph, and the objects having the highest similarity can be determined to be the same object by calculating the similarity based on the location.

객체 위치 결정 장치는 제1-1 객체(911) 주변에 동일한 클래스의 제1-2 객체(921)가 존재하는 경우, 제1-1 객체(911)와 제1-2 객체(921)로 제1 그래프로 구성하고, 제2-1 객체(912)와 제2-2 객체(922)로 제2 그래프로 구성할 수 있다. 객체 위치 결정 장치는 그래프에서 각 객체를 키(key) 객체로 하여 유사도를 비교함으로써, 각 그래프에서 동일한 객체를 어떤 것인지 결정할 수 있다.When a 1-21 object 921 of the same class exists around the 1-1 object 911, the object positioning device divides the object into the 1-1 object 911 and the 1-2 object 921. One graph may be configured, and a second graph may be configured with a 2-1 object 912 and a 2-2 object 922 . The object positioning apparatus may determine which object is the same in each graph by comparing the similarity by using each object as a key object in the graph.

도 9에서, 객체 위치 결정 장치는, 제1-1 객체(911)와 제2-1 객체(912)가 동일한 객체를 나타내고, 제1-2 객체(921)와 제2-2 객체(922)가 동일한 객체를 나타내는 것으로 결정할 수 있다.In FIG. 9 , in the object positioning apparatus, a 1-1 object 911 and a 2-1 object 912 represent the same object, and a 1-2 th object 921 and a 2-2 object 922 . can be determined to represent the same object.

객체 위치 결정 장치는 동일한 객체로 결정된 객체들의 위치를 병합하여 각 객체들에 대한 최종 위치를 차로 맵(900) 상에 표시할 수 있다.The object positioning apparatus may merge positions of objects determined to be the same object and display final positions for each object on the road map 900 .

도 9에서, 객체 위치 결정 장치는 제1-1 객체(911)와 제1-2 객체(921)의 위치를 병합하여 제1-3 객체(931)의 위치를 최종 위치로 결정할 수 있다. 또한, 객체 위치 결정 장치는 제2-1 객체(912)와 제2-2 객체(922)의 위치를 병합하여 제 2-3 객체(932)의 위치를 최종 위치로 결정할 수 있다.In FIG. 9 , the apparatus for determining an object position may determine the position of the 1-3 th object 931 as the final position by merging the positions of the 1-1 object 911 and the 1-2 th object 921 . Also, the apparatus for determining an object position may determine the position of the 2-3 th object 932 as the final position by merging the positions of the 2-1 th object 912 and the 2-2 nd object 922 .

도 10은 일 실시예에 따른 차로 피팅 및 객체 피팅 방법을 설명하기 위한 예시적인 도면이다.10 is an exemplary diagram for describing a vehicle fitting method and an object fitting method according to an exemplary embodiment.

객체 위치 결정 장치는 차량에 연결된 위치 확인 장치를 이용하여 차량의 주행 궤적을 획득할 수 있다. 위치 확인 장치는 GPS일 수 있으며, 이하에서는 위치 확인 장치로 GPS가 이용되는 것을 전제로 한다. 또한, 객체 위치 결정 장치는 획득된 주행 궤적을 차로 맵(1000)에 매핑시켜, 주행 궤적을 차로 맵(1000)에 표시할 수 있다.The object positioning device may acquire the driving trajectory of the vehicle using a positioning device connected to the vehicle. The positioning device may be a GPS. Hereinafter, it is assumed that the GPS is used as the positioning device. Also, the object positioning apparatus may map the obtained driving trajectory to the road map 1000 and display the driving trajectory on the road map 1000 .

도 10을 참조하면, 객체 위치 결정 장치는 차량에 탑재된 GPS를 이용하여 제1 주행 궤적(1011)을 획득하고, 이를 차로 맵(1000)에 표시할 수 있다.Referring to FIG. 10 , the object positioning apparatus may obtain a first driving trajectory 1011 using a GPS mounted on a vehicle and display it on the road map 1000 .

한편, 다양한 원인으로 인해 차량에 탑재된 GPS에서 수신한 GPS 신호는 오차를 가질 수 있다. 예를 들어, 차량이 건물이 밀집한 골목 사이를 지나는 경우 GPS 신호 수신이 일시적으로 불안정할 수 있다. 또는, 건물의 유리면에 의해 반사되는 전파 때문에, 차량은 오차를 가지는 GPS 신호를 수신할 수 있다. Meanwhile, due to various causes, a GPS signal received from a GPS mounted on a vehicle may have an error. For example, GPS signal reception may be temporarily unstable when a vehicle passes through an alley with dense buildings. Alternatively, due to radio waves reflected by the glass surface of the building, the vehicle may receive an erroneous GPS signal.

객체 위치 결정 장치는 차량의 현재 주행 차로를 결정할 수 있다. 현재 주행 차로에 대한 정보는 피쳐 정보에 포함된 정보일 수 있다.The object positioning apparatus may determine a current driving lane of the vehicle. The information on the current driving lane may be information included in the feature information.

객체 위치 결정 장치는 차량의 현재 주행 차로가 소정의 차로(1030)인 것으로 결정할 수 있다. 이 경우, 객체 위치 결정 장치는 GPS 신호로부터 획득한 제1 주행 궤적(1011)이 소정의 차로(1030)와 불일치하는 것으로 확인할 수 있다. 구체적으로, 객체 위치 결정 장치는 GPS 신호로부터 획득한 제1 주행 궤적(1011)이 소정의 차로(1030) 간의 이격 거리를 산출하고, 이격 거리가 임계값을 초과하는 경우 제1 주행 궤적(1011)이 소정의 차로(1030)와 불일치하는 것으로 결정할 수 있다. 이는, 차량이 현재 소정의 차로(1030)로 주행 중인데도 불구하고 GPS 신호의 오차로 인해 제1 주행 궤적(1011)과 소정의 차로(1030)가 불일치하는 경우일 수 있다.The object positioning apparatus may determine that the current driving lane of the vehicle is a predetermined lane 1030 . In this case, the object positioning apparatus may determine that the first driving trajectory 1011 obtained from the GPS signal does not match the predetermined lane 1030 . Specifically, the object positioning device calculates the separation distance between the first driving trajectory 1011 obtained from the GPS signal and the predetermined lane 1030, and when the separation distance exceeds a threshold value, the first driving trajectory 1011 It may be determined that it does not match with the predetermined lane 1030 . This may be a case where the first driving trajectory 1011 and the predetermined lane 1030 do not match due to an error in the GPS signal even though the vehicle is currently driving in the predetermined lane 1030 .

객체 위치 결정 장치는 피쳐 정보에 포함된 현재 주행 차로에 기초하여, 차량의 주행 궤적이 차로 맵 상의 차로에 피팅되도록 차로 피팅(lane fitting)을 수행할 수 있다. The object positioning apparatus may perform lane fitting so that the driving trajectory of the vehicle is fitted to the lane on the lane map based on the current driving lane included in the feature information.

구체적으로, 객체 위치 결정 장치는 차량의 주행 궤적과 차로 맵 상의 차로 표시선 간의 이격 거리 및 곡률 등을 고려하여 차로 피팅을 수행할 수 있다. 객체 위치 결정 장치는 차량의 주행 궤적 중 적어도 일부는 선형 이동시키고, 적어도 일부의 곡률을 조정함으로써, 차량의 주행 궤적이 현재 주행 차로에 해당하는 차로 맵 상의 차로 표시선에 일치하도록 차로 피팅을 수행할 수 있다.In detail, the object positioning apparatus may perform lane fitting in consideration of a distance and curvature between a driving trajectory of a vehicle and a lane marking line on a lane map. The object positioning device may perform lane fitting so that at least a portion of the driving trajectory of the vehicle is linearly moved and at least a portion of the curvature is adjusted so that the driving trajectory of the vehicle matches the lane marking line on the lane map corresponding to the current driving lane. have.

도 10을 참조하면, 객체 위치 결정 장치는 차량의 제1 주행 궤적(1011) 의 적어도 일부는 선형 이동시키고, 적어도 일부의 곡률을 조정하여 제2 주행 궤적(1012)으로 보정함으로써 차로 맵 상의 소정의 차로(1030)에 피팅되도록 차로 피팅을 수행할 수 있다.Referring to FIG. 10 , the object positioning device linearly moves at least a part of the first driving trajectory 1011 of the vehicle, adjusts at least a portion of the curvature to correct it as the second driving trajectory 1012 , thereby providing a predetermined value on the road map. The road fitting may be performed to fit the road 1030 .

일 실시예에서, 차로 맵(1000)에 객체(1021)가 표시될 수 있다. 객체 위치 결정 장치는 차로 맵(1000) 상의 객체의 위치가 차로 피팅 결과에 연동되어 피팅되도록 객체 피팅(object fitting)을 수행할 수 있다.In an embodiment, the object 1021 may be displayed on the road map 1000 . The object positioning apparatus may perform object fitting so that the location of the object on the road map 1000 is fitted in association with the road fitting result.

도 10을 참조하면, 객체 위치 결정 장치는 차량의 제1 주행 궤적(1011)이 제2 주행 궤적(1012)으로 보정된 것과 동일하게, 제1 객체(1021)의 위치를 제2 객체(1022)의 위치로 보정함으로써 객체 피팅을 수행할 수 있다.Referring to FIG. 10 , the object positioning device sets the position of the first object 1021 to the second object 1022 in the same way that the first driving trajectory 1011 of the vehicle is corrected to the second driving trajectory 1012 . Object fitting can be performed by calibrating to the position of .

한편, 차로 피팅은 도 6 내지 도 7에서 상술한 이미지 병합이 완료되기 전 및/또는 완료된 이후에 수행될 수 있다.Meanwhile, the lane fitting may be performed before and/or after the image merging described above with reference to FIGS. 6 to 7 is completed.

도 11은 일 실시예에 따른 차로 맵 상에 객체의 위치를 결정하는 방법의 흐름도이다. 11 is a flowchart of a method of determining a location of an object on a road map according to an exemplary embodiment.

도 11에 도시된, 차량의 현재 차로를 결정하는 방법은, 앞서 설명된 도면들에서 설명된 실시예들에 관련되므로, 이하 생략된 내용이라 할지라도, 앞서 도면들에서 설명된 내용들은 도 11의 방법에도 적용될 수 있다.The method for determining the current lane of the vehicle shown in FIG. 11 is related to the embodiments described in the drawings described above, and therefore, even if omitted below, the contents described in the drawings are those of FIG. 11 . method can also be applied.

도 11을 참조하면, 단계 1110에서 프로세서는 차량에 탑재된 카메라에서 촬영된 이미지 데이터를 획득할 수 있다. Referring to FIG. 11 , in operation 1110 , the processor may acquire image data captured by a camera mounted on a vehicle.

단계 1120에서 프로세서는 이미지 데이터에 대해 소정의 처리를 수행함으로써 이미지 데이터에 포함된 복수의 피쳐들에 대한 피쳐 정보를 생성할 수 있다.In operation 1120, the processor may generate feature information for a plurality of features included in the image data by performing a predetermined process on the image data.

소정의 처리는, 이미지 데이터로부터 피쳐 정보를 생성할 수 있는 처리 방식이라면 제한 없이 해당될 수 있다. 구체적으로, 소정의 처리는, 이미지 데이터로부터 객체 종류 정보(그룹, 클래스 등), 이미지 데이터 상의 객체의 위치 정보, 객체의 크기 정보 등을 생성할 수 있는 처리 방식을 포함할 수 있다. 예를 들어, 소정의 처리는, Traffic lights detection (DLD), Traffic signs detection (TSD), Ego-lane recognition (ELR), Intersection recognition (ELR), Road markings detection (RMD), Bump recognition (BR) 등을 위한 모듈에 의해 구현될 수 있다.The predetermined processing may be applied without limitation as long as it is a processing method capable of generating feature information from image data. Specifically, the predetermined processing may include a processing method capable of generating object type information (group, class, etc.), location information of an object on image data, information on size of an object, and the like from image data. For example, the predetermined processing is, Traffic lights detection (DLD), Traffic signs detection (TSD), Ego-lane recognition (ELR), Intersection recognition (ELR), Road markings detection (RMD), Bump recognition (BR), etc. It can be implemented by a module for

단계 1130에서 프로세서는 이미지 데이터에 포함된 복수의 피쳐들 간의 상관도에 기초하여, 복수의 이미지 데이터에서 동일한 객체에 해당하는 복수의 피쳐들을 결정할 수 있다.In operation 1130, the processor may determine a plurality of features corresponding to the same object in the plurality of image data based on the degree of correlation between the plurality of features included in the image data.

프로세서는 복수의 이미지 데이터를 병합(aggregation)함으로써 상기 복수의 이미지 데이터에서 동일한 객체에 해당하는 복수의 피쳐들을 결정할 수 있다. The processor may determine a plurality of features corresponding to the same object in the plurality of image data by aggregating the plurality of image data.

프로세서는 그래프-매칭(graph-matching) 방법을 이용하여, 복수의 이미지 데이터에서 동일한 객체를 나타내는 복수의 피쳐들을 결정할 수 있다.The processor may determine a plurality of features representing the same object in the plurality of image data by using a graph-matching method.

프로세서는 제1 이미지 데이터의 제1 피쳐 및 제2 이미지 데이터의 제2 피쳐를 선택하고, 제1 피쳐 및 제2 피쳐 주변의 다른 피쳐를 탐색할 수 있다. 프로세서는 제1 피쳐 주변의 제1 이웃 피쳐(neighbor feature)와 속성이 유사한 제2 이웃 피쳐가 제2 피쳐 주변에 존재하는 경우, 제1 이웃 피쳐 및 제2 이웃 피쳐 각각에 대해 제1 피쳐 및 제2 피쳐를 키(key) 피쳐로 하는 그래프로 등록할 수 있다. 여기서, 속성은 클래스(class), 피쳐의 가로/세로 비율, 거리 및 각도 중 적어도 하나를 포함할 수 있다.The processor may select the first feature of the first image data and the second feature of the second image data, and search for other features around the first feature and the second feature. When a second neighboring feature having similar properties to a first neighboring feature around the first feature exists around the second feature, the processor determines whether the first feature and the second neighboring feature are respectively 2 Features can be registered as a graph with key features. Here, the attribute may include at least one of a class, an aspect ratio of a feature, a distance, and an angle.

프로세서는 제1 피쳐 주변의 모든 피쳐를 대상으로 탐색하는 단계 및 등록하는 단계를 반복할 수 있다. 프로세서는 제1 피쳐 주변의 모든 피쳐를 대상으로 그래프 구성을 시도한 후, 피쳐의 개수, 등록된 키 피쳐의 유사도(예를 들어, 크기, 이웃 피쳐와의 크기 관계 등)에 기초하여, 제1 피쳐와 제2 피쳐 간의 유사도를 산출할 수 있다. 프로세서는 제2 이미지 데이터의 제2 피쳐를 제외한 나머지 피쳐에 대해, 탐색하는 단계, 그래프로 등록하는 단계, 반복하는 단계 및 유사도를 산출하는 단계를 수행함으로써, 제1 이미지 데이터의 제1 피쳐와 유사도가 가장 높은 제2 이미지 데이터의 제2 피쳐가, 동일한 객체를 나타내는 것으로 결정할 수 있다.The processor may repeat the steps of searching and registering all the features around the first feature. After the processor attempts to construct a graph for all features around the first feature, based on the number of features and the similarity of registered key features (eg, size, size relationship with neighboring features, etc.), the first feature and a similarity between the second feature and the second feature may be calculated. The processor performs the steps of searching, registering as a graph, repeating, and calculating a degree of similarity with respect to the remaining features except for the second feature of the second image data, so that the degree of similarity to the first feature of the first image data is performed. It may be determined that the second feature of the second image data with the highest α represents the same object.

프로세서는 그래프에 포함된 피쳐들은 동일한 깊이(depth)를 갖는 것으로 결정할 수 있다.The processor may determine that features included in the graph have the same depth.

프로세서는 소정의 피쳐에 대해 후처리를 수행하는 경우, 동일한 깊이를 갖는 그래프에 포함된 나머지 피쳐들에 대해서도 동일한 후처리를 수행할 수 있다.When the processor performs post-processing on a predetermined feature, the processor may perform the same post-processing on the remaining features included in the graph having the same depth.

단계 1140에서 프로세서는 차량의 차로 맵 상의 위치 정보 및 복수의 이미지 데이터 상의 피쳐 위치 정보에 기초하여 차로 맵 상에 객체의 위치를 결정할 수 있다.In operation 1140, the processor may determine the location of the object on the road map based on the location information on the vehicle lane map and the feature location information on the plurality of image data.

프로세서는 차량에 연결된 위치 확인 장치를 이용하여 차량의 차로 맵 상의 위치 정보를 획득할 수 있다.The processor may acquire location information on a road map of the vehicle by using a location checking device connected to the vehicle.

프로세서는 차량의 차로 맵 상의 위치 정보 및 이미지 데이터 상의 피쳐 위치 정보에 기초하여 객체의 위치를 결정할 수 있다.The processor may determine the location of the object based on the location information on the lane map of the vehicle and the feature location information on the image data.

프로세서는 복수의 이미지 데이터에서 동일한 객체에 해당하는 것으로 결정된 복수의 피쳐들의 위치 정보를 이용하여객체의 위치를 결정할 수 있다.The processor may determine the location of the object by using location information of a plurality of features determined to correspond to the same object in the plurality of image data.

일 실시예에서, 객체는 신호등, 도로 표지판, 도로 마크, 현재 주행 차로, 교차로 및 방지턱 중 적어도 하나를 포함할 수 있다.In an embodiment, the object may include at least one of a traffic light, a road sign, a road mark, a current driving lane, an intersection, and a bump.

일 실시예에서, 프로세서는 차량에 연결된 위치 확인 장치를 이용하여 상기 차량의 주행 궤적을 획득할 수 있다. 또한, 프로세서는 피쳐 정보에 포함된 현재 주행 차로에 기초하여, 차량의 주행 궤적이 상기 차로 맵 상의 차로에 피팅되도록 차로 피팅(lane fitting)을 수행할 수 있다.In an embodiment, the processor may acquire the driving trajectory of the vehicle by using a positioning device connected to the vehicle. Also, the processor may perform lane fitting so that the driving trajectory of the vehicle is fitted to the lane on the lane map based on the current driving lane included in the feature information.

일 실시예에서, 프로세서는 차로 맵 상의 객체의 위치가 차로 피팅 결과에 연동되어 피팅되도록 객체 피팅(object fitting)을 수행할 수 있다.In an embodiment, the processor may perform object fitting so that the location of the object on the road map is fit in association with the road fitting result.

일 실시예에서, 프로세서는 소정의 도로를 주행한 차량의 제1 궤적으로부터 결정된 제1 그룹 객체들의 제1 위치를 차로 맵 상에 표시할 수 있다. 또한, 프로세서는 소정의 도로를 주행한 차량의 제2 궤적으로부터 결정된 제2 그룹 객체들의 제2 위치를 차로 맵 상에 표시할 수 있다. 또한, 프로세서는 제1 그룹 객체들과 제2 그룹 객체들에서 동일한 객체를 결정하고, 동일한 객체로 결정된 객체들의 위치를 병합하여 각 객체들에 대한 최종 위치를 차로 맵 상에 표시할 수 있다.In an embodiment, the processor may display the first positions of the first group objects determined from the first trajectory of the vehicle traveling on the predetermined road on the road map. Also, the processor may display the second positions of the second group objects determined from the second trajectory of the vehicle traveling on the predetermined road on the road map. In addition, the processor may determine the same object from the first group objects and the second group objects, merge the positions of the objects determined as the same object, and display the final positions of the respective objects on the map by car.

일 실시예에서, 프로세서는 상기 제1 그룹 객체들을 이용하여 제1 그래프를 구성하고, 제2 그룹 객체들을 이용하여 제2 그래프를 구성하고, 제1 그래프 및 제2 그래프 간의 유사도 비교를 통해 제1 그룹 객체들과 제2 그룹 객체들에서 동일한 객체를 결정할 수 있다.In an embodiment, the processor configures a first graph using the first group objects, configures a second graph using the second group objects, and compares the similarity between the first graph and the second graph to obtain a first graph. The same object may be determined from the group objects and the second group objects.

도 12는 일 실시예에 따른 객체 위치 결정 장치의 블록도이다.12 is a block diagram of an object positioning apparatus according to an embodiment.

도 12를 참조하면, 객체 위치 결정 장치(1200)는 통신부(1210), 프로세서(1220) 및 DB(1230)를 포함할 수 있다. 도 12의 객체 위치 결정 장치(1200)에는 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 12에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 당해 기술분야의 통상의 기술자라면 이해할 수 있다. 또한, 일 실시예에서 객체 위치 결정 장치(1200)에는 통신부(1210)가 포함되지 않을 수 있다.Referring to FIG. 12 , the object positioning apparatus 1200 may include a communication unit 1210 , a processor 1220 , and a DB 1230 . Only the components related to the embodiment are shown in the object positioning apparatus 1200 of FIG. 12 . Accordingly, it can be understood by those skilled in the art that other general-purpose components may be further included in addition to the components shown in FIG. 12 . Also, according to an embodiment, the apparatus 1200 for determining an object location may not include the communication unit 1210 .

통신부(1210)는 외부 서버 또는 외부 장치와 유선/무선 통신을 하게 하는 하나 이상의 구성 요소를 포함할 수 있다. 예를 들어, 통신부(1210)는, 근거리 통신부(미도시), 이동 통신부(미도시) 및 방송 수신부(미도시) 중 적어도 하나를 포함할 수 있다.The communication unit 1210 may include one or more components for performing wired/wireless communication with an external server or an external device. For example, the communication unit 1210 may include at least one of a short-range communication unit (not shown), a mobile communication unit (not shown), and a broadcast receiving unit (not shown).

DB(1230)는 객체 위치 결정 장치(1200) 내에서 처리되는 각종 데이터들을 저장하는 하드웨어로서, 프로세서(1220)의 처리 및 제어를 위한 프로그램을 저장할 수 있다. DB(1230)는 결제 정보, 사용자 정보 등을 저장할 수 있다.The DB 1230 is hardware for storing various types of data processed in the object positioning apparatus 1200 , and may store a program for processing and controlling the processor 1220 . The DB 1230 may store payment information, user information, and the like.

DB(1230)는 DRAM(dynamic random access memory), SRAM(static random access memory) 등과 같은 RAM(random access memory), ROM(read-only memory), EEPROM(electrically erasable programmable read-only memory), CD-ROM, 블루레이 또는 다른 광학 디스크 스토리지, HDD(hard disk drive), SSD(solid state drive), 또는 플래시 메모리를 포함할 수 있다.DB 1230 is a random access memory (RAM), such as dynamic random access memory (DRAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), CD- It may include ROM, Blu-ray or other optical disk storage, a hard disk drive (HDD), a solid state drive (SSD), or flash memory.

프로세서(1220)는 객체 위치 결정 장치(1200)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(1220)는 DB(1230)에 저장된 프로그램들을 실행함으로써, 입력부(미도시), 디스플레이(미도시), 통신부(1210), DB(1230) 등을 전반적으로 제어할 수 있다. 프로세서(1220)는, DB(1230)에 저장된 프로그램들을 실행함으로써, 객체 위치 결정 장치(1200)의 동작을 제어할 수 있다.The processor 1220 controls the overall operation of the object positioning apparatus 1200 . For example, the processor 1220 may generally control the input unit (not shown), the display (not shown), the communication unit 1210 , the DB 1230 , and the like by executing programs stored in the DB 1230 . The processor 1220 may control the operation of the object positioning apparatus 1200 by executing programs stored in the DB 1230 .

프로세서(1220)는 도 1 내지 도 11에서 상술한 객체 위치 결정 장치의 동작 중 적어도 일부를 제어할 수 있다.The processor 1220 may control at least some of the operations of the object positioning apparatus described above with reference to FIGS. 1 to 11 .

프로세서(1220)는 ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.The processor 1220 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), controllers, and microcontrollers. It may be implemented using at least one of (micro-controllers), microprocessors, and other electrical units for performing functions.

일 실시예로, 객체 위치 결정 장치(1200)는 이동성을 가지는 전자 장치일 수 있다. 예를 들어, 교통 정보 제공 장치(800)는 스마트폰, 태블릿 PC, PC, 스마트 TV, PDA(personal digital assistant), 랩톱, 미디어 플레이어, 네비게이션, 카메라가 탑재된 디바이스 및 기타 모바일 전자 장치로 구현될 수 있다. 또한, 객체 위치 결정 장치(1200)는 통신 기능 및 데이터 프로세싱 기능을 구비한 시계, 안경, 헤어 밴드 및 반지 등의 웨어러블 장치로 구현될 수 있다.As an embodiment, the object positioning apparatus 1200 may be an electronic device having mobility. For example, the traffic information providing apparatus 800 may be implemented as a smartphone, a tablet PC, a PC, a smart TV, a personal digital assistant (PDA), a laptop, a media player, a navigation device, a device equipped with a camera, and other mobile electronic devices. can In addition, the object positioning apparatus 1200 may be implemented as a wearable device such as a watch, glasses, a hair band, and a ring having a communication function and a data processing function.

다른 실시예로, 객체 위치 결정 장치(1200)는 차량 내에 임베디드 되는 전자 장치일 수 있다. 예를 들어, 객체 위치 결정 장치(1200)는 생산 과정 이후 튜닝(tuning)을 통해 차량 내에 삽입되는 전자 장치일 수 있다.In another embodiment, the object positioning device 1200 may be an electronic device embedded in a vehicle. For example, the object positioning device 1200 may be an electronic device inserted into a vehicle through tuning after a production process.

또 다른 실시예로, 객체 위치 결정 장치(1200)는 차량 외부에 위치하는 서버일 수 있다. 서버는 네트워크를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다. 서버는 차량에 탑재된 장치들로부터 차량의 이동 경로를 결정하기 위해 필요한 데이터를 수신하고, 수신한 데이터에 기초하여 차량의 이동 경로를 결정할 수 있다.As another embodiment, the object positioning apparatus 1200 may be a server located outside the vehicle. The server may be implemented as a computer device or a plurality of computer devices that communicate through a network to provide commands, codes, files, contents, services, and the like. The server may receive data necessary to determine the moving path of the vehicle from devices mounted on the vehicle, and determine the moving path of the vehicle based on the received data.

또 다른 실시예로, 객체 위치 결정 장치(1200)에서 수행되는 프로세스는 이동성을 가지는 전자 장치, 차량 내에 임베디되는 전자 장치 및 차량 외부에 위치하는 서버 중 적어도 일부에 의해 수행될 수 있다.As another embodiment, the process performed by the object positioning apparatus 1200 may be performed by at least a portion of an electronic device having mobility, an electronic device embedded in a vehicle, and a server located outside the vehicle.

본 발명에 따른 실시 예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다.Embodiments according to the present invention may be implemented in the form of a computer program that can be executed through various components on a computer, and such a computer program may be recorded in a computer-readable medium. In this case, the medium includes a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as a CD-ROM and DVD, a magneto-optical medium such as a floppy disk, and a ROM. , RAM, flash memory, and the like, hardware devices specially configured to store and execute program instructions.

한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be specially designed and configured for the present invention, or may be known and used by those skilled in the computer software field. Examples of the computer program may include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

일 실시예에 따르면, 본 개시의 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to an embodiment, the method according to various embodiments of the present disclosure may be included and provided in a computer program product. Computer program products may be traded between sellers and buyers as commodities. The computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play Store™) or between two user devices. It can be distributed directly or online (eg, downloaded or uploaded). In the case of online distribution, at least a portion of the computer program product may be temporarily stored or temporarily created in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.

본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.The steps constituting the method according to the present invention may be performed in an appropriate order, unless the order is explicitly stated or there is no description to the contrary. The present invention is not necessarily limited to the order in which the steps are described. The use of all examples or exemplary terms (eg, etc.) in the present invention is merely for the purpose of describing the present invention in detail, and the scope of the present invention is limited by the examples or exemplary terms unless defined by the claims. it's not going to be In addition, those skilled in the art will appreciate that various modifications, combinations, and changes may be made in accordance with design conditions and factors within the scope of the appended claims or their equivalents.

따라서, 본 발명의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments, and the scope of the spirit of the present invention is not limited to the scope of the scope of the present invention. will be said to belong to

Claims (13)

차로 맵 상에 객체의 위치를 결정하는 방법에 있어서,
차량에 탑재된 카메라에서 촬영된 이미지 데이터를 획득하는 단계;
상기 이미지 데이터에 대해 소정의 처리를 수행함으로써 상기 이미지 데이터에 포함된 복수의 피쳐들에 대한 피쳐 정보(feature information)를 생성하는 단계;
상기 이미지 데이터에 포함된 상기 복수의 피쳐들 간의 상관도에 기초하여, 복수의 이미지 데이터에서 동일한 객체에 해당하는 복수의 피쳐들을 결정하는 단계; 및
상기 차량의 차로 맵 상의 위치 정보 및 상기 복수의 이미지 데이터 상의 피쳐 위치 정보에 기초하여 상기 차로 맵 상에 객체의 위치를 결정하는 단계;
를 포함하고,
상기 방법은,
소정의 도로를 주행한 차량의 제1 궤적으로부터 결정된 제1 그룹 객체들의 제1 위치를 상기 차로 맵 상에 표시하는 단계;
상기 소정의 도로를 주행한 차량의 제2 궤적으로부터 결정된 제2 그룹 객체들의 제2 위치를 상기 차로 맵 상에 표시하는 단계; 및
상기 제1 그룹 객체들과 상기 제2 그룹 객체들에서 동일한 객체를 결정하고, 상기 동일한 객체로 결정된 객체들의 위치를 병합하여 각 객체들에 대한 최종 위치를 상기 차로 맵 상에 표시하는 단계;
를 더 포함하는, 방법.
A method for determining the location of an object on a map by road, the method comprising:
acquiring image data captured by a camera mounted on a vehicle;
generating feature information for a plurality of features included in the image data by performing predetermined processing on the image data;
determining a plurality of features corresponding to the same object in a plurality of image data based on a degree of correlation between the plurality of features included in the image data; and
determining a position of an object on the lane map based on position information on the lane map of the vehicle and feature position information on the plurality of image data;
including,
The method is
displaying first positions of first group objects determined from a first trajectory of a vehicle traveling on a predetermined road on the road map;
displaying second positions of second group objects determined from a second trajectory of the vehicle traveling on the predetermined road on the road map; and
determining the same object from the first group objects and the second group objects, merging the locations of the objects determined as the same object, and displaying the final location of each object on the road map;
A method further comprising:
제 1 항에 있어서,
상기 객체는 신호등, 도로 표지판, 도로 마크 및 방지턱 중 적어도 하나를 포함하는 것인, 방법.
The method of claim 1,
wherein the object comprises at least one of a traffic light, a road sign, a road mark, and a bump.
제 1 항에 있어서,
상기 동일한 객체에 해당하는 복수의 피쳐들을 결정하는 단계는,
복수의 이미지 데이터 내 피쳐들을 병합(aggregation)함으로써 상기 복수의 이미지 데이터에서 동일한 객체에 해당하는 복수의 피쳐들을 결정하는 단계;
를 포함하는, 방법.
The method of claim 1,
The step of determining a plurality of features corresponding to the same object,
determining a plurality of features corresponding to the same object in the plurality of image data by aggregating the features in the plurality of image data;
A method comprising
제 1 항에 있어서,
상기 동일한 객체에 해당하는 복수의 피쳐들을 결정하는 단계는,
그래프-매칭(graph-matching) 방법을 이용하여, 복수의 이미지 데이터에서 동일한 객체를 나타내는 복수의 피쳐들을 결정하는 단계;
를 포함하는, 방법.
The method of claim 1,
The step of determining a plurality of features corresponding to the same object,
determining a plurality of features representing the same object in a plurality of image data using a graph-matching method;
A method comprising
제 4 항에 있어서,
제1 이미지 데이터의 제1 피쳐 및 제2 이미지 데이터의 제2 피쳐를 선택하는 단계;
상기 제1 피쳐 및 상기 제2 피쳐 주변의 다른 피쳐를 탐색하는 단계;
상기 제1 피쳐 주변의 제1 이웃 피쳐(neighbor feature)와 속성이 유사한 제2 이웃 피쳐가 상기 제2 피쳐 주변에 존재하는 경우, 상기 제1 이웃 피쳐 및 상기 제2 이웃 피쳐 각각에 대해 상기 제1 피쳐 및 상기 제2 피쳐를 키(key) 피쳐로 하는 그래프로 등록하는 단계;
상기 제1 피쳐 주변의 모든 피쳐를 대상으로 상기 탐색하는 단계 및 상기 등록하는 단계를 반복하는 단계;
상기 제1 피쳐 주변의 모든 피쳐를 대상으로 그래프 구성을 시도한 후, 피쳐의 개수, 등록된 키 피쳐의 유사도에 기초하여, 상기 제1 피쳐와 상기 제2 피쳐 간의 유사도를 산출하는 단계; 및
상기 제2 이미지 데이터의 상기 제2 피쳐를 제외한 나머지 피쳐에 대해, 상기 탐색하는 단계, 상기 그래프로 등록하는 단계, 상기 반복하는 단계 및 상기 유사도를 산출하는 단계를 수행함으로써, 상기 제1 이미지 데이터의 상기 제1 피쳐와 유사도가 가장 높은 상기 제2 이미지 데이터의 상기 제2 피쳐가 동일한 객체를 나타내는 것으로 결정하는 단계;
를 포함하는, 방법.
5. The method of claim 4,
selecting a first feature of the first image data and a second feature of the second image data;
searching for other features around the first feature and the second feature;
When a second neighbor feature having similar properties to a first neighbor feature around the first feature exists around the second feature, the first neighbor feature and the first neighbor feature registering a feature and the second feature as a key feature in a graph;
repeating the searching and registering for all features around the first feature;
after attempting to construct a graph for all features around the first feature, calculating a similarity between the first feature and the second feature based on the number of features and the similarity of registered key features; and
For the remaining features except for the second feature of the second image data, the searching step, the step of registering as the graph, the repeating step, and the steps of calculating the similarity of the first image data are performed. determining that the second feature of the second image data having the highest similarity to the first feature represents the same object;
A method comprising
제 5 항에 있어서,
상기 방법은,
상기 그래프에 포함된 피쳐들은 동일한 깊이(depth)를 갖는 것으로 결정하는 단계;
를 더 포함하는 방법.
6. The method of claim 5,
The method is
determining that the features included in the graph have the same depth;
How to include more.
제 6 항에 있어서,
상기 방법은,
소정의 피쳐에 대해 후처리를 수행하는 경우, 동일한 깊이를 갖는 상기 그래프에 포함된 나머지 피쳐들에 대해서도 동일한 후처리를 수행하는 단계;
를 포함하는, 방법.
7. The method of claim 6,
The method is
performing the same post-processing on the remaining features included in the graph having the same depth when the post-processing is performed on a predetermined feature;
A method comprising
제 5 항에 있어서,
상기 속성은 클래스(class), 피쳐의 가로/세로 비율, 거리 및 각도 중 적어도 하나를 포함하는 것인, 방법.
6. The method of claim 5,
wherein the attribute comprises at least one of a class, an aspect ratio of a feature, a distance, and an angle.
제 1 항에 있어서,
상기 방법은,
상기 차량에 연결된 위치 확인 장치를 이용하여 상기 차량의 상기 차로 맵 상의 위치 정보를 획득하는 단계;
를 더 포함하는, 방법.
The method of claim 1,
The method is
acquiring location information on the lane map of the vehicle using a location checking device connected to the vehicle;
A method further comprising:
삭제delete 제 1 항에 있어서,
상기 각 객체들에 대한 최종 위치를 상기 차로 맵 상에 표시하는 단계는,
상기 제1 그룹 객체들을 이용하여 제1 그래프를 구성하고, 상기 제2 그룹 객체들을 이용하여 제2 그래프를 구성하고, 상기 제1 그래프 및 상기 제2 그래프 간의 유사도 비교를 통해 상기 제1 그룹 객체들과 상기 제2 그룹 객체들에서 동일한 객체를 결정하는 단계;
를 포함하는, 방법.
The method of claim 1,
The step of displaying the final positions of the respective objects on the road map comprises:
A first graph is constructed using the first group objects, a second graph is constructed using the second group objects, and the first group objects are obtained by comparing the similarity between the first graph and the second graph. and determining the same object in the second group of objects;
A method comprising
차로 맵 상에 객체의 위치를 결정하기 위한 장치에 있어서,
적어도 하나의 프로그램이 저장된 메모리; 및
상기 적어도 하나의 프로그램을 실행함으로써 연산을 수행하는 프로세서를 포함하고,
상기 프로세서는,
차량에 탑재된 카메라에서 촬영된 이미지 데이터를 획득하고,
상기 이미지 데이터에 대해 소정의 처리를 수행함으로써 상기 이미지 데이터에 포함된 복수의 피쳐들에 대한 피쳐 정보(feature information)를 생성하고,
상기 이미지 데이터에 포함된 상기 복수의 피쳐들 간의 상관도에 기초하여, 복수의 이미지 데이터에서 동일한 객체에 해당하는 복수의 피쳐들을 결정하며,
상기 차량의 차로 맵 상의 위치 정보 및 상기 복수의 이미지 데이터 상의 피쳐 위치 정보에 기초하여 상기 차로 맵 상에 객체의 위치를 결정하고,
상기 프로세서는,
소정의 도로를 주행한 차량의 제1 궤적으로부터 결정된 제1 그룹 객체들의 제1 위치를 상기 차로 맵 상에 표시하고,
상기 소정의 도로를 주행한 차량의 제2 궤적으로부터 결정된 제2 그룹 객체들의 제2 위치를 상기 차로 맵 상에 표시하며,
상기 제1 그룹 객체들과 상기 제2 그룹 객체들에서 동일한 객체를 결정하고, 상기 동일한 객체로 결정된 객체들의 위치를 병합하여 각 객체들에 대한 최종 위치를 상기 차로 맵 상에 표시하는 것인, 장치.
An apparatus for determining a location of an object on a road map, comprising:
a memory in which at least one program is stored; and
A processor for performing an operation by executing the at least one program,
The processor is
Acquire image data taken from a camera mounted on the vehicle,
generating feature information for a plurality of features included in the image data by performing a predetermined processing on the image data;
Determining a plurality of features corresponding to the same object in a plurality of image data based on a degree of correlation between the plurality of features included in the image data,
determining a location of an object on the road map based on location information on the vehicle lane map and feature location information on the plurality of image data;
The processor is
Displaying the first positions of the first group objects determined from the first trajectory of the vehicle traveling on the predetermined road on the road map,
displaying the second positions of the second group objects determined from the second trajectory of the vehicle traveling on the predetermined road on the road map,
Determining the same object from the first group objects and the second group objects, and merging the positions of the objects determined as the same object to display the final location for each object on the map by car, .
제 1 항의 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium in which a program for executing the method of claim 1 in a computer is recorded.
KR1020210169973A 2021-05-26 2021-12-01 Method and apparatus for determining the position of an object on a lane map KR102454599B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2023572657A JP2024520399A (en) 2021-05-26 2022-05-26 Method and apparatus for determining the location of an object on a lane map - Patents.com
DE112022002754.1T DE112022002754T5 (en) 2021-05-26 2022-05-26 Method and apparatus for determining the position of an object on a lane map
PCT/KR2022/007516 WO2022250480A1 (en) 2021-05-26 2022-05-26 Method and device for determining location of object in lane map

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210067940 2021-05-26
KR1020210067940 2021-05-26

Publications (1)

Publication Number Publication Date
KR102454599B1 true KR102454599B1 (en) 2022-10-17

Family

ID=83810056

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210169973A KR102454599B1 (en) 2021-05-26 2021-12-01 Method and apparatus for determining the position of an object on a lane map
KR1020210169974A KR102491524B1 (en) 2021-05-26 2021-12-01 Method and apparatus for performing lane fitting

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210169974A KR102491524B1 (en) 2021-05-26 2021-12-01 Method and apparatus for performing lane fitting

Country Status (1)

Country Link
KR (2) KR102454599B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005347945A (en) * 2004-06-01 2005-12-15 Toyota Motor Corp Apparatus and method of monitoring vehicle periphery
JP2008146356A (en) * 2006-12-11 2008-06-26 Nissan Motor Co Ltd Visual line direction predicting device and visual line direction predicting method
JP4273119B2 (en) * 2003-10-21 2009-06-03 和郎 岩根 Navigation device
KR20100026123A (en) * 2008-08-29 2010-03-10 주식회사 세인시스템 Method of image vehicle detection using feature of moving object
KR20200102564A (en) * 2019-02-21 2020-09-01 주식회사 와이즈오토모티브 Apparatus and method for detecting blind spot

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3067177A1 (en) * 2015-02-10 2016-08-18 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4273119B2 (en) * 2003-10-21 2009-06-03 和郎 岩根 Navigation device
JP2005347945A (en) * 2004-06-01 2005-12-15 Toyota Motor Corp Apparatus and method of monitoring vehicle periphery
JP2008146356A (en) * 2006-12-11 2008-06-26 Nissan Motor Co Ltd Visual line direction predicting device and visual line direction predicting method
KR20100026123A (en) * 2008-08-29 2010-03-10 주식회사 세인시스템 Method of image vehicle detection using feature of moving object
KR20200102564A (en) * 2019-02-21 2020-09-01 주식회사 와이즈오토모티브 Apparatus and method for detecting blind spot

Also Published As

Publication number Publication date
KR102491524B1 (en) 2023-01-27
KR20220159868A (en) 2022-12-05

Similar Documents

Publication Publication Date Title
US11216675B2 (en) Systems and methods for detecting an object
JP6637088B2 (en) Autonomous vehicle positioning based on Walsh kernel projection technology
CN108089572B (en) Method and device for vehicle positioning
US20210101616A1 (en) Systems and methods for vehicle navigation
JP2022527072A (en) Pedestrian prediction based on attributes
US8428362B2 (en) Scene matching reference data generation system and position measurement system
CN108475470B (en) Accident probability calculation device, accident probability calculation method, and medium storing accident probability calculation program
US20220136853A1 (en) Reducing stored parameters for a navigation system
US20220371583A1 (en) Systems and Methods for Selectively Decelerating a Vehicle
WO2022229704A2 (en) Multi-frame image segmentation
JP2022129175A (en) Vehicle evaluation method and vehicle evaluation device
KR20200084446A (en) Electronic apparatus for self driving of vehicles based on intersection node and thereof control method
US20230251366A1 (en) Method and apparatus for determining location of pedestrian
KR102454599B1 (en) Method and apparatus for determining the position of an object on a lane map
US12014555B2 (en) Vehicle localization based on lane templates
KR102473392B1 (en) Method and apparatus for determining the lane's centerline network using section node and section link
JP7203905B2 (en) CONTROL DEVICE, MOVING OBJECT, CONTROL METHOD AND PROGRAM
KR102472649B1 (en) Method and apparatus for tracking the object
JP2022048829A (en) Communication control device, vehicle, program, and communication control method
JP2024520399A (en) Method and apparatus for determining the location of an object on a lane map - Patents.com
US20240109536A1 (en) Method, apparatus and system for driving by detecting objects around the vehicle
WO2024142607A1 (en) In-vehicle processing device and object recognition method
KR20240019656A (en) Method and apparatus for planning future driving speed
KR20240044955A (en) Method, Apparatus and Computer-readable Recording Medium for Determining the Behavior of an Autonomous Vehicle Planning to Make a Right Turn to Join the Main Line
JP2022187709A (en) Control device, moving vehicle, control method, and program

Legal Events

Date Code Title Description
GRNT Written decision to grant