KR20230101979A - Method for object recognition of a vehicle traveling on a multi-layer road and an electric device for the method - Google Patents

Method for object recognition of a vehicle traveling on a multi-layer road and an electric device for the method Download PDF

Info

Publication number
KR20230101979A
KR20230101979A KR1020210190873A KR20210190873A KR20230101979A KR 20230101979 A KR20230101979 A KR 20230101979A KR 1020210190873 A KR1020210190873 A KR 1020210190873A KR 20210190873 A KR20210190873 A KR 20210190873A KR 20230101979 A KR20230101979 A KR 20230101979A
Authority
KR
South Korea
Prior art keywords
vehicle
information
lane
traveling
road
Prior art date
Application number
KR1020210190873A
Other languages
Korean (ko)
Other versions
KR102592926B1 (en
Inventor
최유수
박수진
Original Assignee
주식회사 에스와이피
한국표준협회
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스와이피, 한국표준협회 filed Critical 주식회사 에스와이피
Priority to KR1020210190873A priority Critical patent/KR102592926B1/en
Publication of KR20230101979A publication Critical patent/KR20230101979A/en
Application granted granted Critical
Publication of KR102592926B1 publication Critical patent/KR102592926B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2300/00Indexing codes relating to the type of vehicle
    • B60W2300/10Buses
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/52Radar, Lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/06Direction of travel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/10Number of lanes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/45Pedestrian sidewalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4026Cycles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/10Road Vehicles
    • B60Y2200/13Bicycles; Tricycles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/10Road Vehicles
    • B60Y2200/14Trucks; Load vehicles, Busses
    • B60Y2200/143Busses

Abstract

본 발명은 제2 차량으로부터 상기 제2 차량이 주행하는 차선에 대한 정보와 기설정된 공유점으로부터 상기 제2 차량의 이동변위에 대한 정보를 수신하는 단계, 상기 제2 차량이 주행하는 차선에 대한 정보에 기초하여 제1차량이 주행하고 있는 차선이 상기 제2 차량이 주행하고 있는 차선과 중복되는지 여부를 판단하는 단계, 상기 제1 차량이 주행하고 있는 차선과 상기 제2 차량이 주행하고 있는 차선이 중복되는 경우, 상기 공유점으로부터 상기 제2 차량의 이동변위에 대한 정보에 기초하여 상기 제1 차량이 주행하고 있는 도로와 상기 제2 차량이 주행하고 있는 도로가 같은 층에 해당하는지 여부를 판단하는 단계 및 상기 제1 차량이 주행하고 있는 도로와 상기 제2 차량이 주행하고 있는 도로가 같은 층에 해당하는 경우, 상기 제2 차량을 상기 제1 차량의 근접 객체로 인식하는 단계를 포함하는 제1 차량의 객체 인식 방법을 제공한다.The present invention provides the steps of receiving information on the lane on which the second vehicle travels from a second vehicle and information on the movement displacement of the second vehicle from a predetermined sharing point, information on the lane on which the second vehicle travels. determining whether the lane in which the first vehicle is traveling overlaps with the lane in which the second vehicle is traveling, based on In case of overlapping, determining whether the road on which the first vehicle is traveling and the road on which the second vehicle is traveling correspond to the same floor based on the information on the movement displacement of the second vehicle from the sharing point and recognizing the second vehicle as a nearby object of the first vehicle when the road on which the first vehicle is traveling and the road on which the second vehicle is traveling correspond to the same floor. A vehicle object recognition method is provided.

Description

복층으로 구성된 도로를 주행하는 차량의 객체 인식 방법 및 이를 위한 전자 장치{METHOD FOR OBJECT RECOGNITION OF A VEHICLE TRAVELING ON A MULTI-LAYER ROAD AND AN ELECTRIC DEVICE FOR THE METHOD}Object recognition method of a vehicle traveling on a multi-layered road and electronic device therefor

본 발명은 복층으로 구성된 도로를 주행하는 차량이 다른 차량에 대한 주행 차선 및 주행 방향 정보를 인식함으로써 근처에 접근하는 객체를 감지할 수 있는 객체 인식 방법 및 이를 위한 전자 장치에 관한 것이다.The present invention relates to an object recognition method and an electronic device for detecting an object approaching nearby by recognizing driving lane and driving direction information of another vehicle by a vehicle traveling on a multi-story road.

최근, 자동차의 무인 자율 주행 기술에 대한 관심이 고조되고 있다. 무인 자율 주행 기술은 운전자의 개입 없이 자동으로 차량 주행이 가능하도록 하는 기술을 의미한다. 이와 같은 무인 자율 주행은 차량에 장착된 다양한 센서들을 통해 센싱된 정보들을 이용하여 이루어지게 되는데, 그 중에서 차선 변경 등은 카메라를 통해 획득되는 영상을 이용해 차선을 인식하고 차선 변경 여부 등을 결정한다.Recently, interest in unmanned autonomous driving technology of automobiles is growing. Unmanned self-driving technology refers to technology that enables vehicles to drive automatically without driver intervention. Such unmanned autonomous driving is performed using information sensed through various sensors mounted on the vehicle. Among them, the lane change, etc., recognizes the lane using an image obtained through a camera and determines whether or not to change the lane.

한편, 카메라를 통해 획득되는 영상을 이용해 인식되는 차선은 자차가 주행하는 차선에 국한됨이 일반적이므로, 자차가 주행하는 차선 이외의 차선과 해당 차량의 위치에 대해서는 인식이 어려운 상황이다. 이에 따라 무인 자율 주행차량에 레이더(Radar), 라이다(Lidar) 등의 센서를 장착하여 주변 차량들의 움직임을 파악하고, 차량의 종방향, 횡방향 및 수직 방향의 주변환경을 센싱하고, 센싱된 정보를 기 저장되어 있는 실제 정보와 비교 및 보정하여, 무인 주행 차량의 위치를 보다 정밀하게 인식하고 주변상황을 파악하도록 하였다.On the other hand, since the lane recognized using the image obtained through the camera is generally limited to the lane in which the host vehicle is driving, it is difficult to recognize the location of the vehicle and lanes other than the lane in which the host vehicle is driving. Accordingly, sensors such as radar and lidar are installed on the unmanned self-driving vehicle to grasp the movement of surrounding vehicles, sense the surrounding environment in the longitudinal, lateral and vertical directions of the vehicle, and sensed By comparing and correcting the information with pre-stored actual information, the position of the unmanned vehicle is more precisely recognized and the surrounding situation is grasped.

한편, 차량의 자율주행 시대가 도래하면서 차량 스스로 객체를 인식하기 위한 기술이 활발히 개발되고 있다. 객체를 인식하는 방식은 대상 객체에 대한 영상을 수집하고, 수집된 영상을 학습하여 저장한 후, 저장한 정보와 입력된 영상을 비교하는 과정을 포함할 수 있으며, 최근에는 객체를 인식하는 기술로 딥러닝 방식이 사용되는 추세다.On the other hand, with the arrival of the era of autonomous vehicles, technologies for recognizing objects by themselves are being actively developed. The object recognition method may include a process of collecting images of the target object, learning and storing the collected images, and comparing the stored information with the input image. Recently, object recognition technology has been developed. Deep learning methods are being used.

딥러닝 방식은 무수한 영상 속에서 패턴을 발견해 영상의 특징을 학습하는데, 이를 위해서는 수많은 영상의 수집이 필수적으로 요구된다. 그러나, 수많은 영상을 수집하는데 시간과 비용이 많이 소요되므로, 모든 객체를 인식하기 위한 방대한 양의 영상을 수집하는 것은 현실적으로 한계가 있다.The deep learning method discovers patterns in countless images and learns the characteristics of images, which requires the collection of numerous images. However, since it takes a lot of time and money to collect a lot of images, there is a realistic limit to collecting a huge amount of images for recognizing all objects.

본 발명은 차량 간 통신을 통해 서로의 위치를 확인함으로써 카메라, 라이더 센서 등 객체 인식을 위한 별도의 센서 없이도 차량에 접근하는 객체를 정확하게 인식할 수 있는 방법 및 장치를 제공한다.The present invention provides a method and apparatus capable of accurately recognizing an object approaching a vehicle without a separate sensor for object recognition, such as a camera or lidar sensor, by checking each other's positions through vehicle-to-vehicle communication.

본 발명은 복층으로 구성된 도로를 주행하는 제1 차량의 객체 인식 방법에 있어서, 제2 차량으로부터 상기 제2 차량이 주행하는 차선에 대한 정보와 기설정된 공유점으로부터 상기 제2 차량의 이동변위에 대한 정보를 수신하는 단계, 상기 제2 차량이 주행하는 차선에 대한 정보에 기초하여 상기 제1차량이 주행하고 있는 차선이 상기 제2 차량이 주행하고 있는 차선과 중복되는지 여부를 판단하는 단계, 상기 제1 차량이 주행하고 있는 차선과 상기 제2 차량이 주행하고 있는 차선이 중복되는 경우, 상기 공유점으로부터 상기 제2 차량의 이동변위에 대한 정보에 기초하여 상기 제1 차량이 주행하고 있는 도로와 상기 제2 차량이 주행하고 있는 도로가 같은 층에 해당하는지 여부를 판단하는 단계 및 상기 제1 차량이 주행하고 있는 도로와 상기 제2 차량이 주행하고 있는 도로가 같은 층에 해당하는 경우, 상기 제2 차량을 상기 제1 차량의 근접 객체로 인식하는 단계를 포함하는 제1 차량의 객체 인식 방법을 제공한다.The present invention relates to a method for recognizing an object of a first vehicle driving on a road composed of two floors, wherein information on a lane on which the second vehicle travels from a second vehicle and movement displacement of the second vehicle from a predetermined sharing point are provided. Receiving information; determining whether the lane in which the first vehicle is driving overlaps the lane in which the second vehicle is driving based on the information on the lane in which the second vehicle is driving; When the lane in which the first vehicle is traveling overlaps with the lane in which the second vehicle is traveling, the road in which the first vehicle is traveling and the road in which the first vehicle is traveling are determined based on the information on the movement displacement of the second vehicle from the common point. Determining whether the road on which the second vehicle is driving corresponds to the same floor, and when the road on which the first vehicle is driving and the road on which the second vehicle is driving correspond to the same floor, the second It provides a method for recognizing an object of a first vehicle including recognizing a vehicle as a nearby object of the first vehicle.

일 실시예에 따르면, 상기 제2 차량이 주행하는 차선에 대한 정보는 차선 번호가 계산되는 방향에 대한 정보, 차도 내 총 차선 수에 대한 정보, 상기 제2 차량의 목표 차선에 대한 정보, 특수 목적 차선에 대한 정보 중 적어도 하나를 포함할 수 있다.According to an embodiment, the information on the lane in which the second vehicle travels includes information on a direction in which a lane number is calculated, information on the total number of lanes on the road, information on a target lane of the second vehicle, and special purpose information. At least one of lane information may be included.

일 실시예에 따르면, 상기 차선 번호가 계산되는 방향에 대한 정보는 도로의 왼쪽으로부터 차선을 계산하는 규칙에 대한 정보, 도로의 오른쪽부터 차선을 계산하는 규칙에 대한 정보, 기설정된 도로의 중앙영역부터 차선을 계산하는 규칙에 대한 정보, 갓길부터 차선을 계산하는 규칙에 대한 정보 중 하나를 포함할 수 있다.According to an embodiment, the information on the direction in which the lane number is calculated includes information on a rule for calculating a lane from the left side of the road, information on a rule for calculating a lane from the right side of the road, and information on a rule for calculating a lane from the right side of the road, starting from a preset center area of the road. Information on rules for calculating lanes and information on rules for calculating lanes from the shoulder may be included.

일 실시예에 따르면, 상기 특수 목적 차선에 대한 정보는 버스 차선에 대한 정보, 자전거 전용도로에 대한 정보, 보행자 도로에 대한 정보, 추월차선에 대한 정보, 저속전용차선에 대한 정보 중 적어도 하나를 포함할 수 있다.According to an embodiment, the information on the special-purpose lane includes at least one of information on a bus lane, information on a bicycle-only road, information on a pedestrian road, information on an overtaking lane, and information on an exclusive low-speed lane. can do.

일 실시예에 따르면, 상기 제2 차량의 이동변위에 대한 정보는 상기 공유점으로부터 상기 제2 차량이 동쪽 또는 서쪽으로 이동한 변위에 대한 제1 이동변위 정보, 상기 공유점으로부터 상기 제2 차량이 북쪽 또는 남쪽으로 이동한 변위에 대한 제2 이동변위 정보, 상기 공유점으로 상기 제2 차량이 수직방향으로 이동한 변위에 대한 제3 이동변위 정보를 포함할 수 있다.According to an embodiment, the information on the movement displacement of the second vehicle is first movement displacement information on the displacement of the second vehicle moving east or west from the sharing point, and the information on the movement displacement of the second vehicle from the sharing point. It may include second movement displacement information about displacement to the north or south, and third movement displacement information about displacement of the second vehicle in the vertical direction to the sharing point.

일 실시예에 따르면, 상기 제1 차량의 객체 인식 방법은 상기 제2 차량으로부터 상기 제2 차량이 주행하는 차선에 대한 정보에 기초한 객체 인식 방법 활성화를 위한 비트 정보와 상기 제2 차량의 이동변위에 대한 정보에 기초한 객체 인식 방법 활성화를 위한 비트 정보를 포함하는 메시지를 수신하는 단계를 더 포함할 수 있다.According to an embodiment, the object recognition method of the first vehicle is based on bit information for activating an object recognition method based on information about a lane in which the second vehicle travels from the second vehicle and a moving displacement of the second vehicle. The method may further include receiving a message including bit information for activating an object recognition method based on information about the object.

본 발명은 다른 차량으로부터 상기 다른 차량이 주행하는 차선에 대한 정보와 기설정된 공유점으로부터 상기 다른 차량의 이동변위에 대한 정보를 수신하는 송수신부 및 상기 다른 차량이 주행하는 차선에 대한 정보에 기초하여 차량이 주행하고 있는 차선이 상기 다른 차량이 주행하고 있는 차선과 중복되는지 여부를 판단하고, 주행하고 있는 차선과 상기 다른 차량이 주행하고 있는 차선이 중복되는 경우, 상기 공유점으로부터 상기 다른 차량의 이동변위에 대한 정보에 기초하여 주행하고 있는 도로와 상기 다른 차량이 주행하고 있는 도로가 같은 층에 해당하는지 여부를 판단하며, 주행하고 있는 도로와 상기 다른 차량이 주행하고 있는 도로가 같은 층에 해당하는 경우, 상기 다른 차량을 근접 객체로 인식하는 프로세서를 포함하는 전자 장치를 제공한다.The present invention is based on a transmission/reception unit that receives information about the lane on which the other vehicle travels from another vehicle and information on the movement displacement of the other vehicle from a predetermined sharing point and information about the lane on which the other vehicle travels. It is determined whether the lane in which the vehicle is traveling overlaps with the lane in which the other vehicle is traveling, and if the lane in which the vehicle is traveling overlaps with the lane in which the other vehicle is traveling, movement of the other vehicle from the sharing point. Based on the information on the displacement, it is determined whether the road on which the vehicle is traveling and the road on which the other vehicle is traveling correspond to the same floor. In this case, an electronic device including a processor recognizing the other vehicle as a nearby object is provided.

일 실시예에 따르면, 상기 다른 차량이 주행하는 차선에 대한 정보는 차선 번호가 계산되는 방향에 대한 정보, 차도 내 총 차선 수에 대한 정보, 상기 다른 차량의 목표 차선에 대한 정보, 특수 목적 차선에 대한 정보 중 적어도 하나를 포함할 수 있다.According to an embodiment, the information on the lane in which the other vehicle is traveling includes information on a direction in which a lane number is calculated, information on the total number of lanes on the roadway, information on a target lane of the other vehicle, information on a special purpose lane It may include at least one of information about.

일 실시예에 따르면, 상기 차선 번호가 계산되는 방향에 대한 정보는 도로의 왼쪽으로부터 차선을 계산하는 규칙에 대한 정보, 도로의 오른쪽부터 차선을 계산하는 규칙에 대한 정보, 기설정된 도로의 중앙영역부터 차선을 계산하는 규칙에 대한 정보, 갓길부터 차선을 계산하는 규칙에 대한 정보 중 하나를 포함할 수 있다.According to an embodiment, the information on the direction in which the lane number is calculated includes information on a rule for calculating a lane from the left side of the road, information on a rule for calculating a lane from the right side of the road, and information on a rule for calculating a lane from the right side of the road, starting from a preset center area of the road. Information on rules for calculating lanes and information on rules for calculating lanes from the shoulder may be included.

일 실시예에 따르면, 상기 특수 목적 차선에 대한 정보는 버스 차선에 대한 정보, 자전거 전용도로에 대한 정보, 보행자 도로에 대한 정보, 추월차선에 대한 정보, 저속전용차선에 대한 정보 중 적어도 하나를 포함할 수 있다.According to an embodiment, the information on the special-purpose lane includes at least one of information on a bus lane, information on a bicycle-only road, information on a pedestrian road, information on an overtaking lane, and information on an exclusive low-speed lane. can do.

일 실시예에 따르면, 상기 제2 차량의 이동변위에 대한 정보는 상기 공유점으로부터 상기 제2 차량이 동쪽 또는 서쪽으로 이동한 변위에 대한 제1 이동변위 정보, 상기 공유점으로부터 상기 제2 차량이 북쪽 또는 남쪽으로 이동한 변위에 대한 제2 이동변위 정보, 상기 공유점으로 상기 제2 차량이 수직방향으로 이동한 변위에 대한 제3 이동변위 정보를 포함할 수 있다.According to an embodiment, the information on the movement displacement of the second vehicle is first movement displacement information on the displacement of the second vehicle moving east or west from the sharing point, and the information on the movement displacement of the second vehicle from the sharing point. It may include second movement displacement information about displacement to the north or south, and third movement displacement information about displacement of the second vehicle in the vertical direction to the sharing point.

일 실시예에 따르면, 상기 송수신부는 상기 다른 차량으로부터 상기 다른 차량이 주행하는 차선에 대한 정보에 기초한 객체 인식 방법 활성화를 위한 비트 정보와 상기 다른 차량의 이동변위에 대한 정보에 기초한 객체 인식 방법 활성화를 위한 비트 정보를 포함하는 메시지를 수신할 수 있다.According to an embodiment, the transceiver receives bit information for activating an object recognition method based on information about a lane in which the other vehicle travels from the other vehicle and object recognition method activation based on information about a movement displacement of the other vehicle. It is possible to receive a message including bit information for

본 발명에서 개시하고 있는 일 실시예에 따르면, 복수개의 층으로 구성된 도로에서 차량이 주행하는 차선 및 주행도로의 위치를 고려하여 차량 근처로 접근하는 객체를 인식할 수 있으므로 객체 인식의 정확도가 향상될 수 있다.According to an embodiment disclosed in the present invention, since an object approaching a vehicle can be recognized in consideration of the location of a lane and a driving road in which a vehicle travels on a road composed of a plurality of floors, the accuracy of object recognition can be improved. can

뿐만 아니라, 본 발명에서 개시하고 있는 일 실시예에 따르면, 차량간 통신을 통해 차량의 상대적 위치 및 다른 차량의 주행 차선에 대한 정보를 확인함으로써 차량 자율주행의 안전성을 향상시킬 수 있다.In addition, according to an embodiment disclosed in the present invention, the safety of vehicle autonomous driving can be improved by checking information about the relative position of the vehicle and the driving lane of another vehicle through vehicle-to-vehicle communication.

도 1은 복층으로 구성된 도로에서 차량이 주행하는 경우의 시나리오를 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 차량의 객체 인식 방법에 대한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 주행 차선에 대한 정보에 포함된 데이터 구조를 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 차선 번호가 계산되는 방향에 대한 정보에 포함된 데이터 구조를 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 차선 계산 규칙을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 특수 목적 차선에 대한 정보에 포함된 데이터 구조를 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 따른 차량의 이동변위에 대한 정보에 포함된 데이터 구조를 나타낸 도면이다.
도 8은 본 발명의 일 실시예에 따른 객체 인식 방법이 적용되는 사례를 나타낸 도면이다.
도 9는 본 발명의 제1 실시예에 따른 차량 위치 공유 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 제2 실시예에 따른 차량 위치 공유 방법을 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시예에 따라 상대적 위치 확인을 위해 차량간 송수신되는 메시지의 데이터 구조를 나타낸 도면이다.
도 12는 본 발명의 일 실시예에 따른 객체 인식 방법을 수행하는 전자 장치에 대한 구성도이다.
1 is a diagram illustrating a scenario in the case where a vehicle travels on a road composed of multiple floors.
2 is a flowchart of a method for recognizing an object of a vehicle according to an embodiment of the present invention.
3 is a diagram illustrating a data structure included in information about a driving lane according to an embodiment of the present invention.
4 is a diagram illustrating a data structure included in information about a direction in which a lane number is calculated according to an embodiment of the present invention.
5 is a diagram for explaining a lane calculation rule according to an embodiment of the present invention.
6 is a diagram illustrating a data structure included in information about a special-purpose lane according to an embodiment of the present invention.
7 is a diagram illustrating a data structure included in information on a movement displacement of a vehicle according to an embodiment of the present invention.
8 is a diagram illustrating a case in which an object recognition method according to an embodiment of the present invention is applied.
9 is a diagram for explaining a vehicle location sharing method according to the first embodiment of the present invention.
10 is a diagram for explaining a vehicle location sharing method according to a second embodiment of the present invention.
11 is a diagram showing a data structure of a message transmitted and received between vehicles for relative positioning according to an embodiment of the present invention.
12 is a configuration diagram of an electronic device performing an object recognition method according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Like reference numbers have been used for like elements throughout the description of each figure.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as "comprise" or "having" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that it does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't

도 1은 복층으로 구성된 도로에서 차량이 주행하는 경우의 시나리오를 나타낸 도면이다.1 is a diagram illustrating a scenario in the case where a vehicle travels on a road composed of multiple floors.

단층으로 구성된 도로와 달리 복층으로 구성된 도로에서는 동일한 차선을 주행한다고 하더라도 차량이 주행하는 도로의 높이에 따라 근접 객체에 해당하지 않을 수 있다. 예를 들어, 동일한 도로의 2층에 주행하는 차량과 1층에 주행하는 차량은 서로 동일한 차선에서 주행하고 있다고 하더라도 충돌 가능성은 없으므로 서로 근접 객체로 인식할 필요가 없다.Unlike a single-story road, a multi-story road may not correspond to a nearby object depending on the height of a road on which a vehicle travels even if it travels in the same lane. For example, a vehicle traveling on the second floor and a vehicle traveling on the first floor of the same road do not need to recognize each other as close objects because there is no possibility of collision even if they are traveling in the same lane.

그러나, 서로 다른 층에 주행한다고 하더라도 1층에서 주행하는 차량(120)이 2층으로 이동하고자 한다면, 1층에서 2층으로 올라오는 차량(120)은 2층에서 주행하는 차량(110)에 접근하는 근접 객체에 해당할 수 있다. 이에 따라, 2층에서 주행하는 차량(110)은 1층에서 2층으로 이동하는 차량(120)을 사전에 감지할 필요가 있다.However, even if they drive on different floors, if the vehicle 120 traveling on the first floor wants to move to the second floor, the vehicle 120 coming up from the first floor to the second floor approaches the vehicle 110 traveling on the second floor. may correspond to a proximity object that Accordingly, the vehicle 110 traveling on the second floor needs to detect the vehicle 120 moving from the first floor to the second floor in advance.

따라서 본 발명에서는 복층으로 구성된 도로에서 차량이 층간을 이동한다고 하더라도 차량에 접근하는 객체를 정확하게 감지할 수 있는 방법 및 이를 위한 전자 장치를 제공하고자 한다. 본 발명에서 개시하고 있는 실시예를 통해 1층에서 2층으로 이동하는 차량(120)은 자신이 주행하고자 하는 차선 및 이동변위에 대한 정보를 주변의 차량에게 전송할 수 있으며, 1층에서 2층으로 이동하는 차량(120)이 전송한 정보를 수신한 2층 주행 차량(110)은 상기 수신한 정보를 활용하여 시각적으로 보이지 않더라도 자신에게 접근하는 차량을 감지함으로써 차량의 자율주행 성능을 향상시킬 수 있다.Accordingly, an object of the present invention is to provide a method and an electronic device for accurately detecting an object approaching the vehicle even when the vehicle moves between floors on a multi-story road. Through the embodiment disclosed in the present invention, the vehicle 120 moving from the first floor to the second floor can transmit information about the lane and movement displacement in which it intends to drive to nearby vehicles, and can move from the first floor to the second floor. Upon receiving the information transmitted by the moving vehicle 120, the second-floor driving vehicle 110 utilizes the received information to detect a vehicle approaching it even though it is not visually visible, thereby improving the autonomous driving performance of the vehicle. .

도 2는 본 발명의 일 실시예에 따른 차량의 객체 인식 방법에 대한 흐름도이다. 일 실시예에 따르면, 도 2에서 도시하고 있는 흐름도는 도 12에서 도시하고 있는 전자 장치에 의해 수행될 수 있다. 또한, 도 2에서 도시하고 있는 실시예는 복층으로 구성된 도로를 제1 차량과 제2 차량이 주행하는 경우 제1 차량에 의한 객체 인식 방법을 설명하기 위한 도면이다.2 is a flowchart of a method for recognizing an object of a vehicle according to an embodiment of the present invention. According to one embodiment, the flowchart shown in FIG. 2 may be performed by the electronic device shown in FIG. 12 . In addition, the embodiment shown in FIG. 2 is a diagram for explaining an object recognition method by the first vehicle when the first vehicle and the second vehicle drive on a road composed of two floors.

일 실시예에 따르면, S210 단계에서 제1 차량은 제2 차량으로부터 상기 제2 차량이 주행하는 차선에 대한 정보와 기설정된 공유점으로부터 상기 제2 차량의 이동변위에 대한 정보를 수신할 수 있다. 상기 제2 차량이 주행하는 차선에 대한 정보에 구체적인 설명은 도 3에 대한 설명을 통해 후술하며, 상기 제2 차량의 이동변위에 대한 정보는 도 7에 대한 설명을 통해 후술한다. 다양한 실시예에 따르면, 상기 기설정된 공유점은 상기 제1 차량과 상기 제2 차량이 사전에 공유하고 있는 참조점일 수 있다. According to an embodiment, in step S210, the first vehicle may receive information about a lane on which the second vehicle travels and information about a movement displacement of the second vehicle from a predetermined sharing point from the second vehicle. A detailed description of information on the lane on which the second vehicle travels will be described later with reference to FIG. 3 , and information on movement displacement of the second vehicle will be described later with reference to FIG. 7 . According to various embodiments, the preset sharing point may be a reference point previously shared by the first vehicle and the second vehicle.

일 실시예에 따르면, 상기 제1 차량 또는 상기 제2 차량에서 공유하고 있는 ID를 통해 상기 기설정된 공유점을 식별할 수 있다. 다양한 실시예에 따르면, 상기 제1 차량은 상기 기설정된 공유점을 이용하여 자신의 지도상에서 공유점을 식별할 수 있으며, 식별된 지도상의 공유점을 통해 공유점으로부터 제2 차량의 상대적 위치를 미터 단위로 식별할 수 있다.According to an embodiment, the preset sharing point may be identified through an ID shared by the first vehicle or the second vehicle. According to various embodiments, the first vehicle may identify a share point on its own map using the preset share point, and measure the relative position of the second vehicle from the share point through the identified share point on the map. units can be identified.

일 실시예에 따르면, S220 단계에서 제1 차량은 제2 차량이 주행하는 차선에 대한 정보에 기초하여 상기 제1 차량이 주행하고 있는 차선이 상기 제2 차량이 주행하고 있는 차선과 중복되는지 여부를 판단할 수 있다. 다양한 실시예에 따르면, 상기 제1 차량은 상기 제1 차량을 구성하는 전자 제어부 또는 감지부를 통해 상기 제1 차량이 주행하고 있는 차선에 대한 정보를 확인할 수 있다.According to an embodiment, in step S220, the first vehicle determines whether the lane in which the first vehicle is driving overlaps with the lane in which the second vehicle is driving, based on information on the lane in which the second vehicle is driving. can judge According to various embodiments, the first vehicle may check information about a lane in which the first vehicle is driving through an electronic control unit or a sensing unit constituting the first vehicle.

일 실시예에 따르면, 제1 차량은 제2 차량으로부터 수신한 차선에 대한 정보에 기초하여 상기 제2 차량이 주행하고 있는 차선을 식별할 수 있다. (예를 들어, 제2 차량이 1차선으로 주행하고 있다고 식별하거나 제2 차량이 1차선으로 주행하고 있으며, 2차선으로 차선을 변경하고자 한다고 식벽할 수 있다.) 다양한 실시예에 따르면, 상기 제1 차량은 식별된 제2 차량의 주행 차선 또는 타겟 차선을 상기 제1 차량이 주행하고 있는 차선과 비교함으로써 상기 제1 차량이 주행하고 있는 차선과 상기 제2 차량이 주행하고 있는 차선의 중복여부를 판단할 수 있다.According to an embodiment, the first vehicle may identify the lane in which the second vehicle is driving based on the lane information received from the second vehicle. (For example, it may be identified that the second vehicle is driving in a first lane, or it may be determined that the second vehicle is driving in a first lane and wants to change lanes to a second lane.) The first vehicle determines whether the lane in which the first vehicle is traveling overlaps with the lane in which the second vehicle is traveling by comparing the identified driving lane or target lane of the second vehicle with the lane in which the first vehicle is driving. can judge

일 실시예에 따르면, 제1 차량이 주행하고 있는 차선과 제2 차량이 주행하고 있는 차선이 중복되는 경우, S230 단계에서 상기 기설정된 공유점으로부터 상기 제2 차량의 이동변위에 대한 정보에 기초하여 상기 제1 차량이 주행하고 있는 도로와 상기 제2 차량이 주행하고 있는 도로가 같은 층에 해당하는지 여부를 판단할 수 있다. 다양한 실시예에 따르면, 상기 제1 차량은 상기 제2 차량의 이동변위에 대한 정보에 포함되어 있는 수직방향 이동변위에 대한 정보를 상기 제1 차량이 상기 기설정된 공유점으로부터 상기 제1 차량의 수직방향 이동변위에 비교함으로써 상기 제1 차량이 주행하고 있는 도로와 상기 제2 차량이 주행하고 있는 도로가 같은 층에 해당하는지 여부를 판단할 수 있다.According to an embodiment, when the lane in which the first vehicle is traveling overlaps with the lane in which the second vehicle is traveling, in step S230, based on information about the movement displacement of the second vehicle from the preset sharing point, It may be determined whether the road on which the first vehicle is driving and the road on which the second vehicle is driving correspond to the same floor. According to various embodiments, the first vehicle converts information on vertical movement displacement included in the movement displacement information of the second vehicle to the vertical direction of the first vehicle from the predetermined sharing point. By comparing the directional displacement, it is possible to determine whether the road on which the first vehicle is driving and the road on which the second vehicle is driving correspond to the same floor.

예를 들어, 공유점으로부터 제1 차량의 수직방향 이동변위가 100 미터이고, 공유점으로부터 제2 차량의 수직방향 이동변위가 300 미터라면, 제1 차량과 제2 차량은 서로 다른 층의 도로에서 주행하고 있다고 판단할 수 있다. 반면, 제1 차량의 수직방향 이동변위가 100 미터이고, 공유점으로부터 제2 차량의 수직방향 이동변위가 100 미터라면, 제1 차량과 제2 차량은 서로 같은 층의 도로에서 주행하고 있다고 판단할 수 있다.For example, if the vertical movement displacement of the first vehicle from the common point is 100 meters and the vertical movement displacement of the second vehicle from the common point is 300 meters, the first vehicle and the second vehicle are on the road on different floors. It can be judged that it is driving. On the other hand, if the vertical displacement of the first vehicle is 100 meters and the vertical displacement of the second vehicle from the common point is 100 meters, it can be determined that the first vehicle and the second vehicle are driving on the same road. can

한편, 공유점으로부터 제1 차량의 수직방향 이동변위가 100 미터이고, 제2 차량의 수직방향 이동변위가 130 미터이며, 허용오차가 50 미터인 경우, 제1 차량의 수직방향 이동변위와 제2 차량의 수직방향 이동변위가 서로 다르더라도 1pc 제1 차량의 수직방향 이동범위와 제2 차량의 수직방향 이동범위 차이가 허용오차 범위 이내이므로 제1 차량과 제2 차량은 서로 같은 층의 도로에서 주행하고 있다고 판단할 수 있다.On the other hand, when the vertical displacement of the first vehicle from the common point is 100 meters, the vertical displacement of the second vehicle is 130 meters, and the tolerance is 50 meters, the vertical displacement of the first vehicle and the second Even if the vertical movement displacements of the vehicles are different from each other, since the difference between the vertical movement range of the first vehicle and the vertical movement range of the second vehicle is within the tolerance range, the first vehicle and the second vehicle drive on the same floor road. can be judged to be doing.

일 실시예에 따르면, 제1 차량이 주행하고 있는 도로와 제2 차량이 주행하고 있는 도로가 같은 층에 해당하는 경우, S240 단계에서 제1 차량은 제2 차량을 근접 객체로 인식할 수 있다. 다양한 실시예에 따르면, S220 단계에서 제1 차량 주행차선과 제2 차량 주행차선이 중복되지 않는다고 판단된 경우 또는 S230 단계에서 제1 차량 주행도로와 제2 차량 주행도로가 같은 층에 해당하지 않는다고 판단된 경우, 제1 차량은 S250 단계를 통해 지속적으로 근접 차량의 차선에 대한 정보와 이동변위에 대한 정보를 모니터링할 수 있다.According to an embodiment, when the road on which the first vehicle is driving and the road on which the second vehicle is driving correspond to the same floor, the first vehicle may recognize the second vehicle as a nearby object in step S240. According to various embodiments, when it is determined in step S220 that the first vehicle driving lane and the second vehicle driving lane do not overlap, or in step S230, it is determined that the first vehicle driving road and the second vehicle driving road do not correspond to the same floor. In this case, the first vehicle may continuously monitor the information on the lane and the movement displacement of the adjacent vehicle through step S250.

일 실시예에 따르면, S250 단계를 통해 근접 차량의 차선에 대한 정보와 이동변위에 대한 정보가 수신되는 경우, 제1 차량은 S210 단계로 회귀하여 도 2에서 도시되어 있는 프로세스를 수행할 수 있다.According to an embodiment, when the information on the lane and the movement displacement of the adjacent vehicle are received through step S250, the first vehicle may return to step S210 and perform the process shown in FIG. 2 .

도 3은 본 발명의 일 실시예에 따른 주행 차선에 대한 정보에 포함된 데이터 구조를 나타낸 도면이다. 도 3에서 도시하고 있는 데이터 구조는 도 11에서 도시하고 있는 LocationInformationOnLane 데이터 구조에 해당할 수 있다.3 is a diagram illustrating a data structure included in information about a driving lane according to an embodiment of the present invention. The data structure shown in FIG. 3 may correspond to the LocationInformationOnLane data structure shown in FIG. 11 .

일 실시예에 따르면, 차량이 주행하는 차선에 대한 정보는 차선 번호가 계산되는 방향에 대한 정보(LaneCountingConvention), 차도 내 총 차선 수에 대한 정보(TotalNumberOfLanes), 차량의 목표 차선에 대한 정보(ObjectiveLaneNumber), 특수 목적 차선에 대한 정보(SpecificLaneType)를 포함할 수 있다. 차선 번호가 계산되는 방향에 대한 정보는 도 4 및 도 5에 대한 설명을 통해 후술한다.According to an embodiment, the information on the lane on which the vehicle travels includes information on the direction in which the lane number is calculated (LaneCountingConvention), information on the total number of lanes on the roadway (TotalNumberOfLanes), and information on the target lane of the vehicle (ObjectiveLaneNumber). , may include information on special-purpose lanes (SpecificLaneType). Information on the direction in which the lane number is calculated will be described later with reference to FIGS. 4 and 5 .

일 실시예에 따르면, 차량의 목표 차선에 대한 정보가 2인 경우(즉, ObjectiveLaneNumber = 2인 경우) 차량의 목표 차선은 2차선일 수 있다. 다양한 실시예에 따르면, 차량의 목표 차선에 대한 정보가 2..3인 경우(ObjectiveLaneNumber = 2..3인 경우), 차량의 목표 차선은 2차선과 3차선 사이의 공간일 수 있다.According to an embodiment, when the information on the target lane of the vehicle is 2 (ie, when ObjectiveLaneNumber = 2), the target lane of the vehicle may be 2 lanes. According to various embodiments, when information on the target lane of the vehicle is 2..3 (ObjectiveLaneNumber = 2..3), the target lane of the vehicle may be a space between the second and third lanes.

일 실시예에 따르면, 차량의 목표 차선에 대한 정보가 0 이하(즉, ObjectiveLaneNumber ≤ 0인 경우)이거나, 차도 내 총 차선수보다 큰 경우(즉, ObjectiveLaneNumber > TotalNumberOfLanes 인 경우) 목표 차선은 일반 주행에 사용되는 도로의 외부 영역을 의미할 수 있다. 다양한 실시예에 따르면, 특수 목적 차선에 대한 정보는 선택적 항목으로 두 개 이상의 정보를 포함할 수 있으며, 특수 목적 차선에 대한 정보는 도 6에 대한 설명을 통해 후술한다.According to one embodiment, when the information on the target lane of the vehicle is 0 or less (ie, when ObjectiveLaneNumber ≤ 0) or greater than the total number of lanes on the roadway (ie, when ObjectiveLaneNumber > TotalNumberOfLanes), the target lane is set for normal driving. It may refer to the outer area of the road being used. According to various embodiments, information on special-purpose lanes may include two or more pieces of information as optional items, and information on special-purpose lanes will be described later with reference to FIG. 6 .

도 4는 본 발명의 일 실시예에 따른 차선 번호가 계산되는 방향에 대한 정보에 포함된 데이터 구조를 나타낸 도면이다. 도 4에서 도시하고 있는 데이터 구조는 도 11에서 도시하고 있는 LaneCountingConvention 데이터 구조에 해당할 수 있다.4 is a diagram illustrating a data structure included in information about a direction in which a lane number is calculated according to an embodiment of the present invention. The data structure shown in FIG. 4 may correspond to the LaneCountingConvention data structure shown in FIG. 11 .

일 실시예에 따르면, 차선 번호가 계산되는 방향에 대한 정보는 도로의 왼쪽부터 차선을 계산하는 규칙에 대한 정보, 도로의 오른쪽부터 차선을 계산하는 규칙에 대한 정보, 기설정된 도로의 중앙영역부터 차선을 계산하는 규칙에 대한 정보, 갓길부터 차선을 계산하는 규칙에 대한 정보 중 하나를 포함할 수 있다.According to an embodiment, the information on the direction in which the lane number is calculated includes information on a rule for calculating a lane from the left side of the road, information on a rule for calculating a lane from the right side of the road, and information on a lane from a preset center area of the road. It may include one of information about a rule for calculating , and information about a rule for calculating a lane from a shoulder.

일 실시예에 따르면, 차선 번호가 계산되는 규칙에 대한 정보가 도로의 왼쪽부터 차선을 계산하는 규칙에 대한 정보로 구성되는 경우(즉, LaneCountingConvention = FromLeft인 경우) 도로의 왼쪽부터 차선 번호가 계산이 된다. 다양한 실시예에 따르면, 차선 번호가 계산되는 규칙에 대한 정보가 기설정된 도로의 중앙영역으로부터 차선을 계산하는 규칙에 대한 정보로 구성되는 경우(즉, LaneCountingConvention = FromCentre인 경우) 도로의 중앙에 설정된 영역으로부터 차선 번호가 계산될 수 있다. 한편, 상기 기설정된 도로의 중앙 영역은 교통 흐름을 양방향으로 분할하기 위해 중앙에 설정된 영역으로 가변되는 영역일 수 있다.According to an embodiment, when the information on rules for calculating lane numbers is configured with information on rules for counting lanes from the left side of the road (ie, when LaneCountingConvention = FromLeft), lane numbers are calculated from the left side of the road. do. According to various embodiments of the present disclosure, when information on a rule for calculating a lane number is configured with information on a rule for calculating a lane from a central region of a preset road (ie, when LaneCountingConvention = FromCentre), an area set in the center of the road A lane number can be calculated from Meanwhile, the central area of the predetermined road may be a variable area to a centrally set area in order to divide the traffic flow in both directions.

도 5는 본 발명의 일 실시예에 따른 차선 계산 규칙을 설명하기 위한 도면이다.5 is a diagram for explaining a lane calculation rule according to an embodiment of the present invention.

일 실시예에 따르면, 도 4에 따라 차선 번호가 계산되는 규칙에 대한 정보가 왼쪽부터 차선을 계산하는 규칙에 대한 정보를 포함하는 경우(즉, LaneCountingConvention = FromLeft인 경우) 빨간색 차량이 주행하는 차선이 1차선으로 계산될 수 있으며, 초록색 차량이 주행하는 차선이 2차선으로 계산될 수 있다.According to an embodiment, when information on a rule for calculating a lane number according to FIG. 4 includes information on a rule for calculating a lane from the left (ie, when LaneCountingConvention = FromLeft), the lane in which the red vehicle travels It can be counted as one lane, and the lane in which the green vehicle travels can be counted as two lanes.

반면, 도 4에 따라 차선 번호가 계산되는 규칙에 대한 정보가 기설정된 도로의 중앙영역으로부터 차선을 계산하는 규칙에 대한 정보를 포함하는 경우(즉, LaneCountingConvention = FromCentre인 경우) 초록색 차량이 주행하는 차선은 2차선으로 계산될 수 있으며, 빨간색 차량이 주행하는 차선은 3차선으로 계산될 수 있다.On the other hand, when the information on the rule for calculating the lane number according to FIG. 4 includes information on the rule for calculating the lane from the central area of the preset road (ie, when LaneCountingConvention = FromCentre), the lane in which the green vehicle travels can be calculated as two lanes, and the lane in which the red vehicle travels can be calculated as three lanes.

도 6은 본 발명의 일 실시예에 따른 특수 목적 차선에 대한 정보에 포함된 데이터 구조를 나타낸 도면이다. 도 6에서 도시하고 있는 데이터 구조는 도 11에서 도시하고 있는 SpecificLaneType 데이터 구조에 해당할 수 있다.6 is a diagram illustrating a data structure included in information about a special-purpose lane according to an embodiment of the present invention. The data structure shown in FIG. 6 may correspond to the SpecificLaneType data structure shown in FIG. 11 .

일 실시예에 따르면, 특수 목적 차선에 대한 정보는 버스 차선에 대한 정보, 자전거 전용도로에 대한 정보, 보행자 도로에 대한 정보, 추월차선에 대한 정보, 저속전용차선에 대한 정보 중 적어도 하나를 포함할 수 있다. 다양한 실시예에 따르면, 상기 특수 목적 차선에 대한 정보는 두 가지 이상의 특수 목적 차선에 대한 정보를 포함할 수 있다.According to an embodiment, the information on the special-purpose lane may include at least one of information about a bus lane, information about a bicycle lane, information about a pedestrian road, information about an overtaking lane, and information about a slow-only lane. can According to various embodiments, the information on the special-purpose lane may include information on two or more special-purpose lanes.

일 실시예에 따르면, 특수 목적 차선에 대한 정보에 버스 차선에 대한 정보가 포함되는 경우(즉, SpecificLaneType = Bus인 경우) 특수 목적 차선이 버스 차선을 포함하고 있다고 판단할 수 있다. 다양한 실시예에 따르면, 특수 목적 차선에 대한 정보에 만석 차량 차선에 대한 정보가 포함되는 경우(즉, SpecificLaneType = HOV인 경우) 특수 목적 차선이 만석 차량 차선을 포함하고 있다고 판단할 수 있다.According to an embodiment, when the information on the special-purpose lane includes information on the bus lane (ie, when SpecificLaneType = Bus), it may be determined that the special-purpose lane includes the bus lane. According to various embodiments, when the information on the special-purpose lane includes the information on the full-vehicle lane (ie, when SpecificLaneType = HOV), it may be determined that the special-purpose lane includes the full-vehicle lane.

도 7은 본 발명의 일 실시예에 따른 차량의 이동변위에 대한 정보에 포함된 데이터 구조를 나타낸 도면이다. 도 7에서 도시하고 있는 데이터 구조는 도 11에서 도시하고 있는 Displacement 데이터 구조에 해당할 수 있다.7 is a diagram illustrating a data structure included in information on a movement displacement of a vehicle according to an embodiment of the present invention. The data structure shown in FIG. 7 may correspond to the displacement data structure shown in FIG. 11 .

일 실시예에 따르면, 차량의 이동변위에 대한 정보는 기설정된 공유점으로부터 차량이 동쪽 또는 서쪽으로 이동한 변위에 대한 제1 이동변위 정보, 상기 공유점으로부터 차량이 북쪽 또는 남쪽으로 이동한 이동 변위에 대한 제2 이동변위 정보, 상기 공유점으로부터 차량이 수직방향으로 이동한 변위에 대한 제3 이동변위 정보를 포함할 수 있다.According to an embodiment, the information on the movement displacement of the vehicle may include first movement displacement information about a displacement of the vehicle moving east or west from a predetermined common point, and movement displacement of the vehicle moving north or south from the common point. It may include second movement displacement information for , and third movement displacement information about displacement of the vehicle in the vertical direction from the sharing point.

예를 들어, 제1차량의 제1 이동변위 정보가 +500이고, 제2 이동변위 정보가 -800이며, 제3 이동변위 정보가 +100이라면, 상기 제1 차량은 기설정된 공유점으로부터 동쪽으로 500미터, 남쪽으로 800미터, 수직방향으로 +100미터(예를 들어 고도가 높아지는 방향일 수 있다.) 하였음을 확인할 수 있다.For example, if the first movement displacement information of the first vehicle is +500, the second movement displacement information is -800, and the third movement displacement information is +100, the first vehicle moves eastward from the preset sharing point. You can see that it is 500 meters, 800 meters south, +100 meters in the vertical direction (for example, it may be in the direction of increasing altitude).

도 8은 본 발명의 일 실시예에 따른 객체 인식 방법이 적용되는 사례를 나타낸 도면이다.8 is a diagram illustrating a case in which an object recognition method according to an embodiment of the present invention is applied.

일 실시예에 따를 경우, 차량은 근접하는 차량의 주행하는 차선에 대한 정보 또는 근접하는 차량의 기설정된 공유점으로부터의 이동변위에 대한 정보에 기초하여 근접하는 차량에 대한 상대적 위치를 확인할 수 있다. 예를 들어, 2차선으로 주행하고 있는 차량은 근접하는 차선을 주행하고 있는 차량으로부터 주행 차선, 목표 주행 차선 등에 대한 정보를 수신함으로써 차량간 상대적 위치를 확인함으로써 자신에게 근접한 차량을 식별할 수 있다. 한편, 차량이 주행하는 도로에 차선이 존재하여야 차선에 대한 정보에 기초하여 근접하는 차량의 상대적 위치 확인이 가능하므로 주행 차선에 대한 정보에 기초하여 접근하는 객체를 인식하는 방법은 차선이 존재하는 제1 영역(810)에서 이용될 수 있다.According to an embodiment, the vehicle may determine a relative position of an approaching vehicle based on information about a driving lane of an approaching vehicle or information about a movement displacement of an approaching vehicle from a preset common point. For example, a vehicle driving in two lanes can identify a vehicle close to itself by receiving information about a driving lane, a target driving lane, and the like from a vehicle driving in an adjacent lane and checking relative positions between vehicles. On the other hand, since a lane must exist on the road on which the vehicle is traveling, it is possible to check the relative position of an approaching vehicle based on information on the lane, so a method for recognizing an approaching object based on information on the driving lane 1 may be used in area 810 .

반면, 차선이 포함되어 있지 않은 교차로 등의 제2 영역(820)에서는 주행 차선에 대한 정보에 기초한 객체 인식 방법이 활용되기 어려운바, 기설정된 공유점으로부터의 이동변위에 대한 정보에 기초하여 차량에 근접하는 객체를 인식할 수 있다.On the other hand, in the second area 820, such as an intersection where lanes are not included, it is difficult to utilize an object recognition method based on information on driving lanes, so that the vehicle can be detected based on information on movement displacement from a preset common point. Approaching objects can be recognized.

다양한 실시예에 따르면, 제1 영역(810)에서 차량에 근접하는 객체를 인식하는 방법과 제2 영역(820)에서 차량에 근접하는 객체를 인식하는 방법은 서로 다를 수 있으며, 주행 차선에 대한 정보에 기초하여 객체를 인식할 것인지 또는 기설정된 공유점으로부터 이동변위에 대한 정보에 기초하여 객체를 인식할 것인지 또는 주행 차선에 대한 정보와 기설정된 공유점으로부터 이동변위에 대한 정보를 모두 이용하요 객체를 인식할 것인지 여부는 도 11에서 도시하고 있는 메시지 데이터 구조 중 LocationReferencingMethod 데이터 구조를 통해 결정될 수 있다. 예를 들어, LocationReferencingMethod = LaneNumberCounting인 경우, 차량은 주행 차선에 대한 정보에 기초하여 객체를 인식하는 것으로 결정할 수 있으며, LocationReferencingMethod = DisplacementFromAReferencePoint인 경우, 차량은 기설정된 공유점으로부터 이동변위에 대한 정보에 기초하여 객체를 인식하는 것으로 결정할 수 있다.According to various embodiments, a method for recognizing an object approaching the vehicle in the first area 810 and a method for recognizing an object approaching the vehicle in the second area 820 may be different from each other, and information about driving lanes may be different. Whether to recognize an object based on whether to recognize an object based on whether to recognize an object based on information on movement displacement from a preset common point, or use both information on a driving lane and information on movement displacement from a preset common point. Whether or not to recognize can be determined through the LocationReferencingMethod data structure among the message data structures shown in FIG. 11 . For example, in the case of LocationReferencingMethod = LaneNumberCounting, the vehicle may determine to recognize an object based on information about a driving lane, and in the case of LocationReferencingMethod = DisplacementFromAReferencePoint, the vehicle may determine based on information about displacement from a preset sharing point. It can be determined by recognizing the object.

도 9는 본 발명의 제1 실시예에 따른 차량 위치 공유 방법을 설명하기 위한 도면이다. 도 9에서 도시하고 있는 제1 실시예에 따른 차량 위치 공유 방법은 앞서 설명한 주행 차선에 대한 정보에 기초한 객체 인식 방법을 수행하기 위한 프로세스일 수 있다. 즉, 도 9는 도 8에서 도시하고 있는 제1 영역(810)에서 수행되는 차량 위치 공유 방법을 나타낼 수 있다.9 is a diagram for explaining a vehicle location sharing method according to the first embodiment of the present invention. The vehicle location sharing method according to the first embodiment shown in FIG. 9 may be a process for performing the object recognition method based on the information about the driving lane described above. That is, FIG. 9 may represent a vehicle location sharing method performed in the first area 810 shown in FIG. 8 .

일 실시예에 따르면, S910 단계에서 차량은 차량이 주행하고 있는 차선 정보에 기초하여 차량의 위치를 확인할 수 있다. 다양한 실시예에 따르면, S920 단계에서 차량은 근접하는 차량 또는 기지국으로 차선 정보를 포함하는 위치 참조 메시지를 전송할 수 있다. S920 단계에서 차량이 전송하는 위치 참조 메시지의 메시지 구조는 도 11과 같을 수 있다.According to an embodiment, in step S910, the vehicle may check the location of the vehicle based on information on the lane on which the vehicle is driving. According to various embodiments, in step S920, the vehicle may transmit a location reference message including lane information to a nearby vehicle or base station. The message structure of the location reference message transmitted by the vehicle in step S920 may be as shown in FIG. 11 .

일 실시예에 따르면, 전송된 위치 참조 메시지를 수신한 차량은 S930 단계를 통해 수신된 메시지를 복호화하고 수신된 메시지에 포함된 차선 정보를 이용하여 메시지를 송신한 차량의 위치를 확인할 수 있다. 다양한 실시예에 따르면, 상기 위치 참조 메시지는 V2X 통신을 통해 차량간 직접 전송되거나 기지국을 중계하여 전송될 수 있다.According to an embodiment, the vehicle receiving the transmitted location reference message may decode the received message through step S930 and determine the location of the vehicle transmitting the message using lane information included in the received message. According to various embodiments, the location reference message may be transmitted directly between vehicles through V2X communication or transmitted by relaying a base station.

도 10은 본 발명의 제2 실시예에 따른 차량 위치 공유 방법을 설명하기 위한 도면이다. 도 10에서 도시하고 있는 제2 실시예에 따른 차량 위치 공유 방법은 앞서 설명한 기설정된 공유점으로부터 이동변위에 대한 정보에 기초한 객체 인식 방법을 수행하기 위한 프로세스일 수 있다. 즉, 도 10은 도 8에서 도시하고 있는 제2 영역(820)에서 수행되는 차량 위치 공유 방법을 나타낼 수 있다.10 is a diagram for explaining a vehicle location sharing method according to a second embodiment of the present invention. The vehicle location sharing method according to the second embodiment shown in FIG. 10 may be a process for performing the object recognition method based on the information on the movement displacement from the previously set sharing point. That is, FIG. 10 may represent a vehicle location sharing method performed in the second area 820 shown in FIG. 8 .

일 실시예에 따르면, S1010 단계에서 차량은 공유된 기준점(또는 공유점)으로부터 dx, dy, dh를 계산하고 메시지를 암호화할 수 있다. 다양한 실시예에 따르면, 상기 dx는 공유된 기준점으로부터 차량이 동쪽 또는 서쪽으로 이동한 변위에 대한 변위정보일 수 있으며, 상기 dy는 공유된 기준점으로 차량이 북쪽 또는 남쪽으로 이동한 변위에 대한 변위정보일 수 있고, 상기 dz는 공유된 기준점으로부터 차량이 수직방향으로 이동한 변위에 대한 변위정보일 수 있다.According to an embodiment, in step S1010, the vehicle may calculate dx, dy, and dh from the shared reference point (or share point) and encrypt the message. According to various embodiments, the dx may be displacement information about a displacement of a vehicle moving east or west from a shared reference point, and the dy may be displacement information about a displacement of a vehicle moving north or south from a shared reference point. , and the dz may be displacement information about displacement of the vehicle moving in the vertical direction from the shared reference point.

일 실시예에 따르면, S1020 단계에서 차량은 근접하는 차량 또는 기지국으로 dx, dy, dh 정보가 포함된 위치 참조 메시지를 전송할 수 있다. S1020 단계에서 차량이 전송하는 위치 참조 메시지의 메시지 구조는 도 11과 같을 수 있다. 다양한 실시예에 따르면, 전송된 위치 참조 메시지를 수신한 차량은 S1030 단계를 통해 수신된 메시지를 복호화하고 수신된 메시지에 포함된 dx, dy, dh 정보를 이용하여 메시지를 송신한 차량의 위치를 확인할 수 있다. According to an embodiment, in step S1020, the vehicle may transmit a location reference message including dx, dy, and dh information to a nearby vehicle or base station. The message structure of the location reference message transmitted by the vehicle in step S1020 may be the same as that of FIG. 11 . According to various embodiments, the vehicle receiving the transmitted location reference message decodes the received message through step S1030 and uses dx, dy, and dh information included in the received message to determine the location of the vehicle that transmitted the message. can

도 11은 본 발명의 일 실시예에 따라 상대적 위치 확인을 위해 차량간 송수신되는 메시지의 데이터 구조를 나타낸 도면이다.11 is a diagram showing a data structure of a message transmitted and received between vehicles for relative positioning according to an embodiment of the present invention.

일 실시예에 따르면, 차량의 위치를 확인하기 위해 차량간 또는 차량에서 기지국으로 전송되는 메시지의 구조는 도 11과 같을 수 있다. 다양한 실시예에 따르면, 메시지에는 BasicDescription 데이터 필드가 포함될 수 있으며, 상기 BasicDescription 데이터 필드에는 위치 확인에 사용되는 방법에 대한 데이터 필드인 LocationReferencingMethod 데이터 필드와 참조할 콘텐츠 유형에 대한 데이터 필드인 ContentType 데이터 필드가 포함될 수 있다.According to an embodiment, a structure of a message transmitted between vehicles or from a vehicle to a base station to determine a location of a vehicle may be as shown in FIG. 11 . According to various embodiments, the message may include a BasicDescription data field, and the BasicDescription data field may include a LocationReferencingMethod data field, which is a data field for a method used for location determination, and a ContentType data field, which is a data field for a content type to be referenced. can

일 실시예에 따르면, LocationReferencingMethod 데이터 필드는 LaneNumberCounting 데이터 필드와 DisplacementFromAReferencePoint 데이터 필드를 포함할 수 있다. LaneNumberCounting 데이터 필드와 DisplacementFromAReferencePoint 데이터 필드에 대한 설명은 도 8에 대한 설명에서 이미 설명하였으므로 생략한다. 다양한 실시예에 따르면, ContentType 데이터 필드는 아래의 표 1과 같은 데이터 구조를 포함할 수 있다.According to one embodiment, the LocationReferencingMethod data field may include a LaneNumberCounting data field and a DisplacementFromAReferencePoint data field. Descriptions of the LaneNumberCounting data field and the DisplacementFromAReferencePoint data field are omitted since they have already been described in the description of FIG. 8 . According to various embodiments, the ContentType data field may include a data structure shown in Table 1 below.

[표 1][Table 1]

Figure pat00001
Figure pat00001

일 실시예에 따르면, LaneNumberCounting 데이터 필드는 RoadSectionInformation 데이터 필드를 포함할 수 있다. 다양한 실시예에 따르면, RoadSectionInformation 데이터 필드는 시작점에서 객체까지의 거리를 나타내는데 사용되는 데이터 필드로 아래의 표 2와 같은 데이터 구조를 포함할 수 있다.According to one embodiment, the LaneNumberCounting data field may include a RoadSectionInformation data field. According to various embodiments, the RoadSectionInformation data field is a data field used to indicate a distance from a starting point to an object, and may include a data structure shown in Table 2 below.

[표 2][Table 2]

Figure pat00002
Figure pat00002

LR_PositionExpression 데이터 필드와 LROV_VectorOffsetDistacneExpression 데이터 필드에 대한 설명은 ISO 19158 6.2.2에 개시된 내용으로 대체하며, LocationInformationOnLane 데이터 필드에 대한 설명은 도 3에 대한 설명으로 대체한다.The description of the LR_PositionExpression data field and the LROV_VectorOffsetDistacneExpression data field is replaced with the content disclosed in ISO 19158 6.2.2, and the description of the LocationInformationOnLane data field is replaced with the description of FIG. 3 .

도 12는 본 발명의 일 실시예에 따른 객체 인식 방법을 수행하는 전자 장치에 대한 구성도이다.12 is a configuration diagram of an electronic device performing an object recognition method according to an embodiment of the present invention.

일 실시예에 따르면, 전자 장치(1200)는 다른 차량으로부터 상기 다른 차량이 주행하는 차선에 대한 정보와 기설정된 공유점으로부터 상기 다른 차량의 이동변위에 대한 정보를 수신하는 송수신부(1210) 및 상기 다른 차량이 주행하는 차선에 대한 정보에 기초하여 차량이 주행하고 있는 차선이 상기 다른 차량이 주행하고 있는 차선과 중복되는지 여부를 판단하고, 주행하고 있는 차선과 상기 다른 차량이 주행하고 있는 차선이 중복되는 경우, 상기 공유점으로부터 상기 다른 차량의 이동변위에 대한 정보에 기초하여 주행하고 있는 도로와 상기 다른 차량이 주행하고 있는 도로가 같은 층에 해당하는지 여부를 판단하며, 주행하고 있는 도로와 상기 다른 차량이 주행하고 있는 도로가 같은 층에 해당하는 경우, 상기 다른 차량을 근접 객체로 인식하는 프로세서(1220)를 포함할 수 있다.According to an embodiment, the electronic device 1200 includes a transceiver 1210 that receives information about a lane in which the other vehicle travels from another vehicle and information about the movement displacement of the other vehicle from a predetermined sharing point, and It is determined whether the lane in which the vehicle is traveling overlaps with the lane in which the other vehicle is traveling based on the information on the lane in which the other vehicle is traveling, and the lane in which the vehicle is traveling overlaps with the lane in which the other vehicle is traveling. In this case, it is determined whether the road on which the vehicle is traveling and the road on which the other vehicle is traveling correspond to the same floor based on the information on the movement displacement of the other vehicle from the sharing point, and the road on which the vehicle is traveling and the other vehicle are traveling on the same floor. When the road on which the vehicle is traveling corresponds to the same floor, a processor 1220 may be configured to recognize the other vehicle as a nearby object.

다양한 실시예에 따르면, 송수신부(1210)는 상기 다른 차량으로부터 상기 다른 차량이 주행하는 차선에 대한 정보에 기초한 객체 인식 방법 활성화를 위한 비트 정보와 상기 다른 차량의 이동변위에 대한 정보에 기초한 객체 인식 방법 활성화를 위한 비트 정보를 포함하는 메시지를 수신할 수 있다.According to various embodiments, the transmitter/receiver 1210 recognizes an object based on bit information for activating an object recognition method based on information about a lane on which the other vehicle travels from the other vehicle and information about the movement displacement of the other vehicle. A message including bit information for method activation may be received.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 사람이라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an example of the technical idea of the present invention, and various modifications and variations can be made to those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed according to the claims below, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

Claims (12)

복층으로 구성된 도로를 주행하는 제1 차량의 객체 인식 방법에 있어서,
제2 차량으로부터 상기 제2 차량이 주행하는 차선에 대한 정보와 기설정된 공유점으로부터 상기 제2 차량의 이동변위에 대한 정보를 수신하는 단계;
상기 제2 차량이 주행하는 차선에 대한 정보에 기초하여 상기 제1차량이 주행하고 있는 차선이 상기 제2 차량이 주행하고 있는 차선과 중복되는지 여부를 판단하는 단계;
상기 제1 차량이 주행하고 있는 차선과 상기 제2 차량이 주행하고 있는 차선이 중복되는 경우, 상기 공유점으로부터 상기 제2 차량의 이동변위에 대한 정보에 기초하여 상기 제1 차량이 주행하고 있는 도로와 상기 제2 차량이 주행하고 있는 도로가 같은 층에 해당하는지 여부를 판단하는 단계; 및
상기 제1 차량이 주행하고 있는 도로와 상기 제2 차량이 주행하고 있는 도로가 같은 층에 해당하는 경우, 상기 제2 차량을 상기 제1 차량의 근접 객체로 인식하는 단계를 포함하는,
제1 차량의 객체 인식 방법.
In the object recognition method of a first vehicle traveling on a road composed of multiple floors,
Receiving information about a lane in which the second vehicle travels from a second vehicle and information about a movement displacement of the second vehicle from a predetermined sharing point;
determining whether the lane in which the first vehicle is traveling overlaps with the lane in which the second vehicle is traveling, based on information about the lane in which the second vehicle is traveling;
When the lane in which the first vehicle is traveling overlaps with the lane in which the second vehicle is traveling, the road on which the first vehicle is traveling based on the information on the movement displacement of the second vehicle from the common point determining whether the second vehicle and the road on which the second vehicle is driving correspond to the same floor; and
Recognizing the second vehicle as a nearby object of the first vehicle when the road on which the first vehicle is traveling and the road on which the second vehicle is traveling correspond to the same floor,
Object recognition method of a first vehicle.
제1항에 있어서,
상기 제2 차량이 주행하는 차선에 대한 정보는 차선 번호가 계산되는 방향에 대한 정보, 차도 내 총 차선 수에 대한 정보, 상기 제2 차량의 목표 차선에 대한 정보, 특수 목적 차선에 대한 정보 중 적어도 하나를 포함하는 것을 특징으로 하는,
제1 차량의 객체 인식 방법.
According to claim 1,
The information on the lane on which the second vehicle travels is at least one of information on the direction in which the lane number is calculated, information on the total number of lanes on the road, information on the target lane of the second vehicle, and information on special purpose lanes. Characterized in that it includes one,
Object recognition method of a first vehicle.
제2항에 있어서,
상기 차선 번호가 계산되는 방향에 대한 정보는 도로의 왼쪽으로부터 차선을 계산하는 규칙에 대한 정보, 도로의 오른쪽부터 차선을 계산하는 규칙에 대한 정보, 기설정된 도로의 중앙영역부터 차선을 계산하는 규칙에 대한 정보, 갓길부터 차선을 계산하는 규칙에 대한 정보 중 하나를 포함하는 것을 특징으로 하는,
제1 차량의 객체 인식 방법.
According to claim 2,
The information on the direction in which the lane number is calculated is information on a rule for calculating a lane from the left side of the road, information on a rule for calculating a lane from the right side of the road, and a rule for calculating a lane from the center area of a preset road. Characterized in that it includes one of information about information and information about rules for calculating lanes from the shoulder,
Object recognition method of a first vehicle.
제2항에 있어서,
상기 특수 목적 차선에 대한 정보는 버스 차선에 대한 정보, 자전거 전용도로에 대한 정보, 보행자 도로에 대한 정보, 추월차선에 대한 정보, 저속전용차선에 대한 정보 중 적어도 하나를 포함하는 것을 특징으로 하는,
제1 차량의 객체 인식 방법.
According to claim 2,
Characterized in that the information on the special-purpose lane includes at least one of information about bus lanes, information about bicycle lanes, information about pedestrian roads, information about overtaking lanes, and information about slow-only lanes.
Object recognition method of a first vehicle.
제1항에 있어서,
상기 제2 차량의 이동변위에 대한 정보는 상기 공유점으로부터 상기 제2 차량이 동쪽 또는 서쪽으로 이동한 변위에 대한 제1 이동변위 정보, 상기 공유점으로부터 상기 제2 차량이 북쪽 또는 남쪽으로 이동한 변위에 대한 제2 이동변위 정보, 상기 공유점으로 상기 제2 차량이 수직방향으로 이동한 변위에 대한 제3 이동변위 정보를 포함하는 것을 특징으로 하는,
제1 차량의 객체 인식 방법.
According to claim 1,
The information on the movement displacement of the second vehicle is first movement displacement information about the displacement of the second vehicle moving east or west from the sharing point, and the movement displacement of the second vehicle north or south from the sharing point. Characterized in that it includes second movement displacement information about the displacement and third movement displacement information about the displacement of the second vehicle moving in the vertical direction to the sharing point,
Object recognition method of a first vehicle.
제1항에 있어서,
상기 제2 차량으로부터 상기 제2 차량이 주행하는 차선에 대한 정보에 기초한 객체 인식 방법 활성화를 위한 비트 정보와 상기 제2 차량의 이동변위에 대한 정보에 기초한 객체 인식 방법 활성화를 위한 비트 정보를 포함하는 메시지를 수신하는 단계를 더 포함하는,
제1 차량의 객체 인식 방법.
According to claim 1,
Including bit information for activating the object recognition method based on information about the lane on which the second vehicle travels from the second vehicle and bit information for activating the object recognition method based on information about the movement displacement of the second vehicle Further comprising receiving the message,
Object recognition method of a first vehicle.
객체 인식을 위한 프로세서를 포함하는 전자 장치에 있어서,
다른 차량으로부터 상기 다른 차량이 주행하는 차선에 대한 정보와 기설정된 공유점으로부터 상기 다른 차량의 이동변위에 대한 정보를 수신하는 송수신부; 및
상기 다른 차량이 주행하는 차선에 대한 정보에 기초하여 차량이 주행하고 있는 차선이 상기 다른 차량이 주행하고 있는 차선과 중복되는지 여부를 판단하고, 주행하고 있는 차선과 상기 다른 차량이 주행하고 있는 차선이 중복되는 경우, 상기 공유점으로부터 상기 다른 차량의 이동변위에 대한 정보에 기초하여 주행하고 있는 도로와 상기 다른 차량이 주행하고 있는 도로가 같은 층에 해당하는지 여부를 판단하며, 주행하고 있는 도로와 상기 다른 차량이 주행하고 있는 도로가 같은 층에 해당하는 경우, 상기 다른 차량을 근접 객체로 인식하는 프로세서를 포함하는,
전자 장치.
In an electronic device including a processor for object recognition,
a transmission/reception unit for receiving information about a lane on which the other vehicle travels from another vehicle and information about a movement displacement of the other vehicle from a predetermined sharing point; and
Based on the information on the lane in which the other vehicle is traveling, it is determined whether the lane in which the vehicle is traveling overlaps with the lane in which the other vehicle is traveling, and the lane in which the vehicle is traveling and the lane in which the other vehicle is traveling are determined. In the case of overlapping, it is determined whether the road on which the vehicle is traveling and the road on which the other vehicle is traveling correspond to the same floor based on the information on the movement displacement of the other vehicle from the sharing point, and Including a processor recognizing the other vehicle as a nearby object when the road on which the other vehicle is traveling corresponds to the same floor,
electronic device.
제7항에 있어서,
상기 다른 차량이 주행하는 차선에 대한 정보는 차선 번호가 계산되는 방향에 대한 정보, 차도 내 총 차선 수에 대한 정보, 상기 다른 차량의 목표 차선에 대한 정보, 특수 목적 차선에 대한 정보 중 적어도 하나를 포함하는 것을 특징으로 하는,
전자 장치.
According to claim 7,
The information on the lane on which the other vehicle is driving includes at least one of information on the direction in which the lane number is calculated, information on the total number of lanes on the roadway, information on the target lane of the other vehicle, and information on special purpose lanes. characterized in that it contains,
electronic device.
제8항에 있어서,
상기 차선 번호가 계산되는 방향에 대한 정보는 도로의 왼쪽으로부터 차선을 계산하는 규칙에 대한 정보, 도로의 오른쪽부터 차선을 계산하는 규칙에 대한 정보, 기설정된 도로의 중앙영역부터 차선을 계산하는 규칙에 대한 정보, 갓길부터 차선을 계산하는 규칙에 대한 정보 중 하나를 포함하는 것을 특징으로 하는,
전자 장치.
According to claim 8,
The information on the direction in which the lane number is calculated is information on a rule for calculating a lane from the left side of the road, information on a rule for calculating a lane from the right side of the road, and a rule for calculating a lane from the center area of a preset road. Characterized in that it includes one of information about information and information about rules for calculating lanes from the shoulder,
electronic device.
제8항에 있어서,
상기 특수 목적 차선에 대한 정보는 버스 차선에 대한 정보, 자전거 전용도로에 대한 정보, 보행자 도로에 대한 정보, 추월차선에 대한 정보, 저속전용차선에 대한 정보 중 적어도 하나를 포함하는 것을 특징으로 하는,
전자 장치.
According to claim 8,
Characterized in that the information on the special-purpose lane includes at least one of information about bus lanes, information about bicycle lanes, information about pedestrian roads, information about overtaking lanes, and information about slow-only lanes.
electronic device.
제7항에 있어서,
상기 제2 차량의 이동변위에 대한 정보는 상기 공유점으로부터 상기 제2 차량이 동쪽 또는 서쪽으로 이동한 변위에 대한 제1 이동변위 정보, 상기 공유점으로부터 상기 제2 차량이 북쪽 또는 남쪽으로 이동한 변위에 대한 제2 이동변위 정보, 상기 공유점으로 상기 제2 차량이 수직방향으로 이동한 변위에 대한 제3 이동변위 정보를 포함하는 것을 특징으로 하는,
전자 장치.
According to claim 7,
The information on the movement displacement of the second vehicle is first movement displacement information about the displacement of the second vehicle moving east or west from the sharing point, and the movement displacement of the second vehicle north or south from the sharing point. Characterized in that it includes second movement displacement information about the displacement and third movement displacement information about the displacement of the second vehicle moving in the vertical direction to the sharing point,
electronic device.
제7항에 있어서,
상기 송수신부는 상기 다른 차량으로부터 상기 다른 차량이 주행하는 차선에 대한 정보에 기초한 객체 인식 방법 활성화를 위한 비트 정보와 상기 다른 차량의 이동변위에 대한 정보에 기초한 객체 인식 방법 활성화를 위한 비트 정보를 포함하는 메시지를 수신하는 것을 특징으로 하는
전자 장치.
According to claim 7,
The transmitting and receiving unit includes bit information for activating an object recognition method based on information about a lane in which the other vehicle is traveling from the other vehicle and bit information for activating an object recognition method based on information about a movement displacement of the other vehicle Characterized in receiving a message
electronic device.
KR1020210190873A 2021-12-29 2021-12-29 Method for object recognition of a vehicle traveling on a multi-layer road and an electric device for the method KR102592926B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210190873A KR102592926B1 (en) 2021-12-29 2021-12-29 Method for object recognition of a vehicle traveling on a multi-layer road and an electric device for the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210190873A KR102592926B1 (en) 2021-12-29 2021-12-29 Method for object recognition of a vehicle traveling on a multi-layer road and an electric device for the method

Publications (2)

Publication Number Publication Date
KR20230101979A true KR20230101979A (en) 2023-07-07
KR102592926B1 KR102592926B1 (en) 2023-10-24

Family

ID=87153957

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210190873A KR102592926B1 (en) 2021-12-29 2021-12-29 Method for object recognition of a vehicle traveling on a multi-layer road and an electric device for the method

Country Status (1)

Country Link
KR (1) KR102592926B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040780A (en) * 2006-08-07 2008-02-21 Fujitsu Ten Ltd Apparatus for monitoring circumference vehicle
KR20160030433A (en) * 2014-09-10 2016-03-18 현대 아메리카 테크니컬 센타, 아이엔씨 Inter-vehicle collision avoidance system
WO2020012208A1 (en) * 2018-07-11 2020-01-16 日産自動車株式会社 Driving environment information generation method, driving control method, driving environment information generation device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040780A (en) * 2006-08-07 2008-02-21 Fujitsu Ten Ltd Apparatus for monitoring circumference vehicle
KR20160030433A (en) * 2014-09-10 2016-03-18 현대 아메리카 테크니컬 센타, 아이엔씨 Inter-vehicle collision avoidance system
WO2020012208A1 (en) * 2018-07-11 2020-01-16 日産自動車株式会社 Driving environment information generation method, driving control method, driving environment information generation device

Also Published As

Publication number Publication date
KR102592926B1 (en) 2023-10-24

Similar Documents

Publication Publication Date Title
US11276195B2 (en) Using mapped elevation to determine navigational parameters
US10963462B2 (en) Enhancing autonomous vehicle perception with off-vehicle collected data
US10621861B2 (en) Method and system for creating a lane-accurate occupancy grid map for lanes
US20180321046A1 (en) Method and system for creating a digital map
WO2018200522A1 (en) Systems and methods for compression of lane data
EP3532801A2 (en) Systems and methods for navigating lane merges and lane splits
US20160265919A1 (en) Method for Determining the Absolute Position of a Mobile Unit, and Mobile Unit
WO2015186647A1 (en) Obstacle-information-managing device
US11120281B2 (en) Method for localizing a more automated, e.g., highly automated vehicle (HAV) in a digital localization map
JP2017146724A (en) Map information output device
CN103650465A (en) Method and communication system for data reception in wireless vehicle-to-surroundings communication
CN112009484A (en) Method and system for determining driving assistance data
US20200062243A1 (en) Autonomous parking in an indoor parking facility
US20180347991A1 (en) Method, device, map management apparatus, and system for precision-locating a motor vehicle in an environment
US20180216937A1 (en) Method for localizing a vehicle having a higher degree of automation on a digital map
CN110962744A (en) Vehicle blind area detection method and vehicle blind area detection system
US20220371583A1 (en) Systems and Methods for Selectively Decelerating a Vehicle
CN108475467B (en) Method for detecting a parking error
US20180364046A1 (en) Apparatus and method for determining a vehicle position in a fixed-traffic-node coordinate system
EP3506040B1 (en) Cooperative sensing
JP4472658B2 (en) Driving support system
KR20230101979A (en) Method for object recognition of a vehicle traveling on a multi-layer road and an electric device for the method
KR101836246B1 (en) Current Lane Detecting Method
US11900808B2 (en) Apparatus, method, and computer program for a first vehicle and for estimating a position of a second vehicle at the first vehicle
US20220322189A1 (en) Indoor and outdoor seamless positioning switching method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant