KR102347767B1 - Method and apparatus for determining road shape based on optical camera communication - Google Patents

Method and apparatus for determining road shape based on optical camera communication Download PDF

Info

Publication number
KR102347767B1
KR102347767B1 KR1020210024195A KR20210024195A KR102347767B1 KR 102347767 B1 KR102347767 B1 KR 102347767B1 KR 1020210024195 A KR1020210024195 A KR 1020210024195A KR 20210024195 A KR20210024195 A KR 20210024195A KR 102347767 B1 KR102347767 B1 KR 102347767B1
Authority
KR
South Korea
Prior art keywords
road
tail
bending angle
tail lights
vehicle
Prior art date
Application number
KR1020210024195A
Other languages
Korean (ko)
Inventor
장영민
오스만 알리 모하마드
Original Assignee
국민대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국민대학교산학협력단 filed Critical 국민대학교산학협력단
Priority to KR1020210024195A priority Critical patent/KR102347767B1/en
Application granted granted Critical
Publication of KR102347767B1 publication Critical patent/KR102347767B1/en

Links

Images

Classifications

    • G06K9/00825
    • G06K9/36
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Traffic Control Systems (AREA)

Abstract

Disclosed are a method and a device for determining a road shape based on an optical camera communication (OCC). According to an embodiment of the present disclosure, the method for determining a road shape based on an OCC, comprises the steps of: receiving interval information between a plurality of taillights of a front vehicle and size information on the taillights using a single camera provided in a vehicle; obtaining a plurality of taillight images of the front vehicle through the single camera, and setting a plurality of taillight coordinates of the front vehicle in the obtained taillight images; and calculating a road bending angle using a preset mathematical algorithm on the basis of the received interval information between the taillights of the front vehicle and size information on the taillights, and the taillight coordinates of the front vehicle. Therefore, reliability and safety of a product can be improved.

Description

광학 카메라 통신(OCC) 기반 도로 형태 판단 방법 및 장치{METHOD AND APPARATUS FOR DETERMINING ROAD SHAPE BASED ON OPTICAL CAMERA COMMUNICATION}Optical camera communication (OCC) based road shape determination method and apparatus

본 개시는 전방차량을 촬영하는 단일 카메라를 광학 카메라 통신(OPTICAL CAMERA COMMUNICATION, OCC) 기반 수신기로 이용해, 전방차량의 복수의 후미등으로부터 수신한 데이터에 기초하여 도로의 굽힘 각도(bending angle)를 산출할 수 있도록 하는 도로 형태 판단 방법 및 장치에 관한 것이다.The present disclosure uses a single camera that shoots the vehicle in front as an optical camera communication (OPTICAL CAMERA COMMUNICATION, OCC)-based receiver, based on data received from a plurality of tail lights of the vehicle in front to calculate the bending angle of the road. It relates to a method and apparatus for determining a road type that enables

일반적으로 무선통신은 비용, 실용성 및 운용성 측면에서 유리하지만 병목현상이 발생한다. 또한, 10 GHz 주파수 부분 아래에 있는 RF(Radio Frequency) 대역이 무선통신에 널리 사용되어 왔으나 대역폭이 요구하는 용량과 속도를 충족시키지 못하고 또한 여러 기술이 동일한 주파수 대역(Wi-Fi, 블루투스, 이동통신망, 무선전화)을 동시에 공유하게 되면서 무선통신에서 발생하는 병목현상 문제를 해결하기 위한 연구가 활발히 진행되어 왔다.In general, wireless communication is advantageous in terms of cost, practicality and operability, but a bottleneck occurs. In addition, although the RF (Radio Frequency) band below the 10 GHz frequency part has been widely used for wireless communication, it does not meet the capacity and speed required by the bandwidth, and several technologies use the same frequency band (Wi-Fi, Bluetooth, mobile communication network). , and wireless phones), research to solve the bottleneck problem that occurs in wireless communication has been actively conducted.

이에, 최근에는 RF 기술을 기반으로 하는 많은 무선 애플리케이션이 광 무선 기술로 대체되고 있다. 그 중 가시 광선 통신(Visible Light Communication, VLC)은 이미 확립된 기술로, 가시광 스펙트럼(400~790THz)을 사용하여, 높은 데이터 속도를 제공하고, LED, LD의 변조된 광학적 신호를 사용하는 기술이다.Accordingly, in recent years, many wireless applications based on RF technology are being replaced by optical wireless technology. Among them, Visible Light Communication (VLC) is an already established technology, which uses the visible light spectrum (400-790THz), provides high data rates, and uses modulated optical signals of LEDs and LDs. .

한편, 광학 카메라 통신(Optical Camera Communication, OCC) 기술은 개발 및 표준화 중인 기술로, 별도의 수신기 없이 스마트폰 카메라, 차량 카메라 등의 이미지 센서로 가시광선 데이터를 직접적으로 수신하는 기술이라고 할 수 있으며, 광 무선 통신(Optical Wireless Communication, OWC) 제품군의 일부인 새로운 유망한 기술 중 하나이다. 여기서 OWC 기술은 병목현상을 해결하기 위해 허가되지 않은 스펙트럼을 통신 매체로 사용하여, 주파수 사용허가가 필요 없으며 전파의 직진성과 낮은 물체 투과성으로 보안 유지에 용이하다는 특징을 가지고 있다.On the other hand, Optical Camera Communication (OCC) technology is a technology that is being developed and standardized. It is one of the new promising technologies that is part of the Optical Wireless Communication (OWC) family. Here, the OWC technology uses an unlicensed spectrum as a communication medium to solve the bottleneck, so there is no need for a frequency use license, and it has the characteristics of easy security maintenance due to the straightness of radio waves and low object permeability.

광학 카메라 통신(OCC)에서는 다른 각도에서 들어오는 빛이 이미지 센서 평면의 다양한 위치에 투사 될 수 있다. 즉 광학 카메라 통신(OCC)은 이러한 특징을 통해 서로 다른 소스 및 방향에서 빛을 분리 할 수 있으므로 공간 분할 다중화 및 MIMO(Multiple Input and Multiple-Output) 시스템 이미징에 이상적인 기술이다. In optical camera communication (OCC), light coming from different angles can be projected at various locations on the image sensor plane. In other words, optical camera communication (OCC) is an ideal technology for spatial division multiplexing and MIMO (Multiple Input and Multiple-Output) system imaging because it can separate light from different sources and directions through these features.

이러한 광학 카메라 통신(OCC)은 특히 차량 통신의 가장 유망한 후보 중 하나이다. 예를 들어, 광학 카메라 통신(OCC)을 위해서 차량의 후미등 등의 조명등을 송신기로, 차량에 구비된 카메라를 수신기로 사용할 수 있다. 즉, 차량의 전방 및 후방 LED는 차량 상태 또는 기타 정보를 다른 차량에 전송할 수 있는 광학 카메라 통신(OCC) 송신기로 사용될 수 있으며, 카메라 수신기에서는 상기 차량의 전방 및 후방 LED를 캡쳐한 이미지에서 데이터를 디코딩 하여 데이터를 수신할 수 있다.Such optical camera communication (OCC) in particular is one of the most promising candidates for vehicle communication. For example, for optical camera communication (OCC), a lighting lamp such as a tail lamp of a vehicle may be used as a transmitter, and a camera provided in the vehicle may be used as a receiver. That is, the vehicle's front and rear LEDs can be used as an optical camera communication (OCC) transmitter that can transmit vehicle status or other information to other vehicles, and the camera receiver receives data from images captured by the vehicle's front and rear LEDs. It can be decoded to receive data.

상기와 같은 광학 카메라 통신(OCC) 기반 차량 통신은 선행기술 1에도 개시되어 있다. 그러나 선행기술 1과 같은 종래의 광학 카메라 통신(OCC) 기반 차량 통신 기술에서는, 전방차량으로 데이터를 수신할 때 차량에 구비된 두 대의 카메라를 이용하거나, 차량에 구비된 한 대의 카메라와 레이더를 사용하여 전방차량의 위치를 예측하고 있다. The optical camera communication (OCC)-based vehicle communication as described above is also disclosed in Prior Art 1. However, in the conventional optical camera communication (OCC)-based vehicle communication technology such as Prior Art 1, when data is received from a vehicle in front, two cameras provided in the vehicle are used, or a camera and a radar provided in the vehicle are used. It predicts the position of the vehicle ahead.

또한 선행기술 1에는 안전한 주행을 위한 또 다른 중요한 문제인 주행 중 도로 굽힘 각도와 같은 도로 형태를 판단하는 것에 대해서는 개시되어 있지 않다. 주행 차량에 의해 호스트 운전자의 시야가 가려지거나 야간 주행으로 인해 전방으로 굽은 도로를 확인할 수 없게 되면 주행 중 큰 문제가 발생할 수 있다. 따라서, 보다 효율적이고 정확한 방법을 통해 전방의 도로 형태를 파악할 수 있도록 하여 안전을 보장할 수 있는 방법이 요구된다.Also, prior art 1 does not disclose determining a road shape such as a road bending angle during driving, which is another important problem for safe driving. If the view of the host driver is obscured by the driving vehicle or the road curved forward cannot be seen due to driving at night, a major problem may occur while driving. Accordingly, there is a need for a method capable of ensuring safety by allowing the user to grasp the shape of the road ahead through a more efficient and accurate method.

전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.The above-mentioned background art is technical information that the inventor possessed for the derivation of the present invention or acquired in the process of derivation of the present invention, and cannot necessarily be said to be a known technique disclosed to the general public prior to the filing of the present invention.

선행기술 1: 한국 등록특허공보 제10-1689252호(2016.12.19.등록)Prior Art 1: Korean Patent Publication No. 10-1689252 (Registered on Dec. 19, 2016)

본 개시의 실시 예의 일 과제는, 단일 카메라를 수신기로, 차량의 복수의 후미등을 송신기로 활용하는 OCC 시스템을 이용해, 추종 차량에 대한 도로 굽힘 각도를 산출하여, 전방 도로 형태 판단의 정확도 및 효율성을 향상시키는데 있다.One problem of the embodiment of the present disclosure is to calculate the road bending angle for the following vehicle using an OCC system that uses a single camera as a receiver and a plurality of tail lights of a vehicle as a transmitter, thereby improving the accuracy and efficiency of determining the shape of the front road is to improve

본 개시의 실시 예의 일 과제는, 수학적 모델과 인공신경망 모델을 이용한 결과를 통합하여 전방 도로 형태를 판단하여, 도로 형태 판단 정확도를 향상시키고, 도로 형태를 미리 파악할 수 있도록 하여, 주행 안전성을 향상시키고자 하는데 있다.One task of the embodiment of the present disclosure is to determine the shape of the road ahead by integrating the results using the mathematical model and the artificial neural network model, to improve the accuracy of determining the road shape, and to identify the road shape in advance, thereby improving driving safety and improving driving safety. is going to sleep

본 개시의 실시 예의 일 과제는, 단일 카메라만을 이용하여 전방 도로 형태를 판단함으로써, 연산 복잡도 및 차량 설비 구조를 단순화시켜, 차량을 보다 경량화 할 수 있도록 하는데 있다.One object of the embodiment of the present disclosure is to determine the shape of the road ahead using only a single camera, thereby simplifying computational complexity and vehicle equipment structure, thereby making the vehicle lighter.

본 개시의 실시 예의 일 과제는, 차량 통신에 적용 가능한 광학 카메라 통신(OCC) 기기 기반 시스템을 제안하여, 실시간 연결과 안전을 위해 매우 안정적인 통신을 제공하고자 하는데 있다.An object of an embodiment of the present disclosure is to provide an optical camera communication (OCC) device-based system applicable to vehicle communication, thereby providing very stable communication for real-time connection and safety.

본 개시의 실시 예의 목적은 이상에서 언급한 과제에 한정되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시 예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 알 수 있을 것이다.The object of the embodiment of the present disclosure is not limited to the above-mentioned tasks, and other objects and advantages of the present invention not mentioned may be understood by the following description, and will be more clearly understood by the embodiment of the present invention will be. It will also be appreciated that the objects and advantages of the present invention may be realized by means of the instrumentalities and combinations thereof indicated in the claims.

본 개시의 일 실시 예에 따른 광학 카메라 통신(OCC) 기반 도로 상태 판단 방법은, 전방차량을 촬영하는 단일 카메라를 광학 카메라 통신(OCC) 기반 수신기로 이용해, 전방차량의 복수의 후미등으로부터 수신한 데이터에 기초하여 전방 도로 형태를 판단하는 단계를 포함할 수 있다.Optical camera communication (OCC)-based road condition determination method according to an embodiment of the present disclosure uses a single camera for photographing a vehicle in front as an optical camera communication (OCC)-based receiver, data received from a plurality of tail lights of the vehicle in front It may include the step of determining the shape of the road ahead based on the.

구체적으로 본 개시의 일 실시 예에 따른 광학 카메라 통신(OCC) 기반 도로 형태 판단 방법은, 차량에 구비된 단일 카메라를 이용하여 전방차량의 복수의 후미등 사이의 간격 정보 및 복수의 후미등의 크기 정보를 수신하는 단계와, 단일 카메라를 통해 전방차량의 복수의 후미등 이미지를 획득하여, 획득한 복수의 후미등 이미지에서 전방차량의 복수의 후미등 좌표를 설정하는 단계와, 수신한 전방차량의 복수의 후미등 사이의 간격 정보 및 복수의 후미등의 크기 정보와 전방차량의 복수의 후미등 좌표에 기초하여 기설정된 수학적 알고리즘으로 도로 굽힘 각도를 산출하는 단계를 포함할 수 있다.Specifically, the optical camera communication (OCC)-based road shape determination method according to an embodiment of the present disclosure uses a single camera provided in the vehicle to obtain distance information between a plurality of tail lights of a front vehicle and size information of a plurality of tail lights receiving, acquiring a plurality of tail light images of the front vehicle through a single camera, and setting coordinates of a plurality of tail lights of the front vehicle in the obtained plurality of tail light images; The method may include calculating the road bending angle using a predetermined mathematical algorithm based on the interval information and the size information of the plurality of tail lights and the coordinates of the plurality of tail lights of the vehicle in front.

본 개시의 일 실시 예에 따른 광학 카메라 통신(OCC) 기반 도로 상태 판단 방법을 통하여, 단일 카메라를 활용한 OCC 시스템을 이용하여 추종 차량의 주행 도로에 대한 굽힘 정도를 계산함으로써, 보다 정확하고 효율적인 전방 도로 형태 판단을 통해, 사고를 예방할 수 있도록 한다.Through the optical camera communication (OCC)-based road condition determination method according to an embodiment of the present disclosure, by calculating the degree of bending of the driving road of the following vehicle using the OCC system using a single camera, more accurate and efficient front By judging the road type, accidents can be prevented.

이 외에도, 본 발명의 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램이 저장된 컴퓨터로 판독 가능한 기록매체가 더 제공될 수 있다.In addition to this, another method for implementing the present invention, another system, and a computer-readable recording medium storing a computer program for executing the method may be further provided.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.

본 개시의 실시 예에 의하면, 단일 카메라를 수신기로, 차량의 복수의 후미등을 송신기로 활용하는 OCC 시스템을 이용하여, 시야가 제한된 상황에서 전방 도로 형태를 파악할 수 있도록 함으로써, 사고를 예방할 수 있도록 한다.According to an embodiment of the present disclosure, an accident can be prevented by using an OCC system that uses a single camera as a receiver and a plurality of tail lights of a vehicle as a transmitter to recognize the shape of the road ahead in a situation in which visibility is limited. .

또한, 복수의 카메라 또는 하나의 카메라와 추가 센서를 통해 전방 도로 형태를 파악하는 것이 아니라, 단일 카메라만을 이용하여 전방 도로 형태를 판단함으로써, 연산 복잡도를 감소시킬 수 있고, 차량 설비 구조를 단순화시킬 수 있을 뿐만 아니라, 연산 복잡도 감소 및 차량 설비 구조 단순화를 통해 차량을 경량화 할 수 있어, 사용자의 만족도를 향상시킬 수 있다.In addition, by determining the shape of the road ahead using only a single camera instead of using a plurality of cameras or a single camera and an additional sensor to determine the shape of the road ahead, it is possible to reduce computational complexity and simplify the structure of vehicle equipment. In addition, it is possible to reduce the weight of the vehicle by reducing the computational complexity and simplifying the structure of the vehicle equipment, thereby improving user satisfaction.

또한, 수학적 모델 및 인공신경망을 복합적으로 이용하여 전방 도로 형태를 판단함으로써, 도로 형태 판단 정확도를 향상시킬 수 있어, 제품 신뢰도 및 안전성을 향상시킬 수 있다.In addition, by judging the shape of the road ahead by using a mathematical model and an artificial neural network in combination, the accuracy of judging the road shape can be improved, thereby improving product reliability and safety.

또한, 전방차량의 후미등 형상에서 도로 굽힘 각도를 산출함으로써, 비, 눈, 안개와 같은 악천후에서도 도로 굽힘 각도 값에 따라 운전자에게 미리 경고하여, 도로 사고를 줄이는 데 중요한 역할을 할 수 있다.In addition, by calculating the road bending angle from the shape of the tail light of the vehicle in front, it can play an important role in reducing road accidents by warning the driver in advance according to the road bending angle value even in bad weather such as rain, snow, and fog.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 개시의 일 실시 예에 따른 광학 카메라 통신(OCC) 기반 도로 형태 판단 시스템의 개략적인 예시도이다.
도 2는 본 개시의 일 실시 예에 따른 광학 카메라 통신(OCC) 기본 작동 원리를 설명하기 위한 도면이다.
도 3은 본 개시의 일 실시 예에 따른 도로 형태 판단 장치에서 전방차량의 회전에 따른 전방차량의 후미등 변화를 설명하기 위해 개략적으로 나타낸 도면이다.
도 4는 본 개시의 일 실시 예에 따른 도로 형태 판단 장치를 개략적으로 나타낸 블록도이다.
도 5는 본 개시의 일 실시 예에 따른 도로 형태 판단 장치의 수학식 방법을 기반으로 하는 도로 굽힘 각도 산출 과정을 설명하기 위한 예시도이다.
도 6은 본 개시의 일 실시 예에 따른 도로 형태 판단 장치의 인공신경망을 기반으로 하는 도로 굽힘 각도 산출 과정을 설명하기 위한 예시도이다.
도 7은 본 개시의 일 실시 예에 따른 인공신경망 훈련 페이즈(phase)를 설명하기 위한 예시도이다.
도 8은 본 개시의 일 실시 예에 따른 도로 형태 판단 장치의 전방차량의 후미등 모양을 나타낸 예시도이다.
도 9는 본 개시의 일 실시 예에 따른 도로 형태 판단 방법을 설명하기 위한 흐름도이다.
1 is a schematic illustration of a system for determining a road type based on optical camera communication (OCC) according to an embodiment of the present disclosure.
2 is a view for explaining a basic operating principle of optical camera communication (OCC) according to an embodiment of the present disclosure.
3 is a diagram schematically illustrating a change in the tail light of the front vehicle according to the rotation of the front vehicle in the device for determining a road type according to an embodiment of the present disclosure.
4 is a block diagram schematically illustrating an apparatus for determining a road type according to an embodiment of the present disclosure.
5 is an exemplary view for explaining a process of calculating a road bending angle based on an equation method of an apparatus for determining a road shape according to an embodiment of the present disclosure.
6 is an exemplary diagram for explaining a process of calculating a road bending angle based on an artificial neural network of an apparatus for determining a road type according to an embodiment of the present disclosure.
7 is an exemplary diagram for explaining an artificial neural network training phase according to an embodiment of the present disclosure.
8 is an exemplary view illustrating a shape of a tail light of a vehicle in front of the device for determining a road shape according to an embodiment of the present disclosure.
9 is a flowchart illustrating a method for determining a road type according to an embodiment of the present disclosure.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 설명되는 실시 예들을 참조하면 명확해질 것이다.Advantages and features of the present invention, and a method for achieving them will become apparent with reference to the detailed description in conjunction with the accompanying drawings.

그러나 본 발명은 아래에서 제시되는 실시 예들로 한정되는 것이 아니라, 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 아래에 제시되는 실시 예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.However, the present invention is not limited to the embodiments presented below, it can be implemented in a variety of different forms, and should be understood to include all transformations, equivalents, and substitutes included in the spirit and scope of the present invention. . The embodiments presented below are provided so that the disclosure of the present invention is complete, and to completely inform those of ordinary skill in the art to which the present invention pertains to the scope of the invention. In describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof. Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

이하, 본 발명에 따른 실시 예들을 첨부된 도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings, and in the description with reference to the accompanying drawings, the same or corresponding components are given the same reference numerals, and overlapping descriptions thereof are omitted. decide to do

도 1은 본 개시의 일 실시 예에 따른 광학 카메라 통신(OCC) 기반 도로 형태 판단 시스템의 개략적인 예시도이고, 도 2는 본 개시의 일 실시 예에 따른 광학 카메라 통신(OCC) 기본 작동 원리를 설명하기 위한 도면이다.1 is a schematic illustration of an optical camera communication (OCC)-based road type determination system according to an embodiment of the present disclosure, and FIG. 2 is an optical camera communication (OCC) basic operating principle according to an embodiment of the present disclosure. It is a drawing for explanation.

도 1을 참조하면, 본 실시 예의 광학 카메라 통신(OCC) 기반 도로 형태 판단 시스템은, 광학 카메라 통신(Optical Camera Communication, OCC) 기술을 기반으로 하는 것으로, 차량 통신에 광학 카메라 통신(OCC)을 적용하는 것이다. 광학 카메라 통신(OCC)은 LED 등의 광원을 송신기로, 카메라를 수신기로 사용하는 것으로, 광원인 차량의 조명은 사람의 눈으로 감지 할 수 없는 flicker free 방식으로 변조될 수 있다. 즉 차량의 전방 및 후방에 위치한 조명은 차량 상태 또는 기타 정보를 다른 차량에 전송할 수 있는 광학 카메라 통신(OCC) 송신기로 사용될 수 있으며, 카메라 수신기에서는 상기 조명을 캡쳐한 이미지에서 데이터를 디코딩 하여 조명에서 전송된 정보들을 확인할 수 있다.Referring to FIG. 1 , the optical camera communication (OCC)-based road type determination system of this embodiment is based on an optical camera communication (OCC) technology, and optical camera communication (OCC) is applied to vehicle communication. will do Optical camera communication (OCC) uses a light source such as an LED as a transmitter and a camera as a receiver. That is, the lights located at the front and rear of the vehicle can be used as an optical camera communication (OCC) transmitter that can transmit the vehicle status or other information to other vehicles, and the camera receiver decodes data from the captured image of the light to You can check the transmitted information.

본 실시 예는, 광학 카메라 통신(OCC)을 이용하여 전방차량의 후미등 2 개 사이의 거리 또는 후미등의 크기를 전송할 수 있다면 하나의 카메라를 사용하여 전방차량의 후미등의 모양으로부터 도로 굽힘 각도를 계산할 수 있는 것을 특징으로 한다. 또한 본 실시 예에서는, 전방차량의 복수의 후미등의 모양을 비교함으로써, 추종 차량의 카메라 수신기에 캡쳐된 이미지에서 도로 굽힘 방향을 감지할 수 있는 것을 특징으로 한다. 이에 본 실시 예는 전방차량에 의해 가려지거나 하는 등 전방 시야가 불분명할 때 전방 도로의 곡률을 파악할 수 있도록 하여 사고를 예방할 수 있고 주행 안정성을 향상시킬 수 있다. In this embodiment, if the distance between the two tail lights of the vehicle in front or the size of the tail lights can be transmitted using optical camera communication (OCC), the road bending angle can be calculated from the shape of the tail lights of the vehicle in front using one camera. characterized by having In addition, in this embodiment, it is characterized in that the road bending direction can be detected from the image captured by the camera receiver of the following vehicle by comparing the shapes of a plurality of tail lights of the vehicle in front. Accordingly, according to the present embodiment, the curvature of the road ahead can be grasped when the front view is unclear, such as being obscured by a vehicle in front, thereby preventing an accident and improving driving stability.

이러한 본 실시 예의 기술을 적용하게 되면, 통신 거리가 최대 20m 인 1kbps 이상의 데이터 속도로 무선 주파수(RF) 기술 없이 데이터를 수신할 수 있고, 오류율이 낮으며, 실시간 차량 정보 수집 서비스를 지원할 수 있다. When the technology of this embodiment is applied, data can be received without radio frequency (RF) technology at a data rate of 1 kbps or more with a communication distance of up to 20 m, the error rate is low, and a real-time vehicle information collection service can be supported.

여기서, 광학 카메라 통신(OCC)이란, 카메라 이미지 센서를 사용하여 광원에서 전송된 데이터 비트를 수신하는 기술로, LED 조명과 카메라가 내장된 스마트폰 등이 대부분의 공간에서 사용되고 있는 인프라에서 매우 이점이 많은 유망한 기술로 연구되고 있다. 또한 광학 카메라 통신(OCC)은 우수한 신호 대 간섭 + 잡음 비율(SINR), 높은 보안, 낮은 간섭 및 다양한 통신 거리에 대한 높은 안정성을 포함한 고성능 특성을 제공할 수 있다.Here, optical camera communication (OCC) is a technology that uses a camera image sensor to receive data bits transmitted from a light source. Many promising technologies are being studied. In addition, optical camera communication (OCC) can provide high performance characteristics including good signal-to-interference + noise ratio (SINR), high security, low interference and high stability over various communication distances.

광학 카메라 통신(OCC)은 다양한 유형의 수신기가 사용될 수 있기 때문에 가시 광선 통신(Visible Light Communication, VLC) 및 라이파이(Light Fidelity, LiFi)와 차이가 있으며, 가시 광선 통신(VLC) 및 LiFi에서 포토 다이오드(photodiode, PD)는 데이터 수신에만 사용된다. 광학 카메라 통신(OCC) 시스템에서 통신 목적을 지원하기 위해 하드웨어를 수정할 필요 없이 렌즈와 2 차원 이미지 센서로 구성된 일반적인 카메라는 포토 다이오드에 비해 기존 렌즈에서 빛이 공간적으로 분리되어 통신에 유리하며, 높은 이미지 해상도와 함께 카메라는 동시에 공간적으로 분리된 여러 광원을 복조 할 수 있다.Optical Camera Communication (OCC) differs from Visible Light Communication (VLC) and Light Fidelity (LiFi) because different types of receivers can be used, and photodiodes in Visible Light Communication (VLC) and LiFi (photodiode, PD) is used only for data reception. In an optical camera communication (OCC) system, without the need to modify hardware to support the communication purpose, a typical camera consisting of a lens and a two-dimensional image sensor is advantageous for communication because light is spatially separated from the conventional lens compared to a photodiode, and high image quality Along with the resolution, the camera can simultaneously demodulate multiple spatially separated light sources.

카메라 수신기의 셔터 메커니즘은 이미지의 픽셀 노출을 결정할 수 있으며, 셔터 메커니즘에 따라 카메라는 글로벌 또는 롤링 셔터 등급으로 분류될 수 있다. 순차적으로 픽셀 행을 빛에 노출시키는 롤링 셔터 카메라는 롤링 이미지에서 변조된 빛의 강도 변화를 감지 할 수 있을 만큼 빠르게 샘플링 해야 한다. 모든 픽셀을 동시에 노출하는 글로벌 셔터 카메라는 연속 이미지에서 각 LED의 광도 변화를 감지 할 수 있는 충분히 빠른 프레임 속도가 필요하다.The shutter mechanism of the camera receiver can determine the pixel exposure of the image, and depending on the shutter mechanism, the camera can be classified as a global or rolling shutter class. A rolling shutter camera that sequentially exposes rows of pixels to light must sample fast enough to detect changes in the intensity of the modulated light in the rolling image. A global shutter camera that exposes all pixels simultaneously requires a frame rate fast enough to detect changes in the luminance of each LED in successive images.

한편, 광원의 주 목적은 조명이고 통신은 부차적이므로 광원과 그 변조를 적절하게 선택하여야 한다. 변조 방식에는 펄스 기반 전송이 있으며, 펄스 기반 전송은 데이터가 사인파가 아닌 펄스파로 인코딩되는 변조 기술을 포함할 수 있다. 그리고 펄스 기반 전송 변조는 단일 고전력, 고효율, 느린 응답의 DC 컨버터와 빠른 속도로 작동하는 추가 전원 스위치로 구현하여 결정된 순간에 LED에 전류를 전달할 수 있으며, 평균값이 데이터 신호의 펄스 폭에 따라 달라지면 데이터 전송을 작동하는 동일한 스위치가 디밍 제어를 제공하여 DC 컨버터를 크게 단순화 할 수 있다. 디밍 가능 변조는 On-Off Keying(OOK), Variable Pulse Position Modulation(VPPM) 및 Color Shift Keying(CSK) 등의 변조 기술을 포함할 수 있다.On the other hand, since the main purpose of the light source is lighting and communication is secondary, the light source and its modulation must be appropriately selected. Modulation methods include pulse-based transmission, which may include a modulation technique in which data is encoded as a pulse wave rather than a sine wave. And pulse-based transfer modulation can be implemented with a single high-power, high-efficiency, slow-response DC converter and an additional fast-acting power switch to deliver current to the LED at a determined moment, and when the average value varies with the pulse width of the data signal, The same switch that operates the transmission can provide dimming control, greatly simplifying the DC converter. Dimmable modulation may include modulation techniques such as On-Off Keying (OOK), Variable Pulse Position Modulation (VPPM), and Color Shift Keying (CSK).

도 2를 참조하여, 광학 카메라 통신(OCC)의 기본 작동 원리를 살펴보면, 광학 카메라 통신(OCC) 시스템은 OCC 송신부 및 OCC 수신부를 포함할 수 있다. Referring to the basic operating principle of optical camera communication (OCC) with reference to FIG. 2 , the optical camera communication (OCC) system may include an OCC transmitter and an OCC receiver.

OCC 송신부는 본 실시 예에서 차량 후미등과 같은 조명에 의해 구현될 수 있으며, 도 2에 개시된 인코더(Encoder), 광학 신호 변조기(Optical signal modulator), 광원 구동 회로(LED driving circuitry) 및 광원(LED)을 포함할 수 있다.The OCC transmitter may be implemented by lighting such as a vehicle tail light in this embodiment, and an encoder, an optical signal modulator, a light source driving circuitry, and a light source (LED) shown in FIG. 2 . may include

OCC 송신부는 OCC 시스템에서 전송하고자 하는 입력 데이터 시퀀스(Input data sequence)를 코딩 할 수 있다. 이러한 코딩은 다양한 방법으로 구현될 수 있다. 예컨대, 인코더는 전송하고자 하는 데이터가 1인 경우 광원의 온(on)에 대응시키고 데이터가 0인 경우에는 광원의 오프(off)에 대응시킬 수 있다. 이러한 예시는 광원의 펄스주파수에 따라 다르게 설정할 수 있다. 예컨대, 데이터가 1인 경우 광원을 온-온에 대응시키고 데이터가 0인 경우 광원을 오프-오프에 대응시킬 수도 있다.The OCC transmitter may code an input data sequence to be transmitted in the OCC system. Such coding may be implemented in various ways. For example, when data to be transmitted is 1, the encoder may correspond to on of the light source, and when data is 0, it may correspond to off of the light source. This example may be set differently according to the pulse frequency of the light source. For example, when data is 1, the light source may correspond to on-on, and when data is 0, the light source may correspond to off-off.

이처럼, 본 실시 예에서 OCC 송신부는 데이터에 대응하는 광원의 온/오프 상태를 서로 매칭시켜 향후 광원의 온/오프를 통해 데이터가 전송되도록 할 수 있다. 본 실시 예에서 OCC 송신부는 예를 들어, 맨체스터(Manchester) 코딩기법, 4B6B 코딩기법 등을 이용하여 데이터를 코딩 할 수 있다. As such, in this embodiment, the OCC transmitter may match the on/off states of the light sources corresponding to the data to transmit data through the on/off of the light sources in the future. In this embodiment, the OCC transmitter may code data using, for example, a Manchester coding technique, a 4B6B coding technique, or the like.

또한, 본 실시 예에서, 광학 신호 변조기는 코딩된 데이터를 데이터 심볼로 구성하고 데이터 심볼을 포함하는 데이터 패킷을 생성할 수 있다. 이러한 데이터 패킷은 디지털 비트 1과 0으로 구성된 데이터를 연속으로 배열하여 구성될 수 있다.Also, in the present embodiment, the optical signal modulator may configure coded data into data symbols and generate a data packet including the data symbols. Such a data packet may be formed by arranging data composed of digital bits 1 and 0 consecutively.

그리고 광원 구동 회로는 상기 코딩된 데이터에 따라 광원을 구동시킬 수 있다. 예컨대, 데이터의 비트 1과 0에 따라 광원을 온 및 오프 시킬 수 있다. 이러한 광원 구동 회로는 기설정된 펄스주파수에 따라 광원을 온/오프시키도록 할 수 있다. 이와 같이 광원 구동 회로에서 광원의 온/오프 제어를 통해 전송하고자 하는 데이터를 출력하도록 할 수 있다.In addition, the light source driving circuit may drive the light source according to the coded data. For example, the light source may be turned on and off according to bits 1 and 0 of the data. Such a light source driving circuit may turn on/off the light source according to a preset pulse frequency. In this way, the light source driving circuit may output data to be transmitted through on/off control of the light source.

즉 광원은 광학 카메라 통신(OCC) 시스템에서 송신기(transmitter)의 역할을 한다. 광원은 발광 다이오드(Light Emitting Diode, LED)일 수 있으며, 적어도 하나 이상 구비될 수 있다. 이러한 광원은 상술한 바와 같이 코딩된 데이터에 따라 광원 구동 회로에 의해 기설정된 펄스주파수로 온(on) 또는 오프(off)될 수 있다. 본 실시 예에 따라 광원이 다수 개로 구비되는 경우 1N으로 배열될 수 있고, M1으로 배열될 수도 있으며, MN으로 배열될 수도 있다. 물론, 원형, 방사형, 타원형 등 다양한 형태로 배열될 수 있다. 광원이 온/오프 되는 펄스주파수가 초당 110회 이상이면 사람의 눈으로 그 온/오프를 구분하지 못하고 계속 온 상태인 것으로 인식한다. 이러한 펄스주파수는 물론 조정이 가능하다.That is, the light source serves as a transmitter in an optical camera communication (OCC) system. The light source may be a light emitting diode (LED), and at least one light source may be provided. Such a light source may be turned on or off with a preset pulse frequency by the light source driving circuit according to the coded data as described above. When a plurality of light sources are provided according to the present embodiment, they may be arranged in 1N, may be arranged in M1, or may be arranged in MN. Of course, it may be arranged in various shapes, such as a circular shape, a radial shape, an oval shape, and the like. If the pulse frequency at which the light source is turned on/off is more than 110 times per second, the human eye cannot distinguish the on/off and recognizes that it is in the on-state continuously. These pulse frequencies are, of course, adjustable.

OCC 수신부는 본 실시 예에서 차량에 구비된 단일 카메라에 의해 구현될 수 있으며, 도 2에 개시된 이미지 센서(Image sensor), 픽셀 스캐너(Pixel scanner), 복조기(Demodulator) 및 디코더(Decoder)를 포함할 수 있다.The OCC receiver may be implemented by a single camera provided in the vehicle in this embodiment, and may include an image sensor, a pixel scanner, a demodulator, and a decoder as shown in FIG. 2 . can

즉 이미지 센서를 포함하는 카메라는 광학 카메라 통신(OCC) 시스템에서 수신기(receiver)의 역할을 할 수 있으며, 카메라는 롤링 셔터 방식으로 이미지를 캡쳐하는 카메라일 수 있다. 구체적으로는, 카메라는 다수의 열(row)로 조합된 롤링 셔터 방식의 이미지 센서를 포함하며, 기설정된 프레임 속도(frame rate)에 따라 열(row)마다 연속적으로 광원의 점멸상태를 캡쳐 할 수 있다. 이를 위해 내부에 롤링 셔터 방식의 이미지센서가 구비될 수 있다. 이미지센서의 각 열(row)을 순차적으로 기설정된 노출시간(integration time) 동안 일정한 시간간격으로 노출시킨다. 첫 번째 열의 마지막 노출시간과 마지막 열의 마지막 노출시간을 프레임 시간(frame time)이고 노출시간과 프레임시간의 합이 캡쳐타임(capture time)이 된다. 이러한 캡쳐타임 동안에 캡쳐된 이미지는 광원이 온(on)될 때 화이트 밴드(white band)로 나타나고 오프(off)될 때 블랙 밴드(black band)로 나타난다. 광원의 온/오프 상태의 변화는 캡쳐시간 동안 순차적으로 기록될 수 있다. 이때, 화이트 밴드와 블랙 밴드는 예컨대 각각 데이터로서 1과 0을 나타내도록 설정될 수 있다. 이와 같이 카메라에서는 하나의 프레임 내에서 다중 데이터 수신이 가능하게 된다. 이미지센서로는 예컨대 CMOS 센서를 사용할 수 있다. 이때, 카메라는 광원이 온 또는 오프되는 중에 임의의 시점에 촬영을 시작할 수 있다. 이 경우에는 캡쳐된 이미지로부터 시작프레임과 데이터 프레임을 구분할 필요가 있다. 뿐만 아니라 본 실시 예에서는 카메라의 광원의 온/오프 이미지를 촬영하는 프레임 속도가 기설정되어 있지만, 실제 프레임 속도가 변하는 경우에도 정확한 데이터 수신이 가능할 수 있다.That is, a camera including an image sensor may serve as a receiver in an optical camera communication (OCC) system, and the camera may be a camera that captures an image in a rolling shutter method. Specifically, the camera includes a rolling shutter type image sensor combined in a plurality of rows, and can continuously capture the blinking state of the light source for each row according to a preset frame rate. have. To this end, a rolling shutter type image sensor may be provided therein. Each row of the image sensor is sequentially exposed at regular time intervals for a preset exposure time (integration time). The frame time is the last exposure time in the first column and the last exposure time in the last column, and the sum of the exposure time and the frame time is the capture time. An image captured during such a capture time appears as a white band when the light source is on, and appears as a black band when the light source is turned off. Changes in the on/off state of the light source may be sequentially recorded during the capture time. In this case, the white band and the black band may be set to represent, for example, 1 and 0 as data, respectively. In this way, the camera can receive multiple data within one frame. As the image sensor, for example, a CMOS sensor may be used. In this case, the camera may start photographing at any time while the light source is on or off. In this case, it is necessary to distinguish a start frame and a data frame from the captured image. In addition, although the frame rate for capturing the on/off image of the light source of the camera is preset in the present embodiment, accurate data reception may be possible even when the actual frame rate is changed.

픽셀 스캐너는 카메라에서 다수의 열(row)마다 촬영된 광원의 온/오프 이미지의 밝기 값에 따른 밝기신호를 생성할 수 있다. 구체적으로, 상술한 바와 같이 광원이 데이터에 따라 온(on) 또는 오프(off)되는 과정에서 화이크 밴드와 블랙 밴드로 나타나는데, 이러한 각 밴드의 밝기 값은 다르게 나타날 수 있다. 이를테면, 광원의 온/오프에 따라 나타나는 색상은 일례로 0~255의 밝기 값으로 표시될 수 있고, 이 경우 화이트 밴드는 255의 밝기 값, 블랙 밴드는 0의 밝기 값을 나타낼 수 있다. 물론 이러한 밝기 값의 범위는 변경이 가능하다.The pixel scanner may generate a brightness signal according to a brightness value of an on/off image of a light source photographed for every plurality of rows in the camera. Specifically, as described above, when the light source is turned on or off according to data, a white band and a black band appear, and the brightness values of each of these bands may be different. For example, a color that appears according to on/off of the light source may be displayed, for example, as a brightness value of 0 to 255. In this case, a white band may indicate a brightness value of 255, and a black band may indicate a brightness value of 0. Of course, the range of these brightness values can be changed.

그리고 복조기는 OCC 송신부에서 생성된 광원의 온/오프 이미지의 밝기신호로부터 비트 시퀀스를 검출할 수 있으며, 상기 생성된 밝기 시퀀스 및 추가 생성된 반전 시퀀스를 콘볼루션 연산하여 비트 시퀀스를 검출할 수 있다.The demodulator may detect the bit sequence from the brightness signal of the on/off image of the light source generated by the OCC transmitter, and may detect the bit sequence by performing a convolution operation on the generated brightness sequence and the additionally generated inversion sequence.

디코더는 상기 검출된 비트 시퀀스로부터 데이터를 추출할 수 있다. 이는 OCC 송신부에서 전송할 데이터에 따라 광원의 온/오프 이미지에 코딩된 데이터를 복원하는 것이다. 예를 들어, OCC 송신부에서 전송하고자 하는 데이터 1은 광원의 온(on)에 대응시키고 데이터 0은 광원의 오프(off)에 대응시킨 경우, 디코더에서는 광원의 온 이미지에서는 1을 추출하고, 오프 이미지에서는 0을 추출할 수 있다. 이때, 본 실시 예에서는 광원의 온/오프 이미지의 밝기신호에서 밝기 값을 이용하여 출력 데이터 시퀀스(Output data sequence)를 추출할 수 있다. 구체적으로 밝기신호의 기울기, 즉 밝기신호의 상승 및 하강을 조합하여 추출하도록 할 수 있다.The decoder may extract data from the detected bit sequence. This is to restore the data coded in the on/off image of the light source according to the data to be transmitted from the OCC transmitter. For example, if data 1 to be transmitted by the OCC transmitter corresponds to the on of the light source and data 0 corresponds to the off of the light source, the decoder extracts 1 from the on image of the light source and the off image 0 can be extracted. In this case, in the present embodiment, an output data sequence may be extracted by using the brightness value from the brightness signal of the on/off image of the light source. Specifically, the gradient of the brightness signal, that is, the rising and falling of the brightness signal may be combined and extracted.

도 1을 참조하면, 도로 형태 판단 시스템은 도로 형태 판단 장치(100), 사용자 단말(200), 서버(300) 및 네트워크(400)를 포함하여 구성될 수 있다. Referring to FIG. 1 , the road type determination system may include a road type determination apparatus 100 , a user terminal 200 , a server 300 , and a network 400 .

본 실시 예에서는, 사용자들이 사용자 단말(200)에서 구현되는 어플리케이션 또는 웹사이트에 접속하여, 도로 형태를 판단하거나 차량 위치 판단 결과를 확인하는 등의 과정을 수행할 수도 있으며, 실시 예에 따라서는 사용자 단말(200)의 카메라를 광학 카메라 통신(OCC) 수신기로서 사용되도록 할 수도 있다.In this embodiment, users may access an application or website implemented in the user terminal 200 and perform a process such as determining a road type or confirming a vehicle location determination result. The camera of the terminal 200 may be used as an optical camera communication (OCC) receiver.

이러한 사용자 단말(200)은 도로 형태 판단 어플리케이션 또는 도로 형태 판단 웹사이트에 접속한 후 인증 과정을 통하여 서비스를 제공받을 수 있다. 인증 과정은 회원가입 등 사용자 정보를 입력하는 인증, 사용자 단말에 대한 인증 등을 포함할 수 있으나, 이에 한정되지 않고 도로 형태 판단 장치(100) 및/또는 서버(300)에서 전송되는 링크에 접속하는 것만으로 인증 과정이 수행될 수도 있다.The user terminal 200 may receive a service through an authentication process after accessing a road type determination application or a road type determination website. The authentication process may include, but is not limited to, authentication for inputting user information such as membership registration, authentication for a user terminal, etc., but is not limited thereto. The authentication process may be performed only by itself.

본 실시 예에서, 사용자 단말(200)은 사용자가 조작하는 데스크 탑 컴퓨터, 스마트폰, 노트북, 태블릿 PC, 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, 마이크로 서버, GPS(global positioning system) 장치, 전자책 단말기, 디지털방송용 단말기, 네비게이션, 키오스크, MP3 플레이어, 디지털 카메라, 가전기기 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다. 또한, 사용자 단말(200)은 통신 기능 및 데이터 프로세싱 기능을 구비한 시계, 안경, 헤어 밴드 및 반지 등의 웨어러블 단말기 일 수 있다. 사용자 단말(200)은 상술한 내용에 제한되지 아니하며, 웹 브라우징이 가능한 단말기는 제한 없이 차용될 수 있다.In this embodiment, the user terminal 200 is a desktop computer, a smartphone, a notebook computer, a tablet PC, a smart TV, a mobile phone, a personal digital assistant (PDA), a laptop, a media player, a micro server, a GPS (global) operated by the user positioning system) devices, e-book terminals, digital broadcast terminals, navigation devices, kiosks, MP3 players, digital cameras, home appliances, and other mobile or non-mobile computing devices, but are not limited thereto. Also, the user terminal 200 may be a wearable terminal such as a watch, glasses, a hair band, and a ring having a communication function and a data processing function. The user terminal 200 is not limited to the above, and a terminal capable of web browsing may be borrowed without limitation.

본 실시 예에서 도로 형태 판단 시스템은 도로 형태 판단 장치(100) 및/또는 서버(300)에 의해 구현될 수 있는데, 이때 서버(300)는 도로 형태 판단 장치(100)가 포함되는 도로 형태 판단 시스템을 운용하기 위한 서버일 수 있다. 또한 서버(300)는 도로 형태 판단 장치(100)를 동작시키는 데이터를 제공하는 데이터베이스 서버일 수 있다. 그 밖에 서버(300)는 도로 형태 판단 시스템(1)이 구현될 수 있도록 하는 웹 서버 또는 어플리케이션 서버 등을 포함할 수 있으며, 상술하는 서버들을 포함하거나 이러한 서버들과 네트워킹 할 수 있다.In this embodiment, the road type determination system may be implemented by the road type determination apparatus 100 and/or the server 300 , wherein the server 300 is a road type determination system including the road type determination apparatus 100 . It may be a server for operating Also, the server 300 may be a database server that provides data for operating the road type determination apparatus 100 . In addition, the server 300 may include a web server or an application server that enables the road type determination system 1 to be implemented, and may include the above-described servers or may network with these servers.

네트워크(400)는 도로 형태 판단 시스템에서 도로 형태 판단 장치(100), 서버(300) 및 사용자 단말(200)을 연결하는 역할을 수행할 수 있다. 이러한 네트워크(400)는 예컨대 LANs(local area networks), WANs(Wide area networks), MANs(metropolitan area networks), ISDNs(integrated service digital networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. 또한 네트워크(400)는 근거리 통신 및/또는 원거리 통신을 이용하여 정보를 송수신할 수 있다. 여기서 근거리 통신은 블루투스(bluetooth), RFID(radio frequency identification), 적외선 통신(IrDA, infrared data association), UWB(ultra-wideband), ZigBee, Wi-Fi(Wireless fidelity) 기술을 포함할 수 있고, 원거리 통신은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 기술을 포함할 수 있다.The network 400 may serve to connect the road type determination apparatus 100 , the server 300 , and the user terminal 200 in the road type determination system. The network 400 is, for example, wired networks such as local area networks (LANs), wide area networks (WANs), metropolitan area networks (MANs), and integrated service digital networks (ISDNs), wireless LANs, CDMA, Bluetooth, and satellite communication. It may cover a wireless network such as, but the scope of the present invention is not limited thereto. Also, the network 400 may transmit/receive information using short-distance communication and/or long-distance communication. Here, the short-range communication may include Bluetooth (bluetooth), radio frequency identification (RFID), infrared data association (IrDA), ultra-wideband (UWB), ZigBee, and Wireless fidelity (Wi-Fi) technologies. Communication may include code division multiple access (CDMA), frequency division multiple access (FDMA), time division multiple access (TDMA), orthogonal frequency division multiple access (OFDMA), single carrier frequency division multiple access (SC-FDMA) technology. can

네트워크(400)는 허브, 브리지, 라우터, 스위치 및 게이트웨이와 같은 네트워크 요소들의 연결을 포함할 수 있다. 네트워크(400)는 인터넷과 같은 공용 네트워크 및 안전한 기업 사설 네트워크와 같은 사설 네트워크를 비롯한 하나 이상의 연결된 네트워크들, 예컨대 다중 네트워크 환경을 포함할 수 있다. 네트워크(400)에의 액세스는 하나 이상의 유선 또는 무선 액세스 네트워크들을 통해 제공될 수 있다. 더 나아가 네트워크(400)는 사물 등 분산된 구성 요소들 간에 정보를 주고받아 처리하는 IoT(Internet of Things, 사물인터넷) 망 및/또는 5G 통신을 지원할 수 있다.Network 400 may include connections of network elements such as hubs, bridges, routers, switches, and gateways. Network 400 may include one or more connected networks, eg, multiple network environments, including public networks such as the Internet and private networks such as secure enterprise private networks. Access to network 400 may be provided via one or more wired or wireless access networks. Furthermore, the network 400 may support an Internet of Things (IoT) network and/or 5G communication that exchanges and processes information between distributed components such as things.

도 3은 본 개시의 일 실시 예에 따른 도로 형태 판단 장치에서 전방차량의 회전에 따른 전방차량의 후미등 변화를 설명하기 위해 개략적으로 나타낸 도면이다.3 is a diagram schematically illustrating a change in the tail light of the front vehicle according to the rotation of the front vehicle in the device for determining a road type according to an embodiment of the present disclosure.

도 3을 참조하면, 전방차량의 회전에 따른 전방차량의 후미등 모양이 어떻게 변할 수 있는지 확인할 수 있는데, 도 3(a)는 전방차량이 직진을 하고 있는 경우를 나타낸 것으로, 좌측 후미등과 우측 후미등의 모양이 일정하고 복수의 후미등 사이의 길이는

Figure 112021021848493-pat00001
이다. Referring to FIG. 3, it can be seen how the shape of the tail light of the vehicle in front can be changed according to the rotation of the vehicle in front. The shape is constant and the length between the plurality of tail lights is
Figure 112021021848493-pat00001
to be.

그리고 도 3(b)는 전방차량이 좌회전을 하고 있는 경우를 나타낸 것으로, 좌측 후미등의 모양과 우측 후미등의 모양이 달라지고 우측 후미등의 크기가 작아짐을 볼 수 있다. 그리고 전방차량이 좌회전을 하는 경우에는 복수의 후미등 사이의 길이

Figure 112021021848493-pat00002
가 짧아지게 되며, 좌회전의 각도가 클수록 우측 후미등의 크기가 작아지고,
Figure 112021021848493-pat00003
가 짧아질 수 있다.And Fig. 3(b) shows a case in which the front vehicle is turning left, and it can be seen that the shape of the left tail light and the shape of the right tail light are changed, and the size of the right tail light is reduced. And when the vehicle in front turns left, the length between the plurality of tail lights
Figure 112021021848493-pat00002
becomes shorter, and the larger the angle of left turn, the smaller the size of the right tail light.
Figure 112021021848493-pat00003
can be shortened.

또한, 도 3(c)는 전방차량이 우회전을 하고 있는 경우를 나타낸 것으로, 좌측 후미등의 모양과 우측 후미등의 모양이 달라지고 좌측 후미등의 크기가 작아짐을 볼 수 있다. 그리고 전방차량이 우회전을 하는 경우에는 복수의 후미등 사이의 길이

Figure 112021021848493-pat00004
가 짧아지게 되며, 우회전의 각도가 클수록 좌측 후미등의 크기가 작아지고,
Figure 112021021848493-pat00005
가 짧아질 수 있다.Also, Fig. 3(c) shows a case in which the vehicle in front is turning right, and it can be seen that the shape of the left tail light and the shape of the right tail light are changed, and the size of the left tail light is reduced. And when the vehicle in front turns right, the length between the plurality of tail lights
Figure 112021021848493-pat00004
becomes shorter, and the larger the right turn angle, the smaller the size of the left tail light.
Figure 112021021848493-pat00005
can be shortened.

즉, 본 실시 예에서는, 상기와 같은 전방차량의 복수의 후미등의 모양 변화에 기반하여 전방차량이 위치하는 도로, 즉 자차량의 전방의 도로의 굽힘 각도를 파악할 수 있다. 보다 구체적인 설명은 후술하도록 한다.That is, in the present embodiment, the bending angle of the road in which the front vehicle is located, that is, the road in front of the host vehicle, can be grasped based on the shape change of the plurality of tail lights of the front vehicle as described above. A more detailed description will be given later.

도 4는 본 개시의 일 실시 예에 따른 도로 형태 판단 장치를 개략적으로 나타낸 블록도이다.4 is a block diagram schematically illustrating an apparatus for determining a road type according to an embodiment of the present disclosure.

도 4에 도시된 바와 같이, 도로 형태 판단 장치(100)는 단일 카메라(110), 프로세서(120), 메모리(130) 및 사용자 인터페이스(140)를 포함할 수 있다.As shown in FIG. 4 , the road shape determination apparatus 100 may include a single camera 110 , a processor 120 , a memory 130 , and a user interface 140 .

단일 카메라(110)는 차량에 구비되는 카메라 및/또는 이미지 센서를 의미할 수 있다. 이미지 센서는 카메라 내에 구비되거나 별도로 구성될 수도 있다. 이때 차량에는 복수의 카메라가 구비될 수 있으나, 전방차량의 후미등으로부터 광학 카메라 통신(OCC) 기반 데이터를 수신하는 것은 단일 카메라로 수행되므로, 본 실시 예에서는 단일 카메라로 기재하도록 한다. 또한 차량에 복수의 카메라가 구비되는 경우, 단일 카메라는 한 카메라로 고정되지 않고 설정에 따라 변경될 수 있다.The single camera 110 may mean a camera and/or an image sensor provided in a vehicle. The image sensor may be provided in the camera or may be configured separately. At this time, the vehicle may be provided with a plurality of cameras, but since the reception of optical camera communication (OCC)-based data from the tail light of the vehicle in front is performed with a single camera, it will be described as a single camera in this embodiment. In addition, when the vehicle is provided with a plurality of cameras, the single camera is not fixed to one camera and may be changed according to settings.

또한 단일 카메라(110)의 설치 위치는 한정되지 않고 차량의 전방 측을 촬영하기 용이한 위치에 설치될 수 있으며, 실시 예에 따라서는 사용자 단말(200)의 카메라가 단일 카메라로서 구현될 수도 있다. In addition, the installation position of the single camera 110 is not limited, and may be installed at a position where it is easy to photograph the front side of the vehicle, and according to an embodiment, the camera of the user terminal 200 may be implemented as a single camera.

본 실시 예의 단일 카메라(110)는 정보수신부(111) 및 이미지획득부(112)를 포함할 수 있으며, 정보수신부(111)는 전방차량의 후미등으로부터 광학 카메라 통신(OCC) 기반 데이터를 수신할 수 있고, 이미지획득부(112)는 차량의 전방 측을 포함하는 단일 카메라(110)의 FOV(Field Of View) 내의 이미지를 획득할 수 있다. FOV는 단일 카메라(110)가 이미지를 획득할 수 있는 범위이며, 신호를 인식할 수 있는 범위일 수 있다. 또한 본 실시 예에서, 정보수신부(111)는 롤링 셔터 방식으로 전방차량의 복수의 후미등으로부터 데이터를 수신할 수 있다.The single camera 110 of this embodiment may include an information receiving unit 111 and an image acquiring unit 112, and the information receiving unit 111 may receive optical camera communication (OCC) based data from the tail light of the vehicle in front. Also, the image acquisition unit 112 may acquire an image within a field of view (FOV) of a single camera 110 including the front side of the vehicle. The FOV is a range in which a single camera 110 can acquire an image, and may be a range in which a signal can be recognized. Also, in this embodiment, the information receiving unit 111 may receive data from a plurality of tail lights of the vehicle in front in a rolling shutter method.

메모리(130)는 도로 형태 판단 장치(100)의 동작에 필요한 각종 정보들을 저장하고, 도로 형태 판단 장치(100)를 동작시킬 수 있는 제어 소프트웨어를 저장할 수 있는 것으로, 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. The memory 130 may store various types of information necessary for the operation of the road type determination apparatus 100 , and may store control software capable of operating the road type determination apparatus 100 , and includes a volatile or nonvolatile recording medium. can do.

메모리(130)는 하나 이상의 프로세서(120)와 연결되는 것으로, 프로세서(120)에 의해 실행될 때, 프로세서(120)로 하여금 도로 형태 판단 장치(100)를 제어하도록 야기하는(cause) 코드들을 저장할 수 있다.The memory 130 is connected to one or more processors 120, and when executed by the processor 120, causes the processor 120 to control the road type determination apparatus 100. Codes can be stored. have.

여기서, 메모리(130)는 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. 이러한 메모리(130)는 내장 메모리 및/또는 외장 메모리를 포함할 수 있으며, DRAM, SRAM, 또는 SDRAM 등과 같은 휘발성 메모리, OTPROM(one time programmable ROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, NAND 플래시 메모리, 또는 NOR 플래시 메모리 등과 같은 비휘발성 메모리, SSD. CF(compact flash) 카드, SD 카드, Micro-SD 카드, Mini-SD 카드, Xd 카드, 또는 메모리 스틱(memory stick) 등과 같은 플래시 드라이브, 또는 HDD와 같은 저장 장치를 포함할 수 있다.Here, the memory 130 may include magnetic storage media or flash storage media, but the scope of the present invention is not limited thereto. The memory 130 may include internal memory and/or external memory, and may include volatile memory such as DRAM, SRAM, or SDRAM, one time programmable ROM (OTPROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, Non-volatile memory, such as NAND flash memory, or NOR flash memory, SSD. It may include a flash drive such as a compact flash (CF) card, an SD card, a Micro-SD card, a Mini-SD card, an Xd card, or a memory stick, or a storage device such as an HDD.

사용자 인터페이스(140)는 도로 형태 판단을 위한 사용자 요청 및 명령들이 입력되는 입력 인터페이스를 포함할 수 있다. 그리고 본 실시 예에서, 사용자 인터페이스(140)는 예를 들어, 전방 도로 굽힘 각도를 파악한 후, 전방 차량의 도로 굽힘 각도 등의 도로 형태 정보를 후방 또는 주변 차량에 제공하는 등의 요청 및 명령들이 입력되는 입력 인터페이스일 수도 있다. The user interface 140 may include an input interface into which a user request and commands for determining a road type are input. And in this embodiment, the user interface 140, for example, after identifying the front road bending angle, requests and commands such as providing road shape information such as the road bending angle of the front vehicle to the rear or surrounding vehicles are input It may be an input interface that is

또한 사용자 인터페이스(140)는 도로 형태 판단 장치(100)에서 도로 형태 판단 결과, 또는 도로 형태 판단이나 전방 차량 위치 판단에 따른 알림(또는 경고) 메시지 등을 출력하는 출력 인터페이스를 포함할 수 있다.In addition, the user interface 140 may include an output interface for outputting a result of the road type determination by the road type determination apparatus 100 or a notification (or warning) message according to the road type determination or the front vehicle position determination.

이러한 사용자 인터페이스(140)의 입력 인터페이스와 출력 인터페이스는 동일한 인터페이스에서 구현될 수 있으며, 예를 들어, 차량 내의 AVN 시스템 등의 디스플레이 장치나, 사용자 단말(200)에서 구동되는 어플리케이션 및/또는 웹사이트를 통해 사용자 인터페이스가 구현될 수 있다.The input interface and the output interface of the user interface 140 may be implemented in the same interface, for example, a display device such as an AVN system in a vehicle, or an application and/or a website driven in the user terminal 200 . A user interface may be implemented through

프로세서(120)는 도로 형태 판단 장치(100)의 전반적인 동작을 제어할 수 있다. 구체적으로, 프로세서(120)는 메모리(130)를 포함하는 도로 형태 판단 장치(100)의 구성과 연결되며, 메모리(130)에 저장된 적어도 하나의 명령을 실행하여 도로 형태 판단 장치(100)의 동작을 전반적으로 제어할 수 있다. The processor 120 may control the overall operation of the road type determining apparatus 100 . Specifically, the processor 120 is connected to the configuration of the road type determination apparatus 100 including the memory 130 , and executes at least one command stored in the memory 130 to operate the road type determination apparatus 100 . can be controlled in general.

프로세서(120)는 다양한 방식으로 구현될 수 있다. 예를 들어, 프로세서(120)는 주문형 집적 회로(Application Specific Integrated Circuit, ASIC), 임베디드 프로세서, 마이크로 프로세서, 하드웨어 컨트롤 로직, 하드웨어 유한 상태 기계(Hardware Finite State Machine, FSM), 디지털 신호 프로세서(Digital Signal Processor, DSP) 중 적어도 하나로 구현될 수 있다. The processor 120 may be implemented in various ways. For example, the processor 120 may include an application specific integrated circuit (ASIC), an embedded processor, a microprocessor, hardware control logic, a hardware finite state machine (FSM), or a digital signal processor (Digital Signal). Processor, DSP) may be implemented as at least one of.

프로세서(120)는 일종의 중앙처리장치로서 메모리(130)에 탑재된 제어 소프트웨어를 구동하여 도로 형태 판단 장치(100) 전체의 동작을 제어할 수 있다. 프로세서(120)는 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령어로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The processor 120 is a kind of central processing unit and may control the overall operation of the road type determination apparatus 100 by driving control software mounted on the memory 130 . The processor 120 may include any type of device capable of processing data. Here, the 'processor' may refer to a data processing device embedded in hardware having a physically structured circuit to perform a function expressed by, for example, a code or an instruction included in a program. As an example of the data processing apparatus embedded in the hardware as described above, a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, an application-specific integrated (ASIC) circuit) and a processing device such as a field programmable gate array (FPGA), but the scope of the present invention is not limited thereto.

한편, 본 실시 예에서, 프로세서(120)는 광학 카메라 통신(OCC)을 기반으로 전방의 도로 굽힘 정도를 파악하는 것으로, 먼저 차량에 구비된 단일 카메라(110)를 이용하여 전방차량의 복수의 후미등 사이의 간격 정보 및 복수의 후미등의 크기 정보를 수신할 수 있다. 이때, 차량은 ID와 같은 식별 정보에 따라 구분될 수 있다. 차량 ID는 광학 카메라 통신(OCC)을 기반으로 한 도로 형태 파악, 차량 위치 파악 및 통신을 위한 전제조건일 수 있다.On the other hand, in this embodiment, the processor 120 is to determine the degree of road bending in the front based on optical camera communication (OCC), first, a plurality of tail lights of the vehicle in front using a single camera 110 provided in the vehicle. Interval information and size information of a plurality of tail lights may be received. In this case, the vehicle may be classified according to identification information such as ID. Vehicle ID may be a prerequisite for road shape identification, vehicle location identification and communication based on optical camera communication (OCC).

그리고 프로세서(120)는 단일 카메라(110)를 통해 전방차량의 후방 측 이미지를 획득할 수 있는데, 전방차량의 후방 측 이미지라는 것은 자차량의 전방 측 이미지들이 획득되는 것과 동일한 의미일 수 있다. 다만, 실시 예에 따라서, 차량의 별도 센서를 통해 자차량 주변에 차량이 감지되면, 해당 차량의 방향에 대해서만 이미지가 획득될 수도 있다.In addition, the processor 120 may acquire the rear side image of the front vehicle through the single camera 110 , and the rear side image of the front vehicle may have the same meaning as that the front side images of the own vehicle are obtained. However, according to an embodiment, when a vehicle is detected around the own vehicle through a separate sensor of the vehicle, an image may be acquired only for the direction of the corresponding vehicle.

다음으로, 프로세서(120)는 단일 카메라(110)를 통해 전방차량의 복수의 후미등 이미지를 획득하여, 획득한 복수의 후미등 이미지에서 전방차량의 복수의 후미등 좌표를 설정할 수 있다. 예를 들어, 프로세서(120)는 복수의 후미등에 대한 이미지에서 좌측 후미등 좌표(x1, y1) 및 우측 후미등 좌표(x2, y2)를 설정할 수 있다. Next, the processor 120 may acquire a plurality of tail light images of the front vehicle through the single camera 110 , and set coordinates of a plurality of tail lights of the front vehicle in the obtained plurality of tail light images. For example, the processor 120 may set the left tail light coordinates (x 1 , y 1 ) and the right tail light coordinates (x 2 , y 2 ) in the images for the plurality of tail lights.

그리고 프로세서(120)는 전방차량의 복수의 후미등으로부터 수신한 전방차량의 복수의 후미등 사이의 간격 정보 및 복수의 후미등의 크기 정보와, 전방차량의 복수의 후미등 좌표에 기초하여 수학적 알고리즘으로 도로 굽힘 각도를 산출할 수 있다.In addition, the processor 120 calculates the road bending angle with a mathematical algorithm based on the distance information between the plurality of tail lights of the front vehicle and the size information of the plurality of tail lights received from the plurality of tail lights of the front vehicle, and the coordinates of the plurality of tail lights of the front vehicle. can be calculated.

이때, 프로세서(120)는 광학 카메라 통신(OCC)을 통해 수신한 실제 후미등 크기에 대한 사전 지식을 활용할 수 있다. 우측으로 구부러진 도로를 고려하면 좌측 후미등이 우측 후미등보다 작게 보이고 좌측으로 구부러진 도로를 고려하면 우측 후미등이 좌측 후미등보다 작게 보인다. 이에 도로 곡률에 따라 좌측 후미등과 우측 후미등 크기 비율을 사용하여 도로 굽힘 각도를 산출할 수 있으며, 후미등 좌표를 결정한 후 크기를 비교하고 그 비율에서 도로 굽힘 각도를 추정할 수 있다. 도 5를 통해 보다 구체적으로 설명하도록 한다.In this case, the processor 120 may utilize prior knowledge about the actual size of the tail light received through optical camera communication (OCC). Considering the road curved to the right, the left tail light appears smaller than the right tail light, and considering the road curved to the left, the right tail light appears smaller than the left tail light. Accordingly, according to the curvature of the road, the road bending angle can be calculated using the ratio of the size of the left tail light and the right tail light, and after determining the coordinates of the tail light, the size can be compared, and the road bending angle can be estimated from the ratio. It will be described in more detail with reference to FIG. 5 .

도 5는 본 개시의 일 실시 예에 따른 도로 형태 판단 장치의 수학식 방법을 기반으로 하는 도로 굽힘 각도 산출 과정을 설명하기 위한 예시도이다. 이때 도 5(a)는 전방차량이 좌회전 하는 경우를 나타낸 것이고, 도 5(b)는 전방차량이 우회전 하는 경우를 나타낸 것이다.5 is an exemplary view for explaining a process of calculating a road bending angle based on an equation method of an apparatus for determining a road shape according to an embodiment of the present disclosure. At this time, Fig. 5 (a) shows a case where the front vehicle turns left, and Fig. 5 (b) shows a case where the front vehicle turns right.

도 5를 참조하면, 프로세서(120)는 수신한 전방차량의 복수의 후미등 사이의 간격 정보 및 복수의 후미등의 크기 정보에 기초하여 단위 픽셀 당 거리를 계산할 수 있다. 그리고 프로세서(120)는 단위 픽셀 당 거리를 기반으로 획득한 전방차량의 복수의 후미등 이미지에서 복수의 후미등 사이의 거리를 산출할 수 있다. 이때 도 5의 실제 거리(Actual distance)가 전방차량의 복수의 후미등으로부터 수신한 전방차량의 복수의 후미등 사이의 간격 정보를 의미할 수 있으며, 단일 카메라(110)에 투영되는 투영 거리(Apparent distance)가 복수의 후미등 이미지에서 산출한 복수의 후미등 사이의 거리를 의미할 수 있다.Referring to FIG. 5 , the processor 120 may calculate a distance per unit pixel based on the received distance information between the plurality of tail lights of the vehicle ahead and the size information of the plurality of tail lights. In addition, the processor 120 may calculate the distance between the plurality of tail lights from the plurality of tail light images of the vehicle in front obtained based on the distance per unit pixel. At this time, the actual distance in FIG. 5 may mean information on the distance between the plurality of tail lights of the front vehicle received from the plurality of tail lights of the front vehicle, and the projected distance projected to the single camera 110 (Apparent distance) may mean a distance between the plurality of tail lights calculated from the plurality of tail light images.

전방차량이 직진할 때 복수의 후미등의 모양은 비슷하다. 이때 광학 카메라 통신(OCC)을 통해 전방차량의 후미등으로부터 좌측 후미등과 우측 후미등 사이의 거리를 수신할 수 있어, 단위 픽셀 당 거리를 계산할 수 있다. 따라서 본 실시 예에서는, 전방차량이 좌회전 또는 우회전하면 도 5와 같이 서로 다른 후미등 모양에서 방향을 감지 할 수 있다. 다시 말해, 전방차량이 휘어진 도로에 진입하더라도 복수의 후미등 사이의 투영 거리(단일 카메라로 획득 가능한 거리)를 계산할 수 있다. 그러나 실제로는 복수의 후미등의 실제 거리는 일정하다. 이러한 점을 이용하여 가상 삼각형을 분석하여 코사인 함수를 이용하여 굽힘 각도를 계산할 수 있다.When the vehicle in front is going straight, the shape of the plurality of tail lights is similar. In this case, the distance between the left and right tail lights can be received from the tail lights of the vehicle in front through optical camera communication (OCC), so that the distance per unit pixel can be calculated. Therefore, in the present embodiment, when the vehicle in front turns left or right, the direction can be detected from different tail light shapes as shown in FIG. 5 . In other words, even if the vehicle in front enters the curved road, the projected distance between the plurality of tail lights (distance obtainable by a single camera) can be calculated. In practice, however, the actual distance of the plurality of tail lights is constant. By analyzing the virtual triangle using these points, the bending angle can be calculated using the cosine function.

즉, 프로세서(120)는 수신한 복수의 후미등 사이의 간격과 산출한 복수의 후미등 사이의 거리에 기반하여 가상 삼각형을 생성하고, 가상 삼각형을 분석하여 수학식 1과 같이 코사인 함수를 이용해 도로 굽힘 각도를 산출할 수 있다.That is, the processor 120 generates a virtual triangle based on the received distance between the plurality of tail lights and the calculated distance between the plurality of tail lights, analyzes the virtual triangle, and uses a cosine function as in Equation 1 to obtain a road bending angle can be calculated.

Figure 112021021848493-pat00006
Figure 112021021848493-pat00006

한편, 본 실시 예에서는, 수학적 알고리즘뿐만 아니라, 인공신경망을 이용하여 도로 굽힘 각도를 예측할 수 있다. 즉 프로세서(120)는 전방차량의 복수의 후미등으로부터 수신한 전방차량의 복수의 후미등 사이의 간격 정보 및 복수의 후미등의 크기 정보와 전방차량의 복수의 후미등 좌표에 기초하여, 기 학습된 인공신경망을 통해 도로 굽힘 각도를 예측할 수 있다.Meanwhile, in the present embodiment, the road bending angle may be predicted using an artificial neural network as well as a mathematical algorithm. That is, the processor 120 is based on the distance information between the plurality of tail lights of the front vehicle received from the plurality of tail lights of the front vehicle, the size information of the plurality of tail lights, and the coordinates of the plurality of tail lights of the front vehicle. It is possible to predict the road bending angle.

이때, 프로세서(120)는 단일 카메라(110)에서 수집되는 복수의 후미등의 이미지를 입력으로 하여 도로 굽힘 각도를 출력하도록 훈련된 머신 러닝 기반의 학습 모델에 기반하여 전방차량의 복수의 후미등 이미지에서 도로 굽힘 각도를 예측할 수 있다. 여기서 사용되는 훈련된 머신 러닝 기반의 학습 모델, 즉 기 학습된 인공신경망을 학습하는 과정에 대해서는 도 6 및 도 7을 통해 보다 구체적으로 설명하도록 한다.At this time, the processor 120 receives the image of a plurality of tail lights collected from a single camera 110 as an input, and based on a machine learning-based learning model trained to output a road bending angle, a road from a plurality of tail light images of the front vehicle. The bending angle can be predicted. The process of learning the trained machine learning-based learning model used here, that is, the pre-trained artificial neural network, will be described in more detail with reference to FIGS. 6 and 7 .

도 6은 본 개시의 일 실시 예에 따른 도로 형태 판단 장치의 인공신경망을 기반으로 하는 도로 굽힘 각도 산출 과정을 설명하기 위한 예시도이고, 도 7은 본 개시의 일 실시 예에 따른 인공신경망 훈련 페이즈(phase)를 설명하기 위한 예시도이다.6 is an exemplary diagram for explaining a process of calculating a road bending angle based on an artificial neural network of an apparatus for determining a road type according to an embodiment of the present disclosure, and FIG. 7 is an artificial neural network training phase according to an embodiment of the present disclosure. It is an exemplary diagram for explaining a (phase).

도 6은 인공신경망 기반 접근 방식을 위한 데이터 세트 생성에 대해 설명하기 위한 것으로, 딥러닝 기반 접근 방식을 위한 데이터 세트 생성 개념을 보여주는 몇 가지 상황을 나타낼 수 있다. 도 6(a), 도 6(b) 및 도 6(c)는 전방차량이 직진, 좌회전, 우회전 할 때의 상태를 보여준다. 그리고 도 6(d) 및 도 6(e)는 전방차량이 직진하고 있으나, 도로의 구조로 인해 복수의 후미등의 y1과 y2 좌표가 일치하지 않을 수 있는 상황에 대해 나타낸 것이다.6 is for explaining data set generation for an artificial neural network-based approach, and may represent several situations showing a data set generation concept for a deep learning-based approach. 6(a), 6(b) and 6(c) show states when the vehicle in front moves straight ahead, turns left, and turns right. 6(d) and 6(e) show a situation in which the y 1 and y 2 coordinates of the plurality of tail lights may not match due to the structure of the road, although the vehicle in front is moving straight ahead.

본 실시 예에서, 인공신경망은, 단일 카메라에서 수집된 복수의 후미등 이미지에서 좌측 후미등 좌표(x1, y1), 우측 후미등 좌표(x2, y2), 좌측 후미등과 우측 후미등의 수평 좌표 차이(dx), 및 좌측 후미등과 우측 후미등의 수직 좌표 차이(dy)가 기 학습된 인공신경망의 입력 벡터로 설정되고, 입력 벡터에 의해 머신 러닝 기반의 학습 모델에서 추론된 출력 벡터인 도로 굽힘 각도가 레이블(L)로 설정되는 훈련 페이즈(phase)에 의해 훈련된 것일 수 있다. 이때, 본 실시 예에서는, 훈련 데이터로 5000 개의 이미지를 수집할 수 있으며, 6 개의 입력과 1 개의 출력을 사용할 수 있다. 즉, 입력 치수는 5000 × 6이고 출력 치수는 5000 × 1일 수 있다. 다만 이는 실시 예로 한정되는 것은 아니다.In this embodiment, the artificial neural network is a left tail light coordinates (x 1 , y 1 ), right tail light coordinates (x 2 , y 2 ) in a plurality of tail light images collected from a single camera, the horizontal coordinate difference between the left tail light and the right tail light (d x ), and the vertical coordinate difference (d y ) of the left tail lamp and the right tail lamp is set as an input vector of the pre-trained artificial neural network, and is an output vector inferred from a machine learning-based learning model by the input vector. It may be trained by a training phase in which the angle is set as a label (L). At this time, in this embodiment, 5000 images may be collected as training data, and 6 inputs and 1 output may be used. That is, the input dimension may be 5000×6 and the output dimension may be 5000×1. However, this is not limited to the embodiment.

그리고 도 7을 참조하면, 인공신경망은 먼저 이미지를 획득할 수 있다. 이때 본 실시 예에서는 단일 카메라(110)에서 수집된 복수의 후미등 이미지에서 원하지 않는 픽셀을 제외할 수 있다. 본 실시 예에서는, 차량의 후미등 영역에만 관심이 있으므로 모든 픽셀이 신경망에 입력으로 수집되어 신경망의 복잡도가 상승하는 것을 방지하기 위해 원하지 않는 픽셀을 제외하는 것이다. And referring to FIG. 7 , the artificial neural network may first acquire an image. In this case, in the present embodiment, unwanted pixels may be excluded from the plurality of tail light images collected by the single camera 110 . In this embodiment, since we are only interested in the tail light area of the vehicle, all pixels are collected as inputs to the neural network, and unwanted pixels are excluded to prevent an increase in the complexity of the neural network.

그리고 도로 굽힘 각도가 다른 차량의 복수의 후미등 이미지가 적어도 두 개 이상의 히든 레이어에 의해 추론되도록 하는 단계와, 업데이트 된 가중치를 이용하여 도로 굽힘 각도가 예측되도록 하는 단계를 포함하는 훈련 페이즈에 의해 훈련된 것일 수 있다. 즉 본 실시 예에서는, 도 7에 도시된 순서에 따라 입력 이미지를 추론하고 업데이트 된 가중치를 이용하여 도로 굽힘 각도를 레이블로 출력할 수 있다. 예를 들어, 본 실시 예에서는, 먼저 전방 차량의 복수의 후미등을 감지하고, 이미지 와핑이 수행된 후 컨볼루션 될 수 있도록 한다. 그런 다음 맥스 풀링을 사용하여 기능이 손실되지 않도록 현재 이미지의 크기를 줄일 수 있다. 이러한 값은 평면화(플래트닝)되어 신경망의 입력으로 사용될 수 있다. 그리고 업데이트 된 가중치는 신경망에서 테스트하는 동안 도로 굽힘 각도를 계산하는데 사용될 수 있다. 이와 같이 도 7에 도시된 인공신경망의 구조는 한정된 것은 아니며 실시 예에 따라 변경될 수 있다.and allowing a plurality of tail light images of vehicles having different road bending angles to be inferred by at least two or more hidden layers, and allowing the road bending angle to be predicted using the updated weights. it could be That is, in the present embodiment, the input image may be inferred according to the order shown in FIG. 7 and the road bending angle may be output as a label using the updated weight. For example, in this embodiment, a plurality of tail lights of the vehicle in front are first detected, and image warping is performed and then convolution is performed. You can then use max pooling to reduce the size of the current image so that no functionality is lost. These values can be flattened (flattened) and used as input to the neural network. And the updated weights can be used to calculate the road bending angle during testing in the neural network. As such, the structure of the artificial neural network shown in FIG. 7 is not limited and may be changed according to embodiments.

한편 본 실시 예에서, 프로세서(120)는 전방차량의 복수의 후미등으로부터 수신한 복수의 후미등의 크기 정보와 단일 카메라(110)를 통해 획득한 복수의 후미등 이미지에 의해 검출된 복수의 후미등 크기에 기초하여, 복수의 후미등의 좌측 후미등과 우측 후미등의 크기를 비교한 후, 좌측 후미등과 우측 후미등의 크기가 다른 경우에, 수학적 알고리즘 및 인공신경망을 통해 도로 굽힘 각도를 산출할 수 있다. 이는 복수의 후미등의 크기가 다르지 않은 경우에는 전방차량이 직진하고 있는 상황이므로, 도로 굽힘 각도를 산출할 필요가 없기 때문이다.On the other hand, in this embodiment, the processor 120 is based on the size information of the plurality of tail lights received from the plurality of tail lights of the vehicle in front and the sizes of the plurality of tail lights detected by the plurality of tail light images acquired through the single camera 110 Thus, after comparing the sizes of the left and right tail lights of the plurality of tail lights, when the sizes of the left tail lights and the right tail lights are different, the road bending angle can be calculated through a mathematical algorithm and an artificial neural network. This is because, when the size of the plurality of tail lights is not different, since the vehicle in front is going straight, it is not necessary to calculate the road bending angle.

프로세서(120)는 수학적 알고리즘으로 산출한 도로 굽힘 각도와 인공신경망을 통해 예측한 도로 굽힘 각도를 비교한 결과에 기반하여 최종 도로 굽힘 각도를 도출할 수 있다.The processor 120 may derive the final road bending angle based on a result of comparing the road bending angle calculated by the mathematical algorithm with the road bending angle predicted through the artificial neural network.

이때 프로세서(120)는 수학적 알고리즘으로 산출한 도로 굽힘 각도와 인공신경망을 통해 예측한 도로 굽힘 각도의 차이값과 임계값을 비교할 수 있다. 이때 임계값은 기 설정될 수 있으며, 변경 가능할 수 있다.In this case, the processor 120 may compare the difference between the road bending angle calculated by the mathematical algorithm and the road bending angle predicted through the artificial neural network and the threshold value. In this case, the threshold value may be preset or may be changeable.

프로세서(120)는 수학적 알고리즘으로 산출한 도로 굽힘 각도와 인공신경망을 통해 예측한 도로 굽힘 각도의 차이값이 임계값 이하이면, 인공신경망을 통해 예측한 도로 굽힘 각도를 최종 도로 굽힘 각도로 도출할 수 있다. 반면, 프로세서(120)는 수학적 알고리즘으로 산출한 도로 굽힘 각도와 인공신경망을 통해 예측한 도로 굽힘 각도의 차이값이 임계값을 초과하면, 수학적 알고리즘으로 산출한 도로 굽힘 각도와 인공신경망을 통해 예측한 도로 굽힘 각도 데이터를 삭제할 수 있다.If the difference between the road bending angle calculated by the mathematical algorithm and the road bending angle predicted through the artificial neural network is less than or equal to the threshold value, the processor 120 may derive the road bending angle predicted through the artificial neural network as the final road bending angle. have. On the other hand, when the difference between the road bending angle calculated by the mathematical algorithm and the road bending angle predicted through the artificial neural network exceeds the threshold value, the processor 120 predicts the road bending angle calculated by the mathematical algorithm and the artificial neural network. The road bending angle data can be deleted.

예를 들어, 본 실시 예에서는, 30fps(초당 프레임 속도) 카메라를 사용할 수 있는데, 1초에 30개의 이미지를 얻고 각 이미지는 하나의 결과를 제공할 수 있다. 따라서 높은 프레임 속도의 카메라를 사용하는 경우 1 초에 얻은 결과 수는 카메라의 프레임 속도와 같다. 즉 일부 결과를 삭제해도 심각한 성능 저하가 발생하지 않는다.For example, in this embodiment, a 30 fps (frame rate per second) camera may be used, which may obtain 30 images per second and each image may provide one result. So if you are using a camera with a high frame rate, the number of results you get in 1 second is equal to the frame rate of your camera. That is, deleting some results does not cause significant performance degradation.

본 실시 예에서는, 딥러닝 기반 방법이 수학적 접근 방식보다 더 정확하기 때문에, 더 정확한 결과를 제공하기 위해 두 방법을 비교할 수 있다. 이때 본 실시 예에서는, 일부 결과를 삭제해도 심각한 성능 저하가 발생하지 않기 때문에, 수학적 방법과 딥러닝 기반 방법 사이에 결과 불일치가 있으면 일정 수준(임계값)까지는 문제가 없어, 딥러닝 기반 접근의 결과를 결과값으로 출력할 수 있으며, 그 차이가 임계값(예를 들어, 5)보다 크면 해당 계산 결과값을 제거 할 수 있다.In this embodiment, since the deep learning-based method is more accurate than the mathematical approach, the two methods can be compared to provide more accurate results. In this embodiment, since serious performance degradation does not occur even if some results are deleted, if there is a discrepancy in the results between the mathematical method and the deep learning-based method, there is no problem up to a certain level (threshold), the result of the deep learning-based approach can be output as a result value, and if the difference is greater than a threshold value (eg, 5), the corresponding calculation result value can be removed.

한편, 본 실시 예에서는, 도출한 최종 도로 굽힘 각도가 설정 각도 이상인지 확인하여, 최종 도로 굽힘 각도가 설정 각도 이상이면, 경고 메시지를 출력할 수 있다. 이때 경고 메시지는 자차량 내에 사용자 인터페이스(140) 등을 통해 출력되는 메시지일 수 있고, 광학 카메라 통신(OCC)을 통해 후방 차량이나 주변 차량에 송신하는 메시지일 수 있다. Meanwhile, in the present embodiment, it is checked whether the derived final road bending angle is equal to or greater than a set angle, and if the final road bending angle is equal to or greater than the set angle, a warning message may be output. In this case, the warning message may be a message output through the user interface 140 in the own vehicle, or may be a message transmitted to the rear vehicle or surrounding vehicles through optical camera communication (OCC).

또한, 프로세서(120)는 단일 카메라(110)를 이용하여 전방차량의 복수의 후미등으로부터 전방차량의 식별 정보 및 전방차량의 상태 정보 중 적어도 하나 이상을 수신할 수 있다. 즉, 프로세서(120)는 전방차량을 식별할 수 있는 식별 정보를 수신하여 해당 차량이 주행하고 있는 도로의 형태를 파악할 수 있으며, 해당 차량에 대해 위치를 파악할 수도 있다. 또한 본 실시 예에서는, 광학 카메라 통신(OCC)을 통해 전방차량의 상태 정보도 수신할 수 있는데, 상태 정보는 전방차량에 문제가 발생한 경우나 주행 상황 등에 대한 정보를 포함할 수 있다.In addition, the processor 120 may receive at least one of identification information of the front vehicle and state information of the front vehicle from a plurality of tail lights of the front vehicle using the single camera 110 . That is, the processor 120 may receive identification information for identifying the vehicle in front to determine the shape of the road on which the vehicle is traveling, and may also determine the location of the vehicle. In addition, in this embodiment, status information of the vehicle in front may also be received through optical camera communication (OCC), and the status information may include information about a case in which a problem occurs in the vehicle in front, driving conditions, and the like.

그리고 프로세서(120)는 단일 카메라(110)를 이용하여 전방차량의 복수의 후미등으로부터 전방차량의 식별 정보 및 전방차량의 상태 정보와, 전방차량의 복수의 후미등 사이의 간격 정보 및 복수의 후미등의 크기 정보를 동시에 수신할 수 있다. 즉 프로세서(120)는 광학 카메라 통신(OCC)을 기반으로 하여 복수의 후미등을 캡쳐하는 것만으로 상기의 정보들을 동시에 수신할 수 있다.In addition, the processor 120 uses a single camera 110 to obtain identification information of the front vehicle and state information of the front vehicle from a plurality of tail lights of the front vehicle, interval information between the plurality of tail lights of the front vehicle, and sizes of the plurality of tail lights. information can be received at the same time. That is, the processor 120 may simultaneously receive the above information only by capturing a plurality of tail lights based on optical camera communication (OCC).

또한 프로세서(120)는 전방차량으로부터 수신한 전방차량의 식별 정보 및 전방차량의 상태 정보와, 전방차량의 위치 정보, 전방의 도로 굽힘 각도, 자차량의 식별 정보 및 자차량의 상태 정보, 및 자차량의 복수의 후미등 사이의 간격 정보 및 복수의 후미등의 크기 정보 중 적어도 하나 이상을 자차량의 후미등을 통해 송신할 수도 있다. 즉, 본 실시 예에서는, 광학 카메라 통신(OCC)을 통해 전방차량으로부터 데이터를 수신하고, 상황에 따라 후방차량에 데이터를 송신할 수도 있다.In addition, the processor 120 includes the identification information of the front vehicle and the status information of the front vehicle received from the front vehicle, the location information of the front vehicle, the bending angle of the front road, the identification information of the own vehicle and the state information of the own vehicle, and the At least one of interval information between the plurality of tail lights of the vehicle and size information of the plurality of tail lights may be transmitted through the tail lights of the own vehicle. That is, in the present embodiment, data may be received from the vehicle ahead through optical camera communication (OCC), and data may be transmitted to the vehicle behind according to circumstances.

정리하면, 도 8에 도시된 바와 같이, 단일 카메라(110)를 통해 전방차량의 복수의 후미등 영역의 이미지를 획득할 수 있다. 도 8은 전방차량이 단일 카메라(110)에 대해 상대적인 위치에서 특정 각도로 구부러질 때의 후미등 모양으로, 도 8(a)는 단일 카메라(110)에서 획득되는 이미지를 나타내고, 도 8(b)는 획득된 이미지에서 후미등 영역이 감지된 이미지를 나타낸다. 그리고 도 8(c)는 감지된 후미등 영역의 이진 이미지를 나타내고, 도 8(d)는 단일 카메라(110)의 롤링 셔터 효과로 인해 변조된 우측 후미등의 이미지를 나타낸다. 따라서, 본 실시 예에서는, 광학 카메라 통신(OCC)을 기반으로 하여, 차량의 단일 카메라(110)로 전방차량의 복수의 후미등으로부터 데이터를 수신하고, 수신한 데이터를 통해 전방 도로 굽힘 각도 등의 도로 형태를 파악할 수 있다.In summary, as shown in FIG. 8 , images of a plurality of rear light areas of the vehicle in front may be acquired through a single camera 110 . 8 is a shape of the tail lamp when the vehicle in front is bent at a specific angle at a position relative to the single camera 110, and FIG. 8 (a) shows an image obtained from the single camera 110, and FIG. 8 (b) indicates an image in which the tail light area is detected in the acquired image. And FIG. 8( c ) shows a binary image of the detected tail light area, and FIG. 8 ( d ) shows an image of the right tail light modulated due to the rolling shutter effect of the single camera 110 . Therefore, in this embodiment, based on optical camera communication (OCC), data is received from a plurality of tail lights of the vehicle in front with a single camera 110 of the vehicle, and the road such as the bending angle of the front road through the received data shape can be discerned.

도 9는 본 개시의 일 실시 예에 따른 도로 형태 판단 방법을 설명하기 위한 흐름도이다. 이하의 설명에서 도 1 내지 도 8에 대한 설명과 중복되는 부분은 그 설명을 생략하기로 한다.9 is a flowchart illustrating a method for determining a road type according to an embodiment of the present disclosure. In the following description, descriptions of parts overlapping with those of FIGS. 1 to 8 will be omitted.

도 9에 도시된 바와 같이, S100단계에서, 도로 형태 판단 장치(100)는 차량에 구비된 단일 카메라(110)를 이용하여 전방차량의 복수의 후미등 사이의 간격 정보 및 복수의 후미등의 크기 정보를 수신한다.As shown in Figure 9, in step S100, the road shape determination device 100 using a single camera 110 provided in the vehicle, the distance information between the plurality of tail lights of the front vehicle and the size information of the plurality of tail lights receive

여기서, 단일 카메라(110)는 차량에 구비되는 카메라 및/또는 이미지 센서를 의미할 수 있다. 이미지 센서는 카메라 내에 구비되거나 별도로 구성될 수도 있다. 또한, 본 실시 예의 단일 카메라(110)는 전방차량의 후미등으로부터 광학 카메라 통신(OCC) 기반 데이터를 수신할 수 있고, 롤링 셔터 방식으로 전방차량의 복수의 후미등으로부터 데이터를 수신할 수 있다.Here, the single camera 110 may mean a camera and/or an image sensor provided in a vehicle. The image sensor may be provided in the camera or may be configured separately. In addition, the single camera 110 of this embodiment may receive optical camera communication (OCC) based data from the tail lights of the vehicle in front, and may receive data from a plurality of tail lights of the vehicle in front in a rolling shutter method.

S200단계에서, 도로 형태 판단 장치(100)는 전방차량의 복수의 후미등으로부터 수신한 복수의 후미등의 크기 정보와 단일 카메라(110)를 통해 획득한 복수의 후미등 이미지에 의해 검출된 복수의 후미등 크기에 기초하여, 복수의 후미등의 좌측 후미등과 우측 후미등의 크기를 비교한다.In step S200, the road shape determination device 100 determines the size of a plurality of tail lights detected by the size information of a plurality of tail lights received from a plurality of tail lights of the vehicle in front and a plurality of tail light images obtained through a single camera 110. Based on the comparison, the sizes of the left tail light and the right tail light of the plurality of tail lights are compared.

본 실시 예에서는, 비교 결과 좌측 후미등과 우측 후미등의 크기가 다른 경우에, 수학적 알고리즘 및 인공신경망을 통해 도로 굽힘 각도를 산출하는 다음 단계가 수행되도록 할 수 있다. 이는 좌측 후미등과 우측 후미등의 크기가 같은 경우에는 도로 굽힘 각도를 산출할 필요가 없기 때문이다.In this embodiment, when the size of the left tail light and the right tail light are different as a result of the comparison, the next step of calculating the road bending angle through a mathematical algorithm and an artificial neural network may be performed. This is because it is not necessary to calculate the road bending angle when the size of the left tail light and the right tail light are the same.

S300단계에서, 도로 형태 판단 장치(100)는 단일 카메라(110)를 통해 전방차량의 복수의 후미등 이미지를 획득하여, 획득한 복수의 후미등 이미지에서 전방차량의 복수의 후미등 좌표를 설정한다.In step S300 , the road shape determination apparatus 100 acquires a plurality of tail light images of the front vehicle through the single camera 110 , and sets coordinates of a plurality of tail lights of the front vehicle in the obtained plurality of tail light images.

이때, 도로 형태 판단 장치(100)는 차량의 전방 측을 포함하는 단일 카메라(110)의 FOV(Field Of View) 내의 이미지를 획득할 수 있다. FOV는 단일 카메라(110)가 이미지를 획득할 수 있는 범위이며, 신호를 인식할 수 있는 범위일 수 있다.In this case, the road type determination apparatus 100 may acquire an image within a field of view (FOV) of the single camera 110 including the front side of the vehicle. The FOV is a range in which a single camera 110 can acquire an image, and may be a range in which a signal can be recognized.

그리고 S400단계에서, 도로 상태 판단 장치(100)는 수신한 전방차량의 복수의 후미등 사이의 간격 정보 및 복수의 후미등의 크기 정보와 전방차량의 복수의 후미등 좌표에 기초하여 수학적 알고리즘으로 도로 굽힘 각도를 산출한다.And in step S400, the road condition determination device 100 determines the road bending angle with a mathematical algorithm based on the received distance information between the plurality of tail lights of the front vehicle and the size information of the plurality of tail lights and the coordinates of the plurality of tail lights of the front vehicle. Calculate.

이때, 도로 상태 판단 장치(100)는 수신한 전방차량의 복수의 후미등 사이의 간격 정보 및 복수의 후미등의 크기 정보에 기초하여 단위 픽셀 당 거리를 계산할 수 있다. 그리고 도로 상태 판단 장치(100)는 단위 픽셀 당 거리를 기반으로 획득한 전방차량의 복수의 후미등 이미지에서 복수의 후미등 사이의 거리를 산출할 수 있다. 전방차량이 직진할 때 복수의 후미등의 모양은 비슷하다. 이때 광학 카메라 통신(OCC)을 통해 전방차량의 후미등으로부터 좌측 후미등과 우측 후미등 사이의 거리를 수신할 수 있어, 단위 픽셀 당 거리를 계산할 수 있다. 전방차량이 휘어진 도로에 진입하더라도 복수의 후미등 사이의 투영 거리(단일 카메라로 획득 가능한 거리)를 계산할 수 있다. 그러나 실제로는 복수의 후미등의 실제 거리는 일정하다. 이러한 점을 이용하여 가상 삼각형을 분석하여 코사인 함수를 이용하여 굽힘 각도를 계산할 수 있다.In this case, the road condition determination apparatus 100 may calculate the distance per unit pixel based on the received distance information between the plurality of tail lights of the vehicle ahead and the size information of the plurality of tail lights. In addition, the road condition determination apparatus 100 may calculate the distance between the plurality of tail lights from the plurality of tail light images of the vehicle in front obtained based on the distance per unit pixel. When the vehicle in front is going straight, the shape of the plurality of tail lights is similar. In this case, the distance between the left and right tail lights can be received from the tail lights of the vehicle in front through optical camera communication (OCC), so that the distance per unit pixel can be calculated. Even if the vehicle in front enters the curved road, it is possible to calculate the projected distance between the plurality of tail lights (distance obtainable with a single camera). In practice, however, the actual distance of the plurality of tail lights is constant. By analyzing the virtual triangle using these points, the bending angle can be calculated using the cosine function.

즉, 도로 상태 판단 장치(100)는 수신한 복수의 후미등 사이의 간격과 산출한 복수의 후미등 사이의 거리에 기반하여 가상 삼각형을 생성하고, 가상 삼각형을 분석하여 코사인 함수를 이용해 도로 굽힘 각도를 산출할 수 있다.That is, the road condition determination apparatus 100 generates a virtual triangle based on the received distance between the plurality of tail lights and the calculated distance between the plurality of tail lights, analyzes the virtual triangle, and calculates the road bending angle using a cosine function can do.

S500단계에서, 도로 상태 판단 장치(100)는 수신한 전방차량의 복수의 후미등 사이의 간격 정보 및 복수의 후미등의 크기 정보와 전방차량의 복수의 후미등 좌표에 기초하여 기 학습된 인공신경망을 통해 도로 굽힘 각도를 예측한다.In step S500, the road condition determination device 100 receives the distance information between the plurality of tail lights of the front vehicle and the size information of the plurality of tail lights and the plurality of tail light coordinates of the front vehicle. Predict the bending angle.

이때, 도로 상태 판단 장치(100)는 단일 카메라(110)에서 수집되는 복수의 후미등의 이미지를 입력으로 하여 도로 굽힘 각도를 출력하도록 훈련된 머신 러닝 기반의 학습 모델에 기반하여 전방차량의 복수의 후미등 이미지에서 도로 굽힘 각도를 예측할 수 있다.At this time, the road condition determination device 100 receives images of a plurality of tail lights collected from a single camera 110 as input and based on a machine learning-based learning model trained to output a road bending angle, a plurality of tail lights of the front vehicle It is possible to predict the road bending angle from the image.

본 실시 예에서, 기 학습된 인공신경망은, 단일 카메라(110)에서 수집된 복수의 후미등 이미지에서 좌측 후미등 좌표(x1, y1), 우측 후미등 좌표(x2, y2), 좌측 후미등과 우측 후미등의 수평 좌표 차이(dx), 및 좌측 후미등과 우측 후미등의 수직 좌표 차이(dy)가 기 학습된 인공신경망의 입력 벡터로 설정되고, 입력 벡터에 의해 머신 러닝 기반의 학습 모델에서 추론된 출력 벡터인 도로 굽힘 각도가 레이블(L)로 설정되는 훈련 페이즈(phase)에 의해 훈련된 것일 수 있다. In this embodiment, the pre-trained artificial neural network is a left tail light coordinates (x 1 , y 1 ), a right tail light coordinates (x 2 , y 2 ), and a left tail light from a plurality of tail light images collected from a single camera 110 . The horizontal coordinate difference (d x ) of the right tail lamp and the vertical coordinate difference (d y ) of the left tail lamp and the right tail lamp are set as input vectors of the pre-trained artificial neural network, and inferred from the machine learning-based learning model by the input vectors It may be trained by a training phase in which a road bending angle, which is an output vector, is set as a label (L).

그리고 본 실시 예에서, 기 학습된 인공신경망은 수집된 복수의 후미등 이미지에서 원하지 않는 픽셀을 제외하는 단계와, 도로 굽힘 각도가 다른 차량의 복수의 후미등 이미지가 적어도 두 개 이상의 히든 레이어에 의해 추론되도록 하는 단계와, 업데이트 된 가중치를 이용하여 도로 굽힘 각도가 예측되도록 하는 단계를 포함하는 훈련 페이즈에 의해 훈련된 것일 수 있다.And in this embodiment, the pre-trained artificial neural network excludes unwanted pixels from a plurality of collected tail light images, and a plurality of tail light images of vehicles with different road bending angles are inferred by at least two or more hidden layers. It may be trained by a training phase comprising the steps of: and predicting the road bending angle using the updated weights.

그리고 S600단계에서, 도로 상태 판단 장치(100)는 수학적 알고리즘으로 산출한 도로 굽힘 각도와 인공신경망을 통해 예측한 도로 굽힘 각도를 비교한다.And in step S600, the road condition determination apparatus 100 compares the road bending angle calculated by the mathematical algorithm with the road bending angle predicted through the artificial neural network.

이때 도로 상태 판단 장치(100)는 수학적 알고리즘으로 산출한 도로 굽힘 각도와 인공신경망을 통해 예측한 도로 굽힘 각도의 차이값과 임계값을 비교할 수 있다. 이때 임계값은 기 설정될 수 있으며, 변경 가능할 수 있다.In this case, the road condition determination apparatus 100 may compare the difference between the road bending angle calculated by the mathematical algorithm and the road bending angle predicted through the artificial neural network and the threshold value. In this case, the threshold value may be preset or may be changeable.

S700단계에서, 도로 상태 판단 장치(100)는 수학적 알고리즘으로 산출한 도로 굽힘 각도와 인공신경망을 통해 예측한 도로 굽힘 각도의 차이값이 임계값 이하이면, 인공신경망을 통해 예측한 도로 굽힘 각도를 최종 도로 굽힘 각도로 도출한다(S600단계의 예).In step S700, if the difference between the road bending angle calculated by the mathematical algorithm and the road bending angle predicted through the artificial neural network is less than or equal to the threshold value, the road condition determination apparatus 100 finalizes the road bending angle predicted through the artificial neural network. It is derived as a road bending angle (example of step S600).

반면, S800단계에서, 도로 상태 판단 장치(100)는 수학적 알고리즘으로 산출한 도로 굽힘 각도와 인공신경망을 통해 예측한 도로 굽힘 각도의 차이값이 임계값을 초과하면, 수학적 알고리즘으로 산출한 도로 굽힘 각도와 인공신경망을 통해 예측한 도로 굽힘 각도 데이터를 삭제한다(S600단계의 아니오).On the other hand, in step S800 , the road condition determination apparatus 100 determines the road bending angle calculated by the mathematical algorithm when the difference between the road bending angle calculated by the mathematical algorithm and the road bending angle predicted through the artificial neural network exceeds the threshold value. and deletes the road bending angle data predicted through the artificial neural network (NO in step S600).

예를 들어, 본 실시 예에서는, 30fps(초당 프레임 속도) 카메라를 사용할 수 있는데, 1초에 30개의 이미지를 얻고 각 이미지는 하나의 결과를 제공할 수 있다. 따라서 높은 프레임 속도의 카메라를 사용하는 경우 1 초에 얻은 결과 수는 카메라의 프레임 속도와 같다. 즉 일부 결과를 삭제해도 심각한 성능 저하가 발생하지 않는다.For example, in this embodiment, a 30 fps (frame rate per second) camera may be used, which may obtain 30 images per second and each image may provide one result. So if you are using a camera with a high frame rate, the number of results you get in 1 second is equal to the frame rate of your camera. That is, deleting some results does not cause significant performance degradation.

본 실시 예에서는, 딥러닝 기반 방법이 수학적 접근 방식보다 더 정확하기 때문에, 더 정확한 결과를 제공하기 위해 두 방법을 비교할 수 있다. 이때 본 실시 예에서는, 일부 결과를 삭제해도 심각한 성능 저하가 발생하지 않기 때문에, 수학적 방법과 딥러닝 기반 방법 사이에 결과 불일치가 있으면 일정 수준(임계값)까지는 문제가 없어, 딥러닝 기반 접근의 결과를 결과값으로 출력할 수 있으며, 그 차이가 임계값(예를 들어, 5)보다 크면 해당 계산 결과값을 제거 할 수 있다.In this embodiment, since the deep learning-based method is more accurate than the mathematical approach, the two methods can be compared to provide more accurate results. In this embodiment, since serious performance degradation does not occur even if some results are deleted, if there is a discrepancy in the results between the mathematical method and the deep learning-based method, there is no problem up to a certain level (threshold), the result of the deep learning-based approach can be output as a result value, and if the difference is greater than a threshold value (eg, 5), the corresponding calculation result value can be removed.

이상 설명된 본 발명에 따른 실시 예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다.The above-described embodiment according to the present invention may be implemented in the form of a computer program that can be executed through various components on a computer, and such a computer program may be recorded in a computer-readable medium. In this case, the medium includes a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as CD-ROM and DVD, a magneto-optical medium such as a floppy disk, and a ROM. , RAM, flash memory, and the like, and hardware devices specially configured to store and execute program instructions.

한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be specially designed and configured for the present invention, or may be known and used by those skilled in the computer software field. Examples of the computer program may include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

본 발명의 명세서(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다.In the specification of the present invention (especially in the claims), the use of the term "above" and similar referential terms may be used in both the singular and the plural. In addition, when a range is described in the present invention, each individual value constituting the range is described in the detailed description of the invention as including the invention to which individual values belonging to the range are applied (unless there is a description to the contrary). same as

본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.The steps constituting the method according to the present invention may be performed in an appropriate order unless the order is explicitly stated or there is no description to the contrary. The present invention is not necessarily limited to the order in which the steps are described. The use of all examples or exemplary terms (eg, etc.) in the present invention is merely for the purpose of describing the present invention in detail, and the scope of the present invention is limited by the examples or exemplary terms unless limited by the claims. it is not going to be In addition, those skilled in the art will appreciate that various modifications, combinations, and changes can be made in accordance with design conditions and factors within the scope of the appended claims or their equivalents.

따라서, 본 발명의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments, and the scope of the spirit of the present invention is not limited to the scope of the scope of the present invention. will be said to belong to

100 : 도로 형태 판단 장치
110 : 단일 카메라
111 : 정보수신부
112 : 이미지획득부
120 : 프로세서
130 : 메모리
140 : 사용자 인터페이스
200 : 사용자 단말
300 : 서버
400 : 네트워크
100: road type determination device
110: single camera
111: information receiving unit
112: image acquisition unit
120 : processor
130: memory
140 : user interface
200: user terminal
300 : server
400: network

Claims (20)

광학 카메라 통신(Optical Camera Communication, OCC)을 기반으로 전방 도로의 굽힘 정도를 파악할 수 있는 도로 형태 판단 방법으로서,
차량에 구비된 단안 카메라를 이용하여 전방차량의 복수의 후미등 사이의 실제 간격 정보 및 상기 복수의 후미등의 실제 크기 정보를 수신하는 단계;
상기 단안 카메라를 통해 상기 전방차량의 복수의 후미등 이미지를 획득하여, 상기 획득한 복수의 후미등 이미지에서 상기 전방차량의 복수의 후미등 좌표를 설정하는 단계;
상기 획득한 복수의 후미등 이미지의 크기 비교를 통해 상기 전방 도로의 굽힘 방향을 결정하는 단계; 및
상기 수신한 전방차량의 복수의 후미등 사이의 실제 간격 정보, 상기 복수의 후미등의 실제 크기 정보 및 상기 전방차량의 복수의 후미등 좌표로부터 산출된 이미지 기반 후미등 사이의 간격에 기초하여 기설정된 수학적 알고리즘으로 상기 전방 도로의 도로 굽힘 각도를 산출하는 단계를 포함하되,
상기 기설정된 수학적 알고리즘으로 상기 전방 도로의 도로 굽힘 각도를 산출하는 단계는,
상기 수신한 전방차량의 복수의 후미등 사이의 실제 간격 정보 및 상기 복수의 후미등의 실제 크기 정보에 기초하여 단위 픽셀 당 거리를 계산하는 단계;
상기 단위 픽셀 당 거리를 기반으로 상기 획득한 전방차량의 복수의 후미등 이미지에서 상기 복수의 후미등 사이의 거리를 산출하는 단계;
상기 수신한 전방차량의 복수의 후미등 사이의 실제 간격과 상기 산출한 이미지 기반 복수의 후미등 사이의 거리에 기반하여 가상 삼각형을 생성하는 단계; 및
상기 가상 삼각형을 분석하여 코사인 함수를 이용해 상기 전방 도로의 도로 굽힘 각도를 산출하는 단계를 포함하는,
도로 형태 판단 방법.
As a road type determination method that can determine the degree of bending of the road ahead based on Optical Camera Communication (OCC),
Receiving actual distance information between a plurality of tail lights of a front vehicle and actual size information of the plurality of tail lights by using a monocular camera provided in the vehicle;
acquiring a plurality of tail light images of the front vehicle through the monocular camera, and setting coordinates of a plurality of tail lights of the front vehicle in the obtained plurality of tail light images;
determining a bending direction of the front road through size comparison of the acquired plurality of tail light images; and
Based on the received actual distance information between the plurality of tail lights of the front vehicle, the actual size information of the plurality of tail lights, and the distance between the image-based tail lights calculated from the coordinates of the plurality of tail lights of the front vehicle, a predetermined mathematical algorithm is used. calculating a road bending angle of the road ahead;
Calculating the road bending angle of the front road with the preset mathematical algorithm comprises:
calculating a distance per unit pixel based on the received information on the actual distance between the plurality of tail lights of the vehicle ahead and the actual size information of the plurality of tail lights;
calculating a distance between the plurality of tail lights in the obtained plurality of tail light images of the front vehicle based on the distance per unit pixel;
generating a virtual triangle based on the received actual distance between the plurality of tail lights of the vehicle ahead and the calculated distance between the plurality of image-based tail lights; and
Analyzing the virtual triangle and calculating the road bending angle of the road ahead using a cosine function,
How to determine the shape of a road.
제 1 항에 있어서,
상기 수신한 전방차량의 복수의 후미등 사이의 실제 간격 정보, 상기 복수의 후미등의 실제 크기 정보 및 상기 전방차량의 복수의 후미등 좌표로부터 산출된 이미지 기반 후미등 사이의 간격에 기초하여 기 학습된 인공신경망을 통해 상기 전방 도로의 도로 굽힘 각도를 예측하는 단계; 및
상기 기설정된 수학적 알고리즘으로 산출한 상기 전방 도로의 도로 굽힘 각도와 상기 인공신경망을 통해 예측한 상기 전방 도로의 도로 굽힘 각도를 비교한 결과에 기반하여 상기 전방 도로의 최종 도로 굽힘 각도를 도출하는 단계를 더 포함하는,
도로 형태 판단 방법.
The method of claim 1,
Based on the received actual distance information between the plurality of tail lights of the vehicle in front, the actual size information of the plurality of tail lights, and the distance between the image-based tail lights calculated from the coordinates of the plurality of tail lights of the front vehicle, a pre-learned artificial neural network predicting a road bending angle of the road ahead; and
Deriving the final road bending angle of the front road based on the result of comparing the road bending angle of the front road calculated by the preset mathematical algorithm with the road bending angle of the front road predicted through the artificial neural network more containing,
How to determine the type of road.
제 1 항에 있어서,
상기 가상 삼각형을 생성하는 단계는,
상기 단안 카메라를 통해 획득한 상기 전방차량의 복수의 후미등 이미지에 투영된 복수의 후미등 좌표에 기초하여 가상 삼각형 중 하나의 직선을 설정하는 단계;
상기 직선을 기준으로 하여, 상기 단안 카메라를 이용하여 수신한 상기 전방차량의 복수의 후미등 사이의 실제 간격 정보에 기초하여 상기 가상 삼각형 중 다른 하나의 직선을 설정하는 단계;
상기 전방차량의 복수의 후미등 이미지에 투영된 복수의 후미등 크기에 기초하여, 상기 복수의 후미등의 좌측 후미등 영역과 우측 후미등 영역의 크기를 비교하는 단계; 및
비교 결과, 상기 복수의 후미등 중 크기가 작은 후미등 영역 측의 각이 직각이고, 상기 복수의 후미등 중 크기가 큰 후미등 영역 측의 각이 상기 두 직선의 사잇각인 가상 삼각형을 생성하는 단계를 포함하는,
도로 형태 판단 방법.
The method of claim 1,
Creating the virtual triangle comprises:
setting one straight line among the virtual triangles based on a plurality of tail light coordinates projected on a plurality of tail light images of the front vehicle acquired through the monocular camera;
setting another straight line among the virtual triangles based on the actual distance information between the plurality of tail lights of the front vehicle received using the monocular camera, based on the straight line;
comparing sizes of left tail light areas and right tail light areas of the plurality of tail lights based on the sizes of the plurality of tail lights projected on the plurality of tail light images of the front vehicle; and
As a result of the comparison, generating an imaginary triangle in which the angle on the side of the tail light area with the small size among the plurality of tail lights is a right angle, and the angle on the side of the tail light area with the large size among the plurality of tail lights is the angle between the two straight lines.
How to determine the type of road.
제 2 항에 있어서,
상기 기 학습된 인공신경망을 통해 상기 전방 도로의 도로 굽힘 각도를 예측하는 단계는,
상기 단안 카메라에서 수집되는 복수의 후미등의 이미지를 입력으로 하여 상기 전방 도로의 도로 굽힘 각도를 출력하도록 훈련된 머신 러닝 기반의 학습 모델에 기반하여 상기 전방차량의 복수의 후미등 이미지에서 상기 전방 도로의 도로 굽힘 각도를 예측하는 단계를 포함하는,
도로 형태 판단 방법.
3. The method of claim 2,
Predicting the road bending angle of the front road through the pre-learned artificial neural network comprises:
Based on a machine learning-based learning model trained to output the road bending angle of the front road by inputting images of a plurality of tail lights collected from the monocular camera, the road of the front road in the plurality of tail light images of the front vehicle predicting the bending angle;
How to determine the type of road.
제 4 항에 있어서,
상기 기 학습된 인공신경망은,
상기 단안 카메라에서 수집된 복수의 후미등 이미지에서 좌측 후미등 좌표, 우측 후미등 좌표, 상기 좌측 후미등과 우측 후미등의 수평 좌표 차이, 및 상기 좌측 후미등과 우측 후미등의 수직 좌표 차이가 상기 기 학습된 인공신경망의 입력 벡터로 설정되는 단계; 및
상기 입력 벡터에 의해 상기 머신 러닝 기반의 학습 모델에서 추론된 출력 벡터인 전방 도로의 도로 굽힘 각도가 레이블로 설정되는 단계를 포함하는 훈련 페이즈(phase)에 의해 훈련된,
도로 형태 판단 방법.
5. The method of claim 4,
The pre-learned artificial neural network,
In the plurality of tail light images collected from the monocular camera, the left tail light coordinates, the right tail light coordinates, the horizontal coordinate difference between the left tail light and the right tail light, and the vertical coordinate difference between the left tail light and the right tail light are the input of the previously learned artificial neural network. set to a vector; and
Trained by a training phase comprising the step of setting the road bending angle of the road ahead, which is an output vector inferred from the machine learning-based learning model by the input vector, as a label,
How to determine the type of road.
제 4 항에 있어서,
상기 기 학습된 인공신경망은,
상기 단안 카메라에서 수집된 복수의 후미등 이미지에서 원하지 않는 픽셀을 제외하는 단계;
상기 전방 도로의 도로 굽힘 각도가 다른 차량의 복수의 후미등 이미지가 적어도 두 개 이상의 히든 레이어에 의해 추론되도록 하는 단계; 및
업데이트 된 가중치를 이용하여 상기 전방 도로의 도로 굽힘 각도가 예측되도록 하는 단계를 포함하는 훈련 페이즈에 의해 훈련된,
도로 형태 판단 방법.
5. The method of claim 4,
The pre-learned artificial neural network,
excluding unwanted pixels from a plurality of tail light images collected by the monocular camera;
allowing a plurality of tail light images of vehicles having different road bending angles of the front road to be inferred by at least two or more hidden layers; and
trained by a training phase comprising the step of allowing the road bending angle of the road ahead to be predicted using the updated weights,
How to determine the type of road.
제 2 항에 있어서,
상기 전방 도로의 최종 도로 굽힘 각도를 도출하는 단계는,
상기 수학적 알고리즘으로 산출한 상기 전방 도로의 도로 굽힘 각도와 상기 인공신경망을 통해 예측한 상기 전방 도로의 도로 굽힘 각도의 차이값과 임계값을 비교하는 단계를 포함하고,
상기 차이값과 임계값을 비교하는 단계는,
상기 차이값이 임계값 이하이면, 상기 인공신경망을 통해 예측한 상기 전방 도로의 도로 굽힘 각도를 상기 전방 도로의 최종 도로 굽힘 각도로 도출하고, 상기 차이값이 임계값을 초과하면, 상기 수학적 알고리즘으로 산출한 상기 전방 도로의 도로 굽힘 각도와 상기 인공신경망을 통해 예측한 도로 굽힘 각도 데이터를 삭제하는 단계를 포함하는,
도로 형태 판단 방법.
3. The method of claim 2,
The step of deriving the final road bending angle of the front road is,
Comprising the step of comparing the difference between the road bending angle of the road ahead calculated by the mathematical algorithm and the road bending angle of the front road predicted through the artificial neural network and a threshold value,
Comparing the difference value and the threshold value,
If the difference value is less than or equal to the threshold value, the road bending angle of the forward road predicted through the artificial neural network is derived as the final road bending angle of the forward road, and when the difference value exceeds the threshold value, the mathematical algorithm Comprising the step of deleting the calculated road bending angle of the road ahead and the road bending angle data predicted through the artificial neural network,
How to determine the type of road.
제 2 항에 있어서,
상기 수신한 복수의 후미등의 실제 크기 정보와 상기 획득한 복수의 후미등 이미지에 의해 검출된 복수의 후미등 크기에 기초하여, 상기 복수의 후미등의 좌측 후미등과 우측 후미등의 크기를 비교하는 단계를 더 포함하며,
상기 좌측 후미등과 우측 후미등의 크기가 다른 경우에, 상기 수학적 알고리즘 및 상기 인공신경망을 통해 상기 전방 도로의 도로 굽힘 각도를 산출하는,
도로 형태 판단 방법.
3. The method of claim 2,
Comparing the sizes of the left and right tail lights of the plurality of tail lights based on the received actual size information of the plurality of tail lights and the sizes of the plurality of tail lights detected by the obtained plurality of tail light images. ,
When the size of the left tail light and the right tail light are different, calculating the road bending angle of the front road through the mathematical algorithm and the artificial neural network,
How to determine the type of road.
제 1 항에 있어서,
상기 단안 카메라를 이용하여 상기 전방차량의 복수의 후미등으로부터 상기 전방차량의 식별 정보 및 상기 전방차량의 상태 정보 중 적어도 하나 이상을 수신하는 단계를 더 포함하는,
도로 형태 판단 방법.
The method of claim 1,
Receiving at least one of identification information of the front vehicle and status information of the front vehicle from a plurality of tail lights of the front vehicle by using the monocular camera,
How to determine the type of road.
제 1 항에 있어서,
상기 단안 카메라를 이용하여 상기 전방차량의 복수의 후미등으로부터 상기 전방차량의 식별 정보 및 상기 전방차량의 상태 정보와, 상기 전방차량의 복수의 후미등 사이의 실제 간격 정보 및 상기 복수의 후미등의 실제 크기 정보를 동시에 수신하는 단계를 더 포함하는,
도로 형태 판단 방법.
The method of claim 1,
Identification information of the front vehicle and state information of the front vehicle from the plurality of tail lights of the front vehicle using the monocular camera, actual distance information between the plurality of tail lights of the front vehicle, and actual size information of the plurality of tail lights Further comprising the step of receiving at the same time,
How to determine the type of road.
제 1 항에 있어서,
상기 정보를 수신하는 단계는,
상기 단안 카메라를 통해 롤링 셔터 방식으로 상기 전방차량의 복수의 후미등으로부터 데이터를 수신하는 단계를 포함하는,
도로 형태 판단 방법.
The method of claim 1,
Receiving the information comprises:
Receiving data from a plurality of tail lights of the front vehicle in a rolling shutter manner through the monocular camera,
How to determine the type of road.
제 2 항에 있어서,
상기 도출한 상기 전방 도로의 최종 도로 굽힘 각도가 설정 각도 이상인지 확인하는 단계; 및
상기 전방 도로의 최종 도로 굽힘 각도가 설정 각도 이상이면, 경고 메시지를 출력하는 단계를 더 포함하는,
도로 형태 판단 방법.
3. The method of claim 2,
checking whether the derived final road bending angle of the front road is equal to or greater than a set angle; and
If the final road bending angle of the front road is greater than or equal to a set angle, further comprising the step of outputting a warning message,
How to determine the type of road.
광학 카메라 통신(Optical Camera Communication, OCC)을 기반으로 전방 도로의 굽힘 정도를 파악할 수 있는 도로 형태 판단 장치로서,
메모리; 및
상기 메모리와 연결되고, 상기 메모리에 포함된 컴퓨터 판독 가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고,
상기 적어도 하나의 프로세서는,
차량에 구비된 단안 카메라를 이용하여 전방차량의 복수의 후미등 사이의 실제 간격 정보 및 상기 복수의 후미등의 실제 크기 정보를 수신하는 동작;
상기 단안 카메라를 통해 상기 전방차량의 복수의 후미등 이미지를 획득하여, 상기 획득한 복수의 후미등 이미지에서 상기 전방차량의 복수의 후미등 좌표를 설정하는 동작;
상기 획득한 복수의 후미등 이미지의 크기 비교를 통해 전방 도로의 굽힘 방향을 결정하는 동작; 및
상기 수신한 전방차량의 복수의 후미등 사이의 실제 간격 정보, 상기 복수의 후미등의 실제 크기 정보 및 상기 전방차량의 복수의 후미등 좌표로부터 산출된 이미지 기반 후미등 사이의 간격에 기초하여 기설정된 수학적 알고리즘으로 전방 도로의 도로 굽힘 각도를 산출하는 동작을 수행하도록 구성되며,
상기 기설정된 수학적 알고리즘으로 전방 도로의 도로 굽힘 각도를 산출하는 동작은,
상기 수신한 전방차량의 복수의 후미등 사이의 실제 간격 정보 및 상기 복수의 후미등의 실제 크기 정보에 기초하여 단위 픽셀 당 거리를 계산하는 동작;
상기 단위 픽셀 당 거리를 기반으로 상기 획득한 전방차량의 복수의 후미등 이미지에서 상기 복수의 후미등 사이의 거리를 산출하는 동작;
상기 수신한 전방차량의 복수의 후미등 사이의 실제 간격과 상기 산출한 이미지 기반 복수의 후미등 사이의 거리에 기반하여 가상 삼각형을 생성하는 동작; 및
상기 가상 삼각형을 분석하여 코사인 함수를 이용해 상기 전방 도로의 도로 굽힘 각도를 산출하는 동작을 포함하는,
도로 형태 판단 장치.
As a road type determination device that can determine the degree of bending of the road ahead based on Optical Camera Communication (OCC),
Memory; and
at least one processor coupled to the memory and configured to execute computer readable instructions contained in the memory;
the at least one processor,
receiving information on actual distances between a plurality of tail lights of a front vehicle and information on actual sizes of the plurality of tail lights by using a monocular camera provided in the vehicle;
obtaining a plurality of tail light images of the front vehicle through the monocular camera, and setting coordinates of a plurality of tail light lights of the front vehicle in the obtained plurality of tail light images;
determining a bending direction of the road ahead through size comparison of the plurality of acquired tail light images; and
Based on the received actual distance information between the plurality of tail lights of the vehicle in front, the actual size information of the plurality of tail lights, and the distance between the image-based tail lights calculated from the coordinates of the plurality of tail lights of the vehicle in front, a preset mathematical algorithm is used. configured to perform an operation of calculating a road bending angle of the road;
The operation of calculating the road bending angle of the road ahead by the predetermined mathematical algorithm is,
calculating a distance per unit pixel based on the received information on the actual distance between the plurality of tail lights of the vehicle ahead and the actual size information of the plurality of tail lights;
calculating a distance between the plurality of tail lights in the obtained plurality of tail light images of the front vehicle based on the distance per unit pixel;
generating a virtual triangle based on the received actual distance between the plurality of tail lights of the vehicle in front and the calculated distance between the plurality of image-based tail lights; and
Analyzing the virtual triangle and calculating the road bending angle of the road ahead using a cosine function,
road type judgment device.
제 13 항에 있어서,
상기 적어도 하나의 프로세서는,
상기 수신한 전방차량의 복수의 후미등 사이의 실제 간격 정보, 상기 복수의 후미등의 실제 크기 정보 및 상기 전방차량의 복수의 후미등 좌표로부터 산출된 이미지 기반 후미등 사이의 간격에 기초하여 기 학습된 인공신경망을 통해 상기 전방 도로의 도로 굽힘 각도를 예측하는 동작; 및
상기 기설정된 수학적 알고리즘으로 산출한 상기 전방 도로의 도로 굽힘 각도와 상기 인공신경망을 통해 예측한 상기 전방 도로의 도로 굽힘 각도를 비교한 결과에 기반하여 상기 전방 도로의 최종 도로 굽힘 각도를 도출하는 동작을 더 수행하도록 구성되는,
도로 형태 판단 장치.
14. The method of claim 13,
the at least one processor,
Based on the received actual distance information between the plurality of tail lights of the vehicle in front, the actual size information of the plurality of tail lights, and the distance between the image-based tail lights calculated from the coordinates of the plurality of tail lights of the front vehicle, a pre-learned artificial neural network predicting a road bending angle of the road ahead through and
The operation of deriving the final road bending angle of the front road based on the result of comparing the road bending angle of the front road calculated by the preset mathematical algorithm with the road bending angle of the front road predicted through the artificial neural network further configured to perform
road type judgment device.
제 13 항에 있어서,
상기 가상 삼각형을 생성하는 동작은,
상기 단안 카메라를 통해 획득한 상기 전방차량의 복수의 후미등 이미지에 투영된 복수의 후미등 좌표에 기초하여 가상 삼각형 중 하나의 직선을 설정하는 동작,
상기 직선을 기준으로 하여, 상기 단안 카메라를 이용하여 수신한 상기 전방차량의 복수의 후미등 사이의 실제 간격 정보에 기초하여 상기 가상 삼각형 중 다른 하나의 직선을 설정하는 동작,
상기 전방차량의 복수의 후미등 이미지에 투영된 복수의 후미등 크기에 기초하여, 상기 복수의 후미등의 좌측 후미등 영역과 우측 후미등 영역의 크기를 비교하는 동작, 및
비교 결과, 상기 복수의 후미등 중 크기가 작은 후미등 영역 측의 각이 직각이고, 상기 복수의 후미등 중 크기가 큰 후미등 영역 측의 각이 상기 두 직선의 사잇각인 가상 삼각형을 생성하는 동작을 포함하는,
도로 형태 판단 장치.
14. The method of claim 13,
The operation of generating the virtual triangle includes:
setting one straight line among the virtual triangles based on a plurality of tail light coordinates projected on a plurality of tail light images of the front vehicle obtained through the monocular camera;
setting the other straight line among the virtual triangles based on the actual distance information between the plurality of tail lights of the front vehicle received using the monocular camera based on the straight line;
Comparing sizes of a left tail light area and a right tail light area of the plurality of tail lights based on the sizes of the plurality of tail lights projected on the plurality of tail light images of the front vehicle; and
As a result of the comparison, an angle on the side of the tail light area with the small size among the plurality of tail lights is a right angle, and the angle on the side of the tail light area with the large size among the plurality of tail lights is the angle between the two straight lines.
road type judgment device.
제 14 항에 있어서,
상기 기 학습된 인공신경망을 통해 상기 전방 도로의 도로 굽힘 각도를 예측하는 동작은,
상기 단안 카메라에서 수집되는 복수의 후미등의 이미지를 입력으로 하여 상기 전방 도로의 도로 굽힘 각도를 출력하도록 훈련된 머신 러닝 기반의 학습 모델에 기반하여 상기 전방차량의 복수의 후미등 이미지에서 상기 전방 도로의 도로 굽힘 각도를 예측하는 동작을 포함하는,
도로 형태 판단 장치.
15. The method of claim 14,
The operation of predicting the road bending angle of the front road through the pre-learned artificial neural network is,
Based on a machine learning-based learning model trained to output the road bending angle of the front road by inputting images of a plurality of tail lights collected from the monocular camera, the road of the front road in the plurality of tail light images of the front vehicle Including the operation of predicting the bending angle,
road type judgment device.
제 16 항에 있어서,
상기 기 학습된 인공신경망은,
상기 단안 카메라에서 수집된 복수의 후미등 이미지에서 좌측 후미등 좌표, 우측 후미등 좌표, 상기 좌측 후미등과 우측 후미등의 수평 좌표 차이, 및 상기 좌측 후미등과 우측 후미등의 수직 좌표 차이가 상기 기 학습된 인공신경망의 입력 벡터로 설정되는 단계; 및
상기 입력 벡터에 의해 상기 머신 러닝 기반의 학습 모델에서 추론된 출력 벡터인 전방 도로의 도로 굽힘 각도가 레이블로 설정되는 단계를 포함하는 훈련 페이즈(phase)에 의해 훈련된,
도로 형태 판단 장치.
17. The method of claim 16,
The pre-learned artificial neural network,
In the plurality of tail light images collected from the monocular camera, the left tail light coordinates, the right tail light coordinates, the horizontal coordinate difference between the left tail light and the right tail light, and the vertical coordinate difference between the left tail light and the right tail light are the input of the previously learned artificial neural network. set to a vector; and
Trained by a training phase comprising the step of setting the road bending angle of the road ahead, which is an output vector inferred from the machine learning-based learning model by the input vector, as a label,
road type judgment device.
제 16 항에 있어서,
상기 기 학습된 인공신경망은,
상기 단안 카메라에서 수집된 복수의 후미등 이미지에서 원하지 않는 픽셀을 제외하는 단계;
상기 전방 도로의 도로 굽힘 각도가 다른 차량의 복수의 후미등 이미지가 적어도 두 개 이상의 히든 레이어에 의해 추론되도록 하는 단계; 및
업데이트 된 가중치를 이용하여 상기 전방 도로의 도로 굽힘 각도가 예측되도록 하는 단계를 포함하는 훈련 페이즈에 의해 훈련된,
도로 형태 판단 장치.
17. The method of claim 16,
The pre-learned artificial neural network,
excluding unwanted pixels from a plurality of tail light images collected by the monocular camera;
allowing a plurality of tail light images of vehicles having different road bending angles of the front road to be inferred by at least two or more hidden layers; and
trained by a training phase comprising the step of allowing the road bending angle of the road ahead to be predicted using the updated weights,
road type judgment device.
제 14 항에 있어서,
상기 전방 도로의 최종 도로 굽힘 각도를 도출하는 동작은,
상기 수학적 알고리즘으로 산출한 상기 전방 도로의 도로 굽힘 각도와 상기 인공신경망을 통해 예측한 상기 전방 도로의 도로 굽힘 각도의 차이값과 임계값을 비교하는 동작을 포함하고,
상기 차이값과 임계값을 비교하는 동작은,
상기 차이값이 임계값 이하이면, 상기 인공신경망을 통해 예측한 상기 전방 도로의 도로 굽힘 각도를 상기 전방 도로의 최종 도로 굽힘 각도로 도출하고, 상기 차이값이 임계값을 초과하면, 상기 수학적 알고리즘으로 산출한 상기 전방 도로의 도로 굽힘 각도와 상기 인공신경망을 통해 예측한 상기 전방 도로의 도로 굽힘 각도 데이터를 삭제하는 동작을 포함하는,
도로 형태 판단 장치.
15. The method of claim 14,
The operation of deriving the final road bending angle of the front road is,
Comprising the operation of comparing the difference between the road bending angle of the front road calculated by the mathematical algorithm and the road bending angle of the front road predicted through the artificial neural network and a threshold value,
The operation of comparing the difference value and the threshold value is,
If the difference value is less than or equal to the threshold value, the road bending angle of the forward road predicted through the artificial neural network is derived as the final road bending angle of the forward road, and when the difference value exceeds the threshold value, the mathematical algorithm Comprising the operation of deleting the calculated road bending angle of the front road and the road bending angle data of the front road predicted through the artificial neural network,
road type judgment device.
제 14 항에 있어서,
상기 수신한 복수의 후미등의 실제 크기 정보와 상기 획득한 복수의 후미등 이미지에 의해 검출된 복수의 후미등 크기에 기초하여, 상기 복수의 후미등의 좌측 후미등과 우측 후미등의 크기를 비교하는 동작을 더 수행하도록 구성되며,
상기 좌측 후미등과 우측 후미등의 크기가 다른 경우에, 상기 수학적 알고리즘 및 상기 인공신경망을 통해 상기 전방 도로의 도로 굽힘 각도를 산출하는,
도로 형태 판단 장치.
15. The method of claim 14,
Based on the received actual size information of the plurality of tail lights and the sizes of the plurality of tail lights detected by the obtained plurality of tail light images, the operation of comparing the sizes of the left tail lights and the right tail lights of the plurality of tail lights is further performed. is composed,
When the size of the left tail light and the right tail light are different, calculating the road bending angle of the front road through the mathematical algorithm and the artificial neural network,
road type judgment device.
KR1020210024195A 2021-02-23 2021-02-23 Method and apparatus for determining road shape based on optical camera communication KR102347767B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210024195A KR102347767B1 (en) 2021-02-23 2021-02-23 Method and apparatus for determining road shape based on optical camera communication

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210024195A KR102347767B1 (en) 2021-02-23 2021-02-23 Method and apparatus for determining road shape based on optical camera communication

Publications (1)

Publication Number Publication Date
KR102347767B1 true KR102347767B1 (en) 2022-01-05

Family

ID=79348715

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210024195A KR102347767B1 (en) 2021-02-23 2021-02-23 Method and apparatus for determining road shape based on optical camera communication

Country Status (1)

Country Link
KR (1) KR102347767B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160136895A (en) * 2015-05-21 2016-11-30 국민대학교산학협력단 Vehicle positioning method using OCC
KR20180010363A (en) * 2016-07-20 2018-01-31 경희대학교 산학협력단 Method and device for monitoring forward vehicle
KR101971370B1 (en) * 2017-12-18 2019-08-13 국민대학교산학협력단 Method and apparatus for estimating location of vehicle using optical camera communication

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160136895A (en) * 2015-05-21 2016-11-30 국민대학교산학협력단 Vehicle positioning method using OCC
KR101689252B1 (en) 2015-05-21 2016-12-23 국민대학교산학협력단 Vehicle positioning method using OCC
KR20180010363A (en) * 2016-07-20 2018-01-31 경희대학교 산학협력단 Method and device for monitoring forward vehicle
KR101971370B1 (en) * 2017-12-18 2019-08-13 국민대학교산학협력단 Method and apparatus for estimating location of vehicle using optical camera communication

Similar Documents

Publication Publication Date Title
KR102345777B1 (en) Method and apparatus for determining location of a vehicle based on optical camera communication
US11455793B2 (en) Robust object detection and classification using static-based cameras and events-based cameras
JP7460044B2 (en) Autonomous vehicle, and apparatus, program, and computer-readable medium relating to an autonomous vehicle system
CN111507210B (en) Traffic signal lamp identification method, system, computing equipment and intelligent vehicle
Hossan et al. A new vehicle localization scheme based on combined optical camera communication and photogrammetry
US10078961B2 (en) Method and device for operating a traffic-infrastructure unit including a signal source
US9159137B2 (en) Probabilistic neural network based moving object detection method and an apparatus using the same
JP7009987B2 (en) Automatic driving system and automatic driving method
US11117570B1 (en) Parking assistance using a stereo camera and an added light source
US11436839B2 (en) Systems and methods of detecting moving obstacles
KR102092496B1 (en) S2-PSK optical wireless communication method and apparatus
Pham et al. Deep learning for optical vehicular communication
KR102347767B1 (en) Method and apparatus for determining road shape based on optical camera communication
CN105719488A (en) License plate recognition method and apparatus, and camera and system for license plate recognition
JP2012054689A (en) Visible light data processing device, visible light communication system, visible light data processing method, and program thereof
KR102343334B1 (en) Method and apparatus for detecting a transmitting light source on optical camera communication
CN107222260B (en) Visible light communication coding and code expanding method based on variable data area length
CN111277956A (en) Method and device for collecting vehicle blind area information
CN111422128B (en) Server, in-vehicle apparatus, vehicle, storage medium, and information providing method
JP2020129369A (en) System and method for image processing using mobile device
US11665322B2 (en) Monitoring camera, camera parameter determining method and storage medium
KR102294165B1 (en) Device for optical communication and communication method using the same
CN109004981B (en) Visual visible light communication detection method based on fuzzy effect
KR102327440B1 (en) Method and apparatus for receiving hybrid waveform signal based on bi-level pulse position modulation
KR102268095B1 (en) Method and apparatus for acquiring and demodulating in communication system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant