KR20220102294A - Transmitter recognition apparatus and method for optical camera communication between vehicle and infrastructure - Google Patents

Transmitter recognition apparatus and method for optical camera communication between vehicle and infrastructure Download PDF

Info

Publication number
KR20220102294A
KR20220102294A KR1020210004481A KR20210004481A KR20220102294A KR 20220102294 A KR20220102294 A KR 20220102294A KR 1020210004481 A KR1020210004481 A KR 1020210004481A KR 20210004481 A KR20210004481 A KR 20210004481A KR 20220102294 A KR20220102294 A KR 20220102294A
Authority
KR
South Korea
Prior art keywords
transmitter
infrastructure
data
bounding box
optical camera
Prior art date
Application number
KR1020210004481A
Other languages
Korean (ko)
Inventor
김병욱
Original Assignee
창원대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 창원대학교 산학협력단 filed Critical 창원대학교 산학협력단
Priority to KR1020210004481A priority Critical patent/KR20220102294A/en
Publication of KR20220102294A publication Critical patent/KR20220102294A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/11Arrangements specific to free-space transmission, i.e. transmission through air or vacuum
    • H04B10/114Indoor or close-range type systems
    • H04B10/116Visible light communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Electromagnetism (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a device and method for recognizing a transmitter of an optical camera communication between a vehicle and an infrastructure. A method for recognizing a transmitter includes the steps of: receiving image data for a transmitter on a road infrastructure; configuring a data set by matching a bounding box for the transmitter on the road infrastructure and classification information for the transmitter, setting a bounding box only for a light source in the transmitter; learning an YOLO model using the data set; and recognizing a bounding box output by processing image data for road infrastructure input to the learned YOLO model as the transmitter of optical camera communication. Therefore, in vehicle-infrastructure optical camera communication, it is possible to accurately detect the transmitter on the infrastructure in real time.

Description

차량-인프라 간 광카메라 통신의 송신부 인식 장치 및 방법{TRANSMITTER RECOGNITION APPARATUS AND METHOD FOR OPTICAL CAMERA COMMUNICATION BETWEEN VEHICLE AND INFRASTRUCTURE}Transmitter recognition device and method for vehicle-infrastructure optical camera communication

본 명세서는 차량-인프라(V2I) 간 광카메라 통신(OCC; Optical Camera Communication)에서 송신부를 인식하는 장치 및 방법에 관한 것이다.The present specification relates to an apparatus and method for recognizing a transmitter in vehicle-infrastructure (V2I) optical camera communication (OCC).

최근 판매되는 자동차는 카메라, 라이다, 레이더 등의 센서를 이용하여 주변 상황을 인지하여 운전자의 안전운전을 보조하고 있지만, 차량에 장착된 센서만으로 차량의 주변 환경에 대한 확인이 어려운 상황들이 발생하고 있다. 이러한 상황에서도 차량의 안전운전을 보조하기 위하여 차량과 도로 인프라 간의 무선통신(V2I 통신)을 통해 교통 상황에 대한 정보를 교환하고, 이를 통해 차량의 센서만으로 판단하기 어려운 차량 주변 환경에 대한 정보를 수집하는 기술이 연구되고 있다. 특히, 차량-인프라(V2I) 간 통신은 자동차의 자율주행 기술의 핵심 요소 기술로서 연구되고 있으며, 차량-인프라(V2I) 간 통신 수단으로는 광카메라 통신(Optical Camera Communication; OCC) 기술을 사용하는 방법이 연구되고 있다.Although recently sold cars use sensors such as cameras, lidar, and radar to recognize the surrounding environment and assist the driver in driving safely, there are situations in which it is difficult to check the surrounding environment of the vehicle only with the sensors installed in the vehicle. have. Even in such a situation, information about the traffic situation is exchanged through wireless communication (V2I communication) between the vehicle and road infrastructure in order to assist the safe driving of the vehicle, and through this, information about the vehicle's surrounding environment, which is difficult to determine only with the vehicle's sensor, is collected. technology is being researched. In particular, vehicle-infrastructure (V2I) communication is being studied as a key element technology of autonomous driving technology of automobiles, and optical camera communication (OCC) technology is used as a vehicle-infrastructure (V2I) communication means. method is being studied.

한국등록특허공보 제10-1971370호, 2019.04.16.Korean Patent Publication No. 10-1971370, 2019.04.16.

광카메라 통신에서는 LED 조명이 송신기로 사용되고, 카메라가 수신기로 사용되며, LED 조명이 방출하는 가시광이 통신매체로 사용되는데, 수신기인 카메라로는 자동차의 영상기록장치(블랙박스)나 별도로 장착된 카메라가 사용되고, 송신기인 LED 조명으로는 다양한 도로 인프라 중에서 교통신호등, 가로등, 교통안내전광판 및 광고판 등이 사용될 수 있다.In optical camera communication, LED lighting is used as a transmitter, a camera is used as a receiver, and the visible light emitted by LED lighting is used as a communication medium. is used, and as the transmitter LED lighting, traffic lights, street lights, traffic information billboards, and advertisement boards among various road infrastructures may be used.

그러나, 차량에서 촬영한 송신부에 대한 차분 영상을 활용하여 송신부를 검출하게 되면 차량의 이동에 따른 LED 송신부의 급격한 위치변화로 인해 데이터 추출을 위한 관심영역의 설정 및 추적이 불안정해지기 때문에 데이터 수신율이 감소하게 되는 문제점이 있다.However, if the transmitter is detected by using the differential image of the transmitter captured by the vehicle, the data reception rate is reduced because the setting and tracking of the region of interest for data extraction becomes unstable due to a sudden change in the position of the LED transmitter according to the movement of the vehicle. There is a problem of reduction.

따라서, 차량-인프라(V2I) 간 통신에서 효율적인 광카메라 통신을 위해서는 송신부인 도로인프라들 상의 LED 조명을 고속으로 정확하게 추적하고 추출하는 기술에 대한 필요가 증가하고 있다.Therefore, for efficient optical camera communication in vehicle-infrastructure (V2I) communication, there is an increasing need for a technology for accurately tracking and extracting LED lights on road infrastructures, which are transmitters, at high speed.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 명세서는 차량-인프라 간 광카메라 통신의 송신부 인식 장치에 의해 수행되는 송신부 인식 방법을 제시한다. 상기 송신부 인식 방법은 도로 인프라 상의 송신부에 대한 영상 데이터를 수신하는 단계, 상기 도로 인프라 상의 송신부에 대한 바운딩 박스(bounding box) 및 상기 송신부에 대한 분류 정보를 매칭하여 데이터 셋을 구성하되, 상기 송신부에서 광원 부분에 대해서만 바운딩 박스를 설정하는 단계, 상기 데이터 셋을 이용하여 YOLO 모델을 학습시키는 단계, 및 상기 학습된 YOLO 모델로 입력되는 도로 인프라에 대한 영상 데이터를 처리하여 출력되는 바운딩 박스를 광카메라 통신의 송신부로서 인식하는 단계를 포함할 수 있다.The present specification proposes a transmission unit recognition method performed by a transmission unit recognition device for vehicle-to-infrastructure optical camera communication. The transmitter recognition method includes receiving image data for a transmitter on a road infrastructure, matching a bounding box for a transmitter on the road infrastructure and classification information for the transmitter to configure a data set, but in the transmitter Setting the bounding box only for the light source part, learning the YOLO model using the data set, and processing the image data for the road infrastructure input to the learned YOLO model and outputting the bounding box to the optical camera communication It may include the step of recognizing as a transmitter of

상기 송신부 인식 방법 및 그 밖의 실시예는 다음과 같은 특징을 포함할 수 있다.The transmitter recognition method and other embodiments may include the following features.

실시 예에 따라, 상기 도로 인프라 상의 송신부에 대한 바운딩 박스(bounding box) 및 상기 송신부에 대한 분류 정보를 매칭하여 데이터 셋을 구성하되, 상기 송신부에서 광원 부분에 대해서만 바운딩 박스를 설정하는 단계는, 상기 영상 데이터에서 송신부를 라벨링하여 송신부 검출에 대한 가중치를 업데이트 하는 단계를 포함할 수 있다.According to an embodiment, a data set is configured by matching a bounding box for a transmitter on the road infrastructure and classification information for the transmitter, but setting a bounding box only for a light source portion in the transmitter includes: It may include labeling the transmitter in the image data to update a weight for detecting the transmitter.

또한, 실시 예에 따라, 상기 도로 인프라 상의 송신부에 대한 바운딩 박스(bounding box) 및 상기 송신부에 대한 분류 정보를 매칭하여 데이터 셋을 구성하되, 상기 송신부에서 광원 부분에 대해서만 바운딩 박스를 설정하는 단계는, 상기 송신부에 대한 전체 이미지에서 LED 광원 부분만을 포함하는 영역을 바운딩 박스로 설정하는 단계를 포함할 수 있다.In addition, according to an embodiment, a data set is configured by matching a bounding box for a transmitter on the road infrastructure and classification information for the transmitter, but setting a bounding box for only the light source part in the transmitter includes: , setting an area including only the LED light source part in the entire image for the transmitter as a bounding box.

또한, 실시 예에 따라, 상기 송신부 인식 방법은 상기 바운딩 박스 내의 광원으로부터 광카메라 통신 신호를 추출하는 단계를 더 포함할 수 있다.Also, according to an embodiment, the method for recognizing the transmitter may further include extracting an optical camera communication signal from a light source in the bounding box.

한편, 본 명세서는 차량-인프라 간 광카메라 통신의 송신부 인식 장치를 제시한다. 상기 송신부 인식 장치는 도로 인프라 상의 송신부에 대한 영상 데이터를 수신하는 데이터 수신부, 상기 도로 인프라 상의 송신부에 대한 바운딩 박스(bounding box) 및 상기 송신부에 대한 분류 정보를 매칭하여 데이터 셋을 구성하되, 상기 송신부에서 광원 부분에 대해서만 바운딩 박스를 설정하는 학습 데이터 생성부, 상기 데이터 셋을 이용하여 YOLO 모델을 학습시키는 모델 학습부, 및 상기 도로 인프라 상의 송신부에 대한 영상 데이터를 상기 학습된 YOLO 모델에서 처리하여 출력되는 바운딩 박스를 광카메라 통신의 송신부로서 인식하는 송신부 인식부를 포함할 수 있다.On the other hand, the present specification presents an apparatus for recognizing a transmission unit of an optical camera communication between a vehicle and an infrastructure. The transmitter recognition apparatus configures a data set by matching a data receiver for receiving image data for a transmitter on the road infrastructure, a bounding box for the transmitter on the road infrastructure, and classification information for the transmitter, the transmitter A training data generation unit that sets a bounding box only for the light source in the It may include a transmitter recognition unit for recognizing the bounding box to be as a transmitter of optical camera communication.

상기 송신부 인식 장치 및 그 밖의 실시예는 다음과 같은 특징을 포함할 수 있다.The transmitter recognition apparatus and other embodiments may include the following features.

실시 예에 따라, 상기 학습 데이터 생성부는 상기 영상 데이터에서 송신부를 라벨링하여 송신부 검출에 대한 가중치를 업데이트 할 수 있다.According to an embodiment, the training data generator may update the weight for detecting the transmitter by labeling the transmitter in the image data.

또한, 실시 예에 따라, 상기 학습 데이터 생성부는 상기 송신부에 대한 전체 이미지에서 LED 광원 부분만을 포함하는 영역을 바운딩 박스로 설정할 수 있다.In addition, according to an embodiment, the learning data generator may set a region including only the LED light source part in the entire image of the transmitter as a bounding box.

또한, 실시 예에 따라, 상기 송신부 인식부는 상기 바운딩 박스 내의 광원으로부터 광카메라 통신 신호를 추출할 수 있다.Also, according to an embodiment, the transmitter recognition unit may extract an optical camera communication signal from a light source in the bounding box.

또, 한편, 본 명세서는 차량-인프라 간 광카메라 통신의 송신부 인식 장치에 의해 수행되는 송신부 인식 방법을 제시한다. 상기 송신부 인식 방법은 도로 인프라 상의 송신부에 대한 영상 데이터를 수신하여 YOLO 모델의 학습을 위한 데이터 셋을 구성하는 단계, 상기 데이터 셋을 이용하여 YOLO 모델을 학습시키는 단계, 및 상기 학습된 YOLO 모델로 입력되는 영상 데이터를 처리하여 도로 인프라 상의 송신부에 대한 인식 결과를 출력하되, 상기 인식된 송신부의 전체 이미지에서 광원 부분에 대해서만 바운딩 박스를 설정하여 출력하는 단계를 포함할 수 있다.On the other hand, the present specification proposes a transmission unit recognition method performed by a transmission unit recognition device of vehicle-infrastructure optical camera communication. The transmitter recognition method comprises the steps of receiving image data for a transmitter on the road infrastructure and constructing a data set for learning the YOLO model, training the YOLO model using the data set, and inputting the learned YOLO model Outputting the recognition result for the transmitter on the road infrastructure by processing the image data, but may include setting and outputting a bounding box only for the light source in the entire image of the recognized transmitter.

본 명세서에 개시된 실시 예에 의하면, 차량-인프라 간 광카메라 통신에서 인프라 상의 송신부를 실시간으로 정확하게 검출할 수 있는 효과가 있다.According to the embodiment disclosed in this specification, there is an effect of accurately detecting a transmitter on an infrastructure in real time in vehicle-infrastructure-to-infrastructure optical camera communication.

또한, 본 명세서에 개시된 실시 예에 의하면, 차량-인프라 간 광카메라 통신에서 인프라 상의 송신부에서 실제로 광이 출력되는 부분만을 실시간으로 정확하게 검출할 수 있어 데이터 수신율을 높일 수 있는 효과가 있다.In addition, according to the embodiment disclosed in the present specification, in the optical camera communication between vehicle-infrastructure, only the portion where light is actually output from the transmission unit on the infrastructure can be accurately detected in real time, thereby increasing the data reception rate.

한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. will be able

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 발명을 실시하기 위한 구체적인 내용과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 본 명세서에서 제안하는 방법이 적용될 수 있는 퍼셉트론 구조를 도시한다.
도 2는 본 명세서에서 제안하는 방법이 적용될 수 있는 다층 퍼셉트론 구조를 도시한다.
도 3은 본 명세서에서 제안하는 방법이 적용될 수 있는 심층 신경망의 예시를 도시한다.
도 4는 본 명세서에서 제안하는 방법이 적용될 수 있는 컨볼루션 신경망의 예시를 도시한다.
도 5는 본 명세서에서 제안하는 방법이 적용될 수 있는 컨볼루션 신경망에서의 필터 연산을 도시한다.
도 6은 본 명세서에서 제안하는 방법이 적용될 수 있는 순환 루프가 존재하는 신경망 구조를 도시한다.
도 7은 본 명세서에서 제안하는 방법이 적용될 수 있는 순환 신경망의 동작 구조를 도시한다.
도 8은 본 명세서에서 제안하는 방법이 적용될 수 있는 DNN 모델의 예시이다.
도 9는 본 발명의 일 실시 예에 따른 AI 장치의 블록도이다.
도 10은 차량-인프라 간 광카메라 통신의 개념을 도시한다.
도 11은 본 발명의 일 실시 예에 따른 YOLO 검출 기반의 차량-인프라 간 광카메라 통신 시스템의 개념을 도시한다.
도 12는 본 발명의 실시 예에 따른 차량-인프라 간 광카메라 통신에서의 송신부 인식 장치를 도시한다.
도 13은 송신부 인식의 예를 도시하는 것으로, YOLO 모델에 의한 송신부에 대한 바운딩 박스 출력 결과의 예를 도시한다.
도 14는 본 발명의 실시 예에 따른 송신부 인식 장치에서 YOLO 모델에 의한 송신부에 대한 인식 결과의 예를 도시하는 것으로, 도 14(a)는 송신부가 신호등인 경우에 송신부에 대한 바운딩 박스 출력 결과의 예를 도시하고, 도 14(b)는 송신부가 가로등인 경우에 송신부에 대한 바운딩 박스 출력 결과의 예를 도시한다.
도 15는 본 발명의 실시 예에 따른 송신부 인식 장치의 송신부 검출 방법을 설명한다.
The following drawings attached to the present specification illustrate preferred embodiments of the present invention, and serve to further understand the technical spirit of the present invention together with specific details for carrying out the invention, so that the present invention is described in such drawings. It should not be construed as being limited only to the matters.
1 shows a perceptron structure to which the method proposed in the present specification can be applied.
2 shows a multi-layered perceptron structure to which the method proposed in the present specification can be applied.
3 shows an example of a deep neural network to which the method proposed in the present specification can be applied.
4 shows an example of a convolutional neural network to which the method proposed in this specification can be applied.
5 illustrates a filter operation in a convolutional neural network to which the method proposed in this specification can be applied.
6 illustrates a neural network structure in which a cyclic loop to which the method proposed in the present specification can be applied.
7 shows an operation structure of a recurrent neural network to which the method proposed in the present specification can be applied.
8 is an example of a DNN model to which the method proposed in the present specification can be applied.
9 is a block diagram of an AI device according to an embodiment of the present invention.
10 shows the concept of vehicle-to-infrastructure optical camera communication.
11 illustrates the concept of a vehicle-infrastructure optical camera communication system based on YOLO detection according to an embodiment of the present invention.
12 is a diagram illustrating an apparatus for recognizing a transmitter in vehicle-infrastructure-to-infrastructure optical camera communication according to an embodiment of the present invention.
13 shows an example of transmitter recognition, and shows an example of a bounding box output result for a transmitter by the YOLO model.
14 shows an example of the recognition result for the transmitter by the YOLO model in the apparatus for recognizing the transmitter according to an embodiment of the present invention. An example is shown, and FIG. 14(b) shows an example of a bounding box output result for the transmitter when the transmitter is a street lamp.
15 illustrates a method for detecting a transmitter of an apparatus for recognizing a transmitter according to an embodiment of the present invention.

본 명세서에 개시된 기술은 광카메라 통신 기반의 차량-인프라 간 통신 기술에 적용될 수 있다. 그러나 본 명세서에 개시된 기술은 이에 한정되지 않고, 상기 기술의 기술적 사상이 적용될 수 있는 모든 장치 및 방법에도 적용될 수 있다.The technology disclosed herein may be applied to a vehicle-to-infrastructure communication technology based on optical camera communication. However, the technology disclosed in the present specification is not limited thereto, and may be applied to all devices and methods to which the technical idea of the technology may be applied.

본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 명세서에 개시된 기술의 사상을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 명세서에 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 명세서에 개시된 기술의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 본 명세서에 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 명세서에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥 상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in this specification are only used to describe specific embodiments, and are not intended to limit the spirit of the technology disclosed herein. In addition, the technical terms used in this specification should be interpreted in the meaning generally understood by those of ordinary skill in the art to which the technology disclosed in this specification belongs, unless otherwise defined in this specification. It should not be construed in an overly comprehensive sense or in an excessively narrow sense. In addition, when the technical term used in this specification is an erroneous technical term that does not accurately express the spirit of the technology disclosed in this specification, a technical term that can be correctly understood by those of ordinary skill in the art to which the technology disclosed in this specification belongs. should be understood and replaced with In addition, general terms used in this specification should be interpreted according to the definition in the dictionary or contextual context, and should not be interpreted in an excessively reduced meaning.

본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.As used herein, terms including ordinal numbers such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예들을 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted.

또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 기술의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 그 기술의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in describing the technology disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the technology disclosed in this specification, the detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are only for easy understanding of the spirit of the technology disclosed in this specification, and should not be construed as limiting the spirit of the technology by the accompanying drawings.

이하에서는 첨부의 도면 1 내지 8을 참조하여 본 발명의 차량-인프라 간 광카메라 통신에 적용될 수 있는 인공 지능 학습에 대해서 설명한다.Hereinafter, artificial intelligence learning that can be applied to the optical camera communication between the vehicle-infrastructure of the present invention will be described with reference to the accompanying drawings 1 to 8 .

인공 지능(Artificial Intelligence, 이하 AI라 한다.)은 수많은 분석을 사용하여 복잡한 대상 작업이 수행되는 방식을 결정할 수 있다. 즉, AI는 효율성을 높이고 처리 지연을 줄일 수 있다. 대량의 데이터 분석과 같은 시간 소모적인 작업은 AI를 사용함으로써 즉시 수행될 수 있다.Artificial intelligence (hereinafter referred to as AI) can use numerous analytics to determine how complex target tasks are performed. In other words, AI can increase efficiency and reduce processing delays. Time-consuming tasks such as analyzing large amounts of data can be performed instantly by using AI.

이하, AI의 일종인 머신 러닝에 대해 보다 구체적으로 살펴본다.Hereinafter, machine learning, a kind of AI, will be looked at in more detail.

머신 러닝은 사람이 할 수 있거나 혹은 하기 어려운 작업을 대신해낼 수 있는 기계를 만들어내기 위해 기계를 학습시키는 일련의 동작을 의미한다. 머신 러닝을 위해서는 데이터와 러닝 모델이 필요하다. 머신 러닝에서 데이터의 학습 방법은 크게 3가지 즉, 지도 학습(supervised learning), 비지도 학습(unsupervised learning) 그리고 강화 학습(reinforcement learning)으로 구분될 수 있다.Machine learning refers to a set of actions that trains a machine to create a machine that can perform tasks that humans can or cannot do. Machine learning requires data and a learning model. In machine learning, data learning methods can be roughly divided into three types: supervised learning, unsupervised learning, and reinforcement learning.

신경망 학습은 출력의 오류를 최소화하기 위한 것이다. 신경망 학습은 반복적으로 학습 데이터를 신경망에 입력시키고 학습 데이터에 대한 신경망의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 신경망의 에러를 신경망의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation) 하여 신경망의 각 노드의 가중치를 업데이트하는 과정이다.Neural network learning is to minimize errors in output. Neural network learning repeatedly inputs learning data to the neural network, calculates the output and target errors of the neural network for the training data, and backpropagates the neural network error from the output layer of the neural network to the input layer in the direction to reduce the error. ) to update the weights of each node in the neural network.

지도 학습은 학습 데이터에 정답이 라벨링된 학습 데이터를 사용하며 비지도 학습은 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 지도 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링된 데이터 일 수 있다. 라벨링된 학습 데이터가 신경망에 입력되고 신경망의 출력(카테고리)과 학습 데이터의 라벨을 비교하여 오차(error)가 계산될 수 있다. 계산된 오차는 신경망에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파되며, 역전파에 따라 신경망의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 신경망의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 신경망의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 신경망의 학습 초기에는 높은 학습률을 사용하여 신경망이 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다Supervised learning uses training data in which the correct answer is labeled in the training data, and in unsupervised learning, the correct answer may not be labeled in the training data. That is, for example, the training data in the case of supervised learning related to data classification may be data in which categories are labeled for each of the training data. The labeled training data is input to the neural network, and an error can be calculated by comparing the output (category) of the neural network with the label of the training data. The calculated error is back propagated in the reverse direction in the neural network (ie, from the output layer to the input layer), and the connection weight of each node of each layer of the neural network may be updated according to the back propagation. A change amount of the connection weight of each node to be updated may be determined according to a learning rate. The computation of the neural network on the input data and the backpropagation of errors can constitute a learning cycle (epoch). The learning rate may be applied differently depending on the number of repetitions of the learning cycle of the neural network. For example, in the early stages of learning of a neural network, a high learning rate can be used to increase the efficiency by allowing the neural network to quickly obtain a certain level of performance, and in the late learning period, a low learning rate can be used to increase the accuracy.

데이터의 특징에 따라 학습 방법은 달라질 수 있다. 예를 들어, 통신 시스템 상에서 송신단에서 전송한 데이터를 수신단에서 정확하게 예측하는 것을 목적으로 하는 경우, 비지도 학습 또는 강화 학습 보다는 지도 학습을 이용하여 학습을 수행하는 것이 바람직하다.The learning method may vary depending on the characteristics of the data. For example, in a case where the purpose of accurately predicting data transmitted from a transmitter in a communication system is accurately predicted by a receiver, it is preferable to perform learning using supervised learning rather than unsupervised learning or reinforcement learning.

러닝 모델은 인간의 뇌에 해당하는 것으로서, 가장 기본적인 선형 모델을 생각할 수 있으나, 인공 신경망(ANN, artificial neural networks)와 같은 복잡성이 높은 신경망 구조를 러닝 모델로 사용하는 머신 러닝의 패러다임을 딥러닝(deep learning)이라 한다.The learning model corresponds to the human brain, and the most basic linear model can be considered, but the paradigm of machine learning that uses high-complexity neural network structures such as artificial neural networks (ANN) as the learning model is called deep learning. called deep learning).

학습(learning) 방식으로 사용하는 신경망 코어(neural network cord)는 크게 심층 신경망(DNN, deep neural networks), 합성곱 신경망(CNN, convolutional deep neural networks), 순환 신경망(RNN, Recurrent Neural Network) 방식이 있다.The neural network cord used as a learning method is largely divided into deep neural networks (DNN), convolutional deep neural networks (CNN), and recurrent neural networks (RNN). have.

인공 신경망(artificial neural network)은 여러 개의 퍼셉트론을 연결한 예시이다.An artificial neural network is an example of connecting several perceptrons.

도 1은 본 명세서에서 제안하는 방법이 적용될 수 있는 퍼셉트론 구조를 도시한다.1 shows a perceptron structure to which the method proposed in the present specification can be applied.

도 1을 참조하면, 입력 벡터 x=(x1, x2, ... , xd) 가 입력되면 각 성분에 가중치(W1, W2, ... , Wd)를 곱하고, 그 결과를 모두 합산한 후, 활성함수 σ(·) 를 적용하는 전체 과정을 퍼셉트론(perceptron)이라 한다. 거대한 인공 신경망 구조는 도 1에 도시한 단순화된 퍼셉트론 구조를 확장하여 입력벡터를 서로 다른 다 차원의 퍼셉트론에 적용할 수도 있다. 설명의 편의를 위해 입력값 또는 출력값을 노드(node)라 칭한다.Referring to FIG. 1 , when an input vector x=(x 1 , x 2 , ... , x d ) is input, each component is multiplied by a weight (W 1 , W 2 , ... , W d ), and the result After summing all the , the whole process of applying the activation function σ(·) is called a perceptron. The huge artificial neural network structure may extend the simplified perceptron structure shown in FIG. 1 to apply input vectors to different multidimensional perceptrons. For convenience of description, an input value or an output value is referred to as a node.

한편, 도 1에 도시된 퍼셉트론 구조는 입력값, 출력값을 기준으로 총 3개의 층(layer)로 구성되는 것으로 설명할 수 있다. 1st layer와 2nd layer 사이에는 (d+1) 차원의 퍼셉트론 H개, 2nd layer와 3rd layer 사이에는 (H+1)차원 퍼셉트론이 K 개 존재하는 인공신경망을 도 2와 같이 표현할 수 있다.Meanwhile, the perceptron structure shown in FIG. 1 can be described as being composed of a total of three layers based on an input value and an output value. An artificial neural network in which H (d+1)-dimensional perceptrons exist between the 1st layer and the 2nd layer and K (H+1)-dimensional perceptrons exist between the 2nd layer and the 3rd layer can be expressed as shown in FIG. 2 .

도 2는 본 명세서에서 제안하는 방법이 적용될 수 있는 다층 퍼셉트론의 구조를 도시한다.2 shows the structure of a multi-layer perceptron to which the method proposed in the present specification can be applied.

입력벡터가 위치하는 층을 입력층(input layer), 최종 출력값이 위치하는 층을 출력층(output layer), 입력층과 출력층 사이에 위치하는 모든 층을 은닉층(hidden layer)라 한다. 도 2의 예시는 3개의 층이 개시되나, 실제 인공신경망 층의 개수를 카운트할 때는 입력층을 제외하고 카운트하므로 총 2개의 층으로 볼 수 있다. 인공신경망은 기본 블록의 퍼셉트론을 2차원적으로 연결되어 구성된다.The layer where the input vector is located is called the input layer, the layer where the final output value is located is called the output layer, and all the layers located between the input layer and the output layer are called the hidden layer. In the example of FIG. 2 , three layers are disclosed, but when counting the actual number of artificial neural network layers, the input layer is counted excluding the input layer, so it can be viewed as a total of two layers. The artificial neural network is constructed by connecting the perceptrons of the basic blocks in two dimensions.

전술한 입력층, 은닉층, 출력층은 다층 퍼셉트론 뿐 아니라 후술할 CNN, RNN 등 다양한 인공신경망 구조에서 공동적으로 적용될 수 있다. 은닉층의 개수가 많아질수록 인공신경망이 깊어진 것이며, 충분히 깊어진 인공신경망을 러닝모델로 사용하는 머신러닝 패러다임을 딥러닝(Deep Learning)이라 한다. 또한 딥러닝을 위해 사용하는 인공신경망을 심층 신경망(DNN: Deep Neural Network)라 한다.The aforementioned input layer, hidden layer, and output layer can be jointly applied in various artificial neural network structures such as CNN and RNN to be described later as well as multi-layer perceptron. As the number of hidden layers increases, the artificial neural network becomes deeper, and a machine learning paradigm that uses a sufficiently deep artificial neural network as a learning model is called deep learning. Also, an artificial neural network used for deep learning is called a deep neural network (DNN).

도 3은 본 명세서에서 제안하는 방법이 적용될 수 있는 심층 신경망의 예시를 도시한다.3 shows an example of a deep neural network to which the method proposed in the present specification can be applied.

도 3에 도시된 심층 신경망은 은닉층+출력층이 8개로 구성된 다층 퍼셉트론이다. 상기 다층 퍼셉트론 구조를 완전 연결 신경망(fully-connected neural network)이라 표현한다. 완전 연결 신경망은 서로 같은 층에 위치하는 노드 간에는 연결 관계가 존재하지 않으며, 인접한 층에 위치한 노드들 간에만 연결 관계가 존재한다. DNN은 완전 연결 신경망 구조를 가지고 다수의 은닉층과 활성함수들의 조합으로 구성되어 입력과 출력 사이의 상관관계 특성을 파악하는데 유용하게 적용될 수 있다. 여기서 상관관계 특성은 입출력의 결합확률(joint probability)을 의미할 수 있다.The deep neural network shown in FIG. 3 is a multi-layer perceptron composed of eight hidden layers and eight output layers. The multilayer perceptron structure is referred to as a fully-connected neural network. In a fully connected neural network, a connection relationship does not exist between nodes located in the same layer, and a connection relationship exists only between nodes located in adjacent layers. DNN has a fully connected neural network structure and is composed of a combination of a number of hidden layers and activation functions, so it can be usefully applied to figure out the correlation between input and output. Here, the correlation characteristic may mean a joint probability of input/output.

한편, 복수의 퍼셉트론을 서로 어떻게 연결하느냐에 따라 전술한 DNN과 다른 다양한 인공 신경망 구조를 형성할 수 있다.On the other hand, depending on how a plurality of perceptrons are connected to each other, various artificial neural network structures different from the above-described DNN can be formed.

도 4는 본 명세서에서 제안하는 방법이 적용될 수 있는 컨볼루션 신경망의 예시를 도시하고, 도 5는 본 명세서에서 제안하는 방법이 적용될 수 있는 컨볼루션 신경망에서의 필터 연산을 도시한다.4 shows an example of a convolutional neural network to which the method proposed in this specification can be applied, and FIG. 5 shows a filter operation in a convolutional neural network to which the method proposed in this specification can be applied.

DNN은 하나의 층 내부에 위치한 노드들이 1차원적의 세로 방향으로 배치되어 있다. 그러나, 도 4는 노드들이 2차원적으로 가로 w개, 세로 h개의 노드가 배치할 경우를 가정할 수 있다(도 4의 컨볼루션 신경망 구조). 이 경우, 하나의 입력노드에서 은닉층으로 이어지는 연결과정에서 연결 하나당 가중치가 부가되므로 총 h×w 개의 가중치를 고려해야한다. 입력층에 h×w 개의 노드가 존재하므로 인접한 두 층 사이에는 총 h2w2 개의 가중치가 필요하다.In DNN, nodes located inside one layer are arranged in a one-dimensional vertical direction. However, in FIG. 4 , it can be assumed that the nodes are two-dimensionally arranged with w horizontally and h vertical nodes (convolutional neural network structure of FIG. 4 ). In this case, since a weight is added per connection in the connection process from one input node to the hidden layer, a total of h×w weights must be considered. Since there are h×w nodes in the input layer, a total of h 2 w 2 weights are needed between two adjacent layers.

도 4의 컨볼루션 신경망은 연결개수에 따라 가중치의 개수가 기하급수적으로 증가하는 문제가 있어 인접한 층 간의 모든 모드의 연결을 고려하는 대신, 크기가 작은 필터(filter)가 존재하는 것으로 가정하여 도 5에서와 같이 필터가 겹치는 부분에 대해서는 가중합 및 활성함수 연산을 수행하도록 한다.The convolutional neural network of FIG. 4 has a problem in that the number of weights increases exponentially according to the number of connections, so instead of considering the connection of all modes between adjacent layers, it is assumed that a filter with a small size exists in FIG. As in Fig., the weighted sum and activation function calculations are performed on the overlapping filters.

하나의 필터는 그 크기만큼의 개수에 해당하는 가중치를 가지며, 이미지 상의 어느 특정한 특징을 요인으로 추출하여 출력할 수 있도록 가중치의 학습이 이루어질 수 있다. 도 5에서는 3×3 크기의 필터가 입력층의 가장 좌측 상단 3×3 영역에 적용되고, 해당 노드에 대한 가중합 및 활성함수 연산을 수행한 결과 출력값을 z22에 저장한다.One filter has a weight corresponding to the number corresponding to its size, and weight learning can be performed so that a specific feature on an image can be extracted and output as a factor. In FIG. 5 , a 3×3 filter is applied to the upper left 3×3 region of the input layer, and an output value obtained by performing weighted sum and activation function operations on the corresponding node is stored in z 22 .

상기 필터는 입력층을 스캔하면서 가로, 세로 일정 간격만큼 이동하면서 가중합 및 활성함수 연산을 수행하고 그 출력값을 현재 필터의 위치에 위치시킨다. 이러한 연산 방식은 컴퓨터 비전(computer vision) 분야에서 이미지에 대한 컨볼루션(convolution) 연산과 유사하여 이러한 구조의 심층 신경망을 컨볼루션 신경망(CNN: convolutional neural network)라 하고, 컨볼루션 연산 결과 생성되는 은닉층을 컨볼루션 층(convolutional layer)이라 한다. 또한, 복수의 컨볼루션 층이 존재하는 신경망을 심층 컨볼루션 신경망(DCNN: Deep convolutional neural network)이라 한다.The filter performs weight sum and activation function calculations while moving horizontally and vertically at regular intervals while scanning the input layer, and places the output value at the current filter position. This calculation method is similar to a convolution operation on an image in the field of computer vision, so a deep neural network with such a structure is called a convolutional neural network (CNN), and a hidden layer generated as a result of the convolution operation is called a convolutional layer. Also, a neural network having a plurality of convolutional layers is called a deep convolutional neural network (DCNN).

컨볼루션 층에서는 현재 필터가 위치한 노드에서, 상기 필터가 커버하는 영역에 위치한 노드만을 포괄하여 가중합을 계산함으로써, 가중치의 개수를 줄여줄 수 있다. 이로 인해, 하나의 필터가 로컬(local) 영역에 대한 특징에 집중하도록 이용될 수 있다. 이에 따라 CNN은 2차원 영역 상의 물리적 거리가 중요한 판단 기준이 되는 이미지 데이터 처리에 효과적으로 적용될 수 있다. 한편, CNN은 컨볼루션 층의 직전에 복수의 필터가 적용될 수 있으며, 각 필터의 컨볼루션 연산을 통해 복수의 출력 결과를 생성할 수도 있다.In the convolution layer, the number of weights can be reduced by calculating the weighted sum by including only nodes located in the region covered by the filter in the node where the filter is currently located. Due to this, one filter can be used to focus on features for the local area. Accordingly, CNN can be effectively applied to image data processing in which physical distance in a two-dimensional domain is an important criterion. Meanwhile, in CNN, a plurality of filters may be applied immediately before the convolution layer, and a plurality of output results may be generated through a convolution operation of each filter.

한편, 데이터 속성에 따라 시퀀스(sequence) 특성이 중요한 데이터들이 있을 수 있다. 이러한 시퀀스 데이터들의 길이 가변성, 선후 관계를 고려하여 데이터 시퀀스 상의 원소를 매 시점(timestep) 마다 하나씩 입력하고, 특정 시점에 출력된 은닉층의 출력 벡터(은닉 벡터)를, 시퀀스 상의 바로 다음 원소와 함께 입력하는 방식을 인공 신경망에 적용한 구조를 순환 신경망 구조라 한다.Meanwhile, there may be data whose sequence characteristics are important according to data properties. Considering the length variability and precedence relationship of the sequence data, one element in the data sequence is input at each timestep, and the output vector (hidden vector) of the hidden layer output at a specific time is input together with the next element in the sequence. A structure in which this method is applied to an artificial neural network is called a recurrent neural network structure.

도 6은 본 명세서에서 제안하는 방법이 적용될 수 있는 순환 루프가 존재하는 신경망 구조를 도시한다.6 shows a neural network structure in which a cyclic loop to which the method proposed in the present specification can be applied.

도 6을 참조하면, 순환 신경망(RNN: recurrent neural network)은 데이터 시퀀스 상의 어느 시선 t의 원소 (x1(t), x2(t), ... , xd(t))를 완전 연결 신경망에 입력하는 과정에서, 바로 이전 시점 t-1은 은닉 벡터 (z1(t-1), z2(t-1), ... , zH(t-1))을 함께 입력하여 가중합 및 활성함수를 적용하는 구조이다. 이와 같이 은닉 벡터를 다음 시점으로 전달하는 이유는 앞선 시점들에서의 입력 벡터속 정보들이 현재 시점의 은닉 벡터에 누적된 것으로 간주하기 때문이다.Referring to FIG. 6 , a recurrent neural network (RNN) completely connects elements (x 1 (t), x 2 (t), ... , x d (t)) of any gaze t on a data sequence. In the process of input to the neural network, the immediately preceding time point t-1 is weighted by inputting the hidden vectors (z 1 (t-1), z 2 (t-1), ... , z H (t-1)) together. It is a structure to which sum and activation functions are applied. The reason why the hidden vector is transferred to the next time in this way is because it is considered that information in the input vector at the previous time is accumulated in the hidden vector of the current time.

도 7은 본 명세서에서 제안하는 방법이 적용될 수 있는 순환 신경망의 동작 구조를 도시한다.7 shows an operation structure of a recurrent neural network to which the method proposed in the present specification can be applied.

도 7을 참조하면, 순환 신경망은 입력되는 데이터 시퀀스에 대하여 소정의 시점 순서대로 동작한다.Referring to FIG. 7 , the recurrent neural network operates in a predetermined time sequence with respect to an input data sequence.

시점 1에서의 입력 벡터 (x1(t), x2(t), ... , xd(t))가 순환 신경망에 입력되었을 때의 은닉 벡터 (z1(1), z2(1), ... , zH(1))가 시점 2의 입력 벡터 (x1(2), x2(2), ... , xd(2))와 함께 입력되어 가중합 및 활성 함수를 통해 은닉층의 벡터 (z1(2), z2(2), ... , zH(2))를 결정한다. 이러한 과정은 시점 2, 시점 3, ... , 시점 T 까지 반복적으로 수행된다.The hidden vector (z 1 (1), z 2 (1) when the input vector (x 1 (t), x 2 (t), ... , x d (t)) at time 1 is input to the recurrent neural network ), ... , z H (1)) are input together with the input vectors of time 2 (x 1 (2), x 2 (2), ... , x d (2)) to form weighted sum and activation functions to determine the vectors of the hidden layer (z 1 (2), z 2 (2), ... , z H (2)). This process is repeatedly performed until time point 2, time point 3, ..., and time point T.

한편, 순환 신경망 내에서 복수의 은닉층이 배치될 경우, 이를 심층 순환 신경망(DRNN: Deep recurrent neural network)라 한다. 순환 신경망은 시퀀스 데이터(예를 들어, 자연어 처리(natural language processing)에 유용하게 적용되도록 설계되어 있다.Meanwhile, when a plurality of hidden layers are disposed in a recurrent neural network, this is called a deep recurrent neural network (DRNN). The recurrent neural network is designed to be usefully applied to sequence data (eg, natural language processing).

학습(learning) 방식으로 사용하는 신경망 코어로서 DNN, CNN, RNN 외에 제한 볼츠만 머신(RBM, Restricted Boltzmann Machine), 심층 신뢰 신경망(DBN, deep belief networks), 심층 Q-네트워크(Deep Q-Network)와 같은 다양한 딥 러닝 기법들을 포함하며, 컴퓨터비젼, 음성인식, 자연어처리, 음성/신호처리, 대용량의 데이터 처리를 통한 최적 값 도출 등의 분야에 적용될 수 있다.As a neural network core used as a learning method, in addition to DNN, CNN, and RNN, Restricted Boltzmann Machine (RBM), deep belief networks (DBN), Deep Q-Network and It includes various deep learning techniques such as computer vision, speech recognition, natural language processing, voice/signal processing, and can be applied to fields such as derivation of optimal values through large-capacity data processing.

도 8은 본 명세서에서 제안하는 방법이 적용될 수 있는 DNN 모델의 예시이다.8 is an example of a DNN model to which the method proposed in the present specification can be applied.

심층 신경망(Deep Neural Network, DNN)은 입력층(input layer)과 출력층(output layer) 사이에 여러 개의 은닉층(hidden layer)들로 이루어진 인공신경망(Artificial Neural Network, ANN)이다. 심층 신경망은 일반적인 인공신경망과 마찬가지로 복잡한 비선형 관계(non-linear relationship)들을 모델링할 수 있다.A deep neural network (DNN) is an artificial neural network (ANN) composed of several hidden layers between an input layer and an output layer. Deep neural networks can model complex non-linear relationships like general artificial neural networks.

예를 들어, 사물 식별 모델을 위한 심층 신경망 구조에서는 각 객체가 이미지 기본 요소들의 계층적 구성으로 표현될 수 있다. 이때, 추가 계층들은 점진적으로 모여진 하위 계층들의 특징들을 규합시킬 수 있다. 심층 신경망의 이러한 특징은, 비슷하게 수행된 인공신경망에 비해 더 적은 수의 유닛(unit, node)들 만으로도 복잡한 데이터를 모델링할 수 있게 해준다.For example, in a deep neural network structure for an object identification model, each object may be expressed as a hierarchical configuration of image basic elements. In this case, the additional layers may aggregate features of the gradually gathered lower layers. This feature of deep neural networks enables modeling of complex data with fewer units (units, nodes) compared to similarly performed artificial neural networks.

은닉층의 개수가 많아질수록 인공신경망이 '깊어졌다(deep)'고 부르며, 이렇게 충분히 깊어진 인공신경망을 러닝 모델로 사용하는 머신러닝 패러다임을 바로 딥러닝(Deep Learning)이라고 한다. 그리고, 이러한 딥러닝을 위해 사용하는 충분히 깊은 인공신경망이 심층 신경망(DNN: Deep Neural Network)이라고 통칭된다.As the number of hidden layers increases, the artificial neural network is called 'deep', and the machine learning paradigm that uses the sufficiently deep artificial neural network as a learning model is called deep learning. And, a sufficiently deep artificial neural network used for such deep learning is collectively called a deep neural network (DNN).

본 발명에서 DNN의 입력층에 POI 데이터 생성 모델을 학습시키기 위해 요구되는 데이터들이 입력될 수 있고, 이들은 은닉층들을 거치면서, 사용자가 사용할 수 있는 의미 있는 데이터가 출력층을 통해 생성될 수 있다.In the present invention, data required for training the POI data generation model may be input to the input layer of the DNN, and meaningful data that a user can use may be generated through the output layer while passing through the hidden layers.

본 발명의 명세서 상에서는 이러한 딥러닝 방식을 위해 사용되는 인공신경망을 DNN으로 통칭하고 있으나, 이와 유사한 방식으로 의미 있는 데이터를 출력할 수 있다면, 다른 방식의 딥러닝 방식이 적용될 수 있음은 물론이다.In the specification of the present invention, an artificial neural network used for such a deep learning method is collectively referred to as a DNN, but if meaningful data can be output in a similar way, of course, other deep learning methods may be applied.

도 9는 본 발명의 일 실시예에 따른 AI 장치의 블록도이다.9 is a block diagram of an AI device according to an embodiment of the present invention.

상기 AI 장치(20)는 AI 프로세싱을 수행할 수 있는 AI 모듈을 포함하는 전자 기기 또는 상기 AI 모듈을 포함하는 서버 등을 포함할 수 있다. 또한, 상기 AI 장치(20)는 도 11에 도시된 차량-인프라 간 광카메라 통신 시스템(1100) 또는 도 12에 도시된 차량-인프라 간 광카메라 통신의 송신부 인식 장치(1200)의 적어도 일부의 구성으로 포함되어 AI 프로세싱 중 적어도 일부를 함께 수행하도록 구비될 수도 있다.The AI device 20 may include an electronic device including an AI module capable of performing AI processing, or a server including the AI module. In addition, the AI device 20 is at least a part of the vehicle-infrastructure optical camera communication system 1100 shown in FIG. 11 or the transmission unit recognition device 1200 of the vehicle-infrastructure optical camera communication shown in FIG. 12 . It may be included to perform at least a part of AI processing together.

상기 AI 장치(20)의 AI 프로세싱은, 도 11에 도시된 차량-인프라 간 광카메라 통신 시스템(1100) 및 도 12에 도시된 차량-인프라 간 광카메라 통신에서의 송신부 인식 장치(1200)의 제어와 관련된 모든 동작들 및 인공지능 학습을 통한 차량-인프라 간 광카메라 통신을 위한 모든 동작들을 포함할 수 있다. 예를 들어, 상기 AI 장치(20)는 수집된 데이터 셋을 YOLO 모델 기반의 AI 프로세싱하여 처리/판단 및 학습한 뒤, 도로 인프라 상의 송신부를 인식하는 동작을 수행할 수 있다. 상기 AI 장치(20)는 도 11의 영상처리부(1122)의 일부 구성요소로 포함되거나 영상처리부(1122)로 대체될 수 있다. 또한, 상기 AI 장치(20)는 도 12의 송신부 인식 장치(1200)의 일부 구성요소로 포함되거나 송신부 인식 장치(1200)로 대체될 수 있다The AI processing of the AI device 20 is controlled by the transmission unit recognition device 1200 in the vehicle-infrastructure optical camera communication system 1100 shown in FIG. 11 and the vehicle-infrastructure optical camera communication shown in FIG. 12 . It may include all operations related to , and all operations for optical camera communication between vehicle-infrastructure through artificial intelligence learning. For example, the AI device 20 may perform an operation of recognizing a transmitter on a road infrastructure after processing/determining and learning the collected data set by AI processing based on the YOLO model. The AI device 20 may be included as a part of the image processing unit 1122 of FIG. 11 or may be replaced by the image processing unit 1122 . Also, the AI device 20 may be included as a part of the transmitter recognizing device 1200 of FIG. 12 or replaced with the transmitter recognizing device 1200 .

상기 AI 장치(20)는 AI 프로세서(21), 메모리(25) 및/또는 통신부(27)를 포함할 수 있다.The AI device 20 may include an AI processor 21 , a memory 25 and/or a communication unit 27 .

상기 AI 장치(20)는 신경망을 학습할 수 있는 컴퓨팅 장치로서, 서버, 데스크탑 PC, 노트북 PC, 태블릿 PC 등과 같은 다양한 전자 장치로 구현되거나, 하나의 칩으로 구현될 수 있다. 본원 발명에서 상기 AI 장치(20)는 상기 다양한 전자 장치 중 어느 하나의 형태로 구현된 차량-인프라 간 광카메라 통신 장치일 수 있다.The AI device 20 is a computing device capable of learning a neural network, and may be implemented with various electronic devices such as a server, a desktop PC, a notebook PC, a tablet PC, or the like, or implemented as a single chip. In the present invention, the AI device 20 may be a vehicle-infrastructure optical camera communication device implemented in the form of any one of the various electronic devices.

AI 프로세서(21)는 메모리(25)에 저장된 프로그램을 이용하여 신경망을 학습할 수 있다. 특히, AI 프로세서(21)는 디바이스 관련 데이터를 인식하기 위한 신경망을 학습할 수 있다. 여기서, 디바이스 관련 데이터를 인식하기 위한 신경망은 인간의 뇌 구조를 컴퓨터 상에서 모의하도록 설계될 수 있으며, 인간의 신경망의 뉴런(neuron)을 모의하는, 가중치를 갖는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 모드들은 뉴런이 시냅스(synapse)를 통해 신호를 주고 받는 뉴런의 시냅틱 활동을 모의하도록 각각 연결 관계에 따라 데이터를 주고 받을 수 있다. 여기서 신경망은 신경망 모델에서 발전한 딥러닝 모델을 포함할 수 있다. 딥 러닝 모델에서 복수의 네트워크 노드들은 서로 다른 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고 받을 수 있다. 신경망 모델의 예는 심층 신경망(DNN, deep neural networks), 합성곱 신경망(CNN, convolutional deep neural networks), 순환 신경망(RNN, Recurrent neural networks), 제한 볼츠만 머신(RBM, Restricted Boltzmann Machine), 심층 신뢰 신경망(DBN, deep belief networks), 심층 Q-네트워크(Deep Q-Network)와 같은 다양한 딥러닝 기법들을 포함하며, 컴퓨터비젼(CV), 음성인식, 자연어처리, 음성/신호처리 등의 분야에 적용될 수 있다.The AI processor 21 may learn the neural network using a program stored in the memory 25 . In particular, the AI processor 21 may learn a neural network for recognizing device-related data. Here, a neural network for recognizing device-related data may be designed to simulate a human brain structure on a computer, and may include a plurality of network nodes having weights that simulate neurons of a human neural network. The plurality of network modes may transmit and receive data according to a connection relationship, respectively, so as to simulate a synaptic activity of a neuron in which a neuron sends and receives a signal through a synapse. Here, the neural network may include a deep learning model developed from a neural network model. In a deep learning model, a plurality of network nodes can exchange data according to a convolutional connection relationship while being located in different layers. Examples of neural network models include deep neural networks (DNN), convolutional deep neural networks (CNN), recurrent neural networks (RNN), Restricted Boltzmann Machine (RBM), deep trust It includes various deep learning techniques such as neural networks (DBN, deep belief networks) and deep Q-networks, and can be applied to fields such as computer vision (CV), voice recognition, natural language processing, and voice/signal processing. can

한편, 전술한 바와 같은 기능을 수행하는 프로세서는 범용 프로세서(예를 들어, CPU)일 수 있으나, 인공지능 학습을 위한 AI 전용 프로세서(예를 들어, GPU)일 수 있다.Meanwhile, the processor performing the above-described function may be a general-purpose processor (eg, CPU), but may be an AI-only processor (eg, GPU) for artificial intelligence learning.

메모리(25)는 AI 장치(20)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(25)는 비 휘발성 메모리, 휘발성 메모리, 플래시 메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SDD) 등으로 구현할 수 있다. 메모리(25)는 AI 프로세서(21)에 의해 액세스되며, AI 프로세서(21)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 또한, 메모리(25)는 본 발명의 일 실시예에 따른 데이터 분류/인식을 위한 학습 알고리즘을 통해 생성된 신경망 모델(예를 들어, 딥 러닝 모델(26))을 저장할 수 있다.The memory 25 may store various programs and data necessary for the operation of the AI device 20 . The memory 25 may be implemented as a non-volatile memory, a volatile memory, a flash-memory, a hard disk drive (HDD), or a solid state drive (SDD). The memory 25 is accessed by the AI processor 21 , and reading/writing/modification/deletion/update of data by the AI processor 21 may be performed. In addition, the memory 25 may store a neural network model (eg, the deep learning model 26 ) generated through a learning algorithm for data classification/recognition according to an embodiment of the present invention.

한편, AI 프로세서(21)는 데이터 분류/인식을 위한 신경망을 학습하는 데이터 학습부(22)를 포함할 수 있다. 데이터 학습부(22)는 데이터 분류/인식을 판단하기 위하여 어떤 학습 데이터를 이용할지, 학습 데이터를 이용하여 데이터를 어떻게 분류하고 인식할지에 관한 기준을 학습할 수 있다. 데이터 학습부(22)는 학습에 이용될 학습 데이터를 획득하고, 획득된 학습데이터를 딥러닝 모델에 적용함으로써, 딥러닝 모델을 학습할 수 있다.Meanwhile, the AI processor 21 may include a data learning unit 22 that learns a neural network for data classification/recognition. The data learning unit 22 may learn a criterion regarding which training data to use to determine data classification/recognition and how to classify and recognize data using the training data. The data learning unit 22 may learn the deep learning model by acquiring learning data to be used for learning and applying the acquired learning data to the deep learning model.

데이터 학습부(22)는 적어도 하나의 하드웨어 칩 형태로 제작되어 AI 장치(20)에 탑재될 수 있다. 예를 들어, 데이터 학습부(22)는 인공지능(AI)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 범용 프로세서(CPU) 또는 그래픽 전용 프로세서(GPU)의 일부로 제작되어 AI 장치(20)에 탑재될 수도 있다. 또한, 데이터 학습부(22)는 소프트웨어 모듈로 구현될 수 있다. 소프트웨어 모듈(또는 인스트럭션(instruction)을 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록 매체(non-transitory computer readable media)에 저장될 수 있다. 이 경우, 적어도 하나의 소프트웨어 모듈은 운영체제(Operating System)에 의해 제공되거나, 애플리케이션(응용 프로그램)에 의해 제공될 수 있다.The data learning unit 22 may be manufactured in the form of at least one hardware chip and mounted on the AI device 20 . For example, the data learning unit 22 may be manufactured in the form of a dedicated hardware chip for artificial intelligence (AI), or may be manufactured as a part of a general-purpose processor (CPU) or graphics-only processor (GPU) to the AI device 20 . may be mounted. In addition, the data learning unit 22 may be implemented as a software module. When implemented as a software module (or a program module including instructions), the software module may be stored in a computer-readable non-transitory computer readable medium. In this case, the at least one software module may be provided by an operating system (Operating System) or may be provided by an application (application program).

데이터 학습부(22)는 학습 데이터 획득부(23) 및 모델 학습부(24)를 포함할 수 있다. The data learning unit 22 may include a training data acquiring unit 23 and a model learning unit 24 .

학습 데이터 획득부(23)는 데이터를 분류하고 인식하기 위한 신경망 모델에 필요한 학습 데이터를 획득할 수 있다. 예를 들어, 학습 데이터 획득부(23)는 학습 데이터로서, 신경망 모델에 입력하기 위한 도로 인프라 상의 송신부들에 대한 영상 데이터 및/또는 샘플 데이터를 획득할 수 있다.The training data acquisition unit 23 may acquire training data required for a neural network model for classifying and recognizing data. For example, the training data acquisition unit 23 may acquire image data and/or sample data for transmission units on a road infrastructure to be input to the neural network model as training data.

모델 학습부(24)는 상기 획득된 학습 데이터를 이용하여, 신경망 모델이 소정의 데이터를 어떻게 분류할지에 관한 판단 기준을 가지도록 학습할 수 있다. 이 때 모델 학습부(24)는 학습 데이터 중 적어도 일부를 판단 기준으로 이용하는 지도 학습(supervised learning)을 통하여, 신경망 모델을 학습시킬 수 있다. 또는 모델 학습부(24)는 지도 없이 학습 데이터를 이용하여 스스로 학습함으로써, 판단 기준을 발견하는 비지도 학습(unsupervised learning)을 통해 신경망 모델을 학습시킬 수 있다. 또한, 모델 학습부(24)는 학습에 따른 상황 판단의 결과가 올바른 지에 대한 피드백을 이용한 강화 학습(reinforcement learning)을 통하여, 신경망 모델을 학습시킬 수 있다. 또한, 모델 학습부(24)는 오류 역전파법(error back-propagation) 또는 경사 하강법(gradient decent)을 포함하는 학습 알고리즘을 이용하여 신경망 모델을 학습시킬 수 있다.The model learning unit 24 may use the acquired training data to learn the neural network model to have a criterion for determining how to classify predetermined data. In this case, the model learning unit 24 may train the neural network model through supervised learning using at least a portion of the training data as a criterion for determination. Alternatively, the model learning unit 24 may learn the neural network model through unsupervised learning for discovering a judgment criterion by self-learning using learning data without guidance. Also, the model learning unit 24 may train the neural network model through reinforcement learning using feedback on whether a result of situation determination according to learning is correct. Also, the model learning unit 24 may train the neural network model by using a learning algorithm including an error back-propagation method or a gradient decent method.

신경망 모델이 학습되면, 모델 학습부(24)는 학습된 신경망 모델을 메모리에 저장할 수 있다. 모델 학습부(24)는 학습된 신경망 모델을 AI 장치(20)와 유선 또는 무선 네트워크로 연결된 서버의 메모리에 저장할 수도 있다.When the neural network model is trained, the model learning unit 24 may store the learned neural network model in a memory. The model learning unit 24 may store the learned neural network model in the memory of the server connected to the AI device 20 through a wired or wireless network.

데이터 학습부(22)는 인식 모델의 분석 결과를 향상시키거나, 인식 모델의 생성에 필요한 리소스 또는 시간을 절약하기 위해 학습 데이터 전처리부(미도시) 및 학습 데이터 선택부(미도시)를 더 포함할 수도 있다.The data learning unit 22 further includes a training data preprocessing unit (not shown) and a training data selection unit (not shown) in order to improve the analysis result of the recognition model or to save resources or time required for generating the recognition model. You may.

학습 데이터 전처리부는 획득된 데이터가 상황 판단을 위한 학습에 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 예를 들어, 학습 데이터 전처리부는, 모델 학습부(24)가 송신부에 대한 영상 데이터 인식을 위한 학습을 위하여 획득된 학습 데이터를 이용할 수 있도록, 획득된 데이터를 기 설정된 포맷으로 가공할 수 있다.The learning data preprocessor may preprocess the acquired data so that the acquired data can be used for learning for situation determination. For example, the training data preprocessor may process the acquired data into a preset format so that the model learning unit 24 may use the acquired training data for learning for image data recognition for the transmitter.

또한, 학습 데이터 선택부는, 학습 데이터 획득부(23)에서 획득된 학습 데이터 또는 전처리부에서 전처리된 학습 데이터 중 학습에 필요한 데이터를 선택할 수 있다. 선택된 학습 데이터는 모델 학습부(24)에 제공될 수 있다. 예를 들어, 학습 데이터 선택부는, 네트워크를 통해 수집한 데이터 셋 중 특정 필드를 인식함으로써, 특정 필드에 포함된 데이터만을 학습 데이터로 선택할 수 있다.In addition, the learning data selection unit may select data necessary for learning from among the learning data acquired by the learning data acquiring unit 23 or the training data pre-processed by the preprocessing unit. The selected training data may be provided to the model learning unit 24 . For example, the training data selector may select only data included in the specific field as training data by recognizing a specific field among data sets collected through the network.

또한, 데이터 학습부(22)는 신경망 모델의 분석 결과를 향상시키기 위하여 모델 평가부(미도시)를 더 포함할 수도 있다.In addition, the data learning unit 22 may further include a model evaluation unit (not shown) in order to improve the analysis result of the neural network model.

모델 평가부는, 신경망 모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 분석 결과가 소정 기준을 만족하지 못하는 경우, 모델 학습부(22)로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 인식 모델을 평가하기 위한 기 정의된 데이터일 수 있다. 일 예로, 모델 평가부는 평가 데이터에 대한 학습된 인식 모델의 분석 결과 중, 분석 결과가 정확하지 않은 평가 데이터의 개수 또는 비율이 미리 설정된 임계치를 초과하는 경우, 소정 기준을 만족하지 못한 것으로 평가할 수 있다.The model evaluator may input evaluation data to the neural network model and, when an analysis result output from the evaluation data does not satisfy a predetermined criterion, may cause the model learning unit 22 to learn again. In this case, the evaluation data may be predefined data for evaluating the recognition model. As an example, the model evaluator may evaluate as not satisfying a predetermined criterion when, among the analysis results of the learned recognition model for the evaluation data, the number or ratio of evaluation data for which the analysis result is not accurate exceeds a preset threshold. .

통신부(27)는 AI 프로세서(21)에 의한 AI 프로세싱 결과를 외부 전자 기기로 전송할 수 있다. 여기서 외부 전자 기기는 차량-인프라 간 광카메라 통신 시스템(도 11, 1100)로 정의될 수 있다. 한편, 상기 AI 장치(20)는 차량-인프라 간 광카메라 통신 시스템 내에 구비된 영상처리부(도 11, 1122)에 기능적으로 임베딩되어 구현될 수도 있다.The communication unit 27 may transmit the AI processing result by the AI processor 21 to an external electronic device. Here, the external electronic device may be defined as a vehicle-infrastructure optical camera communication system ( FIGS. 11 and 1100 ). Meanwhile, the AI device 20 may be implemented by being functionally embedded in the image processing unit ( FIGS. 11 and 1122 ) provided in the vehicle-infrastructure optical camera communication system.

한편, 도 9에 도시된 AI 장치(20)는 AI 프로세서(21)와 메모리(25), 통신부(27) 등으로 기능적으로 구분하여 설명하였지만, 전술한 구성요소들이 하나의 모듈로 통합되어 AI 모듈로 호칭될 수도 있음을 밝혀 둔다.On the other hand, the AI device 20 shown in FIG. 9 has been functionally divided into the AI processor 21 , the memory 25 , the communication unit 27 , and the like, but the above-described components are integrated into one module and the AI module Note that it may also be called

이하에서는 본 명세서에서 제안하는 방법이 적용될 수 있는 YOLO(You Only Look Once) 모델의 예시를 설명한다.Hereinafter, an example of a You Only Look Once (YOLO) model to which the method proposed in the present specification can be applied will be described.

기계 학습 분야 혹은 딥러닝 분야에서 사용되는 YOLO 모델은 실시간으로 영상 내의 의미 영역을 검출하는 기술로서, 의미 영역은 임의의 영상 내에 포함될 수 있는 사람의 얼굴, 자동차, 나무, 안경 등과 같은 객체에 대한 영상 패턴이다. YOLO 모델은 지도 학습(supervised learning) 방식의 기계 학습 알고리즘으로 인식할 의미 영역과 이에 대한 분류 정보(즉, 레이블링)를 쌍으로 학습 데이터를 생성하는 단계, 수천 이상의 학습 데이터를 입력 파라미터로 하는 학습 모델 데이터 생성 단계, 그리고 학습 모델 데이터를 이용하여 임의의 영상에서 학습된 의미 영역을 추출하는 객체 분류 단계를 포함하여 구성될 수 있다.The YOLO model used in the machine learning field or deep learning field is a technology that detects a semantic region in an image in real time. It's a pattern. The YOLO model is a supervised learning-type machine learning algorithm, in which the semantic domain to be recognized and its classification information (ie, labeling) are paired to generate training data, and a learning model using thousands of training data as input parameters. It may be configured to include a data generation step and an object classification step of extracting a learned semantic region from an arbitrary image using the learning model data.

YOLO 모델을 활용하는 분야의 예로, 디지털 카메라를 이용하여 도로 상에 주행 중인 임의 차량의 종류를 구분하기 위해서 차량 이미지와 차량 이미지에 대한 분류 정보(예: 트럭, 버스, 승용차 등)의 쌍으로 이루어진 수천 건 이상의 학습 데이터를 준비하고, 학습 데이터를 입력 파라미터로 한 YOLO 모델 기계 학습 기능을 실행하여 모델 데이터를 생성하며, 생성된 모델 데이터와 임의의 이미지를 입력 파라미터로 YOLO 모델의 분류 기능을 실행하면 의미 영역의 추출 결과를 바운딩 박스(bounding box)와 바운딩 박스에 대한 분류 정보 형태로 제공할 수 있다. YOLO 모델은 기계 학습 영상 인식 분야에서 성능 및 정확도가 높고 수행 속도가 빠르기 때문에 자율주행 자동차, 영상 내 인물 탐지 등 실시간 사물 인지 분야 등에 사용할 수 있다.As an example of a field that uses the YOLO model, it consists of a pair of vehicle images and classification information (eg, trucks, buses, passenger cars, etc.) If you prepare thousands of training data, run the YOLO model machine learning function using the training data as input parameters to generate model data, and execute the classification function of the YOLO model using the generated model data and arbitrary images as input parameters. The extraction result of the semantic region may be provided in the form of a bounding box and classification information on the bounding box. The YOLO model can be used in real-time object recognition fields such as self-driving cars and person detection in images because of its high performance and accuracy and fast execution speed in the field of machine learning image recognition.

YOLO 모델의 객체 분류 단계에서는 구체적으로 의미 영역의 정확한 검출을 위한 초기 검출 객체의 목표 신뢰도를 설정하며, 입력 영상을 일정 크기의 바운딩 박스 단위로 분할한다. 객체 검출 과정은 분할된 모든 바운딩 박스에 대하여 바운딩 박스 내부에 포함될 수 있는 검출 후보 객체 신뢰도를 계산하며, 계산된 검출 후보 객체 신뢰도가 초기 검출 목표 신뢰도 이상일 경우 해당 바운딩 박스를 추출한다. 객체 검출 과정을 통해서 바운딩 박스가 추출되지 않을 경우 바운딩 박스의 크기를 조정하고 반복적으로 객체 검출 과정을 실행한다.In the object classification step of the YOLO model, the target reliability of the initial detection object is specifically set for accurate detection of the semantic region, and the input image is divided into bounding box units of a certain size. The object detection process calculates the detection candidate object reliability that can be included in the bounding box for all the divided bounding boxes, and extracts the corresponding bounding box when the calculated detection candidate object object reliability is equal to or greater than the initial detection target reliability. If the bounding box is not extracted through the object detection process, the size of the bounding box is adjusted and the object detection process is repeatedly executed.

또한, 본 명세서에서 제안하는 방법은 전이 학습(transfer learning)을 통해 YOLO 모델의 객체 검출 속도와 신뢰도를 향상시킨다. 전이 학습은 기계 학습 분야에서 학습 데이터가 부족한 문제를 보완할 수 있는 수단으로, source domain에 대한 지식을 target domain으로 전이시켜 적은 학습 데이터 상황에서 모델을 학습시키는 기법이다.In addition, the method proposed in the present specification improves the object detection speed and reliability of the YOLO model through transfer learning. Transfer learning is a means to compensate for the lack of learning data in the field of machine learning. It is a technique that transfers knowledge of the source domain to the target domain to train the model in the context of little learning data.

전이 학습의 적용 방법은 먼저 source domain에서 데이터를 통해 네트워크를 사전 학습시키게 된다. 이후 전이 학습을 적용하기 위해 source domain 네트워크에 추가적으로 계층을 추가하여 transfer learning 네트워크를 구성한다. 이후 target domain 데이터를 활용해 전이 학습 네트워크를 학습시켜 새로운 target domain에 대한 출력을 얻게 된다. 이 일련의 과정을 전이 학습 과정이라고 하며, 사전 학습된 source domain 네트워크에 새로운 계층을 추가하여 target domain에서 전이 학습 모델을 학습시키는 것을 fine-tuning이라고 한다. 전이 학습은 이처럼 사전 학습된 네트워크의 지식이 새로운 target domain으로 전이되어 적은 데이터로도 좋은 성능을 나타내는 특징이 있다.In the application method of transfer learning, the network is pre-trained through data in the source domain first. Afterwards, to apply transfer learning, an additional layer is added to the source domain network to construct a transfer learning network. After that, the transfer learning network is trained using the target domain data to obtain an output for the new target domain. This series of processes is called transfer learning process, and adding a new layer to the pre-trained source domain network to train the transfer learning model in the target domain is called fine-tuning. Transfer learning has the characteristic of showing good performance even with a small amount of data as the knowledge of the pre-trained network is transferred to a new target domain.

이하에서는 첨부의 도 10 내지 도 15를 참조하여 본 명세서에서 제안하는 방법이 적용될 수 있는 차량-인프라 간 광카메라 통신 기술에 대해서 개략적으로 설명한다.Hereinafter, a vehicle-to-infrastructure optical camera communication technology to which the method proposed in the present specification can be applied will be schematically described with reference to the accompanying FIGS. 10 to 15 .

본 명세서에서 제안하는 차량-인프라 간 광카메라 통신 방법에서의 송신부 인식 방법은 차량에 설치된 블랙박스 등의 디지털 카메라 또는 미리 촬영된 영상 데이터를 이용하여 도로에 설치된 송신부의 종류를 구분하기 위해서 다양한 송신부의 이미지와 다양한 송신부의 이미지에 대한 분류 정보, 예를 들어 교통신호등, 교통표지판, 교통안내용 전광판 등의 도로 인프라 상의 LED 송신부의 분류 정보의 쌍으로 이루어진 수천 건 이상의 학습 데이터를 준비하고, 학습 데이터를 입력 파라미터로 한 YOLO 모델 기계 학습 기능을 실행하여 모델 데이터를 생성하며, 생성된 모델 데이터와 임의의 이미지를 입력 파라미터로 YOLO 모델의 분류 기능을 실행함으로써 의미 영역의 추출 결과를 바운딩 박스와 바운딩 박스에 대한 분류 정보 형태로 제공할 수 있다. 본 명세서에는 여기에 더하여 의미 영역의 추출 결과에 바운딩 박스를 설정할 때, 전체 송신부의 이미지에서 실제로 광을 출력하는 LED 어레이, 즉 광원에 대해서만 관심 영역을 설정하여 차량-인프라 간 광카메라 통신 장치에서 광 신호의 수신율을 더 높일 수 있도록 한다.The transmitter recognition method in the vehicle-infrastructure optical camera communication method proposed in the present specification uses a digital camera such as a black box installed in a vehicle or pre-photographed image data to distinguish the types of transmitters installed on the road. Prepare thousands or more of training data consisting of a pair of classification information for images and images of various transmitters, for example, classification information of LED transmitters on road infrastructure such as traffic lights, traffic signs, and electric signs for traffic guidance. Executes the YOLO model machine learning function as an input parameter to generate model data, and executes the classification function of the YOLO model using the generated model data and arbitrary images as input parameters. It can be provided in the form of classification information for In addition to this, in this specification, when setting the bounding box to the extraction result of the semantic region, the region of interest is set only for the LED array that actually outputs light in the image of the entire transmitter, that is, the light source in the vehicle-infrastructure optical camera communication device. This allows the signal reception rate to be further increased.

도 10은 차량-인프라 간 광카메라 통신의 개념을 도시하고, 도 11은 본 발명의 일 실시 예에 따른 YOLO 검출 기반의 차량-인프라 간 광카메라 통신 시스템의 개념을 도시한다.10 shows the concept of vehicle-infrastructure optical camera communication, and FIG. 11 shows the concept of a vehicle-infrastructure optical camera communication system based on YOLO detection according to an embodiment of the present invention.

도 10을 참조하면, 차량-인프라 간 광카메라 통신은 차량(1000, 1010)에 설치된 광카메라(도시하지 않음)가 교통신호등(1020), 교통표지판(1030), 교통안내 전광판(1040) 등의 도로 인프라 상에서 LED 어레이를 포함하여 구성된 송신부로부터 광학 신호로 변조된 데이터를 수신하는 것이다. 광학 신호로 변조된 데이터에는 차량의 센서만으로 판단하기 어려운 차량 주변 환경에 대한 정보, 교통 상황 정보 등이 포함될 수 있다. 상기 교통 상황 정보 등은 도로를 관리하는 중앙 관제 센터 등에서 취합 및 생성하여 전송할 수 있다.Referring to FIG. 10, the optical camera communication between the vehicle and the infrastructure includes an optical camera (not shown) installed in the vehicles 1000 and 1010 such as a traffic light 1020, a traffic sign 1030, a traffic guide electronic sign 1040, etc. Receiving data modulated into optical signals from a transmitter configured including an LED array on road infrastructure. The data modulated by the optical signal may include information about the environment around the vehicle, traffic situation information, and the like, which is difficult to determine only with the sensor of the vehicle. The traffic situation information and the like may be collected, generated, and transmitted by a central control center that manages roads.

이 경우, 차량(1000, 1010)은 이동 중에 차량에 구비된 카메라를 통해서 도로 인프라 상의 송신부들을 촬영하는데, 차량의 이동에 따른 송신부의 급격한 위치변화로 인해 데이터 추출을 위한 관심영역의 설정이나 관심영역의 추적이 불안정해지기 때문에 데이터의 수신율이 낮아지게 된다. 따라서, 본 발명은 도로 인프라 상의 송신부들을 검출하는 데 있어 YOLO 모델에 의한 학습을 실행하여 송신부에 대한 인식률을 향상시킬 수 있다.In this case, the vehicles 1000 and 1010 photograph the transmitters on the road infrastructure through a camera provided in the vehicle while moving. Since the tracking of the data becomes unstable, the data reception rate is lowered. Therefore, the present invention can improve the recognition rate of the transmitter by executing the learning by the YOLO model in detecting the transmitters on the road infrastructure.

도 11을 참조하면, 차량-인프라 간 광카메라 통신 시스템(1100)은 도로 인프라에 설치되어 광 변조된 데이터를 송신하는 송신 장치(1110)와 차량에 설치되어 상기 광 변조된 데이터를 수신하는 수신 장치(1120)를 포함하여 구성될 수 있다.Referring to FIG. 11 , the vehicle-infrastructure optical camera communication system 1100 includes a transmission device 1110 installed in road infrastructure to transmit optically modulated data, and a reception device installed in a vehicle to receive the optically modulated data. 1120 may be included.

송신 장치(1110)는 인코더(1112), 모듈레이터(1113) 및 교통신호등(1114)을 포함하여 구성될 수 있다.The transmitter 1110 may include an encoder 1112 , a modulator 1113 , and a traffic light 1114 .

인코더(1112)는 입력된 데이터(1111)를 전송하기 위한 형태로 인코딩하고, 모듈레이터(1113)는 인코딩된 입력 데이터를 광학 신호로 송신하기 위해 변조하며, 교통신호등(1114)은 변조된 데이터를 광학 신호로 생성하여 출력한다. 본 실시 예에서는 광학 신호를 출력하는 송신부의 예로서 LED 어레이를 포함하는 교통신호등(1114)을 예로 들었지만, 송신부로는 도 10의 교통표지판(1030), 교통안내 전광판(1040) 등 도로 인프라 상에서 광학 신호를 전송할 수 있는 모든 장치가 사용될 수 있다.The encoder 1112 encodes the input data 1111 into a form for transmission, the modulator 1113 modulates the encoded input data to transmit an optical signal, and the traffic light 1114 optically transmits the modulated data. It generates and outputs a signal. In this embodiment, a traffic light 1114 including an LED array is exemplified as an example of a transmitter for outputting an optical signal, but as a transmitter, the traffic sign 1030 of FIG. Any device capable of transmitting a signal can be used.

수신 장치(1120)는 카메라(1121), 영상처리부(1122) 및 디코더(1123)를 포함하여 구성될 수 있다.The reception device 1120 may include a camera 1121 , an image processing unit 1122 , and a decoder 1123 .

카메라(1121)는 송신 장치(1110)의 교통신호등(1114)을 촬영하기 위해 촬영 범위 안에 있는 도로 인프라를 포함한 주위 환경을 촬영할 수 있다.The camera 1121 may photograph the surrounding environment including the road infrastructure within the photographing range in order to photograph the traffic light 1114 of the transmitting device 1110 .

영상처리부(1122)는 촬영된 도로 인프라에 대한 영상을 YOLO 모델로 처리하여 교통신호등(1114)을 인식한 뒤, 광학 신호를 수신할 수 있다.The image processing unit 1122 may process the photographed image of the road infrastructure as a YOLO model to recognize the traffic light 1114 and then receive an optical signal.

디코더(1123)는 수신된 광학 신호를 디코딩하여 전송된 데이터를 출력(1124)한다.The decoder 1123 decodes the received optical signal and outputs 1124 the transmitted data.

도시된 구성요소들은 필수적인 것은 아니어서, 그 보다 많은 구성요소들을 갖거나, 그보다 적은 구성요소들을 갖는 차량-인프라 간 광카메라 통신 시스템이 구현될 수도 있다. 이러한 구성요소는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합을 통해서 구현될 수 있다.The illustrated components are not essential, so a vehicle-infrastructure optical camera communication system having more or fewer components may be implemented. These components may be implemented as hardware or software, or may be implemented through a combination of hardware and software.

한편, 영상처리부(1122)가 YOLO 모델을 이용하여 광학 신호를 수신하는 방법은 다음의 과정을 통해서 이루어질 수 있다.Meanwhile, a method for the image processing unit 1122 to receive an optical signal using the YOLO model may be performed through the following process.

먼저, 영상처리부(1122)는 촬영된 도로 인프라에 대한 영상을 YOLO 모델로 처리한다(S1131).First, the image processing unit 1122 processes the captured image of the road infrastructure as a YOLO model (S1131).

이어서, 영상처리부(1122)는 촬영된 도로 인프라에 대한 영상에서 교통신호등(1114)을 검출한 뒤, 검출된 교통신호등(1114)에 바운딩 박스를 설정한다(S1132).Next, the image processing unit 1122 detects the traffic light 1114 from the photographed image of the road infrastructure, and then sets a bounding box to the detected traffic light 1114 ( S1132 ).

다음으로, 영상처리부(1122)는 데이터 수신을 위해 입력되는 영상 데이터에서 교통신호등(1114)를 지속적으로 추적하면서 바운딩 박스를 출력한다(S1133).Next, the image processing unit 1122 outputs a bounding box while continuously tracking the traffic light 1114 in the image data input for data reception (S1133).

마지막으로, 영상처리부(1122)는 출력된 바운딩 박스 안의 교통신호등(1114)의 영상에서 광학 신호를 추출하여 데이터를 추출한다(S1134).Finally, the image processing unit 1122 extracts the data by extracting the optical signal from the image of the traffic light 1114 in the output bounding box (S1134).

한편, 전술한 송신 장치(1110)에서 교통신호등(1114)을 제외한 다른 모든 구성요소들은 교통신호등(1114)이 설치된 장소와는 다른 별도의 장소(예컨데, 중앙 관제 센터)에 설치될 수 있으며, 교통신호등(1114)과 중앙 관제 센터는 별도의 네트워크로 연결되어 중앙 관제 센터에서 전송하고자 하는 입력 데이터를 인코딩 및 모듈레이팅을 수행한 데이터를 상기 네트워크를 통해 교통신호등(1114)으로 전송할 수 있다.On the other hand, in the above-described transmitting device 1110, all other components except the traffic light 1114 may be installed in a separate place (eg, central control center) different from the place where the traffic light 1114 is installed, The traffic light 1114 and the central control center may be connected to a separate network to transmit data obtained by encoding and modulating input data to be transmitted from the central control center to the traffic light 1114 through the network.

본 명세서에서 개시되는 네트워크는 예를 들어, 무선 네트워크, 유선 네트워크, 인터넷과 같은 공용 네트워크, 사설 네트워크, 모바일 통신 네트워크용 광역 시스템(Global System for Mobile communication network; GSM) 네트워크, 범용 패킷 무선 네트워크(General Packet Radio Network; GPRN), 근거리 네트워크(Local Area Network; LAN), 광역 네트워크(Wide Area Network; WAN), 거대도시 네트워크(Metropolitan Area Network; MAN), 셀룰러 네트워크, 공중 전화 교환 네트워크(Public Switched Telephone Network; PSTN), 개인 네트워크(Personal Area Network), 블루투스, Wi-Fi 다이렉트(Wi-Fi Direct), 근거리장 통신(Near Field communication), 초 광 대역(Ultra-Wide band), 이들의 조합, 또는 임의의 다른 네트워크일 수 있지만 이들로 한정되는 것은 아니다.The networks disclosed herein include, for example, wireless networks, wired networks, public networks such as the Internet, private networks, Global System for Mobile communication network (GSM) networks, and general packet wireless networks (General). Packet Radio Network (GPRN), Local Area Network (LAN), Wide Area Network (WAN), Metropolitan Area Network (MAN), Cellular Network, Public Switched Telephone Network ; PSTN), Personal Area Network, Bluetooth, Wi-Fi Direct, Near Field communication, Ultra-Wide band, a combination thereof, or any may be, but not limited to, other networks of

도 12는 본 발명의 실시 예에 따른 차량-인프라 간 광카메라 통신에서의 송신부 인식 장치(1200)를 도시한다. 송신부 인식 장치(1200)는 도 11의 영상처리부(1122)의 기능을 모두 포함할 수 있다.12 illustrates a transmitter recognition apparatus 1200 in vehicle-infrastructure-to-infrastructure optical camera communication according to an embodiment of the present invention. The transmitter recognition apparatus 1200 may include all functions of the image processing unit 1122 of FIG. 11 .

도 12를 참조하면, 본 발명의 실시 예에 따른 차량-인프라 간 광카메라 통신에서의 송신부 인식 장치(1200)는 데이터 수신부(1210), 학습 데이터 생성부(1220), 모델 학습부(1230), 및 송신부 인식부(1240)를 포함하여 구성될 수 있다.12 , the apparatus 1200 for recognizing a transmitter in vehicle-infrastructure optical camera communication according to an embodiment of the present invention includes a data receiver 1210 , a training data generator 1220 , a model learner 1230 , and a transmitter recognition unit 1240 .

데이터 수신부(1210)는 카메라에서 촬영된 도로 인프라 상에 존재하는 송신부에 대한 영상 데이터를 수신할 수 있다. 도로 인프라 상의 송신부는 교통신호등, 교통표지판, 교통안내용 전광판 등의 LED 어레이를 포함하여 구성될 수 있다.The data receiver 1210 may receive image data for a transmitter existing on the road infrastructure photographed by the camera. The transmitter on the road infrastructure may be configured to include an LED array such as a traffic light, a traffic sign, and an electric sign for traffic guidance.

학습 데이터 생성부(1220)는 상기 도로 인프라 상의 송신부에 대한 바운딩 박스(bounding box) 및 상기 송신부에 대한 분류 정보를 매칭하여 데이터 셋을 구성할 수 있다. 특히, 학습 데이터 생성부(1220)는 송신부에서 광원 부분에 대해서만 바운딩 박스를 설정할 수 있다. 즉, 바운딩 박스가 송신부 전체가 아닌 송신부에서 광학 신호를 출력하는 LED 어레이 만을 둘러싸도록 설정할 수 있다. 바운딩 박스는 LED 어레이 보다 약간 크게 설정하여 LED 어레이를 바운딩 박스 안에 포함시키되, LED 어레이 이외의 불필요한 부분이 최대한 제거되도록 설정될 수 있다.The training data generator 1220 may configure a data set by matching a bounding box for a transmitter on the road infrastructure and classification information for the transmitter. In particular, the learning data generating unit 1220 may set the bounding box only for the light source part of the transmitter. That is, the bounding box may be set to surround only the LED array that outputs the optical signal from the transmitter, not the entire transmitter. The bounding box may be set to be slightly larger than the LED array to include the LED array in the bounding box, but may be set to remove unnecessary parts other than the LED array as much as possible.

또한, 학습 데이터 생성부(1220)는 도로 상의 인프라에 대한 영상 데이터에서 송신부를 라벨링하여 송신부 검출에 대한 가중치를 업데이트된 데이터 셋을 생성할 수 있다.Also, the training data generator 1220 may generate a data set in which a weight for detecting a transmitter is updated by labeling the transmitter in image data for infrastructure on the road.

모델 학습부(1230)는 상기 데이터 셋을 이용하여 YOLO 모델을 학습시킬 수 있다.The model learning unit 1230 may train the YOLO model using the data set.

송신부 인식부(1240)는 상기 도로 인프라 상의 송신부에 대한 영상 데이터를 모델 학습부(1230)를 통해 학습된 YOLO 모델에서 처리하여 출력되는 바운딩 박스를 광카메라 통신의 송신부로서 인식할 수 있다. 상기 송신부 인식부는 바운딩 박스 내의 광원에 대한 영상으로부터 광카메라 통신 신호를 추출할 수 있다.The transmitter recognition unit 1240 may recognize the bounding box output by processing the image data for the transmitter on the road infrastructure in the YOLO model learned through the model learning unit 1230 as a transmitter of optical camera communication. The transmitter recognition unit may extract an optical camera communication signal from an image of a light source in a bounding box.

도 13은 송신부 인식의 예를 도시하는 것으로, YOLO 모델에 의한 송신부에 대한 바운딩 박스 출력 결과의 예를 도시한 것으로, 도 13을 참조하면, YOLO 모델은 송신부 전체를 둘러싸는 바운딩 박스(1310)를 설정하여 출력하고, 해당 바운딩 박스 내의 송신부의 분류에 대한 정보(1320)를 함께 출력한다. 그러나, 송신부 전체를 둘러싸는 바운딩 박스(1310)를 사용할 경우에는 바운딩 박스(1310) 내에서 실제로 LED가 차지하는 영역은 작은 부분이 되기 때문에 LED의 On 또는 Off 상태에 대한 바운딩 박스 내의 광의 평균 강도의 차이가 크지 않기 때문에 수신되는 신호의 검출에 어려움이 발생할 수 있다.13 shows an example of transmitter recognition, and shows an example of a bounding box output result for the transmitter by the YOLO model. Referring to FIG. 13, the YOLO model shows a bounding box 1310 surrounding the entire transmitter. It is set and output, and information 1320 about the classification of the transmitter in the corresponding bounding box is also output. However, when the bounding box 1310 surrounding the entire transmitter is used, the area actually occupied by the LED in the bounding box 1310 becomes a small part, so the difference in the average intensity of light in the bounding box for the On or Off state of the LED Since is not large, it may be difficult to detect a received signal.

그러나, 도 14에 도시한 바와 같이, 본 발명의 실시 예에 따른 송신부 인식 장치는 도로 인프라가 포함되어 있는 영상을 YOLO 모델에 의한 처리한 뒤, 송신부에서 광원 만을 포함하는 바운딩 박스(1410, 1420)를 설정하여 출력할 수 있기 때문에 바운딩 박스(1410, 1420) 내에서 실제로 LED가 차지하는 영역은 큰 비율을 차지하기 때문에 LED의 On 또는 Off 상태에 대한 바운딩 박스 내의 광의 평균 강도의 차이가 크게 된다. 따라서 본 발명의 실시 예에 따른 송신부 인식 장치는 수신되는 신호의 검출이 용이하다.However, as shown in FIG. 14 , the apparatus for recognizing the transmitter according to an embodiment of the present invention processes the image including the road infrastructure by the YOLO model, and then the transmitter includes only the light source in the bounding box 1410 and 1420. can be set and output, since the area actually occupied by the LED in the bounding boxes 1410 and 1420 occupies a large proportion, the difference in average intensity of light in the bounding box with respect to the On or Off state of the LED becomes large. Therefore, the apparatus for recognizing a transmitter according to an embodiment of the present invention can easily detect a received signal.

도 14는 본 발명의 실시 예에 따른 송신부 인식 장치에서 YOLO 모델에 의한 송신부에 대한 인식 결과의 예를 도시하는 것으로, 도 14(a)는 송신부가 신호등인 경우에 송신부에 대한 바운딩 박스(1410) 출력 결과의 예를 도시하고, 도 14(b)는 송신부가 가로등인 경우에 송신부에 대한 바운딩 박스(1420) 출력 결과의 예를 도시한다.14 shows an example of the recognition result of the transmitter by the YOLO model in the apparatus for recognizing the transmitter according to an embodiment of the present invention, and FIG. 14 (a) is a bounding box 1410 for the transmitter when the transmitter is a traffic light An example of the output result is shown, and FIG. 14(b) shows an example of the output result of the bounding box 1420 for the transmitter when the transmitter is a street lamp.

바운딩 박스 내에서 출력되는 광에 대한 강도 히스토그램(intensity histogram) 분석을 통해서 LED가 검출되는 영역만을 별도로 추출하여 광통신 데이터를 수신할 수도 있지만, 이 경우에는 영상 분석 과정이 추가되기 때문에 광학 신호의 검출에 지연이 발생할 수 있다.Optical communication data can be received by separately extracting only the area where the LED is detected through intensity histogram analysis of the light output from the bounding box. Delays may occur.

도 15는 본 발명의 실시 예에 따른 송신부 인식 장치(1200)의 송신부 검출 방법을 설명한다.15 illustrates a transmitter detection method of the transmitter recognizing apparatus 1200 according to an embodiment of the present invention.

도 15를 참조하면, 본 발명의 실시 예에 따른 차량-인프라 간 광카메라 통신의 송신부 인식 장치에 의해 수행되는 송신부 인식 방법은 도로 인프라 상의 송신부에 대한 영상 데이터를 수신하는 단계(S1510), 도로 인프라 상의 송신부에 대한 바운딩 박스(bounding box) 및 상기 송신부에 대한 분류 정보를 매칭하여 데이터 셋을 구성하되, 송신부에서 광원 부분에 대해서만 바운딩 박스를 설정하는 단계(S1520), 데이터 셋을 이용하여 YOLO 모델을 학습시키는 단계(S1530), 및 학습된 YOLO 모델로 입력되는 도로 인프라에 대한 영상 데이터를 처리하여 출력되는 바운딩 박스를 광카메라 통신의 송신부로서 인식하는 단계(S1540)를 포함할 수 있다.Referring to FIG. 15 , the transmitter recognition method performed by the apparatus for recognizing a transmitter of vehicle-infrastructure optical camera communication according to an embodiment of the present invention includes receiving image data for a transmitter on a road infrastructure (S1510), road infrastructure A data set is configured by matching a bounding box for the transmitter of the image and classification information about the transmitter, but setting a bounding box only for the light source part in the transmitter (S1520), a YOLO model using the data set It may include learning (S1530), and recognizing a bounding box output by processing image data for road infrastructure input to the learned YOLO model as a transmitter of optical camera communication (S1540).

여기에서, 데이터 셋을 구성하는 단계는, 영상 데이터에서 송신부를 라벨링하여 송신부 검출에 대한 가중치를 업데이트 하는 단계를 포함할 수 있다. 상기 데이터 셋은 상기 송신부가 종류별로 레이블링 되어 있을 수 있다. 또한, 상기 송신부는 LED 신호등, LED 가로등, LED 교통안내표지, LED 교통안내 전광판 및 LED 광고판 등을 포함하고, 이 외에도 입력된 데이터를 광 변조하여 출력할 수 있는 조명 수단은 어느 것이라도 송신부로 사용 가능하다.Here, the configuring of the data set may include updating the weight for detecting the transmitter by labeling the transmitter in the image data. In the data set, the transmitter may be labeled for each type. In addition, the transmitter includes an LED traffic light, an LED street light, an LED traffic information sign, an LED traffic guide sign, and an LED advertising board. It is possible.

또한, 바운딩 박스를 설정하는 단계는, 송신부에 대한 전체 이미지에서 LED 광원 부분만을 포함하는 영역을 바운딩 박스로 설정하는 단계를 포함할 수 있다. In addition, the step of setting the bounding box may include setting a region including only the LED light source portion in the entire image for the transmitter as the bounding box.

또한, 본 발명의 실시 예에 따른 차량-인프라 간 광카메라 통신의 송신부 인식 장치에 의해 수행되는 송신부 인식 방법은 상기 바운딩 박스 내의 광원으로부터 광카메라 통신 신호를 추출하는 단계를 더 포함할 수 있다.In addition, the transmission unit recognition method performed by the apparatus for recognizing the transmission unit of vehicle-infrastructure optical camera communication according to an embodiment of the present invention may further include extracting an optical camera communication signal from a light source in the bounding box.

한편, 본 발명의 다른 실시 예에 따라, 차량-인프라 간 광카메라 통신의 송신부 인식 장치에 의해 수행되는 송신부 인식 방법은 도로 인프라 상의 송신부에 대한 영상 데이터를 수신하여 YOLO 모델의 학습을 위한 데이터 셋을 구성하는 단계; 상기 데이터 셋을 이용하여 YOLO 모델을 학습시키는 단계; 및 상기 학습된 YOLO 모델로 입력되는 영상 데이터를 처리하여 도로 인프라 상의 송신부에 대한 인식 결과를 출력하되, 상기 인식된 송신부의 전체 이미지에서 광원 부분에 대해서만 바운딩 박스를 설정하여 출력하는 단계를 포함할 수 있다.Meanwhile, according to another embodiment of the present invention, the transmitter recognition method performed by the transmitter recognition device for vehicle-infrastructure optical camera communication receives image data for the transmitter on the road infrastructure and selects a data set for learning the YOLO model. constructing; training a YOLO model using the data set; and processing the image data input to the learned YOLO model and outputting a recognition result for the transmitter on the road infrastructure, but setting and outputting a bounding box only for the light source part in the entire image of the recognized transmitter. have.

상술한 설명에서, 상기 단계들은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 전환될 수도 있다.In the above description, the steps may be further divided into additional steps or combined into fewer steps, depending on the embodiment of the present invention. In addition, some steps may be omitted as necessary, and the order between the steps may be switched.

본 명세서에서 사용된 용어 "부"는(예를 들면, 제어부 등), 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "부"는, 예를 들어, 유닛(unit), 로직(logic), 논리블록(logical block), 부품(component), 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "부"는, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "부"는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "부"는 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들어, "부"는, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(Application-Specific Integrated Circuit) 칩, FPGAs(Field-Programmable Gate Arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.As used herein, the term “unit” (eg, a control unit, etc.) may mean a unit including, for example, one or a combination of two or more of hardware, software, or firmware. The term “unit” may be used interchangeably with terms such as, for example, unit, logic, logical block, component, or circuit. A "part" may be a minimum unit of a component integrally formed or a part thereof. A “unit” may be a minimum unit or a part of performing one or more functions. “Part” may be implemented mechanically or electronically. For example, a “unit” may be one of an Application-Specific Integrated Circuit (ASIC) chip, Field-Programmable Gate Arrays (FPGAs), or programmable-logic device that performs certain operations, known or to be developed in the future. It may include at least one.

다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들어, 메모리가 될 수 있다.At least a portion of an apparatus (eg, modules or functions thereof) or a method (eg, operations) according to various embodiments is, for example, a computer-readable storage medium in the form of a program module It can be implemented as a command stored in . When the instruction is executed by a processor, the one or more processors may perform a function corresponding to the instruction. The computer-readable storage medium may be, for example, a memory.

컴퓨터로 읽을 수 있는 저장매체/컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM(compact disc read only memory), DVD(digital versatile disc), 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM(read only memory), RAM(random access memory), 또는 플래시 메모리 등) 등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.Computer-readable storage media/computer-readable recording media include hard disks, floppy disks, magnetic media (eg, magnetic tape), and optical media (eg, compact CD-ROMs). disc read only memory), digital versatile disc (DVD), magneto-optical media (e.g., floptical disk), hardware devices (e.g., read only memory (ROM), random (RAM) access memory), or flash memory, etc.) In addition, program instructions may include high-level language code that can be executed by a computer using an interpreter, etc. as well as machine code such as generated by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the various embodiments, and vice versa.

다양한 실시예에 따른 모듈 또는 프로그램 모듈은 전술된 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.A module or program module according to various embodiments may include at least one or more of the above-described components, some may be omitted, or may further include additional other components. Operations performed by a module, a program module, or other components according to various embodiments may be executed sequentially, in parallel, iteratively, or in a heuristic manner. Also, some operations may be executed in a different order, omitted, or other operations may be added.

본 명세서에 사용된 용어 "하나"는 하나 또는 하나 이상으로 정의된다. 또한, 청구 범위에서 "적어도 하나" 및 "하나 이상"과 같은 도입 문구를 사용하는 것은, 동일한 청구항에 "적어도 하나" 및 "하나 이상"과 같은 도입 문구 및 "하나" 같은 불명료한 문구가 포함되어 있는 경우라 할지라도, 불명료한 문구 "하나"에 의한 다른 청구항 요소의 도입이 그러한 요소를 하나만을 포함하는 발명에 대해 그렇게 도입된 청구항 요소를 포함하는 임의의 특정 청구항을 제한한다는 것을 의미하는 것으로 해석되어서는 안된다.As used herein, the term “a” is defined as one or more than one. Also, the use of introductory phrases such as “at least one” and “one or more” in a claim includes introductory phrases such as “at least one” and “one or more” and an obscure phrase such as “a” in the same claim. The introduction of another claim element by the ambiguous phrase "an", even if there is any, shall be construed to mean to limit any particular claim containing the claim element so introduced, to an invention containing only one such element. shouldn't be

달리 명시하지 않는 한, "제1" 및 "제2"와 같은 용어는 그러한 용어가 설명하는 요소들을 임의로 구별하는 데 사용된다. 따라서, 이들 용어는 그러한 요소들의 시간적 또는 다른 우선 순위를 나타내도록 반드시 의도된 것은 아니며, 특정 수단이 서로 다른 청구항들에 열거되어 있다는 단순한 사실만으로 이러한 수단들의 조합이 유리하게 사용될 수 없다는 것을 나타내는 것은 아니다. 따라서, 이들 용어는 그러한 요소의 시간적 또는 다른 우선 순위를 나타내도록 반드시 의도되지는 않는다. 특정 조치가 서로 다른 주장에 인용되었다는 단순한 사실만으로 이러한 조치의 조합이 유용하게 사용될 수 없다는 것을 나타내지는 않는다.Unless otherwise specified, terms such as “first” and “second” are used to arbitrarily distinguish the elements described by such terms. Accordingly, these terms are not necessarily intended to indicate a temporal or other priority of such elements, and the mere fact that certain measures are recited in different claims does not indicate that a combination of these measures cannot be used to advantage. . Accordingly, these terms are not necessarily intended to indicate the temporal or other priorities of such elements. The mere fact that certain measures are cited in different claims does not indicate that a combination of these measures cannot be useful.

동일한 기능을 달성하기 위한 구성 요소의 배열은 효과적으로 "관련"되어 원하는 기능이 달성된다. 따라서, 특정 기능성을 달성하기 위해 결합된 임의의 2 개의 구성 요소는 구조 또는 중개하는 구성 요소와 관계없이 원하는 기능이 달성되도록 서로 "관련"되는 것으로 간주될 수 있다. 마찬가지로 이와 같이 연관된 두 개의 구성 요소는 원하는 기능을 달성하기 위해 서로 "작동 가능하게 연결"되거나 "작동 가능하게 결합된" 것으로 간주될 수 있다.The arrangement of components to achieve the same function is effectively “related” such that the desired function is achieved. Thus, any two components combined to achieve a particular functionality may be considered "related" to each other so that the desired function is achieved, regardless of structure or intervening component. Likewise, two components thus associated may be considered “operably connected” or “operably coupled” to each other to achieve a desired function.

또한, 통상의 기술자는 전술한 동작들의 기능성 사이의 경계가 단지 예시적인 것임을 인식할 것이다. 복수의 동작들은 단일 동작으로 결합될 수 있고, 단일 동작은 추가 동작들로 분산될 수 있으며, 동작들은 시간적으로 적어도 부분적으로 겹쳐서 실행될 수 있다. 또한, 대안적인 실시예들은 특정 동작에 대한 복수의 인스턴스들을 포함할 수 있고, 동작들의 순서는 다양한 다른 실시예에서 변경될 수 있다. 그러나, 다른 수정, 변형 및 대안이 또한 가능하다. 따라서, 상세한 설명 및 도면은 제한적인 의미가 아니라 예시적인 것으로 간주되어야 한다.Also, those skilled in the art will recognize that the boundaries between the functionality of the operations described above are illustrative only. A plurality of operations may be combined into a single operation, the single operation may be distributed into additional operations, and the operations may be executed at least partially overlapping in time. Also, alternative embodiments may include multiple instances of a particular operation, and the order of operations may be changed in various other embodiments. However, other modifications, variations and alternatives are also possible. Accordingly, the detailed description and drawings are to be regarded in an illustrative rather than a restrictive sense.

"X일 수 있다"는 문구는 조건 X가 충족될 수 있음을 나타낸다. 이 문구는 또한 조건 X가 충족되지 않을 수도 있음을 나타낸다. 예를 들어, 특정 구성 요소를 포함하는 시스템에 대한 참조는 시스템이 특정 구성 요소를 포함하지 않는 시나리오도 포함해야 한다. 예를 들어, 특정 동작을 포함하는 방법에 대한 참조는 해당 방법이 특정 구성 요소를 포함하지 않는 시나리오도 포함해야 한다. 그러나 또 다른 예를 들면, 특정 동작을 수행하도록 구성된 시스템에 대한 참조는 시스템이 특정 작업을 수행하도록 구성되지 않은 시나리오도 포함해야 한다.The phrase “may be X” indicates that condition X may be satisfied. This phrase also indicates that condition X may not be met. For example, a reference to a system that includes a particular component should also include a scenario in which the system does not contain the specific component. For example, a reference to a method that includes a particular action should also include a scenario in which the method does not include the particular component. As another example, however, references to a system configured to perform a specific action should also include scenarios in which the system is not configured to perform a specific action.

용어 "포함하는", "갖는", "구성된", "이루어진" 및 "본질적으로 이루어진"은 상호 교환적으로 사용된다. 예를 들어, 임의의 방법은 적어도 도면 및/또는 명세서에 포함된 동작을 포함할 수 있으며, 도면 및/또는 명세서에 포함된 동작만을 포함할 수 있다.The terms “comprising,” “having,” “consisting of,” “consisting of, and “consisting essentially of are used interchangeably. For example, any method may include at least the acts contained in the drawings and/or the specification, and may include only the acts contained in the drawings and/or the specification.

통상의 기술자는 논리 블록들 사이의 경계가 단지 예시적인 것이며, 대안적인 실시 예들이 논리 블록들 또는 회로 소자들을 병합하거나 또는 다양한 논리 블록들 또는 회로 소자들 상에 기능의 대체적인 분해를 부과할 수 있음을 인식할 것이다. 따라서, 여기에 도시된 아키텍처는 단지 예시적인 것이며, 사실 동일한 기능을 달성하는 많은 다른 아키텍처가 구현될 수 있다는 것으로 이해되어야 한다.One of ordinary skill in the art would recognize that the boundaries between logical blocks are exemplary only, and that alternative embodiments may incorporate logical blocks or circuit elements or impose an alternative decomposition of functionality on the various logical blocks or circuit elements. will recognize that Accordingly, it should be understood that the architecture shown herein is exemplary only, and in fact, many other architectures may be implemented that achieve the same functionality.

또한, 예를 들어, 일 실시예에서, 도시된 예들은 단일 집적 회로 상에 또는 동일한 장치 내에 위치된 회로로서 구현될 수 있다. 대안적으로, 상기 예들은 임의의 수의 개별적인 집적 회로들 또는 적합한 방식으로 서로 상호 접속된 개별 장치들로서 구현될 수 있으며, 다른 변경, 수정, 변형 및 대안들이 또한 가능하다. 따라서, 명세서 및 도면은 제한적인 의미가 아니라 예시적인 것으로 간주되어야 한다.Also, for example, in one embodiment, the illustrated examples may be implemented as circuitry located on a single integrated circuit or within the same device. Alternatively, the above examples may be implemented as any number of individual integrated circuits or individual devices interconnected to each other in any suitable manner, and other variations, modifications, variations and alternatives are also possible. Accordingly, the specification and drawings are to be regarded in an illustrative rather than a restrictive sense.

또한, 예를 들어, 상기 예들 또는 그 일부는, 임의의 적절한 유형의 하드웨어 기술 언어와 같은, 물리적 회로 또는 물리적 회로로 변환 가능한 논리적 표현의 소프트웨어 또는 코드 표현으로서 구현될 수 있다.Also, for example, the examples or portions thereof may be implemented as a software or code representation of a physical circuit or a logical representation convertible into a physical circuit, such as any suitable type of hardware description language.

또한, 본 발명은 비 프로그래머블 하드웨어로 구현된 물리적 장치 또는 유닛으로 제한되지 않지만, 일반적으로 본원에서는 '컴퓨터 시스템'으로 표시되는 메인 프레임, 미니 컴퓨터, 서버, 워크스테이션, 개인용 컴퓨터, 노트패드(notepad), 개인용 디지털 정보 단말기(PDA), 전자 게임(electronic games), 자동차 및 기타 임베디드 시스템, 휴대전화 및 다양한 다른 무선 장치 등과 같은, 적절한 프로그램 코드에 따라 동작함으로써 원하는 장치 기능을 수행할 수 있는 프로그램 가능한 장치 또는 유닛에도 적용될 수 있다.Further, although the present invention is not limited to physical devices or units implemented in non-programmable hardware, mainframes, minicomputers, servers, workstations, personal computers, notepads, generally referred to herein as 'computer systems' , personal digital assistants (PDAs), electronic games, automobiles and other embedded systems, mobile phones and various other wireless devices, such as programmable devices capable of performing desired device functions by operating in accordance with appropriate program code. Alternatively, it may be applied to units as well.

이 명세서에 언급된 시스템, 장치 또는 디바이스는 적어도 하나의 하드웨어 구성 요소를 포함한다.A system, apparatus, or device referred to in this specification includes at least one hardware component.

본 명세서에 설명된 바와 같은 연결들은 예를 들어 중간 장치를 통해 각각의 노드, 유닛 또는 장치로부터 또는 각각의 노드, 유닛 또는 장치로 신호를 전송하기에 적합한 임의의 유형의 연결일 수 있다. 따라서, 묵시적으로 또는 달리 언급되지 않는 한, 연결은 예를 들어 직접 연결 또는 간접 연결일 수 있다. 연결은 단일 연결, 다수의 연결, 단방향 연결 또는 양방향 연결이라는 것을 참조하여 설명되거나 묘사될 수 있다. 그러나, 서로 다른 실시 예들은 연결의 구현을 변화시킬 수 있다. 예를 들어 양방향 연결이 아닌 별도의 단방향 연결을 사용할 수 있으며 그 반대의 경우도 가능할 수 있다. 또한, 다수의 연결은 복수의 신호를 순차적으로 또는 시간 다중화 방식으로 전송하는 단일 연결로 대체될 수 있다. 마찬가지로, 복수의 신호를 전송하는 단일 연결은 이러한 신호의 서브 세트를 전송하는 다양한 연결로 분리될 수 있다. 따라서 신호를 전송하기 위한 많은 옵션들이 존재한다.Connections as described herein may be any type of connection suitable for transmitting a signal to or from each node, unit or apparatus, for example via an intermediate apparatus. Thus, unless implied or otherwise stated, a connection may be, for example, a direct connection or an indirect connection. A connection may be described or depicted with reference to a single connection, multiple connections, one-way connection, or two-way connection. However, different embodiments may change the implementation of the connection. For example, you can use a separate one-way connection rather than a two-way connection, and vice versa. In addition, a plurality of connections may be replaced with a single connection that transmits a plurality of signals sequentially or in a time multiplexed manner. Likewise, a single connection carrying multiple signals may be split into various connections carrying subsets of these signals. Therefore, many options exist for transmitting the signal.

통상의 기술자는 논리 블록들 사이의 경계가 단지 예시적인 것이며, 대안적인 실시 예들이 논리 블록들 또는 회로 소자들을 병합하거나 또는 다양한 논리 블록들 또는 회로 소자들 상에 기능의 대체적인 분해를 부과할 수 있음을 인식할 것이다. 따라서, 여기에 도시된 아키텍처는 단지 예시적인 것이며, 사실 동일한 기능을 달성하는 많은 다른 아키텍처가 구현될 수 있다는 것으로 이해되어야 한다.One of ordinary skill in the art would recognize that the boundaries between logical blocks are exemplary only, and that alternative embodiments may incorporate logical blocks or circuit elements or impose an alternative decomposition of functionality on the various logical blocks or circuit elements. will recognize that Accordingly, it should be understood that the architecture shown herein is exemplary only, and in fact, many other architectures may be implemented that achieve the same functionality.

청구항에서, 괄호 사이에 위치한 임의의 참조 부호는 청구항을 제한하는 것으로 해석되어서는 아니 된다. '포함하는'이라는 단어는 청구항에 나열된 요소들 또는 동작들의 존재를 배제하지 않는다.In the claims, any reference signs placed between parentheses shall not be construed as limiting the claim. The word 'comprising' does not exclude the presence of elements or acts listed in a claim.

이상에서 본 명세서의 기술에 대한 바람직한 실시 예가 첨부된 도면들을 참조하여 설명되었다. 여기서, 본 명세서 및 청구 범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다. 본 발명의 범위는 본 명세서에 개시된 실시 예들로 한정되지 아니하고, 본 발명은 본 발명의 사상 및 특허청구범위에 기재된 범주 내에서 다양한 형태로 수정, 변경, 또는 개선될 수 있다.In the above, a preferred embodiment of the technology of the present specification has been described with reference to the accompanying drawings. Here, the terms or words used in the present specification and claims should not be construed as being limited to conventional or dictionary meanings, but should be interpreted as meanings and concepts consistent with the technical spirit of the present invention. The scope of the present invention is not limited to the embodiments disclosed herein, and the present invention may be modified, changed, or improved in various forms within the scope of the spirit and claims of the present invention.

20: AI 장치 21: AI 프로세서
22: 데이터 학습부 23: 학습 데이터 획득부
24: 모델 학습부 25: 메모리
26: 신경망 모델 27: 통신부
1000, 1010: 차량 1020: 교통신호등
1030: 교통표지판 1040: 교통안내 전광판
1100: 차량-인프라 간 광카메라 통신 시스템
1110: 송신 장치 1111: 입력 데이터
1112: 인코더 1113: 모듈레이터
1114: 교통신호등 1120: 수신 장치
1121: 카메라 1122: 이미지처리부
1123: 디코더 1124: 출력 데이터
1200: 송신부 인식 장치 1210: 데이터 수신부
1220: 학습 데이터 생성부 1230: 모델 학습부
1240: 송신부 인식부
20: AI device 21: AI processor
22: data learning unit 23: learning data acquisition unit
24: model learning unit 25: memory
26: neural network model 27: communication department
1000, 1010: vehicle 1020: traffic light
1030: traffic sign 1040: traffic information electronic sign
1100: vehicle-infrastructure optical camera communication system
1110: transmitting device 1111: input data
1112: encoder 1113: modulator
1114: traffic light 1120: receiving device
1121: camera 1122: image processing unit
1123: decoder 1124: output data
1200: transmitter recognizing unit 1210: data receiver
1220: training data generation unit 1230: model training unit
1240: transmitter recognition unit

Claims (9)

차량-인프라 간 광카메라 통신의 송신부 인식 장치에 의해 수행되는 송신부 인식 방법에 있어서,
도로 인프라 상의 송신부에 대한 영상 데이터를 수신하는 단계;
상기 도로 인프라 상의 송신부에 대한 바운딩 박스(bounding box) 및 상기 송신부에 대한 분류 정보를 매칭하여 데이터 셋을 구성하되, 상기 송신부에서 광원 부분에 대해서만 바운딩 박스를 설정하는 단계;
상기 데이터 셋을 이용하여 YOLO 모델을 학습시키는 단계; 및
상기 학습된 YOLO 모델로 입력되는 도로 인프라에 대한 영상 데이터를 처리하여 출력되는 바운딩 박스를 광카메라 통신의 송신부로서 인식하는 단계;
를 포함하는 차량-인프라 간 광카메라 통신에서 송신부 인식 방법.
In the transmission unit recognition method performed by the transmission unit recognition device of the vehicle-infrastructure optical camera communication,
receiving image data for a transmitter on a road infrastructure;
configuring a data set by matching a bounding box for a transmitter on the road infrastructure and classification information for the transmitter, but setting a bounding box only for a light source in the transmitter;
training a YOLO model using the data set; and
recognizing a bounding box output by processing image data for road infrastructure input to the learned YOLO model as a transmitter of optical camera communication;
A method of recognizing a transmitter in vehicle-infrastructure-to-infrastructure optical camera communication comprising a.
제 1항에 있어서,
상기 도로 인프라 상의 송신부에 대한 바운딩 박스(bounding box) 및 상기 송신부에 대한 분류 정보를 매칭하여 데이터 셋을 구성하되, 상기 송신부에서 광원 부분에 대해서만 바운딩 박스를 설정하는 단계는,
상기 영상 데이터에서 송신부를 라벨링하여 송신부 검출에 대한 가중치를 업데이트 하는 단계;
를 포함하는 것을 특징으로 하는 차량-인프라 간 광카메라 통신에서 송신부 인식 방법.
The method of claim 1,
The step of configuring a data set by matching a bounding box for the transmitter on the road infrastructure and classification information for the transmitter, setting a bounding box only for the light source part in the transmitter,
updating a weight for detecting a transmitter by labeling the transmitter in the image data;
A method for recognizing a transmitter in vehicle-infrastructure-to-infrastructure optical camera communication, comprising:
제 1항에 있어서,
상기 도로 인프라 상의 송신부에 대한 바운딩 박스(bounding box) 및 상기 송신부에 대한 분류 정보를 매칭하여 데이터 셋을 구성하되, 상기 송신부에서 광원 부분에 대해서만 바운딩 박스를 설정하는 단계는,
상기 송신부에 대한 전체 이미지에서 LED 광원 부분만을 포함하는 영역을 바운딩 박스로 설정하는 단계;
를 포함하는 것을 특징으로 하는 차량-인프라 간 광카메라 통신에서 송신부 인식 방법.
The method of claim 1,
The step of configuring a data set by matching a bounding box for the transmitter on the road infrastructure and classification information for the transmitter, setting a bounding box only for the light source part in the transmitter,
setting an area including only the LED light source part in the entire image for the transmitter as a bounding box;
A method for recognizing a transmitter in vehicle-infrastructure-to-infrastructure optical camera communication, comprising:
제 3항에 있어서,
상기 바운딩 박스 내의 광원으로부터 광카메라 통신 신호를 추출하는 단계;
를 더 포함하는 것을 특징으로 하는 차량-인프라 간 광카메라 통신에서 송신부 인식 방법.
4. The method of claim 3,
extracting an optical camera communication signal from a light source in the bounding box;
Vehicle-to-infrastructure optical camera communication, characterized in that it further comprises a transmission unit recognition method.
도로 인프라 상의 송신부에 대한 영상 데이터를 수신하는 데이터 수신부;
상기 도로 인프라 상의 송신부에 대한 바운딩 박스(bounding box) 및 상기 송신부에 대한 분류 정보를 매칭하여 데이터 셋을 구성하되, 상기 송신부에서 광원 부분에 대해서만 바운딩 박스를 설정하는 학습 데이터 생성부;
상기 데이터 셋을 이용하여 YOLO 모델을 학습시키는 모델 학습부; 및
상기 도로 인프라 상의 송신부에 대한 영상 데이터를 상기 학습된 YOLO 모델에서 처리하여 출력되는 바운딩 박스를 광카메라 통신의 송신부로서 인식하는 송신부 인식부;
를 포함하는 차량-인프라 간 광카메라 통신의 송신부 인식 장치.
a data receiver for receiving image data for a transmitter on a road infrastructure;
a learning data generator configured to configure a data set by matching a bounding box for a transmitter on the road infrastructure and classification information for the transmitter, but set a bounding box only for a light source in the transmitter;
a model learning unit for learning the YOLO model using the data set; and
a transmitter recognition unit for recognizing a bounding box output by processing image data for a transmitter on the road infrastructure in the learned YOLO model as a transmitter for optical camera communication;
A vehicle-to-infrastructure-to-infrastructure optical camera communication transmitter recognition device comprising a.
제5 항에 있어서, 상기 학습 데이터 생성부는
상기 영상 데이터에서 송신부를 라벨링하여 송신부 검출에 대한 가중치를 업데이트 하는 것을 특징으로 하는 차량-인프라 간 광카메라 통신에서 송신부 인식 장치.
The method of claim 5, wherein the training data generator
Transmitter recognition apparatus in vehicle-infrastructure optical camera communication, characterized in that by labeling the transmitter in the image data to update a weight for detecting the transmitter.
제5 항에 있어서, 상기 학습 데이터 생성부는
상기 송신부에 대한 전체 이미지에서 LED 광원 부분만을 포함하는 영역을 바운딩 박스로 설정하는 것을 특징으로 하는 차량-인프라 간 광카메라 통신에서 송신부 인식 장치.
The method of claim 5, wherein the training data generator
Transmitter recognition device in vehicle-infrastructure optical camera communication, characterized in that the region including only the LED light source part in the entire image for the transmitter is set as a bounding box.
제 7항에 있어서, 상기 송신부 인식부는
상기 바운딩 박스 내의 광원으로부터 광카메라 통신 신호를 추출하는 것을 특징으로 하는 차량-인프라 간 광카메라 통신에서 송신부 인식 장치.
The method of claim 7, wherein the transmitter recognition unit
Transmitter recognition device in vehicle-infrastructure optical camera communication, characterized in that extracting the optical camera communication signal from the light source in the bounding box.
차량-인프라 간 광카메라 통신의 송신부 인식 장치에서 수행되는 송신부 인식 방법에 있어서,
도로 인프라 상의 송신부에 대한 영상 데이터를 수신하여 YOLO 모델의 학습을 위한 데이터 셋을 구성하는 단계;
상기 데이터 셋을 이용하여 YOLO 모델을 학습시키는 단계; 및
상기 학습된 YOLO 모델로 입력되는 영상 데이터를 처리하여 도로 인프라 상의 송신부에 대한 인식 결과를 출력하되, 상기 인식된 송신부의 전체 이미지에서 광원 부분에 대해서만 바운딩 박스를 설정하여 출력하는 단계;
를 포함하는 차량-인프라 간 광카메라 통신에서 송신부 인식 방법.
In the transmission unit recognition method performed in the transmission unit recognition device of the vehicle-infrastructure optical camera communication,
composing a data set for training a YOLO model by receiving image data for a transmitter on a road infrastructure;
training a YOLO model using the data set; and
processing the image data input to the learned YOLO model and outputting a recognition result for the transmitter on the road infrastructure, setting and outputting a bounding box only for the light source part in the entire image of the recognized transmitter;
A method of recognizing a transmitter in vehicle-infrastructure-to-infrastructure optical camera communication comprising a.
KR1020210004481A 2021-01-13 2021-01-13 Transmitter recognition apparatus and method for optical camera communication between vehicle and infrastructure KR20220102294A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210004481A KR20220102294A (en) 2021-01-13 2021-01-13 Transmitter recognition apparatus and method for optical camera communication between vehicle and infrastructure

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210004481A KR20220102294A (en) 2021-01-13 2021-01-13 Transmitter recognition apparatus and method for optical camera communication between vehicle and infrastructure

Publications (1)

Publication Number Publication Date
KR20220102294A true KR20220102294A (en) 2022-07-20

Family

ID=82609120

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210004481A KR20220102294A (en) 2021-01-13 2021-01-13 Transmitter recognition apparatus and method for optical camera communication between vehicle and infrastructure

Country Status (1)

Country Link
KR (1) KR20220102294A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117876383A (en) * 2024-03-13 2024-04-12 西南林业大学 Road surface strip crack detection method based on yolov5l

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101971370B1 (en) 2017-12-18 2019-08-13 국민대학교산학협력단 Method and apparatus for estimating location of vehicle using optical camera communication

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101971370B1 (en) 2017-12-18 2019-08-13 국민대학교산학협력단 Method and apparatus for estimating location of vehicle using optical camera communication

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117876383A (en) * 2024-03-13 2024-04-12 西南林业大学 Road surface strip crack detection method based on yolov5l
CN117876383B (en) * 2024-03-13 2024-06-07 西南林业大学 Yolov5 l-based highway surface strip-shaped crack detection method

Similar Documents

Publication Publication Date Title
Miglani et al. Deep learning models for traffic flow prediction in autonomous vehicles: A review, solutions, and challenges
Alkhulaifi et al. Knowledge distillation in deep learning and its applications
US10902615B2 (en) Hybrid and self-aware long-term object tracking
US11562208B2 (en) Continuous relaxation of quantization for discretized deep neural networks
KR102582194B1 (en) Selective backpropagation
US10275719B2 (en) Hyper-parameter selection for deep convolutional networks
KR102595399B1 (en) Detection of unknown classes and initialization of classifiers for unknown classes
CN107430705B (en) Sample selection for retraining classifiers
CN108027899B (en) Method for improving performance of trained machine learning model
US10262259B2 (en) Bit width selection for fixed point neural networks
US10963738B2 (en) Method for processing input on basis of neural network learning and apparatus therefor
US11256964B2 (en) Recursive multi-fidelity behavior prediction
KR20180028442A (en) Context-based fryers for object detection in images
KR20170140214A (en) Filter specificity as training criterion for neural networks
CN112347691B (en) Artificial Intelligence Server
Khosravi et al. Crowd emotion prediction for human-vehicle interaction through modified transfer learning and fuzzy logic ranking
KR20230088714A (en) Personalized neural network pruning
KR20230129410A (en) Variable bit rate compression using neural network models
KR20220102294A (en) Transmitter recognition apparatus and method for optical camera communication between vehicle and infrastructure
Ithnin et al. Intelligent locking system using deep learning for autonomous vehicle in internet of things
KR102503594B1 (en) Method and apparatus for perceiving driving environment
Kind-Trueller et al. The Deep Learning Method for Image Segmentation to Improve the Efficiency of Data Processing Without Compromising the Accuracy of an Autonomous Driving Country-Road Pilot System After Image Classification
KR102513365B1 (en) Method, apparatus and computer program for recognizing traffic signal information for automatic driving of vehicle
KR102238271B1 (en) Lightweight multilayer random forests classifier for real-time operation under low-specification and classification method using thereof
US11710344B2 (en) Compact encoded heat maps for keypoint detection networks

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application