KR102677983B1 - Method for determining failure of a projector installed on autonomous vehicle and projector fault determining device using the same - Google Patents

Method for determining failure of a projector installed on autonomous vehicle and projector fault determining device using the same Download PDF

Info

Publication number
KR102677983B1
KR102677983B1 KR1020230118018A KR20230118018A KR102677983B1 KR 102677983 B1 KR102677983 B1 KR 102677983B1 KR 1020230118018 A KR1020230118018 A KR 1020230118018A KR 20230118018 A KR20230118018 A KR 20230118018A KR 102677983 B1 KR102677983 B1 KR 102677983B1
Authority
KR
South Korea
Prior art keywords
projector
image
autonomous vehicle
specific content
information
Prior art date
Application number
KR1020230118018A
Other languages
Korean (ko)
Inventor
박태곤
현승화
오영철
Original Assignee
(주)오토노머스에이투지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)오토노머스에이투지 filed Critical (주)오토노머스에이투지
Priority to KR1020230118018A priority Critical patent/KR102677983B1/en
Application granted granted Critical
Publication of KR102677983B1 publication Critical patent/KR102677983B1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q11/00Arrangement of monitoring devices for devices provided for in groups B60Q1/00 - B60Q9/00
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/507Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking specific to autonomous vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/50Projected symbol or information, e.g. onto the road or car body
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2800/00Features related to particular types of vehicles not otherwise provided for
    • B60Q2800/10Autonomous vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2306/00Other features of vehicle sub-units
    • B60Y2306/15Failure diagnostics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Abstract

자율주행차량에 설치된 프로젝터의 고장을 판단하는 방법에 있어서, (a) 프로젝터 고장 진단 장치가, 프로젝터 제어기로 하여금 상기 자율주행차량의 상태에 대응되는 특정 컨텐츠를 생성하여 상기 프로젝터로 전달하도록 하는 단계; 및 (b) 상기 자율주행차량이 주행 중인 것으로 판단되면, 상기 프로젝터 고장 진단 장치가, (b1) 상기 프로젝터로 하여금 상기 특정 컨텐츠를 바닥면에 투사하도록 하고, 카메라로 하여금 상기 바닥면에 투사된 상기 특정 컨텐츠를 촬영하여 컨텐츠 이미지를 획득하도록 하고, (b2) 딥러닝 네트워크로 하여금 상기 컨텐츠 이미지에 대해 연산을 수행하도록 하고, 영상처리 제어기로 하여금, 상기 프로젝터 제어기로부터 획득된 상기 특정 컨텐츠에 대한 정보 및 상기 딥러닝 네트워크에 의해 출력된 판단 정보를 참조로 하여, 상기 프로젝터의 고장 여부를 판단하도록 하는 단계;를 포함하는 방법이 개시된다.A method of determining a failure of a projector installed in an autonomous vehicle, comprising: (a) causing a projector failure diagnosis device to generate specific content corresponding to the state of the autonomous vehicle and transmit it to the projector; and (b) when it is determined that the autonomous vehicle is driving, the projector failure diagnosis device (b1) causes the projector to project the specific content on the floor, and causes the camera to project the content projected on the floor. acquire a content image by shooting specific content, (b2) cause a deep learning network to perform an operation on the content image, and cause an image processing controller to obtain information about the specific content obtained from the projector controller and A method including determining whether the projector is broken by referring to the decision information output by the deep learning network is disclosed.

Description

자율주행차량에 설치된 프로젝터의 고장을 판단하는 방법 및 이를 이용한 프로젝터 고장 진단 장치{METHOD FOR DETERMINING FAILURE OF A PROJECTOR INSTALLED ON AUTONOMOUS VEHICLE AND PROJECTOR FAULT DETERMINING DEVICE USING THE SAME}Method for determining failure of a projector installed in an autonomous vehicle and a projector failure diagnosis device using the same {METHOD FOR DETERMINING FAILURE OF A PROJECTOR INSTALLED ON AUTONOMOUS VEHICLE AND PROJECTOR FAULT DETERMINING DEVICE USING THE SAME}

자율주행차량에 설치된 프로젝터의 고장을 판단하는 방법 및 이를 이용한 프로젝터 고장 진단 장치에 대한 것이다.This is about a method of determining a malfunction of a projector installed in an autonomous vehicle and a projector malfunction diagnosis device using the same.

자율주행차량이 상용화되면서 자율주행차량의 주변 차량 및 도로 이용자의 안정성 확보를 위하여 자율주행차량과 주변 차량 및 도로 이용자 간의 상호 작용에 관한 기술의 중요성이 대두되고 있다. As self-driving vehicles are commercialized, the importance of technology related to interaction between self-driving vehicles and surrounding vehicles and road users is emerging to ensure the safety of surrounding vehicles and road users.

자율주행차량의 주행 제어, 통신, 보안, 인프라 등 다양한 분야에서 연구가 이루어지고 있으나, 운전자와 도로 이용자의 안전을 확보하고 자율주행차량의 수용성을 개선할 수 있는 기술로 V2H(Vehicle to Human) 기술이 연구되고 있다. Research is being conducted in various fields such as autonomous vehicle driving control, communication, security, and infrastructure, but V2H (Vehicle to Human) technology is a technology that can ensure the safety of drivers and road users and improve the acceptability of autonomous vehicles. This is being studied.

V2H 커뮤니케이션 기술은 도로 이용자와 자율주행차량 간의 직관적 커뮤니케이션을 위한 기술을 의미하며, 시각적 요소 및 청각적 요소 이외에도 V2X 등의 ICT 기술을 포함할 수 있다. V2H communication technology refers to technology for intuitive communication between road users and autonomous vehicles, and may include ICT technologies such as V2X in addition to visual and auditory elements.

특히, V2H 커뮤니케이션을 위하여 자율주행차량의 현재 상태를 주변 차량 및 도로 이용자가 인지할 수 있도록 외부 표시용 디스플레이를 장착하거나, 프로젝터를 이용하여 노면에 다양한 컨텐츠를 투사하는 방식이 활용되고 있다. In particular, for V2H communication, methods are being used to install an external display display so that surrounding vehicles and road users can recognize the current status of the autonomous vehicle, or to project various contents on the road using a projector.

노면 프로젝터는 헤드라이트 내장형 빔 프로젝트를 통해 다양한 컨텐츠를 바닥에 투사하는 것으로, 자율주행 여부, 대상 객체 인지 여부, 좌회전 및 우회전 시도 정보, 자율주행차량 내 운전자 탑승 여부 등에 대한 정보를 알릴 수 있다. 하지만, 프로젝터가 고장난 경우, 이를 빠르고 쉽게 판단할 수 있는 방법이 없는 문제점이 있다. The road projector projects various contents onto the floor through a beam projector with built-in headlights, and can provide information about autonomous driving, whether the target object is recognized, information on left and right turn attempts, and whether the driver is in the autonomous vehicle. However, there is a problem in that there is no way to quickly and easily determine if the projector is broken.

따라서, 본 발명에서는 자율주행차량이 주행 중인 경우와 정차 중인 경우 각각에 대하여 자율주행차량에 설치된 프로젝터의 고장을 판단하는 방법에 대하여 제안한다.Therefore, the present invention proposes a method for determining the failure of a projector installed in an autonomous vehicle when the autonomous vehicle is driving and when the vehicle is stopped.

본 발명은 상술한 문제점을 모두 해결하는 것을 목적으로 한다.The present invention aims to solve all of the above-mentioned problems.

또한, 본 발명은, 자율주행차량이 주행 중인 것으로 판단되면, 프로젝터로 하여금 특정 컨텐츠를 바닥면에 투사하도록 하고, 카메라로 하여금 바닥면에 투사된 특정 컨텐츠를 촬영하여 컨텐츠 이미지를 획득하도록 하며, 딥러닝 네트워크로 하여금 컨텐츠 이미지에 대해 연산을 수행하도록 하고, 영상처리 제어기로 하여금, 프로젝터 제어기로부터 획득된 특정 컨텐츠에 대한 정보 및 딥러닝 네트워크에 의해 출력된 판단 정보를 참조로 하여, 프로젝터의 고장 여부를 판단할 수 있도록 하는 것을 다른 목적으로 한다.In addition, the present invention, when it is determined that the autonomous vehicle is driving, causes the projector to project specific content on the floor, has the camera capture the specific content projected on the floor to obtain a content image, and uses a deep The learning network performs an operation on the content image, and the image processing controller determines whether the projector is broken by referring to the information about the specific content obtained from the projector controller and the judgment information output by the deep learning network. Another purpose is to enable judgment.

또한, 본 발명은, 자율주행차량이 정차 중인 것으로 판단되면, 프로젝터에 의해 특정 컨텐츠가 바닥면에 투사되기 전에, 카메라로 하여금 바닥면에 투사하기 전의 사전 이미지 및 바닥면에 투사한 후의 사후 이미지를 추가적으로 획득하도록 하고, 영상처리 제어기로 하여금 사전 이미지 및 사후 이미지 사이의 차영상을 계산하도록 하며, 차영상 및 특정 컨텐츠를 추가적으로 비교하여 프로젝터의 고장 여부를 판단할 수 있도록 하는 것을 또 다른 목적으로 한다.In addition, the present invention, when it is determined that the autonomous vehicle is stopped, before specific content is projected on the floor by the projector, the camera produces a pre-image before projection on the floor and a post-image after projection on the floor. Another purpose is to obtain additional images, have the image processing controller calculate the difference image between the pre-image and the after-image, and additionally compare the difference image and specific content to determine whether the projector is broken.

상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 다음과 같다.The characteristic configuration of the present invention for achieving the purpose of the present invention as described above and realizing the characteristic effects of the present invention described later is as follows.

본 발명의 일 태양에 따르면, 자율주행차량에 설치된 프로젝터의 고장을 판단하는 방법에 있어서, (a) 프로젝터 고장 진단 장치가, 프로젝터 제어기로 하여금 상기 자율주행차량의 상태에 대응되는 특정 컨텐츠를 생성하여 상기 프로젝터로 전달하도록 하는 단계; 및 (b) 상기 자율주행차량이 주행 중인 것으로 판단되면, 상기 프로젝터 고장 진단 장치가, (b1) 상기 프로젝터로 하여금 상기 특정 컨텐츠를 바닥면에 투사하도록 하고, 카메라로 하여금 상기 바닥면에 투사된 상기 특정 컨텐츠를 촬영하여 컨텐츠 이미지를 획득하도록 하고, (b2) 딥러닝 네트워크로 하여금 상기 컨텐츠 이미지에 대해 연산을 수행하도록 하고, 영상처리 제어기로 하여금, 상기 프로젝터 제어기로부터 획득된 상기 특정 컨텐츠에 대한 정보 및 상기 딥러닝 네트워크에 의해 출력된 판단 정보를 참조로 하여, 상기 프로젝터의 고장 여부를 판단하도록 하는 단계;를 포함하는 방법이 개시된다.According to one aspect of the present invention, in the method of determining a failure of a projector installed in an autonomous vehicle, (a) a projector failure diagnosis device causes a projector controller to generate specific content corresponding to the state of the autonomous vehicle, transmitting data to the projector; and (b) when it is determined that the autonomous vehicle is driving, the projector failure diagnosis device (b1) causes the projector to project the specific content on the floor, and causes the camera to project the content projected on the floor. acquire a content image by shooting specific content, (b2) have a deep learning network perform an operation on the content image, and cause an image processing controller to obtain information about the specific content obtained from the projector controller and A method including determining whether the projector is broken by referring to the decision information output by the deep learning network is disclosed.

일례로서, 상기 (b2) 단계 이전에, (b11) 상기 프로젝터 고장 진단 장치가, 전처리 제어기로 하여금 상기 획득된 컨텐츠 이미지 중 적어도 일부 대상 영역에 대하여 호모그래피 좌표 변환을 적용하여 대상 변환 영역을 생성하는 단계; (b12) 상기 프로젝터 고장 진단 장치가, 상기 전처리 제어기로 하여금 상기 대상 변환 영역을 크롭(crop)하도록 하여 변환 크롭 이미지를 생성하는 단계; 및 (b13) 상기 프로젝터 고장 진단 장치가, 상기 전처리 제어기로 하여금 상기 변환 크롭 이미지를 상기 딥러닝 네트워크로 입력하도록 하는 단계;를 더 포함하는 것을 특징으로 하는 방법이 개시된다.As an example, before step (b2), (b11) the projector failure diagnosis device generates a target transformation area by causing a pre-processing controller to apply homography coordinate transformation to at least some target areas of the acquired content images. step; (b12) generating, by the projector failure diagnosis device, a converted cropped image by causing the preprocessing controller to crop the target converted area; and (b13) allowing the preprocessing controller to input the converted crop image to the deep learning network, by the projector failure diagnosis device.

일례로서, 상기 (b11) 단계에서, 상기 호모그래피 좌표 변환은, 상기 특정 컨텐츠를 상기 바닥면에 투사할 때, 상기 바닥면에 대응되는 대상 평면 및 상기 카메라에 대응되는 가상 평면의 관계를 규정하는 H matrix를 사용하여 수행되는 것을 특징으로 하는 방법이 개시된다.As an example, in step (b11), the homography coordinate transformation defines the relationship between the target plane corresponding to the floor and the virtual plane corresponding to the camera when projecting the specific content on the floor. A method characterized in that it is performed using an H matrix is disclosed.

일례로서, 상기 (b2) 단계에서, (b21) 상기 프로젝터 고장 진단 장치가, 상기 딥러닝 네트워크로 하여금 상기 변환 크롭 이미지에 적어도 한번의 컨볼루션 연산을 적용하여 피쳐맵을 생성하도록 하고, 상기 피쳐맵에 풀리커넥티드 연산을 적용하여 클래스 스코어를 포함하는 클래시피케이션 정보를 출력하도록 하는 단계; 및 (b22) 상기 프로젝터 고장 진단 장치가, 상기 영상처리 제어기로 하여금, 상기 프로젝터 제어기로부터 획득된 상기 특정 컨텐츠에 대한 정보 및 상기 딥러닝 네트워크에 의해 출력된 상기 클래시피케이션 정보를 추가로 참조로 하여, 상기 프로젝터의 고장 여부를 판단하도록 하는 단계;를 더 포함하는 것을 특징으로 하는 방법이 개시된다.As an example, in step (b2), (b21) the projector failure diagnosis device causes the deep learning network to apply at least one convolution operation to the transformed crop image to generate a feature map, and the feature map Applying a fully connected operation to output classification information including a class score; and (b22) the projector failure diagnosis device causes the image processing controller to additionally refer to the information about the specific content obtained from the projector controller and the classification information output by the deep learning network. A method is disclosed that further includes a step of determining whether the projector is broken.

일례로서, 상기 프로젝터 고장 진단 장치가, 상기 영상처리 제어기로 하여금, 상기 판단 정보를 그리드 셀에 투영하고 상기 그리드 셀에 투영된 정보와 상기 특정 컨텐츠에 대한 정보를 비교하여 오동작 영역을 검출하고 이를 통해 상기 프로젝터의 고장 여부를 판단하도록 하는 것을 특징으로 하는 방법이 개시된다.As an example, the projector failure diagnosis device causes the image processing controller to project the judgment information onto a grid cell and compare the information projected on the grid cell with information about the specific content to detect a malfunction area. A method is disclosed, characterized in that it determines whether the projector is broken.

일례로서, 상기 판단 정보는, 상기 그리드 셀을 기반으로 투영된 맵 데이터를 포함하고, 상기 맵 데이터는 그리드별 디펙트 스코어를 포함하는 것을 특징으로 하는 방법이 개시된다.As an example, a method is disclosed wherein the judgment information includes map data projected based on the grid cells, and the map data includes defect scores for each grid.

일례로서, 상기 (b) 단계에서, 상기 자율주행차량이 정차 중인 것으로 판단되면, 상기 프로젝터 고장 진단 장치가, (b3) 상기 프로젝터에 의해 상기 특정 컨텐츠가 상기 바닥면에 투사되기 전에, 상기 카메라로 하여금 상기 바닥면에 투사하기 전의 사전 이미지 및 상기 바닥면에 투사한 후의 사후 이미지를 추가적으로 획득하도록 하고, (b4) 상기 영상처리 제어기로 하여금 상기 사전 이미지 및 상기 사후 이미지 사이의 차영상을 계산하도록 하고, 상기 차영상 및 상기 특정 컨텐츠를 추가적으로 비교하여 상기 프로젝터의 고장 여부를 판단하도록 하는 단계를 더 포함하는 것을 특징으로 하는 방법이 개시된다.As an example, in step (b), if it is determined that the autonomous vehicle is stopped, the projector failure diagnosis device, (b3), sends the camera to the camera before the specific content is projected on the floor by the projector. additionally acquire a pre-image before projection on the floor and a post-image after projection on the floor, (b4) cause the image processing controller to calculate a difference image between the pre-image and the post-image; A method is disclosed that further includes the step of additionally comparing the difference image and the specific content to determine whether the projector is broken.

일례로서, 상기 프로젝터 고장 진단 장치가, 상기 영상처리 제어기로 하여금, 상기 차영상에 대한 정보를 그리드 셀에 투영하고 상기 그리드 셀에 투영된 정보와 상기 특정 컨텐츠에 대한 정보를 비교하여 오동작 영역을 검출하고 이를 통해 상기 프로젝터의 고장 여부를 판단하도록 하는 것을 특징으로 하는 방법이 개시된다.As an example, the projector failure diagnosis device causes the image processing controller to project information about the difference image onto a grid cell and compare the information projected onto the grid cell with information about the specific content to detect a malfunction area. A method is disclosed that is characterized in that it determines whether the projector is broken through this.

일례로서, 상기 특정 컨텐츠는, 상기 자율주행차량의 주행 여부 상태를 나타내는 컨텐츠, 기설정된 시간 이내에 상기 자율주행차량이 수행할 액션을 나타내는 컨텐츠, 상기 자율주행차량이 보행자에 근접했는지 여부를 나타내는 컨텐츠 중 적어도 일부에 대응되는 텍스트 정보를 포함하는 것을 특징으로 하는 방법이 개시된다.As an example, the specific content includes content indicating whether the autonomous vehicle is driving, content indicating actions to be performed by the autonomous vehicle within a preset time, and content indicating whether the autonomous vehicle is close to a pedestrian. A method is disclosed, characterized in that it includes text information corresponding to at least part of the text.

일례로서, 상기 프로젝터의 위치는 상기 카메라의 위치보다 전방에 설치되어 있는 것을 특징으로 하고, 상기 프로젝터의 높이는 상기 카메라의 높이보다 하방에 설치되어 있는 것을 특징으로 하는 방법이 개시된다. As an example, a method is disclosed wherein the position of the projector is installed ahead of the position of the camera, and the height of the projector is installed below the height of the camera.

본 발명의 다른 태양에 따르면, 자율주행차량에 설치된 프로젝터의 고장을 판단하는 프로젝터 고장 진단 장치에 있어서, 인스트럭션들을 저장하는 적어도 하나의 메모리; 및 상기 인스트럭션들을 실행하기 위해 구성된 적어도 하나의 프로세서;를 포함하되, 상기 프로세서는, (I) 프로젝터 제어기로 하여금 상기 자율주행차량의 상태에 대응되는 특정 컨텐츠를 생성하여 상기 프로젝터로 전달하도록 하는 프로세스; 및 (II) 상기 자율주행차량이 주행 중인 것으로 판단되면, (II-1) 상기 프로젝터로 하여금 상기 특정 컨텐츠를 바닥면에 투사하도록 하고, 카메라로 하여금 상기 바닥면에 투사된 상기 특정 컨텐츠를 촬영하여 컨텐츠 이미지를 획득하도록 하고, (II-2) 딥러닝 네트워크로 하여금 상기 컨텐츠 이미지에 대해 연산을 수행하도록 하고, 영상처리 제어기로 하여금, 상기 프로젝터 제어기로부터 획득된 상기 특정 컨텐츠에 대한 정보 및 상기 딥러닝 네트워크에 의해 출력된 판단 정보를 참조로 하여, 상기 프로젝터의 고장 여부를 판단하도록 하는 프로세스;를 수행하는 프로젝터 고장 진단 장치가 개시된다. According to another aspect of the present invention, a projector failure diagnosis device for determining a failure of a projector installed in an autonomous vehicle, comprising: at least one memory storing instructions; and at least one processor configured to execute the instructions, wherein the processor includes: (I) a process for causing a projector controller to generate specific content corresponding to a state of the autonomous vehicle and transmit it to the projector; and (II) when it is determined that the autonomous vehicle is driving, (II-1) cause the projector to project the specific content on the floor, and cause the camera to photograph the specific content projected on the floor. Obtain a content image, (II-2) have a deep learning network perform an operation on the content image, and have an image processing controller obtain information about the specific content obtained from the projector controller and the deep learning A projector failure diagnosis apparatus is disclosed that performs a process of determining whether the projector is broken by referring to decision information output by a network.

일례로서, 상기 (II-2) 프로세스 이전에, 상기 프로세서는, (II-11) 전처리 제어기로 하여금 상기 획득된 컨텐츠 이미지 중 적어도 일부 대상 영역에 대하여 호모그래피 좌표 변환을 적용하여 대상 변환 영역을 생성하는 프로세스; (II-12) 상기 전처리 제어기로 하여금 상기 대상 변환 영역을 크롭(crop)하도록 하여 변환 크롭 이미지를 생성하는 프로세스 및 (II-13) 상기 전처리 제어기로 하여금 상기 변환 크롭 이미지를 상기 딥러닝 네트워크로 입력하도록 하는 프로세스;를 더 수행하는 것을 특징으로 하는 프로젝터 고장 진단 장치가 개시된다.As an example, before the process (II-2), the processor (II-11) causes the preprocessing controller to apply homography coordinate transformation to at least some target areas of the acquired content images to generate a target transformation area. process; (II-12) A process of generating a converted cropped image by causing the preprocessing controller to crop the target converted area, and (II-13) having the preprocessing controller input the converted cropped image to the deep learning network. A projector failure diagnosis device is disclosed, characterized in that it further performs a process for doing so.

일례로서, 상기 (II-11) 프로세스에서, 상기 호모그래피 좌표 변환은, 상기 특정 컨텐츠를 상기 바닥면에 투사할 때, 상기 바닥면에 대응되는 대상 평면 및 상기 카메라에 대응되는 가상 평면의 관계를 규정하는 H matrix를 사용하여 수행되는 것을 특징으로 하는 프로젝터 고장 진단 장치가 개시된다.As an example, in the process (II-11), the homography coordinate transformation determines the relationship between the target plane corresponding to the floor and the virtual plane corresponding to the camera when projecting the specific content to the floor. A projector failure diagnosis device is disclosed, which is characterized in that it is performed using a stipulated H matrix.

일례로서, 상기 (II-2) 프로세스에서, 상기 프로세서는, (II-21) 상기 딥러닝 네트워크로 하여금 상기 변환 크롭 이미지에 적어도 한번의 컨볼루션 연산을 적용하여 피쳐맵을 생성하도록 하고, 상기 피쳐맵에 풀리커넥티드 연산을 적용하여 클래스 스코어를 포함하는 클래시피케이션 정보를 출력하도록 하는 프로세스; 및 (II-22) 상기 영상처리 제어기로 하여금, 상기 프로젝터 제어기로부터 획득된 상기 특정 컨텐츠에 대한 정보 및 상기 딥러닝 네트워크에 의해 출력된 상기 클래시피케이션 정보를 추가로 참조로 하여, 상기 프로젝터의 고장 여부를 판단하도록 하는 프로세스;를 더 수행하는 것을 특징으로 하는 프로젝터 고장 진단 장치가 개시된다.As an example, in the process (II-2), the processor (II-21) causes the deep learning network to apply at least one convolution operation to the transformed crop image to generate a feature map, and A process for applying fully connected operations to a map to output classification information including class scores; and (II-22) by causing the image processing controller to additionally refer to the information about the specific content obtained from the projector controller and the classification information output by the deep learning network to detect a failure of the projector. A projector failure diagnosis device is disclosed, characterized in that it further performs a process to determine whether or not the projector failure is present.

일례로서, 상기 프로세서는, 상기 영상처리 제어기로 하여금, 상기 판단 정보를 그리드 셀에 투영하고 상기 그리드 셀에 투영된 정보와 상기 특정 컨텐츠에 대한 정보를 비교하여 오동작 영역을 검출하고 이를 통해 상기 프로젝터의 고장 여부를 판단하도록 하는 것을 특징으로 하는 프로젝터 고장 진단 장치가 개시된다.As an example, the processor causes the image processing controller to project the determination information onto a grid cell, compare the information projected on the grid cell with information about the specific content, detect a malfunction area, and thereby detect the malfunction area of the projector. A projector failure diagnosis device is disclosed, which is characterized in that it determines whether there is a failure.

일례로서, 상기 판단 정보는, 상기 그리드 셀을 기반으로 투영된 맵 데이터를 포함하고, 상기 맵 데이터는 그리드별 디펙트 스코어를 포함하는 것을 특징으로 하는 프로젝터 고장 진단 장치가 개시된다.As an example, a projector failure diagnosis apparatus is disclosed, wherein the judgment information includes map data projected based on the grid cells, and the map data includes defect scores for each grid.

일례로서, 상기 (II) 프로세스에서, 상기 프로세서는, 상기 자율주행차량이 정차 중인 것으로 판단되면, (II-3) 상기 프로젝터에 의해 상기 특정 컨텐츠가 상기 바닥면에 투사되기 전에, 상기 카메라로 하여금 상기 바닥면에 투사하기 전의 사전 이미지 및 상기 바닥면에 투사한 후의 사후 이미지를 추가적으로 획득하도록 하고, (II-4) 상기 영상처리 제어기로 하여금 상기 사전 이미지 및 상기 사후 이미지 사이의 차영상을 계산하도록 하고, 상기 차영상 및 상기 특정 컨텐츠를 추가적으로 비교하여 상기 프로젝터의 고장 여부를 판단하도록 하는 프로세스를 더 수행하는 것을 특징으로 하는 프로젝터 고장 진단 장치가 개시된다.As an example, in the process (II), if it is determined that the autonomous vehicle is stopped, the processor causes the camera to be activated before the specific content is projected on the floor by the projector (II-3). Additionally obtain a pre-image before projection on the floor and a post-image after projection on the floor, and (II-4) cause the image processing controller to calculate a difference image between the pre-image and the post-image. A projector failure diagnosis apparatus is disclosed, which further performs a process of additionally comparing the difference image and the specific content to determine whether the projector is broken.

일례로서, 상기 프로세서는, 상기 영상처리 제어기로 하여금, 상기 차영상에 대한 정보를 그리드 셀에 투영하고 상기 그리드 셀에 투영된 정보와 상기 특정 컨텐츠에 대한 정보를 비교하여 오동작 영역을 검출하고 이를 통해 상기 프로젝터의 고장 여부를 판단하도록 하는 것을 특징으로 하는 프로젝터 고장 진단 장치가 개시된다.As an example, the processor causes the image processing controller to project information about the difference image onto a grid cell and compare the information projected onto the grid cell with information about the specific content to detect a malfunction area. A projector failure diagnosis device is disclosed, which is characterized in that it determines whether the projector is broken.

일례로서, 상기 특정 컨텐츠는, 상기 자율주행차량의 주행 여부 상태를 나타내는 컨텐츠, 기설정된 시간 이내에 상기 자율주행차량이 수행할 액션을 나타내는 컨텐츠, 상기 자율주행차량이 보행자에 근접했는지 여부를 나타내는 컨텐츠 중 적어도 일부에 대응되는 텍스트 정보를 포함하는 것을 특징으로 하는 프로젝터 고장 진단 장치가 개시된다.As an example, the specific content includes content indicating whether the autonomous vehicle is driving, content indicating actions to be performed by the autonomous vehicle within a preset time, and content indicating whether the autonomous vehicle is close to a pedestrian. A projector failure diagnosis device is disclosed, which includes at least part of corresponding text information.

일례로서, 상기 프로젝터의 위치는 상기 카메라의 위치보다 전방에 설치되어 있는 것을 특징으로 하고, 상기 프로젝터의 높이는 상기 카메라의 높이보다 하방에 설치되어 있는 것을 특징으로 하는 프로젝터 고장 진단 장치가 개시된다.As an example, a projector failure diagnosis device is disclosed, wherein the position of the projector is installed ahead of the position of the camera, and the height of the projector is installed below the height of the camera.

본 발명에 의하면, 다음과 같은 효과가 있다.According to the present invention, the following effects are achieved.

본 발명은, 자율주행차량이 주행 중인 것으로 판단되면, 프로젝터로 하여금 특정 컨텐츠를 바닥면에 투사하도록 하고, 카메라로 하여금 바닥면에 투사된 특정 컨텐츠를 촬영하여 컨텐츠 이미지를 획득하도록 하며, 딥러닝 네트워크로 하여금 컨텐츠 이미지에 대해 연산을 수행하도록 하고, 영상처리 제어기로 하여금, 프로젝터 제어기로부터 획득된 특정 컨텐츠에 대한 정보 및 딥러닝 네트워크에 의해 출력된 판단 정보를 참조로 하여, 프로젝터의 고장 여부를 판단할 수 있도록 하는 효과가 있다.In the present invention, when it is determined that an autonomous vehicle is driving, a projector projects specific content on the floor, a camera acquires a content image by filming specific content projected on the floor, and a deep learning network perform an operation on the content image, and have the image processing controller determine whether the projector is broken by referring to the information about the specific content obtained from the projector controller and the judgment information output by the deep learning network. It has the effect of allowing you to do so.

또한, 본 발명은, 자율주행차량이 정차 중인 것으로 판단되면, 프로젝터에 의해 특정 컨텐츠가 바닥면에 투사되기 전에, 카메라로 하여금 바닥면에 투사하기 전의 사전 이미지 및 바닥면에 투사한 후의 사후 이미지를 추가적으로 획득하도록 하고, 영상처리 제어기로 하여금 사전 이미지 및 사후 이미지 사이의 차영상을 계산하도록 하며, 차영상 및 특정 컨텐츠를 추가적으로 비교하여 프로젝터의 고장 여부를 판단할 수 있도록 하는 효과가 있다.In addition, the present invention, when it is determined that the autonomous vehicle is stopped, before specific content is projected on the floor by the projector, the camera produces a pre-image before projection on the floor and a post-image after projection on the floor. This has the effect of allowing additional acquisition, allowing the image processing controller to calculate the difference image between the pre-image and the after-image, and additionally comparing the difference image and specific content to determine whether the projector is broken.

도 1은, 발명의 일 실시예에 따른 자율주행차량에 설치된 프로젝터의 고장을 판단하는 프로젝터 고장 진단 장치의 개략적인 구성을 나타내는 도면이다.
도 2는, 본 발명의 일 실시예에 따른 자율주행차량에 설치된 프로젝터의 고장을 판단하는 프로젝터 고장 진단 장치에 포함된 구체적인 구성을 나타내는 도면이다.
도 3은, 본 발명의 일 실시예에 따른 자율주행차량에 설치된 프로젝터의 고장을 판단하는 방법의 개략적인 순서를 설명하기 위한 도면이다.
도 4는, 본 발명의 일 실시예에 따른 자율주행차량에 설치된 프로젝터 및 카메라의 위치와 높이를 나타내는 예를 설명하기 위한 도면이다.
도 5는, 본 발명의 일 실시예에 따라 자율주행차량이 주행 중인 것으로 판단되는 경우, 자율주행차량에 설치된 프로젝터의 고장을 판단하기 위해 딥러닝 네트워크로 크롭 이미지를 입력하기까지의 개략적인 순서를 설명하기 위한 도면이다.
도 6은, 본 발명의 일 실시예에 따라 자율주행차량이 주행 중인 것으로 판단되는 경우, 자율주행차량에 설치된 프로젝터의 고장을 판단하기 위해 대상 변환 영역을 생성하고 크롭 이미지를 생성하는 일례를 설명하기 위한 도면이다.
도 7은, 본 발명의 일 실시예에 따라 자율주행차량이 주행 중인 것으로 판단되는 경우, 자율주행차량에 설치된 프로젝터의 고장을 판단하는 방법의 추가적인 순서를 설명하기 위한 도면이다.
도 8은, 본 발명의 일 실시예에 따라 자율주행차량이 주행 중인 것으로 판단되는 경우, 자율주행차량에 설치된 프로젝터의 고장을 판단하기 위한 맵 데이터 및 디펙트 스코어의 일례를 설명하기 위한 도면이다.
도 9는, 본 발명의 일 실시예에 따라 자율주행차량이 정차 중인 것으로 판단되는 경우, 자율주행차량에 설치된 프로젝터의 고장을 판단하는 방법의 개략적인 순서를 설명하기 위한 도면이다.
도 10은, 본 발명의 일 실시예에 따라 자율주행차량이 정차 중인 것으로 판단되는 경우, 자율주행차량에 설치된 프로젝터의 고장을 판단하기 위한 사전 이미지 및 사후 이미지 사이의 차영상의 일례를 설명하기 위한 도면이다.
도 11은, 본 발명의 일 실시예에 따라 자율주행차량이 주행 중인 것으로 판단되는 경우, 자율주행차량에 설치된 프로젝터의 고장을 판단하기 위하여 H matrix를 사용하여 수행되는 호모그래피 좌표 변환의 일례를 설명하기 위한 도면이다.
FIG. 1 is a diagram illustrating a schematic configuration of a projector failure diagnosis device for determining a failure of a projector installed in an autonomous vehicle according to an embodiment of the invention.
FIG. 2 is a diagram showing a specific configuration included in a projector failure diagnosis device for determining a failure of a projector installed in an autonomous vehicle according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating a schematic sequence of a method for determining a failure of a projector installed in an autonomous vehicle according to an embodiment of the present invention.
FIG. 4 is a diagram illustrating an example showing the positions and heights of a projector and camera installed in an autonomous vehicle according to an embodiment of the present invention.
Figure 5 is a schematic sequence of inputting a crop image to a deep learning network to determine a failure of a projector installed in the autonomous vehicle when it is determined that the autonomous vehicle is driving according to an embodiment of the present invention. This is a drawing for explanation.
Figure 6 illustrates an example of generating a target conversion area and generating a crop image to determine a failure of a projector installed in the autonomous vehicle when it is determined that the autonomous vehicle is driving according to an embodiment of the present invention. This is a drawing for
FIG. 7 is a diagram illustrating additional steps of a method for determining a failure of a projector installed in an autonomous vehicle when it is determined that the autonomous vehicle is driving according to an embodiment of the present invention.
FIG. 8 is a diagram illustrating an example of map data and defect scores for determining a failure of a projector installed in the autonomous vehicle when it is determined that the autonomous vehicle is driving according to an embodiment of the present invention.
FIG. 9 is a diagram illustrating a schematic sequence of a method for determining a failure of a projector installed in an autonomous vehicle when it is determined that the autonomous vehicle is stopped according to an embodiment of the present invention.
Figure 10 illustrates an example of a difference image between a pre-image and a post-image for determining a failure of a projector installed in the autonomous vehicle when it is determined that the autonomous vehicle is stopped according to an embodiment of the present invention. It is a drawing.
FIG. 11 illustrates an example of homography coordinate transformation performed using the H matrix to determine failure of a projector installed in the autonomous vehicle when it is determined that the autonomous vehicle is driving according to an embodiment of the present invention. This is a drawing for this purpose.

후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.The detailed description of the present invention described below refers to the accompanying drawings, which show by way of example specific embodiments in which the present invention may be practiced to make clear the objectives, technical solutions and advantages of the present invention. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention.

또한, 본 발명의 상세한 설명 및 청구항들에 걸쳐, "포함하다"라는 단어 및 그것의 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 설명서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다.Additionally, throughout the description and claims, the word “comprise” and variations thereof are not intended to exclude other technical features, attachments, components or steps. Other objects, advantages and features of the invention will appear to those skilled in the art, partly from this description and partly from practice of the invention. The examples and drawings below are provided by way of example and are not intended to limit the invention.

더욱이 본 발명은 본 명세서에 표시된 실시예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.Moreover, the present invention encompasses all possible combinations of the embodiments shown herein. It should be understood that the various embodiments of the invention are different from one another but are not necessarily mutually exclusive. For example, specific shapes, structures and characteristics described herein with respect to one embodiment may be implemented in other embodiments without departing from the spirit and scope of the invention. Additionally, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. Accordingly, the detailed description that follows is not intended to be taken in a limiting sense, and the scope of the invention is limited only by the appended claims, together with all equivalents to what those claims assert, if properly described. Similar reference numbers in the drawings refer to identical or similar functions across various aspects.

이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, in order to enable those skilled in the art to easily practice the present invention, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.

도 1은, 발명의 일 실시예에 따른 자율주행차량에 설치된 프로젝터의 고장을 판단하는 프로젝터 고장 진단 장치(100)의 개략적인 구성을 나타내는 도면이다.FIG. 1 is a diagram illustrating a schematic configuration of a projector failure diagnosis device 100 that determines a failure of a projector installed in an autonomous vehicle according to an embodiment of the invention.

도 1을 참조하면, 프로젝터 고장 진단 장치(100)는 자율주행차량에 설치된 프로젝터의 고장을 판단하기 위한 인스트럭션들을 저장하는 메모리(110)와 메모리에 저장된 인스트럭션들에 대응하여 프로젝터의 고장을 검출하는 프로세서(120)를 포함할 수 있다. 이때, 프로젝터 고장 진단 장치(100)는 PC(Personal Computer), 모바일 컴퓨터 등을 포함할 수 있다.Referring to FIG. 1, the projector failure diagnosis device 100 includes a memory 110 that stores instructions for determining a failure of a projector installed in an autonomous vehicle, and a processor that detects a failure of the projector in response to the instructions stored in the memory. It may include (120). At this time, the projector failure diagnosis device 100 may include a personal computer (PC), a mobile computer, etc.

구체적으로, 프로젝터 고장 진단 장치(100)는 전형적으로 컴퓨팅 장치(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS) 및 스토리지 영역 네트워크(SAN)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 인스트럭션들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.Specifically, the projector fault diagnosis device 100 is typically a computing device (e.g., a device that may include computer processors, memory, storage, input devices and output devices, and other components of conventional computing devices; routers, switches, etc. using a combination of computer software (i.e., instructions that enable a computing device to function in a certain way) (e.g., electronic communication devices; electronic information storage systems, such as network attached storage (NAS) and storage area networks (SAN)); This may be to achieve the desired system performance.

또한, 프로젝터 고장 진단 장치(100)의 프로세서는 MPU(Micro Processing Unit) 또는 CPU(Central Processing Unit), 캐쉬 메모리(Cache Memory), 데이터 버스(Data Bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 프로젝터 고장 진단 장치(100)는 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.Additionally, the processor of the projector failure diagnosis device 100 may include hardware components such as a Micro Processing Unit (MPU) or Central Processing Unit (CPU), cache memory, and data bus. Additionally, the projector failure diagnosis device 100 may further include an operating system and software configuration of an application that performs a specific purpose.

그러나, 프로젝터 고장 진단 장치(100)가 본 발명을 실시하기 위한 미디엄, 프로세서 및 메모리가 통합된 형태인 integrated 프로세서를 포함하는 경우를 배제하는 것은 아니다.However, the case where the projector failure diagnosis device 100 includes an integrated processor in which a medium, a processor, and a memory are integrated for implementing the present invention is not excluded.

그리고, 프로젝터 고장 진단 장치(100)는 자율주행차량에 설치된 프로젝터의 고장을 판단하는데 사용되는 정보를 포함하는 데이터베이스(미도시)와 연동될 수 있다. 여기서, 데이터베이스(미도시)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(ReadOnly Memory, ROM), EEPROM(Electrically Erasable Programmable ReadOnly Memory), PROM(Programmable ReadOnly Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있으며, 이에 한정되지 않으며 데이터를 저장할 수 있는 모든 매체를 포함할 수 있다. 또한, 데이터베이스(미도시)는 프로젝터 고장 진단 장치(100)와 분리되어 설치되거나, 이와는 달리 프로젝터 고장 진단 장치(100)의 내부에 설치되어 데이터를 전송하거나 수신되는 데이터를 기록할 수도 있고, 둘 이상으로 분리되어 구현될 수도 있으며, 이는 발명의 실시 조건에 따라 달라질 수 있다.Additionally, the projector failure diagnosis device 100 may be linked to a database (not shown) containing information used to determine failure of a projector installed in an autonomous vehicle. Here, the database (not shown) is a flash memory type, hard disk type, multimedia card micro type, or card type memory (for example, SD or XD memory). , RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (ReadOnly Memory, ROM), EEPROM (Electrically Erasable Programmable ReadOnly Memory), PROM (Programmable ReadOnly Memory), magnetic memory, magnetic disk, and optical disk. It may include at least one type of storage medium, but is not limited to this and may include any medium capable of storing data. In addition, the database (not shown) may be installed separately from the projector failure diagnosis device 100, or alternatively, may be installed inside the projector failure diagnosis device 100 to transmit data or record received data, or may be installed separately from the projector failure diagnosis device 100. It may be implemented separately, and this may vary depending on the implementation conditions of the invention.

또한, 프로젝터 고장 진단 장치(100)는, 자율주행차량의 내부에 위치하여 자율주행차량에 장착된 복수의 센서들에 의해 센싱된 정보를 송수신할 수도 있고, 자율주행차량의 외부에 위치한 서버와 필요한 정보를 송수신할 수도 있을 것이다. 여기서, 복수의 센서는 라이다 센서, 레이더 센서, 카메라 센서, GPS 센서 등을 포함할 수 있으나, 이에 한정되는 것은 아닐 것이다.In addition, the projector failure diagnosis device 100 is located inside the autonomous vehicle and may transmit and receive information sensed by a plurality of sensors mounted on the autonomous vehicle, and may communicate with a server located outside the autonomous vehicle and the necessary Information may also be sent and received. Here, the plurality of sensors may include, but are not limited to, a lidar sensor, a radar sensor, a camera sensor, and a GPS sensor.

또한, 프로젝터 고장 진단 장치(100)의 구체적인 구성을 살펴보면 아래와 같다. Additionally, the specific configuration of the projector failure diagnosis device 100 is as follows.

도 2는, 본 발명의 일 실시예에 따른 자율주행차량에 설치된 프로젝터의 고장을 판단하는 프로젝터 고장 진단 장치(100)에 포함된 구체적인 구성을 나타내는 도면이다.FIG. 2 is a diagram showing a specific configuration included in the projector failure diagnosis device 100 for determining a failure of a projector installed in an autonomous vehicle according to an embodiment of the present invention.

프로젝터 고장 진단 장치(100)는, 프로젝터(130), 카메라(140), 프로젝터 제어기(150), 영상처리 제어기(160), 전처리 제어기(170), 딥러닝 네트워크(180)를 더 포함할 수 있다. 다만, 이에 한정되는 것은 아니며, 이 중 적어도 일부는 프로젝터 고장 진단 장치(100)의 외부에 위치하여 프로젝터 고장 진단 장치(100)와 연동되도록 구성할 수도 있을 것이다. 도 2 에서는 설명의 편의 상, 도 1 에 언급된 메모리(110)와 프로세서(120)에 대해서는 도시를 생략하였다. The projector failure diagnosis device 100 may further include a projector 130, a camera 140, a projector controller 150, an image processing controller 160, a preprocessing controller 170, and a deep learning network 180. . However, it is not limited to this, and at least some of them may be located outside the projector failure diagnosis device 100 and configured to be interlocked with the projector trouble diagnosis device 100. In FIG. 2 , for convenience of explanation, the memory 110 and processor 120 mentioned in FIG. 1 are omitted.

프로젝터 제어기(150)는 자율주행차량의 상태에 대응되는 특정 컨텐츠를 생성하여 프로젝터(130)로 전달할 수 있고, 프로젝터(130)는 특정 컨텐츠를 도로의 바닥면에 투사할 수 있으며, 카메라(140)는 바닥면에 투사된 특정 컨텐츠를 촬영하여 컨텐츠 이미지를 획득할 수 있다. The projector controller 150 can generate specific content corresponding to the state of the autonomous vehicle and transmit it to the projector 130, the projector 130 can project the specific content onto the road surface, and the camera 140 A content image can be obtained by photographing specific content projected on the floor.

또한, 딥러닝 네트워크(180)는 컨텐츠 이미지에 대한 연산을 수행할 수 있고, 영상처리 제어기(160)는 프로젝터 제어기(150)로부터 획득된 특정 컨텐츠에 대한 정보 및 딥러닝 네트워크(180)에 의해 출력된 판단 정보를 참조로 하여 프로젝터(130)의 고장 여부를 판단할 수 있다. In addition, the deep learning network 180 can perform operations on content images, and the image processing controller 160 outputs information about specific content obtained from the projector controller 150 and the deep learning network 180. It is possible to determine whether the projector 130 is broken by referring to the determined judgment information.

또한, 전처리 제어기(170)는 컨텐츠 이미지에 호모그래피 좌표변환을 적용한 후, 소정 변환 영역을 크롭하여 변환 크롭 이미지를 생성할 수도 있으며, 변환 크롭 이미지를 딥러닝 네트워크(180)로 입력할 수도 있다. Additionally, the preprocessing controller 170 may apply homography coordinate transformation to the content image and then crop a predetermined transformation area to generate a transformed crop image, and may also input the transformed cropped image to the deep learning network 180.

이에 대해서는 아래에서 좀 더 자세하게 설명하고자 한다. This will be explained in more detail below.

이와 같이 구성된 본 발명의 일 실시예에 따른 프로젝터 고장 진단 장치(100)를 이용하여, 자율주행차량에 설치된 프로젝터의 고장을 판단하는 방법을 도 3을 참조하여 설명하면 다음과 같다.A method of determining a failure of a projector installed in an autonomous vehicle using the projector failure diagnosis device 100 according to an embodiment of the present invention configured as described above will be described with reference to FIG. 3 as follows.

도 3은, 본 발명의 일 실시예에 따른 자율주행차량에 설치된 프로젝터의 고장을 판단하는 방법의 개략적인 순서를 설명하기 위한 도면이다.FIG. 3 is a diagram illustrating a schematic sequence of a method for determining a failure of a projector installed in an autonomous vehicle according to an embodiment of the present invention.

먼저, 프로젝터 고장 진단 장치(100)가, 프로젝터 제어기(150)로 하여금 자율주행차량의 상태에 대응되는 특정 컨텐츠를 생성하여 프로젝터(130)로 전달할 수 있다(S210).First, the projector failure diagnosis device 100 can cause the projector controller 150 to generate specific content corresponding to the state of the autonomous vehicle and transmit it to the projector 130 (S210).

여기서, 특정 컨텐츠는, 자율주행차량의 주행 여부 상태를 나타내는 컨텐츠, 기설정된 시간 이내에 자율주행차량이 수행할 액션을 나타내는 컨텐츠, 자율주행차량이 보행자에 근접했는지 여부를 나타내는 컨텐츠 중 적어도 일부에 대응되는 텍스트 정보를 포함할 수 있다. Here, the specific content corresponds to at least some of the following: content indicating the driving status of the autonomous vehicle, content indicating actions to be performed by the autonomous vehicle within a preset time, and content indicating whether the autonomous vehicle is close to a pedestrian. Can contain text information.

가령, 자율주행차량이 주행 중인지, 정차 중인지에 대한 정보를 텍스트로 나타낼 수도 있고, 자율주행차량이 좌회전을 할 것인지, 우회전을 할 것인지에 대한 정보를 텍스트로 나타낼 수도 있으며, 자율주행차량이 보행자에 어느 정도 근접했는지를 텍스트로 나타낼 수 있다.For example, information about whether the autonomous vehicle is driving or stopped can be displayed in text, information about whether the autonomous vehicle will turn left or right can be displayed in text, and information about whether the autonomous vehicle will turn left or right can be displayed in text. You can indicate in text how close you are.

참고로, 텍스트와 함께 청각적인 요소(가령, 알람)도 함께 나타낼 수도 있다. For reference, auditory elements (e.g., alarms) may also be displayed along with text.

한편, 자율주행차량이 주행 중인 것으로 판단되면(S220), 프로젝터 고장 진단 장치(100)가, 프로젝터(130)로 하여금 특정 컨텐츠를 바닥면에 투사하도록 하고, 카메라(140)로 하여금 바닥면에 투사된 특정 컨텐츠를 촬영하여 컨텐츠 이미지를 획득할 수 있으며(S221), 이어서 딥러닝 네트워크(180)로 하여금 컨텐츠 이미지에 대해 연산을 수행하도록 하고, 영상처리 제어기(160)로 하여금, 프로젝터 제어기(150)로부터 획득된 특정 컨텐츠에 대한 정보 및 딥러닝 네트워크(180)에 의해 출력된 판단 정보를 참조로 하여, 프로젝터의 고장 여부를 판단할 수 있다(S222). 여기서, 판단 정보는, 후술할 딥러닝 네트워크(180)의 클래시피케이션 정보일 수도 있으나, 피처맵의 정보에 따른 디펙트 스코어일 수도 있을 것이다.Meanwhile, when it is determined that the autonomous vehicle is driving (S220), the projector failure diagnosis device 100 causes the projector 130 to project specific content on the floor and causes the camera 140 to project the content on the floor. A content image can be acquired by shooting specific content (S221), and then the deep learning network 180 is made to perform an operation on the content image, and the image processing controller 160 is used to operate the projector controller 150. It is possible to determine whether the projector is broken by referring to the information about the specific content obtained from and the judgment information output by the deep learning network 180 (S222). Here, the judgment information may be classification information of the deep learning network 180, which will be described later, but may also be a defect score according to information on the feature map.

이는 아래에서 후술할 도 5, 도 6 및 도 8에서 좀 더 자세하게 설명하겠다. This will be explained in more detail in Figures 5, 6, and 8, which will be described later.

한편, 프로젝터(130) 및 카메라(140)가 설치된 위치 및 높이는 도 4를 참조로 아래와 같이 설명할 수 있다. Meanwhile, the location and height where the projector 130 and camera 140 are installed can be described as follows with reference to FIG. 4.

도 4는, 본 발명의 일 실시예에 따른 자율주행차량에 설치된 프로젝터(130) 및 카메라(140)의 위치와 높이를 나타내는 예를 설명하기 위한 도면이다.FIG. 4 is a diagram illustrating an example showing the positions and heights of the projector 130 and camera 140 installed in an autonomous vehicle according to an embodiment of the present invention.

도 4에서와 같이, 프로젝터(130)의 위치는 카메라(140)의 위치보다 전방에 설치되어 있는 것을 특징으로 하고, 프로젝터(130)의 높이는 카메라(140)의 높이보다 하방에 설치되어 있는 것을 특징으로 한다.As shown in Figure 4, the position of the projector 130 is characterized in that it is installed in front of the position of the camera 140, and the height of the projector 130 is characterized in that it is installed below the height of the camera 140. Do this.

다음으로, 도 5는, 본 발명의 일 실시예에 따라 자율주행차량이 주행 중인 것으로 판단되는 경우, 자율주행차량에 설치된 프로젝터(130)의 고장을 판단하기 위해 딥러닝 네트워크(180)로 크롭 이미지를 입력하기까지의 개략적인 순서를 설명하기 위한 도면이다.Next, Figure 5 shows a crop image using the deep learning network 180 to determine a failure of the projector 130 installed in the autonomous vehicle when it is determined that the autonomous vehicle is driving according to an embodiment of the present invention. This is a diagram to roughly explain the steps required to input .

먼저, 프로젝터 고장 진단 장치(100)가, 전처리 제어기(170)로 하여금 카메라(140)에 의해 획득된 컨텐츠 이미지에 포함된 적어도 일부 대상 영역에 대하여 호모그래피 좌표 변환을 적용하여 대상 변환 영역을 생성할 수 있다(S210-1).First, the projector failure diagnosis device 100 causes the preprocessing controller 170 to apply homography coordinate transformation to at least some target areas included in the content image acquired by the camera 140 to generate a target transformation area. (S210-1).

참고로, 호모그래피 좌표 변환은, 특정 컨텐츠를 바닥면에 투사할 때, 바닥면(즉, 지면)에 대응되는 대상 평면 및 카메라(140)에 대응되는 가상 평면의 관계를 규정하는 H matrix를 사용하여 수행될 수 있다. For reference, homography coordinate transformation uses an H matrix that specifies the relationship between the target plane corresponding to the floor (i.e., ground) and the virtual plane corresponding to the camera 140 when projecting specific content onto the floor. It can be performed by doing this.

이를 도 11을 참고하여 설명하면 아래와 같다. This is explained with reference to FIG. 11 as follows.

도 11은, 본 발명의 일 실시예에 따라 자율주행차량이 주행 중인 것으로 판단되는 경우, 자율주행차량에 설치된 프로젝터(130)의 고장을 판단하기 위하여 H matrix를 사용하여 수행되는 호모그래피 좌표 변환의 일례를 설명하기 위한 도면이다.Figure 11 shows a homography coordinate transformation performed using the H matrix to determine a failure of the projector 130 installed in the autonomous vehicle when it is determined that the autonomous vehicle is driving according to an embodiment of the present invention. This is a drawing to explain an example.

도 11에서와 같이, 바닥면(즉, 지면)에 대응되는 대상 평면의 좌표(P1, P2, P3, P4, P5)와 카메라(140)에 대응되는 가상 평면의 좌표(P1', P2', P3', P4', P5')를 호모그래피 함수를 통해 계산할 수 있다. As shown in FIG. 11, the coordinates (P1, P2, P3, P4, P5) of the target plane corresponding to the floor surface (i.e., the ground) and the coordinates of the virtual plane (P1', P2', P3', P4', P5') can be calculated through the homography function.

이후, 프로젝터 고장 진단 장치(100)가, 전처리 제어기(170)로 하여금 대상 변환 영역을 크롭(crop)하도록 하여 변환 크롭 이미지를 생성할 수 있다(S210-2).Thereafter, the projector failure diagnosis apparatus 100 may generate a converted cropped image by causing the preprocessing controller 170 to crop the target converted area (S210-2).

다음으로, 프로젝터 고장 진단 장치(100)가, 전처리 제어기(170)로 하여금 변환 크롭 이미지를 딥러닝 네트워크(180)로 입력하도록 할 수 있다(S210-3).Next, the projector failure diagnosis device 100 may cause the preprocessing controller 170 to input the converted crop image to the deep learning network 180 (S210-3).

이를 도 6을 참조로 하여 설명하면 다음과 같다. This is explained with reference to FIG. 6 as follows.

도 6은, 본 발명의 일 실시예에 따라 자율주행차량이 주행 중인 것으로 판단되는 경우, 자율주행차량에 설치된 프로젝터(130)의 고장을 판단하기 위해 대상 변환 영역을 생성하고 크롭 이미지를 생성하는 일례를 설명하기 위한 도면이다.Figure 6 is an example of generating a target conversion area and generating a crop image to determine a failure of the projector 130 installed in the autonomous vehicle when it is determined that the autonomous vehicle is driving according to an embodiment of the present invention. This is a drawing to explain.

도 6에서와 같이, 전처리 제어기(170)로 하여금 컨텐츠 이미지(610)를 획득하도록 할 수 있다. 컨텐츠 이미지(610)에는 텍스트와 같은 특정 컨텐츠(611)가 포함되어 있으며 비스듬하게 출력된 상태의 텍스트를 포함하고 있는 컨텐츠 이미지(610)를 획득할 수 있을 것이다. 도 6에서의 특정 컨텐츠(611)는 '자율주행'인 것을 상정하였다. 즉, 특정 컨텐츠(611)를 통해 자율주행차량이 현재 자율주행하고 있다는 것을 주변 차량 및 도로 이용자에게 알려주고 있는 것이다. 이후, 전처리 제어기(170)로 하여금 비스듬하게 출력된 상태의 텍스트를 포함하고 있는 컨텐츠 이미지(610) 중 적어도 일부 대상 영역에 대하여 호모그래피 좌표 변환을 적용하여 대상 변환 영역(620)을 생성하도록 할 수 있으며, 전처리 제어기(170)로 하여금 대상 변환 영역(620)을 크롭하여 변환 크롭 이미지(630)을 생성하도록 할 수 있다. As shown in FIG. 6, the preprocessing controller 170 can be configured to acquire the content image 610. The content image 610 includes specific content 611 such as text, and the content image 610 including the text in an obliquely output state may be obtained. It is assumed that the specific content 611 in FIG. 6 is 'autonomous driving'. In other words, surrounding vehicles and road users are informed that the autonomous vehicle is currently driving autonomously through the specific content 611. Thereafter, the preprocessing controller 170 may apply homography coordinate transformation to at least some target areas of the content image 610 containing text output at an angle to generate the target transformation area 620. In addition, the preprocessing controller 170 can be configured to crop the target conversion area 620 to generate a converted cropped image 630.

이후, 전처리 제어기(170)로 하여금 이렇게 생성된 변환 크롭 이미지(630)를 딥러닝 네트워크(180)로 입력하도록 할 수 있다. Afterwards, the preprocessing controller 170 can be configured to input the converted cropped image 630 generated in this way to the deep learning network 180.

이는 도 7 및 도 8에서 좀 더 자세하게 설명하고자 한다. This will be explained in more detail in FIGS. 7 and 8.

도 7은, 본 발명의 일 실시예에 따라 자율주행차량이 주행 중인 것으로 판단되는 경우, 자율주행차량에 설치된 프로젝터의 고장을 판단하는 방법의 추가적인 순서를 설명하기 위한 도면이다.FIG. 7 is a diagram illustrating additional steps of a method for determining a failure of a projector installed in an autonomous vehicle when it is determined that the autonomous vehicle is driving according to an embodiment of the present invention.

먼저, 프로젝터 고장 진단 장치(100)가, 딥러닝 네트워크(180)로 하여금 변환 크롭 이미지(630)에 적어도 한번의 컨볼루션 연산을 적용하여 피쳐맵을 생성하도록 하고, 피쳐맵에 풀리커넥티드 연산을 적용하여 클래스 스코어를 포함하는 클래시피케이션 정보를 출력할 수 있다(S220-1).First, the projector failure diagnosis device 100 causes the deep learning network 180 to generate a feature map by applying at least one convolution operation to the converted crop image 630, and performs a fully connected operation on the feature map. By applying it, classification information including class scores can be output (S220-1).

이후, 프로젝터 고장 진단 장치(100)가, 영상처리 제어기(160)로 하여금, 프로젝터 제어기(150)로부터 획득된 특정 컨텐츠에 대한 정보 및 딥러닝 네트워크(180)에 의해 출력된 상기 클래시피케이션 정보를 추가로 참조로 하여, 프로젝터(130)의 고장 여부를 판단할 수 있다(S220-2).Thereafter, the projector failure diagnosis device 100 causes the image processing controller 160 to use information about specific content obtained from the projector controller 150 and the classification information output by the deep learning network 180. For additional reference, it is possible to determine whether the projector 130 is broken (S220-2).

여기서, 프로젝터 고장 진단 장치(100)는, 영상처리 제어기(160)로 하여금, 딥러닝 네트워크(180)의 판단 정보를 그리드 셀에 투영하고 그리드 셀에 투영된 정보와 특정 컨텐츠에 대한 정보를 비교하여 오동작 영역을 검출하고 이를 통해 프로젝터의 고장 여부를 판단할 수도 있다. Here, the projector failure diagnosis device 100 causes the image processing controller 160 to project the judgment information of the deep learning network 180 onto the grid cell and compare the information projected on the grid cell with information about specific content. It is also possible to detect malfunction areas and determine whether the projector is broken.

여기서, 판단 정보는, 그리드 셀을 기반으로 투영된 맵 데이터를 포함하고, 맵 데이터는 그리드별 디펙트 스코어를 포함할 수 있다. Here, the judgment information includes map data projected based on grid cells, and the map data may include defect scores for each grid.

이를 도 8을 참조로 하여 설명하면 아래와 같다. This is explained with reference to FIG. 8 as follows.

도 8은, 본 발명의 일 실시예에 따라 자율주행차량이 주행 중인 것으로 판단되는 경우, 자율주행차량에 설치된 프로젝터(130)의 고장을 판단하기 위한 맵 데이터 및 디펙트 스코어의 일례를 설명하기 위한 도면이다.FIG. 8 illustrates an example of map data and defect scores for determining a failure of the projector 130 installed in the autonomous vehicle when it is determined that the autonomous vehicle is driving according to an embodiment of the present invention. It is a drawing.

도 8에서와 같이, 변환 크롭 이미지(630)에 적어도 한번의 컨볼루션 연산을 적용하여 피쳐맵을 생성한다. 이후, 피쳐맵에 풀리커넥티드 연산을 적용하여 클래스 스코어를 포함하는 클래시피케이션 정보를 출력한다. As shown in FIG. 8, a feature map is generated by applying at least one convolution operation to the converted crop image 630. Afterwards, fully connected operation is applied to the feature map to output classification information including class scores.

여기서, 딥러닝 네트워크(180)의 판단 정보는 클래시피케이션 정보를 포함할 수 있으며, 클래시피케이션 정보는 도 8에서와 같이 변환 크롭 이미지(630)에 포함된 텍스트가 어떻게 인식될 가능성이 높은지에 대한 복수의 후보군에 대한 확률치를 의미할 수 있다. 가령, 가장 높은 확률을 가지는 클래스 스코어에 해당되는 텍스트는 '자율주행'이라는 텍스트인 것으로 상정하였다. Here, the judgment information of the deep learning network 180 may include clashification information, and the clashification information determines how the text included in the converted crop image 630 is likely to be recognized as shown in FIG. 8. It may mean the probability value for multiple candidate groups. For example, it was assumed that the text corresponding to the class score with the highest probability was the text 'autonomous driving'.

또한, 딥러닝 네트워크(180)의 판단 정보는, 도 8에서와 같이 피처맵에 대한 그리드별 디펙트 스코어를 포함할 수도 있으며, 디펙트 스코어를 그리드별로 반영하여 오동작 영역(810)이 검출되고, 프로젝터(130)의 고장 여부를 판단할 수도 있다. In addition, the judgment information of the deep learning network 180 may include the defect score for each grid for the feature map as shown in FIG. 8, and the malfunction area 810 is detected by reflecting the defect score for each grid, It is also possible to determine whether the projector 130 is broken.

도 9는, 본 발명의 일 실시예에 따라 자율주행차량이 정차 중인 것으로 판단되는 경우, 자율주행차량에 설치된 프로젝터의 고장을 판단하는 방법의 개략적인 순서를 설명하기 위한 도면이다.FIG. 9 is a diagram illustrating a schematic sequence of a method for determining a failure of a projector installed in an autonomous vehicle when it is determined that the autonomous vehicle is stopped according to an embodiment of the present invention.

앞에서 설명한 S210은 동일하게 수행될 수 있다. S210 described above can be performed in the same way.

즉, 프로젝터 고장 진단 장치(100)가, 프로젝터 제어기(150)로 하여금 자율주행차량의 상태에 대응되는 특정 컨텐츠를 생성하여 프로젝터(130)로 전달할 수 있다(S210).That is, the projector failure diagnosis device 100 can cause the projector controller 150 to generate specific content corresponding to the state of the autonomous vehicle and transmit it to the projector 130 (S210).

이후, 자율주행차량이 정차 중인 것으로 판단되면(S220'), 프로젝터 고장 진단 장치(100)가, 프로젝터(130)에 의해 특정 컨텐츠가 바닥면에 투사되기 전에 카메라(140)로 하여금 바닥면에 투사하기 전의 사전 이미지를 획득하도록 하고, 프로젝터(130)에 의해 특정 컨텐츠가 바닥면에 투사되기 이후에 카메라(140)로 하여금 바닥면에 투사된 사후 이미지를 추가적으로 획득하도록 할 수 있다(S221').Thereafter, when it is determined that the autonomous vehicle is stopped (S220'), the projector failure diagnosis device 100 causes the camera 140 to project the specific content on the floor before it is projected on the floor by the projector 130. A pre-image can be acquired before the content is projected on the floor, and the camera 140 can be used to additionally acquire a post-image projected on the floor after the specific content is projected on the floor by the projector 130 (S221').

이후, 영상처리 제어기(160)로 하여금 사전 이미지 및 사후 이미지 사이의 차영상을 계산하도록 하고, 차영상 및 특정 컨텐츠를 추가적으로 비교하여 프로젝터(130)의 고장 여부를 판단할 수 있다(S222').Afterwards, the image processing controller 160 can calculate the difference image between the pre-image and the after-image, and additionally compare the difference image and specific content to determine whether the projector 130 is broken (S222').

여기서, 프로젝터 고장 진단 장치(100)가, 영상처리 제어기(160)로 하여금, 차영상에 대한 정보를 그리드 셀에 투영하고 그리드 셀에 투영된 정보와 특정 컨텐츠에 대한 정보를 비교하여 오동작 영역을 검출하고 이를 통해 프로젝터(130)의 고장 여부를 판단하는 것이다. Here, the projector failure diagnosis device 100 causes the image processing controller 160 to project information about the difference image onto a grid cell and compare the information projected on the grid cell with information about specific content to detect a malfunction area. And through this, it is determined whether the projector 130 is broken.

참고로, 자율주행차량이 정차 중인 것으로 판단되는 경우에도, 앞에서 설명한 S210-1 및 S210-2가 수행될 수도 있다. For reference, even when it is determined that the autonomous vehicle is stopped, S210-1 and S210-2 described above may be performed.

즉, 자율주행차량이 정차 중인 경우에는, 사전 이미지 및 사후 이미지 사이의 차영상을 계산하고, 차영상 및 특정 컨텐츠를 비교하여 프로젝터(130)의 고장여부를 판단할 수 있지만, 앞에서 언급한 것과 같이 자율주행차량이 주행 중인 경우와 유사한 단계를 수행할 수도 있는 것이다. In other words, when the autonomous vehicle is stopped, it is possible to determine whether the projector 130 is broken by calculating the difference image between the pre-image and the after-image and comparing the difference image and specific content. However, as mentioned earlier, Similar steps can be performed when an autonomous vehicle is driving.

다시 말해, 프로젝터 고장 진단 장치(100)가, 전처리 제어기(170)로 하여금 획득된 컨텐츠 이미지 중 적어도 일부 대상 영역에 대하여 호모그래피 좌표 변환을 적용하여 대상 변환 영역을 생성할 수 있다(S210-1).In other words, the projector failure diagnosis apparatus 100 may generate a target transformation area by having the preprocessing controller 170 apply homography coordinate transformation to at least some target areas among the acquired content images (S210-1). .

또한, 프로젝터 고장 진단 장치(100)가, 전처리 제어기(170)로 하여금 대상 변환 영역을 크롭(crop)하도록 하여 변환 크롭 이미지를 생성할 수 있다(S210-2).Additionally, the projector failure diagnosis apparatus 100 may generate a converted cropped image by causing the preprocessing controller 170 to crop the target converted area (S210-2).

즉, 호모그래피 좌표 변환으로 대상 변환 영역을 생성하고, 대상 변환 영역을 크롭하여 변환 크롭 이미지를 생성하며, 이를 통해 차영상을 구한 후 프로젝터(130)의 고장 여부를 판단할 수도 있는 것이다. That is, a target transformation area is created through homography coordinate transformation, a transformation crop image is generated by cropping the target transformation area, a difference image is obtained through this, and then it is possible to determine whether the projector 130 is broken.

이를 도 10을 참조로 하여 설명하면 아래와 같다. This is explained with reference to FIG. 10 as follows.

도 10은, 본 발명의 일 실시예에 따라 자율주행차량이 정차 중인 것으로 판단되는 경우, 자율주행차량에 설치된 프로젝터의 고장을 판단하기 위한 사전 이미지 및 사후 이미지 사이의 차영상의 일례를 설명하기 위한 도면이다.Figure 10 illustrates an example of a difference image between a pre-image and a post-image for determining a failure of a projector installed in the autonomous vehicle when the autonomous vehicle is determined to be stopped according to an embodiment of the present invention. It is a drawing.

도 10과 같이, 특정 컨텐츠가 바닥면에 투사되기 전에 카메라(140)로 하여금 사전 이미지(1010)를 획득하도록 하였다. 이후, 특정 컨텐츠가 바닥면에 투사한 후의 사후 이미지(1020)도 추가적으로 획득하도록 하였다. As shown in Figure 10, the camera 140 is used to acquire a pre-image 1010 before specific content is projected on the floor. Afterwards, a post-image 1020 after specific content was projected onto the floor was additionally acquired.

이를 바탕으로 사전 이미지 및 사후 이미지 사이의 차영상(1030)을 획득하였고, 차영상 및 특정 컨텐츠(즉, '자율주행' 텍스트)를 비교하여 프로젝터(130)의 고장 여부를 판단하는 것이다. Based on this, the difference image 1030 between the pre-image and the after-image was obtained, and the difference image and specific content (i.e., 'autonomous driving' text) were compared to determine whether the projector 130 was broken.

마찬가지로, 차영상(1030)에 대한 정보를 그리드 셀에 투영하여, 이를 특정 컨텐츠와 비교하여 오동작 영역을 검출할 수도 있을 것이다. Likewise, the malfunction area may be detected by projecting information about the difference image 1030 onto a grid cell and comparing it with specific content.

이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magnetooptical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc., singly or in combination. The program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention or may be known and usable by those skilled in the computer software field. Examples of computer-readable recording media include hard disks, magnetic media such as floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magnetooptical media such as floptical disks. , and hardware devices specifically configured to store and perform program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform processing according to the invention and vice versa.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.In the above, the present invention has been described with specific details such as specific components and limited embodiments and drawings, but this is only provided to facilitate a more general understanding of the present invention, and the present invention is not limited to the above embodiments. , a person skilled in the art to which the present invention pertains can make various modifications and variations from this description.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments, and the scope of the patent claims described below as well as all modifications equivalent to or equivalent to the scope of the claims fall within the scope of the spirit of the present invention. They will say they do it.

Claims (20)

자율주행차량에 설치된 프로젝터의 고장을 판단하는 방법에 있어서,
(a) 프로젝터 고장 진단 장치가, 프로젝터 제어기로 하여금 상기 자율주행차량의 상태에 대응되는 특정 컨텐츠를 생성하여 상기 프로젝터로 전달하도록 하는 단계; 및
(b) 상기 자율주행차량이 주행 중인 것으로 판단되면, 상기 프로젝터 고장 진단 장치가, (b1) 상기 프로젝터로 하여금 상기 특정 컨텐츠를 바닥면에 투사하도록 하고, 카메라로 하여금 상기 바닥면에 투사된 상기 특정 컨텐츠를 촬영하여 컨텐츠 이미지를 획득하도록 하고, (b2) 딥러닝 네트워크로 하여금 상기 컨텐츠 이미지에 대해 연산을 수행하도록 하고, 영상처리 제어기로 하여금, 상기 프로젝터 제어기로부터 획득된 상기 특정 컨텐츠에 대한 정보 및 상기 딥러닝 네트워크에 의해 출력된 판단 정보를 참조로 하여, 상기 프로젝터의 고장 여부를 판단하도록 하는 단계;
를 포함하되,
상기 (b2) 단계 이전에,
(b11) 상기 프로젝터 고장 진단 장치가, 전처리 제어기로 하여금 상기 획득된 컨텐츠 이미지 중 적어도 일부 대상 영역에 대하여 호모그래피 좌표 변환을 적용하여 대상 변환 영역을 생성하는 단계;
(b12) 상기 프로젝터 고장 진단 장치가, 상기 전처리 제어기로 하여금 상기 대상 변환 영역을 크롭(crop)하도록 하여 변환 크롭 이미지를 생성하는 단계; 및
(b13) 상기 프로젝터 고장 진단 장치가, 상기 전처리 제어기로 하여금 상기 변환 크롭 이미지를 상기 딥러닝 네트워크로 입력하도록 하는 단계;
를 더 포함하는 것을 특징으로 하고,
상기 (b2) 단계에서,
(b21) 상기 프로젝터 고장 진단 장치가, 상기 딥러닝 네트워크로 하여금 상기 변환 크롭 이미지에 적어도 한번의 컨볼루션 연산을 적용하여 피쳐맵을 생성하도록 하고, 상기 피쳐맵에 풀리커넥티드 연산을 적용하여 클래스 스코어를 포함하는 클래시피케이션 정보를 출력하도록 하는 단계; 및
(b22) 상기 프로젝터 고장 진단 장치가, 상기 영상처리 제어기로 하여금, 상기 프로젝터 제어기로부터 획득된 상기 특정 컨텐츠에 대한 정보 및 상기 딥러닝 네트워크에 의해 출력된 상기 클래시피케이션 정보를 추가로 참조로 하여, 상기 프로젝터의 고장 여부를 판단하도록 하는 단계;
를 더 포함하는 것을 특징으로 하는 방법.
In a method of determining a malfunction of a projector installed in an autonomous vehicle,
(a) a projector failure diagnosis device causing a projector controller to generate specific content corresponding to the state of the autonomous vehicle and transmit it to the projector; and
(b) When it is determined that the autonomous vehicle is driving, the projector failure diagnosis device (b1) causes the projector to project the specific content on the floor, and causes the camera to project the specific content projected on the floor. acquire a content image by shooting content, (b2) cause a deep learning network to perform an operation on the content image, and cause an image processing controller to obtain information about the specific content obtained from the projector controller and the Determining whether the projector is broken by referring to decision information output by a deep learning network;
Including,
Before step (b2) above,
(b11) generating, by the projector failure diagnosis apparatus, a target transformation area by having a pre-processing controller apply homography coordinate transformation to at least some target areas of the acquired content images;
(b12) generating, by the projector failure diagnosis device, a converted cropped image by causing the preprocessing controller to crop the target converted area; and
(b13) allowing the projector failure diagnosis device to input the converted crop image to the deep learning network by the preprocessing controller;
Characterized by further comprising,
In step (b2) above,
(b21) The projector failure diagnosis device causes the deep learning network to generate a feature map by applying at least one convolution operation to the transformed crop image, and applies a fully connected operation to the feature map to generate a class score. A step of outputting conflict information including; and
(b22) The projector failure diagnosis device causes the image processing controller to additionally refer to the information about the specific content obtained from the projector controller and the classification information output by the deep learning network, determining whether the projector is broken;
A method further comprising:
삭제delete 제1항에 있어서,
상기 (b11) 단계에서,
상기 호모그래피 좌표 변환은, 상기 특정 컨텐츠를 상기 바닥면에 투사할 때, 상기 바닥면에 대응되는 대상 평면 및 상기 카메라에 대응되는 가상 평면의 관계를 규정하는 H matrix를 사용하여 수행되는 것을 특징으로 하는 방법.
According to paragraph 1,
In step (b11) above,
The homography coordinate transformation is performed using an H matrix that defines the relationship between a target plane corresponding to the floor and a virtual plane corresponding to the camera when projecting the specific content on the floor. How to.
삭제delete 제1항에 있어서,
상기 프로젝터 고장 진단 장치가, 상기 영상처리 제어기로 하여금, 상기 판단 정보를 그리드 셀에 투영하고 상기 그리드 셀에 투영된 정보와 상기 특정 컨텐츠에 대한 정보를 비교하여 오동작 영역을 검출하고 이를 통해 상기 프로젝터의 고장 여부를 판단하도록 하는 것을 특징으로 하는 방법.
According to paragraph 1,
The projector failure diagnosis device causes the image processing controller to project the determination information onto a grid cell, compare the information projected on the grid cell with information about the specific content, detect a malfunction area, and thereby detect the malfunction area of the projector. A method characterized by determining whether there is a failure.
제5항에 있어서,
상기 판단 정보는, 상기 그리드 셀을 기반으로 투영된 맵 데이터를 포함하고, 상기 맵 데이터는 그리드별 디펙트 스코어를 포함하는 것을 특징으로 하는 방법.
According to clause 5,
The decision information includes map data projected based on the grid cells, and the map data includes defect scores for each grid.
자율주행차량에 설치된 프로젝터의 고장을 판단하는 방법에 있어서,
(a) 프로젝터 고장 진단 장치가, 프로젝터 제어기로 하여금 상기 자율주행차량의 상태에 대응되는 특정 컨텐츠를 생성하여 상기 프로젝터로 전달하도록 하는 단계; 및
(b) 상기 자율주행차량이 주행 중인 것으로 판단되면, 상기 프로젝터 고장 진단 장치가, (b1) 상기 프로젝터로 하여금 상기 특정 컨텐츠를 바닥면에 투사하도록 하고, 카메라로 하여금 상기 바닥면에 투사된 상기 특정 컨텐츠를 촬영하여 컨텐츠 이미지를 획득하도록 하고, (b2) 딥러닝 네트워크로 하여금 상기 컨텐츠 이미지에 대해 연산을 수행하도록 하고, 영상처리 제어기로 하여금, 상기 프로젝터 제어기로부터 획득된 상기 특정 컨텐츠에 대한 정보 및 상기 딥러닝 네트워크에 의해 출력된 판단 정보를 참조로 하여, 상기 프로젝터의 고장 여부를 판단하도록 하는 단계;
를 포함하되,
상기 (b) 단계에서,
상기 자율주행차량이 정차 중인 것으로 판단되면, 상기 프로젝터 고장 진단 장치가, (b3) 상기 프로젝터에 의해 상기 특정 컨텐츠가 상기 바닥면에 투사되기 전에, 상기 카메라로 하여금 상기 바닥면에 투사하기 전의 사전 이미지 및 상기 바닥면에 투사한 후의 사후 이미지를 추가적으로 획득하도록 하고, (b4) 상기 영상처리 제어기로 하여금 상기 사전 이미지 및 상기 사후 이미지 사이의 차영상을 계산하도록 하고, 상기 차영상 및 상기 특정 컨텐츠를 추가적으로 비교하여 상기 프로젝터의 고장 여부를 판단하도록 하는 단계를 더 포함하는 것을 특징으로 하는 방법.
In a method of determining a malfunction of a projector installed in an autonomous vehicle,
(a) a projector failure diagnosis device causing a projector controller to generate specific content corresponding to the state of the autonomous vehicle and transmit it to the projector; and
(b) When it is determined that the autonomous vehicle is driving, the projector failure diagnosis device (b1) causes the projector to project the specific content on the floor, and causes the camera to project the specific content projected on the floor. acquire a content image by shooting content, (b2) cause a deep learning network to perform an operation on the content image, and cause an image processing controller to obtain information about the specific content obtained from the projector controller and the Determining whether the projector is broken by referring to decision information output by a deep learning network;
Including,
In step (b) above,
When it is determined that the autonomous vehicle is stopped, the projector failure diagnosis device (b3) displays a pre-image before the specific content is projected on the floor by the camera, before being projected on the floor by the camera. and additionally acquire a post-image after projection on the floor, (b4) cause the image processing controller to calculate a difference image between the pre-image and the post-image, and additionally obtain the difference image and the specific content. The method further includes comparing to determine whether the projector is broken.
제7항에 있어서,
상기 프로젝터 고장 진단 장치가, 상기 영상처리 제어기로 하여금, 상기 차영상에 대한 정보를 그리드 셀에 투영하고 상기 그리드 셀에 투영된 정보와 상기 특정 컨텐츠에 대한 정보를 비교하여 오동작 영역을 검출하고 이를 통해 상기 프로젝터의 고장 여부를 판단하도록 하는 것을 특징으로 하는 방법.
In clause 7,
The projector failure diagnosis device causes the image processing controller to project information about the difference image onto a grid cell and compare the information projected onto the grid cell with information about the specific content to detect a malfunction area. A method characterized by determining whether the projector is broken.
제1항에 있어서,
상기 특정 컨텐츠는, 상기 자율주행차량의 주행 여부 상태를 나타내는 컨텐츠, 기설정된 시간 이내에 상기 자율주행차량이 수행할 액션을 나타내는 컨텐츠, 상기 자율주행차량이 보행자에 근접했는지 여부를 나타내는 컨텐츠 중 적어도 일부에 대응되는 텍스트 정보를 포함하는 것을 특징으로 하는 방법.
According to paragraph 1,
The specific content includes at least some of content indicating whether the autonomous vehicle is driving, content indicating actions to be performed by the autonomous vehicle within a preset time, and content indicating whether the autonomous vehicle is close to a pedestrian. A method characterized by including corresponding text information.
제1항에 있어서,
상기 프로젝터의 위치는 상기 카메라의 위치보다 전방에 설치되어 있는 것을 특징으로 하고, 상기 프로젝터의 높이는 상기 카메라의 높이보다 하방에 설치되어 있는 것을 특징으로 하는 방법.
According to paragraph 1,
The method is characterized in that the position of the projector is installed in front of the position of the camera, and the height of the projector is installed below the height of the camera.
자율주행차량에 설치된 프로젝터의 고장을 판단하는 프로젝터 고장 진단 장치에 있어서,
인스트럭션들을 저장하는 적어도 하나의 메모리; 및
상기 인스트럭션들을 실행하기 위해 구성된 적어도 하나의 프로세서;
를 포함하되,
상기 프로세서는, (I) 프로젝터 제어기로 하여금 상기 자율주행차량의 상태에 대응되는 특정 컨텐츠를 생성하여 상기 프로젝터로 전달하도록 하는 프로세스; 및 (II) 상기 자율주행차량이 주행 중인 것으로 판단되면, (II-1) 상기 프로젝터로 하여금 상기 특정 컨텐츠를 바닥면에 투사하도록 하고, 카메라로 하여금 상기 바닥면에 투사된 상기 특정 컨텐츠를 촬영하여 컨텐츠 이미지를 획득하도록 하고, (II-2) 딥러닝 네트워크로 하여금 상기 컨텐츠 이미지에 대해 연산을 수행하도록 하고, 영상처리 제어기로 하여금, 상기 프로젝터 제어기로부터 획득된 상기 특정 컨텐츠에 대한 정보 및 상기 딥러닝 네트워크에 의해 출력된 판단 정보를 참조로 하여, 상기 프로젝터의 고장 여부를 판단하도록 하는 프로세스;를 수행하되,
상기 (II-2) 프로세스 이전에,
상기 프로세서는, (II-11) 전처리 제어기로 하여금 상기 획득된 컨텐츠 이미지 중 적어도 일부 대상 영역에 대하여 호모그래피 좌표 변환을 적용하여 대상 변환 영역을 생성하는 프로세스; (II-12) 상기 전처리 제어기로 하여금 상기 대상 변환 영역을 크롭(crop)하도록 하여 변환 크롭 이미지를 생성하는 프로세스 및 (II-13) 상기 전처리 제어기로 하여금 상기 변환 크롭 이미지를 상기 딥러닝 네트워크로 입력하도록 하는 프로세스;를 더 수행하는 것을 특징으로 하고,
상기 (II-2) 프로세스에서,
상기 프로세서는, (II-21) 상기 딥러닝 네트워크로 하여금 상기 변환 크롭 이미지에 적어도 한번의 컨볼루션 연산을 적용하여 피쳐맵을 생성하도록 하고, 상기 피쳐맵에 풀리커넥티드 연산을 적용하여 클래스 스코어를 포함하는 클래시피케이션 정보를 출력하도록 하는 프로세스; 및 (II-22) 상기 영상처리 제어기로 하여금, 상기 프로젝터 제어기로부터 획득된 상기 특정 컨텐츠에 대한 정보 및 상기 딥러닝 네트워크에 의해 출력된 상기 클래시피케이션 정보를 추가로 참조로 하여, 상기 프로젝터의 고장 여부를 판단하도록 하는 프로세스;를 더 수행하는 것을 특징으로 하는 프로젝터 고장 진단 장치.
In a projector failure diagnosis device that determines a failure of a projector installed in an autonomous vehicle,
at least one memory storing instructions; and
at least one processor configured to execute the instructions;
Including,
The processor may include: (I) a process for causing a projector controller to generate specific content corresponding to the state of the autonomous vehicle and transmit it to the projector; and (II) when it is determined that the autonomous vehicle is driving, (II-1) cause the projector to project the specific content on the floor, and cause the camera to photograph the specific content projected on the floor. Obtain a content image, (II-2) have a deep learning network perform an operation on the content image, and have an image processing controller obtain information about the specific content obtained from the projector controller and the deep learning A process of determining whether the projector is broken, with reference to the judgment information output by the network,
Before the process (II-2) above,
The processor may include: (II-11) a process of causing a pre-processing controller to generate a target transformation area by applying homography coordinate transformation to at least some target areas of the acquired content images; (II-12) A process of generating a converted cropped image by causing the preprocessing controller to crop the target converted area, and (II-13) having the preprocessing controller input the converted cropped image to the deep learning network. Characterized by further performing a process to do so,
In the process (II-2) above,
The processor (II-21) causes the deep learning network to generate a feature map by applying at least one convolution operation to the transformed crop image, and applies a fully connected operation to the feature map to generate a class score. A process for outputting classification information including; and (II-22) by causing the image processing controller to additionally refer to the information about the specific content obtained from the projector controller and the classification information output by the deep learning network to detect a failure of the projector. A projector failure diagnosis device characterized in that it further performs a process to determine whether or not the projector failure is present.
삭제delete 제11항에 있어서,
상기 (II-11) 프로세스에서,
상기 호모그래피 좌표 변환은, 상기 특정 컨텐츠를 상기 바닥면에 투사할 때, 상기 바닥면에 대응되는 대상 평면 및 상기 카메라에 대응되는 가상 평면의 관계를 규정하는 H matrix를 사용하여 수행되는 것을 특징으로 하는 프로젝터 고장 진단 장치.
According to clause 11,
In the process (II-11) above,
The homography coordinate transformation is characterized by being performed using an H matrix that defines the relationship between a target plane corresponding to the floor and a virtual plane corresponding to the camera when projecting the specific content on the floor. A projector failure diagnosis device.
삭제delete 제11항에 있어서,
상기 프로세서는, 상기 영상처리 제어기로 하여금, 상기 판단 정보를 그리드 셀에 투영하고 상기 그리드 셀에 투영된 정보와 상기 특정 컨텐츠에 대한 정보를 비교하여 오동작 영역을 검출하고 이를 통해 상기 프로젝터의 고장 여부를 판단하도록 하는 것을 특징으로 하는 프로젝터 고장 진단 장치.
According to clause 11,
The processor causes the image processing controller to project the determination information onto a grid cell, compare the information projected on the grid cell with information about the specific content, detect a malfunction area, and determine whether the projector is broken through this. A projector failure diagnosis device characterized by making a decision.
제15항에 있어서,
상기 판단 정보는, 상기 그리드 셀을 기반으로 투영된 맵 데이터를 포함하고, 상기 맵 데이터는 그리드별 디펙트 스코어를 포함하는 것을 특징으로 하는 프로젝터 고장 진단 장치.
According to clause 15,
The judgment information includes map data projected based on the grid cells, and the map data includes a defect score for each grid.
자율주행차량에 설치된 프로젝터의 고장을 판단하는 프로젝터 고장 진단 장치에 있어서,
인스트럭션들을 저장하는 적어도 하나의 메모리; 및
상기 인스트럭션들을 실행하기 위해 구성된 적어도 하나의 프로세서;
를 포함하되,
상기 프로세서는, (I) 프로젝터 제어기로 하여금 상기 자율주행차량의 상태에 대응되는 특정 컨텐츠를 생성하여 상기 프로젝터로 전달하도록 하는 프로세스; 및 (II) 상기 자율주행차량이 주행 중인 것으로 판단되면, (II-1) 상기 프로젝터로 하여금 상기 특정 컨텐츠를 바닥면에 투사하도록 하고, 카메라로 하여금 상기 바닥면에 투사된 상기 특정 컨텐츠를 촬영하여 컨텐츠 이미지를 획득하도록 하고, (II-2) 딥러닝 네트워크로 하여금 상기 컨텐츠 이미지에 대해 연산을 수행하도록 하고, 영상처리 제어기로 하여금, 상기 프로젝터 제어기로부터 획득된 상기 특정 컨텐츠에 대한 정보 및 상기 딥러닝 네트워크에 의해 출력된 판단 정보를 참조로 하여, 상기 프로젝터의 고장 여부를 판단하도록 하는 프로세스;를 수행하되,
상기 (II) 프로세스에서,
상기 프로세서는, 상기 자율주행차량이 정차 중인 것으로 판단되면, (II-3) 상기 프로젝터에 의해 상기 특정 컨텐츠가 상기 바닥면에 투사되기 전에, 상기 카메라로 하여금 상기 바닥면에 투사하기 전의 사전 이미지 및 상기 바닥면에 투사한 후의 사후 이미지를 추가적으로 획득하도록 하고, (II-4) 상기 영상처리 제어기로 하여금 상기 사전 이미지 및 상기 사후 이미지 사이의 차영상을 계산하도록 하고, 상기 차영상 및 상기 특정 컨텐츠를 추가적으로 비교하여 상기 프로젝터의 고장 여부를 판단하도록 하는 프로세스를 더 수행하는 것을 특징으로 하는 프로젝터 고장 진단 장치.
In a projector failure diagnosis device that determines a failure of a projector installed in an autonomous vehicle,
at least one memory storing instructions; and
at least one processor configured to execute the instructions;
Including,
The processor may include: (I) a process for causing a projector controller to generate specific content corresponding to the state of the autonomous vehicle and transmit it to the projector; and (II) when it is determined that the autonomous vehicle is driving, (II-1) cause the projector to project the specific content on the floor, and cause the camera to photograph the specific content projected on the floor. Obtain a content image, (II-2) have a deep learning network perform an operation on the content image, and have an image processing controller obtain information about the specific content obtained from the projector controller and the deep learning A process of determining whether the projector is broken, with reference to the judgment information output by the network,
In process (II) above,
If the processor determines that the autonomous vehicle is stopped, (II-3) before the specific content is projected on the floor by the projector, a pre-image before projection on the floor by the camera and Additional acquisition of a post-image after projection on the floor, (II-4) causing the image processing controller to calculate a difference image between the pre-image and the post-image, and calculating the difference image and the specific content. A projector failure diagnosis device characterized by further performing a process to determine whether the projector is broken by additional comparison.
제17항에 있어서,
상기 프로세서는, 상기 영상처리 제어기로 하여금, 상기 차영상에 대한 정보를 그리드 셀에 투영하고 상기 그리드 셀에 투영된 정보와 상기 특정 컨텐츠에 대한 정보를 비교하여 오동작 영역을 검출하고 이를 통해 상기 프로젝터의 고장 여부를 판단하도록 하는 것을 특징으로 하는 프로젝터 고장 진단 장치.
According to clause 17,
The processor causes the image processing controller to project information about the difference image onto a grid cell, compare the information projected on the grid cell with information about the specific content, detect a malfunction area, and thereby detect the malfunction area of the projector. A projector failure diagnosis device characterized in that it determines whether there is a failure.
제11항에 있어서,
상기 특정 컨텐츠는, 상기 자율주행차량의 주행 여부 상태를 나타내는 컨텐츠, 기설정된 시간 이내에 상기 자율주행차량이 수행할 액션을 나타내는 컨텐츠, 상기 자율주행차량이 보행자에 근접했는지 여부를 나타내는 컨텐츠 중 적어도 일부에 대응되는 텍스트 정보를 포함하는 것을 특징으로 하는 프로젝터 고장 진단 장치.
According to clause 11,
The specific content includes at least some of content indicating whether the autonomous vehicle is driving, content indicating actions to be performed by the autonomous vehicle within a preset time, and content indicating whether the autonomous vehicle is close to a pedestrian. A projector failure diagnosis device comprising corresponding text information.
제11항에 있어서,
상기 프로젝터의 위치는 상기 카메라의 위치보다 전방에 설치되어 있는 것을 특징으로 하고, 상기 프로젝터의 높이는 상기 카메라의 높이보다 하방에 설치되어 있는 것을 특징으로 하는 프로젝터 고장 진단 장치.
According to clause 11,
A projector failure diagnosis device, characterized in that the position of the projector is installed in front of the position of the camera, and the height of the projector is installed below the height of the camera.
KR1020230118018A 2023-09-05 2023-09-05 Method for determining failure of a projector installed on autonomous vehicle and projector fault determining device using the same KR102677983B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230118018A KR102677983B1 (en) 2023-09-05 2023-09-05 Method for determining failure of a projector installed on autonomous vehicle and projector fault determining device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230118018A KR102677983B1 (en) 2023-09-05 2023-09-05 Method for determining failure of a projector installed on autonomous vehicle and projector fault determining device using the same

Publications (1)

Publication Number Publication Date
KR102677983B1 true KR102677983B1 (en) 2024-06-25

Family

ID=91710774

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230118018A KR102677983B1 (en) 2023-09-05 2023-09-05 Method for determining failure of a projector installed on autonomous vehicle and projector fault determining device using the same

Country Status (1)

Country Link
KR (1) KR102677983B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170075182A (en) * 2015-12-23 2017-07-03 전자부품연구원 Method of Distortion Compensation and Compensation Area Optimization for Projector and System using the same
KR20180110355A (en) * 2017-03-29 2018-10-10 한국전자통신연구원 Projector and calibration method for projector
KR20200039589A (en) * 2018-10-04 2020-04-16 씨드로닉스(주) Device and method for monitoring ship and port
KR20200064182A (en) * 2018-11-16 2020-06-08 현대모비스 주식회사 Control system of autonomous vehicle and control method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170075182A (en) * 2015-12-23 2017-07-03 전자부품연구원 Method of Distortion Compensation and Compensation Area Optimization for Projector and System using the same
KR20180110355A (en) * 2017-03-29 2018-10-10 한국전자통신연구원 Projector and calibration method for projector
KR20200039589A (en) * 2018-10-04 2020-04-16 씨드로닉스(주) Device and method for monitoring ship and port
KR20200064182A (en) * 2018-11-16 2020-06-08 현대모비스 주식회사 Control system of autonomous vehicle and control method thereof

Similar Documents

Publication Publication Date Title
US11977675B2 (en) Primary preview region and gaze based driver distraction detection
US11356599B2 (en) Human-automation collaborative tracker of fused object
CN111160172B (en) Parking space detection method, device, computer equipment and storage medium
CN108571974A (en) Use the vehicle location of video camera
KR102082254B1 (en) a vehicle recognizing system
CN108961146B (en) Method and device for rendering perception map
JP2021534494A (en) Camera evaluation technology for autonomous vehicles
US20140160289A1 (en) Apparatus and method for providing information of blind spot
CN114170826B (en) Automatic driving control method and device, electronic device and storage medium
US11468591B2 (en) Scene attribute annotation of complex road typographies
CN113469933A (en) Generative antagonistic network model for small road object detection
US11244473B2 (en) Positioning method, positioning apparatus of mobile device and electronic device
Mishra et al. ADAS technology: a review on challenges, legal risk mitigation and solutions
US20210049382A1 (en) Non-line of sight obstacle detection
KR102677983B1 (en) Method for determining failure of a projector installed on autonomous vehicle and projector fault determining device using the same
US20200184741A1 (en) System and method for post-route analysis of an autonomous vehicle
CN110705134A (en) Driving test method, device, equipment and computer readable storage medium
CN116605141B (en) Display method and device of electronic rearview mirror, electronic equipment and storage medium
GB2624627A (en) A system and method of detecting curved mirrors within an image
WO2023285254A1 (en) Generating a filtered point cloud and guiding a vehicle at least in part automatically
KR20240111593A (en) Apparatus for generating depth map of monocular camera image and method thereof
CN112859810A (en) ADAS algorithm verification method and device based on Carla platform
KR20230109406A (en) Apparatus and method for detecting an object based on fusion of thermal imaging camera and lidar sensor
Chen et al. MOSE: Boosting Vision-based Roadside 3D Object Detection with Scene Cues
Stoddart Computer Vision Techniques for Automotive Perception Systems