KR102372439B1 - 도로 터널의 조명 제어 장치 - Google Patents

도로 터널의 조명 제어 장치 Download PDF

Info

Publication number
KR102372439B1
KR102372439B1 KR1020210057071A KR20210057071A KR102372439B1 KR 102372439 B1 KR102372439 B1 KR 102372439B1 KR 1020210057071 A KR1020210057071 A KR 1020210057071A KR 20210057071 A KR20210057071 A KR 20210057071A KR 102372439 B1 KR102372439 B1 KR 102372439B1
Authority
KR
South Korea
Prior art keywords
vehicle
light
point
confirmed
lighting unit
Prior art date
Application number
KR1020210057071A
Other languages
English (en)
Inventor
이재훈
Original Assignee
주식회사 대성티엠씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 대성티엠씨 filed Critical 주식회사 대성티엠씨
Priority to KR1020210057071A priority Critical patent/KR102372439B1/ko
Application granted granted Critical
Publication of KR102372439B1 publication Critical patent/KR102372439B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)

Abstract

일실시예에 따르면, 도로의 터널 내부의 옆측 벽면에 일정 간격으로 설치되어, 상기 옆측 벽면으로 차량이 가깝게 붙어서 이동하는지 여부를 감지하는 복수의 센서부; 상기 옆측 벽면에 일정 간격으로 설치되어, 상기 옆측 벽면으로 차량이 가깝게 붙어서 이동하는 경우, 빛을 조사하는 복수의 조명부; 및 상기 옆측 벽면의 제1 지점에 설치된 제1 센서부로부터 수신된 센서 신호를 기초로, 상기 제1 지점에서 상기 옆측 벽면으로 제1 차량이 미리 설정된 제1 기준 거리 보다 가깝게 붙어서 이동한 것으로 확인되면, 상기 제1 지점에서 차량 이동 방향의 전방으로 미리 설정된 제1 거리 떨어져 위치하는 지점인 제2 지점에 설치된 제2 조명부에서 빛이 조사되도록 제어하는 제어부를 포함하는, 도로 터널의 조명 제어 장치가 제공된다.

Description

도로 터널의 조명 제어 장치 {DEVICE FOR CONTROLLING LIGHT OF ROAD TUNNEL}
아래 실시예들은 도로 터널 내에서 주행중인 차량이 옆측 벽면에 가깝게 붙어서 이동하는 경우, 조명부에서 빛이 조사되도록 제어하는 기술에 관한 것이다.
도로의 터널은 외부 환경으로부터 갇혀 있으며 내부가 매우 어둡기 때문에 차량의 안전 소통 및 시야 확보를 위하여 주야간을 가리지 않고, 모든 조명이 점등 상태를 유지하도록 운용되고 있다.
하지만, 종래에는 터널의 천장에만 조명이 설치되어 있어, 터널의 옆측 벽면을 확인하는데 어려움이 있었다. 특히, 터널은 기존의 도로 보다 사고 발생율이 높기 때문에, 터널 옆측 벽에 부딪혔을 시 사고가 더 크게 번질 수 있으므로, 터널 옆측의 정확한 위치가 보이도록 하는 조명이 필요한 상황이다.
실질적으로 도로의 넓이를 늘린다면 사고 발생율이 떨어지겠지만, 공간 상의 한계가 있기 때문에 도로 가장자리에 차량이 가깝게 붙었을 시 옆측 벽면에 설치된 조명이 자동적으로 켜지도록 하여, 운전자에게 차량이 옆측 벽면과 가깝게 붙어있다는 것을 알려줄 수 있는 기술이 요구되는 실정이다.
한국등록특허 제10-1905125호(2018.10.08) 한국등록특허 제10-1993999호(2019.06.27) 한국등록특허 제10-2009207호(2019.10.21) 한국등록특허 제10-2081068호(2020.02.25)
일실시예에 따르면, 옆측 벽면의 제1 지점에 설치된 제1 센서부로부터 수신된 센서 신호를 기초로, 제1 지점에서 옆측 벽면으로 제1 차량이 미리 설정된 제1 기준 거리 보다 가깝게 붙어서 이동한 것으로 확인되면, 제2 지점에 설치된 제2 조명부에서 빛이 조사되도록 제어하는, 도로 터널의 조명 제어 장치를 제공하기 위한 것을 그 목적으로 한다.
본 발명의 목적은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
일실시예에 따르면, 도로의 터널 내부의 옆측 벽면에 일정 간격으로 설치되어, 상기 옆측 벽면으로 차량이 가깝게 붙어서 이동하는지 여부를 감지하는 복수의 센서부; 상기 옆측 벽면에 일정 간격으로 설치되어, 상기 옆측 벽면으로 차량이 가깝게 붙어서 이동하는 경우, 빛을 조사하는 복수의 조명부; 및 상기 옆측 벽면의 제1 지점에 설치된 제1 센서부로부터 수신된 센서 신호를 기초로, 상기 제1 지점에서 상기 옆측 벽면으로 제1 차량이 미리 설정된 제1 기준 거리 보다 가깝게 붙어서 이동한 것으로 확인되면, 상기 제1 지점에서 차량 이동 방향의 전방으로 미리 설정된 제1 거리 떨어져 위치하는 지점인 제2 지점에 설치된 제2 조명부에서 빛이 조사되도록 제어하는 제어부를 포함하는, 도로 터널의 조명 제어 장치가 제공된다.
상기 제어부는, 상기 제1 지점에서 상기 옆측 벽면으로 상기 제1 차량이 상기 제1 기준 거리 보다 가깝게 붙어있고 상기 제1 기준 거리 보다 더 짧은 값으로 설정된 제2 기준 거리 보다 멀리 떨어져 이동한 것으로 확인되면, 상기 제2 조명부에서 미리 설정된 제1 광도의 빛이 조사되도록 제어하고, 상기 제1 지점에서 상기 옆측 벽면으로 상기 제1 차량이 상기 제2 기준 거리 보다 가깝게 붙어있고 상기 제2 기준 거리 보다 더 짧은 값으로 설정된 제3 기준 거리 보다 멀리 떨어져 이동한 것으로 확인되면, 상기 제2 조명부에서 상기 제1 광도 보다 강한 세기로 설정된 제2 광도의 빛이 조사되도록 제어하고, 상기 제1 지점에서 상기 옆측 벽면으로 상기 제1 차량이 상기 제3 기준 거리 보다 가깝게 붙어서 이동한 것으로 확인되면, 상기 제2 조명부에서 상기 제2 광도의 빛이 점멸되도록 제어할 수 있다.
상기 도로 터널의 조명 제어 장치는, 도로에서 주행중인 차량의 움직임을 감지하여 차량의 속도를 측정하는 차량 모니터링부를 더 포함하며, 상기 제어부는, 상기 제1 지점에서 상기 옆측 벽면으로 제1 차량이 상기 제1 기준 거리 보다 가깝게 붙어서 이동한 것으로 확인되면, 상기 차량 모니터링부로부터 수신된 모니터링 정보를 기초로, 상기 제1 지점을 통과하는 시점에 상기 제1 차량의 속도를 확인하고, 상기 제1 차량의 속도가 미리 설정된 제1 기준 속도 보다 느린 것으로 확인되면, 상기 제2 조명부에서 상기 제1 광도의 빛이 조사되도록 제어하고, 상기 제1 차량의 속도가 상기 제1 기준 속도 보다 빠르고 상기 제1 기준 속도 보다 더 빠른 값으로 설정된 제2 기준 속도 보다 느린 것으로 확인되면, 상기 제2 조명부에서 상기 제2 광도의 빛이 조사되도록 제어하고, 상기 제1 차량의 속도가 상기 제2 기준 속도 보다 빠르고 상기 제2 기준 속도 보다 더 빠른 값으로 설정된 제3 기준 속도 보다 느린 것으로 확인되면, 상기 제2 조명부에서 상기 제2 광도의 빛이 조사되도록 제어하면서, 상기 제2 지점에서 차량 이동 방향의 전방으로 상기 제1 거리 떨어져 위치하는 지점인 제3 지점에 설치된 제3 조명부에서 상기 제1 광도의 빛이 조사되도록 제어하고, 상기 제1 차량의 속도가 상기 제3 기준 속도 보다 빠르고 상기 제3 기준 속도 보다 더 빠른 값으로 설정된 제4 기준 속도 보다 느린 것으로 확인되면, 상기 제2 조명부에서 상기 제2 광도의 빛이 조사되도록 제어하면서, 상기 제3 조명부에서 상기 제2 광도의 빛이 조사되도록 제어하고, 상기 제1 차량의 속도가 상기 제4 기준 속도 보다 빠른 것으로 확인되면, 상기 제2 조명부에서 상기 제2 광도의 빛이 점멸되도록 제어하면서, 상기 제3 조명부에서 상기 제2 광도의 빛이 점멸되도록 제어할 수 있다.
상기 차량 모니터링부는, 도로에서 주행중인 차량 간의 이격 거리를 더 측정하며, 상기 제어부는, 상기 제1 지점에서 상기 옆측 벽면으로 제1 차량이 상기 제1 기준 거리 보다 가깝게 붙어서 이동한 것으로 확인되면, 상기 차량 모니터링부로부터 수신된 모니터링 정보를 기초로, 상기 제1 차량의 후방으로 가장 가깝게 위치하는 제2 차량을 검출하여, 상기 제1 차량과 상기 제2 차량 간의 이격 거리를 확인하고, 상기 이격 거리가 미리 설정된 제1 기준 간격 보다 긴 것으로 확인되면, 상기 제2 조명부에서 제1 색의 빛이 조사되도록 제어하고, 상기 이격 거리가 상기 제1 기준 간격 보다 짧고 상기 제1 기준 간격 보다 더 작은 값으로 설정된 제2 기준 간격 보다 긴 것으로 확인되면, 상기 제2 조명부에서 상기 제1 색의 빛이 점멸되도록 제어하고, 상기 이격 거리가 상기 제2 기준 간격 보다 짧고 상기 제2 기준 간격 보다 더 작은 값으로 설정된 제3 기준 간격 보다 긴 것으로 확인되면, 상기 제2 조명부에서 제2 색의 빛이 조사되도록 제어하고, 상기 이격 거리가 상기 제3 기준 간격 보다 짧은 것으로 확인되면, 상기 제2 조명부에서 제2 색의 빛이 점멸되도록 제어할 수 있다.
상기 제어부는, 상기 차량 모니터링부에 장착된 라이다를 통해 상기 제1 차량의 표면에 대한 3D 데이터를 획득하고, 상기 차량 모니터링부에 장착된 카메라를 통해 상기 제1 차량의 표면에 대한 2D 데이터를 획득하고, 상기 2D 데이터와 상기 3D 데이터의 합집합 영역을 분리하여, 상기 2D 데이터 및 상기 3D 데이터를 병합한 제1 데이터를 추출하고, 상기 제1 데이터를 인코딩 하여 제1 입력 신호를 생성하고, 상기 제1 입력 신호를 제1 인공 신경망에 입력하고, 상기 제1 인공 신경망의 입력의 결과에 기초하여, 제1 출력 신호를 획득하고, 상기 제1 출력 신호에 기초하여, 상기 제1 차량의 표면에 대한 제1 분류 결과를 생성하고, 상기 제1 데이터를 분석하여 상기 제1 차량의 표면에 발생한 균열을 검출하고, 상기 제1 차량의 표면에 발생한 균열을 영역별로 확인하여, 미리 설정된 제1 설정값 미만으로 균열이 검출된 정상 영역과 상기 제1 설정값 이상으로 균열이 검출된 손상 영역을 구분하고, 상기 제1 데이터에서 상기 손상 영역을 삭제한 제2 데이터를 추출하고, 상기 제2 데이터를 인코딩 하여 제2 입력 신호를 생성하고, 상기 제2 입력 신호를 제2 인공 신경망에 입력하고, 상기 제2 인공 신경망의 입력의 결과에 기초하여, 제2 출력 신호를 획득하고, 상기 제2 출력 신호에 기초하여, 상기 제1 차량의 표면에 대한 제2 분류 결과를 생성하고, 상기 제1 분류 결과 및 상기 제2 분류 결과가 동일한 경우, 상기 제1 분류 결과 및 상기 제2 분류 결과 중 어느 하나를 상기 제1 차량의 표면에 대한 최종 분류 결과로 설정할 수 있다.
일실시예에 따르면, 옆측 벽면의 제1 지점에 설치된 제1 센서부로부터 수신된 센서 신호를 기초로, 제1 지점에서 옆측 벽면으로 제1 차량이 미리 설정된 제1 기준 거리 보다 가깝게 붙어서 이동한 것으로 확인되면, 제2 지점에 설치된 제2 조명부에서 빛이 조사되도록 제어함으로써, 도로 가장자리에 차량이 가깝게 붙었을 시 옆측 벽면에 설치된 조명이 자동적으로 켜지도록 하여, 운전자에게 차량이 옆측 벽면과 가깝게 붙어있다는 것을 알려줄 수 있는 효과가 있다.
한편, 실시예들에 따른 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 일실시예에 따른 도로 터널의 조명 제어 장치에 대한 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 지점 별로 설치된 센서부 및 조명부를 설명하기 위한 도면이다.
도 3은 일실시예에 따른 옆측 벽면으로 차량이 가깝게 붙어서 이동하는 경우 빛이 조사되도록 제어하는 과정을 설명하기 위한 도면이다.
도 4는 일실시예에 따른 차량이 옆측 벽면으로 가깝게 붙을수록 더 강한 세기의 빛이 조사되는 과정을 설명하기 위한 도면이다.
도 5는 일실시예에 따른 차량의 속도가 빠를수록 더 강한 세기의 빛이 조사되는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 차량의 속도가 빠를수록 더 많은 수의 조명이 작동되는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 차량 간의 거리가 가까울수록 다른 색의 빛이 조사되는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 차량의 표면을 분류하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 인공 신경망을 설명하기 위한 도면이다.
도 10은 일실시예에 따른 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.
도 11은 일실시예에 따른 제어부의 구성의 예시도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.
도 1은 일실시예에 따른 도로 터널의 조명 제어 장치에 대한 구성을 개략적으로 나타낸 도면이다.
도 1을 참조하면, 도로 터널의 조명 제어 장치는 복수의 센서부(10), 복수의 조명부(20), 차량 모니터링부(30) 및 제어부(40)를 포함할 수 있다.
복수의 센서부(10)는 도로의 터널 내부의 옆측 벽면에 일정 간격으로 설치되어, 옆측 벽면으로 차량이 가깝게 붙어서 이동하는지 여부를 감지할 수 있다.
구체적으로, 복수의 센서부(10) 각각은 거리 측정 센서로 구현되어, 터널 내의 도로를 이동하는 차량들이 옆측 벽면으로 얼마나 가깝게 붙어있는지 거리를 측정할 수 있다.
도 1에서는 설명의 편의를 위해 복수의 센서부(10) 중 제1 센서부(11), 제2 센서부(12) 및 제3 센서부(13)만을 도시하였으나, 터널의 길이에 따라 센서부의 수는 얼마든지 달라질 수 있다.
복수의 조명부(20)는 도로의 터널 내부의 옆측 벽면에 일정 간격으로 설치되어, 옆측 벽면으로 차량이 가깝게 붙어서 이동하는 경우, 빛을 조사할 수 있다.
구체적으로, 복수의 조명부(20) 각각은 조명 기기로 구현되어, 터널 내의 도로를 이동하는 차량들이 옆측 벽면으로 가깝게 붙어서 이동하는 경우, 벽면과 가까이 붙어있는 것을 알려주기 위해 빛을 조사하도록 동작할 수 있다.
도 1에서는 설명의 편의를 위해 복수의 조명부(20) 중 제1 조명부(21), 제2 조명부(22) 및 제3 조명부(23)만을 도시하였으나, 터널의 길이에 따라 조명부의 수는 얼마든지 달라질 수 있다.
차량 모니터링부(30)는 터널 내의 도로에서 주행중인 차량의 움직임을 감지하여 차량의 속도를 측정할 수 있다.
구체적으로, 차량 모니터링부(30)는 터널 내에 설치되어 터널 내의 도로에서 주행중인 차량들의 속도를 감지하는 것으로, 속도 측정기, CCTV 카메라 등으로 구현될 수 있다.
차량 모니터링부(30)는 도로의 차선이 많을수록, 전체 차선을 모두 감지하도록 더 많이 설치될 수 있으며, 터널 내에 일정 간격으로 설치되어 터널의 길이에 따라 차량 모니터링부(30)의 수는 얼마든지 달라질 수 있다.
제어부(40)는 도로 터널의 조명 제어 장치에 대한 동작이 정상적으로 수행되도록, 복수의 센서부(10), 복수의 조명부(20) 및 차량 모니터링부(30)에 대한 동작을 제어할 수 있다. 이를 위해, 제어부(40)는 복수의 센서부(10), 복수의 조명부(20) 및 차량 모니터링부(30)과 유무선 통신을 통해 연결되어, 정보를 송수신할 수 있다.
제어부(40)는 프로세서 및 메모리를 포함한다. 제어부(40)의 프로세서는 도 2 내지 도 10을 통하여 후술되는 적어도 하나의 방법을 수행할 수 있다. 제어부(40)의 메모리는 후술되는 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 제어부(40)의 메모리는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
제어부(40)의 프로세서는 프로그램을 실행하고, 제어부(40)를 제어할 수 있다. 제어부(40)의 프로세서에 의하여 실행되는 프로그램의 코드는 제어부(40)의 메모리에 저장될 수 있다.
제어부(40)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)와 연결되고, 외부 장치와 유무선 통신을 통해 데이터를 교환할 수 있다.
도 2는 일실시예에 따른 지점 별로 설치된 센서부 및 조명부를 설명하기 위한 도면이다.
도 2를 참조하면, 도로의 터널 내부의 옆측 벽면에는, 제1 지점(201), 제2 지점(202) 및 제3 지점(203)이 일정 간격으로 구분되어 있다.
제1 지점(201)의 위치에서 차량 이동 방향으로 제1 거리 떨어져 위치하는 지점이 제2 지점(202)으로 설정될 수 있으며, 이때, 제1 거리는 실시예에 따라 상이하게 설정될 수 있다.
제2 지점(202)의 위치에서 차량 이동 방향으로 제1 거리 떨어져 위치하는 지점이 제3 지점(203)으로 설정될 수 있으며, 제1 지점(201)과 제2 지점(202)이 제1 거리 떨어져 위치하고, 제2 지점(202)과 제3 지점(203)이 제1 거리 떨어져 위치하므로, 제1 지점(201)과 제3 지점(203)은 제1 거리의 2배인 제2 거리 떨어져 위치할 수 있다.
복수의 센서부(10) 중 제1 센서부(11)는 제1 지점(201)에 설치되고, 제2 센서부(12)는 제2 지점(202)에 설치되고, 제3 센서부(13)는 제3 지점(203)에 설치될 수 있다.
복수의 조명부(20) 중 제1 조명부(21)는 제1 지점(201)에 설치되고, 제2 조명부(22)는 제2 지점(202)에 설치되고, 제3 조명부(23)는 제3 지점(203)에 설치될 수 있다.
일실시예에 따르면, 제1 센서부(11) 및 제1 조명부(21)는 제1 지점(201)에 각각 설치될 수 있으며, 예를 들어, 제1 센서부(11)는 제1 지점(201)의 하단에 설치되고, 제1 조명부(21)는 제1 지점(201)의 상단에 설치될 수 있다.
다른 실시예에 따르면, 제1 센서부(11) 및 제1 조명부(21)는 하나의 기기로 구현되어, 해당 기기가 제1 지점(201)에 설치될 수 있다.
도 3은 일실시예에 따른 옆측 벽면으로 차량이 가깝게 붙어서 이동하는 경우 빛이 조사되도록 제어하는 과정을 설명하기 위한 도면이다.
도 3을 참조하면, 제1 지점(201)에 설치된 제1 센서부(11)는 제1 지점(201)을 통과하는 제1 차량이 옆측 벽면과 얼마나 떨어져 있는지 거리를 측정하여 센서 신호를 생성할 수 있다.
제어부(40)는 제1 센서부(11)로부터 센서 신호를 수신하고, 수신된 센서 신호를 기초로, 제1 지점(201)에서 옆측 벽면으로 제1 차량이 얼마나 가깝게 붙어서 이동하였는지 여부를 확인할 수 있다.
제어부(40)는 제1 지점(201)에서 제1 차량이 위험 수준으로 옆측 벽면과 가깝게 붙어서 이동한 것으로 확인되면, 옆측 벽면과 가까이 붙어있는 것을 알려주기 위해, 제2 지점(202)에 설치된 제2 조명부(22)에서 빛이 조사되도록 제어할 수 있다.
즉, 제1 지점(201)에 설치된 제1 센서부(11)에서 제1 차량이 옆측 벽면으로 가깝게 붙어서 이동한 것을 감지한 경우, 제1 차량이 제1 지점(201)을 이미 통과하였으므로, 제1 지점(201)에 설치된 제1 조명부(21)에서 빛이 조사되는 것이 아니라, 제2 지점(202)에 설치된 제2 조명부(22)에서 빛이 조사될 수 있다.
예를 들어, 제어부(40)는 제1 센서부(11)에서 제1 차량이 옆측 벽면과 60cm 떨어져 이동한 것으로 감지하면, 안전 거리를 확보한 것으로 판단하여, 조명부에서 빛이 조사되지 않도록 제어하고, 제1 센서부(11)에서 제1 차량이 옆측 벽면과 30cm 떨어져 이동한 것으로 감지하면, 안전 거리를 확보하지 못한 것으로 판단하여, 제2 조명부(22)에서 빛이 조사되도록 제어할 수 있다.
도 4는 일실시예에 따른 차량이 옆측 벽면으로 가깝게 붙을수록 더 강한 세기의 빛이 조사되는 과정을 설명하기 위한 도면이다.
도 4에 도시된 바와 같이, 제1 기준 거리(401), 제2 기준 거리(402) 및 제3 기준 거리(403)가 각각 설정될 수 있다. 여기서, 제1 기준 거리(401)는 실시예에 따라 상이하게 설정될 수 있으며, 제2 기준 거리(402)는 제1 기준 거리(401) 보다 더 짧은 값으로 설정될 수 있으며, 제3 기준 거리(403)는 제2 기준 거리(402) 보다 더 짧은 값으로 설정될 수 있다.
일실시예에 따르면, 제1 지점(201)에 설치된 제1 센서부(11)는 제1 지점(201)에서 옆측 벽면으로 제1 차량이 얼마나 가깝게 붙어있는지 감지하여 센서 신호를 생성할 수 있으며, 제어부(40)는 제1 센서부(11)로부터 수신된 센서 신호를 기초로, 제1 지점(201)에서 옆측 벽면으로 제1 차량이 얼마나 가깝게 붙어서 이동하였는지 거리를 확인하여, 제1 지점(201)을 통과할 때 제1 차량과 옆측 벽면 간의 거리를 확인할 수 있다.
도 4의 (a)에 도시된 바와 같이, 제1 센서부(11)는 제1 지점(201)에서 옆측 벽면으로 제1 차량이 제1 기준 거리(401) 보다 머리 떨어져 이동한 것을 감지할 수 있으며, 제어부(40)는 제1 센서부(11)로부터 수신된 센서 신호를 기초로, 제1 지점(201)에서 옆측 벽면으로 제1 차량이 제1 기준 거리(401) 보다 멀리 떨어져 이동한 것으로 확인되면, 제2 지점(202)에 설치된 제2 조명부(22)에서 빛이 조사되지 않도록 제어할 수 있다.
예를 들어, 제1 기준 거리(401)가 60cm인 경우, 제어부(40)는 제1 지점(201)에서 옆측 벽면과 제1 차량이 70cm 떨어져 이동한 것으로 확인되면, 제2 조명부(22)에서 빛이 조사되지 않도록 제어할 수 있다.
도 4의 (b)에 도시된 바와 같이, 제1 센서부(11)는 제1 지점(201)에서 옆측 벽면으로 제1 차량이 제1 기준 거리(401) 보다 가깝게 붙어있고 제2 기준 거리(402) 보다 멀리 떨어져 이동한 것을 감지할 수 있으며, 제어부(40)는 제1 센서부(11)로부터 수신된 센서 신호를 기초로, 제1 지점(201)에서 옆측 벽면으로 제1 차량이 제1 기준 거리(401) 보다 가깝게 붙어있고 제2 기준 거리(402) 보다 멀리 떨어져 이동한 것으로 확인되면, 제2 지점(202)에 설치된 제2 조명부(22)에서 제1 광도의 빛이 조사되도록 제어할 수 있다. 여기서, 제1 광도는 실시예에 따라 상이하게 설정될 수 있으며, 조명부에서 조사되는 여러 빛의 세기 중 가장 약한 세기를 나타낼 수 있다.
예를 들어, 제1 기준 거리(401)가 60cm이고 제2 기준 거리(402)가 40cm인 경우, 제어부(40)는 제1 지점(201)에서 옆측 벽면과 제1 차량이 50cm 떨어져 이동한 것으로 확인되면, 제2 조명부(22)에서 제1 광도의 빛이 조사되도록 제어할 수 있다.
도 4의 (c)에 도시된 바와 같이, 제1 센서부(11)는 제1 지점(201)에서 옆측 벽면으로 제1 차량이 제2 기준 거리(402) 보다 가깝게 붙어있고 제3 기준 거리(403) 보다 멀리 떨어져 이동한 것을 감지할 수 있으며, 제어부(40)는 제1 센서부(11)로부터 수신된 센서 신호를 기초로, 제1 지점(201)에서 옆측 벽면으로 제1 차량이 제2 기준 거리(402) 보다 가깝게 붙어있고 제3 기준 거리(403) 보다 멀리 떨어져 이동한 것으로 확인되면, 제2 지점(202)에 설치된 제2 조명부(22)에서 제2 광도의 빛이 조사되도록 제어할 수 있다. 여기서, 제2 광도는 제1 광도 보다 강한 세기로 설정될 수 있다.
예를 들어, 제2 기준 거리(402)가 40cm이고 제3 기준 거리(403)가 20cm인 경우, 제어부(40)는 제1 지점(201)에서 옆측 벽면과 제1 차량이 30cm 떨어져 이동한 것으로 확인되면, 제2 조명부(22)에서 제2 광도의 빛이 조사되도록 제어할 수 있다.
일실시예에 따르면, 제1 센서부(11)는 제1 지점(201)에서 옆측 벽면으로 제1 차량이 제3 기준 거리(403) 보다 가깝게 붙어서 이동한 것을 감지할 수 있으며, 제어부(40)는 제1 센서부(11)로부터 수신된 센서 신호를 기초로, 제1 지점(201)에서 옆측 벽면으로 제1 차량이 제3 기준 거리(403) 보다 가깝게 붙어서 이동한 것으로 확인되면, 제2 지점(202)에 설치된 제2 조명부(22)에서 제2 광도의 빛이 점멸되도록 제어할 수 있다.
예를 들어, 제3 기준 거리(403)가 20cm인 경우, 제어부(40)는 제1 지점(201)에서 옆측 벽면과 제1 차량이 10cm 떨어져 이동한 것으로 확인되면, 제2 조명부(22)에서 제2 광도의 빛이 점멸되도록 제어할 수 있다.
도 5는 일실시예에 따른 차량의 속도가 빠를수록 더 강한 세기의 빛이 조사되는 과정을 설명하기 위한 순서도이다.
도 5를 참조하면, 먼저, S501 단계에서, 제1 센서부(11)는 차량이 제1 지점(201)을 지나갈 때 마다, 제1 지점(201)에서 옆측 벽면으로 차량이 얼마나 가깝게 붙어서 이동하는지 거리를 감지하여 센서 신호를 생성할 수 있으며, 생성된 센서 신호를 제어부(40)로 전송할 수 있다. 여기서, 센서 신호는 옆측 벽면과 차량 간의 떨어진 거리 정보를 포함할 수 있다.
S502 단계에서, 제어부(40)는 센서 신호를 기초로, 제1 지점(201)에서 옆측 벽면으로 제1 기준 거리(401) 보다 가깝게 붙어서 이동한 차량이 있는지 여부를 확인할 수 있다.
S502 단계에서 제1 기준 거리(401) 보다 가깝게 붙어서 이동한 차량이 없는 것으로 확인되면, S501 단계로 되돌아가, 제1 센서부(11)는 제1 지점(201)에서 옆측 벽면으로 차량이 얼마나 가깝게 붙어서 이동하는지 거리를 다시 감지할 수 있다.
S502 단계에서 제1 기준 거리(401) 보다 가깝게 붙어서 이동한 차량으로 제1 차량이 확인되면, S503 단계에서, 제어부(40)는 차량 모니터링부(30)로부터 수신된 모니터링 정보를 기초로, 제1 지점(201)을 통과하는 시점에 제1 차량의 속도를 확인할 수 있다. 이를 위해, 차량 모니터링부(30)는 차량이 제1 지점(201)을 지나갈 때 마다, 차량의 속도를 측정하여 모니터링 정보를 생성할 수 있으며, 생성된 모니터링 정보를 제어부(40)로 전송할 수 있다.
S504 단계에서, 제어부(40)는 제1 차량의 속도가 제1 기준 속도 보다 느린지 여부를 확인할 수 있다. 여기서, 제1 기준 속도는 실시예에 따라 상이하게 설정될 수 있다.
S504 단계에서 제1 차량의 속도가 제1 기준 속도 보다 느린 것으로 확인되면, S505 단계에서, 제어부(40)는 제2 조명부(22)에서 제1 광도의 빛이 조사되도록 제어할 수 있다.
예를 들어, 제1 기준 속도가 40km/h인 경우, 제어부(40)는 제1 차량의 속도가 30km/h으로 확인되면, 제2 조명부(22)에서 제1 광도의 빛이 조사되도록 제어할 수 있다.
한편, S504 단계에서 제1 차량의 속도가 제1 기준 속도 보다 빠른 것으로 확인되면, S506 단계에서, 제어부(40)는 제1 차량의 속도가 제2 기준 속도 보다 느린지 여부를 확인할 수 있다. 여기서, 제2 기준 속도는 제1 기준 속도 보다 더 빠른 값으로 설정될 수 있다.
S506 단계에서 제1 차량의 속도가 제2 기준 속도 보다 느린 것으로 확인되면, S507 단계에서, 제어부(40)는 제2 조명부(22)에서 제2 광도의 빛이 조사되도록 제어할 수 있다.
예를 들어, 제1 기준 속도가 40km/h이고, 제2 기준 속도가 60km/h인 경우, 제어부(40)는 제1 차량의 속도가 50km/h으로 확인되면, 제2 조명부(22)에서 제2 광도의 빛이 조사되도록 제어할 수 있다.
한편, S506 단계에서 제1 차량의 속도가 제2 기준 속도 보다 빠른 것으로 확인되면, S601 단계를 수행할 수 있다. 이와 관련된 자세한 설명은 도 6을 참조하여 설명하기로 한다.
도 6은 일실시예에 따른 차량의 속도가 빠를수록 더 많은 수의 조명이 작동되는 과정을 설명하기 위한 순서도이다.
도 6을 참조하면, S506 단계에서 제1 차량의 속도가 제2 기준 속도 보다 빠른 것으로 확인되면, S601 단계에서, 제어부(40)는 제1 차량의 속도가 제3 기준 속도 보다 느린지 여부를 확인할 수 있다. 여기서, 제3 기준 속도는 제2 기준 속도 보다 더 빠른 값으로 설정될 수 있다.
S601 단계에서 제1 차량의 속도가 제3 기준 속도 보다 느린 것으로 확인되면, S602 단계에서, 제어부(40)는 제2 조명부(22)에서 제2 광도의 빛이 조사되도록 제어하면서, 동시에, 제3 조명부(23)에서 제1 광도의 빛이 조사되도록 제어할 수 있다.
예를 들어, 제2 기준 속도가 60km/h이고, 제3 기준 속도가 80km/h인 경우, 제어부(40)는 제1 차량의 속도가 70km/h으로 확인되면, 제2 조명부(22)에서 제2 광도의 빛이 조사되도록 제어하면서, 제3 조명부(23)에서 제1 광도의 빛이 조사되도록 제어할 수 있다.
한편, S601 단계에서 제1 차량의 속도가 제3 기준 속도 보다 빠른 것으로 확인되면, S603 단계에서, 제어부(40)는 제1 차량의 속도가 제4 기준 속도 보다 느린지 여부를 확인할 수 있다. 여기서, 제4 기준 속도는 제3 기준 속도 보다 더 빠른 값으로 설정될 수 있다.
S603 단계에서 제1 차량의 속도가 제4 기준 속도 보다 느린 것으로 확인되면, S604 단계에서, 제어부(40)는 제2 조명부(22)에서 제2 광도의 빛이 조사되도록 제어하면서, 동시에, 제3 조명부(23)에서 제2 광도의 빛이 조사되도록 제어할 수 있다.
예를 들어, 제3 기준 속도가 80km/h이고, 제4 기준 속도가 100km/h인 경우, 제어부(40)는 제1 차량의 속도가 90km/h으로 확인되면, 제2 조명부(22)에서 제2 광도의 빛이 조사되도록 제어하면서, 제3 조명부(23)에서 제2 광도의 빛이 조사되도록 제어할 수 있다.
한편, S603 단계에서 제1 차량의 속도가 제4 기준 속도 보다 빠른 것으로 확인되면, S605 단계에서, 제어부(40)는 제2 조명부(22)에서 제2 광도의 빛이 점멸되도록 제어하면서, 동시에, 제3 조명부(23)에서 제2 광도의 빛이 점멸되도록 제어할 수 있다.
예를 들어, 제4 기준 속도가 100km/h인 경우, 제어부(40)는 제1 차량의 속도가 110km/h으로 확인되면, 제2 조명부(22)에서 제2 광도의 빛이 점멸되도록 제어하면서, 제3 조명부(23)에서 제2 광도의 빛이 점멸되도록 제어할 수 있다.
도 7은 일실시예에 따른 차량 간의 거리가 가까울수록 다른 색의 빛이 조사되는 과정을 설명하기 위한 순서도이다.
도 7을 참조하면, 먼저, S701 단계에서, 제1 센서부(11)는 차량이 제1 지점(201)을 지나갈 때 마다, 제1 지점(201)에서 옆측 벽면으로 차량이 얼마나 가깝게 붙어서 이동하는지 거리를 감지하여 센서 신호를 생성할 수 있으며, 생성된 센서 신호를 제어부(40)로 전송할 수 있다.
S702 단계에서, 제어부(40)는 센서 신호를 기초로, 제1 지점(201)에서 옆측 벽면으로 제1 기준 거리(401) 보다 가깝게 붙어서 이동한 차량이 있는지 여부를 확인할 수 있다.
S702 단계에서 제1 기준 거리(401) 보다 가깝게 붙어서 이동한 차량이 없는 것으로 확인되면, S701 단계로 되돌아가, 제1 센서부(11)는 제1 지점(201)에서 옆측 벽면으로 차량이 얼마나 가깝게 붙어서 이동하는지 거리를 다시 감지할 수 있다.
S702 단계에서 제1 기준 거리(401) 보다 가깝게 붙어서 이동한 차량으로 제1 차량이 확인되면, S703 단계에서, 제어부(40)는 차량 모니터링부(30)로부터 수신된 모니터링 정보를 기초로, 제1 차량의 후방으로 가장 가깝게 위치하는 제2 차량을 검출하여, 제1 차량과 제2 차량 간의 이격 거리를 확인할 수 있다. 이를 위해, 차량 모니터링부(30)는 도로에서 주행중인 차량들을 촬영하여 모니터링 정보를 생성할 수 있으며, 생성된 모니터링 정보를 제어부(40)로 전송할 수 있다.
S704 단계에서, 제어부(40)는 제1 차량과 제2 차량 간의 이격 거리가 제1 기준 간격 보다 긴지 여부를 확인할 수 있다. 여기서, 제1 기준 간격은 실시예에 따라 상이하게 설정될 수 있다.
S704 단계에서 제1 차량과 제2 차량 간의 이격 거리가 제1 기준 간격 보다 긴 것으로 확인되면, S705 단계에서, 제어부(40)는 제2 조명부(22)에서 제1 색의 빛이 조사되도록 제어할 수 있다.
예를 들어, 제1 기준 간격이 60m인 경우, 제어부(40)는 제1 차량과 제2 차량 간의 이격 거리가 70m로 확인되면, 제2 조명부(22)에서 제1 색의 빛이 조사되도록 제어할 수 있다.
한편, S704 단계에서 제1 차량과 제2 차량 간의 이격 거리가 제1 기준 간격 보다 짧은 것으로 확인되면, S706 단계에서, 제어부(40)는 제1 차량과 제2 차량 간의 이격 거리가 제2 기준 간격 보다 긴지 여부를 확인할 수 있다. 여기서, 제2 기준 간격은 제1 기준 간격 보다 더 작은 값으로 설정될 수 있다.
S706 단계에서 제1 차량과 제2 차량 간의 이격 거리가 제2 기준 간격 보다 긴 것으로 확인되면, S707 단계에서, 제어부(40)는 제2 조명부(22)에서 제1 색의 빛이 점멸되도록 제어할 수 있다.
예를 들어, 제1 기준 간격이 60m이고, 제2 기준 간격이 40m인 경우, 제어부(40)는 제1 차량과 제2 차량 간의 이격 거리가 50m로 확인되면, 제2 조명부(22)에서 제1 색의 빛이 점멸되도록 제어할 수 있다.
한편, S706 단계에서 제1 차량과 제2 차량 간의 이격 거리가 제2 기준 간격 보다 짧은 것으로 확인되면, S708 단계에서, 제어부(40)는 제1 차량과 제2 차량 간의 이격 거리가 제3 기준 간격 보다 긴지 여부를 확인할 수 있다. 여기서, 제3 기준 간격은 제2 기준 간격 보다 더 작은 값으로 설정될 수 있다.
S708 단계에서 제1 차량과 제2 차량 간의 이격 거리가 제3 기준 간격 보다 긴 것으로 확인되면, S709 단계에서, 제어부(40)는 제2 조명부(22)에서 제2 색의 빛이 조사되도록 제어할 수 있다.
예를 들어, 제2 기준 간격이 40m이고, 제3 기준 간격이 20m인 경우, 제어부(40)는 제1 차량과 제2 차량 간의 이격 거리가 30m로 확인되면, 제2 조명부(22)에서 제2 색의 빛이 조사되도록 제어할 수 있다.
한편, S708 단계에서 제1 차량과 제2 차량 간의 이격 거리가 제3 기준 간격 보다 짧은 것으로 확인되면, S710 단계에서, 제어부(40)는 제2 조명부(22)에서 제2 색의 빛이 점멸되도록 제어할 수 있다.
예를 들어, 제3 기준 간격이 20m인 경우, 제어부(40)는 제1 차량과 제2 차량 간의 이격 거리가 10m로 확인되면, 제2 조명부(22)에서 제2 색의 빛이 점멸되도록 제어할 수 있다.
일실시예에 따르면, 제어부(40)는 조명부에서 비추는 빛을 통해, 다양한 위험 등급을 설정할 수 있다. 예를 들어, 아무런 빛이 조사되지 않는 0등급, 제1 색의 빛이 제1 광도로 조사되는 1등급, 제1 색의 빛이 제2 광도로 조사되는 2등급, 제1 색의 빛이 제2 광도로 점멸되는 3등급, 제2 색의 빛이 제1 광도로 조사되는 4등급, 제2 색의 빛이 제2 광도로 조사되는 5등급, 제2 색의 빛이 제2 광도로 점멸되는 6등급 등으로 구분하여, 위험 등급이 설정될 수 있다.
제어부(40)는 2개 이상의 조건을 통해, 조명부에서 비추는 빛을 설정할 때, 더 높은 위험 등급으로 비추는 빛을 설정할 수 있다. 예를 들어, 제어부(40)는 제1 지점(201)에서 옆측 벽면으로 제1 차량이 제1 기준 거리(401) 보다 가깝게 붙어있고 제2 기준 거리(402) 보다 멀리 떨어져 이동한 것으로 확인되면, 제2 조명부(22)에서 1등급을 나타내는 제1 광도의 빛이 조사되도록 제어해야 하는데, 이때, 제1 차량의 속도가 제1 기준 속도 보다 빠르고 제2 기준 속도 보다 느린 것으로 확인되면, 제2 조명부(22)에서 2등급을 나타내는 제2 광도의 빛이 조사되어야 하기 때문에, 위험 등급이 더 높은 2등급을 나타내는 제2 광도의 빛이 조사되도록 제어할 수 있다.
도 8은 일실시예에 따른 차량의 표면을 분류하는 과정을 설명하기 위한 순서도이다.
도 8을 참조하면, 먼저 S801 단계에서, 제어부(40)는 라이다를 통해 제1 차량의 표면에 대한 3D 데이터를 획득할 수 있다. 여기서, 3D 데이터는 제1 차량의 표면에 대한 3D 이미지이다. 이를 위해, 제어부(40)는 라이다가 장착된 차량 모니터링부(30)와 유무선을 통해 연결될 수 있다.
S802 단계에서, 제어부(40)는 카메라를 통해 제1 차량의 표면에 대한 2D 데이터를 획득할 수 있다. 여기서, 2D 데이터는 제1 차량의 표면에 대한 2D 이미지이다. 이를 위해, 제어부(40)는 카메라가 장착된 차량 모니터링부(30)와 유무선을 통해 연결될 수 있다.
S803 단계에서, 제어부(40)는 2D 데이터와 3D 데이터의 합집합 영역을 분리하여, 2D 데이터 및 3D 데이터를 병합한 제1 데이터를 추출할 수 있다.
구체적으로, 제어부(40)는 2D 데이터와 3D 데이터를 비교하여, 서로 중복되는 합집합 영역을 파악할 수 있으며, 2D 데이터에서 합집합 영역을 분리하고 3D 데이터에서 합집합 영역을 분리하여, 분리된 합집합 영역을 병합하여 제1 데이터를 추출할 수 있다. 여기서, 제1 데이터는 4채널로 구성될 수 있으며, 3채널은 RGB 값을 나타내는 2D 데이터이고, 1채널은 3D 깊이 값을 나타내는 데이터일 수 있다.
제어부(40)는 제1 데이터를 인코딩하여 제1 입력 신호를 생성할 수 있다.
구체적으로, 제어부(40)는 제1 데이터의 픽셀을 색 정보로 인코딩하여 제1 입력 신호를 생성할 수 있다. 색 정보는 RGB 색상 정보, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다. 제어부(40)는 색 정보를 수치화된 값으로 환산할 수 있으며, 이 값을 포함한 데이터 시트 형태로 제1 데이터를 인코딩할 수 있다.
제어부(40)는 제1 입력 신호를 제어부(40) 내 미리 학습된 제1 인공 신경망에 입력할 수 있다.
일실시예에 따른 제1 인공 신경망은 특징 추출 신경망과 분류 신경망으로 구성되어 있으며 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.
일실시예에 따르면, 분류 신경망은 히든 레이어와 출력 레이어를 가지고 있다. 제1 차량의 표면의 거칠기 단계를 분류를 위한 제1 인공 신경망의 분류 신경망은 5층 이하의 히든 레이어로 구성되며, 총 50개 이하의 히든 레이어 노드를 포함할 수 있다. 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 분류 신경망의 출력 레이어 노드는 총 1개이며, 제1 차량의 표면의 분류에 대한 출력값을 출력 레이어 노드에 출력할 수 있다. 제1 인공 신경망에 대한 자세한 설명은 도 9를 참조하여 후술한다.
제어부(40)는 제1 인공 신경망의 입력의 결과에 기초하여, 제1 출력 신호를 획득할 수 있다.
S804 단계에서, 제어부(40)는 제1 출력 신호에 기초하여, 제1 차량의 표면에 대한 제1 분류 결과를 생성할 수 있다. 여기서, 제1 분류 결과는 제1 차량의 표면이 어느 단계로 분류되는지에 대한 정보를 포함할 수 있다.
예를 들어, 제어부(40)는 제1 출력 신호의 출력값을 확인한 결과, 출력값이 1인 경우, 제1 차량의 표면이 1단계에 해당하는 것으로 제1 분류 결과를 생성하고, 출력값이 2인 경우, 제1 차량의 표면이 2단계에 해당하는 것으로 제1 분류 결과를 생성할 수 있다. 단계가 올라갈수록 제1 차량의 표면이 더 거칠어진다는 것을 파악할 수 있다.
S805 단계에서, 제어부(40)는 제1 데이터를 분석하여 제1 차량의 표면에 발생한 균열을 검출할 수 있다. 균열 검출 시에는 이미지 분석을 통해 일정 크기 이상으로 확인된 부분만 제1 차량의 표면에 발생한 균열로 검출할 수 있다.
S806 단계에서, 제어부(40)는 제1 차량의 표면에 발생한 균열을 영역별로 확인하여, 정상 영역과 손상 영역을 구분할 수 있다.
구체적으로, 제어부(40)는 제1 데이터를 제1 영역, 제2 영역 등의 복수의 영역으로 구분하여, 각각의 영역 별로 균열이 몇 개씩 검출되었는지 확인할 수 있으며, 제1 설정값 미만으로 균열이 검출된 영역을 정상 영역으로 구분하고, 제1 설정값 이상으로 균열이 검출된 영역을 손상 영역으로 구분할 수 있다. 이때, 제1 설정값은 실시예에 따라 상이하게 설정될 수 있다.
S807 단계에서, 제어부(40)는 제1 데이터에서 손상 영역을 삭제한 제2 데이터를 추출할 수 있다.
예를 들어, 제1 데이터에 있는 이미지가 제1 영역, 제2 영역 및 제3 영역으로 구성되어 있는데, 제1 영역은 손상 영역으로 구분되고, 제2 영역 및 제3 영역은 정상 영역으로 구분된 경우, 제어부(40)는 제2 영역 및 제3 영역만 포함된 이미지를 제2 데이터로 추출할 수 있다.
제어부(40)는 제2 데이터를 인코딩하여 제2 입력 신호를 생성할 수 있다.
구체적으로, 제어부(40)는 제2 데이터의 픽셀을 색 정보로 인코딩하여 제2 입력 신호를 생성할 수 있다. 색 정보는 RGB 색상 정보, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다. 제어부(40)는 색 정보를 수치화된 값으로 환산할 수 있으며, 이 값을 포함한 데이터 시트 형태로 제2 데이터를 인코딩할 수 있다.
제어부(40)는 제2 입력 신호를 제어부(40) 내 미리 학습된 제2 인공 신경망에 입력할 수 있다.
일실시예에 따른 제2 인공 신경망은 특징 추출 신경망과 분류 신경망으로 구성되어 있으며 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.
일실시예에 따르면, 분류 신경망은 히든 레이어와 출력 레이어를 가지고 있다. 제1 차량의 표면의 거칠기 단계를 분류를 위한 제2 인공 신경망의 분류 신경망은 5층 이하의 히든 레이어로 구성되며, 총 50개 이하의 히든 레이어 노드를 포함할 수 있다. 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 분류 신경망의 출력 레이어 노드는 총 1개이며, 제1 차량의 표면의 분류에 대한 출력값을 출력 레이어 노드에 출력할 수 있다. 제2 인공 신경망에 대한 자세한 설명은 도 9를 참조하여 후술한다.
제어부(40)는 제2 인공 신경망의 입력의 결과에 기초하여, 제2 출력 신호를 획득할 수 있다.
S808 단계에서, 제어부(40)는 제2 출력 신호에 기초하여, 제1 차량의 표면에 대한 제2 분류 결과를 생성할 수 있다. 여기서, 제2 분류 결과는 제1 차량의 표면이 어느 단계로 분류되는지에 대한 정보를 포함할 수 있다.
예를 들어, 제어부(40)는 제2 출력 신호의 출력값을 확인한 결과, 출력값이 1인 경우, 제1 차량의 표면이 1단계에 해당하는 것으로 제2 분류 결과를 생성하고, 출력값이 2인 경우, 제1 차량의 표면이 2단계에 해당하는 것으로 제2 분류 결과를 생성할 수 있다.
S809 단계에서, 제어부(40)는 제1 분류 결과 및 제2 분류 결과를 기초로, 제1 차량의 표면에 대한 최종 분류 결과를 설정할 수 있다.
구체적으로, 제1 분류 결과 및 제2 분류 결과가 동일한 경우, 제어부(40)는 제1 분류 결과 및 제2 분류 결과 중 어느 하나를 제1 차량의 표면에 대한 최종 분류 결과로 설정할 수 있다.
제어부(40)는 제1 차량의 표면에 대한 최종 분류 결과를 기초로, 제1 차량의 종류가 어느 차량인지 여부를 판단할 수 있다.
도 9는 일실시예에 따른 인공 신경망을 설명하기 위한 도면이다.
일실시예에 따른 인공 신경망(900)은 제1 인공 신경망 및 제2 인공 신경망 중 어느 하나일 수 있다. 제1 인공 신경망인 경우, 제1 데이터의 인코딩에 의해 생성된 제1 입력 신호를 입력으로 하여, 제1 차량의 표면이 거칠기 단계 중 어느 단계로 분류되는지에 대한 정보를 출력으로 할 수 있다. 제2 인공 신경망인 경우, 제2 데이터의 인코딩에 의해 생성된 제2 입력 신호를 입력으로 하여, 제1 차량의 표면이 거칠기 단계 중 어느 단계로 분류되는지에 대한 정보를 출력으로 할 수 있다.
일실시예에 따른 인코딩은 이미지의 픽셀 별 색 정보를 수치화된 데이터 시트 형태로 저장하는 방식으로 이뤄질 수 있는데, 색 정보는 하나의 픽셀이 가지고 있는 RGB 색상, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다.
일실시예에 따르면, 인공 신경망(900)은 특징 추출 신경망(910)과 분류 신경망(920)으로 구성되어 있으며, 특징 추출 신경망(910)은 이미지에서 제1 차량의 영역과 배경 영역을 분리하는 작업을 수행할 수 있으며, 분류 신경망(920)은 이미지 내에서 제1 차량의 표면이 거칠기 단계 중 어느 단계로 분류되는지 여부를 파악하는 작업을 수행하도록 할 수 있다.
특징 추출 신경망(910)이 제1 차량의 영역과 배경 영역을 구분하는 방법은 이미지를 인코딩한 입력 신호의 데이터 시트로부터 색 정보의 각 값들의 변화가 한 픽셀을 포함하는 8개의 픽셀 중 6개 이상에서 30% 이상의 변화가 생긴 것으로 감지되는 픽셀들의 묶음을 제1 차량의 영역과 배경 영역의 경계로 삼을 수 있으나, 이에 국한하지 않는다.
특징 추출 신경망(910)은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.
분류 신경망(920)은 특징 추출 신경망(910)을 통해 배경으로부터 구분된 제1 차량의 영역의 표면을 확인하고, 미리 정의된 거칠기 단계별 표면 상태와 유사한지 여부를 확인하여, 제1 차량의 영역의 표면이 거칠기 단계 중 어느 단계로 분류되는지 여부를 파악할 수 있다. 거칠기 단계별 표면 상태와 비교하기 위해, 제어부(40)의 데이터베이스에 저장된 정보들을 활용할 수 있다.
분류 신경망(920)은 히든 레이어와 출력 레이어를 가지고 있으며, 5층 이하의 히든 레이어로 구성되어, 총 50개 이하의 히든 레이어 노드를 포함하고, 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다.
분류 신경망(920)는 총 1개의 출력층 노드만 포함할 수 있다.
분류 신경망(920)의 출력은 제1 차량의 표면이 거칠기 단계 중 어느 단계로 분류되는지에 대한 출력값으로, 거칠기 단계 중 어느 단계에 해당하는지를 지시할 수 있다. 예를 들어, 출력값이 1인 경, 제1 차량의 표면이 1단계에 해당하는 것을 지시하고, 출력값이 2인 경우, 제1 차량의 표면이 2단계에 해당하는 것을 지시할 수 있다.
일실시예에 따르면, 인공 신경망(900)은 사용자가 인공 신경망(900)에 따른 출력의 문제점 발견 시 사용자에 의해 입력된 수정 정답에 의해 생성되는 제1 학습 신호를 전달받아 학습할 수 있다. 인공 신경망(900)에 따른 출력의 문제점은 제1 차량의 표면에 대해 거칠기 단계 중 다른 단계로 분류한 출력값을 출력한 경우를 의미할 수 있다.
일실시예에 따른 제1 학습 신호는 정답과 출력값의 오차를 바탕으로 만들어지며, 경우에 따라 델타를 이용하는 SGD나 배치 방식 혹은 역전파 알고리즘을 따르는 방식을 사용할 수 있다. 인공 신경망(900)은 제1 학습 신호에 의해 기존의 가중치를 수정해 학습을 수행하며, 경우에 따라 모멘텀을 사용할 수 있다. 오차의 계산에는 비용함수가 사용될 수 있는데, 비용함수로 Cross entropy 함수를 사용할 수 있다. 이하 도 10을 참조하여 인공 신경망(900)의 학습 내용이 후술된다.
도 10은 일실시예에 따른 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.
일실시예에 따르면, 학습 장치는 인공 신경망(900)을 학습시킬 수 있다. 학습 장치는 제어부(40)와 다른 별개의 주체일 수 있지만, 이에 제한되는 것은 아니다.
일실시예에 따르면, 인공 신경망(900)은 트레이닝 샘플들이 입력되는 입력 레이어와 트레이닝 출력들을 출력하는 출력 레이어를 포함하고, 트레이닝 출력들과 제1 레이블들 사이의 차이에 기초하여 학습될 수 있다. 여기서, 제1 레이블들은 거칠기 단계별로 등록되어 있는 대표 이미지에 기초하여 정의될 수 있다. 인공 신경망(900)은 복수의 노드들의 그룹으로 연결되어 있고, 연결된 노드들 사이의 가중치들과 노드들을 활성화시키는 활성화 함수에 의해 정의된다.
학습 장치는 GD(Gradient Decent) 기법 또는 SGD(Stochastic Gradient Descent) 기법을 이용하여 인공 신경망(900)을 학습시킬 수 있다. 학습 장치는 인공 신경망(900)의 출력들 및 레이블들 의해 설계된 손실 함수를 이용할 수 있다.
학습 장치는 미리 정의된 손실 함수(loss function)을 이용하여 트레이닝 에러를 계산할 수 있다. 손실 함수는 레이블, 출력 및 파라미터를 입력 변수로 미리 정의될 수 있고, 여기서 파라미터는 인공 신경망(900) 내 가중치들에 의해 설정될 수 있다. 예를 들어, 손실 함수는 MSE(Mean Square Error) 형태, 엔트로피(entropy) 형태 등으로 설계될 수 있는데, 손실 함수가 설계되는 실시예에는 다양한 기법 또는 방식이 채용될 수 있다.
학습 장치는 역전파(backpropagation) 기법을 이용하여 트레이닝 에러에 영향을 주는 가중치들을 찾아낼 수 있다. 여기서, 가중치들은 인공 신경망(900) 내 노드들 사이의 관계들이다. 학습 장치는 역전파 기법을 통해 찾아낸 가중치들을 최적화시키기 위해 레이블들 및 출력들을 이용한 SGD 기법을 이용할 수 있다. 예를 들어, 학습 장치는 레이블들, 출력들 및 가중치들에 기초하여 정의된 손실 함수의 가중치들을 SGD 기법을 이용하여 갱신할 수 있다.
일실시예에 따르면, 학습 장치는 제어부(40)의 데이터베이스로부터 레이블드 트레이닝 거칠기 단계별 대표 이미지들(1001)을 획득할 수 있다. 학습 장치는 거칠기 단계별 대표 이미지들(1001)에 각각 미리 레이블링된 정보를 획득할 수 있는데, 거칠기 단계별 대표 이미지들(1001)은 미리 분류된 거칠기 단계에 따라 레이블링될 수 있다.
일실시예에 따르면, 학습 장치는 900개의 레이블드 트레이닝 거칠기 단계별 대표 이미지들(1001)을 획득할 수 있으며, 레이블드 트레이닝 거칠기 단계별 대표 이미지들(1001)에 기초하여 제1 트레이닝 거칠기 단계별 벡터들(1002)을 생성할 수 있다. 제1 트레이닝 거칠기 단계별 벡터들(1002)을 추출하는데는 다양한 방식이 채용될 수 있다.
일실시예에 따르면, 학습 장치는 제1 트레이닝 거칠기 단계별 벡터들(1002)을 인공 신경망(900)에 적용하여 제1 트레이닝 출력들(1003)을 획득할 수 있다. 학습 장치는 제1 트레이닝 출력들(1003)과 제1 레이블들(1004)에 기초하여 인공 신경망(900)을 학습시킬 수 있다. 학습 장치는 제1 트레이닝 출력들(1003)에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 인공 신경망(900) 내 노드들의 연결 관계를 최적화하여 인공 신경망(900)을 학습시킬 수 있다.
도 11은 일실시예에 따른 제어부의 구성의 예시도이다.
일실시예에 따른 제어부(40)는 프로세서(41) 및 메모리(42)를 포함한다. 프로세서(41)는 도 1 내지 도 10을 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 10을 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 제어부(40)를 이용하는 자 또는 단체는 도 1 내지 도 10을 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.
메모리(42)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(42)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
프로세서(41)는 프로그램을 실행하고, 제어부(40)를 제어할 수 있다. 프로세서(41)에 의하여 실행되는 프로그램의 코드는 메모리(42)에 저장될 수 있다. 제어부(40)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.
제어부(40)는 인공 신경망을 학습시키거나, 학습된 인공 신경망을 이용하는데 사용될 수 있다. 메모리(42)는 학습 중인 또는 학습된 인공 신경망을 포함할 수 있다. 프로세서(41)는 메모리(42)에 저장된 인공 신경망 알고리즘을 학습시키거나 실행시킬 수 있다. 인공 신경망을 학습시키는 제어부(40)와 학습된 인공 신경망을 이용하는 제어부(40)는 동일할 수도 있고 개별적일 수도 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (3)

  1. 도로의 터널 내부의 옆측 벽면에 일정 간격으로 설치되어, 상기 옆측 벽면으로 차량이 가깝게 붙어서 이동하는지 여부를 감지하는 복수의 센서부;
    상기 옆측 벽면에 일정 간격으로 설치되어, 상기 옆측 벽면으로 차량이 가깝게 붙어서 이동하는 경우, 빛을 조사하는 복수의 조명부;
    도로에서 주행중인 차량의 움직임을 감지하여 차량의 속도를 측정하는 차량 모니터링부; 및
    상기 옆측 벽면의 제1 지점에 설치된 제1 센서부로부터 수신된 센서 신호를 기초로, 상기 제1 지점에서 상기 옆측 벽면으로 제1 차량이 미리 설정된 제1 기준 거리 보다 가깝게 붙어서 이동한 것으로 확인되면, 상기 제1 지점에서 차량 이동 방향의 전방으로 미리 설정된 제1 거리 떨어져 위치하는 지점인 제2 지점에 설치된 제2 조명부에서 빛이 조사되도록 제어하는 제어부를 포함하며,
    상기 제어부는,
    상기 제1 지점에서 상기 옆측 벽면으로 상기 제1 차량이 상기 제1 기준 거리 보다 가깝게 붙어있고 상기 제1 기준 거리 보다 더 짧은 값으로 설정된 제2 기준 거리 보다 멀리 떨어져 이동한 것으로 확인되면, 상기 제2 조명부에서 미리 설정된 제1 광도의 빛이 조사되도록 제어하고,
    상기 제1 지점에서 상기 옆측 벽면으로 상기 제1 차량이 상기 제2 기준 거리 보다 가깝게 붙어있고 상기 제2 기준 거리 보다 더 짧은 값으로 설정된 제3 기준 거리 보다 멀리 떨어져 이동한 것으로 확인되면, 상기 제2 조명부에서 상기 제1 광도 보다 강한 세기로 설정된 제2 광도의 빛이 조사되도록 제어하고,
    상기 제1 지점에서 상기 옆측 벽면으로 상기 제1 차량이 상기 제3 기준 거리 보다 가깝게 붙어서 이동한 것으로 확인되면, 상기 제2 조명부에서 상기 제2 광도의 빛이 점멸되도록 제어하며,
    상기 제어부는,
    상기 제1 지점에서 상기 옆측 벽면으로 제1 차량이 상기 제1 기준 거리 보다 가깝게 붙어서 이동한 것으로 확인되면, 상기 차량 모니터링부로부터 수신된 모니터링 정보를 기초로, 상기 제1 지점을 통과하는 시점에 상기 제1 차량의 속도를 확인하고,
    상기 제1 차량의 속도가 미리 설정된 제1 기준 속도 보다 느린 것으로 확인되면, 상기 제2 조명부에서 상기 제1 광도의 빛이 조사되도록 제어하고,
    상기 제1 차량의 속도가 상기 제1 기준 속도 보다 빠르고 상기 제1 기준 속도 보다 더 빠른 값으로 설정된 제2 기준 속도 보다 느린 것으로 확인되면, 상기 제2 조명부에서 상기 제2 광도의 빛이 조사되도록 제어하고,
    상기 제1 차량의 속도가 상기 제2 기준 속도 보다 빠르고 상기 제2 기준 속도 보다 더 빠른 값으로 설정된 제3 기준 속도 보다 느린 것으로 확인되면, 상기 제2 조명부에서 상기 제2 광도의 빛이 조사되도록 제어하면서, 상기 제2 지점에서 차량 이동 방향의 전방으로 상기 제1 거리 떨어져 위치하는 지점인 제3 지점에 설치된 제3 조명부에서 상기 제1 광도의 빛이 조사되도록 제어하고,
    상기 제1 차량의 속도가 상기 제3 기준 속도 보다 빠르고 상기 제3 기준 속도 보다 더 빠른 값으로 설정된 제4 기준 속도 보다 느린 것으로 확인되면, 상기 제2 조명부에서 상기 제2 광도의 빛이 조사되도록 제어하면서, 상기 제3 조명부에서 상기 제2 광도의 빛이 조사되도록 제어하고,
    상기 제1 차량의 속도가 상기 제4 기준 속도 보다 빠른 것으로 확인되면, 상기 제2 조명부에서 상기 제2 광도의 빛이 점멸되도록 제어하면서, 상기 제3 조명부에서 상기 제2 광도의 빛이 점멸되도록 제어하며,
    상기 차량 모니터링부는,
    도로에서 주행중인 차량 간의 이격 거리를 더 측정하며,
    상기 제어부는,
    상기 제1 지점에서 상기 옆측 벽면으로 제1 차량이 상기 제1 기준 거리 보다 가깝게 붙어서 이동한 것으로 확인되면, 상기 차량 모니터링부로부터 수신된 모니터링 정보를 기초로, 상기 제1 차량의 후방으로 가장 가깝게 위치하는 제2 차량을 검출하여, 상기 제1 차량과 상기 제2 차량 간의 이격 거리를 확인하고,
    상기 이격 거리가 미리 설정된 제1 기준 간격 보다 긴 것으로 확인되면, 상기 제2 조명부에서 제1 색의 빛이 조사되도록 제어하고,
    상기 이격 거리가 상기 제1 기준 간격 보다 짧고 상기 제1 기준 간격 보다 더 작은 값으로 설정된 제2 기준 간격 보다 긴 것으로 확인되면, 상기 제2 조명부에서 상기 제1 색의 빛이 점멸되도록 제어하고,
    상기 이격 거리가 상기 제2 기준 간격 보다 짧고 상기 제2 기준 간격 보다 더 작은 값으로 설정된 제3 기준 간격 보다 긴 것으로 확인되면, 상기 제2 조명부에서 제2 색의 빛이 조사되도록 제어하고,
    상기 이격 거리가 상기 제3 기준 간격 보다 짧은 것으로 확인되면, 상기 제2 조명부에서 제2 색의 빛이 점멸되도록 제어하며,
    상기 제어부는,
    상기 차량 모니터링부에 장착된 라이다를 통해 상기 제1 차량의 표면에 대한 3D 데이터를 획득하고, 상기 차량 모니터링부에 장착된 카메라를 통해 상기 제1 차량의 표면에 대한 2D 데이터를 획득하고,
    상기 2D 데이터와 상기 3D 데이터의 합집합 영역을 분리하여, 상기 2D 데이터 및 상기 3D 데이터를 병합한 제1 데이터를 추출하고,
    상기 제1 데이터를 인코딩 하여 제1 입력 신호를 생성하고,
    상기 제1 입력 신호를 제1 인공 신경망에 입력하고, 상기 제1 인공 신경망의 입력의 결과에 기초하여, 제1 출력 신호를 획득하고,
    상기 제1 출력 신호에 기초하여, 상기 제1 차량의 표면에 대한 제1 분류 결과를 생성하고,
    상기 제1 데이터를 분석하여 상기 제1 차량의 표면에 발생한 균열을 검출하고,
    상기 제1 차량의 표면에 발생한 균열을 영역별로 확인하여, 미리 설정된 제1 설정값 미만으로 균열이 검출된 정상 영역과 상기 제1 설정값 이상으로 균열이 검출된 손상 영역을 구분하고,
    상기 제1 데이터에서 상기 손상 영역을 삭제한 제2 데이터를 추출하고,
    상기 제2 데이터를 인코딩 하여 제2 입력 신호를 생성하고,
    상기 제2 입력 신호를 제2 인공 신경망에 입력하고, 상기 제2 인공 신경망의 입력의 결과에 기초하여, 제2 출력 신호를 획득하고,
    상기 제2 출력 신호에 기초하여, 상기 제1 차량의 표면에 대한 제2 분류 결과를 생성하고,
    상기 제1 분류 결과 및 상기 제2 분류 결과가 동일한 경우, 상기 제1 분류 결과 및 상기 제2 분류 결과 중 어느 하나를 상기 제1 차량의 표면에 대한 최종 분류 결과로 설정하는,
    도로 터널의 조명 제어 장치.
  2. 삭제
  3. 삭제
KR1020210057071A 2021-05-03 2021-05-03 도로 터널의 조명 제어 장치 KR102372439B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210057071A KR102372439B1 (ko) 2021-05-03 2021-05-03 도로 터널의 조명 제어 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210057071A KR102372439B1 (ko) 2021-05-03 2021-05-03 도로 터널의 조명 제어 장치

Publications (1)

Publication Number Publication Date
KR102372439B1 true KR102372439B1 (ko) 2022-03-08

Family

ID=80812271

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210057071A KR102372439B1 (ko) 2021-05-03 2021-05-03 도로 터널의 조명 제어 장치

Country Status (1)

Country Link
KR (1) KR102372439B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102422235B1 (ko) * 2022-05-26 2022-07-15 (주)에스엔테크 터널 내 지능형 차량 정체 알림 시스템

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120001337U (ko) * 2010-08-18 2012-02-28 심석용 차량 안전주행 유도장치
KR101905125B1 (ko) 2018-05-23 2018-10-08 주식회사 아이엘사이언스 스마트 터널등 제어 시스템 및 그 방법
KR20180113077A (ko) * 2017-04-05 2018-10-15 조용성 조도 관리기능을 갖는 차량 진출입로의 측벽 충돌 방지시스템
KR101993999B1 (ko) 2017-12-28 2019-06-27 인제대학교 산학협력단 터널 조명 제어 방법
KR102009207B1 (ko) 2019-03-05 2019-10-21 주식회사 리산테크 이종 데이터 기반의 통합형 터널조명 제어시스템
KR102081068B1 (ko) 2019-10-22 2020-02-25 (주)에스에이치아이티 터널 조명 관리 장치
KR20210007240A (ko) * 2019-07-10 2021-01-20 조용성 주행정보의 인지기능을 개선시키는 패턴조명 출력시스템

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120001337U (ko) * 2010-08-18 2012-02-28 심석용 차량 안전주행 유도장치
KR20180113077A (ko) * 2017-04-05 2018-10-15 조용성 조도 관리기능을 갖는 차량 진출입로의 측벽 충돌 방지시스템
KR101993999B1 (ko) 2017-12-28 2019-06-27 인제대학교 산학협력단 터널 조명 제어 방법
KR101905125B1 (ko) 2018-05-23 2018-10-08 주식회사 아이엘사이언스 스마트 터널등 제어 시스템 및 그 방법
KR102009207B1 (ko) 2019-03-05 2019-10-21 주식회사 리산테크 이종 데이터 기반의 통합형 터널조명 제어시스템
KR20210007240A (ko) * 2019-07-10 2021-01-20 조용성 주행정보의 인지기능을 개선시키는 패턴조명 출력시스템
KR102081068B1 (ko) 2019-10-22 2020-02-25 (주)에스에이치아이티 터널 조명 관리 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102422235B1 (ko) * 2022-05-26 2022-07-15 (주)에스엔테크 터널 내 지능형 차량 정체 알림 시스템

Similar Documents

Publication Publication Date Title
US11021148B2 (en) Pedestrian prediction based on attributes
US11163990B2 (en) Vehicle control system and method for pedestrian detection based on head detection in sensor data
US20220092983A1 (en) Trajectory prediction on top-down scenes and associated model
US10803328B1 (en) Semantic and instance segmentation
US11169531B2 (en) Trajectory prediction on top-down scenes
US20200307563A1 (en) Prediction based on attributes
CN108230731B (zh) 停车场导航系统和方法
JP2022539245A (ja) アクションデータに基づくトップダウンシーンの予測
US12103561B2 (en) Map consistency checker
WO2020264010A1 (en) Low variance region detection for improved detection
WO2020198189A1 (en) Pedestrian prediction based on attributes
CN114845913A (zh) 基于物体运动的自顶向下场景预测
CN108116410A (zh) 用于控制车辆的速度的方法和设备
CN114072841A (zh) 根据图像使深度精准化
KR20190026116A (ko) 객체 인식 방법 및 장치
US11610078B2 (en) Low variance region detection for improved high variance region detection using machine learning
JP6418574B2 (ja) 危険度推定装置、危険度推定方法及び危険度推定用コンピュータプログラム
US11605236B2 (en) Training a machine-learned model to detect low variance regions
JP2023505059A (ja) センサデータを使用した高さ推定
CN108885109A (zh) 用于借助不同路标类型确定至少半自动行驶的车辆的姿势的方法
US11829449B2 (en) Intermediate input for machine learned model
KR102372439B1 (ko) 도로 터널의 조명 제어 장치
KR102269227B1 (ko) 터널 내 및 모든 도로 주행 안전 장치
US20220207275A1 (en) Multi-resolution top-down prediction
JP2022502750A (ja) センサデータ流を分析するための方法及び装置、並びに、車両を誘導するための方法

Legal Events

Date Code Title Description
GRNT Written decision to grant