KR102330747B1 - 보행자 안전을 위한 인공지능 기반 영상투사장치 및 그 방법 - Google Patents

보행자 안전을 위한 인공지능 기반 영상투사장치 및 그 방법 Download PDF

Info

Publication number
KR102330747B1
KR102330747B1 KR1020210087630A KR20210087630A KR102330747B1 KR 102330747 B1 KR102330747 B1 KR 102330747B1 KR 1020210087630 A KR1020210087630 A KR 1020210087630A KR 20210087630 A KR20210087630 A KR 20210087630A KR 102330747 B1 KR102330747 B1 KR 102330747B1
Authority
KR
South Korea
Prior art keywords
crosswalk
image
artificial intelligence
image data
state
Prior art date
Application number
KR1020210087630A
Other languages
English (en)
Inventor
김영삼
Original Assignee
주식회사 한기술
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 한기술 filed Critical 주식회사 한기술
Priority to KR1020210087630A priority Critical patent/KR102330747B1/ko
Application granted granted Critical
Publication of KR102330747B1 publication Critical patent/KR102330747B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/091Traffic information broadcasting
    • H04N5/23254

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명에 따른 보행자 안전을 위한 인공지능 기반 영상투사장치는, 횡단보도 주변에 설치되고, 횡단 대기 상태에서 횡단보도 영역을 촬영하여 횡단보도 영상을 분석하고, 횡단 상태에서 횡단보도 영역의 객체 이동을 검출하는 인공지능(AI) 카메라; 횡단보도 주변에 설치되어 조도 변화를 감지하는 센서부; 상기 인공지능(AI) 카메라에서 분석된 횡단보도 영역의 상태 및 상기 센서부에서 감지된 조도 변화에 따라 횡단보도 영역에 횡단보도 영상을 투사하도록 제어하는 제어부; 및 상기 제어부에서 제어된 기 설정된 소정 비율 범위의 횡단보도 영상을 투사하는 적어도 하나 이상의 빔 프로젝터를 포함한다.

Description

보행자 안전을 위한 인공지능 기반 영상투사장치 및 그 방법{Image Projector Based on Artificial Intelligence for Pedestrian Safety and the method thereof}
본 발명은 보행자 안전을 위한 인공지능 기반 영상투사장치 및 그 방법에 관한 것으로, 특히 횡단보도 상태를 실시간으로 모니터링하고, 시인성이 확보되지 않는 상황에서 횡단보도를 영상 투사하여 제공함으로써 보행자 및 운전자에게 교통 안전을 강화하고, 사고 상황 대처를 할 수 있는 보행자 안전을 위한 인공지능 기반 영상투사장치 및 그 방법에 관한 것이다.
횡단보도는 도로 교통법에 의거하여 도로 표지 또는 도로 표시에 의하여 보행자의 횡단용으로 마련된 부분임을 나타내는 것이다. 일반적으로 자동차가 다니는 도로 상에는 보행자가 안전하게 도로를 횡단할 수 있도록 하기 위하여 도로 노면에 횡단보도를 표시하고, 차량의 통행량이 많고 보행자의 횡단이 많은 도로에 위치한 횡단보도에는 보행자용 신호등을 설치하여 보행자가 안전하게 도로를 횡단할 수 있는 시간을 확보해 주고 있다.
한편, 횡단보도 주변을 포함하는 도로변에는 일몰시에 점등되고 일출시에 소등되는 가로등을 설치하여 야간에 도로를 주행하는 차량과 도로를 횡단하는 보행자가 안전하게 주행 및 보행할 수 있도록 하고 있다.
그러나, 일반적인 가로등은 주행하는 자동차의 운전자의 시야에 혼란을 주지 않도록 해야 함에 따라 그 밝기가 비교적 어두울 수밖에 없어 근거리의 사람 또는 물체는 식별이 가능하지만, 조금만 거리를 두게 되면 그 식별이 용이하지 않은 문제점이 있다.
또한, 차량의 운전자들은 신호를 엄수하고 횡단보도 근처에서는 감속을 해야 하지만, 이를 준수하지 않는 경우가 많아 보행자의 안전이 위협받고 있으며, 신호등이 없이 횡단보도만 있는 장소는 더욱 위험하다는 문제점이 있다.
이러한 문제점을 해결하기 위해 종래의 기술들을 횡단보도 영역 내 바닥에 유도등을 설치하였지만 바닥 설치로 인해 파손되는 문제가 발생된다.
한국공개특허공보 제10-2015-0122971호 한국공개특허공보 제10-2013-0041430호
본 발명은 횡단보도 상태를 실시간으로 모니터링하고, 시인성이 확보되지 않는 상황에서 횡단보도를 영상 투사하여 제공함으로써 보행자 및 운전자에게 교통 안전을 강화하고, 사고 상황 대처를 할 수 있는 보행자 안전을 위한 인공지능 기반 영상투사장치 및 그 방법을 제공하는 것을 목적으로 한다.
상기의 과제를 달성하기 위한 본 발명에 따른 보행자 안전을 위한 인공지능 기반 영상투사장치는, 횡단보도 주변에 설치되고, 횡단 대기 상태에서 횡단보도 영역을 촬영하여 횡단보도 영상을 분석하고, 횡단 상태에서 횡단보도 영역의 객체 이동을 검출하는 인공지능(AI) 카메라; 횡단보도 주변에 설치되어 조도 변화를 감지하는 센서부; 상기 인공지능(AI) 카메라에서 분석된 횡단보도 영역의 상태 및 상기 센서부에서 감지된 조도 변화에 따라 횡단보도 영역에 횡단보도 영상을 투사하도록 제어하는 제어부; 및 상기 제어부에서 제어된 기 설정된 소정 비율 범위의 횡단보도 영상을 투사하는 적어도 하나 이상의 빔 프로젝터를 포함하는 점 그 특징이 있다.
여기서, 특히 상기 인공지능(AI) 카메라는, 횡단보도 영역의 횡단 대기 상태 및 횡단 상태를 촬영하는 촬영부; 상기 촬영부에서 촬영된 횡단 대기 상태의 횡단보도 영상 데이터에서 횡단보도 라인을 추출하여 시야 제한 상태 여부를 판별하고, 상기 촬영부에서 촬영된 횡단 상태의 횡단보도 영상 데이터에서 객체의 움직임을 추출하여 이상 상황 발생 여부를 판별하는 영상 분석부; 상기 영상 분석부에서 판단된 시야 제한 상태의 횡단보도 영상 데이터를 학습하고, 상기 판별된 이상 상황 발생 여부를 학습하는 학습부; 상기 학습부에서 학습된 횡단보도 영상 데이터를 수집하는 저장부; 및 상기 영상 분석부에서 판별된 시야 제한 상태의 횡단보도 영상 데이터 및 횡단보도 이상 상황 발생 여부를 상기 제어부에 전송하는 통신부를 포함하는 점에 그 특징이 있다.
여기서, 특히 상기 영상 분석부는 상기 횡단 대기 상태의 횡단보도 영상 데이터에서 추출된 횡단보도 라인을 상기 학습부에서 학습된 횡단보도 영상 데이터의 횡단보도 라인과 크기 및 색상 비율을 비교하여 횡단보도의 시야 제한 상태 여부를 판별하는 점에 그 특징이 있다.
여기서, 특히 상기 영상 분석부는 상기 촬영된 횡단 상태의 횡단보도 영상 데이터에서 객체 탐지, 객체 분류 및 객체 이동을 검출하는 점에 그 특징이 있다.
여기서, 특히 상기 객체 탐지에서 검출된 객체가 보행자로 분류되면 횡단보도 영역의 횡단 시작점과 횡단 종료점까지 검출하되, 일정 시간 동안 보행자의 크기 변화 또는 이동이 검출되지 않을 경우 이상 상황 발생 사태로 판별하는 점에 그 특징이 있다.
여기서, 특히 상기 객체 탐지에서 검출된 객체가 물체로 분류되면 교통환경 통행 방해물로 판별하는 점에 그 특징이 있다.
여기서, 특히 상기 학습부는 상기 영상 분석에서 분석된 영상 데이터에 대해 CNN(Convolutional Neural Network) 기반 영상 인식 딥러닝 알고리즘에 기초하여 인공 지능 학습을 수행하는 점에 그 특징이 있다.
여기서, 특히 상기 제어부는 무선 네트워크를 통해 수집된 날씨 정보 및 상기 센서부의 조도 변화에 대응하여 횡단보도 영역에 투사되는 횡단보도 영상의 색상을 선택적으로 제어하는 점에 그 특징이 있다.
여기서, 특히 상기 제어부는 상기 인공지능(AI) 카메라로부터 횡단 상태에 횡단보도 영역의 객체가 검출된 것으로 판별되면, 횡단보도 영역에 투사하는 횡단보도 영상의 색상과 상기 검출된 객체에 투사하는 영상의 색상을 서로 다르게 투사하여 객체를 분별하도록 제어하는 점에 그 특징이 있다.
또한, 상기의 과제를 달성하기 위한 본 발명에 따른 보행자 안전을 위한 인공지능 기반 영상투사방법은, 인공지능(AI) 카메라에서 횡단 대기 상태의 횡단보도 영역 및 횡단 상태의 횡단보도 영역을 촬영하는 단계; 상기 촬영된 횡단 대기 상태의 횡단보도 영상 데이터를 분석하여 시야 제한 상태 여부를 판별하는 단계; 상기 판별된 횡단보도 영상 데이터가 시야 제한 상태로 판별되면, 빔 프로젝터로부터 횡단보도 영상을 투사하는 단계; 상기 투사된 횡단보도 영역 내에서 횡단 상태의 횡단보도를 촬영하여 영상 데이터를 분석하는 단계; 상기 분석된 횡단보도 영상 데이터에서 이상 상황 발생 여부를 판별하고 분석하는 단계; 및 상기 이상 상황 발생에서 긴급 상황으로 판별되면 제어부에서 긴급 구조 기관에 호출하는 단계를 포함하는 점에 그 특징이 있다.
여기서, 특히 상기 인공지능(AI) 카메라에서 상기 촬영된 횡단 대기 상태 및 횡단 상태의 영상 데이터를 학습하고, 상기 학습된 횡단보도 영상 데이터를 수집하는 단계를 더 포함하는 점에 그 특징이 있다.
여기서, 특히 상기 학습하는 단계에서 상기 횡단 대기 상태 및 횡단 상태의 영상 데이터에 대해 CNN(Convolutional Neural Network) 기반 영상 인식 딥러닝 알고리즘에 기초하여 인공 지능 학습을 수행하는 점에 그 특징이 있다.
여기서, 특히 상기 시야 제한 상태 여부를 판별하는 단계는 인공지능 카메라에서 촬영된 횡단 대기 상태의 횡단보도 영상 데이터에서 추출된 횡단보도 라인을 기 학습된 횡단보도 영상 데이터의 횡단보도 라인과 크기 및 색상 비율을 비교하여 횡단보도의 시야 제한 상태 여부를 판별하는 점에 그 특징이 있다.
여기서, 특히 상기 횡단보도 영상 데이터를 분석하는 단계에서 상기 촬영된 횡단 상태의 횡단보도 영상 데이터에서 객체 탐지, 객체 분류 및 객체 이동을 검출하는 점에 그 특징이 있다.
여기서, 특히 상기 객체 탐지에서 검출된 객체가 보행자로 분류되면 횡단보도 영역의 횡단 시작점과 횡단 종료점까지 검출하되, 일정 시간 동안 보행자의 크기 변화 또는 이동이 검출되지 않을 경우 이상 상황 발생 사태로 판별하는 점에 그 특징이 있다.
여기서, 특히 상기 객체 탐지에서 검출된 객체가 물체로 분류되면 교통환경 통행 방해물로 판별하는 점에 그 특징이 있다.
여기서, 특히 상기 빔 프로젝터로부터 횡단보도 영상을 투사하는 단계는 무선 네트워크를 통해 수집된 날씨 정보 및 센서부에 감지된 조도 변화에 대응하여 횡단보도 영역에 횡단보도 영상의 색상을 선택적으로 투사하는 점에 그 특징이 있다.
여기서, 상기 빔 프로젝터로부터 횡단보도 영상을 투사하는 단계는 상기 인공지능(AI) 카메라로부터 횡단 상태에 횡단보도 영역의 객체가 검출된 것으로 판별되면, 객체를 분별하도록 횡단보도 영역에 투사하는 횡단보도 영상의 색상과 상기 검출된 객체에 투사하는 영상의 색상을 서로 다르게 투사하는 점에 그 특징이 있다.
본 발명에 따르면, 횡단보도 상태를 실시간으로 모니터링하고, 시인성이 확보되지 않는 상황에서 횡단보도를 영상 투사하여 제공함으로써 보행자 및 운전자에게 교통 안전을 강화시켜 사고 상황 대처를 할 수 있다.
또한, 횡단보도 내에서 발생되는 상황에 대처 가능하도록 긴급 기관에 연결함으로써 사고 발생에 대한 시간 단축으로 인해 신속 대처가 가능할 수 있다.
도 1은 본 발명에 따른 보행자 안전을 위한 인공지능 기반 영상투사장치가 횡단보도 영역에 설치된 일 예를 개략적으로 도시한 도면.
도 2는 상기 도 1의 보행자 안전을 위한 인공지능 기반 영상투사장치의 구성을 개략적으로 도시한 도면.
도 3은 본 발명의 인공지능(AI) 카메라의 구성을 개략적으로 도시한 도면.
도 4a 및 도 4b는 본 발명에 따른 빔 프로젝터가 횡단보도 영상을 투사하는 일 예를 도시한 도면.
도 5는 본 발명에 따른 빔 프로젝터가 횡단보도 영상을 투사하는 또 다른 일 예를 도시한 도면.
도 6은 본 발명에 따른 보행자 안전을 위한 인공지능 기반 영상투사방법에 대한 순서를 개략적으로 도시한 도면.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 발명을 설명함에 있어 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.
또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.
이하, 본 발명의 바람직한 실시 예를 첨부한 도면에 의거하여 상세하게 설명하면 다음과 같다.
도 1은 본 발명의 보행자 안전을 위한 인공지능 기반 영상투사장치가 횡단보도 영역에 설치된 일 예를 개략적으로 도시한 도면이고, 도 2는 상기 도 1의 보행자 안전을 위한 인공지능 기반 영상투사장치의 구성을 개략적으로 도시한 도면이고, 도 3은 본 발명의 인공지능(AI) 카메라의 구성을 개략적으로 도시한 도면이다.
도 1 및 도 2에 도시된 바와 같이, 본 발명에 따른 보행자 안전을 위한 인공지능 기반 영상투사장치는, 횡단보도 영역(600)내에 설치된 인공지능(AI) 카메라(100), 제어부(200), 빔 프로젝터(300), 센서부(400) 및 횡단보도 신호등(500)으로 구성된다.
먼저, 상기 인공지능(AI) 카메라(100)는 횡단보도 주변의 신호등에 설치되고, 횡단 대기 상태에서 횡단보도 영역(600)을 촬영하여 횡단보도 영상을 분석하고, 횡단 상태에서 횡단보도 영역(600)의 객체 이동을 검출하게 된다. 즉, 인공지능(AI) 카메라(100)는 횡단보도 영역내의 횡단보도의 상태, 차량 통행 및 보행자를 실시간으로 촬영하여 이를 분석하여 수집하게 된다.
보다 구체적으로, 도 3에 도시된 바와 같이, 상기 인공지능(AI) 카메라(100)는, 횡단보도 영역(600)의 횡단 대기 상태 및 횡단 상태를 촬영하는 촬영부(110), 상기 촬영부(110)에서 촬영된 횡단 대기 상태의 횡단보도 영상 데이터에서 횡단보도 라인을 추출하여 시야 제한 상태 여부를 판별하고, 상기 촬영부(110)에서 촬영된 횡단 상태의 횡단보도 영상 데이터에서 객체의 움직임을 추출하여 이상 상황 발생 여부를 판별하는 영상 분석부(120), 상기 영상 분석부(130)에서 판단된 시야 제한 상태의 횡단보도 영상 데이터를 학습하고, 상기 판별된 이상 상황 발생 여부를 학습하는 학습부(130), 상기 학습부(130)에서 학습된 횡단보도 영상 데이터를 수집하는 저장부(140) 및 상기 영상 분석부(120)에서 판별된 시야 제한 상태의 횡단보도 영상 데이터 및 횡단보도 이상 상황 발생 여부를 상기 제어부에 전송하는 통신부(150)를 포함하여 구성된다.
상기 촬영부(110)는 횡단 대기 상태 및 횡단 상태를 촬영할 때, 횡단보도에서 인도까지의 횡단보도 영역 및 횡단보도 양단에서 인도 측으로 향하는 구간 내 신호대기자가 대기하는 신호대기 영역을 촬영할 수도 있다.
상기 영상 분석부(120)는 상기 횡단 대기 상태의 횡단보도 영상 데이터에서 추출된 횡단보도 라인을 상기 학습부(130)에서 학습된 횡단보도 영상 데이터의 횡단보도 라인과 크기 및 색상 비율을 비교하여 횡단보도의 시야 제한 상태 여부를 판별하게 된다.
여기서, 상기 영상 분석부(120)는 횡단 대기 상태에서 촬영된 횡단보도 영상 데이터에서 횡단보도 범위의 흰색 부분과 그 외 부분(검정색 등)의 비율을 촬영하여 횡단보도의 상태를 분석하게 된다. 즉, 영상 분석부(120)는 횡단보도 영역에서 흰색 부분의 페인트 노후화로 등으로 인해 훼손된 횡단보도 색상 및 크기의 비율을 분석하게 하거나 낙하물로 인해 가려진 부분을 크기 비율로 분석하게 된다.
또한, 영상 분석부(120)는 기상에 따라 시야가 제한되는 상태에서도 횡단 대기 상태의 횡단보도 영상 데이터를 분석하게 된다. 예를 들어, 눈이 많이 내리는 날에 제설작업이 되지 않은 상태에서 눈으로 인해 횡단보도가 가려져 보행자나 운전자의 시야에 제한이 있게 되고, 비가 많이 내리는 날에도 횡단보도의 시야 제한이 있게 되며, 안개 등으로 인해 시야 제한 상태에 있게 된다.
이때, 영상 분석부(120)는 눈, 비 또는 안개 등으로 인한 기상 조건에서 쵤영된 횡단보도 영상데이터를 분석하여 시야 제한 상태를 판별하게 된다.
또한, 영상 분석부(120)는 조도가 낮은 야간에도 실시간으로 촬영된 횡단보도 영상데이터를 분석하여 시야 제한 상태를 판별하게 된다.
또한, 영상 분석부(120)는 상기 촬영된 횡단 상태의 횡단보도 영상 데이터에서 객체 탐지, 객체 분류 및 객체 이동을 검출하게 된다.
보다 구체적으로, 영상 분석부(120)는 촬영된 횡단보도 영상 데이터의 각 프레임으로부터 객체 탐지를 통해 보행자의 이동을 검출하고, 객체의 움직임이 검출되지 않은 영상 데이터의 특정 프레임에서는 객체를 탐지하여 객체 분류를 검출하게 된다.
이때, 영상 분석부(120)는 객체 탐지에서 객체가 횡단보도 영역의 횡단 시작점과 횡단 종료점까지 검출되면 보행자로 분류하고, 일정 시간 동안 보행자의 크기 변화 또는 이동이 검출되지 않을 경우 이상 상황 발생 사태로 판별하게 된다. 여기서, 이상 상황 발생 사태로 판별되면, 객체 탐지에서 검출된 객체가 물체로 분류되면 교통환경 통행 방해물로 판별하게 된다. 즉, 교통환경을 방해하는 요인으로 인식하게 된다.
다시 말해, 영상 분석부(120)는 영상 데이터의 이미지를 통한 보행자 인식 및 물체 판별하게 되는데, 이때 이미지를 쉘로 나누고 이미지가 변화하는 중에 나누어진 쉘 범위에서 보행자가 확인되는 특정 쉘을 검출하여 각 쉘 값을 분석하여 보행자의 이동을 인식하게 된다. 여기서, 이미지 쉘을 통한 보행자 인식 방법을 토대로 이동이 있는 물체와 없는 물체를 판별하게 된다.
이때, 상세한 움직임 검출 보다는 외형의 특징과 이동 인식 여부만을 빠르게 판별하게 된다.
한편, 상기 객체 탐지에서 객체가 횡단보도 영역의 횡단 시작점과 횡단 종료점까지 검출되면 보행자로 분류하되, 보행자의 크기가 변화하거나 이동이 검출되지 않을 시 사고 등 이상사태로 판별하게 된다.
상기 학습부(130)는 상기 영상 분석부(120)에서 분석된 영상 데이터에 대해 CNN(Convolutional Neural Network) 기반 영상 인식 알고리즘에 기초하여 인공 지능 학습을 수행하게 된다. 이때, 학습된 영상 데이터는 상기 영상 분석부(120)에서 이를 토대로 촬영된 영상 데이터를 분석하게 된다.
보다 구체적으로, 학습부(130)는 영상 내 특정 물체를 검색하는 인공지능 알고리즘을 이용하게 되는데 CNN(Convolutional Neural Network) 기반 영상 인식 알고리즘을 이용하는 바람직할 수 있다. 이러한, CNN(Convolutional Neural Network) 기반 영상 인식 알고리즘은 하나의 뉴렬 네트워크를 통해 추론되는 특성을 통해 해당 네트워크는 상당히 빠른 추론 속도를 낼 수 있어 딜레이를 감소시킬 수 있다. 또한, 하나의 뉴럴 네트워크를 통해 물체의 위치와 종류를 검출하는 네트워크는 실시간성이 중요한 스마트 횡단보도에 적합할 수 있다.
이때, 사람의 경우 상대적으로 멀리 떨어져 있는 CCTV에서는 매우 작게 나타나기 때문에 영상 내 작은 물체인 사람을 검출하기 위해서, 바람직하게는, CNN 기반인 Faster R-CNN을 이용할 수도 있다. Faster R-CNN은 물체 검출을 위한 두 개의 네트워크로 이루어져 있기 때문에 작은 물체인 사람을 검출하기에 적합하다. 다만, 두 개의 네트워크가 구동됨으로 인한 딜레이가 존재할 수 있기 때문에, 본 발명에서는, 추론 속도를 개선하는 방법을 더 이용할 수 있다.
따라서, 학습 데이터 및 다양한 환경에서 보행자 및 신호대기자의 이동 패턴 분석 등을 통하여 영상 내 횡단보도 영역을 검출하여 학습 및 추론에 이용할 수 있다. 즉, 학습 또는 비지도 학습으로 촬영한 영상 데이터를 이용하여 재학습을 함으로써 업데이트하여 다양한 상황과 객체에 따라 각기 다른 상황이 학습되고 나면, 이후 동일한 상황과 객체가 입력되는 경우, 동일한 결론을 제공할 수 있게 된다. 여기서, 횡단보도의 학습데이터는 네트워크 통신 및 직접 촬영한 움직임을 통해 획득한 영상 데이터를 확보하여 학습 및 트레이닝 진행할 수 있다.
또한, 상기 영상 분석부(120)에서 분석된 횡단보도 내의 사고 및 가려짐 등에 대한 영상 데이터를 수신하여 사고의 범위 및 대처 시간 등을 학습할 수 있다. 이때, 데이터 학습 및 움직임 검출에서 생성된 영상 데이터를 이용하여 상황에 대한 대처 유효성 판단도 학습할 수 있다.
상기 저장부(140)는 상기 촬영부(110)로부터 수집된 보행자, 대기자 및 차량이 포함된 횡단보도 영역의 횡단대기 상태 및 횡단상태의 영상 데이터를 수집할 수 있다. 이때, 수집하는 영상 데이터는 누적된 영상 데이터를 이용할 수도 있고, 실시간으로 수집된 영상 데이터를 누적하여 빅데이터를 구축한 후 사용할 수도 있다.
상기 통신부(150)는 상기 영상 분석부(120)에서 영상 데이터가 유효한 것으로 판단된 경우, 상기 영상 데이터에 대응되는 상황을 출력하기 위해 상기 제어부(200)에 분석된 영상 데이터를 송신하게 된다.
상기 제어부(200)는 상기 인공지능(AI) 카메라(100)에서 분석된 횡단보도 영역(600)의 상태 및 상기 센서부(400)에서 감지된 조도 변화에 따라 횡단보도 영역에 횡단보도 영상을 투사하도록 제어하게 된다.
보다 구체적으로, 상기 제어부(200)는 인공지능(AI) 카메라(100)로부터 객체 탐지에서 객체가 횡단보도 영역의 횡단 시작점과 횡단 종료점까지 검출되면 보행자로 분류하고, 일정 시간 동안 보행자의 크기 변화 또는 이동이 검출되지 않을 경우 이상 상황 발생 사태로 판별되면 해당 영상 데이터 및 위치를 외부 긴급 구조 기관(예를 들어, 경찰서, 소방서, 도로관리기관 등,)에 전송하여 긴급 호출할 수 있다.
또한, 객체 탐지에서 검출된 객체가 물체로 분류되면 교통환경 통행 방해물로 판별하여 교통환경을 방해하는 요인으로 인식하여 이를 처리할 수 있도록 관련 기관(예를 들어, 도로관리기관)에 호출할 수 있다.
또한, 상기 제어부(200)는 인공지능(AI) 카메라(100)에서 분석된 횡단보도 영역(600)의 상태에 따라 빔 프로젝터(200)에 횡단보도 영상을 투사하도록 제어하게 된다.
즉, 인공지능(AI) 카메라(100)에서 횡단보도 영역내 흰색 부분의 페인트 노후화로 등으로 인해 훼손된 횡단보도를 정상적으로 보이도록 영상을 투사하도록 빔 프로젝터(300)를 제어하거나 낙하물로 인해 가려진 횡단보도의 시야 제한 상태에 대해 보행자나 운전자가 이를 인지할 수 있도록 해당 위치에 별도의 영상이 투사되도록 빔 프로젝터(300)를 제어하게 된다.
또한, 상기 센서부(400)로부터 조도 값 데이터를 전송받고, 상기 인공지능(AI) 카메라(100)에서 야간 및 눈, 비 또는 안개 등으로 인한 기상 조건에 의해 시야가 제한되는 상태로 판단되면 빔 프로젝터(300)가 횡단보도 영상을 투사하도록 제어한다.
상기 빔 프로젝터(300)는 적어도 하나 이상의 구성이 신호등에 설치되고, 제어부(200)에서 제어된 기 설정된 소정 비율 범위의 횡단보도 영상을 투사하는 하게 된다. 이때, 빔 프로젝터는 일반적으로 4.5m 정도의 높이의 신호등에 설치되어 횡단보도 영역을 전체적으로 투사할 수 있도록 하는 것이 바람직하다.
상기 센서부(400)는 신호등에 설치되어 실시간으로 기상 변화 및 일몰 등으로 인한 밝기(조도 변화)를 측정하여 조도 값이 설정 범위 보다 낮을 경우 이를 제어부(200)에 측정된 조도 값 데이터를 전송한다.
한편, 도 4a 및 도 4b는 본 발명에 따른 빔 프로젝터가 횡단보도 영상을 투사하는 일 예를 도시한 도면이고, 도 5는 본 발명에 따른 빔 프로젝터가 횡단보도 영상을 투사하는 또 다른 일 예를 도시한 도면이다.
도 4a 및 도 4b에 도시된 바와 같이, 상기 제어부(200)는 인공지능(AI) 카메라(100)로부터 수집된 영상 데이터, 무선 네트워크를 통해 수집된 날씨 정보 및 상기 센서부(400)의 조도 변화를 통합적으로 분석하여 이에 대응하도록 횡단보도 영역에 투사되는 횡단보도 영상의 색상을 선택적으로 제어할 수 있다.
예컨대, 도 4a에는 야간, 눈 또는 횡단보도 페인트 노후화로 인해 횡단보도 식별이 불가한 때, 즉, 인공지능(AI) 카메라에서 횡단보도의 영상 데이터가 학습되고, 학습한 횡단보도의 영상 데이터와 현재 촬영된 횡단보도의 영상 데이터를 비교하여 판별되는 경우로 빔 프로젝터(300)에서 횡단보도의 외형 색상을 예시적으로 노란 색으로 투사할 수 있다. 이때, 색상은 기상 상태나 야간에 맞도록 시인성이 확보될 수 있는 색상으로 다양하게 변경할 수 있다.
또한, 도 4b는, 인공지능(AI) 카메라에서 횡단보도의 영상 데이터가 보행자와 객체의 크기 및 이동 중인지 아닌지를 판별한 후, 이동이 없고 횡단보도 영역 내의 임의의 위치에 보행자 또는 객체가 유지되고 있는 경우 빔 프로젝터(300)의 횡단보도의 색상을 변경하여 점멸하면서 투사할 수 있다. 즉, 횡단보도 영역 내에 이상 상황으로 판별된 경우로, 일반적으로 설정된 색상과 다른 색상인 빨간색으로 투사하여 이상 상황임을 구별할 수 있도록 시인성을 제공할 수 있다.
한편, 도 5에 도시된 바와 같이, 빔 프로젝터를 두 개를 설치한 예로, 인공지능(AI) 카메라로부터 횡단 상태에 횡단보도 영역의 객체가 검출된 것으로 판별되면, 횡단보도 영역에 투사하는 횡단보도 영상의 색상과 상기 검출된 객체에 투사하는 영상의 색상을 서로 다르게 투사하여 객체를 분별할 수 있다.
예시적으로, 하나의 빔 프로젝터(300a)는 시인성 확보를 위한 횡단보도 영상을 노란색으로 투사하고, 이상 상황 발생된 경우에 또 다른 하나의 빔 프로젝터(300b)에서는 다른 색으로 해당 영역에 부분적으로 투사될 수 있다. 즉, 횡단보도 영역내에 임의의 위치에 보행자 또는 객체가 이동이 없고 유지되고 있는 경우에, 동시에 빔 프로젝터에서 서로 다른 색상으로 투사하여 운전자 또는 다른 보행자들이 빠르게 대처할 수 있다.
또한, 도 6은 본 발명에 따른 보행자 안전을 위한 인공지능 기반 영상투사방법에 대한 순서도이다.
먼저, 도 6에 도시된 바와 같이, 인공지능(AI) 카메라에서 횡단 대기 상태의 횡단보도 영역 및 횡단 상태의 횡단보도 영역을 촬영하는 단계가 수행된다(S601).
그 다음, 상기 촬영된 횡단 대기 상태의 횡단보도 영상 데이터를 분석하여(S602) 시야 제한 상태 여부를 판별하는 단계를 수행한다(S603).
보다 구체적으로, 상기 시야 제한 상태 여부를 판별하는 단계(S602, S603)는 인공지능(AI) 카메라(100)로부터 촬영된 횡단 대기 상태의 횡단보도 영상 데이터에서 추출된 횡단보도 라인을 기 학습된 횡단보도 영상 데이터의 횡단보도 라인과 크기 및 색상 비율을 비교하여 횡단보도의 시야 제한 상태 여부를 판별하게 된다.
여기서, 상기 횡단 대기 상태에서 촬영된 횡단보도 영상 데이터에서 횡단보도 범위의 흰색 부분과 그 외 부분(검정색 등)의 비율을 촬영하여 횡단보도의 상태를 분석하게 된다. 즉, 상기 횡단보도 영역에서 흰색 부분의 페인트 노후화로 등으로 인해 훼손된 횡단보도 색상 및 크기의 비율을 분석하게 하거나 낙하물로 인해 가려진 부분을 크기 비율로 분석하게 된다.
또한, 기상에 따라 시야가 제한되는 상태에서도 횡단 대기 상태의 횡단보도 영상 데이터를 분석하게 된다. 예를 들어, 눈이 많이 내리는 날에 제설작업이 되지 않은 상태에서 눈으로 인해 횡단보도가 가려져 보행자나 운전자의 시야에 제한이 있게 되고, 비가 많이 내리는 날에도 횡단보도의 시야 제한이 있게 되며, 안개 등으로 인해 시야 제한 상태에 있게 된다.
이때, 눈, 비 또는 안개 등으로 인한 기상 조건에서 쵤영된 횡단보도 영상데이터를 분석하여 시야 제한 상태를 판별하게 된다.
또한, 조도가 낮은 야간에도 실시간으로 촬영된 횡단보도 영상데이터를 분석하여 시야 제한 상태를 판별하게 된다.
그리고, 상기 판별된 횡단보도 영상 데이터가 시야 제한 상태로 판별되면, 빔 프로젝터(300)로부터 횡단보도 영상을 투사하는 단계를 수행한다(S604). 즉, 상기 제어부(200)는 인공지능(AI) 카메라(100)에 수집된 영상 데이터, 무선 네트워크를 통해 수집된 날씨 정보 및 상기 센서부(400)의 조도 변화를 통합적으로 분석하여 이에 대응하도록 횡단보도 영역에 투사되는 횡단보도 영상의 색상을 선택적으로 제어하게 된다.
즉, 상기 인공지능(AI) 카메라로부터 횡단 상태에 횡단보도 영역의 객체가 검출된 것으로 판별되면, 객체를 분별하도록 횡단보도 영역에 투사하는 횡단보도 영상의 색상과 상기 검출된 객체에 투사하는 영상의 색상을 서로 다르게 투사하게 된다.
여기서, 횡단보도 영상을 투사하는 방식은 상술한 도 4a, 도 4b 및 도 5를 참조하여 생략하기로 한다.
이어서, 횡단보도 영상의 투사 후에 횡단 상태에서의 횡단보도를 촬영하여 횡단보도 영상 데이터를 분석하는 단계를 수행한다(S605). 여기서, 횡단보도 영상 데이터를 분석하는 단계(S605)는 인공지능(AI) 카메라(100)로부터 횡단 상태의 횡단보도 영상 데이터에서 객체 탐지, 객체 분류 및 객체 이동을 검출하게 된다.
보다 구체적으로, 인공지능(AI) 카메라(100)는 촬영된 횡단보도 영상 데이터의 각 프레임으로부터 객체 탐지를 통해 보행자의 이동을 검출하고, 객체의 움직임이 검출되지 않은 영상 데이터의 특정 프레임에서는 객체를 탐지하여 객체 분류를 검출하게 된다.
그리고, 상기 분석된 횡단보도 영상 데이터에서 이상 상황 발생 여부를 판별하고 이상 상황을 분석하는 단계를 수행한다(S606, S607). 여기서, 객체 탐지에서 객체가 횡단보도 영역의 횡단 시작점과 횡단 종료점까지 검출되면 보행자로 분류하고, 일정 시간 동안 보행자의 크기 변화 또는 이동이 검출되지 않을 경우 이상 상황 발생을 긴급 상황 사태로 판별하게 된다(S608).
한편, 이상 상황 발생으로 판별되고(S606), 객체 탐지에서 검출된 객체가 물체로 분류되면 긴급 상황이 아닌 것으로 교통환경 통행 방해물로 판별하게 된다(S611, S612). 즉, 교통환경을 방해하는 요인으로 인식하게 된다.
이어, 상기 이상 상황 발생에서 긴급 상황으로 판별되면(S608), 제어부에서 긴급 구조 기관에 호출하는 단계를 수행한다(S609).
한편, 상기 인공지능(AI) 카메라에서는 상기 촬영된 횡단 대기 상태 및 횡단 상태의 영상 데이터를 학습하고, 상기 학습된 횡단보도 영상 데이터를 수집하는 단계(미도시)를 수행한다. 즉, 상기 모든 단계는 각 단계별로 학습 단계를 진행할 수 있다.
상기 학습하는 단계는 상기 횡단 대기 상태 및 횡단 상태의 영상 데이터에 대해 CNN(Convolutional Neural Network) 기반 영상 인식 딥러닝 알고리즘에 기초하여 인공 지능 학습을 수행하게 된다.
한편, 상기 촬영(S601) 및 영상 분석 단계(S602)는 횡단 대기 상태에 대해서만 설명하였으나 횡단보도 투사 전 단계(S604)에서도 횡단 상태의 촬영 및 분석(S605) 내지 호출단계(S609)를 수행하는 것이 바람직하다.
따라서, 본 발명은 횡단보도 상태를 실시간으로 모니터링하고, 시인성이 확보되지 않는 상황에서 횡단보도를 영상 투사하여 제공함으로써 보행자 및 운전자에게 교통 안전을 강화시켜 사고 상황 대처를 할 수 있는 기능을 구현할 수 있다.
본 발명의 권리범위는 상술한 실시 예에 한정되는 것이 아니라 첨부된 특허청구범위 내에서 다양한 형태의 실시 예로 구현될 수 있다. 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자라면 누구든지 변형 가능한 다양한 범위까지 본 발명의 청구범위 기재의 범위 내에 있는 것으로 본다.
100 --- 인공지능(AI) 카메라
200 --- 제어부
300 --- 빔 프로젝터
400 --- 센서부
500 --- 신호등
600 --- 횡단보도 영역
110 --- 촬영부
120 ---영상 분석부
130 --- 학습부
140 --- 저장부
150 --- 통신부

Claims (18)

  1. 횡단보도 주변에 설치되고, 횡단 대기 상태에서 횡단보도 영역을 촬영하여 횡단보도 영상을 분석하고, 횡단 상태에서 횡단보도 영역의 객체 이동을 검출하는 인공지능(AI) 카메라;
    횡단보도 주변에 설치되어 조도 변화를 감지하는 센서부;
    상기 인공지능(AI) 카메라에서 분석된 횡단보도 영역의 상태 및 상기 센서부에서 감지된 조도 변화에 따라 횡단보도 영역에 횡단보도 영상을 투사하도록 제어하는 제어부; 및
    상기 제어부에서 제어된 기 설정된 소정 비율 범위의 횡단보도 영상을 투사하는 적어도 하나 이상의 빔 프로젝터를 포함하고,
    상기 제어부는 무선 네트워크를 통해 수집된 날씨 정보 및 상기 센서부의 조도 변화에 대응하여 횡단보도 영역에 투사되는 횡단보도 영상의 색상을 선택적으로 제어하는 보행자 안전을 위한 인공지능 기반 영상투사장치.
  2. 제1항에 있어서,
    상기 인공지능(AI) 카메라는,
    횡단보도 영역의 횡단 대기 상태 및 횡단 상태를 촬영하는 촬영부;
    상기 촬영부에서 촬영된 횡단 대기 상태의 횡단보도 영상 데이터에서 횡단보도 라인을 추출하여 시야 제한 상태 여부를 판별하고, 상기 촬영부에서 촬영된 횡단 상태의 횡단보도 영상 데이터에서 객체의 움직임을 추출하여 이상 상황 발생 여부를 판별하는 영상 분석부;
    상기 영상 분석부에서 판단된 시야 제한 상태의 횡단보도 영상 데이터를 학습하고, 상기 판별된 이상 상황 발생 여부를 학습하는 학습부;
    상기 학습부에서 학습된 횡단보도 영상 데이터를 수집하는 저장부; 및
    상기 영상 분석부에서 판별된 시야 제한 상태의 횡단보도 영상 데이터 및 횡단보도 이상 상황 발생 여부를 상기 제어부에 전송하는 통신부를 포함하는 것을 특징으로 하는 보행자 안전을 위한 인공지능 기반 영상투사장치.
  3. 제2항에 있어서,
    상기 영상 분석부는 상기 횡단 대기 상태의 횡단보도 영상 데이터에서 추출된 횡단보도 라인을 상기 학습부에서 학습된 횡단보도 영상 데이터의 횡단보도 라인과 크기 및 색상 비율을 비교하여 횡단보도의 시야 제한 상태 여부를 판별하는 것을 특징으로 하는 보행자 안전을 위한 인공지능 기반 영상투사장치.
  4. 제2항에 있어서,
    상기 영상 분석부는 상기 촬영된 횡단 상태의 횡단보도 영상 데이터에서 객체 탐지, 객체 분류 및 객체 이동을 검출하는 것을 특징으로 하는 보행자 안전을 위한 인공지능 기반 영상투사장치.
  5. 제4항에 있어서,
    상기 객체 탐지에서 검출된 객체가 보행자로 분류되면 횡단보도 영역의 횡단 시작점과 횡단 종료점까지 검출하되, 일정 시간 동안 보행자의 크기 변화 또는 이동이 검출되지 않을 경우 이상 상황 발생 사태로 판별하는 것을 특징으로 하는 보행자 안전을 위한 인공지능 기반 영상투사장치.
  6. 제4항에 있어서,
    상기 객체 탐지에서 검출된 객체가 물체로 분류되면 교통환경 통행 방해물로 판별하는 것을 특징으로 하는 보행자 안전을 위한 인공지능 기반 영상투사장치.
  7. 제2항에 있어서,
    상기 학습부는 상기 영상 분석에서 분석된 영상 데이터에 대해 CNN(Convolutional Neural Network) 기반 영상 인식 딥러닝 알고리즘에 기초하여 인공 지능 학습을 수행하는 것을 특징으로 보행자 안전을 위한 인공지능 기반 영상투사장치.
  8. 삭제
  9. 제1항에 있어서,
    상기 제어부는 상기 인공지능(AI) 카메라로부터 횡단 상태에 횡단보도 영역의 객체가 검출된 것으로 판별되면, 횡단보도 영역에 투사하는 횡단보도 영상의 색상과 상기 검출된 객체에 투사하는 영상의 색상을 서로 다르게 투사하여 객체를 분별하도록 제어하는 보행자 안전을 위한 인공지능 기반 영상투사장치.
  10. 인공지능(AI) 카메라에서 횡단 대기 상태의 횡단보도 영역 및 횡단 상태의 횡단보도 영역을 촬영하는 단계;
    상기 촬영된 횡단 대기 상태의 횡단보도 영상 데이터를 분석하여 시야 제한 상태 여부를 판별하는 단계;
    상기 판별된 횡단보도 영상 데이터가 시야 제한 상태로 판별되면, 빔 프로젝터로부터 횡단보도 영상을 투사하는 단계;
    상기 투사된 횡단보도 영역 내에서 횡단 상태의 횡단보도를 촬영하여 영상 데이터를 분석하는 단계;
    상기 분석된 횡단보도 영상 데이터에서 이상 상황 발생 여부를 판별하고 분석하는 단계; 및
    상기 이상 상황 발생에서 긴급 상황으로 판별되면 제어부에서 긴급 구조 기관에 호출하는 단계를 포함하고,
    상기 시야 제한 상태 여부를 판별하는 단계는 인공지능 카메라에서 촬영된 횡단 대기 상태의 횡단보도 영상 데이터에서 추출된 횡단보도 라인을 기 학습된 횡단보도 영상 데이터의 횡단보도 라인과 크기 및 색상 비율을 비교하여 횡단보도의 시야 제한 상태 여부를 판별하는 보행자 안전을 위한 인공지능 기반 영상투사방법.
  11. 제10항에 있어서,
    상기 인공지능(AI) 카메라에서 상기 촬영된 횡단 대기 상태 및 횡단 상태의 영상 데이터를 학습하고, 상기 학습된 횡단보도 영상 데이터를 수집하는 단계를 더 포함하는 보행자 안전을 위한 인공지능 기반 영상투사방법.
  12. 제11항에 있어서,
    상기 학습하는 단계에서 상기 횡단 대기 상태 및 횡단 상태의 영상 데이터에 대해 CNN(Convolutional Neural Network) 기반 영상 인식 딥러닝 알고리즘에 기초하여 인공 지능 학습을 수행하는 것을 특징으로 보행자 안전을 위한 인공지능 기반 영상투사방법.
  13. 삭제
  14. 제10항에 있어서,
    상기 횡단보도 영상 데이터를 분석하는 단계에서 상기 촬영된 횡단 상태의 횡단보도 영상 데이터에서 객체 탐지, 객체 분류 및 객체 이동을 검출하는 것을 특징으로 하는 보행자 안전을 위한 인공지능 기반 영상투사방법.
  15. 제14항에 있어서,
    상기 객체 탐지에서 검출된 객체가 보행자로 분류되면 횡단보도 영역의 횡단 시작점과 횡단 종료점까지 검출하되, 일정 시간 동안 보행자의 크기 변화 또는 이동이 검출되지 않을 경우 이상 상황 발생 사태로 판별하는 것을 특징으로 하는 보행자 안전을 위한 인공지능 기반 영상투사방법.
  16. 제14항에 있어서,
    상기 객체 탐지에서 검출된 객체가 물체로 분류되면 교통환경 통행 방해물로 판별하는 것을 특징으로 하는 보행자 안전을 위한 인공지능 기반 영상투사방법.
  17. 제10항에 있어서,
    상기 빔 프로젝터로부터 횡단보도 영상을 투사하는 단계는 무선 네트워크를 통해 수집된 날씨 정보 및 센서부에 감지된 조도 변화에 대응하여 횡단보도 영역에 횡단보도 영상의 색상을 선택적으로 투사하는 것을 특징으로 보행자 안전을 위한 인공지능 기반 영상투사방법.
  18. 제10항에 있어서,
    상기 빔 프로젝터로부터 횡단보도 영상을 투사하는 단계는 상기 인공지능(AI) 카메라로부터 횡단 상태에 횡단보도 영역의 객체가 검출된 것으로 판별되면, 객체를 분별하도록 횡단보도 영역에 투사하는 횡단보도 영상의 색상과 상기 검출된 객체에 투사하는 영상의 색상을 서로 다르게 투사하는 보행자 안전을 위한 인공지능 기반 영상투사방법.
KR1020210087630A 2021-07-05 2021-07-05 보행자 안전을 위한 인공지능 기반 영상투사장치 및 그 방법 KR102330747B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210087630A KR102330747B1 (ko) 2021-07-05 2021-07-05 보행자 안전을 위한 인공지능 기반 영상투사장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210087630A KR102330747B1 (ko) 2021-07-05 2021-07-05 보행자 안전을 위한 인공지능 기반 영상투사장치 및 그 방법

Publications (1)

Publication Number Publication Date
KR102330747B1 true KR102330747B1 (ko) 2021-12-01

Family

ID=78899998

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210087630A KR102330747B1 (ko) 2021-07-05 2021-07-05 보행자 안전을 위한 인공지능 기반 영상투사장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR102330747B1 (ko)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130041430A (ko) 2011-10-17 2013-04-25 신현진 Led 조명부를 갖는 횡단보도용 신호등 장치 및 그의 횡단보도 조명 방법
KR20150122971A (ko) 2014-04-24 2015-11-03 주식회사 코사코시스템 횡단보도의 경보용 신호등
KR101851009B1 (ko) * 2016-11-17 2018-04-23 경일대학교산학협력단 횡단보도 보행자 안전시스템
KR20180050892A (ko) * 2016-11-07 2018-05-16 경일대학교산학협력단 이미지 인식을 이용한 보행자 보조 신호 제공 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
KR20190052741A (ko) * 2017-11-09 2019-05-17 임철수 횡단보도 안전선표시장치
KR102181222B1 (ko) * 2019-11-26 2020-11-20 주식회사 천운 횡단보도 보행자의 안전 관리 시스템
KR102215566B1 (ko) * 2020-05-25 2021-02-15 주식회사 핀텔 스마트 안전 횡단보도 서비스 제공 시스템

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130041430A (ko) 2011-10-17 2013-04-25 신현진 Led 조명부를 갖는 횡단보도용 신호등 장치 및 그의 횡단보도 조명 방법
KR20150122971A (ko) 2014-04-24 2015-11-03 주식회사 코사코시스템 횡단보도의 경보용 신호등
KR20180050892A (ko) * 2016-11-07 2018-05-16 경일대학교산학협력단 이미지 인식을 이용한 보행자 보조 신호 제공 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
KR101851009B1 (ko) * 2016-11-17 2018-04-23 경일대학교산학협력단 횡단보도 보행자 안전시스템
KR20190052741A (ko) * 2017-11-09 2019-05-17 임철수 횡단보도 안전선표시장치
KR102181222B1 (ko) * 2019-11-26 2020-11-20 주식회사 천운 횡단보도 보행자의 안전 관리 시스템
KR102215566B1 (ko) * 2020-05-25 2021-02-15 주식회사 핀텔 스마트 안전 횡단보도 서비스 제공 시스템

Similar Documents

Publication Publication Date Title
KR102029656B1 (ko) 사물인터넷기반 임베디드 방식의 교통신호 자율운영시스템
US6985172B1 (en) Model-based incident detection system with motion classification
KR101671428B1 (ko) 지능형 교차로 위법 차량 감시 시스템
KR101833359B1 (ko) 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법 및 장치
KR101780320B1 (ko) 지능형 다기능 영상 감시 시스템
JP7009987B2 (ja) 自動運転システム及び自動運転方法
KR102174556B1 (ko) 차량번호 인식과 인공지능을 이용해 교통정보를 관제하는 영상감시장치
EP2383679A1 (en) Detecting and recognizing traffic signs
WO2020123712A1 (en) Fusion-based traffic light recognition for autonomous driving
US20190197887A1 (en) Coordinated alert and event guidance system
CN107972569A (zh) 车灯组控制方法、装置、系统及车辆
KR102353724B1 (ko) 도시 상태 모니터링 장치 및 방법
CN112750170A (zh) 一种雾特征识别方法、装置及相关设备
KR101440478B1 (ko) 지능형 교통신호 제어방법 및 시스템
KR20210158037A (ko) 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법
KR102499340B1 (ko) 이기종 객체 필터 기반 하이브리드 영상 분석 장치 및 방법
CN112257683A (zh) 一种面向车辆运行轨迹监测的跨镜追踪方法
KR102310845B1 (ko) 인공지능 기반의 cctv 일체형 스마트 가로등
KR20230102341A (ko) AIoT 기반 교통안전 통합 관리시스템
KR102330747B1 (ko) 보행자 안전을 위한 인공지능 기반 영상투사장치 및 그 방법
KR20220071514A (ko) 영상 기반의 객체 인식 및 주변 환경 감지를 통한 보행 신호 제어 장치
CN105046223A (zh) 一种隧道入口“黑洞效应”严重程度的检测装置及方法
KR20190065907A (ko) 얼굴 인식을 이용한 교통 관리 시스템
KR102328644B1 (ko) 안전운전 도우미 시스템 및 그 동작방법
KR20240003559A (ko) 지능형 cctv 카메라와 스마트 가로등(전광판) 연동 시스템

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant