KR20220108920A - Illumination device for lighting based on possibility of pedestrian collision - Google Patents

Illumination device for lighting based on possibility of pedestrian collision Download PDF

Info

Publication number
KR20220108920A
KR20220108920A KR1020210012002A KR20210012002A KR20220108920A KR 20220108920 A KR20220108920 A KR 20220108920A KR 1020210012002 A KR1020210012002 A KR 1020210012002A KR 20210012002 A KR20210012002 A KR 20210012002A KR 20220108920 A KR20220108920 A KR 20220108920A
Authority
KR
South Korea
Prior art keywords
collision
lighting device
possibility
light emitting
emitting unit
Prior art date
Application number
KR1020210012002A
Other languages
Korean (ko)
Inventor
권태원
Original Assignee
주식회사 브라이트랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 브라이트랩 filed Critical 주식회사 브라이트랩
Priority to KR1020210012002A priority Critical patent/KR20220108920A/en
Publication of KR20220108920A publication Critical patent/KR20220108920A/en

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • H05B47/125Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using cameras
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V23/00Arrangement of electric circuit elements in or on lighting devices
    • F21V23/04Arrangement of electric circuit elements in or on lighting devices the elements being switches
    • F21V23/0442Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N5/225
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/11Controlling the light source in response to determined parameters by determining the brightness or colour temperature of ambient light

Abstract

The present invention relates to a lighting device based on pedestrian collision possibility recognition, which comprises: a light emitting unit which includes a plurality of light sources and emits light; at least one lens which is disposed in front of the light source; at least one camera which is installed in the light emitting unit and photographs the front of the lighting device; and a control unit which receives an image from the camera, recognizes an object, and controls the light emitting unit based on the same. The control unit selects an object of which the collision probability value is greater than or equal to a predetermined threshold point among a plurality of objects in the front, and controls the light emitting unit to emit light to the selected object.

Description

보행자 충돌가능성 인식 기반의 조명장치 {ILLUMINATION DEVICE FOR LIGHTING BASED ON POSSIBILITY OF PEDESTRIAN COLLISION}Pedestrian collision potential recognition based lighting device {ILLUMINATION DEVICE FOR LIGHTING BASED ON POSSIBILITY OF PEDESTRIAN COLLISION}

본 발명은 보행자 충돌가능성 인식 기반의 조명장치에 관한 것으로서, 보다 상세하게는, 카메라를 통해 조명장치의 전방을 촬영하고, 촬영한 영상을 통하여 객체를 인식하여 객체의 이동방향과 영상내에서의 이동거리를 수집하고 제어부를 통하여 객체의 이동방향 및 영상내에서의 이동거리를 분석하여 객체와의 충돌 가능성을 판단한 후, 충돌 가능성이 높은 객체를 선별하고 광을 주사하여 객체와의 충돌을 방지하는 기술에 관한 것이다.The present invention relates to a lighting apparatus based on recognition of the possibility of pedestrian collision, and more particularly, by photographing the front of the lighting apparatus through a camera, and recognizing an object through the photographed image, the movement direction of the object and movement within the image Technology that collects distance and analyzes the moving direction of the object and the moving distance in the image through the controller to determine the possibility of collision with the object, then selects the object with high probability of collision and scans the light to prevent collision with the object is about

개인형 이동수단은 이동목적에 따라 다양한 교통수단을 활용하는 이동수단 선택의 변화(Multi-modal transportation)의 양상에 적합하고, 대중교통 수단과 연계하면서 대중교통수단 이용 후 최종 목적지까지 이용할 수 있는 교통수단(last-mile mobility) 으로 활용할 수 있으며, 소유 관점이 아닌 사용 관점의 교통수단 이용(car-sharing)에 적합하다는 점에 있어서 각광을 받고 있다. Personal means of transportation are suitable for the aspect of multi-modal transportation that utilizes various means of transportation according to the purpose of transportation, and transportation that can be used to the final destination after using public transportation while linking with public transportation means It can be used as a means (last-mile mobility) and is attracting attention in that it is suitable for car-sharing from the point of view of use rather than ownership.

최근 보급이 확대 되고 있는 개인용 이동수단은 출퇴근 및 근거리 이동수단으로 주로 사용되지만, 운전자 및 보행자의 사고가 빈번히 발생하고 관련 법규 및 보험 체계가 미흡하여 이에 대한 대책이 필요한 실정이다.Personal means of transportation, which have recently been widely used, are mainly used for commuting and short-distance transportation.

대표적인 개인형 이동수단인 자전거, 전동 스쿠터를 밤에 안전하게 주행하기 위해서는 라이더의 시야를 확보하기 위한 전조등이 필수적임 기존 자전거용 조명 시장에서 폭넓게 저휘도의 저가 조명이 사용되었으나 사용자들의 안전에 대한 의식이 강해져 점차 고휘도 고가 조명의 수요가 증가하고 있다.In order to safely drive bicycles and electric scooters, which are representative personal means of transportation at night, a headlight is essential to secure the rider's view. The demand for high-brightness and expensive lighting is gradually increasing.

이러한 전조등의 경우 높은 광도만을 목적으로 하여 마주 오는 대상에 눈부심을 유발하는 단점이 있기 때문에 많은 사고를 만들고 있는 상황이다.In the case of such a headlamp, it is a situation that makes a lot of accidents because it has a disadvantage of causing glare to an oncoming target for the purpose of only high luminous intensity.

개인형 이동수단의 야간 사고는 주간 사고에 비해 치사율 3배 이상에 달하고 있으며, 야간 사고의 가장 큰 근본적인 원인은 라이더가 도로확인을 잘 하지 못하는 것과, 보행자 또는 다른 모빌리티를 운행하는 운전자가 라이더를 인식을 하지 못하여 일어나는 경우가 가장 큰 원인이다.The fatality rate of personal mobility accidents at night is three times higher than that of daytime accidents. Failure to do so is the most common cause.

뿐만 아니라, 이러한 야간 사고는 무인으로 운행되는 무인 자동차와 최근 자율주행이 탑재되어 있는 자동차에서도 발생할 수 있기 때문에, 야간 사고의 근본적인 원인을 방지하기 위한 노력이 절실한 실정이다.In addition, since such nighttime accidents may occur in unmanned vehicles operated unmanned and vehicles equipped with autonomous driving in recent years, efforts to prevent the root cause of night accidents are urgently needed.

본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 야간 혹은 어두운 상황에서 객체와의 거리를 판단하여 충돌가능성을 판단 한 후, 충돌 가능성이 높은 객체에 광을 주사하여 사고 확률을 낮추는 보행자 충돌가능성 인식 기반의 조명장치를 제공하는데 그 목적이 있다.The present invention is to solve the problems of the prior art, and after determining the collision possibility by determining the distance to the object at night or in a dark situation, by injecting light to an object with a high probability of collision to reduce the probability of an accident. It aims to provide a lighting device based on possibility recognition.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical task to be achieved by the present embodiment is not limited to the above-described technical task, and other technical tasks may exist.

보행자 충돌가능성 인식 기반의 조명장치에 있어서, 복수의 광원을 포함하여 광을 발하는 발광부, 광원의 전방에 배치되는 적어도 하나의 렌즈, 발광부에 설치되어 상기 발광부에 설치되어 조명장치의 전방을 촬영하는 적어도 하나의 카메라; 및 상기 카메라로부터 영상을 전송 받아 상기 객체를 인식하고, 이를 기초로 발광부를 제어하는 제어부를 포함하되, 제어부는 전방의 복수의 객체 중 충돌가능성 값이 기 설정된 임계점 이상에 해당하는 객체를 선별하여 선별된 객체에 대하여 광을 주사하도록 발광부를 제어하는 것을 포함하는 보행자 충돌가능성 인식 기반의 조명장치.In the lighting device based on the possibility of pedestrian collision, a light emitting unit that emits light including a plurality of light sources, at least one lens disposed in front of the light source, is installed in the light emitting unit and installed in the light emitting unit to view the front of the lighting device at least one camera for photographing; and a controller for receiving the image from the camera, recognizing the object, and controlling the light emitting unit based on this, wherein the controller selects and selects an object whose collision probability value is equal to or greater than a preset threshold among a plurality of objects in front Pedestrian collision possibility recognition-based lighting device comprising controlling a light emitting unit to inject light with respect to the object.

또한, 카메라는 고정식 또는 회전식으로 구성 될 수 있고, 고정식인 경우, 위치의 변화 없이 고정되어 있는 것이며, 회전식의 경우, 조명장치는 전동기를 더 포함하여 카메라를 360도 회전하도록 구현되는 것을 포함 할 수 있다. In addition, the camera may be configured as a fixed type or a rotation type, and in the case of a stationary type, it is fixed without a change in position, and in the case of a rotation type, the lighting device further includes an electric motor to rotate the camera 360 degrees. have.

또한, 발광부를 구성하는 광원의 종류는 직진등, 상향등, 및 하향등을 포함 할 수 있다.In addition, the type of light source constituting the light emitting unit may include a straight beam, a high beam, and a low beam.

또한, 직진등, 상향등 및 하향등을 구성하는 복수의 광원은 지면에 대해 수평으로 배열될 수 있다.In addition, a plurality of light sources constituting the straight beam, the high beam and the low beam may be arranged horizontally with respect to the ground.

또한 발광부의 광원을 지지하는 기판이 굴곡지어 형성됨에 따라, 복수의 광원이 주사하는 각도는 둔각을 가질 수 있다.In addition, as the substrate supporting the light source of the light emitting unit is formed to be curved, the angle at which the plurality of light sources scan may have an obtuse angle.

또한, 렌즈는 직진등, 상향등, 하향등을 구성하는 각각의 광원에 대응되도록 복수개가 설치될 수 있다.In addition, a plurality of lenses may be installed to correspond to each light source constituting the straight beam, the high beam, and the low beam.

또한, 카메라는 조명장치의 전방을 바라보는 일 영역에 배치되고, 상기 조명장치의 전방을 둔각으로 연속으로 촬영하여 상기 제어부로 전송하되, 상기 카메라의 각도에 대응하는 위치에 복수의 광원이 배치되어 서로 다른 방향의 객체에 광을 주사하도록 구현될 수 있다.In addition, the camera is disposed in an area facing the front of the lighting device, and continuously shoots the front of the lighting device at an obtuse angle and transmits it to the control unit, but a plurality of light sources are disposed at positions corresponding to the angle of the camera It may be implemented to inject light into objects in different directions.

또한, 상기 제어부는 충돌예측모델을 통하여 상기 충돌 가능성 값을 계산할 수 있다.Also, the control unit may calculate the collision probability value through the collision prediction model.

또한, 상기 충돌예측모델은 사고영상으로부터 상기 객체를 추출하되, 칼만필터 기반의 SORT(SIMPLE ONLINE AND REALTIME TRACKING) 알고리즘을 통하여 시간의 흐름을 따르는 상기 객체의 위치변화를 추적하고 상기 객체간의 충돌을 감지하고, 상기 각 객체별로 충돌이 일어나기까지의 시간, 이동방향, 상기 영상내에서의 이동거리를 수집하여 상기 충돌 가능성 값 및 충돌 예상시간을 계산할 수 있다.In addition, the collision prediction model extracts the object from the accident image, and tracks the change in the position of the object over time through a Kalman filter-based SORT (SIMPLE ONLINE AND REALTIME TRACKING) algorithm and detects a collision between the objects. And, the collision probability value and the collision expected time can be calculated by collecting the time until the collision occurs, the moving direction, and the moving distance in the image for each object.

또한, 상기 제어부는 상기 카메라로부터 전송 받은 영상을 통해 상기 영상내에서의 객체를 추출하고 분석하여, 상기 객체의 이동방향 및 상기 영상내에서의 이동거리를 계산하고, 계산된 상기 객체의 이동방향 및 상기 영상내에서의 이동거리를 상기 충돌예측모델에 입력하여 상기 충돌 가능성 값 및 상기 충돌 예상시간을 출력 받고, 상기 출력 받은 충돌가능성 값이 기 설정된 임계점 이상에 해당하는 객체를 선별하여 상기 선별된 객체에 대하여 광을 주사하도록 상기 발광부를 제어하는 것을 포함할 수 있다.In addition, the control unit extracts and analyzes the object in the image through the image transmitted from the camera, calculates the movement direction of the object and the movement distance in the image, and calculates the movement direction of the object and By inputting a movement distance within the image to the collision prediction model, the collision probability value and the collision expected time are output, and the selected object is selected by selecting an object whose collision probability value is equal to or greater than a preset threshold point. It may include controlling the light emitting unit to scan the light with respect to the.

또한, 상기 제어부는 상기 카메라로부터 전송 받은 영상을 통해 상기 영상내에서의 객체를 추출하고 분석한 상기 객체가 복수 인 경우, 각 상기 객체 별 충돌가능성 값을 계산하는 것을 포함할 수 있다.In addition, the controller may include calculating a collision probability value for each object when there are a plurality of objects extracted and analyzed from the image received from the camera.

또한, 상기 제어부가 상기 발광부를 제어하는 것은 상기 제어부는 상기 객체 별 충돌가능성 값들 중 기 설정된 임계점에 대응하는 수치를 넘어가는 상기 충돌가능성 값을 가진 객체를 감지한 후, 상기 발광부로 상기 객체의 방향 값과 점멸 값을 제공하여 상기 발광부를 제어 할 수 있다.In addition, when the control unit controls the light emitting unit, the control unit detects an object having the collision probability value exceeding a value corresponding to a preset threshold among the collision probability values for each object, and then directs the object to the light emitting unit The light emitting unit can be controlled by providing a value and a blinking value.

또한, 제어부는 객체와의 충돌가능성 값이 기 설정된 임계점에 대응하는 수치 이상인 경우, 발광부에 객체의 방향값과 점멸값을 제공하여 상향등을 통해 객체에 광을 주사하도록 제어하고, 객체와의 충돌가능성 값이 기 설정된 임계점에 대응하는 수치 이하로 떨어지는 경우, 상향등의 제어를 중단하고 하향등을 동작시키는 것을 포함할 수 있다.In addition, when the collision probability value with the object is greater than or equal to a numerical value corresponding to a preset threshold, the control unit provides a direction value and a blinking value of the object to the light emitting unit to control the injection of light to the object through the high beam, and collision with the object When the likelihood value falls below a value corresponding to a preset threshold, stopping the control of the high beam and operating the low beam.

본 발명의 일 실시예에 따라, 보행자 충돌가능성 인식 기반의 조명장치에 있어서, 카메라로부터 조명장치의 전방에 대한 영상을 전송 받아, 영상을 통하여 객체를 인식하고 분석하여 각 객체의 이동방향과 영상내에서의 이동거리를 계산하고, 이를 충돌예측모델에 입력하여 객체와의 충돌가능성을 판단 한 후, 출력된 충돌가능성 값이 기 설정된 임계점 이상에 해당하는 객체를 선별하고 선별된 객체에 광을 주사하여 객체와 라이더가 서로를 인식하게 됨으로 야간사고의 발생율을 줄일 수 있다. 또한, 본 발명은 배달로봇, 무인자동차, 자동차 헤드라이트 등 다양한 이동수단에 적용될 수 있다. According to an embodiment of the present invention, in a lighting device based on recognition of the possibility of pedestrian collision, an image of the front of the lighting device is received from a camera, the object is recognized and analyzed through the image, and the movement direction of each object and the inside of the image are received. After calculating the movement distance in the , inputting it into the collision prediction model to determine the possibility of collision with the object, the outputted collision probability value is selected for the object corresponding to the preset critical point or more, and light is injected to the selected object. As the object and the rider recognize each other, the incidence of nighttime accidents can be reduced. In addition, the present invention can be applied to various transportation means such as delivery robots, unmanned vehicles, and automobile headlights.

도 1은 본 발명의 일 실시예에 따른, 보행자 충돌가능성 인식 기반의 조명장치의 개요를 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른, 보행자 충돌가능성 인식 기반의 조명장치의 구성을 나타낸 도면이다.
도3a은 본 발명의 일 실시예에 따른, 조명장치 내의 발광부의 구성을 나타낸 도면이다.
도3b은 본 발명의 일 실시예에 따른, 조명장치 내의 발광부의 구조를 나타낸 예시도이다.
도3c은 본 발명의 일 실시예에 따른, 조명장치 내의 발광부가 주사하는 광원의 방향과 주사되는 영역을 보여주는 예시도 이다.
도4는 본 발명의 일 실시예에 따른, 보행자 충돌가능성 인식 기반의 조명장치의 제어부의 구성을 나타낸 도면이다.
도5는 본 발명의 일 실시예에 따른, 보행자 충돌가능성 인식 기반의 조명장치의 동작에 대한 전체의 흐름도이다.
도 6는 본 발명의 일 실시예에 따른, 보행자 충돌가능성 인식 기반의 조명장치의 충돌예측모델 구축을 설명하기 위한 순서도이다.
1 is a view showing the outline of a lighting device based on the recognition of the possibility of pedestrian collision, according to an embodiment of the present invention.
2 is a diagram showing the configuration of a lighting device based on recognition of the possibility of pedestrian collision according to an embodiment of the present invention.
3A is a diagram illustrating a configuration of a light emitting unit in a lighting device according to an embodiment of the present invention.
3B is an exemplary diagram illustrating a structure of a light emitting unit in a lighting device according to an embodiment of the present invention.
3C is an exemplary view illustrating a direction of a light source scanned by a light emitting unit in a lighting device and a scanning area according to an embodiment of the present invention.
4 is a diagram illustrating the configuration of a control unit of a lighting apparatus based on recognition of the possibility of pedestrian collision according to an embodiment of the present invention.
5 is an overall flowchart of an operation of a lighting device based on recognition of the possibility of pedestrian collision according to an embodiment of the present invention.
6 is a flowchart for explaining the construction of a collision prediction model of a lighting apparatus based on recognition of the possibility of pedestrian collision according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is "connected" with another part, this includes not only the case of being "directly connected" but also the case of being "electrically connected" with another element interposed therebetween. . Also, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, a "part" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. In addition, one unit may be implemented using two or more hardware, and two or more units may be implemented by one hardware. Meanwhile, '~ unit' is not limited to software or hardware, and '~ unit' may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors. Thus, as an example, '~' denotes components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functions provided in the components and '~ units' may be combined into a smaller number of components and '~ units' or further separated into additional components and '~ units'. In addition, components and '~ units' may be implemented to play one or more CPUs in a device or secure multimedia card.

이하에서 언급되는 "장치"는 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), VR HMD(예를 들어, HTC VIVE, Oculus Rift, GearVR, DayDream, PSVR 등)등을 포함할 수 있다. 여기서, VR HMD 는 PC용 (예를 들어, HTC VIVE, Oculus Rift, FOVE, Deepon 등)과 모바일용(예를 들어, GearVR, DayDream, 폭풍마경, 구글 카드보드 등) 그리고 콘솔용(PSVR)과 독립적으로 구현되는 Stand Alone 모델(예를 들어, Deepon, PICO 등) 등을 모두 포함한다. 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 스마트폰(smart phone), 태블릿 PC, 웨어러블 디바이스뿐만 아니라, 블루투스(BLE, Bluetooth Low Energy), NFC, RFID, 초음파(Ultrasonic), 적외선, 와이파이(WiFi), 라이파이(LiFi) 등의 통신 모듈을 탑재한 각종 디바이스를 포함할 수 있다. 또한, "네트워크"는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷 (WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 블루투스 통신, 적외선 통신, 초음파 통신, 가시광 통신(VLC: Visible Light Communication), 라이파이(LiFi) 등이 포함되나 이에 한정되지는 않는다.The "device" referred to below may be implemented as a computer or a portable terminal capable of accessing a server or other terminal through a network. Here, the computer is, for example, a laptop, desktop, laptop, VR HMD (eg, HTC VIVE, Oculus Rift, GearVR, DayDream, PSVR, etc.) equipped with a web browser (WEB Browser), etc. may include Here, VR HMD is for PC (e.g., HTC VIVE, Oculus Rift, FOVE, Deepon, etc.), mobile (e.g., GearVR, DayDream, Storm Horse, Google Cardboard, etc.) Independently implemented Stand Alone models (eg Deepon, PICO, etc.) are included. A portable terminal is, for example, a wireless communication device that guarantees portability and mobility, and includes not only a smart phone, a tablet PC, a wearable device, but also Bluetooth (BLE, Bluetooth Low Energy), NFC, RFID, and ultrasound (Ultrasonic). , infrared, Wi-Fi, Li-Fi, etc. may include various devices equipped with a communication module. In addition, "network" refers to a connection structure capable of exchanging information between each node, such as terminals and servers, and includes a local area network (LAN), a wide area network (WAN), and the Internet. (WWW: World Wide Web), wired and wireless data networks, telephone networks, wired and wireless television networks, and the like. Examples of wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), Wi-Fi, Bluetooth communication, infrared communication, ultrasound communication, Visible Light Communication (VLC), LiFi, and the like, but are not limited thereto.

이하에서, '모빌리티' 란 자전거, 전동보드, 킥보드와 같이 사람을 운반할 수 있는 이동수단을 의미하며, 배달로봇, 무인자동차 및 자율 주행 기능이 탑재된 자동차를 포함할 수 있다. 또한, 이하에서 '라이더' 란 모빌리티를 운전하는 사람을 의미한다.Hereinafter, 'mobility' means a means of transport that can transport people, such as bicycles, electric boards, and kickboards, and may include delivery robots, unmanned vehicles, and vehicles equipped with autonomous driving functions. In addition, 'rider' hereinafter means a person driving mobility.

이하 도 1을 참조하여, 본 발명의 일 실시예에 따르는, 보행자 충돌가능성 인식 기반의 조명장치(30) 에 대해 우선, 개괄적으로 설명하면 아래와 같다. 본 발명의 일 실시예에 따르는 조명장치(30)는 모빌리티가 운행하는 전방의 시야를 밝게 하기 위한 것으로서, 모빌리티의 앞쪽에 설치될 수 있다. Hereinafter, with reference to FIG. 1 , the lighting device 30 based on the recognition of the possibility of pedestrian collision according to an embodiment of the present invention will be described in general as follows. The lighting device 30 according to an embodiment of the present invention is to brighten the field of vision in front of the mobility, and may be installed in front of the mobility.

조명장치(30)는 전방에 위치한 각각의 객체를 인식하여, 각각의 객체 별로 거리 값을 측정할 수 있다. 측정된 거리 값을 기초로 하여 조명장치(30)는 각 객체와의 충돌 가능성을 계산할 수 있다.The lighting device 30 may recognize each object located in the front and measure a distance value for each object. Based on the measured distance value, the lighting device 30 may calculate the probability of collision with each object.

조명장치(30)는 계산 된 충돌가능성이 높은 객체를 향하여 광원을 주사하여 객체와 라이더 각각 서로를 인식할 수 있도록 할 수 있고, 이를 통해 충돌이 일어날 확률을 줄일 수 있다.The lighting device 30 may scan the light source toward the calculated high probability of collision so that the object and the rider can recognize each other, thereby reducing the probability of collision.

이때, 복수의 객체가 충돌가능성이 높은 경우, 조명장치(30)는 각각의 객체를 향해 광원을 주사할 수 있다.In this case, when a plurality of objects are highly likely to collide, the lighting device 30 may scan a light source toward each object.

이하, 도 2 및 도3a를 참조하여, 본 발명의 일 실시예에 따른, 보행자 충돌가능성 인식 기반의 조명장치(30)의 구성을 상세히 서술하도록 한다. Hereinafter, with reference to FIGS. 2 and 3A , the configuration of the lighting device 30 based on pedestrian collision possibility recognition according to an embodiment of the present invention will be described in detail.

본 발명의 일 실시예에 따르는, 조명장치(30)는 발광부(100), 카메라(300) 및 제어부(400) 를 포함하고, 내부에 배치된 카메라(300)를 통해 전방을 촬영하여 촬영한 영상을 제어부(400)로 전송하고, 제어부(400)는 객체를 인식하고 객체의 이동방향 및 영상내에서의 이동거리를 계산하여 계산된 객체의 이동방향 및 영상내에서의 이동거리를 충돌예측모델(미도시)에 입력하여 각 객체와 충돌 가능성 값을 출력하되 충돌 가능성이 높은 객체에 광을 주사하도록 발광부(100)에 신호를 제공한다. According to an embodiment of the present invention, the lighting device 30 includes a light emitting unit 100 , a camera 300 , and a control unit 400 , and is photographed by photographing the front through the camera 300 disposed therein. The image is transmitted to the control unit 400, and the control unit 400 recognizes the object, calculates the moving direction of the object and the moving distance in the image, and calculates the moving direction of the object and the moving distance in the image as a collision prediction model. A signal is provided to the light emitting unit 100 so as to output a collision probability value with each object by input to (not shown), but to inject light to an object having a high probability of collision.

제어부(400)에서 발광부(100)로 제공되는 신호는, 점멸 값과 방향 값을 포함할 수 있으며, 점멸 값은 각 광원의 점멸 주기, 점멸횟수, 한번 점멸시의 on으로 동작하는 시간을 나타낼 수 있고, 방향 값은 발광부(100)를 구성하는 각 광원 중 어느 광원을 동작시킬 것인지 또는 어느 방향의 광원을 동작시키는 것인지를 제어하는 것 일 수 있다. The signal provided from the control unit 400 to the light emitting unit 100 may include a blinking value and a direction value, and the blinking value represents the blinking cycle of each light source, the number of blinks, and the time to turn on when blinking once. , and the direction value may be to control which light source among the light sources constituting the light emitting unit 100 is operated or in which direction the light source is operated.

발광부(100)의 광원은 직진등(110) 상향등(120), 하향등(130)으로 구성되어 있으며, 제어부(400)로부터 제공 받은 신호에 따라 발광부(100)는 직진등(110) 상향등(120), 하향등(130)이 제어되고, 객체에 광을 주사하여 라이더와 객체가 서로 인식할 수 있도록 할 수 있다. The light source of the light emitting unit 100 is composed of a straight lamp 110 , a high beam 120 , and a low beam 130 , and according to a signal received from the control unit 400 , the light emitting unit 100 is a straight lamp 110 , a high beam. (120), the low beam 130 is controlled, it is possible to inject light to the object so that the rider and the object can recognize each other.

조명장치(30)는 객체에 광을 집중하여 주사하기 위하여 광원의 전방에 렌즈(200)가 설치될 수 있다. 렌즈(200)는 직진등(110), 상향등(120) 및 하향등(130)등 구성하는 각각의 광원에 대응되도록 복수 개가 설치 될 수 있다.In the lighting device 30 , the lens 200 may be installed in front of the light source in order to focus and scan the light on the object. A plurality of lenses 200 may be installed to correspond to each light source constituting the straight lamp 110 , the high beam 120 , and the low beam 130 .

직진등(110), 상향등(120) 및 하향등(130)을 구성하는 복수개의 광원은 지면에 대하여 수평으로 배열될 수 있으며, 렌즈(200)를 통하여 주사되는 광원의 각도를 조절 할 수 있다. A plurality of light sources constituting the straight lamp 110 , the high beam 120 , and the low beam 130 may be arranged horizontally with respect to the ground, and the angle of the light source scanned through the lens 200 may be adjusted.

카메라(300)는 연속으로 조명장치의 전방을 촬영하여 촬영된 영상을 제어부(400)에 제공하고, 제어부(400)는 지속적으로 객체와의 충돌가능성 값을 계산하여 발광부(100)로 정보를 제공하되, 객체와의 충돌 가능성 값이 기 설정된 임계점 이상인 경우 객체를 향해 상향등(120)을 동작시키고, 객체와의 충돌 가능성 값이 기 설정된 임계점 이하로 떨어지는 경우, 상향등(120)의 동작을 중단하고 하향등(130)의 동작을 제어하도록 점멸값과 방향값을 제공할 수 있다.The camera 300 continuously shoots the front of the lighting device and provides the captured image to the control unit 400 , and the control unit 400 continuously calculates a collision probability value with the object and transmits the information to the light emitting unit 100 . However, when the collision probability value with the object is greater than or equal to the preset threshold, the high beam 120 is operated toward the object, and when the collision probability value with the object falls below the preset threshold, the operation of the high beam 120 is stopped and A blinking value and a direction value may be provided to control the operation of the low beam 130 .

또한, 복수의 객체가 감지되는 경우에는 제어부(400)는 각각의 객체 별 정보를 수집하여 계산하고, 계산된 객체의 이동방향 및 영상내에서의 이동거리를 충돌예측모델(미도시)에 입력하되, 충돌예측모델(미도시)는 입력받은 각 객체의 이동방향 및 영상내에서의 이동거리를 기초로 각각의 충돌가능성 값을 계산하여, 각각 객체별로 충돌 가능성 값에 따라 발광부(100)에 복수의 점멸값과 방향값을 제공할 수 있다. 발광부(100)는 제어부(400)로부터 제공 받은 점멸값과 방향값에 따라 복수개의 상향등(120) 또는 복수개의 하향등(130)을 동작하여 각각의 객체에 광을 주사할 수 있다.In addition, when a plurality of objects are detected, the controller 400 collects and calculates information for each object, and inputs the calculated movement direction and movement distance in the image to a collision prediction model (not shown). , the collision prediction model (not shown) calculates each collision probability value based on the movement direction of each object received and the movement distance in the image, It can provide the blinking value and direction value of . The light emitting unit 100 may operate a plurality of high beams 120 or a plurality of low beams 130 according to the blinking value and direction value provided from the control unit 400 to inject light to each object.

카메라(300)는 조명장치(30)에 적어도 하나가 배치되며, 조명장치(30)의 전방을 둔각으로 촬영하고, 카메라(300)의 각도에 대응하는 복수의 광원이 각각 배치되어, 서로 다른 방향의 객체를 감지하도록 구현 될 수 있다.At least one camera 300 is disposed on the lighting device 30 , the front of the lighting device 30 is photographed at an obtuse angle, and a plurality of light sources corresponding to the angle of the camera 300 are respectively disposed, and in different directions. It can be implemented to detect objects of

또한, 카메라(300)는 조명장치의 전방을 바라보는 일 영역에 배치되어 있으며 조명장치(30)의 전방을 둔각으로 촬영할 수 있다.In addition, the camera 300 is disposed in an area facing the front of the lighting device, and can photograph the front of the lighting device 30 at an obtuse angle.

카메라(300)는 조명장치(30)의 형태에 따라 조명장치(30)가 고정식인 경우 카메라는 전방을 향해 배치되고, 조명장치(30)가 회전식인 경우, 전동기를 통하여 360도 회전하도록 구현될 수 있으며 이에 따라 카메라(300)는 전동기를 통하여 360도로 회전이 가능할 수 있다.According to the shape of the lighting device 30 , the camera 300 is disposed toward the front when the lighting device 30 is fixed, and when the lighting device 30 is rotary, it is implemented to rotate 360 degrees through an electric motor. Accordingly, the camera 300 may be rotated by 360 degrees through an electric motor.

추가 실시예로, 카메라(300)를 대신하여, 객체감지센서가 설치될 수 있으며, 객체감지센서는 초음파 센서 혹은 TOF(Time of Flight) 센서로 구현 될 수 있으며, 또한, 객체감지센서는 전방으로부터 반사된 광량을 측정하여 휘도 값을 파악할 수 있다. As an additional embodiment, instead of the camera 300, an object detection sensor may be installed, and the object detection sensor may be implemented as an ultrasonic sensor or a time of flight (TOF) sensor, and further, the object detection sensor is provided from the front. The luminance value can be determined by measuring the amount of reflected light.

추가 실시예로, 객체감지센서가 파악한 전방으로부터 반사된 광량을 기초로 제어부(400)는 발광부(100)를 제어하여 전방에 주사되는 광원의 광량을 조절할 수 있다. 반사되는 광량이 적은 경우, 광원의 광량을 높일 수 있고, 반사되는 광량이 많은 경우 광원의 광량을 줄일 수 있다.In a further embodiment, the controller 400 may control the light emitting unit 100 based on the amount of light reflected from the front detected by the object detection sensor to adjust the amount of light of the light source scanned in the front. When the amount of reflected light is small, the amount of light of the light source can be increased, and when the amount of reflected light is large, the amount of light of the light source can be decreased.

제어부(400)는 카메라(300)로부터 조명장치(30)의 전방을 촬영하여, 촬영된 영상을 통하여 객체를 인식하고, 객체의 이동방향 및 영상에서의 이동거리를 계산하여 이를 기초로 충돌가능성을 계산하고 판단한 후, 발광부(100)를 제어 할 수 있다. 또한, 전방의 객체가 복수인 경우, 복수의 객체 중 충돌가능성이 기 설정된 임계점 이상에 해당하는 객체를 선별하여 선별된 객체에 대하여 광을 주사하도록 발광부(100)를 제어할 수 있다.The control unit 400 captures the front of the lighting device 30 from the camera 300, recognizes the object through the captured image, calculates the moving direction of the object and the moving distance in the image, and determines the possibility of collision based on this. After calculating and determining, the light emitting unit 100 can be controlled. In addition, when there are a plurality of objects in front, the light emitting unit 100 may be controlled to select an object corresponding to a predetermined threshold or higher of collision possibility among the plurality of objects and inject light to the selected object.

이때, 모빌리티가 운행중인 경우, 모빌리티의 이동속도를 감지하여 기 설정된 속도와 방향에 따라 발광부(100)를 구성하는 광원의 종류를 선택적으로 제어할 수 있다.In this case, when the mobility is in operation, the type of light source constituting the light emitting unit 100 may be selectively controlled according to a preset speed and direction by sensing the movement speed of the mobility.

예를 들어, 전방에 인식된 객체와의 거리가 멀지 않고, 모빌리티가 속도가 빠른 경우, 제어부(400)는 충돌가능성이 높으므로 하향등(130)이 아닌 상향등(120)을 제어하여 라이더와 객체가 모두 사고 가능성을 인식 할 수 있도록 할 수 있다.For example, if the distance from the object recognized in front is not far and the mobility is fast, the control unit 400 controls the high beam 120 instead of the low beam 130 because the collision probability is high to control the rider and the object. can make everyone aware of the possibility of an accident.

도 3a는 참조하면 직진등(110)은 13번, 상향등(120)은 7,8,9,10,11,12 번이고, 하향등(130)은 1,2,3,4,5,6 번으로 이루어져 있다. 등의 번호는 임의로 배정 된 것이며, 개수나 위치에 따라 등의 번호는 변경 될 수 있다.Referring to Figure 3a, the straight lamp 110 is number 13, the high beam 120 is 7, 8, 9, 10, 11, 12, and the low beam 130 is 1,2,3,4,5,6. consists of numbers. The number of lights is arbitrarily assigned, and the number of lights can be changed depending on the number or location.

직진등(110), 상향등(120) 및 하향등(130)은 복수개의 광원으로 이루어져 있으며, 각 광원은 PWM(Pulse Width Modulation)기반으로 주기적으로 온, 오프되며 동작을 할 수 있다.The straight lamp 110 , the high beam 120 , and the low beam 130 are composed of a plurality of light sources, and each light source is periodically turned on and off based on PWM (Pulse Width Modulation) to operate.

도 3b를 참조하면, 발광부(100)의 구조는 가장 윗쪽의, 중심 부분에 직진등(110)이 배치되어 있다. 도면에서 직진등(110)은 하나로 표기되어 있으나 복수 개가 배치 될 수 있다. 또한, 직진등은 윗쪽이 아닌 다른 위치에 배치될 수도 있다. Referring to FIG. 3B , in the structure of the light emitting unit 100 , the straight lamp 110 is disposed at the uppermost portion of the central portion. In the drawing, the straight light 110 is marked as one, but a plurality of them may be disposed. In addition, the straight light may be disposed at a position other than the upper side.

복수개의 상향등(120)은 직진등(110)의 아래 배치되어 있으며, 복수개의 하향등(130)은 가장 아래 배치되어 있다. 또한, 상향등(120)과 하향등(130) 사이에 카메라(300)가 배치되어 있다. 카메라(300)의 배치위치는 일 예일뿐이며, 다른 영역에 배치될 수도 있다. The plurality of high beams 120 are disposed below the straight lamp 110 , and the plurality of low beams 130 are disposed at the bottom. In addition, the camera 300 is disposed between the high beam 120 and the low beam 130 . The arrangement position of the camera 300 is only an example, and may be arranged in another area.

직진등(110), 상향등(120) 및 하향등(130)은 전방에 주사하는 광을 객체에 집중할 수 있도록 각각의 광원의 전방에 렌즈(200)가 배치되어 있다.In the straight lamp 110 , the high beam 120 and the low beam 130 , the lens 200 is disposed in front of each light source so that the forward-scanned light can be focused on the object.

도 3b에 표기되어 있는 숫자는 후술할 도3c의 각각의 광원이 주사하는 영역과 방향을 나타내는 것일 수 있다. The numbers indicated in FIG. 3B may indicate areas and directions scanned by each light source of FIG. 3C, which will be described later.

도 3c를 참조하여 본 발명의 일 실시예에 따르는, 보행자 충돌가능성 인식 기반의 조명장치(30)의 발광부(100)를 설명하면, 발광부(100)의 복수의 광원이 주사하는 각도와 각 광원이 주사하는 방향을 확인 할 수 있다. 구체적으로, 도3b의 3번광원에 의해 발해지는 광의 영역은 도 3c의 3번으로 표시된 영역을 의미한다. 이러한 방식으로 각각의 광원이 비추는 영역과 각도는 도 3c와 같이 상이하다. 이경우, 복수의 광원이 주사하는 전체 광의 각도는 둔각의 범위가 될 수 있다. 한편, 발광부의 광원을 지지하는 기판(미도시)이 편평하게 구성될 수도 있으나, 볼록한 형태로 약간 굴곡(모빌리티가 향하는 방향에 대해 볼록하게 굴곡)지어 구성될 경우, 광원이 비추는 각도는 더 넓어질 수 있다. When the light emitting unit 100 of the lighting device 30 based on pedestrian collision possibility recognition according to an embodiment of the present invention will be described with reference to FIG. 3C , the angle and angle at which a plurality of light sources of the light emitting unit 100 scan You can check the direction the light source scans. Specifically, the area of light emitted by the light source No. 3 in FIG. 3B means the area indicated by No. 3 in FIG. 3C. In this way, the area and angle illuminated by each light source are different as shown in FIG. 3C . In this case, the angle of the total light scanned by the plurality of light sources may be in the range of an obtuse angle. On the other hand, the substrate (not shown) supporting the light source of the light emitting part may be configured to be flat, but if it is configured to be slightly curved (convexly curved with respect to the direction in which the mobility is directed) in a convex shape, the angle at which the light source illuminates will become wider. can

또한, 발광부(100)의 광원은 모빌리티의 속도 및 방향에 따라 다르게 동작할 수 있다. 제어부(400)는 모빌리티의 이동속도를 감지하여, 기 설정된 속도 이하로 달리는 경우 하향등(130)을 점멸하고, 기 설정된 속도 이상으로 운행하는 경우 상향등(120)을 점멸 하도록 신호를 발광부(100)에 제공한다. 이는 라이더가 핸들을 조작할 때에도 적용할 수 있으며, 좌측으로 조향하는 경우 좌측에 위치한 광원이 점멸되고, 우측으로 조향하는 경우 우측에 위치한 광원이 점멸 될 수 있다.In addition, the light source of the light emitting unit 100 may operate differently according to the speed and direction of mobility. The control unit 400 detects the movement speed of the mobility, and when running at a speed less than a preset speed, blinks the low beam 130, and when driving at a speed higher than a preset speed, sends a signal to the light emitting unit 100 so that the high beam 120 blinks. ) is provided for This can also be applied when the rider manipulates the steering wheel, and when steering to the left, the light source located on the left blinks, and when steering to the right, the light source located on the right side may blink.

속도에 따라 발광부(100)의 광원이 동작함에 있어서, 속도를 느리게 운행하는 경우 넓은 반경을 비출 수 있도록 하고, 속도를 빠르게 운행하는 경우 좁은 반경을 더 멀리 비출 수 있다.When the light source of the light emitting unit 100 operates according to the speed, it is possible to illuminate a wide radius when driving at a slow speed, and to illuminate a narrow radius further when driving at a high speed.

예를 들어, 기 설정된 속도 이하로 달리는 모빌리티가 우측으로 회전하는 경우 3,4,5,6 번 등이 점멸될 수 있다. 또한 기 설정된 속도 이상으로 달리는 모빌리티가 정면으로 직진하는 경우에는 9,10,13번이 점멸되어 광원이 전방에 대하여 더 멀리, 비추게 할 수 있고, 반경은 더 좁게 비출 수 있다.For example, when the mobility running at a preset speed or less rotates to the right, the number 3, 4, 5, 6, etc. may blink. In addition, when the mobility running at a preset speed or more goes straight ahead, the number 9, 10, and 13 flickers so that the light source can illuminate farther away from the front, and illuminate with a narrower radius.

또한, 사용자의 조작을 통해 발광부(100)의 각각의 광원을 동작 시킬 수 있다.In addition, each light source of the light emitting unit 100 may be operated through a user's manipulation.

추가 실시 예로, 객체 또는 다른 운전자가 라이더를 인식할 수 있도록 광원을 통해 알림을 줄 수 있다. 객체 또는 다른 운전자의 위치에 맞춰 특정 구간에서 광원을 통해 블링크 또는 상향등(120) 점멸을 통하여 라이더를 인식 할 수 있도록 발광부(100)가 동작 할 수 있으며, 블링크 후 특정구간에서는 하향등(130)을 동작하여 비출 수 있다.In a further embodiment, an object or other driver may be notified via a light source to recognize the rider. The light emitting unit 100 may operate to recognize the rider by blinking or blinking the high beam 120 through the light source in a specific section according to the position of the object or other driver, and after blinking, the low beam 130 in a specific section can be operated to illuminate.

이하, 도 4을 참조하여 본 발명의 일 실시예에 따르는, 보행자 충돌가능성 인식 기반의 조명장치(30)의 제어부(400)를 설명하면 아래와 같다. Hereinafter, with reference to FIG. 4 , the controller 400 of the lighting device 30 based on the recognition of the possibility of pedestrian collision according to an embodiment of the present invention will be described as follows.

상세히, 통신 모듈(110)은 통신망과 연동하여 제어부(400)와 카메라(300) 및 발광부(100) 간의 송수신 신호를 패킷 데이터 형태로 제공하는 데 필요한 통신 인터페이스를 제공한다. 나아가, 통신 모듈(410)은 각 디바이스로부터 데이터 요청을 수신하고, 이에 대한 응답으로 서 데이터를 송신하는 역할을 수행할 수 있다.In detail, the communication module 110 provides a communication interface necessary to provide a transmission/reception signal between the control unit 400 and the camera 300 and the light emitting unit 100 in the form of packet data in connection with a communication network. Furthermore, the communication module 410 may serve to receive a data request from each device and transmit data in response thereto.

여기서, 통신 모듈(410)은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.Here, the communication module 410 may be a device including hardware and software necessary for transmitting and receiving signals such as control signals or data signals through wired/wireless connection with other network devices.

메모리(420)는 보행자 충돌가능성 인식 기반의 조명장치(30)의 동작을 수행하기 위한 충돌예측모델(미도시)이 기록된다. 또한, 프로세서(130)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행한다. 메모리(420)에 기록된 충돌예측모델(미도시)에 대해서는 도5를 통하여 후술하도록 한다. 여기서, 메모리(420)는 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.In the memory 420, a collision prediction model (not shown) for performing the operation of the lighting device 30 based on recognition of the possibility of pedestrian collision is recorded. In addition, the processor 130 performs a function of temporarily or permanently storing the processed data. A collision prediction model (not shown) recorded in the memory 420 will be described later with reference to FIG. 5 . Here, the memory 420 may include magnetic storage media or flash storage media, but the scope of the present invention is not limited thereto.

프로세서(430)는 일종의 중앙처리장치로서 보행자 충돌가능성 인식 기반의 조명장치(30)의 동작을 제어한다. 프로세서(430)가 수행하는 각 단계에 대해서는 도6을 참조하여 후술하기로 한다.The processor 430 is a kind of central processing unit and controls the operation of the lighting device 30 based on recognition of the possibility of pedestrian collision. Each step performed by the processor 430 will be described later with reference to FIG. 6 .

여기서, 프로세서(430)는 프로세서(processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.Here, the processor 430 may include all kinds of devices capable of processing data, such as a processor. Here, the 'processor' may refer to, for example, a data processing device embedded in hardware having a physically structured circuit to perform a function expressed as a code or an instruction included in a program. As an example of the data processing device embedded in the hardware as described above, a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, an application-specific integrated (ASIC) circuit) and a processing device such as a field programmable gate array (FPGA), but the scope of the present invention is not limited thereto.

이하, 도 5을 참조하여, 본 발명의 일 실시예에 따르는, 보행자 충돌가능성 인식 기반의 조명장치(30)의 기능에 대해 구체적으로 설명한다.Hereinafter, with reference to FIG. 5 , the function of the lighting device 30 based on recognition of the possibility of pedestrian collision according to an embodiment of the present invention will be described in detail.

본 발명의 일 실시예에 따르는, 보행자 충돌가능성 인식 기반의 조명장치(30)는 조명장치(30) 내 배치된 카메라(300)는 조명장치의 전방을 연속적으로 촬영하고, 촬영된 영상을 제어부로 전송할 수 있다. (S510). According to an embodiment of the present invention, in the lighting device 30 based on recognition of the possibility of pedestrian collision, the camera 300 disposed in the lighting device 30 continuously shoots the front of the lighting device, and transmits the captured image to the controller. can be transmitted (S510).

제어부(400)는 카메라(300)로부터 전송된 영상을 통해 객체를 추출하고 각 객체 별 이동방향 및 영상 내에서의 이동거리를 계산할 수 있다. (S520)The controller 400 may extract an object from the image transmitted from the camera 300 and calculate a movement direction for each object and a movement distance within the image. (S520)

제어부(400)는 카메라(300)로부터 전송된 영상을 통하여 객체를 인식하고 분석하여 객체를 추출하고, 각 객체에 대한 이동방향과 영상내에서의 이동거리를 계산하되, 인식된 객체가 복수인 경우 각각의 객체에 대한 이동방향과 영상내에서의 이동거리를 계산할 수 있다.The controller 400 recognizes and analyzes the object through the image transmitted from the camera 300, extracts the object, calculates the movement direction for each object and the movement distance in the image, but if there are a plurality of recognized objects The movement direction for each object and the movement distance in the image can be calculated.

제어부(400)는 계산 된 이동방향 및 영상내에서의 이동거리를 충돌예측모델(미도시)이 입력할 수 있다. (S530)The controller 400 may input the calculated moving direction and the moving distance in the image to the collision prediction model (not shown). (S530)

충돌예측모델(미도시)을 통하여 각 객체 별 충돌 가능성 및 충돌예측시간을 계산하고 충돌 가능성 값을 출력할 수 있다. (S540)Through the collision prediction model (not shown), the collision probability and collision prediction time for each object can be calculated, and the collision probability value can be output. (S540)

제어부(400)는 계산된 이동방향 및 영상내에서의 이동거리를 충돌예측모델(미도시)로 입력하고, 충돌예측모델(미도시)은 계산된 값을 통하여 충돌 가능성 값 및 충돌예측시간을 계산할 수 있다. 이 때, 충돌예측모델은 연속적으로 제어부(400)로부터 값을 입력 받고 그에 따라 연속적으로 충돌 가능성 값 및 충돌예측시간을 계산하고 출력 할 수 있다.The control unit 400 inputs the calculated moving direction and the moving distance in the image to a collision prediction model (not shown), and the collision prediction model (not shown) calculates a collision probability value and a collision prediction time through the calculated values. can In this case, the collision prediction model may continuously receive values from the control unit 400 , and accordingly calculate and output a collision probability value and a collision prediction time continuously.

충돌예측모델(미도시)은 기계학습을 통해 사전 구축될 수 있다. 충돌예측모델은 인터넷을 통하여 사고 영상을 자동으로 수집하여 수집한 영상으로부터 객체를 추출하고, 영상 내에서 충돌 여부에 대한 정보를 인식하되, 객체의 이동방향과 속도, 시간을 매칭하여 분석할 수 있다. 그리고, 영상 및 사고발생여부, 객체의 이동방향과 속도, 시간 등의 값을 입력값으로하고, 충돌가능성에 대한 수치를 출력값으로 한 기계학습 수행을 반복적으로 수행함으로써, 구축될 수 있다. 이에 대해서는 도면 6을 참조하여 자세하게 후술하도록 한다.A collision prediction model (not shown) may be pre-built through machine learning. The collision prediction model automatically collects accident images through the Internet, extracts objects from the collected images, recognizes information about collisions in the images, and analyzes them by matching the moving direction, speed, and time of the object. . And, it can be constructed by repeatedly performing machine learning with values such as images, accident occurrence, movement direction and speed, and time of an object as input values, and numerical values for the possibility of collision as output values. This will be described later in detail with reference to FIG. 6 .

제어부(400)는 충돌예측모델(미도시)이 출력한 충돌 가능성 값이 기설정된 임계점 이상에 해당하는 객체를 선별하여 선별된 객체에 광을 주사할 수 있다. (S550) The control unit 400 may select an object whose collision probability value output by the collision prediction model (not shown) is equal to or greater than a preset critical point, and may inject light onto the selected object. (S550)

제어부(400)는 계산 된 충돌 가능성이 기 설정된 임계점 이상에 해당되는 객체가 있는 경우, 객체를 선별하여 선별된 객체에 광을 주사하도록 발광부(100)에 신호를 전달하여 제어할 수 있다.When there is an object whose calculated collision probability is greater than or equal to a preset threshold, the controller 400 may control the object by transmitting a signal to the light emitting unit 100 to select the object and inject light to the selected object.

발광부(100)는 제어부(400)로부터 선별된 객체에 대한 점멸값과 방향값을 전달받아 전방의 객체를 향해 광을 주사 할 수 있다.The light emitting unit 100 may receive the blinking value and direction value of the selected object from the control unit 400 and may scan the light toward the object in front.

이때, 점멸값에 따라 각 광원의 점멸 주기, 점멸횟수, 한번 점멸시의 on으로 동작하는 시간이 제어되며, 방향값에 따라 직진등, 복수의 상향등(120), 하향등(130) 중 어느것을 동작시킬 것인지 또는 상향등을 구성하는 광원 중 어느 방향의 광원을 제어할 것인지가 결정될 수 있다. At this time, depending on the blinking value, the blinking period of each light source, the blinking frequency, and the time to turn on at one blink are controlled. It may be determined whether to operate or which direction of the light sources constituting the high beam is to be controlled.

추가 실시예로, 제어부는 인식, 인지, 주의, 경고 등의 다수의 단계로 나뉘어 각 단계별로 점멸값을 발광부로 전달할 수 있으며, 발광부는 각 단계별 점멸값에 따라, 광원을 제어할 수 있다. In a further embodiment, the control unit may be divided into a plurality of stages such as recognition, recognition, attention, warning, and the like, and transmit the flashing value to the light emitting unit at each stage, and the light emitting unit may control the light source according to the flashing value for each stage.

추가 실시예로, 전방의 객체와의 충돌가능성 값이 기 설정된 임계점 이상인 경우, 경고음을 통하여 라이더와 객체 모두에게 충돌 가능성이 높다는 상황을 인지 시킬 수 있다.As an additional embodiment, when the collision probability value with the object in front is greater than or equal to a preset threshold, both the rider and the object may be aware of the high probability of collision through a warning sound.

또한, 전방의 객체와의 충돌가능성 값이 기 설정된 임계점 이상인 경우 핸들에 진동을 통해서 라이더에게 객체와의 충돌가능성이 높다는 상황을 인지 시킬 수 있다.In addition, when the collision probability value with an object in front is greater than or equal to a preset critical point, it is possible to make the rider aware of the high probability of collision with the object through the vibration of the handle.

이때, 핸들의 진동은 객체의 반대편 핸들에 진동을 동작시켜 진동이 울리는 쪽으로 핸들을 조향 할 수 있도록 할 수 있다. 예를 들어, 정면을 기준으로 좌측에 위치한 객체와 충돌 가능성이 값이 기 설정된 임계점 이상인 경우 라이더의 우측핸들에 진동을 발생시켜 라이더가 우측으로 조향을 하도록 유도 할 수 있다.At this time, the vibration of the handle may operate the vibration on the handle opposite to the object to steer the handle toward the vibration sounding side. For example, when the probability of collision with an object located on the left side with respect to the front is greater than or equal to a preset critical point, vibration may be generated in the rider's right handle to induce the rider to steer to the right.

이하, 도 6을 참조하여, 상술한 충돌예측모델(미도시)에 대해 더 자세히 서술하도록 한다. Hereinafter, with reference to FIG. 6, the above-described collision prediction model (not shown) will be described in more detail.

충돌예측모델(미도시)은 조명장치에 적용되기 이전에 기계 학습을 통하여 구축 되며, 충돌예측모델 구축 이 후, 조명장치에 적용을 함으로써 실시간으로 충돌예측이 가능한 보행자 충돌가능성 인식 기반의 조명장치를 구현할 수 있다.The collision prediction model (not shown) is built through machine learning before being applied to the lighting device, and after the collision prediction model is built, it is applied to the lighting device to predict the collision in real time. can be implemented

도6을 참조하면, 각 단계는 필요에 따라 추가되거나 간략화 될 수 있다.Referring to FIG. 6 , each step may be added or simplified as necessary.

충돌예측모델(미도시)이 구축되는 단계는 우선, 인터넷을 통하여 영상을 자동으로 수집하고, 수집된 영상으로부터 객체를 추출할 수 있다. (S610)In the step of constructing a collision prediction model (not shown), first, an image may be automatically collected through the Internet, and an object may be extracted from the collected image. (S610)

사고영상 또는 사고가 발생할 가능성이 높았던 영상을 포함하는 영상을 인터넷을 통하여 자동으로 수집하고, 수집된 영상속에서 객체를 각각 추출할 수 있다.An accident image or an image including an image with a high probability of an accident can be automatically collected through the Internet, and objects can be extracted from the collected images.

객체를 추출한 이 후, 칼만필터 기반의 SORT(SIMPLE ONLINE AND REALTIME TRACKING) 알고리즘을 통하여 시간의 흐름을 따르는 상기 객체의 위치변화를 추적하고 상기 객체간의 충돌을 감지할 수 있다. (S620)After the object is extracted, it is possible to track a change in the position of the object over time and detect a collision between the objects through a Kalman filter-based SORT (Simple ONLINE AND REALTIME TRACKING) algorithm. (S620)

각 객체 별로 충돌이 일어나기까지의 시간, 이동방향, 상기 영상내에서의 이동거리를 수집하여 상기 충돌 가능성 값 및 충돌 예상시간을 계산하는 충돌예측모델(미도시)을 구축할 수 있다. (S630)It is possible to construct a collision prediction model (not shown) that calculates the collision probability value and the expected collision time by collecting the time until the collision for each object, the moving direction, and the moving distance in the image. (S630)

영상을 통하여 각 객체별로 충돌이 일어나기 까지의 시간, 이동방향, 영상내에서의 이동거리를 수집하여 반복학습을 통하여, 충돌 가능성 값 및 충돌 예상시간을 계산하는 충돌예측모델(미도시)을 구축하고, 제어부(400)는 카메라로부터 전송 받은 영상을 실시간으로 분석하여 객체를 인식하고, 각 객체의 이동 방향 및 영상 내에서의 이동거리를 수집하여 충돌예측모델(미도시)에 입력함으로써, 충돌 가능성 값 및 충돌예상시간을 제공 받을 수 있다.Building a collision prediction model (not shown) that calculates the collision probability value and expected collision time through repeated learning by collecting the time, movement direction, and moving distance within the image for each object through the image. , the control unit 400 analyzes the image received from the camera in real time to recognize the object, collects the movement direction of each object and the movement distance within the image, and inputs it to a collision prediction model (not shown), thereby providing a collision probability value and an expected collision time.

객체와의 충돌가능성을 계산하는데 필요한 정보는, 모빌리티의 이동속도, 모빌리티의 이동방향, 객체의 이동속도 및 객체의 이동방향 일 수 있다.Information necessary for calculating the possibility of collision with an object may be a movement speed of the mobility, a movement direction of the mobility, a movement speed of the object, and a movement direction of the object.

추가 실시예로, 충돌가능성 값을 계산하는 과정은 기계학습 알고리즘에 의해 수행될 수 있다. 예를 들어, 제어부(400)는 계산된 충돌가능성 값과 실제 충돌발생여부에 대한 데이터를 매칭하여 수집한다. 충돌가능성 값은 카메라(300)로부터 지속적으로 수집되어 전송한 정보를 통하여 제어부(400)에서 계산하여 저장할 수 있다. 실제 충돌발생여부에 대한 데이터는 실제 충돌가능성 별 충돌여부를 기록하여 데이터를 입력 할 수 있다. 그리고, 사고영상, 모빌리티의 이동속도, 모빌리티의 이동방향, 객체의 이동속도 및 객체의 이동방향을 입력값으로 설정하고, 충돌 가능성 값 및 충돌예상시간을 출력값으로 설정한 후, 기 설정된 기계학습 모델에 적용하는 학습과정을 반복함으로써 충돌예측모델이 구축될 수 있다. In a further embodiment, the process of calculating the collision probability value may be performed by a machine learning algorithm. For example, the controller 400 matches and collects the calculated collision probability value and data on whether a collision actually occurs. The collision probability value may be calculated and stored by the controller 400 through information continuously collected and transmitted from the camera 300 . Data on the actual occurrence of collisions can be entered by recording whether collisions occur by actual collision possibility. And, after setting the accident image, the moving speed of the mobility, the moving direction of the mobility, the moving speed of the object and the moving direction of the object as input values, and setting the collision probability value and the expected collision time as output values, a preset machine learning model A collision prediction model can be built by repeating the learning process applied to

충돌예측모델 학습이 완료된 후에는, 장치가 실시간으로 촬영된 영상을 수집하고, 이를 충돌예측모델에 입력함으로써, 곧바로 충돌가능성 값 및 충돌예상시간을 산출할 수 있고, 이를 바로 모빌리티의 주행에 적용할 수 있다. After the collision prediction model learning is completed, the device collects the images captured in real time and inputs them into the collision prediction model, so that the collision probability value and the collision expected time can be calculated immediately, and this can be directly applied to the driving of mobility. can

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능 한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비 휘발성 매체, 분리형 및 비 분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비 휘발성, 분리형 및 비 분리형 매체를 모두 포함한다. An embodiment of the present invention may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and non-volatile media, removable and non-removable media. Also, computer-readable media may include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.Although the methods and systems of the present invention have been described with reference to specific embodiments, some or all of their components or operations may be implemented using a computer system having a general purpose hardware architecture.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and likewise components described as distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

30: 조명장치
100: 발광부
110: 직진등
120: 상향등
130: 하향등
200: 렌즈
300: 카메라
400: 제어부
410: 통신모듈
420: 메모리
430: 프로세서
30: lighting device
100: light emitting part
110: straight light
120: high beam
130: low beam
200: lens
300: camera
400: control unit
410: communication module
420: memory
430: processor

Claims (13)

보행자 충돌가능성 인식 기반의 조명장치에 있어서,
복수의 광원을 포함하여 광을 발하는 발광부;
상기 광원의 전방에 배치되는 적어도 하나의 렌즈;
상기 발광부에 설치되어 조명장치의 전방을 촬영하는 적어도 하나의 카메라; 및
상기 카메라로부터 영상을 전송 받아 상기 객체를 인식하고, 각 상기 객체와의 충돌가능성을 판단한 후, 이를 기초로 상기 발광부를 제어하는 제어부;를 포함하되,
상기 제어부는 전방의 복수의 객체 중 충돌가능성 값이 기 설정된 수치 이상에 해당하는 객체를 선별하여 상기 선별된 객체에 대하여 광을 주사하도록 상기 발광부를 제어하는 것을 포함하는 보행자 충돌가능성 인식 기반의 조명장치.
In the lighting device based on the recognition of the possibility of pedestrian collision,
a light emitting unit including a plurality of light sources to emit light;
at least one lens disposed in front of the light source;
at least one camera installed in the light emitting unit to photograph the front of the lighting device; and
A control unit for receiving the image from the camera, recognizing the object, determining the possibility of collision with each object, and controlling the light emitting unit based on this;
The control unit selects an object whose collision probability value is greater than or equal to a preset value among a plurality of objects in front, and controls the light emitting unit to inject light to the selected object. .
제 1항에 있어서
상기 카메라는 고정식 또는 회전식으로 구성 될 수 있고,
상기 고정식인 경우, 위치의 변화 없이 고정되어 있는 것이며,
상기 회전식의 경우, 상기 조명장치는 전동기를 더 포함하여, 상기 카메라를 360도 회전하도록 구현되는 것을 포함하는 것인
보행자 충돌가능성 인식 기반의 조명장치.
2. The method of claim 1
The camera may be of a fixed or rotary configuration,
In the case of the fixed type, it is fixed without a change in position,
In the case of the rotation, the lighting device further includes an electric motor, including being implemented to rotate the camera 360 degrees
A lighting device based on the recognition of the possibility of pedestrian collision.
제 1항에 있어서
상기 발광부를 구성하는 상기 광원의 종류는 직진등, 상향등, 및 하향등을 포함하는 것인,
보행자 충돌가능성 인식 기반의 조명장치.
2. The method of claim 1
The type of the light source constituting the light emitting unit will include a straight lamp, a high beam, and a low beam,
A lighting device based on the recognition of the possibility of pedestrian collision.
제 3항에 있어서
상기 직진등, 상기 상향등 및 상기 하향등을 구성하는 복수의 광원은 지면에 대해 수평으로 배열되는 것인,
보행자 충돌가능성 인식 기반의 조명장치.
4. The method of claim 3
A plurality of light sources constituting the straight lamp, the high beam and the low beam are arranged horizontally with respect to the ground,
A lighting device based on recognition of the possibility of pedestrian collision.
제 3항에 있어서
상기 발광부의 광원을 지지하는 기판이 굴곡지어 형성됨에 따라, 복수의 광원이 주사하는 각도는 둔각을 갖는 것인,
보행자 충돌가능성 인식 기반의 조명장치.
4. The method of claim 3
As the substrate supporting the light source of the light emitting unit is formed to be curved, the angle at which the plurality of light sources scan has an obtuse angle,
A lighting device based on the recognition of the possibility of pedestrian collision.
제 1항에 있어서,
상기 렌즈는 직진등, 상향등, 하향등을 구성하는 각각의 광원에 대응되도록 복수개가 설치되는
보행자 충돌가능성 인식 기반의 조명장치.
The method of claim 1,
The lens is provided in plurality to correspond to each light source constituting the straight beam, high beam, and low beam.
A lighting device based on the recognition of the possibility of pedestrian collision.
제 1항에 있어서
상기 카메라는 상기 조명장치의 전방을 바라보는 일 영역에 배치되고, 상기 조명장치의 전방을 둔각으로 연속으로 촬영하여 상기 제어부로 전송하되, 상기 카메라의 각도에 대응하는 위치에 광원이 배치되어 서로 다른 방향의 객체에 광을 주사하도록 구현되는 것인,
보행자 충돌가능성 인식 기반의 조명장치.
2. The method of claim 1
The camera is disposed in an area facing the front of the lighting device, and continuously captures the front of the lighting device at an obtuse angle and transmits it to the control unit, but a light source is disposed at a position corresponding to the angle of the camera and is different from each other which is implemented to inject light to an object in a direction,
A lighting device based on the recognition of the possibility of pedestrian collision.
제 1항에 있어서,
상기 제어부는 충돌예측모델을 통하여 상기 충돌 가능성 값을 계산하는 것인,
보행자 충돌가능성 인식 기반의 조명장치.
The method of claim 1,
The control unit is to calculate the collision probability value through the collision prediction model,
A lighting device based on the recognition of the possibility of pedestrian collision.
제 8항에 있어서,
상기 충돌예측모델은 인터넷을 통하여 사고영상을 자동으로 수집하고, 수집한 영상으로부터 상기 객체를 추출하되, 칼만필터 기반의 SORT(SIMPLE ONLINE AND REALTIME TRACKING) 알고리즘을 통하여 시간의 흐름을 따르는 상기 객체의 위치변화를 추적하고 상기 객체간의 충돌을 감지하고, 상기 각 객체별로 충돌이 일어나기까지의 시간, 이동방향, 상기 영상내에서의 이동거리를 수집하여 상기 충돌 가능성 값 및 충돌 예상시간을 계산하는 것인,
보행자 충돌가능성 인식 기반의 조명장치.
9. The method of claim 8,
The collision prediction model automatically collects accident images through the Internet, extracts the objects from the collected images, but follows the passage of time through a Kalman filter-based SORT (SIMPLE ONLINE AND REALTIME TRACKING) algorithm. To calculate the collision probability value and the collision expected time by tracking changes and detecting the collision between the objects, collecting the time until the collision for each object, the moving direction, and the moving distance in the image,
A lighting device based on the recognition of the possibility of pedestrian collision.
제 1항에 있어서,
상기 제어부는 상기 카메라로부터 전송 받은 영상을 통해 상기 영상내에서의 객체를 추출하고 분석하여, 상기 객체의 이동방향 및 상기 영상내에서의 이동거리를 계산하고, 계산된 상기 객체의 이동방향 및 상기 영상내에서의 이동거리를 상기 충돌예측모델에 입력하여 상기 충돌 가능성 값 및 상기 충돌 예상시간을 출력 받고, 상기 출력 받은 충돌가능성 값이 기 설정된 수치 이상에 해당하는 객체를 선별하여 상기 선별된 객체에 대하여 광을 주사하도록 상기 발광부를 제어하는 것을 포함하는,
보행자 충돌가능성 인식 기반의 조명장치.
The method of claim 1,
The control unit extracts and analyzes the object in the image through the image transmitted from the camera, calculates the moving direction of the object and the moving distance in the image, and calculates the moving direction of the object and the image Input the movement distance within the collision prediction model to output the collision probability value and the collision expected time, and select an object whose output collision probability value is equal to or greater than a preset value, and the selected object Including controlling the light emitting unit to scan the light,
A lighting device based on the recognition of the possibility of pedestrian collision.
제 10항에 있어서
상기 제어부는 상기 카메라로부터 전송 받은 영상을 통해 상기 영상내에서의 객체를 추출하고 분석한 상기 객체가 복수 인 경우, 각 상기 객체 별 이동방향 및 상기 영상내에서의 이동거리를 계산하는 것을 포함하는 것인,
보행자 충돌가능성 인식 기반의 조명장치.
11. The method of claim 10
The control unit extracts an object in the image through the image transmitted from the camera and, when there are a plurality of analyzed objects, calculating a movement direction for each object and a movement distance in the image sign,
A lighting device based on the recognition of the possibility of pedestrian collision.
제 1항에 있어서
상기 제어부가 상기 발광부를 제어하는 것은,
상기 제어부는 상기 객체 별 충돌가능성 값들 중 기 설정된 임계점에 대응하는 수치를 넘어가는 상기 충돌가능성 값을 가진 객체를 감지한 후, 상기 발광부로 상기 객체의 방향 값과 점멸 값을 제공하여 상기 발광부를 제어하는 것인
보행자 충돌가능성 인식 기반의 조명장치.
2. The method of claim 1
That the control unit controls the light emitting unit,
The control unit detects an object having the collision probability value exceeding a value corresponding to a preset threshold among the collision probability values for each object, and then provides a direction value and a blinking value of the object to the light emitting unit to control the light emitting unit that is
A lighting device based on recognition of the possibility of pedestrian collision.
제 12항에 있어서
상기 제어부는
상기 객체와의 충돌가능성 값이 기 설정된 상기 임계점에 대응하는 수치 이상인 경우, 상기 발광부에 상기 객체의 방향값과 점멸값을 제공하여 상향등을 통해 상기 객체에 광을 주사하도록 제어하고,
상기 객체와의 충돌가능성 값이 기 설정된 상기 임계점에 대응하는 수치 이하로 떨어지는 경우, 상기 상향등의 제어를 중단하고 하향등을 동작시키는 것을 포함하는 것인,
보행자 충돌가능성 인식 기반의 조명장치.
13. The method of claim 12
the control unit
When the collision probability value with the object is greater than or equal to a numerical value corresponding to the preset critical point, the light emitting unit provides a direction value and a blinking value of the object to control to inject light to the object through a high beam,
When the collision probability value with the object falls below a value corresponding to the preset critical point, stopping the control of the high beam and operating the low beam,
A lighting device based on the recognition of the possibility of pedestrian collision.
KR1020210012002A 2021-01-28 2021-01-28 Illumination device for lighting based on possibility of pedestrian collision KR20220108920A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210012002A KR20220108920A (en) 2021-01-28 2021-01-28 Illumination device for lighting based on possibility of pedestrian collision

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210012002A KR20220108920A (en) 2021-01-28 2021-01-28 Illumination device for lighting based on possibility of pedestrian collision

Publications (1)

Publication Number Publication Date
KR20220108920A true KR20220108920A (en) 2022-08-04

Family

ID=82836987

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210012002A KR20220108920A (en) 2021-01-28 2021-01-28 Illumination device for lighting based on possibility of pedestrian collision

Country Status (1)

Country Link
KR (1) KR20220108920A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102612227B1 (en) * 2023-07-12 2023-12-11 노지효 System for smart lighting for traffic safety and control method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102612227B1 (en) * 2023-07-12 2023-12-11 노지효 System for smart lighting for traffic safety and control method thereof

Similar Documents

Publication Publication Date Title
US11620835B2 (en) Obstacle recognition method and apparatus, storage medium, and electronic device
US10558866B2 (en) System and method for light and image projection
JP7009987B2 (en) Automatic driving system and automatic driving method
JP6459659B2 (en) Image processing apparatus, image processing method, driving support system, program
US10430674B2 (en) Vehicle vision system using reflective vehicle tags
US9037343B2 (en) Light distribution control apparatus and light distribution control method
EP3385121B1 (en) Headlight device, headlight control method, and headlight control program
JP2007508624A (en) Moving object detection using computer vision adaptable to low illumination depth
JP2019099138A (en) Lane-keep auxiliary method and device
CN112771858A (en) Camera assessment techniques for automated vehicles
JP2016002802A (en) Vehicular illumination apparatus
JP2020500391A (en) Method and system for detecting raised objects present in a parking lot
JP2020500389A (en) Method and system for detecting raised objects present in a parking lot
CN110303979A (en) Control method, system, electronic equipment and the storage medium of headlamp
KR102227371B1 (en) Image projection apparatus of vehicle and vehicle including the same
KR20220108920A (en) Illumination device for lighting based on possibility of pedestrian collision
US20190322210A1 (en) Apparatus and method for notifying expected motion of vehicle
JP2009208676A (en) Vehicle surrounding environment detector
WO2023049645A1 (en) System and method for implementing an adaptive light distribution for an autonomous vehicle
CN109677326B (en) Unmanned intelligent automobile
JP7351083B2 (en) Autonomous mobile devices and programs
US20230102095A1 (en) System and method for communicating a driving mode of an autonomous vehicle
TWI834726B (en) Distance measuring systems, calibration methods, program products and electronic machines
TWI792512B (en) Vision based light detection and ranging system using multi-fields of view
US20230031289A1 (en) Monocular 2d semantic keypoint detection and tracking

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X601 Decision of rejection after re-examination