KR101821496B1 - safe driving support system operating method - Google Patents

safe driving support system operating method Download PDF

Info

Publication number
KR101821496B1
KR101821496B1 KR1020160105469A KR20160105469A KR101821496B1 KR 101821496 B1 KR101821496 B1 KR 101821496B1 KR 1020160105469 A KR1020160105469 A KR 1020160105469A KR 20160105469 A KR20160105469 A KR 20160105469A KR 101821496 B1 KR101821496 B1 KR 101821496B1
Authority
KR
South Korea
Prior art keywords
driver
smart device
pedestrian
server
camera
Prior art date
Application number
KR1020160105469A
Other languages
Korean (ko)
Inventor
권병욱
남경민
민준성
이석호
Original Assignee
동서대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동서대학교산학협력단 filed Critical 동서대학교산학협력단
Priority to KR1020160105469A priority Critical patent/KR101821496B1/en
Application granted granted Critical
Publication of KR101821496B1 publication Critical patent/KR101821496B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/34Protecting non-occupants of a vehicle, e.g. pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/10Fittings or systems for preventing or indicating unauthorised use or theft of vehicles actuating a signalling device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W50/16Tactile feedback to the driver, e.g. vibration or force feedback to the driver on the steering wheel or the accelerator pedal
    • B60K2350/2013
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R2021/003Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks characterised by occupant or pedestian
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/101Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using cameras with adjustable capturing direction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8033Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for pedestrian protection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a safe driving support system and an operating method thereof. The safe driving support system comprises: a camera (100) which is installed inside a vehicle to recognize a driver (10) and a pedestrian (20) at the same time and photographs image data; a single board computer (200) which has a server for analyzing the image data of the camera (100) through an image processing algorithm; and a smart device (300) which receives a signal from the single board computer (200) and informs the driver (10). The image data acquired through the camera (100) installed inside the vehicle to recognize the driver (10) and the pedestrian (20) at the same time is transmitted to the server of the single board computer (200). The server transmits information to the smart device (300) and informs the driver (10) through a UI, sound, or vibration in the smart device (300), if the server determines that there is a dangerous situation based on the analyzed data through the image processing algorithm. The safe driving support system and the operating method thereof according to the present invention recognize the driver and the pedestrian at the same time through two or more camera sensors. One or more camera sensors recognize the face and eyes of the driver. The other one or more camera sensors recognize the forward pedestrian. Therefore, it is possible to prevent a pedestrian accident and a drowsy driving accident in advance by supporting the driver in a way of informing the driver to avoid a dangerous situation when the driver cannot concentrate on driving through the gaze of the driver, or the pedestrian is in front.

Description

안전운전 보조 시스템 동작방법 { safe driving support system operating method }[0001] The present invention relates to a safe driving support system operating method,

본 발명은 안전운전 보조 시스템 동작방법에 관한 것으로, 보다 상세하게는 두 개 이상의 카메라 센서를 통해 운전자와 보행자를 동시에 인식하되, 하나 이상 카메라 센서는 운전자의 얼굴과 눈을 인식하며, 다른 하나 이상의 카메라 센서는 전방의 보행자를 인식하는 것으로, 운전자의 시선을 통해 운전자가 운전에 집중하지 못하거나, 보행자가 전방에 있으면 위험상황을 피할 수 있도록 운전자에게 알려주어 운전자를 보조함으로써, 보행자 사고 및 졸음운전 사고를 미연에 방지할 수 있는 안전운전 보조 시스템 동작방법에 관한 것이다.More particularly, the present invention relates to a method of operating a safe driving assist system, and more particularly, to a method of operating a safe driving assist system by recognizing a driver and a pedestrian through two or more camera sensors, The sensor recognizes the pedestrian in front and informs the driver to avoid the dangerous situation when the driver can not concentrate on driving through the driver's gaze or if the pedestrian is in front of the driver so that the pedestrian accident and the sleepy driving accident And more particularly, to a method of operating a safe driving assist system which can prevent a driving assist system from occurring.

일반적으로 운전자가 졸음운전을 하여 졸음운전 사고가 발생하거나, 운전자가 전방을 주시하지 않았을 경우 보행자 사고가 발생하는 등 운전자가 운전에 집중하지 못할 경우에 사고가 발생하고 있다.Generally, an accident occurs when a sleeping driving accident occurs when a driver drives a drowsy driver, or when a driver can not concentrate on driving, for example, a pedestrian accident occurs when the driver does not watch ahead.

상기 보행자 사고 중 특히 사고가 자주 발생하는 장소는 스쿨존이다.In the pedestrian accidents, the place where accidents occur frequently is the school zone.

상기 스쿨존에서 사고율은 전체 보행자 사고 비율에서 58%를 차지하고 있으며, 이 중 초등학교 입학생인 만7세 어린이 사고비율이 13.2%로 가장 높게 나타났다.In the school zone, the accident rate accounted for 58% of the total pedestrian accident rate, and the incidence rate of children aged 7 years old, who entered elementary school, was the highest at 13.2%.

상기 보행자 사고는 운전자가 전방을 제대로 주시하지 않아 보행자가 나타났을 때를 인식하지 못하기 때문에 사고가 발생하고 있는 실정이다.The pedestrian accident is an accident because the driver can not recognize when the pedestrian appears because the driver does not pay attention to the front.

그리고 상기 졸음운전 사고도 자주 발생하는데, 운전자로서는 짧은 시간이지만, 운전자가 통제하지 않은 차량은 속도가 유지되거나 운전자가 무의식적으로 엑셀을 더 누르게되어 차량의 속도가 증가된다.Also, the drowsiness driving accident often occurs. However, the driver is a short time but the speed of the vehicle not controlled by the driver is maintained or the driver unconsciously presses the accelerator more frequently, thereby increasing the speed of the vehicle.

이때, 상기 차량은 짧은 시간이지만 질주하는 것으로, 주변의 차나 보행자에게 큰 위협이 될 수 있다. At this time, although the vehicle is running for a short time, it can become a serious threat to a car or pedestrian around the vehicle.

실제로 운전자가 약 5초 정도를 졸 경우, 시속 60km인 차량은 약 80m를 시속 100km인 경우는 약 140m를 운전자가 없는 상태로 이동한 것과 같다.In fact, if a driver loses about 5 seconds, a vehicle with a speed of 60 km per hour is about 80 m, and a speed of 100 km per hour is about 140 m without a driver.

그러므로 운전자가 운전에 집중하지 못할 경우에 발생하는 위험상황을 피할 수 있도록 할 필요가 있다.Therefore, it is necessary to be able to avoid dangerous situations that occur when the driver can not concentrate on driving.

종래기술로서 등록실용신안공보 등록번호 제20-0418306호의 졸음운전 경보장치에는, 모자에 장착할 수 있는 고정수단을 구비한 하우징과; 하우징의 내부에 고정된 PCB와; 상기 PCB에 장착된 모션센서와; 상기 PCB에 장착된 마이크로프로세서와; 상기 하우징에 장착된 경보장치를 구비하여; 모션센서로부터 착용자의 움직임을 연속적으로 감지하고, 착용자의 움직임을 평상시의 움직임과 다른 졸음운전의 특징적인 움직임으로 판단하였을 때, 경보를 내어주는 제어프로그램을 마이크로프로세서에 내장한 것을 특징으로 하는 졸음운전 방지용 경보장치라고 기재되어 있다.As a conventional art, the drowsiness operation alarm device of Registration Practical Utility Model Registration No. 20-0418306 includes a housing having fixing means capable of being attached to a cap; A PCB secured within the housing; A motion sensor mounted on the PCB; A microprocessor mounted on the PCB; An alarm device mounted on the housing; A control program for generating an alarm when a wearer's movement is continuously sensed from a motion sensor and the movement of the wearer is determined to be a characteristic movement of a drowsy operation other than a normal movement is incorporated in a microprocessor Prevention alarm device.

다른 종래기술로서 등록특허공보 등록번호 제10-1344034호의 보행자 인식기반 사고방지 시스템 및 그 제어 방법에는, 적어도 하나의 제 1 영상을 촬영하는 카메라; 상기 제 1 영상에 제 1 구역이 포함되어 있는 경우, 상기 제 1 영상에 포함된 적어도 하나의 제 1 보행자를 검출하고, 상기 검출한 제 1 보행자를 추적하며, 상기 추적한 제 1 보행자가 상기 제 1 구역의 적어도 일부에 위치하는지 여부를 판단하는 제어부; 상기 추적한 제 1 보행자가 상기 제 1 구역의 적어도 일부에 위치하는 경우, 상기 제어부의 제어에 따라 상기 제 1 보행자에게 위험을 알리는 제 1 정보를 출력하는 출력부; 위치정보모듈; 및 무선통신부;를 포함하되, 상기 제어부는, 상기 제 1 영상에 대한 특징벡터를 추정하고, 상기 추정한 특징벡터가 적용되는 아다부스트(adaboost) 알고리즘 및 SVM 알고리즘을 이용하여 상기 제 1 보행자를 검출하며, 상기 검출한 제 1 보행자에 대해 평균 시프트(Mean shift) 알고리즘을 적용하여 상기 제 1 보행자를 추적하고, 상기 제어부는, 상기 제 1 영상에 포함된 적어도 하나의 제 1 차량을 검출하고, 상기 검출한 제 1 보행자 및 제 1 차량을 함께 추적하며, 상기 제 1 보행자와 제 1 차량의 충돌 여부를 판단하고, 상기 제 1 보행자와 제 1 차량이 충돌되었다고 판단된 경우, 상기 제어부는, 상기 위치정보모듈을 이용하여 상기 충돌 위치 정보를 획득하고, 상기 무선통신부를 통해 상기 충돌 위치 정보 및 상기 충돌 사실을 알리는 정보가 기 설정된 외부기관으로 전송되도록 제어하는 것을 특징으로 하는, 보행자 인식을 통한 방범 시스템이라고 기재되어 있다.As another prior art, a pedestrian recognition-based accident prevention system and control method thereof of Patent Registration No. 10-1344034 includes a camera for photographing at least one first image; Detecting at least one first pedestrian included in the first image and tracking the detected first pedestrian when the first image includes the first zone, A control unit for determining whether or not the at least one portion of the first zone is located; An output unit for outputting first information informing the first pedestrian of the danger under the control of the control unit when the tracked first pedestrian is located at least a part of the first zone; Location information module; Wherein the controller estimates a feature vector for the first image and detects the first pedestrian using an adaboost algorithm and an SVM algorithm to which the estimated feature vector is applied, Wherein the control unit tracks the first pedestrian by applying a mean shift algorithm to the detected first pedestrian, the control unit detects at least one first vehicle included in the first image, The first pedestrian and the first vehicle are detected together and the collision between the first pedestrian and the first vehicle is judged and when it is judged that the first pedestrian and the first vehicle have collided with each other, Information on the collision position information and the collision information through the wireless communication unit, Characterized in that the control to be transmitted, it is described that the security system via the pedestrian recognition.

그러나 상기와 같은 종래의 발명은 운전자의 졸음을 방지하기 위해서 운전자가 착용하거나 사용자에게 닿도록 설치됨으로써 사용자게 맞는 크기로 제작해야 하며, 사용시에 불편할 뿐만 아니라, 방향, 속도, 및 시간을 통해 판단함으로써 운전자의 졸음상태를 정확하게 판단하지 못하며, 또한, 운전자에게 닿지 않도록 설치된 카메라는 차량 전방의 장애물 및 보행자를 감지하는 것으로, 운전자가 졸고 있거나 다른 사람이랑 이야기하는 등 시선이 전혀 다른 곳에 있어 운전에 집중하지 못하는 경우에는 확인할 수 없어 사고의 위험성이 높은 문제점이 있었다.However, in order to prevent the driver from drowsy, the driver of the related art as described above must be worn by a driver or placed in contact with a user so as to be manufactured in a proper size, and not only inconvenient at the time of use but also be determined by direction, speed and time The camera installed so that it can not accurately determine the drowsy state of the driver and the camera which is installed so as not to reach the driver detects obstacles and pedestrians in front of the vehicle and focuses on the driving because the driver is sleeping or talking with another person, It can not be confirmed that there is a high risk of accidents.

따라서 본 발명 안전운전 보조 시스템 및 그 동작방법을 통하여, 두 개 이상의 카메라 센서를 통해 운전자와 보행자를 동시에 인식하되, 하나 이상 카메라 센서는 운전자의 얼굴과 눈을 인식하며, 다른 하나 이상의 카메라 센서는 전방의 보행자를 인식하는 것으로, 운전자의 시선을 통해 운전자가 운전에 집중하지 못하거나, 보행자가 전방에 있으면 위험상황을 피할 수 있도록 운전자에게 알려주어 운전자를 보조함으로써, 보행자 사고 및 졸음운전 사고를 미연에 방지할 수 있는 안전운전 보조 시스템 및 그 동작방법을 제공하고자 하는 것이다.Accordingly, the driver and the pedestrian are simultaneously recognized through two or more camera sensors, one or more camera sensors recognize the face and eyes of the driver through the safety driving assist system and the operation method of the present invention, The driver is notified that the driver can not concentrate on the driving through the driver's gaze or if the driver is in front of the driver, the driver is informed to avoid the dangerous situation so that the driver can be assisted to prevent the pedestrian accident and the sleepy driving accident And a method of operating the same.

본 발명 안전운전 보조 시스템은 차량 내부에는 운전자(10)와 보행자(20)를 동시에 인식하도록 설치되어 영상데이터를 촬영하는 카메라(100)와; 상기 카메라(100)의 영상데이터를 영상처리 알고리즘을 통해 분석하는 서버(210)가 설치된 싱글보드컴퓨터(200)와; 상기 싱글보드컴퓨터(200)에서 신호를 받아 운전자(10)에게 알려주는 스마트기기(300); 로 이루어지는 것을 특징으로 한다.The safe driving assist system of the present invention includes a camera 100 for recognizing a driver 10 and a pedestrian 20 at the same time and photographing image data; A single board computer 200 provided with a server 210 for analyzing image data of the camera 100 through an image processing algorithm; A smart device 300 that receives a signal from the single board computer 200 and informs the driver 10; .

그리고 본 발명 안전운전 보조 시스템 동작방법은 차량 내부에 운전자(10)와 보행자(20)를 동시에 인식하도록 차량 내부에 설치된 카메라(100)를 통해 취득되는 영상데이터를 싱글보드컴퓨터(200)의 서버(210)로 전달되고, 상기 서버(210)에서는 영상처리 알고리즘을 통해 분석된 데이터를 기반으로 위험상황이라고 판단될 경우, 스마트기기(300)에 정보를 전달하여 스마트기기(300)에서 UI, 소리, 또는 진동을 통해 운전자(10)에게 알려주도록 하는 것을 특징으로 한다.The method of operating the safe driving assist system according to the present invention is a method of operating the safe driving assist system in which the image data acquired through the camera 100 installed in the vehicle is recognized by the server (not shown) of the single board computer 200 so as to simultaneously recognize the driver 10 and the pedestrian 20 210, and the server 210 transmits information to the smart device 300 when the risk is determined based on the analyzed data through the image processing algorithm, and transmits the UI, sound, Or to notify the driver 10 through vibration.

본 발명 안전운전 보조 시스템 및 그 동작방법은 두 개 이상의 카메라 센서를 통해 운전자와 보행자를 동시에 인식하되, 하나 이상 카메라 센서는 운전자의 얼굴과 눈을 인식하며, 다른 하나 이상의 카메라 센서는 전방의 보행자를 인식하는 것으로, 운전자의 시선을 통해 운전자가 운전에 집중하지 못하거나, 보행자가 전방에 있으면 위험상황을 피할 수 있도록 운전자에게 알려주어 운전자를 보조함으로써, 보행자 사고 및 졸음운전 사고를 미연에 방지할 수 있는 현저한 효과가 있다.The safety driving assist system and the operation method of the present invention simultaneously recognize a driver and a pedestrian through two or more camera sensors, one or more camera sensors recognize a driver's face and eyes, and the other one or more camera sensors detect a frontal pedestrian By recognizing, it is possible to prevent a pedestrian accident and a sleepy driving accident by informing the driver to avoid a dangerous situation when the driver can not concentrate on driving through the driver's gaze or if the pedestrian is ahead There is a remarkable effect.

도 1은 본 발명의 구성도
도 2는 본 발명의 라즈베리 파이의 사시도
도 3은 본 발명의 Haar Cascade를 이용한 얼굴인식을 하는 개념도
도 4는 본 발명의 졸음운전으로 판단될 경우의 UI 출력하는 개념도
도 5는 본 발명의 Haar Cascade를 이용하여 고개를 돌릴 시 얼굴인식을 하는 개념도
도 6은 본 발명의 OpenCV를 활용한 보행자 인식하는 개념도
1 is a block diagram of the present invention
2 is a perspective view of the raspberry pie of the present invention
FIG. 3 is a conceptual diagram of face recognition using the Haar Cascade of the present invention
4 is a conceptual diagram illustrating UI output when it is determined that the drowsy driving of the present invention
FIG. 5 is a conceptual diagram of facial recognition when turning the head using the Haar Cascade of the present invention
6 is a conceptual diagram for recognizing a pedestrian using OpenCV of the present invention

본 발명 안전운전 보조 시스템은 차량 내부에는 운전자(10)와 보행자(20)를 동시에 인식하도록 설치되어 영상데이터를 촬영하는 카메라(100)와; 상기 카메라(100)의 영상데이터를 영상처리 알고리즘을 통해 분석하는 서버(210)가 설치된 싱글보드컴퓨터(200)와; 상기 싱글보드컴퓨터(200)에서 신호를 받아 운전자(10)에게 알려주는 스마트기기(300); 로 이루어지는 것을 특징으로 한다.The safe driving assist system of the present invention includes a camera 100 for recognizing a driver 10 and a pedestrian 20 at the same time and photographing image data; A single board computer 200 provided with a server 210 for analyzing image data of the camera 100 through an image processing algorithm; A smart device 300 that receives a signal from the single board computer 200 and informs the driver 10; .

또한, 상기 카메라(100)는 운전자(10)와 보행자(20)를 동시에 인식할 수 있도록 다방향 감지 카메라 또는 다수의 카메라를 사용하는 것을 특징으로 한다.Also, the camera 100 may use a multi-directional sensing camera or a plurality of cameras so that the driver 10 and the pedestrian 20 can be simultaneously recognized.

본 발명 안전운전 보조 시스템 동작방법은 차량 내부에 운전자(10)와 보행자(20)를 동시에 인식하도록 차량 내부에 설치된 카메라(100)를 통해 취득되는 영상데이터를 싱글보드컴퓨터(200)의 서버(210)로 전달되고, 상기 서버(210)에서는 영상처리 알고리즘을 통해 분석된 데이터를 기반으로 위험상황이라고 판단될 경우, 스마트기기(300)에 정보를 전달하여 스마트기기(300)에서 UI, 소리, 또는 진동을 통해 운전자(10)에게 알려주도록 하는 것을 특징으로 한다.The method of operating the safe driving assist system of the present invention is a method of operating the safe driving assist system in which the image data acquired through the camera 100 installed in the vehicle to recognize the driver 10 and the pedestrian 20 simultaneously in the vehicle is transmitted to the server 210 of the single board computer 200 The server 210 transmits information to the smart device 300 and transmits the UI, sound, or sound to the smart device 300 when it is determined that the risk is based on the data analyzed through the image processing algorithm And informs the driver (10) through the vibration.

또한, 상기 싱글보드컴퓨터(200)에는 서버(210)가 설치되어 있어 자체적으로 영상처리 알고리즘을 통해 영상데이터를 분석하는 것을 특징으로 한다.In addition, the server 210 is installed in the single board computer 200 and analyzes the image data through an image processing algorithm.

또한, 상기 싱글보드컴퓨터(200)는 JAVA언어를 사용하는 것을 특징으로 한다.Also, the single board computer 200 uses JAVA language.

또한, 상기 서버(210)는 영상처리 알고리즘을 통해 눈을 인식하지 못하거나, 얼굴영역이 검출되지 않는 상황 중 하나 이상이 발생하였을 때를 위험상황으로 판단하여 소켓통신을 통해 스마트기기(300)로 값을 전달하는 것을 특징으로 한다.In addition, the server 210 may determine that the mobile terminal 100 is in a dangerous state when one or more of the situations in which the eyes are not recognized or the face region is not detected through the image processing algorithm is determined to be a dangerous situation, Value is transmitted.

본 발명을 첨부 도면에 의해 상세히 설명하면 다음과 같다.The present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 구성도, 도 2는 본 발명의 라즈베리 파이의 사시도, 도 3은 본 발명의 Haar Cascade를 이용한 얼굴인식을 하는 개념도, 도 4는 본 발명의 졸음운전으로 판단될 경우의 UI 출력하는 개념도, 도 5는 본 발명의 Haar Cascade를 이용하여 고개를 돌릴 시 얼굴인식을 하는 개념도, 도 6은 본 발명의 OpenCV를 활용한 보행자 인식하는 개념도이다.2 is a perspective view of the raspberry pie of the present invention, Fig. 3 is a conceptual view of face recognition using the Haar Cascade of the present invention, Fig. 4 is a view showing a UI FIG. 5 is a conceptual diagram of facial recognition when turning the head using the Haar Cascade of the present invention, and FIG. 6 is a conceptual diagram of pedestrian recognition using OpenCV of the present invention.

본 발명에 대해 구체적으로 설명하면, 본 발명은 차량 내부에는 운전자(10)와 보행자(20)를 동시에 인식하도록 설치되어 영상데이터를 촬영하는 카메라(100)와; 상기 카메라(100)의 영상데이터를 영상처리 알고리즘을 통해 분석하는 서버(210)가 설치된 싱글보드컴퓨터(200)와; 상기 싱글보드컴퓨터(200)에서 신호를 받아 운전자(10)에게 알려주는 스마트기기(300); 로 이루어진다.The present invention will now be described more fully with reference to the accompanying drawings, in which: FIG. 1 is a block diagram of a camera system according to a first embodiment of the present invention; A single board computer 200 provided with a server 210 for analyzing image data of the camera 100 through an image processing algorithm; A smart device 300 that receives a signal from the single board computer 200 and informs the driver 10; .

상기 서버(210)에서 스마트기기에 정보를 전달하기 위해서는 블루투스 등의 무선통신방식이나 커넥트를 통한 연결을 통한 유선통신방식을 사용할 수 있다.In order for the server 210 to transmit information to the smart device, a wireless communication method such as Bluetooth or a wired communication method using a connection through a connection may be used.

상기 카메라(100)는 운전자(10)와 보행자(20)를 동시에 인식할 수 있도록 다방향 감지 카메라 또는 다수의 카메라를 사용한다.The camera 100 uses a multi-directional sensing camera or a plurality of cameras so that the driver 10 and the pedestrian 20 can be simultaneously recognized.

상기 다방향 감지 카메라는 하나의 카메라에 카메라센서가 다수 개가 내장되어 주변을 촬영하는 것이다.The multi-directional sensing camera has a plurality of camera sensors built into one camera to photograph the surroundings.

특히, 상기 다방향 감지 카메라는 360˚카메라를 사용할 수도 있다.In particular, the multi-directional sensing camera may use a 360 degree camera.

상기 다수의 카메라는 하나 이상을 차량 전방의 보행자(20)를 인식하도록 설치하고, 하나 이상을 운전자(10)의 얼굴과 눈을 인식하도록 설치하는 것이다.The plurality of cameras are installed so that at least one of the cameras recognizes the pedestrian 20 in front of the vehicle, and one or more cameras are installed to recognize the face and the eyes of the driver 10. [

그러므로 상기 다수의 카메라는 2개 이상의 카메라를 사용하는 것으로, 카메라의 설치 개수가 많아 질수록 더욱 정확하게 판단할 수 있게 된다.Therefore, the plurality of cameras use two or more cameras, and as the number of installed cameras increases, it becomes possible to determine more accurately.

상기 카메라(100)를 통해 취득되는 영상데이터를 싱글보드컴퓨터(200)의 서버(210)로 전달되고, 상기 싱글보드컴퓨터(200) 자체에 서버(210)가 설치되어 있어 자체적으로 영상처리 알고리즘을 통해 영상을 분석하거나, 또는 상기 싱글보드컴퓨터(200)를 통해 서버(210)가 설치된 외부의 기기로 전달되어 외부의 기기에 설치된 서버(210)에서 영상처리 알고리즘을 통해 영상데이터를 분석하는 것이다.The image data acquired through the camera 100 is transmitted to the server 210 of the single board computer 200 and the server 210 is installed in the single board computer 200 itself to perform an image processing algorithm Or transmitted to an external device installed in the server 210 through the single board computer 200 and analyzed by the server 210 installed in an external device through the image processing algorithm.

상기 싱글보드컴퓨터(200)는 라즈베리파이를 사용할 수 있다.The single board computer 200 may use raspberry pie.

상기 라즈베리파이는 교육용으로 사용되고 있는 싱글 보드 컴퓨터로써 가격이 저렴하며 크기가 소형이고, 모델에 따라 무게와 가격이 다르지만 일반적으로 가로 또는 세로의 길이가 10cm 이하이며 100g 미만의 무게를 가진다.The raspberry pie is a single board computer used for educational purposes. It is inexpensive, small in size, and different in weight and price depending on the model, but generally has a length or width of less than 10 cm and a weight of less than 100 g.

그리고 상기 라즈베리파이는 하나의 보드(single board)에 통신부, 제어부, 전원부, 커넥터, 핀 등이 구비된 것이나, 신용카드 정도의 크기를 가지며 부피가 작아 공간이 제한된 공간에서 사용하기에 적당하다.The raspberry pie is suitable for use in a space where a communication unit, a control unit, a power supply unit, a connector, a pin, and the like are provided on a single board, a size of a credit card is small, and a space is limited.

상기 싱글보드컴퓨터(200)는 커넥터에는 따로 구비한 입출력장치를 연결할 수 있으며, 핀은 다수 개가 구비되어 각각의 핀에 센서 또는 모듈을 결합할 수 있으며, 상기 모듈 중에서 무선통신모듈을 통해 입출력장치에 무선으로 연결할 수도 있다.The single board computer 200 can connect a separate input / output device to the connector, and a plurality of pins can be connected to each of the pins to couple a sensor or module to the input / output device through the wireless communication module. You can also connect wirelessly.

상기 싱글보드컴퓨터(200)는 간단히 사용할 수 있는 하드웨어와 간편한 인터페이스가 적용된 소프트웨어를 사용하는 것으로, 영상통신에서 많이 사용되고 있다.The single board computer 200 uses software that can be easily used with hardware and a simple interface, and is widely used in video communication.

그러므로 상기 싱글보드컴퓨터(200)는 무게가 가벼워 휴대가 간편하고, 부피도 적어 좁은 공간에도 설치하기가 간편하며, 특히 시야를 가리지도 않기에 공간이 제한된 차량 내부에 설치하기에도 적당하다.Therefore, the single board computer 200 is easy to carry because it is light in weight, has a small volume, is easy to install even in a narrow space, and is suitable for installation in a vehicle having limited space because it does not obstruct the view.

상기 서버(210)에서는 영상처리 알고리즘을 통해 분석된 데이터를 기반으로 위험상황이라고 판단될 경우, 스마트기기(300)에 정보를 전달하여 스마트기기(300)에서 UI, 소리, 또는 진동을 통해 운전자(10)에게 알려주도록 하는 것이다.The server 210 transmits information to the smart device 300 and transmits the information to the driver 300 through the UI, sound, or vibration in the smart device 300 10).

상기 스마트기기(300)는 정보를 전달받으면 앱을 통해 화면에 나타내거나, 경고음을 포함하는 소리, 진동 등의 알림을 통해 운전자(10)에게 알려주는 것이다.When the smart device 300 receives the information, the smart device 300 displays it on the screen through an app or informs the driver 10 of a sound, vibration, etc. including a warning sound.

상기 카메라(100)에서 영상데이터를 서버(210)로 전송하기 위해서는 JAVA언어를 기반 싱글보드컴퓨터(200)를 사용한다.In order to transfer image data from the camera 100 to the server 210, a JAVA-based single board computer 200 is used.

상기 서버(210)에서는 카메라(100)에서 촬영한 영상데이터를 통해 운전자(10) 얼굴의 방향과 눈을 판단하여 이벤트 처리한다.The server 210 determines the direction and the face of the driver 10 based on the image data photographed by the camera 100 and performs an event process.

더욱 상세하게 설명하면, 먼저 상기 서버(210)는 영상데이터에서 운전자(10)의 얼굴 부분을 인식하며, 특히 고개의 각도와 눈동자를 집중적으로 감지한다.More specifically, the server 210 first recognizes the face portion of the driver 10 from the image data, and intensively detects the angle and pupils of the head.

특히, 상기 서버(210)는 눈을 감지할 때 하르 특징(Haar feature)을 판단한 후, 캐스케이드 분류기(CascadeClassifier)를 사용하여 눈,코,입,얼굴영역 등을 인식한다.In particular, the server 210 determines Haar features when detecting eyes, and then recognizes eyes, nose, mouth, face area, and the like using a cascade classifier.

상기 하르 특징은 두 눈은 어둡고 코는 명암이 밝다는 것을 이용하여 패턴을 구하는 것이다.The harsh feature is to obtain a pattern using the fact that the eyes are dark and the nose is bright.

그러므로 상기 캐스케이드 분류기는 하르 특징을 통해 구해진 패턴을 통해 눈, 코, 입, 얼굴영역 등을 파악할 수 있게 되는 것이다.Therefore, the cascade classifier can grasp the eyes, nose, mouth, face region, etc. through the pattern obtained through the Haar feature.

상기 서버(210)는 운전자(10)의 눈이 감기는 영상을 영상데이터로 전달받으면, 영상데이터로부터 하르 특징(Haar feature)을 통해 영상처리 알고리즘이 눈동자를 검출하지 못하여 눈을 인식하지 못하게 된다.When the server 210 receives the image of the eyes of the driver 10 as the image data, the image processing algorithm does not detect the eye through the Haar feature from the image data, so that the eye 210 can not be recognized.

그러므로 상기 서버(210)는 눈을 인식하지 못하는 상황을 운전자(10)의 눈이 감겨진 상황으로 판단하도록 알고리즘이 작성된 것이다.Therefore, the server 210 generates an algorithm for determining that the eyes of the driver 10 are not covered by the eyes of the driver 10.

도 3에 도시된 바와 같이, 상기 서버(210)는 운전자(10)의 고개의 각도가 떨어질 때도 하르 특징에 의해 얼굴영역이 인식이 되지 않기 때문에 얼굴영역이 검출되지 않는 상황을 고개가 떨어진 상황으로 판단하도록 알고리즘이 작성된 것이다.As shown in FIG. 3, when the angle of the head of the driver 10 is lowered, the server 210 does not recognize the face area due to the hallmark, The algorithm is written to judge.

상기 서버(210)는 영상처리 알고리즘을 통해 눈을 인식하지 못하거나, 얼굴영역이 검출되지 않는 상황 중 하나 이상이 발생하였을 때를 위험상황으로 판단하여 소켓통신을 통해 스마트기기(300)로 값을 전달하는 것이다.The server 210 judges that it is a dangerous situation when one or more of the situations where the eyes are not recognized or the face area is not detected through the image processing algorithm is detected as a dangerous state and the value is sent to the smart device 300 through the socket communication It will deliver.

상기 스마트기기에서는 값을 받아 이벤트 처리로 Google Map API를 통해 운전자(10)의 현재위치를 받아오며, 현재위치로부터 가장 가까운 졸음 쉼터, 휴게소 등의 휴식장소를 검색하며, 현재위치부터 휴식장소까지의 거리를 계산한 후, 도 4에 도시된 바와 같이 스마트기기(300)에 UI(User Interface)로 출력한다.The smart device receives the value and receives the current position of the driver 10 through the Google Map API in the event processing, searches for a resting place such as a drowsiness shelter or a resting place closest to the current position, And outputs the calculated distance to the smart device 300 as a UI (User Interface) as shown in FIG.

상기 스마트기기(300)에 출력되는 UI의 실시예로서, 상기 스마트기기(300)의 화면에는 휴식장소가 졸음쉼터이면 졸음쉼터라고 출력되며, 아래에는 해당 졸음쉼터까지 거리가 몇 미터 남았는지를 출력한 후 변하지 않으며, 우측에는 차량의 위치변화에 따라 실시간으로 거리를 변경하여 남은거리를 알려주는 것이다.As an example of the UI output to the smart device 300, if the resting place is a drowsy shelter, the screen of the smart device 300 outputs a drowsiness shelter, and below it is displayed how many meters the distance to the sleeping shelter has remained And on the right side, the distance is changed in real time according to the change of the position of the vehicle, and the distance remained is indicated.

도 4에 도시된 바와 같이, 상기 서버(210)는 카메라(100)에서 촬영한 운전자(10)가 고개를 돌린 영상데이터를 전달받은 후, 하르 특징에 따른 얼굴영역과 눈 영역을 인식할 수 있다.As shown in FIG. 4, the server 210 receives the image data of the driver 10 photographed by the camera 100, and then recognizes the face region and the eye region according to the Hall characteristic .

상기 서버(210)는 눈, 코, 입, 얼굴형태 등의 패턴에 따라 하르 특징을 인식한 후, 인식된 하르 특징을 통해 케이케이드분류기에서 눈, 코, 입, 얼굴영역을 판단한다.The server 210 recognizes the hairstyle according to a pattern such as eyes, nose, mouth, face, and the like, and then determines the eyes, nose, mouth, and face area in the categorizer through the recognized hairstyle.

상기 서버(210)는 운전자(10)가 고개를 돌릴 때 얼굴영역이 정면일 때 보다는 약간 작아지며 고개를 돌린 방향의 반대쪽 눈이 인식이 되지 않는 것을 통해 운전자(10)가 고개를 오른쪽으로 돌렸는지, 왼쪽으로 돌렸는지를 판단할 수 있는 것이다.The server 210 is slightly smaller than when the driver 10 turns his / her head when the face area is front, and the driver 10 turns his / her head to the right through the eyes of the opposite side of the head turning direction , Or to the left.

상기 운전자(10)가 고개를 돌린 상황에 대한 인식은 보행자(20) 인식의 결과와 같이 사용되어 운전자(10)에게 보행자(20)에 대한 주의를 주는 경고음을 울리는데 사용된다.The recognition of the driver 10 turning his / her head is used as a result of recognizing the pedestrian 20 and used to sound a warning to the driver 10 to warn the pedestrian 20.

상기 카메라(100)에서 차량 전방의 보행자(20)를 감지하도록 설치된 영상데이터를 이용하여 보행자(20)를 인식하여 이벤트를 처리한다.The camera 100 recognizes the pedestrian 20 using image data installed to detect the pedestrian 20 in front of the vehicle, and processes the event.

예를 들어, 상기 운전자(10)는 운전자(10)의 왼편이나 오른편의 어떤 광경에 주의를 하다가 전방을 주시하지 못할 때가 있다.For example, the driver 10 may not be able to watch ahead while paying attention to some sight on the left or right side of the driver 10.

특히, 상기 운전자(10)는 스쿨존, 골목길 등의 차량의 속도가 높지 않은 지역에서 오히려 천천히 달리기 때문에 방심을 하고 전방을 주시하지 못하고 주변을 둘러볼때가 많다.In particular, since the driver 10 is running slowly in an area where the speed of the vehicle such as a school zone or an alleyway is not high, he / she is often distracted and can not look forward and look around.

그러나 상기 스쿨존, 골목길 등의 차량의 속도가 높지 않은 지역은 보행자(20)가 밀집한 지역이기 때문에 오히려 운전자(10)의 방심으로 사고가 발생한다.However, since the area where the speed of the vehicle such as the school zone or the alleyway is not high is an area where the pedestrian 20 is concentrated, an accident occurs due to the driver's intention.

그러므로 상기 서버(210)에서 운전자(10)가 전방을 주시하고 있지 않은데 동시에 보행자(20)가 나타나는 상황으로 판단되면, 운전자(10)에게 경고를 줌으로써 사고를 방지하기 한다.Therefore, if the server 210 determines that the driver 10 is not looking forward but the pedestrian 20 appears, the driver 10 is warned by preventing the accident.

상기 서버(210)는 카메라(100)를 통해 촬영된 영상의 움직이는 전방의 물체에 대하여 HOG(Histogram of oriented gradients) 특징을 이용한 후, 보행자 인식 알고리즘을 수행하여 움직이는 물체가 보행자(20)인 것으로 판단한다.The server 210 uses a Histogram of oriented gradients (HOG) feature for an object ahead of the moving image of the image captured through the camera 100 and then performs a pedestrian recognition algorithm to determine that the moving object is the pedestrian 20 do.

상기 HOG 특징은 연속적인 영상에서 물체에 대한 변화도를 판단하여 Local Histogram을 생성하고, 상기 Local Histogram을 연속하게 연결하여 1차원 벡터를 생성하는 것이다.The HOG feature generates a local histogram by determining a degree of change with respect to an object in a continuous image, and generates a one-dimensional vector by continuously connecting the local histogram.

그러므로 상기 서버(210)는 HOG 특징을 이용하여 생성된 1차원 벡터를 통하여 보행자 인식 알고리즘을 사용하고, 상기 보행자 인식 알고리즘을 통해 움직이는 물체를 판단하여 보행자(20)인 것으로 판단하는 것이다.Therefore, the server 210 uses the pedestrian recognition algorithm through the one-dimensional vector generated using the HOG feature, determines an object moving through the pedestrian recognition algorithm, and determines that the object is the pedestrian 20.

도 6은 보행자 테스트 데이터에 대해 HOG 특징을 수행하여 보행자(20)를 인식한 결과를 보여주고 있다.6 shows a result of recognition of the pedestrian 20 by performing the HOG feature on the pedestrian test data.

상기 서버(210)는 운전자(10)의 시선 방향과 보행자(20)의 출현 위치를 통해 운전자(10)가 보행자(20)를 인식하지 못한 것으로 판단되면, 운전자(10)에게 알릴 수 있도록 스마트기기(300)로 신호를 전송하여, 스마트기기(300)에서 알람, 경고음 등의 소리, 또는 진동을 통해 운전자(10)에게 경고하는 것이다. The server 210 notifies the driver 10 that the driver 10 can not recognize the pedestrian 20 through the sight line direction of the driver 10 and the appearance position of the pedestrian 20, The smart device 300 transmits a signal to the smart device 300 to warn the driver 10 through an alarm, a warning sound, or a vibration.

실시예로서, 상기 서버(210)는 영상데이터를 통해 확인한 결과, 오른쪽에 보행자(20)가 출현하였음을 인식하였는데, 운전자(10)의 고개가 반대로 왼쪽으로 돌아가 있을 때 운전자(10)가 보행자(20)를 인식하지 못한 것으로 판단하여 스마트기기(300)로 신호를 전달하게 된다.The server 210 recognizes that the pedestrian 20 has appeared on the right side as a result of checking through the image data. When the driver 10 turns to the left, 20) and notifies the smart device 300 of the signal.

그리고 상기 스마트기기(300)로 신호를 전달받아 알람을 울려서 운전자(10)에게 경고를 준다.A signal is received by the smart device 300 and an alarm is sounded to alert the driver 10.

상기 서버(210)는 운전자(10)의 고개의 방향은 얼굴영역의 크기와 눈의 인식여부를 통해 알 수 있거나, 또는 얼굴영역의 중앙점과 눈들의 중심간의 거리의 차이로 알 수 있다. The direction of the head of the driver 10 can be determined by the size of the face area and the recognition of the eyes or the difference of the distance between the center point of the face area and the center of the eyes.

예를 들어, 상기 얼굴영역의 중앙점과 눈들의 중심들 간의 거리의 차이가 없으면 운전자(10)가 정면을 바라보고 있는 것으로 판단되며, 얼굴영역의 중앙점과 눈들의 중심들 간의 거리의 차이가 이전보다 많으면 얼굴을 한 방향으로 돌린 상황으로 인식할 수 있다.For example, if there is no difference in the distance between the center point of the face area and the center of the eyes, it is determined that the driver 10 is facing the front, and the difference between the center point of the face area and the centers of the eyes If it is larger than the previous one, it can be recognized that the face is turned in one direction.

상기 스마트기기(300)는 거치하여 사용하거나, 또는 차량의 전면 유리에 영상을 비출 수 있도록 헤드업디스플레이로 사용할 수 있다.The smart device 300 may be used as a stand-up display, or may be used as a head-up display to emit an image on the windshield of a vehicle.

상기 스마트기기(300)를 거치하여 사용하는 것으로, 상기 차량 내부에 따로 구비된 스마트기기 거치대에 스마트기기(300)를 거치하여 운전자가 운전시 스마트기기(300)를 손으로 잡고 있지 않더라도 스마트기기(300)의 영상이 운전자에게 잘 보일 수 있도록 하는 것이다.The smart device 300 is mounted on the smart device 300 so that the smart device 300 can be mounted on the smart device 300 separately from the smart device 300, 300) is visible to the driver.

상기 스마트기기(300)를 헤드업디스플레이로 사용하는 것으로, 상기 차량의 전면유리는 스마트기기(300)에서 출력되는 영상이 운전자에게 보일 수 있도록 윈드실드가 시공된 것을 사용하며, 차량의 전면유리 아래쪽의 대쉬보드에는 영상을 출력하는 스마트기기(300)를 디스플레이부가 차량 전면 유리방향으로 향하게 거치할 수 있도록 거치대가 설치되거나 또는 거치홈이 형성된다.The smart device 300 is used as a head-up display. The front glass of the vehicle uses a windshield constructed so that an image output from the smart device 300 can be seen by a driver. The dashboard is provided with a cradle or a mounting groove for mounting the smart device 300 for outputting an image so that the display unit faces the front glass of the vehicle.

그리고 상기 차량 전면 유리방향으로 스마트기기(300)의 디스플레이부가 향하도록 스마트기기(300)를 거치대 또는 거치홈에 거치한 후, 스마트기기(300)의 디스플레이부에서 출력되는 영상이 윈드실드가 시공된 차량의 전면유리에 반사되어 운전자에게 보이게 되는 것이다.The image output from the display unit of the smart device 300 is displayed on the display unit of the smart device 300 after the smart device 300 is mounted in the cradle or the mounting groove so that the display unit of the smart device 300 faces the vehicle front- It is reflected on the windshield of the vehicle and is visible to the driver.

특히, 상기 스마트기기(300)의 디스플레이부에서 출력되는 영상은 유리에 비추어 반사될 시 사용자에게 좌우가 반전되어 보이지 않도록, 좌우가 반전된 영상을 사용하는 것이다.In particular, when the image output from the display unit of the smart device 300 is reflected in the direction of the glass, the left and right inverted images are used so that the user can not see the inverted images.

따라서 본 발명 안전운전 보조 시스템 및 그 동작방법은 두 개 이상의 카메라 센서를 통해 운전자와 보행자를 동시에 인식하되, 하나 이상 카메라 센서는 운전자의 얼굴과 눈을 인식하며, 다른 하나 이상의 카메라 센서는 전방의 보행자를 인식하는 것으로, 운전자의 시선을 통해 운전자가 운전에 집중하지 못하거나, 보행자가 전방에 있으면 위험상황을 피할 수 있도록 운전자에게 알려주어 운전자를 보조함으로써, 보행자 사고 및 졸음운전 사고를 미연에 방지할 수 있는 현저한 효과가 있다.Accordingly, the safe driving assist system and the operation method of the present invention simultaneously recognize the driver and the pedestrian through two or more camera sensors, one or more camera sensors recognize the driver's face and eyes, By informing the driver that the driver can not concentrate on the driving through the driver's eyes or avoid the dangerous situation when the pedestrian is in front of the driver, the driver is assisted to prevent the pedestrian accident and the sleepy driving accident There is a remarkable effect that can be.

10 : 운전자
20 : 보행자
100 : 카메라
200 : 싱글보드컴퓨터
210 : 서버
300 : 스마트기기
10: Driver
20: Pedestrians
100: camera
200: Single board computer
210: Server
300: Smart device

Claims (5)

삭제delete 삭제delete 차량 내부에 운전자(10)와 보행자(20)를 동시에 인식하도록 차량 내부에 설치된 카메라(100)를 통해 취득되는 영상데이터를 싱글보드컴퓨터(200)의 서버로 전달되고, 상기 서버에서는 영상처리 알고리즘을 통해 분석된 데이터를 기반으로 위험상황이라고 판단될 경우, 스마트기기(300)에 정보를 전달하여 스마트기기(300)에서 UI, 소리, 또는 진동을 통해 운전자(10)에게 알려주도록 하는 안전운전 보조 시스템 동작방법에 있어서,
상기 카메라(100)는 차량 내부에서 운전자(10)와 보행자(20)를 동시에 인식하도록 설치되어 영상데이터를 촬영하고 상기 싱글보드컴퓨터(200)에는 카메라(100)의 영상데이터를 영상처리 알고리즘을 통해 분석하는 서버(210)가 설치되고, 상기 스마트기기(300)는 싱글보드컴퓨터(200)에서 신호를 받아 운전자(10)에게 알려주는 것이며,
상기 싱글보드컴퓨터(200)는 카메라(100)에서 영상데이터를 서버(210)로 전송하기 위해서 JAVA언어 기반인 것을 사용하되, 라즈베리파이를 사용하는 것으로, 상기 라즈베리파이는 보드에 통신부, 제어부, 전원부, 커넥터, 및 핀이 구비되며, 상기 커넥터에는 따로 구비한 입출력장치를 연결할 수 있으며, 상기 핀은 다수 개가 구비되어 각각의 핀에 센서 또는 모듈을 결합할 수 있으며, 상기 모듈 중에서 무선통신모듈을 통해 입출력장치에 무선으로 연결할 수 있는 것이며,
상기 서버(210)에서 스마트기기에 정보를 전달하기 위해서는 블루투스 방식의 무선통신방식이나, 커넥트를 통한 연결을 통한 유선통신방식을 사용할 수 있는 것이며,
상기 카메라(100)는 운전자(10)와 보행자(20)를 동시에 인식할 수 있도록 다방향 감지 카메라 또는 다수의 카메라를 사용하는 것으로, 상기 다방향 감지 카메라는 하나의 카메라에 카메라센서가 다수 개가 내장되어 주변을 촬영하되, 360˚카메라를 사용하는 것이며, 상기 다수의 카메라는 하나 이상을 차량 전방의 보행자(20)를 인식하도록 설치하고, 하나 이상을 운전자(10)의 얼굴과 눈을 인식하도록 설치하는 것이며,
상기 카메라(100)를 통해 취득되는 영상데이터를 싱글보드컴퓨터(200)의 서버(210)로 전달되고, 상기 싱글보드컴퓨터(200) 자체에 서버(210)가 설치되어 있어 자체적으로 영상처리 알고리즘을 통해 영상을 분석하거나, 또는 상기 싱글보드컴퓨터(200)를 통해 서버(210)가 설치된 외부의 기기로 전달되어 외부의 기기에 설치된 서버(210)에서 영상처리 알고리즘을 통해 영상데이터를 분석하는 것이며,
상기 서버(210)는 영상데이터에서 운전자(10)의 얼굴 부분을 인식하되, 고개의 각도와 눈동자를 집중적으로 감지하며, 상기 서버(210)는 눈을 감지할 때 하르 특징(Haar feature)을 판단한 후, 캐스케이드 분류기(CascadeClassifier)를 사용하여 눈, 코, 입, 및 얼굴영역을 인식하는 것이며, 상기 하르 특징은 두 눈은 어둡고 코는 명암이 밝다는 것을 이용하여 패턴을 구하는 것으로, 상기 캐스케이드 분류기는 하르 특징을 통해 구해진 패턴을 통해 눈, 코, 입, 및 얼굴영역을 파악할 수 있게 되는 것이며,
상기 서버(210)는 카메라(100)를 통해 촬영된 영상의 움직이는 전방의 물체에 대하여 HOG(Histogram of oriented gradients) 이용하여 생성된 1차원 벡터를 통하여 보행자 인식 알고리즘을 사용하고, 상기 보행자 인식 알고리즘을 통해 움직이는 물체를 판단하여 보행자(20)인 것으로 판단하는 것이며,
상기 HOG 특징은 연속적인 영상에서 물체에 대한 변화도를 판단하여 Local Histogram을 생성하고, 상기 Local Histogram을 연속하게 연결하여 1차원 벡터를 생성하는 것이며,
상기 서버(210)에서는 카메라(100)에서 촬영한 영상데이터를 통해 운전자(10) 얼굴의 방향과 눈을 판단하여 이벤트를 처리하는 것으로, 상기 서버(210)는 영상처리 알고리즘을 통해 눈을 인식하지 못하거나, 얼굴영역이 검출되지 않는 상황 중 하나 이상이 발생하였을 때를 위험상황으로 판단하여 소켓통신을 통해 스마트기기(300)로 값을 전달하는 것이며,
상기 스마트기기(300)에서는 값을 받아 이벤트 처리로 Google Map API를 통해 운전자(10)의 현재위치를 받아오며, 현재위치로부터 가장 가까운 휴식장소를 검색하며, 현재위치부터 휴식장소까지의 거리를 계산한 후, UI(User Interface)로 출력하는 것이며,
상기 스마트기기(300)에 출력되는 UI로서, 상기 스마트기기(300)의 화면에는 휴식장소의 명칭이 출력되며, 아래에는 해당 휴식장소까지 거리가 몇 미터 남았는지를 출력한 후 변하지 않으며, 우측에는 차량의 위치변화에 따라 실시간으로 거리를 변경하여 남은거리를 알려주는 것이며,
상기 서버(210)는 운전자(10)의 시선 방향과 보행자(20)의 출현 위치를 통해 운전자(10)가 보행자(20)를 인식하지 못한 것으로 판단되면, 운전자(10)에게 알릴 수 있도록 스마트기기(300)로 신호를 전송하여, 스마트기기(300)에서 소리, 또는 진동을 통해 운전자(10)에게 경고하는 것으로,
상기 서버(210)는 영상데이터를 통해 확인한 결과, 오른쪽에 보행자(20)가 출현하였음을 인식하였는데, 운전자(10)의 고개가 반대로 왼쪽으로 돌아가 있을 때 운전자(10)가 보행자(20)를 인식하지 못한 것으로 판단하여 스마트기기(300)로 신호를 전달하게 되고, 상기 스마트기기(300)는 신호를 전달받아 알람을 울려서 운전자(10)에게 경고를 주는 것이며,
운전자(10)의 고개의 방향은 얼굴영역의 크기와 눈의 인식여부를 통해 알 수 있거나, 또는 얼굴영역의 중앙점과 눈들의 중심간의 거리의 차이로 알 수 있는 것으로, 상기 얼굴영역의 중앙점과 눈들의 중심들 간의 거리의 차이가 없으면 운전자(10)가 정면을 바라보고 있는 것으로 판단되며, 얼굴영역의 중앙점과 눈들의 중심들 간의 거리의 차이가 이전보다 많으면 얼굴을 한 방향으로 돌린 상황으로 판단하는 것이며,
상기 스마트기기(300)는 거치하여 사용하거나, 또는 차량의 전면 유리에 영상을 비출 수 있도록 헤드업디스플레이로 사용할 수 있는 것으로,
상기 스마트기기(300)를 거치하여 사용할 경우, 상기 차량 내부에 따로 구비된 스마트기기 거치대에 스마트기기(300)를 거치하여 운전자가 운전시 스마트기기(300)를 손으로 잡고 있지 않더라도 스마트기기(300)의 영상이 운전자에게 잘 보일 수 있도록 하는 것이며,
상기 스마트기기(300)를 헤드업디스플레이로 사용할 경우, 상기 차량의 전면유리는 스마트기기(300)에서 출력되는 영상이 운전자에게 보일 수 있도록 윈드실드가 시공된 것을 사용하며, 차량의 전면유리 아래쪽의 대쉬보드에는 영상을 출력하는 스마트기기(300)를 디스플레이부가 차량 전면 유리방향으로 향하게 거치할 수 있도록 거치대가 설치되거나 또는 거치홈이 형성되고, 상기 차량 전면 유리방향으로 스마트기기(300)의 디스플레이부가 향하도록 스마트기기(300)를 거치대 또는 거치홈에 거치한 후, 스마트기기(300)의 디스플레이부에서 출력되는 영상이 윈드실드가 시공된 차량의 전면유리에 반사되어 운전자에게 보이게 되는 것이며,
상기 스마트기기(300)의 디스플레이부에서 출력되는 영상은 유리에 비추어 반사될 시 사용자에게 좌우가 반전되어 보이지 않도록, 좌우가 반전된 영상을 사용하는 것을 특징으로 하는 안전운전 보조 시스템 동작방법
Video data acquired through the camera 100 installed inside the vehicle so as to simultaneously recognize the driver 10 and the pedestrian 20 inside the vehicle is transmitted to the server of the single board computer 200, A safety driving assistant system 300 for transmitting information to the smart device 300 and informing the driver 10 through UI, sound, or vibration in the smart device 300, In an operating method,
The camera 100 is installed to recognize the driver 10 and the pedestrian 20 at the same time in the vehicle and photographs the image data. The image data of the camera 100 is transmitted to the single board computer 200 through an image processing algorithm The smart device 300 receives a signal from the single board computer 200 and notifies the driver 10 of the received signal,
The single board computer 200 uses the JAVA language based image data to transmit the image data from the camera 100 to the server 210, and uses Raspberry pie. The Raspberry pie includes a communication unit, a control unit, A connector, and a pin, and the input / output device may be connected to the connector, and a plurality of pins may be provided to couple a sensor or a module to each pin, and among the modules, It can connect wirelessly to the input / output device,
In order to transmit information to the smart device from the server 210, a wireless communication method using a Bluetooth method or a wired communication method using a connection through a connection can be used.
The camera 100 uses a multi-directional sensing camera or a plurality of cameras so that the driver 10 and the pedestrian 20 can be simultaneously recognized. The multi-directional sensing camera includes a plurality of camera sensors The camera is installed so that at least one of the cameras recognizes the pedestrian 20 in front of the vehicle, and one or more cameras are installed to recognize the face and eyes of the driver 10 However,
The image data acquired through the camera 100 is transmitted to the server 210 of the single board computer 200 and the server 210 is installed in the single board computer 200 itself to perform an image processing algorithm Or transmitted to an external device equipped with the server 210 through the single board computer 200 and analyzed by the server 210 installed in the external device through the image processing algorithm,
The server 210 recognizes the facial portion of the driver 10 from the image data and intensively detects the angle and pupil of the head. The server 210 determines the Haar feature And then recognizing the eyes, nose, mouth, and face area using a cascade classifier, wherein the harsh feature is obtained by using the fact that the eyes are dark and the nose is bright and the cascade classifier The eye, nose, mouth, and face area can be grasped through the pattern obtained through the Haar feature,
The server 210 uses a pedestrian recognition algorithm using a one-dimensional vector generated using HOG (Histogram of oriented gradients) for an object in front of a moving image of an image photographed through the camera 100, Judges the moving object to be the pedestrian 20,
The HOG feature generates a local histogram by determining a degree of change with respect to an object in a continuous image, and generates a one-dimensional vector by continuously connecting the local histogram,
The server 210 processes the event by determining the direction and the face of the face of the driver 10 through the image data photographed by the camera 100. The server 210 recognizes the eyes through the image processing algorithm The face area is not detected, it is determined that it is a dangerous situation, and the value is transmitted to the smart device 300 through the socket communication,
The smart device 300 receives the value, receives the current position of the driver 10 through the Google Map API through event processing, searches for the closest place from the current position, calculates the distance from the current position to the resting place , And then outputting to the UI (User Interface)
The name of the resting place is displayed on the screen of the smart device 300 as a UI output to the smart device 300. The name of the resting place is displayed on the screen of the smart device 300, It changes the distance in real time according to the change of the position of the vehicle and informs the remaining distance,
The server 210 notifies the driver 10 that the driver 10 can not recognize the pedestrian 20 through the sight line direction of the driver 10 and the appearance position of the pedestrian 20, The smart device 300 transmits a signal to the smart device 300 to warn the driver 10 through sound or vibration,
The server 210 recognizes that the pedestrian 20 has appeared on the right side as a result of checking through the image data. When the driver 10 recognizes the pedestrian 20 when the head of the driver 10 is reversely turned to the left And transmits a signal to the smart device 300. The smart device 300 receives a signal and sounds an alarm to alert the driver 10,
The direction of the head of the driver 10 can be determined by the size of the face area and the recognition of the eyes or by the difference in the distance between the center point of the face area and the center of the eyes. If the distance between the center of the face area and the centers of the eyes is greater than the previous one, the face is turned in one direction And,
The smart device 300 can be used as a head-up display to mount or use the image on a front glass of a vehicle.
When the smart device 300 is used, the smart device 300 may be mounted on the smart device 300 separately installed in the vehicle so that the smart device 300 ) Is displayed to the driver,
When the smart device 300 is used as a head-up display, the front glass of the vehicle uses a windshield constructed so that an image output from the smart device 300 can be seen by the driver, The display unit of the smart device 300 may be mounted on the dashboard in a direction of the vehicle front glass so that the smart device 300 for outputting an image may be mounted on the display unit in the direction of the front glass of the vehicle, The image output from the display unit of the smart device 300 is reflected on the windshield of the vehicle on which the windshield is installed and is visible to the driver,
Wherein the image output from the display unit of the smart device (300) uses left and right inverted images so that the left and right inverted images are not visible to the user when reflected by the glass
삭제delete 삭제delete
KR1020160105469A 2016-08-19 2016-08-19 safe driving support system operating method KR101821496B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160105469A KR101821496B1 (en) 2016-08-19 2016-08-19 safe driving support system operating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160105469A KR101821496B1 (en) 2016-08-19 2016-08-19 safe driving support system operating method

Publications (1)

Publication Number Publication Date
KR101821496B1 true KR101821496B1 (en) 2018-03-08

Family

ID=61726240

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160105469A KR101821496B1 (en) 2016-08-19 2016-08-19 safe driving support system operating method

Country Status (1)

Country Link
KR (1) KR101821496B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108521556A (en) * 2018-03-30 2018-09-11 北京林业大学 Intelligent-tracking monitoring camera based on embedded system
KR101940224B1 (en) * 2018-03-21 2019-01-18 주식회사 이지에버텍 Remote management system for providing automatic notice function for internal state of manhole
KR102020732B1 (en) * 2018-08-08 2019-09-10 경남대학교 산학협력단 CCTV that records and informs of unusual events
WO2020017716A1 (en) * 2018-07-20 2020-01-23 엘지전자 주식회사 Robot for vehicle and method for controlling same
KR20200010817A (en) 2018-07-23 2020-01-31 숭실대학교산학협력단 Method for detecting vehicle of accident risk in tunnel, recording medium and device for performing the method
WO2020086015A1 (en) * 2018-10-22 2020-04-30 Innomel Muhendislik Sanayi Ve Ticaret Limited Sirketi A system that perceives, reports fatigue and distraction of the driver and processes big data and a method of its implementation
CN112829754A (en) * 2021-01-21 2021-05-25 浙江合众新能源汽车有限公司 Vehicle-mounted intelligent robot and running method thereof
WO2024085505A1 (en) * 2022-10-17 2024-04-25 연세대학교 산학협력단 Method and device for determining whether face is frontal for dynamic smile analysis

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012500154A (en) * 2008-08-19 2012-01-05 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Hybrid drive system
JP4888382B2 (en) * 2007-12-28 2012-02-29 オムロン株式会社 Abnormality detection apparatus and method, and program
KR101513878B1 (en) * 2014-03-19 2015-04-22 (주)디지탈엣지 Radar apparatus, collision avoidance and accident recode method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4888382B2 (en) * 2007-12-28 2012-02-29 オムロン株式会社 Abnormality detection apparatus and method, and program
JP2012500154A (en) * 2008-08-19 2012-01-05 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Hybrid drive system
KR101513878B1 (en) * 2014-03-19 2015-04-22 (주)디지탈엣지 Radar apparatus, collision avoidance and accident recode method thereof

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101940224B1 (en) * 2018-03-21 2019-01-18 주식회사 이지에버텍 Remote management system for providing automatic notice function for internal state of manhole
CN108521556A (en) * 2018-03-30 2018-09-11 北京林业大学 Intelligent-tracking monitoring camera based on embedded system
WO2020017716A1 (en) * 2018-07-20 2020-01-23 엘지전자 주식회사 Robot for vehicle and method for controlling same
US11318961B2 (en) 2018-07-20 2022-05-03 Lg Electronics Inc. Robot for vehicle and control method thereof
KR20200010817A (en) 2018-07-23 2020-01-31 숭실대학교산학협력단 Method for detecting vehicle of accident risk in tunnel, recording medium and device for performing the method
KR102020732B1 (en) * 2018-08-08 2019-09-10 경남대학교 산학협력단 CCTV that records and informs of unusual events
WO2020086015A1 (en) * 2018-10-22 2020-04-30 Innomel Muhendislik Sanayi Ve Ticaret Limited Sirketi A system that perceives, reports fatigue and distraction of the driver and processes big data and a method of its implementation
CN112829754A (en) * 2021-01-21 2021-05-25 浙江合众新能源汽车有限公司 Vehicle-mounted intelligent robot and running method thereof
CN112829754B (en) * 2021-01-21 2023-07-25 合众新能源汽车股份有限公司 Vehicle-mounted intelligent robot and operation method thereof
WO2024085505A1 (en) * 2022-10-17 2024-04-25 연세대학교 산학협력단 Method and device for determining whether face is frontal for dynamic smile analysis

Similar Documents

Publication Publication Date Title
KR101821496B1 (en) safe driving support system operating method
US10800424B2 (en) Driver condition detection system
US10572746B2 (en) Apparatus detecting driving incapability state of driver
CN108639055B (en) The control method of the display system of the display system and vehicle of vehicle
JP7099037B2 (en) Data processing equipment, monitoring system, awakening system, data processing method, and data processing program
CN108621794A (en) The control method of the display system of vehicle and the display system of vehicle
US10671868B2 (en) Vehicular vision system using smart eye glasses
TWI522257B (en) Vehicle safety system and operating method thereof
CN108621922A (en) The control method of the display system of vehicle and the display system of vehicle
CN113316805A (en) Method and system for monitoring a person using infrared and visible light
Chang et al. An implementation of smartphone-based driver assistance system using front and rear camera
WO2019155913A1 (en) Data processing device, monitoring system, alertness system, data processing method, data processing program, and storage medium
WO2019155914A1 (en) Data processing device, monitoring system, alertness system, data processing method, data processing program, and storage medium
JP6120444B2 (en) Wearable device
JP2012114755A (en) Head-mounted display and computer program
JP2005284975A (en) Traveling safety device
US11807264B2 (en) Driving assistance apparatus, driving assistance method, and medium
JP6321848B2 (en) Wearable device
JP7234614B2 (en) Anomaly detection device, anomaly detection system and anomaly detection program
JP7276082B2 (en) Driver state estimation device
JP7298351B2 (en) State determination device, in-vehicle device, driving evaluation system, state determination method, and program
KR102084329B1 (en) Infant monitoring method in vehicle and the system thereof
US20230206658A1 (en) Apparatus, method, and computer program for determining driver's behavior
Nair et al. Smart System for Drowsiness and Accident Detection
JP7363378B2 (en) Driving support device, driving support method, and driving support program

Legal Events

Date Code Title Description
GRNT Written decision to grant