KR101821496B1 - safe driving support system operating method - Google Patents
safe driving support system operating method Download PDFInfo
- Publication number
- KR101821496B1 KR101821496B1 KR1020160105469A KR20160105469A KR101821496B1 KR 101821496 B1 KR101821496 B1 KR 101821496B1 KR 1020160105469 A KR1020160105469 A KR 1020160105469A KR 20160105469 A KR20160105469 A KR 20160105469A KR 101821496 B1 KR101821496 B1 KR 101821496B1
- Authority
- KR
- South Korea
- Prior art keywords
- driver
- smart device
- pedestrian
- server
- camera
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K28/00—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
- B60K28/02—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
- B60K28/06—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/34—Protecting non-occupants of a vehicle, e.g. pedestrians
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R25/00—Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
- B60R25/10—Fittings or systems for preventing or indicating unauthorised use or theft of vehicles actuating a signalling device
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W50/16—Tactile feedback to the driver, e.g. vibration or force feedback to the driver on the steering wheel or the accelerator pedal
-
- B60K2350/2013—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R2021/003—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks characterised by occupant or pedestian
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/101—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using cameras with adjustable capturing direction
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/105—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/8033—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for pedestrian protection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0818—Inactivity or incapacity of driver
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Automation & Control Theory (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 발명은 안전운전 보조 시스템 동작방법에 관한 것으로, 보다 상세하게는 두 개 이상의 카메라 센서를 통해 운전자와 보행자를 동시에 인식하되, 하나 이상 카메라 센서는 운전자의 얼굴과 눈을 인식하며, 다른 하나 이상의 카메라 센서는 전방의 보행자를 인식하는 것으로, 운전자의 시선을 통해 운전자가 운전에 집중하지 못하거나, 보행자가 전방에 있으면 위험상황을 피할 수 있도록 운전자에게 알려주어 운전자를 보조함으로써, 보행자 사고 및 졸음운전 사고를 미연에 방지할 수 있는 안전운전 보조 시스템 동작방법에 관한 것이다.More particularly, the present invention relates to a method of operating a safe driving assist system, and more particularly, to a method of operating a safe driving assist system by recognizing a driver and a pedestrian through two or more camera sensors, The sensor recognizes the pedestrian in front and informs the driver to avoid the dangerous situation when the driver can not concentrate on driving through the driver's gaze or if the pedestrian is in front of the driver so that the pedestrian accident and the sleepy driving accident And more particularly, to a method of operating a safe driving assist system which can prevent a driving assist system from occurring.
일반적으로 운전자가 졸음운전을 하여 졸음운전 사고가 발생하거나, 운전자가 전방을 주시하지 않았을 경우 보행자 사고가 발생하는 등 운전자가 운전에 집중하지 못할 경우에 사고가 발생하고 있다.Generally, an accident occurs when a sleeping driving accident occurs when a driver drives a drowsy driver, or when a driver can not concentrate on driving, for example, a pedestrian accident occurs when the driver does not watch ahead.
상기 보행자 사고 중 특히 사고가 자주 발생하는 장소는 스쿨존이다.In the pedestrian accidents, the place where accidents occur frequently is the school zone.
상기 스쿨존에서 사고율은 전체 보행자 사고 비율에서 58%를 차지하고 있으며, 이 중 초등학교 입학생인 만7세 어린이 사고비율이 13.2%로 가장 높게 나타났다.In the school zone, the accident rate accounted for 58% of the total pedestrian accident rate, and the incidence rate of children aged 7 years old, who entered elementary school, was the highest at 13.2%.
상기 보행자 사고는 운전자가 전방을 제대로 주시하지 않아 보행자가 나타났을 때를 인식하지 못하기 때문에 사고가 발생하고 있는 실정이다.The pedestrian accident is an accident because the driver can not recognize when the pedestrian appears because the driver does not pay attention to the front.
그리고 상기 졸음운전 사고도 자주 발생하는데, 운전자로서는 짧은 시간이지만, 운전자가 통제하지 않은 차량은 속도가 유지되거나 운전자가 무의식적으로 엑셀을 더 누르게되어 차량의 속도가 증가된다.Also, the drowsiness driving accident often occurs. However, the driver is a short time but the speed of the vehicle not controlled by the driver is maintained or the driver unconsciously presses the accelerator more frequently, thereby increasing the speed of the vehicle.
이때, 상기 차량은 짧은 시간이지만 질주하는 것으로, 주변의 차나 보행자에게 큰 위협이 될 수 있다. At this time, although the vehicle is running for a short time, it can become a serious threat to a car or pedestrian around the vehicle.
실제로 운전자가 약 5초 정도를 졸 경우, 시속 60km인 차량은 약 80m를 시속 100km인 경우는 약 140m를 운전자가 없는 상태로 이동한 것과 같다.In fact, if a driver loses about 5 seconds, a vehicle with a speed of 60 km per hour is about 80 m, and a speed of 100 km per hour is about 140 m without a driver.
그러므로 운전자가 운전에 집중하지 못할 경우에 발생하는 위험상황을 피할 수 있도록 할 필요가 있다.Therefore, it is necessary to be able to avoid dangerous situations that occur when the driver can not concentrate on driving.
종래기술로서 등록실용신안공보 등록번호 제20-0418306호의 졸음운전 경보장치에는, 모자에 장착할 수 있는 고정수단을 구비한 하우징과; 하우징의 내부에 고정된 PCB와; 상기 PCB에 장착된 모션센서와; 상기 PCB에 장착된 마이크로프로세서와; 상기 하우징에 장착된 경보장치를 구비하여; 모션센서로부터 착용자의 움직임을 연속적으로 감지하고, 착용자의 움직임을 평상시의 움직임과 다른 졸음운전의 특징적인 움직임으로 판단하였을 때, 경보를 내어주는 제어프로그램을 마이크로프로세서에 내장한 것을 특징으로 하는 졸음운전 방지용 경보장치라고 기재되어 있다.As a conventional art, the drowsiness operation alarm device of Registration Practical Utility Model Registration No. 20-0418306 includes a housing having fixing means capable of being attached to a cap; A PCB secured within the housing; A motion sensor mounted on the PCB; A microprocessor mounted on the PCB; An alarm device mounted on the housing; A control program for generating an alarm when a wearer's movement is continuously sensed from a motion sensor and the movement of the wearer is determined to be a characteristic movement of a drowsy operation other than a normal movement is incorporated in a microprocessor Prevention alarm device.
다른 종래기술로서 등록특허공보 등록번호 제10-1344034호의 보행자 인식기반 사고방지 시스템 및 그 제어 방법에는, 적어도 하나의 제 1 영상을 촬영하는 카메라; 상기 제 1 영상에 제 1 구역이 포함되어 있는 경우, 상기 제 1 영상에 포함된 적어도 하나의 제 1 보행자를 검출하고, 상기 검출한 제 1 보행자를 추적하며, 상기 추적한 제 1 보행자가 상기 제 1 구역의 적어도 일부에 위치하는지 여부를 판단하는 제어부; 상기 추적한 제 1 보행자가 상기 제 1 구역의 적어도 일부에 위치하는 경우, 상기 제어부의 제어에 따라 상기 제 1 보행자에게 위험을 알리는 제 1 정보를 출력하는 출력부; 위치정보모듈; 및 무선통신부;를 포함하되, 상기 제어부는, 상기 제 1 영상에 대한 특징벡터를 추정하고, 상기 추정한 특징벡터가 적용되는 아다부스트(adaboost) 알고리즘 및 SVM 알고리즘을 이용하여 상기 제 1 보행자를 검출하며, 상기 검출한 제 1 보행자에 대해 평균 시프트(Mean shift) 알고리즘을 적용하여 상기 제 1 보행자를 추적하고, 상기 제어부는, 상기 제 1 영상에 포함된 적어도 하나의 제 1 차량을 검출하고, 상기 검출한 제 1 보행자 및 제 1 차량을 함께 추적하며, 상기 제 1 보행자와 제 1 차량의 충돌 여부를 판단하고, 상기 제 1 보행자와 제 1 차량이 충돌되었다고 판단된 경우, 상기 제어부는, 상기 위치정보모듈을 이용하여 상기 충돌 위치 정보를 획득하고, 상기 무선통신부를 통해 상기 충돌 위치 정보 및 상기 충돌 사실을 알리는 정보가 기 설정된 외부기관으로 전송되도록 제어하는 것을 특징으로 하는, 보행자 인식을 통한 방범 시스템이라고 기재되어 있다.As another prior art, a pedestrian recognition-based accident prevention system and control method thereof of Patent Registration No. 10-1344034 includes a camera for photographing at least one first image; Detecting at least one first pedestrian included in the first image and tracking the detected first pedestrian when the first image includes the first zone, A control unit for determining whether or not the at least one portion of the first zone is located; An output unit for outputting first information informing the first pedestrian of the danger under the control of the control unit when the tracked first pedestrian is located at least a part of the first zone; Location information module; Wherein the controller estimates a feature vector for the first image and detects the first pedestrian using an adaboost algorithm and an SVM algorithm to which the estimated feature vector is applied, Wherein the control unit tracks the first pedestrian by applying a mean shift algorithm to the detected first pedestrian, the control unit detects at least one first vehicle included in the first image, The first pedestrian and the first vehicle are detected together and the collision between the first pedestrian and the first vehicle is judged and when it is judged that the first pedestrian and the first vehicle have collided with each other, Information on the collision position information and the collision information through the wireless communication unit, Characterized in that the control to be transmitted, it is described that the security system via the pedestrian recognition.
그러나 상기와 같은 종래의 발명은 운전자의 졸음을 방지하기 위해서 운전자가 착용하거나 사용자에게 닿도록 설치됨으로써 사용자게 맞는 크기로 제작해야 하며, 사용시에 불편할 뿐만 아니라, 방향, 속도, 및 시간을 통해 판단함으로써 운전자의 졸음상태를 정확하게 판단하지 못하며, 또한, 운전자에게 닿지 않도록 설치된 카메라는 차량 전방의 장애물 및 보행자를 감지하는 것으로, 운전자가 졸고 있거나 다른 사람이랑 이야기하는 등 시선이 전혀 다른 곳에 있어 운전에 집중하지 못하는 경우에는 확인할 수 없어 사고의 위험성이 높은 문제점이 있었다.However, in order to prevent the driver from drowsy, the driver of the related art as described above must be worn by a driver or placed in contact with a user so as to be manufactured in a proper size, and not only inconvenient at the time of use but also be determined by direction, speed and time The camera installed so that it can not accurately determine the drowsy state of the driver and the camera which is installed so as not to reach the driver detects obstacles and pedestrians in front of the vehicle and focuses on the driving because the driver is sleeping or talking with another person, It can not be confirmed that there is a high risk of accidents.
따라서 본 발명 안전운전 보조 시스템 및 그 동작방법을 통하여, 두 개 이상의 카메라 센서를 통해 운전자와 보행자를 동시에 인식하되, 하나 이상 카메라 센서는 운전자의 얼굴과 눈을 인식하며, 다른 하나 이상의 카메라 센서는 전방의 보행자를 인식하는 것으로, 운전자의 시선을 통해 운전자가 운전에 집중하지 못하거나, 보행자가 전방에 있으면 위험상황을 피할 수 있도록 운전자에게 알려주어 운전자를 보조함으로써, 보행자 사고 및 졸음운전 사고를 미연에 방지할 수 있는 안전운전 보조 시스템 및 그 동작방법을 제공하고자 하는 것이다.Accordingly, the driver and the pedestrian are simultaneously recognized through two or more camera sensors, one or more camera sensors recognize the face and eyes of the driver through the safety driving assist system and the operation method of the present invention, The driver is notified that the driver can not concentrate on the driving through the driver's gaze or if the driver is in front of the driver, the driver is informed to avoid the dangerous situation so that the driver can be assisted to prevent the pedestrian accident and the sleepy driving accident And a method of operating the same.
본 발명 안전운전 보조 시스템은 차량 내부에는 운전자(10)와 보행자(20)를 동시에 인식하도록 설치되어 영상데이터를 촬영하는 카메라(100)와; 상기 카메라(100)의 영상데이터를 영상처리 알고리즘을 통해 분석하는 서버(210)가 설치된 싱글보드컴퓨터(200)와; 상기 싱글보드컴퓨터(200)에서 신호를 받아 운전자(10)에게 알려주는 스마트기기(300); 로 이루어지는 것을 특징으로 한다.The safe driving assist system of the present invention includes a
그리고 본 발명 안전운전 보조 시스템 동작방법은 차량 내부에 운전자(10)와 보행자(20)를 동시에 인식하도록 차량 내부에 설치된 카메라(100)를 통해 취득되는 영상데이터를 싱글보드컴퓨터(200)의 서버(210)로 전달되고, 상기 서버(210)에서는 영상처리 알고리즘을 통해 분석된 데이터를 기반으로 위험상황이라고 판단될 경우, 스마트기기(300)에 정보를 전달하여 스마트기기(300)에서 UI, 소리, 또는 진동을 통해 운전자(10)에게 알려주도록 하는 것을 특징으로 한다.The method of operating the safe driving assist system according to the present invention is a method of operating the safe driving assist system in which the image data acquired through the
본 발명 안전운전 보조 시스템 및 그 동작방법은 두 개 이상의 카메라 센서를 통해 운전자와 보행자를 동시에 인식하되, 하나 이상 카메라 센서는 운전자의 얼굴과 눈을 인식하며, 다른 하나 이상의 카메라 센서는 전방의 보행자를 인식하는 것으로, 운전자의 시선을 통해 운전자가 운전에 집중하지 못하거나, 보행자가 전방에 있으면 위험상황을 피할 수 있도록 운전자에게 알려주어 운전자를 보조함으로써, 보행자 사고 및 졸음운전 사고를 미연에 방지할 수 있는 현저한 효과가 있다.The safety driving assist system and the operation method of the present invention simultaneously recognize a driver and a pedestrian through two or more camera sensors, one or more camera sensors recognize a driver's face and eyes, and the other one or more camera sensors detect a frontal pedestrian By recognizing, it is possible to prevent a pedestrian accident and a sleepy driving accident by informing the driver to avoid a dangerous situation when the driver can not concentrate on driving through the driver's gaze or if the pedestrian is ahead There is a remarkable effect.
도 1은 본 발명의 구성도
도 2는 본 발명의 라즈베리 파이의 사시도
도 3은 본 발명의 Haar Cascade를 이용한 얼굴인식을 하는 개념도
도 4는 본 발명의 졸음운전으로 판단될 경우의 UI 출력하는 개념도
도 5는 본 발명의 Haar Cascade를 이용하여 고개를 돌릴 시 얼굴인식을 하는 개념도
도 6은 본 발명의 OpenCV를 활용한 보행자 인식하는 개념도1 is a block diagram of the present invention
2 is a perspective view of the raspberry pie of the present invention
FIG. 3 is a conceptual diagram of face recognition using the Haar Cascade of the present invention
4 is a conceptual diagram illustrating UI output when it is determined that the drowsy driving of the present invention
FIG. 5 is a conceptual diagram of facial recognition when turning the head using the Haar Cascade of the present invention
6 is a conceptual diagram for recognizing a pedestrian using OpenCV of the present invention
본 발명 안전운전 보조 시스템은 차량 내부에는 운전자(10)와 보행자(20)를 동시에 인식하도록 설치되어 영상데이터를 촬영하는 카메라(100)와; 상기 카메라(100)의 영상데이터를 영상처리 알고리즘을 통해 분석하는 서버(210)가 설치된 싱글보드컴퓨터(200)와; 상기 싱글보드컴퓨터(200)에서 신호를 받아 운전자(10)에게 알려주는 스마트기기(300); 로 이루어지는 것을 특징으로 한다.The safe driving assist system of the present invention includes a
또한, 상기 카메라(100)는 운전자(10)와 보행자(20)를 동시에 인식할 수 있도록 다방향 감지 카메라 또는 다수의 카메라를 사용하는 것을 특징으로 한다.Also, the
본 발명 안전운전 보조 시스템 동작방법은 차량 내부에 운전자(10)와 보행자(20)를 동시에 인식하도록 차량 내부에 설치된 카메라(100)를 통해 취득되는 영상데이터를 싱글보드컴퓨터(200)의 서버(210)로 전달되고, 상기 서버(210)에서는 영상처리 알고리즘을 통해 분석된 데이터를 기반으로 위험상황이라고 판단될 경우, 스마트기기(300)에 정보를 전달하여 스마트기기(300)에서 UI, 소리, 또는 진동을 통해 운전자(10)에게 알려주도록 하는 것을 특징으로 한다.The method of operating the safe driving assist system of the present invention is a method of operating the safe driving assist system in which the image data acquired through the
또한, 상기 싱글보드컴퓨터(200)에는 서버(210)가 설치되어 있어 자체적으로 영상처리 알고리즘을 통해 영상데이터를 분석하는 것을 특징으로 한다.In addition, the
또한, 상기 싱글보드컴퓨터(200)는 JAVA언어를 사용하는 것을 특징으로 한다.Also, the
또한, 상기 서버(210)는 영상처리 알고리즘을 통해 눈을 인식하지 못하거나, 얼굴영역이 검출되지 않는 상황 중 하나 이상이 발생하였을 때를 위험상황으로 판단하여 소켓통신을 통해 스마트기기(300)로 값을 전달하는 것을 특징으로 한다.In addition, the
본 발명을 첨부 도면에 의해 상세히 설명하면 다음과 같다.The present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 구성도, 도 2는 본 발명의 라즈베리 파이의 사시도, 도 3은 본 발명의 Haar Cascade를 이용한 얼굴인식을 하는 개념도, 도 4는 본 발명의 졸음운전으로 판단될 경우의 UI 출력하는 개념도, 도 5는 본 발명의 Haar Cascade를 이용하여 고개를 돌릴 시 얼굴인식을 하는 개념도, 도 6은 본 발명의 OpenCV를 활용한 보행자 인식하는 개념도이다.2 is a perspective view of the raspberry pie of the present invention, Fig. 3 is a conceptual view of face recognition using the Haar Cascade of the present invention, Fig. 4 is a view showing a UI FIG. 5 is a conceptual diagram of facial recognition when turning the head using the Haar Cascade of the present invention, and FIG. 6 is a conceptual diagram of pedestrian recognition using OpenCV of the present invention.
본 발명에 대해 구체적으로 설명하면, 본 발명은 차량 내부에는 운전자(10)와 보행자(20)를 동시에 인식하도록 설치되어 영상데이터를 촬영하는 카메라(100)와; 상기 카메라(100)의 영상데이터를 영상처리 알고리즘을 통해 분석하는 서버(210)가 설치된 싱글보드컴퓨터(200)와; 상기 싱글보드컴퓨터(200)에서 신호를 받아 운전자(10)에게 알려주는 스마트기기(300); 로 이루어진다.The present invention will now be described more fully with reference to the accompanying drawings, in which: FIG. 1 is a block diagram of a camera system according to a first embodiment of the present invention; A
상기 서버(210)에서 스마트기기에 정보를 전달하기 위해서는 블루투스 등의 무선통신방식이나 커넥트를 통한 연결을 통한 유선통신방식을 사용할 수 있다.In order for the
상기 카메라(100)는 운전자(10)와 보행자(20)를 동시에 인식할 수 있도록 다방향 감지 카메라 또는 다수의 카메라를 사용한다.The
상기 다방향 감지 카메라는 하나의 카메라에 카메라센서가 다수 개가 내장되어 주변을 촬영하는 것이다.The multi-directional sensing camera has a plurality of camera sensors built into one camera to photograph the surroundings.
특히, 상기 다방향 감지 카메라는 360˚카메라를 사용할 수도 있다.In particular, the multi-directional sensing camera may use a 360 degree camera.
상기 다수의 카메라는 하나 이상을 차량 전방의 보행자(20)를 인식하도록 설치하고, 하나 이상을 운전자(10)의 얼굴과 눈을 인식하도록 설치하는 것이다.The plurality of cameras are installed so that at least one of the cameras recognizes the
그러므로 상기 다수의 카메라는 2개 이상의 카메라를 사용하는 것으로, 카메라의 설치 개수가 많아 질수록 더욱 정확하게 판단할 수 있게 된다.Therefore, the plurality of cameras use two or more cameras, and as the number of installed cameras increases, it becomes possible to determine more accurately.
상기 카메라(100)를 통해 취득되는 영상데이터를 싱글보드컴퓨터(200)의 서버(210)로 전달되고, 상기 싱글보드컴퓨터(200) 자체에 서버(210)가 설치되어 있어 자체적으로 영상처리 알고리즘을 통해 영상을 분석하거나, 또는 상기 싱글보드컴퓨터(200)를 통해 서버(210)가 설치된 외부의 기기로 전달되어 외부의 기기에 설치된 서버(210)에서 영상처리 알고리즘을 통해 영상데이터를 분석하는 것이다.The image data acquired through the
상기 싱글보드컴퓨터(200)는 라즈베리파이를 사용할 수 있다.The
상기 라즈베리파이는 교육용으로 사용되고 있는 싱글 보드 컴퓨터로써 가격이 저렴하며 크기가 소형이고, 모델에 따라 무게와 가격이 다르지만 일반적으로 가로 또는 세로의 길이가 10cm 이하이며 100g 미만의 무게를 가진다.The raspberry pie is a single board computer used for educational purposes. It is inexpensive, small in size, and different in weight and price depending on the model, but generally has a length or width of less than 10 cm and a weight of less than 100 g.
그리고 상기 라즈베리파이는 하나의 보드(single board)에 통신부, 제어부, 전원부, 커넥터, 핀 등이 구비된 것이나, 신용카드 정도의 크기를 가지며 부피가 작아 공간이 제한된 공간에서 사용하기에 적당하다.The raspberry pie is suitable for use in a space where a communication unit, a control unit, a power supply unit, a connector, a pin, and the like are provided on a single board, a size of a credit card is small, and a space is limited.
상기 싱글보드컴퓨터(200)는 커넥터에는 따로 구비한 입출력장치를 연결할 수 있으며, 핀은 다수 개가 구비되어 각각의 핀에 센서 또는 모듈을 결합할 수 있으며, 상기 모듈 중에서 무선통신모듈을 통해 입출력장치에 무선으로 연결할 수도 있다.The
상기 싱글보드컴퓨터(200)는 간단히 사용할 수 있는 하드웨어와 간편한 인터페이스가 적용된 소프트웨어를 사용하는 것으로, 영상통신에서 많이 사용되고 있다.The
그러므로 상기 싱글보드컴퓨터(200)는 무게가 가벼워 휴대가 간편하고, 부피도 적어 좁은 공간에도 설치하기가 간편하며, 특히 시야를 가리지도 않기에 공간이 제한된 차량 내부에 설치하기에도 적당하다.Therefore, the
상기 서버(210)에서는 영상처리 알고리즘을 통해 분석된 데이터를 기반으로 위험상황이라고 판단될 경우, 스마트기기(300)에 정보를 전달하여 스마트기기(300)에서 UI, 소리, 또는 진동을 통해 운전자(10)에게 알려주도록 하는 것이다.The
상기 스마트기기(300)는 정보를 전달받으면 앱을 통해 화면에 나타내거나, 경고음을 포함하는 소리, 진동 등의 알림을 통해 운전자(10)에게 알려주는 것이다.When the
상기 카메라(100)에서 영상데이터를 서버(210)로 전송하기 위해서는 JAVA언어를 기반 싱글보드컴퓨터(200)를 사용한다.In order to transfer image data from the
상기 서버(210)에서는 카메라(100)에서 촬영한 영상데이터를 통해 운전자(10) 얼굴의 방향과 눈을 판단하여 이벤트 처리한다.The
더욱 상세하게 설명하면, 먼저 상기 서버(210)는 영상데이터에서 운전자(10)의 얼굴 부분을 인식하며, 특히 고개의 각도와 눈동자를 집중적으로 감지한다.More specifically, the
특히, 상기 서버(210)는 눈을 감지할 때 하르 특징(Haar feature)을 판단한 후, 캐스케이드 분류기(CascadeClassifier)를 사용하여 눈,코,입,얼굴영역 등을 인식한다.In particular, the
상기 하르 특징은 두 눈은 어둡고 코는 명암이 밝다는 것을 이용하여 패턴을 구하는 것이다.The harsh feature is to obtain a pattern using the fact that the eyes are dark and the nose is bright.
그러므로 상기 캐스케이드 분류기는 하르 특징을 통해 구해진 패턴을 통해 눈, 코, 입, 얼굴영역 등을 파악할 수 있게 되는 것이다.Therefore, the cascade classifier can grasp the eyes, nose, mouth, face region, etc. through the pattern obtained through the Haar feature.
상기 서버(210)는 운전자(10)의 눈이 감기는 영상을 영상데이터로 전달받으면, 영상데이터로부터 하르 특징(Haar feature)을 통해 영상처리 알고리즘이 눈동자를 검출하지 못하여 눈을 인식하지 못하게 된다.When the
그러므로 상기 서버(210)는 눈을 인식하지 못하는 상황을 운전자(10)의 눈이 감겨진 상황으로 판단하도록 알고리즘이 작성된 것이다.Therefore, the
도 3에 도시된 바와 같이, 상기 서버(210)는 운전자(10)의 고개의 각도가 떨어질 때도 하르 특징에 의해 얼굴영역이 인식이 되지 않기 때문에 얼굴영역이 검출되지 않는 상황을 고개가 떨어진 상황으로 판단하도록 알고리즘이 작성된 것이다.As shown in FIG. 3, when the angle of the head of the
상기 서버(210)는 영상처리 알고리즘을 통해 눈을 인식하지 못하거나, 얼굴영역이 검출되지 않는 상황 중 하나 이상이 발생하였을 때를 위험상황으로 판단하여 소켓통신을 통해 스마트기기(300)로 값을 전달하는 것이다.The
상기 스마트기기에서는 값을 받아 이벤트 처리로 Google Map API를 통해 운전자(10)의 현재위치를 받아오며, 현재위치로부터 가장 가까운 졸음 쉼터, 휴게소 등의 휴식장소를 검색하며, 현재위치부터 휴식장소까지의 거리를 계산한 후, 도 4에 도시된 바와 같이 스마트기기(300)에 UI(User Interface)로 출력한다.The smart device receives the value and receives the current position of the
상기 스마트기기(300)에 출력되는 UI의 실시예로서, 상기 스마트기기(300)의 화면에는 휴식장소가 졸음쉼터이면 졸음쉼터라고 출력되며, 아래에는 해당 졸음쉼터까지 거리가 몇 미터 남았는지를 출력한 후 변하지 않으며, 우측에는 차량의 위치변화에 따라 실시간으로 거리를 변경하여 남은거리를 알려주는 것이다.As an example of the UI output to the
도 4에 도시된 바와 같이, 상기 서버(210)는 카메라(100)에서 촬영한 운전자(10)가 고개를 돌린 영상데이터를 전달받은 후, 하르 특징에 따른 얼굴영역과 눈 영역을 인식할 수 있다.As shown in FIG. 4, the
상기 서버(210)는 눈, 코, 입, 얼굴형태 등의 패턴에 따라 하르 특징을 인식한 후, 인식된 하르 특징을 통해 케이케이드분류기에서 눈, 코, 입, 얼굴영역을 판단한다.The
상기 서버(210)는 운전자(10)가 고개를 돌릴 때 얼굴영역이 정면일 때 보다는 약간 작아지며 고개를 돌린 방향의 반대쪽 눈이 인식이 되지 않는 것을 통해 운전자(10)가 고개를 오른쪽으로 돌렸는지, 왼쪽으로 돌렸는지를 판단할 수 있는 것이다.The
상기 운전자(10)가 고개를 돌린 상황에 대한 인식은 보행자(20) 인식의 결과와 같이 사용되어 운전자(10)에게 보행자(20)에 대한 주의를 주는 경고음을 울리는데 사용된다.The recognition of the
상기 카메라(100)에서 차량 전방의 보행자(20)를 감지하도록 설치된 영상데이터를 이용하여 보행자(20)를 인식하여 이벤트를 처리한다.The
예를 들어, 상기 운전자(10)는 운전자(10)의 왼편이나 오른편의 어떤 광경에 주의를 하다가 전방을 주시하지 못할 때가 있다.For example, the
특히, 상기 운전자(10)는 스쿨존, 골목길 등의 차량의 속도가 높지 않은 지역에서 오히려 천천히 달리기 때문에 방심을 하고 전방을 주시하지 못하고 주변을 둘러볼때가 많다.In particular, since the
그러나 상기 스쿨존, 골목길 등의 차량의 속도가 높지 않은 지역은 보행자(20)가 밀집한 지역이기 때문에 오히려 운전자(10)의 방심으로 사고가 발생한다.However, since the area where the speed of the vehicle such as the school zone or the alleyway is not high is an area where the
그러므로 상기 서버(210)에서 운전자(10)가 전방을 주시하고 있지 않은데 동시에 보행자(20)가 나타나는 상황으로 판단되면, 운전자(10)에게 경고를 줌으로써 사고를 방지하기 한다.Therefore, if the
상기 서버(210)는 카메라(100)를 통해 촬영된 영상의 움직이는 전방의 물체에 대하여 HOG(Histogram of oriented gradients) 특징을 이용한 후, 보행자 인식 알고리즘을 수행하여 움직이는 물체가 보행자(20)인 것으로 판단한다.The
상기 HOG 특징은 연속적인 영상에서 물체에 대한 변화도를 판단하여 Local Histogram을 생성하고, 상기 Local Histogram을 연속하게 연결하여 1차원 벡터를 생성하는 것이다.The HOG feature generates a local histogram by determining a degree of change with respect to an object in a continuous image, and generates a one-dimensional vector by continuously connecting the local histogram.
그러므로 상기 서버(210)는 HOG 특징을 이용하여 생성된 1차원 벡터를 통하여 보행자 인식 알고리즘을 사용하고, 상기 보행자 인식 알고리즘을 통해 움직이는 물체를 판단하여 보행자(20)인 것으로 판단하는 것이다.Therefore, the
도 6은 보행자 테스트 데이터에 대해 HOG 특징을 수행하여 보행자(20)를 인식한 결과를 보여주고 있다.6 shows a result of recognition of the
상기 서버(210)는 운전자(10)의 시선 방향과 보행자(20)의 출현 위치를 통해 운전자(10)가 보행자(20)를 인식하지 못한 것으로 판단되면, 운전자(10)에게 알릴 수 있도록 스마트기기(300)로 신호를 전송하여, 스마트기기(300)에서 알람, 경고음 등의 소리, 또는 진동을 통해 운전자(10)에게 경고하는 것이다. The
실시예로서, 상기 서버(210)는 영상데이터를 통해 확인한 결과, 오른쪽에 보행자(20)가 출현하였음을 인식하였는데, 운전자(10)의 고개가 반대로 왼쪽으로 돌아가 있을 때 운전자(10)가 보행자(20)를 인식하지 못한 것으로 판단하여 스마트기기(300)로 신호를 전달하게 된다.The
그리고 상기 스마트기기(300)로 신호를 전달받아 알람을 울려서 운전자(10)에게 경고를 준다.A signal is received by the
상기 서버(210)는 운전자(10)의 고개의 방향은 얼굴영역의 크기와 눈의 인식여부를 통해 알 수 있거나, 또는 얼굴영역의 중앙점과 눈들의 중심간의 거리의 차이로 알 수 있다. The direction of the head of the
예를 들어, 상기 얼굴영역의 중앙점과 눈들의 중심들 간의 거리의 차이가 없으면 운전자(10)가 정면을 바라보고 있는 것으로 판단되며, 얼굴영역의 중앙점과 눈들의 중심들 간의 거리의 차이가 이전보다 많으면 얼굴을 한 방향으로 돌린 상황으로 인식할 수 있다.For example, if there is no difference in the distance between the center point of the face area and the center of the eyes, it is determined that the
상기 스마트기기(300)는 거치하여 사용하거나, 또는 차량의 전면 유리에 영상을 비출 수 있도록 헤드업디스플레이로 사용할 수 있다.The
상기 스마트기기(300)를 거치하여 사용하는 것으로, 상기 차량 내부에 따로 구비된 스마트기기 거치대에 스마트기기(300)를 거치하여 운전자가 운전시 스마트기기(300)를 손으로 잡고 있지 않더라도 스마트기기(300)의 영상이 운전자에게 잘 보일 수 있도록 하는 것이다.The
상기 스마트기기(300)를 헤드업디스플레이로 사용하는 것으로, 상기 차량의 전면유리는 스마트기기(300)에서 출력되는 영상이 운전자에게 보일 수 있도록 윈드실드가 시공된 것을 사용하며, 차량의 전면유리 아래쪽의 대쉬보드에는 영상을 출력하는 스마트기기(300)를 디스플레이부가 차량 전면 유리방향으로 향하게 거치할 수 있도록 거치대가 설치되거나 또는 거치홈이 형성된다.The
그리고 상기 차량 전면 유리방향으로 스마트기기(300)의 디스플레이부가 향하도록 스마트기기(300)를 거치대 또는 거치홈에 거치한 후, 스마트기기(300)의 디스플레이부에서 출력되는 영상이 윈드실드가 시공된 차량의 전면유리에 반사되어 운전자에게 보이게 되는 것이다.The image output from the display unit of the
특히, 상기 스마트기기(300)의 디스플레이부에서 출력되는 영상은 유리에 비추어 반사될 시 사용자에게 좌우가 반전되어 보이지 않도록, 좌우가 반전된 영상을 사용하는 것이다.In particular, when the image output from the display unit of the
따라서 본 발명 안전운전 보조 시스템 및 그 동작방법은 두 개 이상의 카메라 센서를 통해 운전자와 보행자를 동시에 인식하되, 하나 이상 카메라 센서는 운전자의 얼굴과 눈을 인식하며, 다른 하나 이상의 카메라 센서는 전방의 보행자를 인식하는 것으로, 운전자의 시선을 통해 운전자가 운전에 집중하지 못하거나, 보행자가 전방에 있으면 위험상황을 피할 수 있도록 운전자에게 알려주어 운전자를 보조함으로써, 보행자 사고 및 졸음운전 사고를 미연에 방지할 수 있는 현저한 효과가 있다.Accordingly, the safe driving assist system and the operation method of the present invention simultaneously recognize the driver and the pedestrian through two or more camera sensors, one or more camera sensors recognize the driver's face and eyes, By informing the driver that the driver can not concentrate on the driving through the driver's eyes or avoid the dangerous situation when the pedestrian is in front of the driver, the driver is assisted to prevent the pedestrian accident and the sleepy driving accident There is a remarkable effect that can be.
10 : 운전자
20 : 보행자
100 : 카메라
200 : 싱글보드컴퓨터
210 : 서버
300 : 스마트기기10: Driver
20: Pedestrians
100: camera
200: Single board computer
210: Server
300: Smart device
Claims (5)
상기 카메라(100)는 차량 내부에서 운전자(10)와 보행자(20)를 동시에 인식하도록 설치되어 영상데이터를 촬영하고 상기 싱글보드컴퓨터(200)에는 카메라(100)의 영상데이터를 영상처리 알고리즘을 통해 분석하는 서버(210)가 설치되고, 상기 스마트기기(300)는 싱글보드컴퓨터(200)에서 신호를 받아 운전자(10)에게 알려주는 것이며,
상기 싱글보드컴퓨터(200)는 카메라(100)에서 영상데이터를 서버(210)로 전송하기 위해서 JAVA언어 기반인 것을 사용하되, 라즈베리파이를 사용하는 것으로, 상기 라즈베리파이는 보드에 통신부, 제어부, 전원부, 커넥터, 및 핀이 구비되며, 상기 커넥터에는 따로 구비한 입출력장치를 연결할 수 있으며, 상기 핀은 다수 개가 구비되어 각각의 핀에 센서 또는 모듈을 결합할 수 있으며, 상기 모듈 중에서 무선통신모듈을 통해 입출력장치에 무선으로 연결할 수 있는 것이며,
상기 서버(210)에서 스마트기기에 정보를 전달하기 위해서는 블루투스 방식의 무선통신방식이나, 커넥트를 통한 연결을 통한 유선통신방식을 사용할 수 있는 것이며,
상기 카메라(100)는 운전자(10)와 보행자(20)를 동시에 인식할 수 있도록 다방향 감지 카메라 또는 다수의 카메라를 사용하는 것으로, 상기 다방향 감지 카메라는 하나의 카메라에 카메라센서가 다수 개가 내장되어 주변을 촬영하되, 360˚카메라를 사용하는 것이며, 상기 다수의 카메라는 하나 이상을 차량 전방의 보행자(20)를 인식하도록 설치하고, 하나 이상을 운전자(10)의 얼굴과 눈을 인식하도록 설치하는 것이며,
상기 카메라(100)를 통해 취득되는 영상데이터를 싱글보드컴퓨터(200)의 서버(210)로 전달되고, 상기 싱글보드컴퓨터(200) 자체에 서버(210)가 설치되어 있어 자체적으로 영상처리 알고리즘을 통해 영상을 분석하거나, 또는 상기 싱글보드컴퓨터(200)를 통해 서버(210)가 설치된 외부의 기기로 전달되어 외부의 기기에 설치된 서버(210)에서 영상처리 알고리즘을 통해 영상데이터를 분석하는 것이며,
상기 서버(210)는 영상데이터에서 운전자(10)의 얼굴 부분을 인식하되, 고개의 각도와 눈동자를 집중적으로 감지하며, 상기 서버(210)는 눈을 감지할 때 하르 특징(Haar feature)을 판단한 후, 캐스케이드 분류기(CascadeClassifier)를 사용하여 눈, 코, 입, 및 얼굴영역을 인식하는 것이며, 상기 하르 특징은 두 눈은 어둡고 코는 명암이 밝다는 것을 이용하여 패턴을 구하는 것으로, 상기 캐스케이드 분류기는 하르 특징을 통해 구해진 패턴을 통해 눈, 코, 입, 및 얼굴영역을 파악할 수 있게 되는 것이며,
상기 서버(210)는 카메라(100)를 통해 촬영된 영상의 움직이는 전방의 물체에 대하여 HOG(Histogram of oriented gradients) 이용하여 생성된 1차원 벡터를 통하여 보행자 인식 알고리즘을 사용하고, 상기 보행자 인식 알고리즘을 통해 움직이는 물체를 판단하여 보행자(20)인 것으로 판단하는 것이며,
상기 HOG 특징은 연속적인 영상에서 물체에 대한 변화도를 판단하여 Local Histogram을 생성하고, 상기 Local Histogram을 연속하게 연결하여 1차원 벡터를 생성하는 것이며,
상기 서버(210)에서는 카메라(100)에서 촬영한 영상데이터를 통해 운전자(10) 얼굴의 방향과 눈을 판단하여 이벤트를 처리하는 것으로, 상기 서버(210)는 영상처리 알고리즘을 통해 눈을 인식하지 못하거나, 얼굴영역이 검출되지 않는 상황 중 하나 이상이 발생하였을 때를 위험상황으로 판단하여 소켓통신을 통해 스마트기기(300)로 값을 전달하는 것이며,
상기 스마트기기(300)에서는 값을 받아 이벤트 처리로 Google Map API를 통해 운전자(10)의 현재위치를 받아오며, 현재위치로부터 가장 가까운 휴식장소를 검색하며, 현재위치부터 휴식장소까지의 거리를 계산한 후, UI(User Interface)로 출력하는 것이며,
상기 스마트기기(300)에 출력되는 UI로서, 상기 스마트기기(300)의 화면에는 휴식장소의 명칭이 출력되며, 아래에는 해당 휴식장소까지 거리가 몇 미터 남았는지를 출력한 후 변하지 않으며, 우측에는 차량의 위치변화에 따라 실시간으로 거리를 변경하여 남은거리를 알려주는 것이며,
상기 서버(210)는 운전자(10)의 시선 방향과 보행자(20)의 출현 위치를 통해 운전자(10)가 보행자(20)를 인식하지 못한 것으로 판단되면, 운전자(10)에게 알릴 수 있도록 스마트기기(300)로 신호를 전송하여, 스마트기기(300)에서 소리, 또는 진동을 통해 운전자(10)에게 경고하는 것으로,
상기 서버(210)는 영상데이터를 통해 확인한 결과, 오른쪽에 보행자(20)가 출현하였음을 인식하였는데, 운전자(10)의 고개가 반대로 왼쪽으로 돌아가 있을 때 운전자(10)가 보행자(20)를 인식하지 못한 것으로 판단하여 스마트기기(300)로 신호를 전달하게 되고, 상기 스마트기기(300)는 신호를 전달받아 알람을 울려서 운전자(10)에게 경고를 주는 것이며,
운전자(10)의 고개의 방향은 얼굴영역의 크기와 눈의 인식여부를 통해 알 수 있거나, 또는 얼굴영역의 중앙점과 눈들의 중심간의 거리의 차이로 알 수 있는 것으로, 상기 얼굴영역의 중앙점과 눈들의 중심들 간의 거리의 차이가 없으면 운전자(10)가 정면을 바라보고 있는 것으로 판단되며, 얼굴영역의 중앙점과 눈들의 중심들 간의 거리의 차이가 이전보다 많으면 얼굴을 한 방향으로 돌린 상황으로 판단하는 것이며,
상기 스마트기기(300)는 거치하여 사용하거나, 또는 차량의 전면 유리에 영상을 비출 수 있도록 헤드업디스플레이로 사용할 수 있는 것으로,
상기 스마트기기(300)를 거치하여 사용할 경우, 상기 차량 내부에 따로 구비된 스마트기기 거치대에 스마트기기(300)를 거치하여 운전자가 운전시 스마트기기(300)를 손으로 잡고 있지 않더라도 스마트기기(300)의 영상이 운전자에게 잘 보일 수 있도록 하는 것이며,
상기 스마트기기(300)를 헤드업디스플레이로 사용할 경우, 상기 차량의 전면유리는 스마트기기(300)에서 출력되는 영상이 운전자에게 보일 수 있도록 윈드실드가 시공된 것을 사용하며, 차량의 전면유리 아래쪽의 대쉬보드에는 영상을 출력하는 스마트기기(300)를 디스플레이부가 차량 전면 유리방향으로 향하게 거치할 수 있도록 거치대가 설치되거나 또는 거치홈이 형성되고, 상기 차량 전면 유리방향으로 스마트기기(300)의 디스플레이부가 향하도록 스마트기기(300)를 거치대 또는 거치홈에 거치한 후, 스마트기기(300)의 디스플레이부에서 출력되는 영상이 윈드실드가 시공된 차량의 전면유리에 반사되어 운전자에게 보이게 되는 것이며,
상기 스마트기기(300)의 디스플레이부에서 출력되는 영상은 유리에 비추어 반사될 시 사용자에게 좌우가 반전되어 보이지 않도록, 좌우가 반전된 영상을 사용하는 것을 특징으로 하는 안전운전 보조 시스템 동작방법
Video data acquired through the camera 100 installed inside the vehicle so as to simultaneously recognize the driver 10 and the pedestrian 20 inside the vehicle is transmitted to the server of the single board computer 200, A safety driving assistant system 300 for transmitting information to the smart device 300 and informing the driver 10 through UI, sound, or vibration in the smart device 300, In an operating method,
The camera 100 is installed to recognize the driver 10 and the pedestrian 20 at the same time in the vehicle and photographs the image data. The image data of the camera 100 is transmitted to the single board computer 200 through an image processing algorithm The smart device 300 receives a signal from the single board computer 200 and notifies the driver 10 of the received signal,
The single board computer 200 uses the JAVA language based image data to transmit the image data from the camera 100 to the server 210, and uses Raspberry pie. The Raspberry pie includes a communication unit, a control unit, A connector, and a pin, and the input / output device may be connected to the connector, and a plurality of pins may be provided to couple a sensor or a module to each pin, and among the modules, It can connect wirelessly to the input / output device,
In order to transmit information to the smart device from the server 210, a wireless communication method using a Bluetooth method or a wired communication method using a connection through a connection can be used.
The camera 100 uses a multi-directional sensing camera or a plurality of cameras so that the driver 10 and the pedestrian 20 can be simultaneously recognized. The multi-directional sensing camera includes a plurality of camera sensors The camera is installed so that at least one of the cameras recognizes the pedestrian 20 in front of the vehicle, and one or more cameras are installed to recognize the face and eyes of the driver 10 However,
The image data acquired through the camera 100 is transmitted to the server 210 of the single board computer 200 and the server 210 is installed in the single board computer 200 itself to perform an image processing algorithm Or transmitted to an external device equipped with the server 210 through the single board computer 200 and analyzed by the server 210 installed in the external device through the image processing algorithm,
The server 210 recognizes the facial portion of the driver 10 from the image data and intensively detects the angle and pupil of the head. The server 210 determines the Haar feature And then recognizing the eyes, nose, mouth, and face area using a cascade classifier, wherein the harsh feature is obtained by using the fact that the eyes are dark and the nose is bright and the cascade classifier The eye, nose, mouth, and face area can be grasped through the pattern obtained through the Haar feature,
The server 210 uses a pedestrian recognition algorithm using a one-dimensional vector generated using HOG (Histogram of oriented gradients) for an object in front of a moving image of an image photographed through the camera 100, Judges the moving object to be the pedestrian 20,
The HOG feature generates a local histogram by determining a degree of change with respect to an object in a continuous image, and generates a one-dimensional vector by continuously connecting the local histogram,
The server 210 processes the event by determining the direction and the face of the face of the driver 10 through the image data photographed by the camera 100. The server 210 recognizes the eyes through the image processing algorithm The face area is not detected, it is determined that it is a dangerous situation, and the value is transmitted to the smart device 300 through the socket communication,
The smart device 300 receives the value, receives the current position of the driver 10 through the Google Map API through event processing, searches for the closest place from the current position, calculates the distance from the current position to the resting place , And then outputting to the UI (User Interface)
The name of the resting place is displayed on the screen of the smart device 300 as a UI output to the smart device 300. The name of the resting place is displayed on the screen of the smart device 300, It changes the distance in real time according to the change of the position of the vehicle and informs the remaining distance,
The server 210 notifies the driver 10 that the driver 10 can not recognize the pedestrian 20 through the sight line direction of the driver 10 and the appearance position of the pedestrian 20, The smart device 300 transmits a signal to the smart device 300 to warn the driver 10 through sound or vibration,
The server 210 recognizes that the pedestrian 20 has appeared on the right side as a result of checking through the image data. When the driver 10 recognizes the pedestrian 20 when the head of the driver 10 is reversely turned to the left And transmits a signal to the smart device 300. The smart device 300 receives a signal and sounds an alarm to alert the driver 10,
The direction of the head of the driver 10 can be determined by the size of the face area and the recognition of the eyes or by the difference in the distance between the center point of the face area and the center of the eyes. If the distance between the center of the face area and the centers of the eyes is greater than the previous one, the face is turned in one direction And,
The smart device 300 can be used as a head-up display to mount or use the image on a front glass of a vehicle.
When the smart device 300 is used, the smart device 300 may be mounted on the smart device 300 separately installed in the vehicle so that the smart device 300 ) Is displayed to the driver,
When the smart device 300 is used as a head-up display, the front glass of the vehicle uses a windshield constructed so that an image output from the smart device 300 can be seen by the driver, The display unit of the smart device 300 may be mounted on the dashboard in a direction of the vehicle front glass so that the smart device 300 for outputting an image may be mounted on the display unit in the direction of the front glass of the vehicle, The image output from the display unit of the smart device 300 is reflected on the windshield of the vehicle on which the windshield is installed and is visible to the driver,
Wherein the image output from the display unit of the smart device (300) uses left and right inverted images so that the left and right inverted images are not visible to the user when reflected by the glass
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160105469A KR101821496B1 (en) | 2016-08-19 | 2016-08-19 | safe driving support system operating method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160105469A KR101821496B1 (en) | 2016-08-19 | 2016-08-19 | safe driving support system operating method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101821496B1 true KR101821496B1 (en) | 2018-03-08 |
Family
ID=61726240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160105469A KR101821496B1 (en) | 2016-08-19 | 2016-08-19 | safe driving support system operating method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101821496B1 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108521556A (en) * | 2018-03-30 | 2018-09-11 | 北京林业大学 | Intelligent-tracking monitoring camera based on embedded system |
KR101940224B1 (en) * | 2018-03-21 | 2019-01-18 | 주식회사 이지에버텍 | Remote management system for providing automatic notice function for internal state of manhole |
KR102020732B1 (en) * | 2018-08-08 | 2019-09-10 | 경남대학교 산학협력단 | CCTV that records and informs of unusual events |
WO2020017716A1 (en) * | 2018-07-20 | 2020-01-23 | 엘지전자 주식회사 | Robot for vehicle and method for controlling same |
KR20200010817A (en) | 2018-07-23 | 2020-01-31 | 숭실대학교산학협력단 | Method for detecting vehicle of accident risk in tunnel, recording medium and device for performing the method |
WO2020086015A1 (en) * | 2018-10-22 | 2020-04-30 | Innomel Muhendislik Sanayi Ve Ticaret Limited Sirketi | A system that perceives, reports fatigue and distraction of the driver and processes big data and a method of its implementation |
CN112829754A (en) * | 2021-01-21 | 2021-05-25 | 浙江合众新能源汽车有限公司 | Vehicle-mounted intelligent robot and running method thereof |
WO2024085505A1 (en) * | 2022-10-17 | 2024-04-25 | 연세대학교 산학협력단 | Method and device for determining whether face is frontal for dynamic smile analysis |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012500154A (en) * | 2008-08-19 | 2012-01-05 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | Hybrid drive system |
JP4888382B2 (en) * | 2007-12-28 | 2012-02-29 | オムロン株式会社 | Abnormality detection apparatus and method, and program |
KR101513878B1 (en) * | 2014-03-19 | 2015-04-22 | (주)디지탈엣지 | Radar apparatus, collision avoidance and accident recode method thereof |
-
2016
- 2016-08-19 KR KR1020160105469A patent/KR101821496B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4888382B2 (en) * | 2007-12-28 | 2012-02-29 | オムロン株式会社 | Abnormality detection apparatus and method, and program |
JP2012500154A (en) * | 2008-08-19 | 2012-01-05 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | Hybrid drive system |
KR101513878B1 (en) * | 2014-03-19 | 2015-04-22 | (주)디지탈엣지 | Radar apparatus, collision avoidance and accident recode method thereof |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101940224B1 (en) * | 2018-03-21 | 2019-01-18 | 주식회사 이지에버텍 | Remote management system for providing automatic notice function for internal state of manhole |
CN108521556A (en) * | 2018-03-30 | 2018-09-11 | 北京林业大学 | Intelligent-tracking monitoring camera based on embedded system |
WO2020017716A1 (en) * | 2018-07-20 | 2020-01-23 | 엘지전자 주식회사 | Robot for vehicle and method for controlling same |
US11318961B2 (en) | 2018-07-20 | 2022-05-03 | Lg Electronics Inc. | Robot for vehicle and control method thereof |
KR20200010817A (en) | 2018-07-23 | 2020-01-31 | 숭실대학교산학협력단 | Method for detecting vehicle of accident risk in tunnel, recording medium and device for performing the method |
KR102020732B1 (en) * | 2018-08-08 | 2019-09-10 | 경남대학교 산학협력단 | CCTV that records and informs of unusual events |
WO2020086015A1 (en) * | 2018-10-22 | 2020-04-30 | Innomel Muhendislik Sanayi Ve Ticaret Limited Sirketi | A system that perceives, reports fatigue and distraction of the driver and processes big data and a method of its implementation |
CN112829754A (en) * | 2021-01-21 | 2021-05-25 | 浙江合众新能源汽车有限公司 | Vehicle-mounted intelligent robot and running method thereof |
CN112829754B (en) * | 2021-01-21 | 2023-07-25 | 合众新能源汽车股份有限公司 | Vehicle-mounted intelligent robot and operation method thereof |
WO2024085505A1 (en) * | 2022-10-17 | 2024-04-25 | 연세대학교 산학협력단 | Method and device for determining whether face is frontal for dynamic smile analysis |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101821496B1 (en) | safe driving support system operating method | |
US10800424B2 (en) | Driver condition detection system | |
US10572746B2 (en) | Apparatus detecting driving incapability state of driver | |
CN108639055B (en) | The control method of the display system of the display system and vehicle of vehicle | |
JP7099037B2 (en) | Data processing equipment, monitoring system, awakening system, data processing method, and data processing program | |
CN108621794A (en) | The control method of the display system of vehicle and the display system of vehicle | |
US10671868B2 (en) | Vehicular vision system using smart eye glasses | |
TWI522257B (en) | Vehicle safety system and operating method thereof | |
CN108621922A (en) | The control method of the display system of vehicle and the display system of vehicle | |
CN113316805A (en) | Method and system for monitoring a person using infrared and visible light | |
Chang et al. | An implementation of smartphone-based driver assistance system using front and rear camera | |
WO2019155913A1 (en) | Data processing device, monitoring system, alertness system, data processing method, data processing program, and storage medium | |
WO2019155914A1 (en) | Data processing device, monitoring system, alertness system, data processing method, data processing program, and storage medium | |
JP6120444B2 (en) | Wearable device | |
JP2012114755A (en) | Head-mounted display and computer program | |
JP2005284975A (en) | Traveling safety device | |
US11807264B2 (en) | Driving assistance apparatus, driving assistance method, and medium | |
JP6321848B2 (en) | Wearable device | |
JP7234614B2 (en) | Anomaly detection device, anomaly detection system and anomaly detection program | |
JP7276082B2 (en) | Driver state estimation device | |
JP7298351B2 (en) | State determination device, in-vehicle device, driving evaluation system, state determination method, and program | |
KR102084329B1 (en) | Infant monitoring method in vehicle and the system thereof | |
US20230206658A1 (en) | Apparatus, method, and computer program for determining driver's behavior | |
Nair et al. | Smart System for Drowsiness and Accident Detection | |
JP7363378B2 (en) | Driving support device, driving support method, and driving support program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |