KR102179995B1 - Method for detection driver violence - Google Patents

Method for detection driver violence Download PDF

Info

Publication number
KR102179995B1
KR102179995B1 KR1020180102479A KR20180102479A KR102179995B1 KR 102179995 B1 KR102179995 B1 KR 102179995B1 KR 1020180102479 A KR1020180102479 A KR 1020180102479A KR 20180102479 A KR20180102479 A KR 20180102479A KR 102179995 B1 KR102179995 B1 KR 102179995B1
Authority
KR
South Korea
Prior art keywords
violence
driver
objects
data
detection system
Prior art date
Application number
KR1020180102479A
Other languages
Korean (ko)
Other versions
KR20200026368A (en
Inventor
최경주
박정환
구동관
오상헌
Original Assignee
충북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충북대학교 산학협력단 filed Critical 충북대학교 산학협력단
Priority to KR1020180102479A priority Critical patent/KR102179995B1/en
Publication of KR20200026368A publication Critical patent/KR20200026368A/en
Application granted granted Critical
Publication of KR102179995B1 publication Critical patent/KR102179995B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • G06Q50/265Personal security, identity or safety
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • H04N5/217

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Computer Security & Cryptography (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Operations Research (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 객체들을 촬영하여 객체 데이터를 생성하는 촬영 장치 및 상기 객체 데이터에서 객체들을 검출하고, 상기 검출한 객체들을 이용하여 운전자 폭력 상황 여부를 결정하는 결정 서버를 포함한다.The present invention includes a photographing apparatus that photographs objects to generate object data, and a determination server that detects objects from the object data and determines whether a driver is violent by using the detected objects.

Description

운전자 폭력 감지 방법{METHOD FOR DETECTION DRIVER VIOLENCE}How to detect driver violence{METHOD FOR DETECTION DRIVER VIOLENCE}

본 발명은 운전자 폭력 감지 시스템 및 운전자 폭력 감지 방법에 관한 것으로, 보다 상세하게는 객체들의 겹침도 및 객체들의 표정을 이용하여 폭력 상황 여부를 결정하는 운전자 폭력 감지 시스템 및 운전자 폭력 감지 방법에 관한 것이다.The present invention relates to a driver violence detection system and a driver violence detection method, and more particularly, to a driver violence detection system and a driver violence detection method for determining whether or not a violence situation is performed using the overlapping degree of objects and facial expressions of the objects.

차량의 내부공간은 통상적으로 운전석 및 탑승 석으로 이루어진 개방된 하나의 단일공간으로 형성된다.The interior space of the vehicle is usually formed as a single open space consisting of a driver's seat and a passenger's seat.

차량을 운전하는 운전자의 안전은 매우 중요하다. 그러나 차량의 내부는 운전석과 탑승석이 개방되어 있으므로, 탑승석에 탑승하는 탑승자로부터 운전을 방해 받을 수도 있다.The safety of drivers who drive vehicles is very important. However, since the driver's seat and the passenger seat are open inside the vehicle, driving may be disturbed by the occupants who board the passenger seat.

특히, 의도적으로 운전자를 폭행하거나 흉기 등으로 운전자를 위협하여도 운전자는 무방비 상태로 일방적인 공격을 받을 수 밖에 없고, 실질적으로 이러한 폭력 행위로 인하여 운전자가 부상 또는 사망한 경우도 발생하고 있다.In particular, even if the driver is intentionally assaulted or threatened with a weapon, the driver is bound to be unprotected and unilaterally attacked, and there are cases in which the driver is actually injured or killed due to such a violent act.

또한, 탑승자의 이러한 폭력 행위로 인하여 운전자는 운전에 집중하지 못하게 되고, 그로 인하여 2차적으로 교통사고로 이어질 가능성이 높다.In addition, due to the violent behavior of the occupant, the driver cannot concentrate on driving, which is likely to lead to a secondary traffic accident.

그러나, 기존에는 폭력 행위가 가해지는 폭력 상황을 정확하게 인지할 수 없고, 정확하게 인지하기 위해서는 연산량이 증가하는 문제가 있었다.However, in the past, it is not possible to accurately recognize the violent situation in which a violent act is applied, and there is a problem that the amount of computation increases in order to accurately recognize it.

대한민국 공개특허공보 제10-2017-0117901호(2017.10.24.공개)Republic of Korea Patent Publication No. 10-2017-0117901 (published on October 24, 2017)

본 발명은 상기한 문제점을 해결하기 위해 발명된 것으로, 그 목적은 운전자 폭력 상황 여부를 정확히 결정할 수 있는 운전자 폭력 감지 시스템 및 운전자 폭력 감지 방법을 제공하는 것을 목적으로 한다.The present invention was invented to solve the above problems, and an object thereof is to provide a driver violence detection system and a driver violence detection method capable of accurately determining whether a driver violence situation exists.

또한, 본 발명의 다른 목적은 연산 부담이 적은 운전자 폭력 감지 시스템 및 운전자 폭력 감지 방법을 제공하는 것을 다른 목적으로 한다.In addition, another object of the present invention is to provide a driver violence detection system and a driver violence detection method having a low computational burden.

또한, 본 발명의 또 다른 목적은 운전자 폭력 상황을 기 설정된 연락처로 출력할 수 있는 운전자 폭력 감지 시스템 및 운전자 폭력 감지 방법을 제공하는 것을 또 다른 목적으로 한다.In addition, another object of the present invention is to provide a driver violence detection system and a driver violence detection method capable of outputting a driver violence situation to a preset contact information.

상기한 바와 같은 과제를 해결하기 위하여 본 발명은, 객체들을 촬영하여 객체 데이터를 생성하는 촬영 장치 및 상기 객체 데이터에서 객체들을 검출하고, 상기 검출한 객체들을 이용하여 운전자 폭력 상황 여부를 결정하는 결정 서버를 포함한다.In order to solve the above-described problems, the present invention provides a photographing apparatus for generating object data by photographing objects, and a determination server for detecting objects from the object data and determining whether a driver is violent using the detected objects. Includes.

또한, 상기 결정 서버는, 상기 객체 데이터에서 객체들을 검출하는 객체 검출 장치, 상기 검출한 객체들의 겹침도를 결정하여 객체 겹침 데이터를 생성하는 겹침 데이터 생성 모듈, 상기 객체들의 표정을 인식하고, 상기 인식한 객체들의 표정을 이용하여 표정 데이터를 생성하는 표정 데이터 생성 모듈 및 상기 객체 겹침 데이터 및 상기 표정 데이터를 이용하여 폭력 상황 여부를 결정하는 폭력 상황 결정 모듈을 포함할 수 있다.In addition, the determination server, an object detection device for detecting objects in the object data, an overlap data generation module for generating object overlap data by determining an overlap degree of the detected objects, and recognizing the facial expressions of the objects, and the recognition An expression data generation module that generates facial expression data using the facial expressions of one object, and a violence situation determination module that determines whether or not a violence situation is performed using the object overlapping data and the facial expression data.

또한, 상기 객체 데이터에서 YOLO 객체 검출 알고리즘을 이용하여 상기 객체들을 검출할 수 있다.In addition, the objects may be detected from the object data using a YOLO object detection algorithm.

또한, 객체들 간의 유클리드 거리를 측정하는 알고리즘을 이용하여 상기 겹침 데이터를 생성할 수 있다.In addition, the overlapping data may be generated by using an algorithm for measuring the Euclidean distance between objects.

본 발명의 다른 측면에 의하면, 운전자 폭력 감지 시스템이 객체들을 촬영하여 객체 데이터를 생성하는 단계, 운전자 폭력 감지 시스템이 상기 객체 데이터에서 객체들을 검출하는 단계, 운전자 폭력 감지 시스템이 상기 검출한 객체들의 겹침도를 결정하여 객체 겹침 데이터를 생성하는 단계, 운전자 폭력 감지 시스템이 상기 객체들의 표정을 인식하고, 상기 인식한 객체들의 표정을 이용하여 표정 데이터를 생성하는 단계 및 운전자 폭력 감지 시스템이 상기 객체 겹침 데이터 및 상기 표정 데이터를 이용하여 폭력 상황 여부를 결정하는 단계를 포함한다.According to another aspect of the present invention, the driver violence detection system photographs objects to generate object data, the driver violence detection system detects objects from the object data, and the driver violence detection system overlaps the detected objects. Determining a degree to generate object overlap data, the driver violence detection system recognizing the expressions of the objects, generating facial expression data using the recognized expressions of the objects, and the driver violence detection system the object overlapping data And determining whether there is a violent situation using the facial expression data.

본 발명에 의하면, 운전자 폭력 상황 여부를 정확히 결정할 수 있는 효과가 있다.According to the present invention, there is an effect of accurately determining whether or not a driver's violence situation exists.

또한, 연산 부담이 적은 운전자 폭력 감지 시스템 및 운전자 폭력 감지 방법을 제공하는 효과가 있다.In addition, there is an effect of providing a driver violence detection system and a driver violence detection method with low computational burden.

또한, 운전자 폭력 상황을 기 설정된 연락처로 출력할 수 있는 효과가 있다.In addition, there is an effect of outputting the driver's violence situation to a preset contact information.

도 1은 본 발명의 일실시예에 따른 운전자 폭력 감지 시스템을 나타내는 도면이다.
도 2는 촬영 장치의 구성을 나타내는 도면이다.
도 3은 결정 서버의 구성을 나타내는 도면이다.
도 4는 본 발명의 일실시예에 따른 운전자 폭력 감지 방법을 개략적으로 나타내는 플로우 차트이다.
1 is a diagram showing a driver violence detection system according to an embodiment of the present invention.
2 is a diagram showing a configuration of a photographing apparatus.
3 is a diagram showing the configuration of a decision server.
4 is a flowchart schematically illustrating a method for detecting driver violence according to an embodiment of the present invention.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed in the present specification are exemplified only for the purpose of describing the embodiments according to the concept of the present invention, and the embodiments according to the concept of the present invention are It may be implemented in various forms and is not limited to the embodiments described herein.

본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.Since the embodiments according to the concept of the present invention can apply various changes and have various forms, the embodiments will be illustrated in the drawings and described in detail in the present specification. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosed forms, and includes all changes, equivalents, or substitutes included in the spirit and scope of the present invention.

제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소는 제1구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various elements, but the elements should not be limited by the terms. The terms are only for the purpose of distinguishing one component from other components, for example, without departing from the scope of the rights according to the concept of the present invention, the first component may be referred to as the second component, and similarly The second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. Should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle. Other expressions describing the relationship between components, such as "between" and "just between" or "adjacent to" and "directly adjacent to" should be interpreted as well.

본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.The terms used in this specification are used only to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise.

본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, action, component, part, or combination thereof is present, but one or more other features or numbers It is to be understood that the possibility of addition or presence of, steps, actions, components, parts, or combinations thereof is not preliminarily excluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다.Unless otherwise defined, all terms including technical or scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this specification. Does not.

이하의 설명에서 동일한 식별 기호는 동일한 구성을 의미하며, 불필요한 중복적인 설명 및 공지 기술에 대한 설명은 생략하기로 한다.In the following description, the same identification symbols mean the same configuration, and unnecessary redundant descriptions and descriptions of known technologies will be omitted.

본 발명의 실시 예에서 '통신', '통신망' 및 '네트워크'는 동일한 의미로 사용될 수 있다. 상기 세 용어들은, 파일을 사용자 단말, 다른 사용자들의 단말 및 다운로드 서버 사이에서 송수신할 수 있는 유무선의 근거리 및 광역 데이터 송수신망을 의미한다.In an embodiment of the present invention,'communication','communication network', and'network' may be used with the same meaning. The three terms refer to wired/wireless local and wide area data transmission/reception networks capable of transmitting and receiving files between a user terminal, a terminal of other users, and a download server.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다.Hereinafter, the present invention will be described in detail by describing a preferred embodiment of the present invention with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 운전자 폭력 감지 시스템을 나타내는 도면이고, 도 2는 촬영 장치의 구성을 나타내는 도면이며, 도 3은 결정 서버의 구성을 나타내는 도면이다.1 is a diagram illustrating a driver violence detection system according to an embodiment of the present invention, FIG. 2 is a diagram illustrating a configuration of a photographing apparatus, and FIG. 3 is a diagram illustrating a configuration of a decision server.

도 1을 참조하면, 본 발명의 일실시예에 따른 운전자 폭력 감지 시스템은 촬영 장치(100) 및 결정 서버(200)를 포함한다.Referring to FIG. 1, a driver violence detection system according to an embodiment of the present invention includes a photographing apparatus 100 and a decision server 200.

도 1 및 도 2를 참조하면, 촬영 장치(100)는 제1 제어모듈(110), 제1 통신모듈(120), 영상 획득 모듈(130), 객체 데이터 생성 모듈(140) 및 제1 데이터베이스(150)를 포함한다.1 and 2, the photographing apparatus 100 includes a first control module 110, a first communication module 120, an image acquisition module 130, an object data generation module 140, and a first database ( 150).

촬영 장치(100)를 구성하는 제1 제어모듈(110), 제1 통신모듈(120), 영상 획득 모듈(130), 객체 데이터 생성 모듈(140) 및 제1 데이터베이스(150)는 상호 연결되어 있으며, 상호 데이터를 전송하는 것이 가능하다.The first control module 110, the first communication module 120, the image acquisition module 130, the object data generation module 140 and the first database 150 constituting the photographing apparatus 100 are interconnected. , It is possible to transmit data to each other.

제1 제어모듈(110)은 촬영 장치(100)에 대한 정보나 촬영 장치(100)의 동작을 관리한다.The first control module 110 manages information on the photographing apparatus 100 or an operation of the photographing apparatus 100.

제1 제어모듈(110)은 영상 획득 모듈(130)의 동작을 관리한다.The first control module 110 manages the operation of the image acquisition module 130.

제1 제어모듈(110)은 객체 데이터 생성 모듈(140)의 동작을 관리한다.The first control module 110 manages the operation of the object data generation module 140.

제1 제어모듈(110)은 영상 획득 모듈(130)의 영상 획득 조건을 설정할 수 있다.The first control module 110 may set an image acquisition condition of the image acquisition module 130.

제1 제어모듈(110)은 프로그램들이 저장된 메모리(미도시) 및 상기 메모리(미도시)에 저장된 상기 프로그램을 실행시키기 위한 프로세서(미도시)를 포함할 수 있다.The first control module 110 may include a memory (not shown) in which programs are stored and a processor (not shown) for executing the program stored in the memory (not shown).

이때, 상기 메모리(미도시)에는 촬영 장치(100)를 동작시키기 위한 동작프로그램(예컨대, OS)이 저장될 수 있다.In this case, an operation program (eg, OS) for operating the photographing apparatus 100 may be stored in the memory (not shown).

제1 통신모듈(120)은 네트워크를 통하여 결정 서버(200)와 연결된다.The first communication module 120 is connected to the decision server 200 through a network.

제1 통신모듈(120)은 영상 획득 모듈(130)이 획득한 영상을 결정 서버(200)로 전송한다.The first communication module 120 transmits the image acquired by the image acquisition module 130 to the determination server 200.

제1 통신모듈(120)은 객체 데이터 생성 모듈(140)이 생성한 객체 데이터를 결정 서버(200)로 전송한다.The first communication module 120 transmits the object data generated by the object data generation module 140 to the determination server 200.

제1 통신모듈(120)은 결정 서버(200)가 전송한 영상 재송신 신호를 수신한다.The first communication module 120 receives an image retransmission signal transmitted from the determination server 200.

제1 통신모듈(120)은 결정 서버(200)로 상기 영상 재송신 신호에 대응하는 영상을 전송한다.The first communication module 120 transmits an image corresponding to the image retransmission signal to the determination server 200.

영상 획득 모듈(130)은 객체들을 촬영한다.The image acquisition module 130 photographs objects.

영상 획득 모듈(130)은 운전자를 객체로 촬영할 수 있다.The image acquisition module 130 may photograph the driver as an object.

영상 획득 모듈(130)은 탑승자를 객체로 촬영할 수 있다.The image acquisition module 130 may photograph a passenger as an object.

이때, 상기 탑승자는 운전석 우측에 존재하는 탑승석에 탑승한 사람을 말한다.In this case, the occupant refers to a person who has boarded the boarding seat on the right side of the driver's seat.

영상 획득 모듈(130)은 운전자 및 탑승자를 촬영할 수 있다.The image acquisition module 130 may photograph a driver and a passenger.

영상 획득 모듈(130)은 운전자 및 탑승자가 모두 촬영 화면에 들어온 경우에만 영상을 획득할 수 있다.The image acquisition module 130 may acquire an image only when both the driver and the occupant enter the photographing screen.

영상 획득 모듈(130)은 운전석을 기준으로 영상을 촬영할 수 있다.The image acquisition module 130 may take an image based on the driver's seat.

객체 데이터 생성 모듈(140)은 영상 획득 모듈(130)이 촬영한 영상을 이용하여 객체 데이터를 생성한다.The object data generation module 140 generates object data by using the image captured by the image acquisition module 130.

객체 데이터 생성 모듈(140)은 상기 영상에 운전자 및 탑승자가 모두 촬영된 경우에만 객체 데이터를 생성할 수 있다.The object data generation module 140 may generate object data only when both the driver and the occupant are photographed in the image.

객체 데이터 생성 모듈(140)은 운전석을 기준으로 객체 데이터를 생성할 수 있다.The object data generation module 140 may generate object data based on a driver's seat.

객체 데이터 생성 모듈(140)은 상기 영상에 운전자만 촬영된 경우에도 객체 데이터를 생성할 수 있다.The object data generation module 140 may generate object data even when only the driver is photographed in the image.

객체 데이터 생성 모듈(140)은 상기 영상에 탑승자만 촬영된 경우에도 객체 데이터를 생성할 수 있다.The object data generation module 140 may generate object data even when only the passenger is photographed in the image.

제1 데이터베이스(150)는 영상 획득 모듈(130)의 영상 획득 조건을 저장한다.The first database 150 stores an image acquisition condition of the image acquisition module 130.

제1 데이터베이스(150)는 영상 획득 모듈(130)이 획득한 영상을 저장한다.The first database 150 stores an image acquired by the image acquisition module 130.

제1 데이터베이스(150)는 객체 데이터 생성 모듈(140)이 생성한 객체 데이터를 저장한다.The first database 150 stores object data generated by the object data generation module 140.

제1 데이터베이스(150)는 결정 서버(200)로 전송한 영상을 저장한다.The first database 150 stores the image transmitted to the decision server 200.

제1 데이터베이스(150)는 결정 서버(200)로 전송한 객체 데이터를 저장한다.The first database 150 stores object data transmitted to the decision server 200.

도 1 및 도 3을 참조하면, 결정 서버(200)는 제2 제어 모듈(210), 제2 통신 모듈(220), 객체 검출 모듈(230), 겹침 데이터 생성 모듈(240), 표정 데이터 생성 모듈(250), 폭력 상황 결정 모듈(260), 출력 모듈(270) 및 제2 데이터베이스(280)를 포함한다.1 and 3, the determination server 200 includes a second control module 210, a second communication module 220, an object detection module 230, an overlap data generation module 240, and an expression data generation module. 250, a violence situation determination module 260, an output module 270, and a second database 280.

결정 서버(200)를 구성하는 제2 제어 모듈(210), 제2 통신 모듈(220), 객체 검출 모듈(230), 겹침 데이터 생성 모듈(240), 표정 데이터 생성 모듈(250), 폭력 상황 결정 모듈(260), 출력 모듈(270) 및 제2 데이터베이스(280)는 상호 연결되어 있으며, 상호 데이터를 전송하는 것이 가능하다. The second control module 210 constituting the decision server 200, the second communication module 220, the object detection module 230, the overlap data generation module 240, the facial expression data generation module 250, the violence situation determination The module 260, the output module 270, and the second database 280 are interconnected, and data can be transmitted to each other.

제2 제어 모듈(210)은 결정 서버(200)에 대한 정보나 결정 서버(200)의 동작을 관리한다.The second control module 210 manages information on the decision server 200 or an operation of the decision server 200.

제2 제어 모듈(210)은 객체 검출 모듈(230)의 동작을 관리한다.The second control module 210 manages the operation of the object detection module 230.

제2 제어 모듈(210)은 겹침 데이터 생성 모듈(240)의 동작을 관리한다.The second control module 210 manages the operation of the overlapping data generation module 240.

제2 제어 모듈(210)은 표정 데이터 생성 모듈(250)의 동작을 관리한다.The second control module 210 manages the operation of the facial expression data generation module 250.

제2 제어 모듈(210)은 폭력 상황 결정 모듈(260)의 동작을 관리한다.The second control module 210 manages the operation of the violence situation determination module 260.

제2 제어 모듈(210)은 출력 모듈(270)의 동작을 관리한다.The second control module 210 manages the operation of the output module 270.

제2 제어 모듈(210)은 프로그램들이 저장된 메모리(미도시) 및 상기 메모리(미도시)에 저장된 상기 프로그램을 실행시키기 위한 프로세서(미도시)를 포함할 수 있다.The second control module 210 may include a memory (not shown) in which programs are stored and a processor (not shown) for executing the program stored in the memory (not shown).

이때, 상기 메모리(미도시)에는 결정 서버(200)를 동작시키기 위한 동작프로그램(예컨대, OS)이 저장될 수 있다.In this case, an operation program (eg, OS) for operating the decision server 200 may be stored in the memory (not shown).

제2 통신 모듈(220)은 네트워크를 통하여 촬영 장치(100)와 연결된다.The second communication module 220 is connected to the photographing device 100 through a network.

제2 통신 모듈(220)은 촬영 장치(100)가 전송한 영상을 수신한다.The second communication module 220 receives an image transmitted by the photographing device 100.

제2 통신 모듈(220)은 촬영 장치(100)가 전송한 객체 데이터를 수신한다.The second communication module 220 receives object data transmitted by the photographing device 100.

제2 통신 모듈(220)은 폭력 상황 여부 결정 결과를 기 설정된 연락처로 전송할 수 이다.The second communication module 220 may transmit the result of determining whether the violence situation is present to a preset contact information.

이때, 상기 기 설정된 연락처는 경찰서, 보험사, 가족, 친구 또는 지인의 연락처 중 하나인 것이 바람직하나 이에 한정되는 것은 아니다.In this case, the preset contact information is preferably one of contact information of a police station, an insurance company, a family member, a friend, or an acquaintance, but is not limited thereto.

객체 검출 모듈(230)은 촬영 장치(100)가 전송한 영상에서 운전자 객체를 검출한다.The object detection module 230 detects a driver object from an image transmitted by the photographing device 100.

객체 검출 모듈(230)은 촬영 장치(100)가 전송한 객체 데이터에서 운전자 객체를 검출한다.The object detection module 230 detects a driver object from object data transmitted from the photographing device 100.

객체 검출 모듈(230)은 촬영 장치(100)가 전송한 영상에서 외부 객체를 검출한다.The object detection module 230 detects an external object from an image transmitted by the photographing device 100.

객체 검출 모듈(230)은 촬영 장치(100)가 전송한 객체 데이터에서 외부 객체를 검출한다.The object detection module 230 detects an external object from object data transmitted by the photographing device 100.

객체 검출 모듈(230)은 YOLO 객체 검출 알고리즘을 이용하여 상기 객체들을 검출할 수 있다.The object detection module 230 may detect the objects using a YOLO object detection algorithm.

겹침 데이터 생성 모듈(240)은 객체 검출 모듈(230)이 검출한 객체들의 겹침도를 결정하여 객체 겹침 데이터를 생성한다.The overlapping data generation module 240 determines the degree of overlap of objects detected by the object detection module 230 to generate object overlapping data.

겹침 데이터 생성 모듈(240)은 겹침도를 결정하기 위하여 상기 운전자 객체와 상기 외부 객체 좌표간의 유클리드 거리(Euclidean distance)를 측정하는 알고리즘을 이용할 수 있다.The overlapping data generation module 240 may use an algorithm for measuring an Euclidean distance between coordinates of the driver object and the external object in order to determine the degree of overlap.

겹침 데이터 생성 모듈(240)은 하기 [수학식 1]을 이용하여 겹침도를 결정할 수 있다.The overlapping data generation module 240 may determine the degree of overlap using the following [Equation 1].

Figure 112018086114733-pat00001
Figure 112018086114733-pat00001

겹침 데이터 생성 모듈(240)은 상기 운전자 객체와 상기 외부 객체 사이에 겹침도가 있다고 결정한 경우 객체 겹침 데이터를 생성한다.When it is determined that there is an overlap between the driver object and the external object, the overlap data generation module 240 generates object overlap data.

겹침 데이터 생성 모듈(240)은 상기 운전자 객체와 상기 외부 객체 사이에 겹침도가 없다고 결정한 경우 객체 겹침 데이터를 생성하지 않을 수 있다.When it is determined that there is no overlap between the driver object and the external object, the overlap data generation module 240 may not generate object overlap data.

표정 데이터 생성 모듈(250)은 상기 객체들의 표정을 인식하고, 상기 인식한 객체들의 표정을 이용하여 표정 데이터를 생성한다.The facial expression data generation module 250 recognizes the facial expressions of the objects, and generates facial expression data by using the facial expressions of the recognized objects.

표정 데이터 생성 모듈(250)은 이진 하틀리 변환(Discrete Hartley Transform) 또는 퓨리에 변환(Fourier-related transform)을 이용하여 촬영 장치(100)가 전송한 영상을 전처리할 수 있다.The facial expression data generation module 250 may pre-process the image transmitted by the photographing apparatus 100 by using a binary Hartley transform or a Fourier-related transform.

표정 데이터 생성 모듈(250)은 상기 전처리한 영상에 입술 검출 알고리즘을 적용하여 입술 영역을 추출하고, 상기 추출한 입술 영역을 기 저장된 입술 이미지 템플릿과 비교하여 상기 객체들의 표정을 인식할 수 있다.The facial expression data generation module 250 may extract a lip region by applying a lip detection algorithm to the preprocessed image, and compare the extracted lip region with a pre-stored lip image template to recognize facial expressions of the objects.

이때, 상기 입술 검출 알고리즘은 운전자 얼굴에서 붉은 색 계열이 가장 강한 부분이 입술이라는 특징을 이용하여 이진연산(Threshold)을 이용하여 운전자의 입술 부분을 강조하는 방법이다.In this case, the lip detection algorithm is a method of emphasizing the driver's lip part using a threshold using a feature that the part of the driver's face with the strongest red color is the lip.

또한, 기 저장된 입술 이미지 템플릿은 중립(Neutral), 행복(Happiness), 슬픔(Grief), 놀람(Surprized), 화남(Anger)을 포함한다.In addition, the pre-stored lip image templates include Neutral, Happiness, Grief, Surprized, and Anger.

표정 데이터 생성 모듈(250)은 상기 인식한 객체들의 표정으로 표정 데이터를 생성할 수 있다.The facial expression data generation module 250 may generate facial expression data from facial expressions of the recognized objects.

폭력 상황 결정 모듈(260)은 상기 객체 겹침 데이터 및 상기 표정 데이터를 이용하여 폭력 상황 여부를 결정한다.The violence situation determination module 260 determines whether there is a violence situation using the object overlap data and the facial expression data.

폭력 상황 결정 모듈(260)은 상기 객체 겹침 데이터 및 상기 표정 데이터 각각에 가중치를 부여하여 폭력 상황 여부를 결정할 수 있다.The violence situation determination module 260 may determine whether the violence situation exists by assigning a weight to each of the object overlapping data and the facial expression data.

폭력 상황 결정 모듈(260)은 상기 객체 겹침 데이터에 가중치를 부여하여 폭력 상황 여부를 결정할 수 있다.The violence situation determination module 260 may determine whether the violence situation is present by assigning a weight to the object overlapping data.

폭력 상황 결정 모듈(260)은 상기 표정 데이터에 가중치를 부여하여 폭력 상황 여부를 결정할 수 있다.The violence situation determination module 260 may determine whether the violence situation is present by assigning a weight to the facial expression data.

출력 모듈(270)은 폭력 상황 결정 모듈(260)이 결정한 폭력 상황 여부를 출력한다.The output module 270 outputs whether the violence situation is determined by the violence situation determination module 260.

출력 모듈(270)은 제2 통신 모듈(220)을 통하여 폭력 상황 여부 결정 결과를 기 설정된 연락처로 전송할 수 있다.The output module 270 may transmit a result of determining whether there is a violence situation to a preset contact information through the second communication module 220.

이때, 상기 기 설정된 연락처는 경찰서, 보험사, 가족, 친구 또는 지인의 연락처 중 하나인 것이 바람직하나 이에 한정되는 것은 아니다.In this case, the preset contact information is preferably one of contact information of a police station, an insurance company, a family member, a friend, or an acquaintance, but is not limited thereto.

제2 데이터베이스(280)는 촬영 장치(100)가 전송한 영상을 저장한다.The second database 280 stores an image transmitted from the photographing device 100.

제2 데이터베이스(280)는 촬영 장치(100)가 전송한 객체 데이터를 저장한다.The second database 280 stores object data transmitted from the photographing device 100.

제2 데이터베이스(280)는 기 설정된 연락처를 저장한다.The second database 280 stores preset contact information.

제2 데이터베이스(280)는 겹침 데이터 생성 모듈(240)이 생성한 객체 겹침 데이터를 저장한다.The second database 280 stores object overlap data generated by the overlap data generation module 240.

제2 데이터베이스(280)는 표정 데이터 생성 모듈(250)이 생성한 표정 데이터를 저장한다.The second database 280 stores facial expression data generated by the facial expression data generation module 250.

제2 데이터베이스(280)는 입술 이미지 템플릿을 저장한다.The second database 280 stores a lip image template.

제2 데이터베이스(280)는 폭력 상황 결정 모듈(260)이 결정한 폭력 상황 여부를 저장한다.The second database 280 stores the violence situation determined by the violence situation determination module 260.

제2 데이터베이스(280)는 출력 모듈(270)이 출력한 폭력 상황 여부 결정 결과 저장한다.The second database 280 stores the result of determining whether there is a violence situation output by the output module 270.

여기서 사용된 '서버'라는 용어는 논리적인 구성 단위를 나타내는 것으로서, 반드시 물리적으로 구분되는 구성 요소가 아니라는 점은 본 발명이 속하는 기술분야의 당업자에게 자명한 사항이다.The term'server' used herein denotes a logical structural unit, and it is obvious to those skilled in the art that the present invention is not necessarily a physically classified component.

여기서 사용된 '모듈'이라는 용어는 논리적인 구성 단위를 나타내는 것으로서, 반드시 물리적으로 구분되는 구성 요소가 아니라는 점은 본 발명이 속하는 기술분야의 당업자에게 자명한 사항이다.The term'module' as used herein denotes a logical structural unit, and it is obvious to those skilled in the art that the present invention is not necessarily a physically classified component.

도 4는 본 발명의 일실시예에 따른 운전자 폭력 감지 방법을 개략적으로 나타내는 플로우 차트이다.4 is a flowchart schematically illustrating a method for detecting driver violence according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일실시예에 따른 운전자 폭력 감지 방법은 운전자 폭력 감지 시스템이 객체들을 촬영하여 객체 데이터를 생성한다(S100).Referring to FIG. 4, in the method for detecting driver violence according to an embodiment of the present invention, a driver violence detection system photographs objects to generate object data (S100).

이때, 운전자 폭력 감지 시스템은 운전석을 기준으로 객체 데이터를 생성할 수 있다.In this case, the driver violence detection system may generate object data based on the driver's seat.

운전자 폭력 감지 시스템이 상기 객체 데이터에서 객체들을 검출한다(S110).The driver violence detection system detects objects from the object data (S110).

이때, 운전자 폭력 감지 시스템은 YOLO 객체 검출 알고리즘을 이용하여 상기 객체들을 검출할 수 있다.In this case, the driver violence detection system may detect the objects using a YOLO object detection algorithm.

운전자 폭력 감지 시스템이 상기 검출한 객체들의 겹침도를 결정하여 객체 겹침 데이터를 생성한다(S120).The driver violence detection system determines the degree of overlap of the detected objects to generate object overlap data (S120).

이때, 운전자 폭력 감지 시스템은 객체들 간의 유클리드 거리를 측정하는 알고리즘을 이용하여 상기 겹침 데이터를 생성할 수 있다.In this case, the driver violence detection system may generate the overlapping data by using an algorithm for measuring the Euclidean distance between objects.

운전자 폭력 감지 시스템이 상기 객체들의 표정을 인식하고, 상기 인식한 객체들의 표정을 이용하여 표정 데이터를 생성한다(S130).The driver's violence detection system recognizes the facial expressions of the objects, and generates facial expression data using the recognized facial expressions of the objects (S130).

이때, 운전자 폭력 감지 시스템은 전처리한 영상에 입술 검출 알고리즘을 적용하여 입술 영역을 추출하고, 상기 추출한 입술 영역을 기 저장된 입술 이미지 템플릿과 비교하여 상기 객체들의 표정을 인식하고, 상기 인식한 표정으로 표정 데이터를 생성할 수 있다.At this time, the driver violence detection system extracts the lip region by applying a lip detection algorithm to the preprocessed image, compares the extracted lip region with a pre-stored lip image template, recognizes the expressions of the objects, and uses the recognized expression. Data can be created.

운전자 폭력 감지 시스템이 상기 객체 겹침 데이터 및 상기 표정 데이터를 이용하여 폭력 상황 여부를 결정한다(S140).The driver violence detection system determines whether there is a violence situation using the object overlap data and the facial expression data (S140).

이때, 운전자 폭력 감지 시스템은 상기 객체 겹침 데이터에 가중치를 부여하여 폭력 상황 여부를 결정할 수 있다.In this case, the driver violence detection system may determine whether or not there is a violence situation by assigning a weight to the object overlapping data.

운전자 폭력 감지 시스템이 폭력 상황 여부 결정 결과를 출력한다(S150).The driver's violence detection system outputs a result of determining whether there is a violence situation (S150).

이때, 운전자 폭력 감지 시스템은 폭력 상황 여부 결정 결과를 경찰서, 보험사, 가족, 친구 또는 지인의 연락처 중 적어도 어느 하나로 전송할 수 있다.In this case, the driver violence detection system may transmit a result of determining whether a violent situation exists to at least one of a police station, an insurance company, a family member, a friend, or an acquaintance.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 적어도 하나로 선택적으로 결합하여 동작할 수도 있다. In the above, even if all the constituent elements constituting the embodiments of the present invention have been described as being combined into one or operating in combination, the present invention is not necessarily limited to these embodiments. That is, within the scope of the object of the present invention, all the constituent elements may be selectively combined and operated with at least one.

또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. In addition, although all of the components may be implemented as one independent hardware, a program module that performs some or all functions combined in one or more hardware by selectively combining some or all of the components. It may be implemented as a computer program having Codes and code segments constituting the computer program may be easily inferred by those skilled in the art of the present invention.

이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 등이 포함될 수 있다.Such a computer program is stored in a computer-readable storage medium, and is read and executed by a computer, thereby implementing an embodiment of the present invention. The computer program storage medium may include a magnetic recording medium, an optical recording medium, and the like.

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. In addition, the terms such as "include", "consist of" or "have" described above mean that the corresponding component may be embedded unless otherwise stated, excluding other components Rather, it should be interpreted as being able to further include other components.

기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.All terms, including technical or scientific terms, unless otherwise defined, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms generally used, such as terms defined in the dictionary, should be interpreted as being consistent with the meaning in the context of the related technology, and are not interpreted as ideal or excessively formal meanings unless explicitly defined in the present invention.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains will be able to make various modifications and variations without departing from the essential characteristics of the present invention.

따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.

100...촬영 장치 200...결정 서버100... shooting device 200... decision server

Claims (5)

객체들을 촬영하여 객체 데이터를 생성하는 촬영 장치; 상기 객체 데이터에서 객체들을 검출하는 객체 검출 장치; 상기 검출한 객체들의 겹침도를 결정하여 객체 겹침 데이터를 생성하는 겹침 데이터 생성 모듈; 상기 객체들의 표정을 인식하고, 상기 인식한 객체들의 표정을 이용하여 표정 데이터를 생성하는 표정 데이터 생성 모듈; 및 상기 객체 겹침 데이터 및 상기 표정 데이터를 이용하여 폭력 상황 여부를 결정하는 폭력 상황 결정 모듈;을 포함하는 운전자 폭력 감지 시스템을 이용한 운전자 폭력 감지 방법으로서,
운전자 폭력 감지 시스템이 객체들을 촬영하여 객체 데이터를 생성하는 단계;
운전자 폭력 감지 시스템이 상기 객체 데이터에서 객체들을 검출하는 단계;
운전자 폭력 감지 시스템이 상기 검출한 객체들의 겹침도를 결정하여 객체 겹침 데이터를 생성하는 단계;
운전자 폭력 감지 시스템이 상기 객체들의 표정을 인식하고, 상기 인식한 객체들의 표정을 이용하여 표정 데이터를 생성하는 단계; 및
운전자 폭력 감지 시스템이 상기 객체 겹침 데이터 및 상기 표정 데이터를 이용하여 폭력 상황 여부를 결정하는 단계;를 포함하며,
상기 표정 데이터를 생성하는 단계는, 상기 운전자 폭력 감지 시스템이 전처리한 영상에 입술 검출 알고리즘을 적용하여 입술 영역을 추출하고, 상기 추출한 입술 영역을 기 저장된 입술 이미지 템플릿과 비교하여 상기 객체들의 표정을 인식하고, 상기 인식한 표정으로 표정 데이터를 생성하는 단계를 더 포함하고,
상기 폭력 상황 여부를 결정하는 단계는, 상기 운전자 폭력 감지 시스템이 상기 객체 겹침 데이터에 가중치를 부여하여 폭력 상황 여부를 결정하는 단계를 더 포함하는 것을 특징으로 하는 운전자 폭력 감지 방법.
A photographing device that photographs objects to generate object data; An object detection device for detecting objects in the object data; An overlap data generation module for generating object overlap data by determining an overlap degree of the detected objects; An expression data generation module that recognizes the facial expressions of the objects and generates facial expression data by using the recognized facial expressions of the objects; And a violence situation determination module that determines whether or not a violence situation is made using the object overlap data and the facial expression data, comprising:
Generating object data by photographing objects by a driver violence detection system;
Detecting, by a driver violence detection system, objects in the object data;
Generating object overlap data by determining, by a driver violence detection system, an overlapping degree of the detected objects;
Recognizing, by a driver violence detection system, the facial expressions of the objects, and generating facial expression data using the recognized facial expressions of the objects; And
Including, by the driver violence detection system, determining whether or not a violence situation by using the object overlap data and the facial expression data,
The generating of the facial expression data includes extracting a lip area by applying a lip detection algorithm to the image preprocessed by the driver violence detection system, and comparing the extracted lip area with a pre-stored lip image template to recognize the facial expressions of the objects. And, further comprising the step of generating facial expression data with the recognized facial expression,
The determining of the violence situation further comprises the step of determining, by the driver violence detection system, a violence situation by assigning a weight to the object overlap data.
삭제delete 제1항에 있어서,
상기 객체 데이터에서 YOLO 객체 검출 알고리즘을 이용하여 상기 객체들을 검출하는 것을 특징으로 하는 운전자 폭력 감지 방법.
The method of claim 1,
A method of detecting driver violence, characterized in that the objects are detected from the object data using a YOLO object detection algorithm.
제1항에 있어서,
객체들 간의 유클리드 거리를 측정하는 알고리즘을 이용하여 상기 겹침 데이터를 생성하는 운전자 폭력 감지 방법.
The method of claim 1,
A driver violence detection method for generating the overlapping data by using an algorithm measuring the Euclidean distance between objects.
삭제delete
KR1020180102479A 2018-08-30 2018-08-30 Method for detection driver violence KR102179995B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180102479A KR102179995B1 (en) 2018-08-30 2018-08-30 Method for detection driver violence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180102479A KR102179995B1 (en) 2018-08-30 2018-08-30 Method for detection driver violence

Publications (2)

Publication Number Publication Date
KR20200026368A KR20200026368A (en) 2020-03-11
KR102179995B1 true KR102179995B1 (en) 2020-11-18

Family

ID=69809677

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180102479A KR102179995B1 (en) 2018-08-30 2018-08-30 Method for detection driver violence

Country Status (1)

Country Link
KR (1) KR102179995B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102648004B1 (en) * 2021-09-23 2024-03-18 주식회사 소이넷 Apparatus and Method for Detecting Violence, Smart Violence Monitoring System having the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013131153A (en) * 2011-12-22 2013-07-04 Welsoc Co Ltd Autonomous crime prevention warning system and autonomous crime prevention warning method
KR101572366B1 (en) * 2014-03-26 2015-11-27 인하대학교 산학협력단 Kidnapping event detector for intelligent video surveillance system
JP2017223680A (en) * 2016-12-30 2017-12-21 東軟集団股▲分▼有限公司 Method and device for generating target detection information, and equipment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080101418A (en) * 2007-05-18 2008-11-21 전진규 Cctv system for public transfortation
KR20110128157A (en) 2010-05-20 2011-11-28 한국전자통신연구원 Method and system for preventing accident using portable device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013131153A (en) * 2011-12-22 2013-07-04 Welsoc Co Ltd Autonomous crime prevention warning system and autonomous crime prevention warning method
KR101572366B1 (en) * 2014-03-26 2015-11-27 인하대학교 산학협력단 Kidnapping event detector for intelligent video surveillance system
JP2017223680A (en) * 2016-12-30 2017-12-21 東軟集団股▲分▼有限公司 Method and device for generating target detection information, and equipment

Also Published As

Publication number Publication date
KR20200026368A (en) 2020-03-11

Similar Documents

Publication Publication Date Title
JP5127392B2 (en) Classification boundary determination method and classification boundary determination apparatus
US20140376772A1 (en) Device, operating method and computer-readable recording medium for generating a signal by detecting facial movement
KR20190059723A (en) Artificial intelligence based traffic accident prediction system and method
CN108284813B (en) Method for operating a motor vehicle for transporting persons, and motor vehicle
US11908157B2 (en) Image processing device, image processing method, and recording medium in which program is stored
CN109902475B (en) Verification code image generation method and device and electronic equipment
KR20160041432A (en) Alert method and system of fingerprint reader
KR102179995B1 (en) Method for detection driver violence
CN108446591A (en) Driver identity recognition methods, device, storage medium and vehicle
CN112819997A (en) Method, apparatus and computer-readable storage medium for creating vehicle key
CN114937322B (en) Intelligent automobile door opening method and device, automobile, electronic equipment and storage medium
US20140294253A1 (en) Identification by iris recognition
JP2003331323A (en) Automatic gate system
KR101350882B1 (en) Server for analysing video
EP4207112A1 (en) Authentication method and apparatus for gate entrance
JP6542819B2 (en) Image surveillance system
KR20160028542A (en) an emergency management and crime prevention system for cars and the method thereof
JP2006099687A (en) User authentication device
KR101437406B1 (en) an emergency management and crime prevention system for cars and the method thereof
CN112686076A (en) Image processing method, system and computer readable storage medium
KR20200056186A (en) Apparatus and method for recognizing face
JP6587594B2 (en) Face authentication crime prevention system
Hamad et al. Multimodal biometric identification using fingerprint, face and iris recognition
TWI591585B (en) System and method for detecting suspicious forged access control cards
KR20150120188A (en) authentication method and authentication device using the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant