KR102393865B1 - 사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템 - Google Patents

사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템 Download PDF

Info

Publication number
KR102393865B1
KR102393865B1 KR1020200112890A KR20200112890A KR102393865B1 KR 102393865 B1 KR102393865 B1 KR 102393865B1 KR 1020200112890 A KR1020200112890 A KR 1020200112890A KR 20200112890 A KR20200112890 A KR 20200112890A KR 102393865 B1 KR102393865 B1 KR 102393865B1
Authority
KR
South Korea
Prior art keywords
accident
information
voice
precursor
data
Prior art date
Application number
KR1020200112890A
Other languages
English (en)
Other versions
KR20220031218A (ko
Inventor
박지홍
Original Assignee
주식회사 모듈링크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 모듈링크 filed Critical 주식회사 모듈링크
Priority to KR1020200112890A priority Critical patent/KR102393865B1/ko
Publication of KR20220031218A publication Critical patent/KR20220031218A/ko
Application granted granted Critical
Publication of KR102393865B1 publication Critical patent/KR102393865B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0635Risk analysis of enterprise or organisation activities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0637Strategic management or analysis, e.g. setting a goal or target of an organisation; Planning actions based on goals; Analysis or evaluation of effectiveness of goals
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/15Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Computational Linguistics (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Alarm Systems (AREA)

Abstract

시스템은 이동 수단의 내외부에서 발생되는 소리로부터 소리 데이터를 획득하고, 상기 이동 수단의 주행에 대한 주행 데이터 및 상기 이동 수단에 인가되는 충격에 대한 충격 데이터를 획득하는 모니터링 장치; 및 상기 소리 데이터 및 상기 주행 데이터에 기초하여 사고 전조의 발생 여부를 판단하고, 상기 충격 데이터에 기초하여 상기 이동 수단에 사고 충격이 인가되었는지 여부를 판단하고, 상기 사고 전조가 발생된 것으로 판단된 사고 전조 발생 시점과 상기 이동 수단에 사고 충격이 인가된 것으로 판단된 사고 충격 인가 시점 간의 시간차가 기준 시간 내에 포함되는지 여부에 기초하여 상기 이동 수단에 사고가 발생되었는지 여부를 판단하는 서버;를 포함할 수 있다.

Description

사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템{Apparatus for detecting accident and analyzing accident}
본 발명은 이동 수단에 발생할 수 있는 사고 또는 사고 전조를 감지하고 사고가 감지되면 사고 피해를 분석하는 사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템에 관한 것이다.
일반적으로, 지피에스(GPS; Global Positioning System)는 지피에스 위성을 이용한 항법지원 시스템으로 원래는 군사목적으로 개발을 시작하였다. 지피에스가 제공하는 위치 측정 서비스에는 표준 위치 측정 서비스와 정밀 위치 측정 서비스의 두 종류가 있다. 이 중 상대적으로 정확도가 떨어지는 C/A(Coarse Acquisition) 코드를 사용하는 표준 위치 측정 서비스는 민간용으로의 사용이 개방되어 누구라도 C/A 코드 수신기만 있으면 지구상 어느 곳에서도 자신의 위치와 시간을 손쉽게 알 수 있다.
상기 지피에스는 24개의 위성이 2만Km 상공에서 지피에스 단말기가 장착된 이동차량, 선박, 항공기 등에 위치정보를 제공하는 항법 시스템으로서 지피에스의 편의성과 수신기 가격의 저렴함으로 인하여 최근 지피에스를 이용한 차량 항법시스템이 많이 사용되고 있으며 지피에스 위성을 이용한 위치측정 기술은 고정밀 시각 동기,측지, 배의 항해, 자동차와 항공기 등과 같은 이동체의 항법장치 등 여러 분야에서 이용되고 있다.
이와 같은 지피에스 위성을 이용한 항법 지원시스템으로 인해 여행을 가거나 낯선 곳을 찾아갈 때 종이에 인쇄된 지도를 찾아보지 않고도 화면과 음성으로 길 안내를 제공받을 수 있다. 또한, 지피에스 위성을 이용한 항법 지원시스템으로 인해 전술한 바와 같이 화면과 음성을 통한 길 안내는 물론 전국의 무인카메라의 위치도사전에 예고해줌으로써 교통사고도 예방할 수 있으며, 최근에는 상기 지피에스 단말기를 아동이나 노인의 휴대품, 예를 들면 가방, 목걸이, 시계, 인형 등에 내장시켜 아동이나 노인의 위치를 쉽게 파악할 수 있도록 하고 있다.
한편, GPS를 차량에 사용할 경우 사고가 발생했을 때 사고신호를 무선통신을 사용하여 전송할 수 있도록 사고신호 발생버튼을 추가로 구비시킴으로써 운전중 차량의 사고가 발생될 경우 사용자가 사고신호 발생버튼을 누름으로서 사고발생위치 및 사고차량의 정보가 무선통신을 사용하여 사고상황 및 위치를 알려주게 된다.
그러나 상기와 같은 방법에 의하면 차량의 사고 발생시 운전자 및 동승자의 의식이 없어 사고발생 버튼을 누르지 못하는 경우가 발생할 수 있다. 이러한 경우에는 주위에 있는 사람이 발견하여 다른 통신수단을 이용하여 사고발생 상황을 알려야 하기 때문에 사고의 접수 및 처리가 늦어질 수 있는 문제점이 있었다.
본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 교통사고가 발생 시 사고 당사자나 주변 목격자의 신고에 의지하지 않고, 자동으로 관련 기관에 사고 정보를 전송하여 신속한 인명 구조와 사고 수습을 유도하는 것을 목적으로 한다.
그 밖에도 사고의 징후를 사전에 포착하여 인명 사고를 예방하거나, 사고의 발생시 센서를 통해 기록되는 운전자의 주행 데이터를 근거로 정확한 사고 원인과 책임 소재를 규명하는 것을 목적으로 한다.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
본 발명에 따른 사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템은 이동 수단의 내외부에서 발생되는 소리로부터 소리 데이터를 획득하고, 상기 이동 수단의 주행에 대한 주행 데이터 및 상기 이동 수단에 인가되는 충격에 대한 충격 데이터를 획득하는 모니터링 장치; 및 상기 소리 데이터 및 상기 주행 데이터에 기초하여 사고 전조의 발생 여부를 판단하고, 상기 충격 데이터에 기초하여 상기 이동 수단에 사고 충격이 인가되었는지 여부를 판단하고, 상기 사고 전조가 발생된 것으로 판단된 사고 전조 발생 시점과 상기 이동 수단에 사고 충격이 인가된 것으로 판단된 사고 충격 인가 시점 간의 시간차가 기준 시간 내에 포함되는지 여부에 기초하여 상기 이동 수단에 사고가 발생되었는지 여부를 판단하는 서버;를 포함할 수 있다.
바람직하게, 서버는 상기 소리 데이터로부터 음성 데이터를 추출하고, 상기 음성 데이터로부터 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보를 생성하고, 상기 음성 세기 정보, 상기 음성 주파수 정보, 상기 음성 빠르기 정보 및 상기 발화 단어 정보 각각에 대응되는 제1 사고 전조 감지 조건을 상기 음성 세기 정보, 상기 음성 주파수 정보, 상기 음성 빠르기 정보 및 상기 발화 단어 정보 각각이 만족하는지 여부에 기초하여 상기 사고 전조의 발생 여부를 판단할 수 있다.
바람직하게, 서버는 상기 음성 세기 정보, 상기 음성 주파수 정보, 상기 음성 빠르기 정보 및 상기 발화 단어 정보 중에서 상기 제1 사고 전조 감지 조건을 만족하는 정보의 개수가 미리 설정된 제1 기준 개수 범위에 포함되면 상기 사고 전조가 발생된 것으로 판단할 수 있다.
바람직하게, 서버는 상기 음성 세기 정보, 상기 음성 주파수 정보, 상기 음성 빠르기 정보 및 상기 발화 단어 정보 중에서 상기 사고 전조 감지 조건을 만족하는 정보의 개수가 상기 미리 설정된 제1 기준 개수 범위에 포함되지 않고 미리 설정된 제2 기준 개수 범위에 포함되면, 상기 주행 데이터에 포함된 가속도 정보가 제2 사고 전조 감지 조건을 만족하는지 여부를 판단하고, 상기 가속도 정보가 제2 사고 전조 감지 조건을 만족하면 상기 사고 전조가 발생된 것으로 판단할 수 있다.
바람직하게, 서버는 상기 사고 전조 발생 시점과 상기 사고 충격 인가 시점 간의 시간차가 상기 기준 시간 내에 포함되면 상기 이동 수단에 사고가 발생된 것으로 판단할 수 있다.
바람직하게, 서버는 상기 음성 데이터에 기초하여 상기 이동 수단의 탑승자의 탑승 인원 정보를 생성하고, 상기 이동 수단에 사고가 발생된 것으로 판단된 사고 발생 시점 이후에 획득된 상기 음성 데이터에 기초하여 상기 탑승자 중에서 의식을 잃지 않은 탑승자의 유의식 인원 정보를 생성하고, 상기 탑승 인원 정보와 상기 유의식 인원 정보에 기초하여 상기 탑승자 중에서 의식을 잃은 탑승자의 무의식 인원 정보를 생성할 수 있다.
바람직하게, 서버는 상기 사고 발생 시점 이후에 획득된 상기 음성 데이터로부터 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보를 생성하고, 상기 음성 세기 정보, 상기 음성 주파수 정보, 상기 음성 빠르기 정보 및 상기 발화 단어 정보 각각에 대응되는 고위험 사고 발생 조건을 상기 음성 세기 정보, 상기 음성 주파수 정보, 상기 음성 빠르기 정보 및 상기 발화 단어 정보 각각이 만족하는지 여부 및 상기 무의식 인원 정보에 기초하여 상기 발생된 사고가 고위험 사고인지 여부를 판단할 수 있다.
본 발명은 교통사고가 발생 시 사고 당사자나 주변 목격자의 신고에 의지하지 않고, 자동으로 관련 기관에 사고 정보를 전송하여 신속한 인명 구조와 사고 수습을 유도할 수 있다.
그 밖에도 사고의 징후를 사전에 포착하여 인명 사고를 예방하거나, 사고의 발생시 센서를 통해 기록되는 운전자의 주행 데이터를 근거로 정확한 사고 원인과 책임 소재를 규명할 수도 있다.
또한, 자동으로 프로세스가 진행되기 때문에 인명 사고를 일으킨 가해자가 도주하지 않고, 적절한 구호활동을 하도록 유도하여 억울한 피해자가 발생하는 것을 예방할 수도 있다.
이는 센서에 기록된 수치를 통해 정확한 운전자의 사고 회피 노력이나 부주의 여부 등을 확인할 시 사용가능하며, 불필요한 소송으로 인한 사회적 비용을 절감할 수 있게 되는 것이다.
아울러, 본 발명을 통해 사고의 전조를 감지하고 운전자에게 경고함으로써, 교통 사고 발생을 예방하는 효과를 기대할 수도 있는 것이다.
도 1은 본 발명의 일 실시예에 따른 사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템의 구성을 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템의 모니터링 장치의 구성을 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른 사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템의 서버의 구성을 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템의 서버가 사고 전조와 사고 충격 인가를 감지하는 시점을 설명하기 위한 도면이다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형 태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/ 또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대 해서는 유사한 참조 부호가 사용될 수 있다.
본 문서에서, "가진다", "가질 수 있다", "포함한다", 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 문서에서, "A 또는 B", "A 또는/및 B 중 적어도 하나", 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현 은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", "A 및 B 중 적어도 하나", 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는(3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 문서에서 사용된 "제1", "제2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중 요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성 요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합 한(suitable for)", "~하는 능력을 가지는(having the capacity to)", "~하도록 설계된(designed to)", "~하도록 변경된(adapted to)", "~하도록 만들어진(made to)", 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성(또는 설정)된"은 하드웨어적으로 "특별히 설계된(specifically designed to)"것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성 (또는 설정)된 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서 (generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한 정하려는 의도가 아닐 수 있다. 단수의 표현은 컨텍스트 상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은 관련 기술의 컨텍스트 상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.
도 1은 본 발명의 일 실시예에 따른 사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템(10)의 구성을 나타낸 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템(10)은 모니터링 장치(100) 및 서버(200)를 포함하고, 모니터링 장치(100) 및 서버(200)는 통신망을 통해 통신을 수행할 수 있다. 또한, 본 발명의 일 실시예에 따른 사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템(10)의 서버(200)는 사고 수습 기관이 운영하는 외부 서버(300) 및 이동 수단의 비상 연락 대상으로 설정된 사용자 단말(400)과 통신망을 통해 통신을 수행할 수 있다.
한편, 통신망은 서버(200)를 포함하는 각 장치들을 연결하는 역할을 수행할 수 있다. 즉, 통신망은 각 장치들이 서버(200)에 접속한 후 데이터를 송수신할 수 있도록 접속 경로를 제공하는 통신망을 의미한다. 통신망은 예컨대 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
모니터링 장치(100)는 이동 수단에 배치되어, 이동 수단으로부터 다양한 데이터를 획득하고, 획득된 데이터를 서버(200)로 송신할 수 있다.
여기서, 이동 수단은 자동차, 자율 주행 자동차, 자율 주행 드론, 배 및 항공기 등과 같이, 사람을 이동시키는 다양한 수단일 수 있다.
모니터링 장치(100)는 이동 수단의 내외부에서 발생되는 소리로부터 소리 데이터를 획득하고, 이동 수단의 주행에 대한 주행 데이터 및 이동 수단에 인가되는 충격에 대한 충격 데이터를 획득할 수 있다.
서버(200)는 모니터링 장치(100)로부터 획득된 소리 데이터와 주행 데이터에 기초하여 이동 수단의 사고 전조와 사고 각각의 발생 여부를 판단하고, 이동 수단에 사고가 발생되면 발생된 사고를 분석하여 발생된 사고가 고위험 사고인지 여부를 판단할 수 있다.
또한, 서버(200)는 발생된 사고가 고위험 사고인 것으로 판단되면 사고 수습 기관이 운영하는 외부 서버(300)로 고위험 사고 발생 알림을 송신하고, 발생된 사고가 고위험 사고가 아닌 것으로 판단되면 이동 수단의 비상 연락 대상으로 설정된 사용자 단말(400)로 저위험 사고 발생 알림을 송신할 수 있다.
이를 위해, 서버(200)는 소리 데이터 및 주행 데이터에 기초하여 사고 전조의 발생 여부를 판단하고, 충격 데이터에 기초하여 이동 수단에 사고 충격이 인가되었는지 여부를 판단하고, 사고 전조가 발생된 것으로 판단된 사고 전조 발생 시점과 이동 수단에 사고 충격이 인가된 것으로 판단된 사고 충격 인가 시점 간의 시간차가 기준 시간 내에 포함되는지 여부에 기초하여 이동 수단에 사고가 발생되었는지 여부를 판단할 수 있다.
구체적으로, 서버(200)는 소리 데이터로부터 음성 데이터를 추출하고, 음성 데이터로부터 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보를 생성하고, 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보 각각에 대응되는 제1 사고 전조 감지 조건을 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보 각각이 만족하는지 여부에 기초하여 사고 전조의 발생 여부를 판단할 수 있다.
이때, 서버(200)는 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보 중에서 제1 사고 전조 감지 조건을 만족하는 정보의 개수가 미리 설정된 제1 기준 개수 범위에 포함되면 사고 전조가 발생된 것으로 판단할 수 있다.
이외, 서버(200)는 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보 중에서 사고 전조 감지 조건을 만족하는 정보의 개수가 미리 설정된 제1 기준 개수 범위에 포함되지 않고 미리 설정된 제2 기준 개수 범위에 포함되면, 주행 데이터에 포함된 가속도 정보가 제2 사고 전조 감지 조건을 만족하는지 여부를 판단하고, 가속도 정보가 제2 사고 전조 감지 조건을 만족하면 사고 전조가 발생된 것으로 판단할 수 있다.
이후, 서버(200)는 사고 전조 발생 시점과 사고 충격 인가 시점 간의 시간차가 기준 시간 내에 포함되면 이동 수단에 사고가 발생된 것으로 판단할 수 있다.
발생된 사고를 분석하기 위해, 서버(200)는 음성 데이터에 기초하여 이동 수단의 탑승자의 탑승 인원 정보를 생성하고, 이동 수단에 사고가 발생된 것으로 판단된 사고 발생 시점 이후에 획득된 음성 데이터에 기초하여 탑승자 중에서 의식을 잃지 않은 탑승자의 유의식 인원 정보를 생성하고, 탑승 인원 정보와 유의식 인원 정보에 기초하여 탑승자 중에서 의식을 잃은 탑승자의 무의식 인원 정보를 생성할 수 있다.
이어서, 서버(200)는 사고 발생 시점 이후에 획득된 음성 데이터로부터 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보를 생성하고, 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보 각각에 대응되는 고위험 사고 발생 조건을 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보 각각이 만족하는지 여부 및 무의식 인원 정보에 기초하여 발생된 사고가 고위험 사고인지 여부를 판단할 수 있다.
도 2는 본 발명의 일 실시예에 따른 사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템(10)의 모니터링 장치(100)의 구성을 나타낸 도면이다.
도 2를 참조하면, 모니터링 장치(100)는 센서부(110), 프로세서(120), 통신부(130) 및 저장부(140)를 포함할 수 있다.
센서부(110)는 이동 수단에 대한 다양한 정보를 획득할 수 있다. 구체적으로, 센서부(110)는 이동 수단 내외부에서 발생하는 소리의 소리 데이터를 획득할 수 있다. 또한, 센서부(110)는 이동 수단의 주행에 따른 주행 데이터를 획득할 수 있다. 여기서, 주행 데이터는 이동 수단의 속도 정보, 가속도 정보 및 기울기 정보를 포함할 수 있다. 또한, 센서부(110)는 이동 수단에 인가되는 충격에 대한 충격 데이터를 획득할 수 있다.
이러한, 센서부(110)는 소리 데이터를 획득하는데 이용되는 마이크, 주행 데이터를 획득하는데 이용되는 가속도 센서, GPS 센서 및 충격 데이터를 획득하는데 이용되는 충격량 센서를 구비할 수 있다.
프로세서(120)는 모니터링 장치(100)가 이동 수단으로부터 다양한 데이터를 획득하고, 획득된 데이터를 서버(200)로 송신하기 위한 동작 과정을 제어할 수 있다.
여기서, 프로세서(120)는 프로세서(processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
통신부(130)는 통신망과 연동하여 서버(200)와 각 장치들 간의 송수신 신호를 패킷 데이터 형태로 제공하는 데 필요한 통신 인터페이스를 제공할 수 있다. 나아가, 통신부(130)는 각각의 장치들의 데이터 요청에 응답하여 데이터를 송신하는 역할을 수행할 수 있다.
여기서, 통신부(130)는 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.
저장부(140)는 이동 수단으로부터 다양한 데이터를 획득하고, 획득된 데이터를 서버(200)로 송신하기 위한 프로그램이 기록될 수 있다. 또한, 프로세서(120)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행한다. 여기서, 저장부(140)는 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
도 3은 본 발명의 일 실시예에 따른 사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템(10)의 서버(200)의 구성을 나타낸 도면이고, 도 4는 본 발명의 일 실시예에 따른 사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템(10)의 서버(200)가 사고 전조와 사고 충격 인가를 감지하는 시점을 설명하기 위한 도면이다.
도 3 및 도 4를 참조하면, 서버(200)는 통신부(210), 프로세서(220) 및 저장부(230)를 포함할 수 있다.
통신부(210)는 통신망과 연동하여 모니터링 장치(100), 외부 서버(300) 및 사용자 단말(400) 각각 간의 송수신 신호를 패킷 데이터 형태로 제공하는 데 필요한 통신 인터페이스를 제공할 수 있다. 나아가, 통신부(210)는 각각의 장치들로 데이터 요청을 송신하여 데이터를 수신하거나 알림을 송신하는 역할을 수행할 수 있다.
여기서, 통신부(210)는 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.
구체적으로, 통신부(210)는 모니터링 장치(100)로부터 소리 데이터, 주행 데이터 및 충격 데이터를 수신하고, 외부 서버(300)로 고위험 사고 발생 알림을 송신하며, 사용자 단말(400)로 저위험 사고 발생 알림을 송신할 수 있다.
프로세서(220)는 서버(200)가 사고 전조, 사고의 발생을 감지하고, 발생된 사고를 분석하며, 분석 결과에 따라 외부 서버(300) 또는 사용자 단말(400)로 사고 발생을 알리기 위한 동작 과정을 제어할 수 있다.
여기서, 프로세서(220)는 프로세서(processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
이러한, 프로세서(220)는 소리 데이터 및 주행 데이터에 기초하여 사고 전조의 발생 여부를 판단할 수 있다.
우선, 프로세서(220)는 소리 데이터로부터 음성 데이터를 추출하고, 음성 데이터로부터 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보를 생성할 수 있다.
즉, 프로세서(220)는 사람의 음성에 대한 음성 데이터와 주행 소음, 이동 수단 외부 소음, 이동 수단 자체 발생 소음 등의 음향 데이터가 포함된 소리 데이터로부터 음성 데이터만을 추출하고, 추출된 음성 데이터로부터 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보를 생성할 수 있다.
여기서, 음성 세기 정보, 음성 주파수 정보 및 음성 빠르기 정보 각각의 단위는 “dB”, “Hz” 및 “음절/sec”일 수 있다.
여기서, 발화 단어 정보는 프로세서(220)가 음성 인식 알고리즘을 이용하여 추출된 음성 데이터로부터 인식된 단어를 나타내는 정보일 수 있다.
이후, 프로세서(220)는 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보 각각에 대응되는 제1 사고 전조 감지 조건을 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보 각각이 만족하는지 여부에 기초하여 사고 전조의 발생 여부를 판단할 수 있다.
여기서, 음성 세기 정보에 대응되는 제1 사고 전조 감지 조건은 사고가 발생되기 전의 음성 데이터의 음성 세기 정보를 이용하여 설정된 제1 기준 음성 세기를 음성 세기 정보가 나타내는 음성 세기가 초과하는지 일 수 있다.
즉, 프로세서(220)는 실시간으로 생성된 음성 세기 정보가 나타내는 음성 세기가 제1 기준 음성 세기를 초과하면 음성 세기 정보에 대응되는 제1 사고 전조 감지 조건이 만족된 것으로 판단될 수 있다.
예를 들어, 프로세서(220)는 사고가 발생되기 전의 음성 데이터의 음성 세기 정보들의 음성 세기 평균을 산출하고, 음성 세기 평균을 150% 증폭하여 제1 기준 음성 세기로 설정한 후, 실시간으로 생성된 음성 세기 정보의 음성 세기가 제1 기준 음성 세기를 초과하면 음성 세기 정보에 대응되는 제1 사고 전조 감지 조건이 만족된 것으로 판단될 수 있다.
음성 주파수 정보에 대응되는 제1 사고 전조 감지 조건은 사고가 발생되기 전의 음성 데이터의 음성 주파수 정보를 이용하여 설정된 제1 기준 음성 주파수를 음성 주파수 정보가 나타내는 음성 주파수가 초과하는지 일 수 있다.
즉, 프로세서(220)는 실시간으로 생성된 음성 주파수 정보가 나타내는 음성 주파수가 제1 기준 음성 주파수를 초과하면 음성 주파수 정보에 대응되는 제1 사고 전조 감지 조건이 만족된 것으로 판단될 수 있다.
예를 들어, 프로세서(220)는 사고가 발생되기 전의 음성 데이터의 음성 주파수 정보들의 음성 주파수 평균을 산출하고, 음성 주파수 평균을 150% 증폭하여 제1 기준 음성 주파수로 설정한 후, 실시간으로 생성된 음성 주파수 정보의 음성 주파수가 제1 기준 음성 주파수를 초과하면 음성 주파수 정보에 대응되는 제1 사고 전조 감지 조건이 만족된 것으로 판단될 수 있다.
발화 단어 정보에 대응되는 제1 사고 전조 감지 조건은 미리 설정된 제1 기준 단어와 발화 단어 정보가 나타내는 발화 단어가 동일한지 일 수 있다.
즉, 프로세서(220)는 실시간으로 생성된 발화 단어 정보가 나타내는 발화 단어가 미리 설정된 제1 기준 단어와 동일하면 발화 단어 정보에 대응되는 제1 사고 전조 감지 조건이 만족된 것으로 판단될 수 있다.
예를 들어, 미리 설정된 제1 기준 단어는 “사고”, “조심”, “정지”, “스톱”, “빨리”, “브레이크” 등일 수 있다.
한편, 프로세서(220)는 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보 중에서 제1 사고 전조 감지 조건을 만족하는 정보의 개수가 미리 설정된 제1 기준 개수 범위에 포함되면 사고 전조가 발생된 것으로 판단할 수 있다.
여기서, 미리 설정된 제1 기준 개수 범위는 2개 이상일 수 있다.
예를 들어, 프로세서(220)는 음성 빠르기 정보 및 발화 단어 정보 각각이 제1 사고 전조 감지 조건을 만족하지 않지만 음성 세기 정보, 음성 주파수 정보 각각이 제1 사고 전조 감지 조건을 만족하는 경우, 제1 사고 전조 감지 조건을 만족하는 정보의 개수가 2개로써 미리 설정된 제1 기준 개수 범위인 2개 이상이므로 사고 전조가 발생된 것을 판단할 수 있다.
반대로, 프로세서(220)는 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보 중에서 사고 전조 감지 조건을 만족하는 정보의 개수가 미리 설정된 제1 기준 개수 범위에 포함되지 않지만, 미리 설정된 제2 기준 개수 범위에 포함되면, 주행 데이터에 포함된 가속도 정보가 제2 사고 전조 감지 조건을 만족하는지 여부를 판단하고, 가속도 정보가 제2 사고 전조 감지 조건을 만족하면 사고 전조가 발생된 것으로 판단할 수 있다.
여기서, 미리 설정된 제2 기준 개수 범위는 최대값이 미리 설정된 제1 기준 개수 범위의 최소값 미만일 수 있다. 예를 들어, 미리 설정된 제1 기준 개수 범위는 2개 이상일 수 있고, 미리 설정된 제2 기준 개수 범위는 2개 이하 수 있다.
한편, 프로세서(220)는 제2 사고 전조 감지 조건은 주행 데이터에 포함된 가속도 정보가 나타내는 가속도가 미리 설정된 기준 가속도 범위에 포함되는지 일 수 있다.
즉, 프로세서(220)는 실시간으로 획득된 주행 데이터에 포함된 가속도 정보가 나타내는 가속도가 미리 설정된 기준 가속도 범위에 포함되면 제2 사고 전조 감지 조건이 만족된 것으로 판단될 수 있다.
최종적으로, 프로세서(220)는 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보 중에서 사고 전조 감지 조건을 만족하는 정보의 개수가 미리 설정된 제1 기준 개수 범위에 포함되지 않지만 미리 설정된 제2 기준 개수 범위에 포함되고, 제2 사고 전조 감지 조건이 만족되면 사고 전조가 발생된 것으로 판단할 수 있다.
한편, 프로세서(220)는 충격 데이터에 기초하여 이동 수단에 사고 충격이 인가되었는지 여부를 판단할 수 있다.
구체적으로, 프로세서(220)는 충격 데이터가 나타내는 충격량이 미리 설정된 기준 충격량 범위에 포함되면 이동 수단에 사고 충격이 인가된 것으로 판단할 수 있다.
이후, 프로세서(220)는 사고 전조가 발생된 것으로 판단된 사고 전조 발생 시점과 이동 수단에 사고 충격이 인가된 것으로 판단된 사고 충격 인가 시점 간의 시간차가 기준 시간 내에 포함되는지 여부에 기초하여 이동 수단에 사고가 발생되었는지 여부를 판단할 수 있다.
구체적으로, 프로세서(220)는 도 4에 도시된 바와 같이, 사고 전조 발생 시점과 사고 충격 인가 시점 간의 시간차가 기준 시간 내에 포함되면 이동 수단에 사고가 발생된 것으로 판단할 수 있다.
즉, 프로세서(220)는 사고 전조가 발생된 것으로 판단되면 시점으로부터 기준 시간 내에 사고 충격이 이동 수단에 인가된 것으로 판단되면 이동 수단에 사고가 발생된 것으로 판단할 수 있다.
이후, 프로세서(220)는 사고가 발생된 것으로 판단되면 이동 수단의 주행 시작 시점부터 사고 발생 시점까지인 사고 미발생 기간 동안에 획득된 소리 데이터로부터 음성 데이터를 추출하고, 사고 미발생 기간 동안의 음성 데이터에 기초하여 이동 수단의 탑승자의 탑승 인원 정보를 생성할 수 있다. 이때, 프로세서(220)는 음성 식별 알고리즘을 이용하여 탑승 인원 정보를 생성할 수 있다.
또한, 프로세서(220)는 사고 발생 시점 이후에 획득된 음성 데이터에 기초하여 탑승자 중에서 의식을 잃지 않은 탑승자의 유의식 인원 정보를 생성할 수 있다.
마지막으로, 프로세서(220)는 탑승 인원 정보와 유의식 인원 정보에 기초하여 탑승자 중에서 의식을 잃은 탑승자의 무의식 인원 정보를 생성할 수 있다. 구체적으로, 프로세서(220)는 탑승 인원 정보에서 유의식 인원 정보를 감산하여 무의식 인원 정보로 산출할 수 있다.
한편, 프로세서(220)는 사고가 발생된 것으로 판단되면 사고 발생 시점 이후에 획득된 소리 데이터로부터 음성 데이터를 추출하고, 사고 발생 시점 이후의 음성 데이터로부터 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보를 생성할 수 있다.
프로세서(220)는 사고 발생 시점 이후의 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보 각각에 대응되는 고위험 사고 발생 조건을 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보 각각이 만족하는지 여부를 판단할 수 있다.
여기서, 음성 세기 정보에 대응되는 고위험 사고 발생 조건은 미리 설정된 제2 기준 음성 세기를 음성 세기 정보가 나타내는 음성 세기가 초과하는지 일 수 있다.
즉, 프로세서(220)는 사고 발생 이후 생성된 음성 세기 정보가 나타내는 음성 세기가 미리 설정된 제2 기준 음성 세기를 초과하면 음성 세기 정보에 대응되는 고위험 사고 발생 조건이 만족된 것으로 판단될 수 있다.
음성 주파수 정보에 대응되는 고위험 사고 발생 조건은 사고가 발생되기 전의 음성 데이터의 음성 주파수 정보를 이용하여 설정된 미리 설정된 제2 기준 음성 주파수를 음성 주파수 정보가 나타내는 음성 주파수가 초과하는지 일 수 있다.
즉, 프로세서(220)는 사고 발생 이후 생성된 음성 주파수 정보가 나타내는 음성 주파수가 미리 설정된 제2 기준 음성 주파수를 초과하면 음성 주파수 정보에 대응되는 고위험 사고 발생 조건이 만족된 것으로 판단될 수 있다.
발화 단어 정보에 대응되는 고위험 사고 발생 조건은 미리 설정된 제2 기준 단어와 발화 단어 정보가 나타내는 발화 단어가 동일한지 일 수 있다.
즉, 프로세서(220)는 사고 발생 이후 생성된 발화 단어 정보가 나타내는 발화 단어가 미리 설정된 제2 기준 단어와 동일하면 발화 단어 정보에 대응되는 고위험 사고 발생 조건이 만족된 것으로 판단될 수 있다.
예를 들어, 미리 설정된 제2 기준 단어는 “도와주세요”, “살려주세요” 등일 수 있다.
프로세서(220)는 사고 발생 시점 이후에 획득된 음성 데이터로부터 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보를 생성하고, 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보 각각에 대응되는 고위험 사고 발생 조건을 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보 각각이 만족하는지 여부 및 무의식 인원 정보에 기초하여 발생된 사고가 고위험 사고인지 여부를 판단할 수 있다.
프로세서(220)는 사고 발생 시점 이후에 획득된 음성 데이터로부터 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보 중 하나 이상의 정보가 고위험 사고 발생 조건을 만족하고, 무의식 인원 정보가 나타내는 무의식 인원이 1명 이상인 경우, 발생된 사고가 고위험 사고인 것으로 판단할 수 있다.
반대로, 프로세서(220)는 사고 발생 시점 이후에 획득된 음성 데이터로부터 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보 모두가 고위험 사고 발생 조건을 만족하지 않고, 무의식 인원 정보가 나타내는 무의식 인원이 0명인 경우, 발생된 사고가 저위험 사고인 것으로 판단할 수 있다.
이후, 프로세서(220)는 발생된 사고가 고위험 사고인 것으로 판단되면, 고위험 사고 발생 알림 신호와 함께 사고 발생 시점 이후에 획득된 음성 데이터 및 무의식 인원 정보를 외부 서버(300)로 송신하도록 통신부(210)를 제어할 수 있다.
반대로, 프로세서(220)는 발생된 사고가 저위험 사고인 것으로 판단되면, 저위험 사고 발생 알림 신호를 사용자 단말(400)로 송신하도록 통신부(210)를 제어할 수 있다.
저장부(230)는 이동 수단으로부터 다양한 데이터를 획득하고, 사고 전조, 사고의 발생을 감지하고, 발생된 사고를 분석하기 위한 프로그램이 기록될 수 있다. 또한, 프로세서(220)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행한다. 여기서, 저장부(230)는 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
한편, 다른 실시 예에 따른 서버(200)는 실시간 사고 감지 및 사고를 자동으로 전파하는 방법을 수행할 수 있다.
구체적으로, 서버(200)에 의해 수행되는 실시간 사고 감지 및 사고를 자동으로 전파하는 방법은 (a) 이동 수단이 온(on) 됨에 따라 동작하는 모니터링 장치를 감지하는 단계; (b) 상기 모니터링 장치로부터 제 1 센싱 신호를 수신하는 단계; (c) 상기 제 1 센싱 신호를 수신 후 기 설정된 시간 이내에 제 2 센싱 신호가 수신하면, 상기 이동 수단이 사고 상태로 간주되어 사고 수습 기관의 외부 서버로 상기 이동 수단의 사고 수습 요청 전달하는 단계; 및 (d) 상기 (b) 단계 이후 기 설정된 시간 이내에 상기 제 2 센싱 신호가 수신되지 않으면, 상기 이동 수단에 사고가 발생하지 않은 것으로 판단하여 사고 주의 신호를 생성하여 기 설정된 사용자 단말로 전달하는 진행 단계를 포함할 수 있다.
이때, 상기 제 1 센싱 신호는 상기 모니터링 장치에 구비된 페달 센서로부터 생성되고, 제 2 센싱 신호는 상기 모니터링 장치에 구비된 충격 센서로부터 생성될 수 있다.
상기 (c) 단계는 상기 제 1 센싱 신호가 포함하는 상기 페달 센서에 가해진 속도 또는 압력 중 적어도 어느 하나의 수치 정보와 상기 제 2 센싱 신호를 수신하기 전후의 상기 이동 수단의 조작 상태에 기초하여 사고 발생 여부의 정확도를 높이는 단계를 포함하고, 상기 페달 센서에 가해진 속도 및 압력 중 적어도 어느 하나의 수치 정보에 기초하여 이동 수단의 속도를 산출하고, 상기 제 2 센싱 신호에 기초하여 산출된 사고가 발생 시 이동 수단에 가해지는 충격량과 상기 이동 수단의 속도를 고려하여 사고의 규모를 판단할 수 있다.
상기 (c) 단계는 상기 (c) 단계 이후 상기 모니터링 장치로부터 안전 신호를 더 수신하면, 사용자가 안전 상태로 판단하여 상기 이동 수단의 사고 수습 요청을 중단하는 단계; 및 상기 사고 수습의 요청에는 상기 이동 수단의 탑승자에 대한 의료 정보를 더 포함하고, 상기 사고 수습 기관의 외부 서버는 상기 탑승자의 의료 정보에 대응하는 의료 요청을 수행하는 단계를 더 포함할 수 있다.
상기 (d) 단계는 상기 (d) 단계 이후 상기 제 1 센싱 신호가 발생한 이동 수단의 운행 지역을 저장하는 단계; 및 제 1 센싱 신호가 기 설정된 횟수 이상 발생하는 운행 지역에 상기 이동 수단이 진입하면, 사고 주의 신호를 생성하여 상기 기 설정된 사용자 단말로 전송하는 단계를 더 포함할 수 있다.
이제까지 본 발명에 대하여 바람직한 실시 예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. 그러므로 상기 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 한다.
이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.
10: 사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템
100: 모니터링 장치
200: 서버
300: 외부 서버
400: 사용자 단말

Claims (7)

  1. 이동 수단의 내외부에서 발생되는 소리로부터 소리 데이터를 획득하고, 상기 이동 수단의 주행에 대한 주행 데이터 및 상기 이동 수단에 인가되는 충격에 대한 충격 데이터를 획득하는 모니터링 장치; 및
    상기 소리 데이터 및 상기 주행 데이터에 기초하여 사고 전조의 발생 여부를 판단하고, 상기 충격 데이터에 기초하여 상기 이동 수단에 사고 충격이 인가되었는지 여부를 판단하고, 상기 사고 전조가 발생된 것으로 판단된 사고 전조 발생 시점과 상기 이동 수단에 사고 충격이 인가된 것으로 판단된 사고 충격 인가 시점 간의 시간차가 기준 시간 내에 포함되는지 여부에 기초하여 상기 이동 수단에 사고가 발생되었는지 여부를 판단하는 서버;를 포함하고,
    상기 서버는
    사고가 발생된 것으로 판단되면 상기 이동 수단의 주행 시작 시점부터 사고 발생 시점까지인 사고 미발생 기간 동안에 획득된 소리 데이터로부터 음성 데이터를 추출하고, 사고 미발생 기간 동안의 음성 데이터에 기초하여 이동 수단의 탑승자의 탑승 인원 정보를 생성하는 프로세서;를 포함하고,
    상기 프로세서는
    음성 식별 알고리즘을 이용하여 상기 탑승 인원 정보를 생성하고,
    상기 프로세서는
    사고 발생 시점 이후에 획득된 음성 데이터에 기초하여 탑승자 중에서 의식을 잃지 않은 탑승자의 유의식 인원 정보를 생성하고, 상기 탑승 인원 정보에서 상기 유의식 인원 정보를 감산하여 무의식 인원 정보로 산출하고,
    상기 프로세서는
    사고가 발생된 것으로 판단되면 상기 사고 발생 시점 이후에 획득된 소리 데이터로부터 음성 데이터를 추출하고, 상기 사고 발생 시점 이후의 음성 데이터로부터 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보를 생성하고, 상기 생성된 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보 각각에 대응되는 고위험 사고 발생 조건을 상기 음성 세기 정보, 상기 음성 주파수 정보, 상기 음성 빠르기 정보 및 상기 발화 단어 정보 각각이 만족하는지 여부를 판단하고,
    상기 프로세서는
    상기 사고 발생 시점 이후의 음성 데이터로부터 생성된 상기 음성 세기 정보, 상기 음성 주파수 정보, 상기 음성 빠르기 정보 및 상기 발화 단어 정보 중 하나 이상의 정보가 고위험 사고 발생 조건을 만족하고, 상기 무의식 인원 정보가 나타내는 무의식 인원이 1명 이상인 경우, 발생된 사고가 고위험 사고인 것으로 판단하고,
    상기 서버는
    상기 모니터링 장치로부터 안전 신호를 수신하면, 사용자가 안전 상태인 것으로 판단하여 상기 이동 수단의 사고 수습 요청을 중단하고,
    상기 서버는
    상기 모니터링 장치에 구비된 페달 센서로부터 생성되는 제 1 센싱 신호가 발생된 이동 수단의 운행 지역을 저장하고, 상기 제 1 센싱 신호가 기 설정된 횟수 이상 발생되는 운행 지역에 상기 이동 수단이 진입하면, 사고 주의 신호를 생성하여 기 설정된 사용자 단말로 전송하는 것을 특징으로 하는
    사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템.
  2. 제1항에 있어서,
    상기 서버는
    상기 소리 데이터로부터 음성 데이터를 추출하고, 상기 음성 데이터로부터 음성 세기 정보, 음성 주파수 정보, 음성 빠르기 정보 및 발화 단어 정보를 생성하고, 상기 음성 세기 정보, 상기 음성 주파수 정보, 상기 음성 빠르기 정보 및 상기 발화 단어 정보 각각에 대응되는 제1 사고 전조 감지 조건을 상기 음성 세기 정보, 상기 음성 주파수 정보, 상기 음성 빠르기 정보 및 상기 발화 단어 정보 각각이 만족하는지 여부에 기초하여 상기 사고 전조의 발생 여부를 판단하는 것을 특징으로 하는
    사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템.
  3. 제2항에 있어서,
    상기 서버는
    상기 음성 세기 정보, 상기 음성 주파수 정보, 상기 음성 빠르기 정보 및 상기 발화 단어 정보 중에서 상기 제1 사고 전조 감지 조건을 만족하는 정보의 개수가 미리 설정된 제1 기준 개수 범위에 포함되면 상기 사고 전조가 발생된 것으로 판단하는 것을 특징으로 하는
    사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템.
  4. 제3항에 있어서,
    상기 서버는
    상기 음성 세기 정보, 상기 음성 주파수 정보, 상기 음성 빠르기 정보 및 상기 발화 단어 정보 중에서 상기 사고 전조 감지 조건을 만족하는 정보의 개수가 상기 미리 설정된 제1 기준 개수 범위에 포함되지 않고 미리 설정된 제2 기준 개수 범위에 포함되면, 상기 주행 데이터에 포함된 가속도 정보가 제2 사고 전조 감지 조건을 만족하는지 여부를 판단하고, 상기 가속도 정보가 제2 사고 전조 감지 조건을 만족하면 상기 사고 전조가 발생된 것으로 판단하는 것을 특징으로 하는
    사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템.
  5. 제1항에 있어서,
    상기 서버는
    상기 사고 전조 발생 시점과 상기 사고 충격 인가 시점 간의 시간차가 상기 기준 시간 내에 포함되면 상기 이동 수단에 사고가 발생된 것으로 판단하는 것을 특징으로 하는
    사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템.
  6. 삭제
  7. 삭제
KR1020200112890A 2020-09-04 2020-09-04 사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템 KR102393865B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200112890A KR102393865B1 (ko) 2020-09-04 2020-09-04 사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200112890A KR102393865B1 (ko) 2020-09-04 2020-09-04 사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템

Publications (2)

Publication Number Publication Date
KR20220031218A KR20220031218A (ko) 2022-03-11
KR102393865B1 true KR102393865B1 (ko) 2022-05-11

Family

ID=80814281

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200112890A KR102393865B1 (ko) 2020-09-04 2020-09-04 사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템

Country Status (1)

Country Link
KR (1) KR102393865B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101810539B1 (ko) * 2017-04-18 2017-12-19 주식회사 핸디소프트 교통사고 판단 장치 및 방법
JP2020047071A (ja) * 2018-09-20 2020-03-26 三菱ロジスネクスト株式会社 判定装置および判定方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102385245B1 (ko) * 2017-01-10 2022-04-12 삼성전자주식회사 차량 단말 장치 및 그 제어 방법
KR102173241B1 (ko) * 2018-11-08 2020-11-03 성균관대학교산학협력단 건설현장 이상징후 감지 방법 및 시스템
KR20190104004A (ko) * 2019-04-19 2019-09-05 평택대학교 산학협력단 자동차 사고시 차량 운전자 상태인지 및 후속조치 시스템 및 그 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101810539B1 (ko) * 2017-04-18 2017-12-19 주식회사 핸디소프트 교통사고 판단 장치 및 방법
JP2020047071A (ja) * 2018-09-20 2020-03-26 三菱ロジスネクスト株式会社 判定装置および判定方法

Also Published As

Publication number Publication date
KR20220031218A (ko) 2022-03-11

Similar Documents

Publication Publication Date Title
Amin et al. GPS and Map matching based vehicle accident detection system
US9390612B2 (en) Using audio signals in personal emergency response systems
US10276046B2 (en) Roadside unit and accident monitoring system including same
US20120256769A1 (en) System and method for real-time detection of an emergency situation occuring in a vehicle
US9142064B2 (en) System for detecting vehicle driving mode and method of conducting the same
EP2143093B1 (de) Automatisierter notruf über sprache
US20130069802A1 (en) Car accident automatic emergency service alerting system
JP4313808B2 (ja) 車両用監視システム、データ記録装置及び車両用監視装置
US8078138B2 (en) In-vehicle emergency call apparatus
KR101609914B1 (ko) 물리적충격 및 심리적충격에 대응한 긴급상황감지방법과 이를 이용한 긴급상황감지장치
CN103144598A (zh) 汽车碰撞报警方法和装置
US11482108B2 (en) Vehicle with automatic accident report function and server apparatus
JP2011123814A (ja) 交通事故情報処理装置
FR2866970A1 (fr) Systeme destine a permettre d'eviter les obstacles pour les aeronefs a voilure tournante
US20130338851A1 (en) Automatic Accident Analysis
KR20180024487A (ko) 차량사고 확인 시스템 및 차량사고 확인 방법
US20220066043A1 (en) Vehicle with automatic report function and server apparatus
CN111239845A (zh) 车内生命体征监测预警方法、装置及存储介质
Lupinska-Dubicka et al. In-car ecall device for automatic accident detection, passengers counting and alarming
KR102393865B1 (ko) 사고 전조와 사고의 발생 감지 및 사고 피해 분석 시스템
Smolka et al. A method for collision detection using mobile devices
US10647301B2 (en) Monitoring system, monitoring center device, mounting device, monitoring method, processing method, and program
JP3897946B2 (ja) 緊急情報送信システム
US20210229677A1 (en) Disturbance degree calculation system and driving guide system
Mushthalib et al. Development of eCall for Malaysia's Automotive Industries

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right