KR101792141B1 - 교통사고 확인 자동 음성 안내 시스템 및 방법 - Google Patents

교통사고 확인 자동 음성 안내 시스템 및 방법 Download PDF

Info

Publication number
KR101792141B1
KR101792141B1 KR1020170055519A KR20170055519A KR101792141B1 KR 101792141 B1 KR101792141 B1 KR 101792141B1 KR 1020170055519 A KR1020170055519 A KR 1020170055519A KR 20170055519 A KR20170055519 A KR 20170055519A KR 101792141 B1 KR101792141 B1 KR 101792141B1
Authority
KR
South Korea
Prior art keywords
accident
vehicle
information
unit
traffic accident
Prior art date
Application number
KR1020170055519A
Other languages
English (en)
Inventor
김현일
심화진
김윤호
이재현
Original Assignee
주식회사 핸디소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 핸디소프트 filed Critical 주식회사 핸디소프트
Priority to KR1020170055519A priority Critical patent/KR101792141B1/ko
Application granted granted Critical
Publication of KR101792141B1 publication Critical patent/KR101792141B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • G06Q50/265Personal security, identity or safety

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Operations Research (AREA)
  • Traffic Control Systems (AREA)
  • Alarm Systems (AREA)

Abstract

본 발명은 교통사고 확인 자동 음성 안내 시스템 및 방법을 공개한다. 본 발명은 차량사고 감지용 교통사고 보고 단말로부터 사고 시간, 사고 위치, 센서 측정 정보 등을 포함하는 최소 사고 정보를 수신하고, 자동화된 기능을 이용하여 차량 탑승자에게 자동 음성안내를 진행하여 차량의 실제 사고 여부를 확인하는 사전 스크린 과정을 거쳐 중앙 관제 센터에 교통사고 정보를 제공함으로써, 응급 구조 기관에 보다 정확한 정보를 제공하여, 구조요청을 진행함에 있어 제한된 자원을 효율적으로 활용할 수 있다.

Description

교통사고 확인 자동 음성 안내 시스템 및 방법{Automatic response service system and method for confirming traffic accident}
본 발명은 교통사고 확인 자동 음성 안내 시스템 및 방법에 관한 것으로서, 보다 구체적으로는 차량 사고 발생시 차량에 설치된 교통사고 보고 단말의 사고 신호 오류 확인 처리를 위한 교통사고 확인 자동 음성 안내 시스템 및 방법에 관한 것이다.
최근 차량 사고의 긴급 구조를 위해서, 차량에 설치된 교통사고 감지 장치에서 차량의 사고를 감지하고, 이를 중앙의 관제 서버로 전송하면, 중앙의 관제 서버에서, 긴급 구조 활동을 펼치는 서비스들이 개발되고 있다.
그런데, 차량 내에 탑재된 교통사고 감지 장치는 사용자에 의한 오작동 (테스트, 잘못 누르기, 떨어뜨림 등)과 주변 환경의 영향(전파, 번개 등) 문제로 실제 차량사고가 아님에도 불구하고, 차량사고로 인식하여 차량 사고 신호를 중앙 관제 센터로 송신하여 사고처리 절차를 진행할 수 있어, 운영자원의 낭비와 실제 사고구난 활동 제한을 야기할 수 있는 문제점들이 있다.
본 발명이 해결하고자 하는 과제는 보다 정확하게 차량 사고 발생 여부를 식별함으로써, 차량 사고의 긴급 구조에 요구되는 운영자원을 효율적으로 활용할 수 있는 교통사고 확인 자동 음성 안내 시스템 및 방법을 제공하는 것이다.
상술한 과제를 해결하기 위한 본 발명의 바람직한 실시예에 따른 교통사고 확인 자동 음성 안내 시스템은, 차량 사고가 발생하였다고 판단하거나, 운전자가 SOS 버튼을 누르면 최소 사고 정보를 생성하여 전송하는 교통사고 보고 단말; 최소 사고 정보가 수신되면 차량의 운전자에게 자동 응답 통화를 연결하여 교통사고 발생 여부를 확인하고, 교통사고 발생이 확인되면 최소 사고 정보를 관제 센터 서버로 전송하고, 자동 응답 통화를 상기 관제 센터 서버로 전환시키는 자동 음성 안내 장치; 상기 교통사고 보고 단말로부터 수신된 최소 사고 정보 및 운영요원이 상기 관제 센터 서버에 입력된 교통사고 관련 추가 정보를 저장하는 데이터 베이스; 및 상기 자동 음성 안내 장치로부터 전환된 사고 차량 운전자와의 음성 통화를 운영요원에게 연결하고, 운영요원으로부터 사고와 관련된 추가 정보를 입력받아 상기 데이터 베이스에 저장하고, 응급 구조 서버로 구조 요청을 전송하는 상기 관제 센터 서버를 포함한다.
또한, 상기 자동 음성 안내 장치는, 상기 교통사고 보고 단말로부터 최소 사고 정보를 수신하여 중대 사고 판단부로 출력하고, 상기 데이터 베이스에 저장하는 최소 사고 정보 수신부; 최소 사고 정보에 포함되는 정보들을 이용하여, 해당 사고가 중대 사고인지 여부를 판단하고, 중대 사고라고 판단되면, 상기 최소 사고 정보를 상기 관제 센터 서버로 전송하여, 상기 관제 센터 서버로 하여금 긴급 구조 요청을 수행할 수 있도록 하는 상기 중대 사고 판단부; 및 사고 차량의 운전자에게 자동 응답 통화를 시도하고, 운전자로부터 실제 사고가 발생했는지 여부를 확인하며, 운전자가 사고 발생을 확인하면, 상기 최소 사고 정보를 상기 관제 센터 서버로 전송하고, 자동 응답 통화를 상기 관제 센터 서버로 전환시키는 자동 응답 통화부를 포함할 수 있다.
또한, 상기 중대 사고 판단부는, 상기 최소 사고 정보에 포함된 상기 교통사고 보고 단말 또는 사고 차량내에 설치된 센서들의 측정값들이, 사고라고 판단되는 임계값과 비교하여 사전에 정의된 비율 이상인 경우에는 중대 사고라고 판단할 수 있다.
또한, 상기 교통사고 보고 단말은, 사용자가 누르면 상기 최소 사고 정보와 함께 구조 요청 신호를 상기 자동 음성 안내 장치로 전송하는 SOS 버튼; 내부에 포함된 센서들 또는 차량에 설치된 센서들을 이용하여 차량의 사고 발생 여부를 감지하고, 차량 사고가 발생되었다고 판단되면 센서값들을 포함하는 최소 사고 정보를 생성하여 상기 자동 음성 안내 장치로 전송하는 사고 감지부; 및 스피커, 마이크, 디스플레이를 포함하도록 구현되어, 상기 사고 감지부가 사고를 감지하여 최소 사고 정보를 상기 자동 음성 안내 장치로 전송한 후, 사용자에게 알람, 불빛, 사용자 인터페이스 화면을 통해서 사고 발생 감지 사실을 알리고, 실제로 사고가 발생하였는지 여부를 확인하며, 마이크와 스피커를 통해서 상기 자동 음성 안내 장치 및 상기 관제 센터 서버의 운영요원과 음성 통화를 수행할 수 있도록 하는 사용자 인터페이스를 포함할 수 있다.
또한, 상기 사고 감지부는, 차량의 비정상적 운동 패턴을 감지하거나, 차량 운동 이벤트를 감지하면 사고가 발생하였다고 판단할 수 있다.
또한, 상기 사고 감지부는, 차량의 운동 패턴이 아래의 수학식을 만족하는 경우에는 사고가 발생했다고 판단하고,
Figure 112017042205959-pat00001
, 상기 수학식에서, S(t)는 시간 t 에서의 센서 측정값이고,
Figure 112017042205959-pat00002
는 1 샘플링 구간에서의 측정값의 변동을 나타내며, α(t)는 k-window moving average로서 시간 t 이전 k 개의 샘플링 구간동안 센서값들의 평균값이고, β(t)는 운동 모델 변경 상수로서 센서 특성에 따라서 결정되는 값일 수 있다.
또한, 상기 사고 감지부는, 측정된 피치 및 롤이 샘플링 중에 일정한 각도를 넘어가는 이벤트가 발생하거나, G 데이터(가속도 변화량)가 임계치를 넘어가는 이벤트가 발생한 경우에는 사고가 발생하였다고 판단할 수 있다.
또한, 상기 교통사고 보고 단말은, 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트를 판단하는데 필요한 센서 측정값들을 생성하는 센서부;
주변의 음향을 수집하여 신호 변환부로 출력하는 음향 입력부; 상기 음향 입력부로부터 입력된 시간 영역의 음향 신호를 주파수 영역의 음향 데이터로 변환하는 상기 신호 변환부; 상기 음향 데이터를 컨벌루션 인공 신경망(CNN:Convolution Neural Network)에 적용하여 상기 음향 입력부에서 수집된 음향 신호가 교통사고 음향 신호인지 여부를 판단하는 음향 판정부; 및 상기 센서부로부터 입력되는 센서값들을 이용하여 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트가 발생하였고, 상기 음향 판정부에서 상기 음향 입력부에서 수집된 음향 신호가 교통사고 음향 신호라고 판단하면, 최종 사고 발생이라고 판단하여 사고 시간 및 사고 위치 정보를 포함하는 최소 사고 정보를 상기 자동 음성 안내 장치로 전송하는 제어부를 포함하고, 상기 컨벌루션 인공 신경망은, 상기 컨벌루션 인공 신경망과 동일한 컨벌루션 인공 신경망에 대해서 학습을 수행한 학습 서버로부터 수신된 설정 정보(웨이트 값 및 바이어스 값을 포함 함)에 따라서 초기 설정될 수 있다.
또한, 상기 음향 판정부는, 상기 음향 데이터에 상기 학습 서버로부터 수신된 설정 정보에 따른 마스크를 이용하여 컨벌루션 연산을 수행함으로써 상기 음향 데이터의 특징을 나타내는 특징맵을 형성하는 컨벌루션 계층; 및 상기 특징맵을 이용하여 상기 음향 데이터가 교통사고 음향 데이터에 해당하는지 여부를 판정함으로써, 상기 음향 입력부에서 수집된 음향 신호가 교통사고 음향 신호인지 여부를 판단하는 판단 계층을 포함할 수 있다.
또한, 상기 컨벌루션 계층은, 상기 음향 데이터에 상기 학습 서버로부터 수신된 설정 정보에 따른 마스크를 이용하여 컨벌루션 연산을 수행함으로써 상기 음향 데이터의 특징을 나타내는 특징맵을 생성하는 특징 추출부; 및 상기 특징맵에 최대값 풀링(Max Pooling) 연산을 수행하여 상기 특징맵의 크기를 감소시키는 풀링부를 포함할 수 있다.
또한, 상기 신호 변환부는 시간 영역의 음향 신호에 대해서 고속 푸리에 트랜스폼(Fast Fourier Transform:FFT)을 수행하여 주파수 영역의 음향 데이터로 변환할 수 있다.
또한, 상기 제어부는, 상기 센서부로부터 입력되는 센서 측정값을 이용하여 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트가 발생하였다고 판단되면, 상기 음향 입력부를 활성화하고, 상기 음향 판정부에서 상기 음향 입력부에서 수집된 음향 신호가 교통사고 음향 신호라고 판단하면, 최종 사고 발생이라고 판단하여 사고 시간과 사고 위치를 포함하는 최소 사고 정보를 상기 자동 음성 안내 장치로 전송할 수 있다.
또한, 상기 제어부는, 상기 음향 입력부가 수집한 음향 신호를 데이터 저장부에 저장하고, 상기 센서부로부터 입력되는 센서 측정값을 이용하여 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트가 발생하였다고 판단되면, 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트가 발생한 시점 이전에 사전에 정의된 시간 동안 상기 데이터 저장부에 저장된 음향 신호와, 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트가 발생한 시점 이후에 사전에 정의된 시간 동안 음향 입력부에서 수집된 음향 신호를 상기 신호 변환부로 출력하며, 상기 음향 판정부에서 상기 음향 입력부에서 수집된 음향 신호가 교통사고 음향 신호라고 판단하면, 최종 사고 발생이라고 판단하여 사고 시간과 사고 위치를 포함하는 최소 사고 정보를 상기 자동 음성 안내 장치로 전송할 수 있다.
한편 상술한 과제를 해결하기 위한 본 발명의 바람직한 실시예에 따른 교통사고 확인 자동 음성 안내 방법은, (a) 교통사고 보고 단말이 차량 사고가 발생하였다고 판단하거나, 운전자가 SOS 버튼을 누르면, 최소 사고 정보를 생성하여 자동 음성 안내 장치로 전송하는 단계; (b) 상기 자동 음성 안내 장치가 최소 사고 정보를 수신하고 차량의 운전자에게 자동 응답 통화를 연결하여 교통사고 발생 여부를 확인하며, 교통사고 발생이 확인되면 최소 사고 정보를 관제 센터 서버로 전송하고, 자동 응답 통화를 상기 관제 센터 서버로 전환시키는 단계; 및 (c) 상기 관제 센터 서버가 상기 자동 음성 안내 장치로부터 연결된 사고 차량 운전자와의 음성 통화를 운영요원에게 연결하고, 운영요원으로부터 사고와 관련된 추가 정보를 입력받아 데이터 베이스에 저장하고, 응급 구조 서버로 구조 요청을 전송하는 단계를 포함한다.
또한, 상기 (b) 단계는, (b1) 상기 자동 음성 안내 장치가 최소 사고 정보에 포함되는 정보들을 이용하여, 해당 사고가 중대 사고인지 여부를 판단하고, 중대 사고라고 판단되면, 상기 관제 센터 서버로 하여금 긴급 구조를 수행할 수 있도록 상기 최소 사고 정보를 상기 관제 센터 서버로 전송하는 단계; 및 (b2) 상기 자동 음성 안내 장치가 사고 차량의 운전자에게 자동 응답 통화를 시도하고, 운전자로부터 실제 사고가 발생했는지 여부를 확인하며, 운전자가 사고 발생을 확인하면, 상기 최소 사고 정보를 상기 관제 센터 서버로 전송하고, 자동 응답 통화를 상기 관제 센터 서버로 전환시키는 단계를 포함할 수 있다.
또한, 상기 (b1) 단계는, 상기 최소 사고 정보에 포함된 상기 교통사고 보고 단말 또는 사고 차량내에 설치된 센서들의 측정값들이, 사고라고 판단되는 임계값과 비교하여 사전에 정의된 비율 이상인 경우에는 중대 사고라고 판단할 수 있다.
또한, 상기 (a) 단계는, 차량의 비정상적 운동 패턴을 감지하거나, 차량 운동 이벤트를 감지하면 사고가 발생하였다고 판단할 수 있다.
또한, 상기 (a) 단계는, 차량의 운동 패턴이 아래의 수학식을 만족하는 경우에는 사고가 발생했다고 판단하고,
Figure 112017042205959-pat00003
, 상기 수학식에서, S(t)는 시간 t 에서의 센서 측정값이고,
Figure 112017042205959-pat00004
는 1 샘플링 구간에서의 측정값의 변동을 나타내며, α(t)는 k-window moving average로서 시간 t 이전 k 개의 샘플링 구간동안 센서값들의 평균값이고, β(t)는 운동 모델 변경 상수로서 센서 특성에 따라서 결정되는 값일 수 있다.
또한, 상기 (a) 단계는, 측정된 피치 및 롤이 샘플링 중에 일정한 각도를 넘어가는 이벤트가 발생하거나, G 데이터(가속도 변화량)가 임계치를 넘어가는 이벤트가 발생한 경우에는 사고가 발생하였다고 판단할 수 있다.
또한, 상기 (a) 단계는, (a1) 학습 서버에서 복수의 교통사고 음향 데이터를 이용하여 컨벌루션 인공 신경망(CNN:Convolution Neural Network)을 학습하고, 상기 컨벌루션 인공 신경망에 대한 설정 정보를, 상기 컨벌루션 인공 신경망과 동일한 컨벌루션 인공 신경망을 구비한 교통사고 보고 단말로 전송하는 단계; (a2) 상기 교통사고 보고 단말이 상기 학습 서버로부터 수신한 설정 정보를 이용하여 컨벌루션 인공 신경망을 초기 설정하는 단계; (a3) 차량에 설치된 센서부를 작동시켜 센서값들을 측정하는 단계; (a4) 상기 센서값들에 따라서 판단할 때, 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트가 발생한 경우에, 상기 교통사고 보고 단말 주변에서 음향 신호를 수집하고, 상기 음향 신호를 주파수 영역의 음향 데이터로 변환하는 단계; (a5) 상기 음향 데이터를 상기 컨벌루션 인공 신경망에 적용하여 교통사고 발생 여부를 판단하는 단계; 및 (a6) 상기 (a5) 단계에서 교통사고 발생이라고 최종 판단되면, 자동 음성 안내 장치로 최소 사고 정보를 전송하는 단계를 포함할 수 있다.
또한, 상기 (a) 단계는, (a1) 학습 서버에서 복수의 교통사고 음향 데이터를 이용하여 컨벌루션 인공 신경망(CNN:Convolution Neural Network)을 학습하고, 상기 컨벌루션 인공 신경망에 대한 설정 정보를, 상기 컨벌루션 인공 신경망과 동일한 컨벌루션 인공 신경망을 구비한 교통사고 보고 단말로 전송하는 단계; (a2) 상기 교통사고 보고 단말이 상기 학습 서버로부터 수신한 설정 정보를 이용하여 컨벌루션 인공 신경망을 초기 설정하는 단계; (a3) 차량에 설치된 센서부를 작동시켜 센서값들을 측정하고, 상기 교통사고 보고 단말 주변의 음향 신호를 수집하여 저장하기 시작하는 단계; (a4) 상기 센서값들에 따라서 판단할 때, 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트가 발생한 경우에, 상기 저장된 음향 신호를 주파수 영역의 음향 데이터로 변환하는 단계; (a5) 상기 음향 데이터를 상기 컨벌루션 인공 신경망에 적용하여 교통사고 발생 여부를 판단하는 단계; 및 (a6) 상기 (a5) 단계에서 교통사고 발생이라고 최종 판단되면, 자동 음성 안내 장치로 최소 사고 정보를 전송하는 단계를 포함할 수 있다.
또한, 상기 (a5) 단계는, (a5-1) 상기 음향 데이터에 상기 학습 서버로부터 수신된 설정 정보에 따른 마스크를 이용하여 컨벌루션 연산을 수행함으로써 상기 음향 데이터의 특징을 나타내는 특징맵을 형성하는 단계; 및 (a5-2) 상기 특징맵을 이용하여 상기 음향 데이터가 교통사고 음향 데이터에 해당하는지 여부를 판정함으로써, 상기 수집된 음향 신호가 교통사고 음향 신호인지 여부를 판단하는 단계를 포함할 수 있다.
또한, 상기 (a5-1) 단계는, 상기 음향 데이터에 상기 학습 서버로부터 수신된 설정 정보에 따른 마스크를 이용하여 컨벌루션 연산을 수행함으로써 상기 음향 데이터의 특징을 나타내는 특징맵을 생성하는 단계; 및 상기 특징맵에 최대값 풀링(Max Pooling) 연산을 수행하여 상기 특징맵의 크기를 감소시키는 단계를 포함할 수 있다.
또한, 상기한 교통사고 확인 자동 음성 안내 방법은, (a7) 상기 교통사고 보고 단말이 교통사고로 판단된 음향 데이터를 상기 학습 서버로 전송하는 단계; 및 (a8) 상기 학습 서버가 수신된 음향 데이터를 저장하여 추후에 컨벌루션 인공 신경망 학습에 이용할 수 있도록 저장하는 단계를 더 포함할 수 있다.
본 발명은 차량사고 감지용 교통사고 보고 단말로부터 사고 시간, 사고 위치, 센서 측정 정보 등을 포함하는 최소 사고 정보를 수신하고, 자동화된 기능을 이용하여 차량 탑승자에게 자동 음성안내를 진행하여 차량의 실제 사고 여부를 확인하는 사전 스크린 과정을 거쳐 중앙 관제 센터에 교통사고 정보를 제공함으로써, 응급 구조 기관에 보다 정확한 정보를 제공하여, 구조요청을 진행함에 있어 제한된 자원을 효율적으로 활용할 수 있다.
도 1은 본 발명의 바람직한 실시예에 따른 교통사고 확인 자동 음성 안내 시스템의 전체 구성을 도시하는 도면이다.
도 2는 본 발명의 바람직한 실시예에 따른 교통사고 확인 자동 음성 안내 시스템의 세부 구성을 도시하는 블록도이다.
도 3은 본 발명의 바람직한 실시예에 따른 교통사고 확인 자동 음성 안내 방법을 설명하는 흐름도이다.
도 4는 본 발명의 바람직한 제 2 실시예에 따른 교통사고 확인 자동 음성 안내 시스템의 전체 구성을 도시하는 도면이다.
도 5는 본 발명의 바람직한 제 2 실시예에 따른 학습 서버의 구성을 도시하는 도면이다.
도 6은 본 발명의 바람직한 제 2 실시예에 따른 교통사고 보고 단말의 세부 구성을 도시하는 도면이다.
도 7a 내지 도 7c는 각각 차량의 실제 상황에서 발생하는 음향을 분석한 그래프이다.
도 8 및 도 9는 도 5에서 도시된 학습부의 학습 과정을 설명하는 도면이다.
도 10은 본 발명의 바람직한 제 2 실시예에 따라서 교통사고 보고 단말에서 교통사고 발생 여부를 판단하는 방법을 설명하는 흐름도이다.
도 11은 본 발명의 제 2 실시예의 변형 실시예에 따라서 교통사고 보고 단말에서 교통사고 발생 여부를 판단하는 방법을 설명하는 흐름도이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 설명한다.
도 1은 본 발명의 바람직한 제 1 실시예에 따른 교통사고 확인 자동 음성 안내 시스템의 전체 구성을 도시하는 도면이다.
도 1을 참조하여, 본 발명의 바람직한 제 1 실시예에 따른 교통사고 확인 자동 음성 안내 시스템의 전체 구성을 설명하면, 본 발명의 교통사고 확인 자동 음성 안내 시스템은 교통사고 보고 단말(210), 자동 음성 안내 장치(220), 데이터 베이스(230), 및 관제 센터 서버(240)를 포함한다.
교통사고 보고 단말(210)은 내부에 다수의 센서를 내장하여 교통사고 발생을 감지하거나, 차량에 설치된 센서들로부터 센서 측정값을 제공받아 교통사고 발생을 감지하여, 교통사고가 발생하면 사고 시간 및 사고 위치를 필수적으로 포함하고, 추가적으로 센서 측정 정보를 포함할 수 있는 최소 사고 정보 (Minimum Set of Data)를 생성하여 자동 음성 안내 장치(220)로 전송한다.
본 발명의 최소 사고 정보(MSD, Minimum Set of Data)는 사고 발생시 교통사고 보고 단말(210)이 자동 음성 안내 장치(220)로 전송하는 사고 상황 전달 및 구조를 위한 정보의 집합을 의미하고, 정보 획득의 중요성 및 범용성에 따라 기본 정보와 부가 정보로 구성된다.
최소 사고 정보 중 기본 정보는 교통사고 보고 단말(210)이 정상 동작할 경우 반드시 최소 사고 정보에 포함되어야 하는 정보의 집합으로 정의되며, 사고 발생 시각, 사고 위치 정보, 제어 정보, 차량 종류, 차대 번호, 차량 방향, 콜백 번호, 탑승자 수, 차량 연료 등이 포함된다. 여기서, 사고 발생 시각 및 사고 위치 정보는 최소 사고 정보에 반드시 포함되고, 다른 기본 정보들은 교통사고 보고 단말(210)이 구현되는 방식(예컨대, 내비게이션, 블랙박스, 휴대 단말, OBD 스캐너 등)에 따라서 포함될 수도 있고, 일부가 생략될 수도 있다.
최소 사고 정보 중 부가 정보는 교통사고 보고 단말(210)의 작동 방식에 따라 부가적으로 포함 될 수 있는 사고 상황 파악 및 인명 구조에 관한 그 밖의 정보의 집합으로 정의된다.
자동 음성 안내 장치(220)는 최소 사고 정보를 수신하면, 교통사고 보고 단말(210) 또는 차량 운전자의 휴대 단말로 자동 응답 통화를 시도하고, 운전자와의 자동응답 통화를 통해서 교통사고 발생 여부 및 발생한 사고가 중대사고 인지 여부를 1차적으로 확인하여, 관제 센터 서버(240)로 출력한다.
데이터 베이스(230)는 자동 음성 안내 장치(220)에서 수신한 최소 사고 정보 및 관제 센터 서버(240)에서 운영요원이 운전자와 음성 통화를 통해서 수집한 추가적인 사고 정보를 저장한다.
관제 센터 서버(240)는 운전자와의 통화를 통해서 사고와 관련된 추가 정보를 획득하여 데이터 베이스(230)에 저장하고, 저장된 사고 정보를 응급 구조 서버(100)로 제공한다.
도 2는 본 발명의 바람직한 제 1 실시예에 따른 교통사고 확인 자동 음성 안내 시스템의 세부 구성을 도시하는 블록도이다.
도 2를 참조하면, 먼저, 본 발명의 바람직한 제 1 실시예에 따른 교통사고 보고 단말(210)은 사고 감지부(211), 구조 요청 SOS 버튼(213), 통신부(217) 및 사용자 인터페이스(215)를 포함하여 구성된다.
SOS 버튼(213)은 사용자가 교통사고가 발생하거나 긴급 상황에서 누를 수 있도록, 물리적 스위치 또는 교통사고 보고 단말(210)의 화면상에 구비되는 스위치로 구현되어, 운전자가 누르면 구조 요청 신호를 통신부(217)를 통해서 자동 음성 안내 장치(220)로 전송한다. 이 때, SOS 버튼(213)은 사고 감지부(211)와 연동되어 사고 감지부(211)에서 측정한 센서값을 포함하는 최소 사고 정보가 함께 전송되는 것이 바람직하다.
사고 감지부(211)는 내부에 포함된 센서들 또는 차량에 설치된 센서들을 이용하여 차량의 사고 발생 여부를 감지하고, 차량 사고가 발생되었다고 판단되면 센서값들, 사고 시간, 및 사고 위치 정보를 포함하는 최소 사고 정보를 생성하여 자동 음성 안내 장치(220)로 전송한다.
사고 감지부(211)는 아래의 표 1과 같은 센서 측정 정보를 이용하여 해당 유형의 사고가 발생하였는지 여부를 감지한다. 이 때, 센서 측정 정보는 교통사고 보고 단말(210)이 구현되는 방식에 따라서, OBD-II 스캐너를 통해서 차량 내장 센서로부터 제공받거나, 내비게이션, 블랙박스 및 운전자의 스마트기기에 내장된 센서에서 측정된 값을 이용한다.
측정 정보 내용 사고유형
종가속도 전/후 이동 및 가감속 판단기준 전/후방 추돌
횡가속도 좌/우 이동 및 가감속 판단기준 측면 충돌
축가속도 상/하 이동 및 가감속 판단기준 차량 전복 및 추락
요 레이트(yaw rate) 좌/우 회전 판단 기준 스핀
피치(pitch) 전방 상하 기울기 판단기준 차량 전복 및 추락
롤(roll) 차축 좌우 기울기 판단기준 차량 전복
G 데이터 충격량 판단 기준 모든 충돌 및 전복 사고
사고 감지부(211)는 차량의 비정상적 운동 패턴을 감지하거나, 차량 운동 이벤트 데이터를 감지하면 사고가 발생하였다고 판단할 수 있다.
차량이 비정상적 운동 패턴을 보이는지 여부는 아래의 수학식 1에 따라서 판단한다. 즉, 사고 감지부(211)는 아래의 수학식 1을 만족하는 경우에는 차량이 비정상적 운동 패턴을 보인다고 판단하여 사고 발생이라고 판단한다.
Figure 112017042205959-pat00005
상기 수학식 1에서, S(t)는 시간 t 에서의 센서 측정값이고,
Figure 112017042205959-pat00006
는 1 샘플링 구간에서의 측정값의 변동을 나타내며, α(t)는 k-window moving average로서 시간 t 이전 k 개의 샘플링 구간동안 센서값들의 평균값이고, β(t)는 운동 모델 변경 상수로서 센서 특성에 따라서 결정되는 값이다. 참고로, 가감속 운동의 경우, β(t)=α(t-1)/α(t)로 결정된다.
차량 운동 이벤트 데이터와 관련해서는 교통사고 보고 단말(210)에서 측정된 피치 및 롤이 샘플링 중에 한번이라도 일정한 각도를 넘어가는 경우, G 데이터(가속도 변화량)가 한번이라도 임계치를 넘어가는 경우에는 사고가 발생하였다고 판단한다.
한편, 최소 사고 정보는 상술한 바와 같이, 사고 발생 시각 및 사고 위치 정보를 반드시 포함하고, 여기에 교통사고 보고 단말(210)이 구현되는 방식(예컨대, 내비게이션, 블랙박스, 휴대 단말, OBD 스캐너 등)에 따라서, 해당 교통사고 보고 단말(210)이 생성할 수 있는 정보들(예컨대, 제어 정보, 차량 종류, 차대 번호, 차량 방향, 콜백 번호, 탑승자 수, 차량 연료, 각종 센서 측정 정보 등), 에어백 전개 여부 등의 정보를 더 포함시켜 최소 사고 정보를 생성한다.
사용자 인터페이스(215)는 스피커, 마이크, 디스플레이 등으로 구현되어, 사고 감지부(211)가 사고를 감지하여 최소 사고 정보를 자동 음성 안내 장치(220)로 전송한 후, 사용자에게 알람, 불빛, 사용자 인터페이스 화면 등을 통해서 사고 발생 감지 사실을 알리고, 실제로 사고가 발생하였는지 여부를 확인한다. 사용자가 사용자 인터페이스(215)를 통해서 사고 발생이 아님을 확인하면 사고 접수 과정은 종료 되지만, 사용자가 사용자 인터페이스(215)를 통해서 사전에 정의된 시간 내에 사고 발생 여부를 확인하지 않거나, 사용자 인터페이스(215)가 사용자로부터 사고가 발생하였음을 확인받는 경우에는, 사용자 인터페이스(215)에 포함된 마이크와 스피커를 통해서 또는 운전자의 휴대 단말을 통해서 자동 음성 안내 장치(220) 및 관제 센터 서버(240)의 운영요원과 음성 통화를 수행할 수 있도록 한다.
통신부(217)는 음성 통신 또는 데이터 통신을 수행할 수 있는 통신 모듈로 구비되고, 사고 감지부(211)로부터 최소 사고 정보를 수신하여 자동 음성 안내 장치(220)로 전송하며, 사용자 인터페이스(215)로부터 운전자 선택 정보를 입력받으면 이를 자동 음성 안내 장치(220) 또는 관제 센터 서버(240)로 전송하며, 운전자가 자동 음성 안내 장치(220) 또는 관제 센터 서버(240)와 음성 통신을 수행할 수 있도록 한다. 통신부(217)는 이동통신망을 통해서 자동 음성 안내 장치(220) 및 관제 센터 서버(240)와 직접 통신이 가능할 수도 있고, 블루투스 방식으로 운전자의 휴대 단말과 연결되어, 운전자의 휴대 단말을 통해서 자동 음성 안내 장치(220) 및 관제 센터 서버(240)와 통신을 수행할 수도 있다.
한편, 본 발명의 바람직한 제 1 실시예에 따른 자동 음성 안내 장치(220)는 최소 사고 정보 수신부(221), 중대사고 판단부(223) 및 자동응답 통화부(225)를 포함하여 구성된다.
최소 사고 정보 수신부(221)는 교통사고 보고 단말(210)로부터 상술한 최소 사고 정보를 수신하여 중대사고 판단부(223)로 출력하는 한편, 데이터 베이스(230)에 저장한다.
중대 사고 판단부(223)는 최소 사고 정보에 포함되는 각종 정보를 이용하여, 해당 사고가 중대 사고인지 여부를 먼저 판단하고, 중대 사고라고 판단되면, 자동응답 통화부(225)를 통한 사고 확인 과정을 수행하지 않고, 최소 사고 정보를 곧바로 관제 센터 서버(240)로 전송하여, 관제 센터 서버(240)로 하여금 긴급 구조를 수행할 수 있도록 한다.
중대사고 판단부(223)는 일반적으로 최소 사고 정보에 포함된, 교통사고 보고 단말(210) 또는 사고 차량내에 설치된 센서들의 측정값들이, 사고라고 판단되는 임계값과 비교하여 사전에 정의된 비율(예컨대, 1.5배) 이상인 경우에, 해당 사고를 중대 사고라고 판단한다. 예컨대, 상기 표 1에 기재된 센서값들이 최소 사고 정보에 포함되어 수신되고, 그 값이 사고라고 판단되는 임계치의 1.5배 이상이면, 중대 사고라고 판단할 수 있다.
자동응답 통화부(225)는 최소 사고 정보가 수신되고 중대 사고가 아니라고 판단되면, 사고 차량의 운전자에게 자동 응답 통화를 시도하고, 운전자가 자동 응답 통화를 수신하면, 자동 응답 메시지를 출력하여 운전자로부터 실제 사고가 발생했는지 여부를 확인한다. 운전자가 사고 발생이 아니라고 확인하면, 자동응답 통화부(225)는 사고 접수 절차를 종료하고, 운전자가 사고 발생을 확인하면, 최소 사고 정보를 관제 센터 서버(240)로 전송하고, 자동 응답 통화를 관제 센터 서버(240)로 전환시켜 관제 센터 서버(240)에서 긴급 구조 절차를 밟도록 한다. 본 발명에서, 자동응답 통화부(225)는 운전자의 휴대 단말로 자동 음성 통화를 연결할 수도 있고, 교통사고 보고 단말(210)이 음성 통화 기능을 구비한 경우에는 교통사고 보고 단말(210)을 통해서 운전자와 통화를 수행할 수도 있다. 다만, 본 발명에서는 설명의 편의를 위하여, 운전자의 휴대 단말로 자동 음성 통화를 수행하는 것으로 한다.
한편, 본 발명의 바람직한 제 1 실시예에 따른 관제 센터 서버(240)는 음성 통화부(241) 및 구조 요청부(243)를 포함하여 구성된다.
음성 통화부(241)는 자동 음성 안내 장치(220)로부터 중대 사고라고 판단되어 전달된 최소 사고 정보 및 자동 음성 안내 장치(220)에서 자동 음성 통화가 연결되어 운전자가 사고 발생이라고 확인한 최소 사고 정보에 대해서 운전자와 운영요원간의 음성 통화를 연결하고, 음성 통화를 통해서 운영요원으로부터 교통사고와 관련된 추가 정보를 입력받아 데이터 베이스(230)에 저장한다.
구조 요청부(243)는 데이터 베이스(230)에 저장된 사고 시간, 사고 위치 정보, 차량의 진행 방향 등을 포함하는 최소 사고 정보와 추가로 저장된 사고 정보(추가 사고 정보)를 응급 구조 서버(100)로 전송하면서 응급 구조를 요청한다.
도 3은 본 발명의 바람직한 제 1 실시예에 따른 교통사고 확인 자동 음성 안내 방법을 설명하는 흐름도이다.
도 3을 더 참조하여, 본 발명의 바람직한 제 1 실시예에 따른 교통사고 확인 자동 음성 안내 방법을 설명한다. 다만, 도 3을 참조하여 설명하는 교통사고 확인 자동 음성 안내 방법은, 도 1 및 도 2를 참조하여 설명한 교통사고 확인 자동 음성 안내 시스템에서 수행되는 것이므로, 그 기능이 동일하다. 따라서, 중복되는 세부적인 설명은 생략하고, 전체적인 흐름을 중심으로 설명한다.
먼저, 교통사고 보고 단말(210)은 사고 감지부(211)에서 교통사고가 발생되었다고 판단되거나, 운전자가 SOS 버튼(213)을 누르면, 최소 사고 정보를 생성하여 자동 응성 안내 장치(220)로 전송한다(S310).
사고 감지부(211)에서 사고 발생을 판단하는 방법은 도 2를 참조하여 자세하게 설명하였으므로 구체적인 설명은 생략하고, 제 S310 단계에서 자동 음성 안내 장치(220)로 전송되는 최소 사고 정보는 사고 시간 및 사고 위치 정보를 필수적으로 포함하고, 교통사고 보고 단말(210)이 구현되는 방식에 따라서 표 1에 기재된 센서 정보들 및 에어백 전개 여부에 관한 정보 등을 더 포함할 수 있음은 전술한 바와 같다.
자동 음성 안내 장치(220)는 최소 사고 정보를 수신하여 데이터 베이스(230)에 저장하고(S321), 수신된 최소 사고 정보에 포함된 센서 정보들을 이용하여, 해당 사고가 중대 사고인지 여부를 판단하여(S323), 중대 사고라고 판단되는 경우에는 즉시, 최소 사고 정보와 중대 사고임을 나타내는 정보를 관제 센터 서버(240)로 전송한다(S325). 중대 사고를 판단하는 방법은 도 2를 참조하여 중대사고 판단부(223)의 기능을 설명하면서 자세하게 설명하였으므로 중복되는 설명은 생략한다.
만약, 중대 사고라고 판단되지 않으면, 자동 음성 안내 장치(220)는 운전자에게 자동 응답 통화 연결을 시도한다(S330).
만약, 사전에 정의된 시간 내에 운전자가 자동 응답 통화를 수신하지 않으면(S341), 자동 음성 안내 장치(220)는 사고로 인하여 운전자가 자동 응답 통화를 수신하지 못하는 상태라고 판단하여 최소 사고 정보를 관제 센터 서버(240)로 전송한다(S343).
상기 제 S341 단계에서, 운전자가 자동 응답 통화를 수신하면, 자동 응답 메시지를 운전자에게 출력하여, 운전자로부터 실제 사고가 발생했는지 여부를 확인하고, 운전자가 사고 발생이 아님을 확인하는 경우에는 사고 접수 절차를 종료한다(S351).
만약, 운전자가 실제로 사고가 발생하였음을 확인하면, 자동 음성 안내 장치(220)는 통화를 관제 센터 서버(240)로 전환하고, 최소 사고 정보를 관제 센터 서버(240)로 전송한다(S353).
상기한 제 S325 단계, 제 S343 단계 및 제 S353 단계에서 최소 사고 정보를 수신한 관제 센터 서버(240)는 운영요원과 운전자간의 통화를 수행하도록 하고(S361), 운영요원이 운전자와의 통화를 통해서 수집한 사고와 관련된 추가 정보를 입력받는다(S363).
그 후, 관제 센터 서버(240)는 최소 사고 정보에 포함된 사고 시간, 사고 위치 정보, 차량의 진행 방향 등과 사고 추가 정보 등을 응급 구조 서버로 전송하면서 응급 구조를 요청한다(S365).
지금까지 설명한 본 발명의 바람직한 제 1 실시예에서, 교통사고 보고 단말(210)은 차량에 설치되어, 차량의 사고 발생을 감지하면, 사고 발생시 최소 사고 정보(Minium Set of Data:MSD)를 통신망을 통해서 자동음성 안내 장치(220)로 전송하되, 교통사고 보고 단말(210)이 차량의 사고를 감지하는 방식으로서, 교통사고 보고 단말(210)이 차량의 운동 패턴 또는 차량의 운동 이벤트를 감지할 수 있는 구성(예컨대, 3축 가속도 센서, 자이로 센서 등)을 포함하여 사전에 정의된 시간동안 임계 변위량 이상의 변위량이 발생하여 차량이 비정상적 운동 패턴을 나타내거나, 측정된 피치 및 롤이 일정한 각도를 초과하거나 가속도 변화량이 임계치를 초과하는 차량의 비정상적인 운동 이벤트가 발생한 경우에 교통사고 발생으로 판단하도록 구성하였다.
그러나, 이러한 구성의 경우에는, 교통사고 보고 단말(210)을 구현하는 내비게이션, 블랙박스, 스마트폰 등이 차량에서 떨어져 순간적으로 큰 충격이 인가되는 경우에도 교통사고 보고 단말(210)이 교통사고 발생으로 인식하여, 본 발명의 교통사고 확인 자동 음성 안내 시스템이 오동작할 가능성이 있다.
따라서, 도 4 내지 도 11을 참조하여 후술하는 본 발명의 바람직한 제 2 실시예에 따른 교통사고 확인 자동 음성 안내 시스템은, 전체적으로 제 1 실시예와 동일한 구성과 방법으로 교통사고를 접수하되, 각 교통사고 보고 단말(210)이 교통사고 발생을 판단하는 구성 및 방법만을 개선하였다. 따라서, 이하에서는 제 1 실시예와 다른 구성인, 교통사고 보고 단말(210)이 교통사고 발생 여부를 판단하는 구성 및 방법에 대해서만 설명한다.
도 4는 본 발명의 바람직한 제 2 실시예에 따른 교통사고 확인 자동 음성 안내 시스템의 전체 구성을 도시하는 도면이다.
도 4를 참조하면, 본 발명의 바람직한 제 2 실시예에 따른 교통사고 확인 자동 음성 안내 시스템은 차량들에 각각 설치되는 교통사고 보고 단말(210), 자동음성 안내 장치(220), 데이터 베이스(230), 및 관제 센터 서버(240) 및 학습 서버(500)를 포함한다.
자동음성 안내 장치(220), 데이터 베이스(230) 및 관제 센터 서버(240)의 구성 및 기능은 제 1 실시예와 동일하므로 구체적인 설명은 생략한다.
제 2 실시예는, 사전에 학습 서버(500)에서 복수의 교통사고 음향 신호들을 이용하여 컨벌루션 인공 신경망(CNN:Convolution Neural Network)을 학습하고, 학습된 설정 정보(웨이트 값, 바이어스 값 등)를 동일한 컨벌루션 인공 신경망(CNN)을 구비하는 교통사고 보고 단말(210)로 제공한다.
그러면, 교통사고 보고 단말(210)은 설정 정보를 이용하여 컨벌루션 인공 신경망을 초기 설정하고, 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트가 감지되면, 컨벌루션 인공 신경망을 이용하여 교통사고 보고 단말(210)에서 수집된 음향이 교통사고 음향인지 여부를 확인함으로써 차량에 교통사고가 발생하였는지 여부를 최종적으로 판단한다.
이렇게, 본 발명의 바람직한 제 2 실시예는 1차적으로 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트와 2차적으로 주변 음향을 확인함으로써, 정확한 사고 판단이 가능하다. 특히, 본 발명의 컨벌루션 인공 신경망을 소프트웨어적으로 교통사고 보고 단말에 설치가 가능하므로, 적은 비용으로 정확한 교통사고 판단이 가능하다.
보다 구체적으로 설명하면, 학습 서버(500)는 교통사고와 관련된 다양한 음향 정보를 사전에 저장하고, 사고 음향을 이용하여 컨벌루션 인공 신경망(CNN:Convolution Neural Network)을 학습한다. 그리고, 학습에 의해서 최적으로 결정된 CNN의 웨이트(weight) 및 바이어스(bias) 값들을 교통사고 보고 단말(210)로 전송한다.
학습 서버(500)는 각 운전자의 교통사고 보고 단말(210)이 설치된 차종에 관한 정보(차종 정보)를 교통사고 보고 단말(210)로부터 수신하여 내부에 저장한다. 또한, 학습 서버(500)는 각 차종별로 사고 음향 데이터들을 저장하고, 각 차종별 사고 음향 데이터들을 이용하여 각 차종별 CNN을 학습함으로써, 각 차종에 적합한 CNN의 웨이트 값 및 바이어스 값(이하, "CNN 설정 정보"라 칭함)을 학습하여 저장하는 한편, 교통사고 보고 단말(210)로 해당 교통사고 보고 단말(210)이 설치된 차종에 적합한 CNN 설정 정보를 제공함으로써 교통사고 보고 단말(210)의 교통사고 판단 능력을 극대화 할 수 있다.
이 때, 학습 서버(500)는 교통사고의 유형별(추돌 사고, 충돌 사고, 전복 사고, 추락 사고 등)로 사고 음향 데이터를 저장하고, 차종별 및 사고 유형별로 CNN 설정 정보를 학습하여 저장하고, 교통사고 보고 단말(210)로 제공할 수도 있다.
또한, 학습 서버(500)는 실제로 사고가 발생한 교통사고 보고 단말(210)로부터 다양한 사고 음향 데이터들을 수신하여 저장하고, 일정한 시간 간격으로 새로 수집된 사고 음향 데이터를 이용하여 CNN을 학습함으로써 지속적으로 CNN 설정 정보를 최적화할 수 있다.
한편, 교통사고 보고 단말(210)은 각 차량마다 설치되어 차량의 교통사고 발생 여부를 판단하고, 교통사고 발생이라고 판단되면 최소 사고 정보를 자동음성 안내 장치(220)로 전송하여 사고 발생 사실을 알린다.
상술한 바와 같이, 교통사고 보고 단말(210)은 차량에 설치되는 내비게이션 및 블랙박스 등에 설치될 수도 있고, 운전자가 이용하는 스마트폰 등과 같은 휴대 단말기에 소프트웨어적으로 설치될 수 있으며, 그 내부에는 자이로센서, 3축 가속도 센서 등과 같은 센서를 내장하여 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트를 감지할 수 있다.
교통사고 보고 단말(210)은 학습 서버(500)에 포함된 CNN과 동일한 CNN을 내부에 포함하고, 학습 서버(500)로부터 자신의 차종에 적합한 CNN 설정 정보를 수신하여, 내부의 CNN을 수신된 웨이트 값 및 바이어스 값으로 초기 설정한다.
또한, 교통사고 보고 단말(210)은 마이크와 같은 음향 입력부(211-6)를 내부에 포함하고, 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트가 감지되면, 음향 입력부(211-6)를 활성화시켜 교통사고 보고 단말(210) 주변의 음향을 CNN을 이용하여 분석하고, 분석 결과에 따라서 감지된 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트가 단순한 급정거 또는 교통사고 보고 단말(210)을 바닥에 떨어뜨려서 발생한 것 인지, 교통사고 발생으로 인한 것인지 여부를 정확하게 판단한다.
만약, 교통사고 발생으로 인한 것이라고 판단되면, 교통사고 보고 단말(210)은 최소 사고 정보를 자동음성 안내 장치(220)로 전송한다.
도 5는 본 발명의 바람직한 제 2 실시예에 따른 학습 서버(500)의 구성을 도시하는 도면이다.
도 5를 참조하여 본 발명의 바람직한 제 2 실시예에 따른 학습 서버(500)를 보다 상세하게 설명하면, 본 발명의 학습 서버(500)는 데이터 베이스(530), 학습부(510) 및 통신부(520)를 포함하여 구성된다.
먼저, 데이터 베이스(530)는 음향 데이터를 저장하는 음향 데이터 저장부(531), 교통사고 보고 단말(210)에 관한 정보를 저장하는 장치 정보 저장부(532), 교통사고 보고 단말(210)에서 수신하여 업데이트할 CNN 설정 정보를 저장하는 설정 정보 저장부(533)를 포함한다.
음향 데이터 저장부(531)는 학습부(510)에서 학습에 이용될 각종 교통사고시에 발생하는 음향에 대한 데이터를 저장하되, 상술한 바와 같이, 각 차종별로, 그리고, 각 사고 유형별로 음향 데이터를 서로 분류하여 저장할 수 있다. 이 때, 각종 음향 데이터는 아날로그 신호가 그대로 저장될 수도 있으나, 아날로그 음향 신호에 대해서 FFT(Fast Fourier Transform)을 수행하여, 시간 영역의 음향 신호를, 주파수 영역의 음향 데이터로 변환한 데이터를 저장하는 것이 바람직하다.
장치 정보 저장부(532)는 본 발명의 서비스를 이용하는 교통사고 보고 단말(210)별 식별 정보, 교통사고 보고 단말(210)이 설치된 차종에 관한 정보, 및 교통사고 보고 단말(210)에 포함된 CNN 설정 정보 업데이트 관련 정보 등을 서로 연계시켜 저장할 수 있다.
설정 정보 저장부(533)는 각 차종별로 CNN 설정 정보를 분류하여 저장할 수 있고, 이 경우, 교통사고 보고 단말(210)은 자신이 설치된 차종에 대응되는 CNN 설정 정보를 제공받을 수 있다.
통신부(520)는 통신망을 통해서 각 교통사고 보고 단말(210)과 통신을 수행하여, 교통사고 보고 단말(210)로부터 교통사고 발생시 기록된 음향 데이터를 수신하여 음향 데이터 저장부(531)에 저장할 수 있고, 업데이트할 웨이트 및 바이어스 정보를 각 교통사고 보고 단말(210)로 전송하여 줄 수도 있다.
학습부(510)는 교통사고 보고 단말(210)이 포함하는 것과 동일한 컨벌루션 인공 신경망(CNN:Convolution Neural Network)을 포함하고, 음향 데이터 저장부(531)에 저장된 다양한 음향 데이터를 이용하여 컨벌루션 인공 신경망을 학습하여 교통사고 판단에 요구되는 최적의 CNN 설정 정보를 결정하여 설정 정보 저장부(533)에 저장한다.
도 7a 내지 도 7c는 각각 차량의 실제 상황에서 발생하는 음향을 분석한 그래프를 도시한다.
구체적으로, 도 7a는 일반 주행 상황에서 차량의 엔진 소리를 나타내고, 도 7b는 차량이 급정거할 때의 소리를 나타내며, 도 7c는 차량 충돌시에 발생하는 소리를 나타낸다. 각각의 도면에서, 위에 도시된 그래프는 시간 영역에서의 파형을 나타내고, 아래에 도시된 그래프는 고속 푸리에 변환(Fast Fourier Transform:FFT)을 통해 생성된 시간(가로축)과 주파수(세로축)를 축으로 하는 2차원 배열 형태의 데이터를 보여주는데 밝을수록 큰 데시벨 값을 갖는다.
도 7a에 도시된 일반적인 차량 엔진 소리와 비교하여, 도 7b에 도시된 차량 급정지시 소리는 높은 특정 주파수 대역에서 큰 데시벨 값을 보여주는 것을 확인할 수 있으며, 도 7c에 도시된 차량 충돌시의 소리는 충돌하는 순간 모든 대역에서 큰 데시벨 값을 보여주는 것을 확인할 수 있다.
도 8 및 도 9는 도 5에서 도시된 학습부(510)의 학습 과정을 설명하는 도면이다.
도 5, 및 도 8 내지 도 9를 참조하여 설명하면, 학습부(510)는 컨벌루션 인공 신경망(CNN:Convolution Neural Network)으로 구현되며, 컨벌루션 계층(511)과 판단 계층(513)을 포함하고, 컨벌루션 계층(511)은 특징 추출부(511a) 및 풀링부(511b)를 포함한다. 또한, 도 5 에서는, 컨벌루션 계층(511)이 하나의 특징 추출부(511a) 및 풀링부(511b)를 포함하는 것으로 도시하였으나, 교통사고 음향의 다양한 특징들을 추출하기 위해서 복수의 특징 추출부(511a) 및 풀링부(511b)를 포함하거나, 특징 추출부(511a) 및 풀링부(511b)가 복수 회 연산을 반복 수행할 수도 있다.
음향 데이터 저장부(531)에는 다양한 음향 신호들이 FFT 연산을 거쳐서 디지털 음향 데이터로 저장되어 있고, 이 음향 데이터들은 학습을 위해서 학습부(510)의 특징 추출부(511a)로 입력된다.
특징 추출부(511a)는 사전에 정의된 컨벌루션 마스크(또는 커널(kernel))를 입력된 데이터에 적용하여 컨벌루션 연산을 수행함으로써, 교통사고 보고 단말(210)에서 수집된 주변 음향 데이터 중에서 교통사고와 관련된 음향 특징 성분을 나타내는 특징맵을 생성하고, 생성된 특징맵을 풀링부(511b)로 출력한다.
도 8에 도시된 예에서, 3*3 크기의 마스크(501)를 6*6 크기의 음향 데이터(502)에 적용하여 컨벌루션 연산을 수행하는 예를 살펴보면, 특징 추출부(511a)는 마스크(501)를 음향 데이터(502)의 좌측 상단에서부터 우측 하단으로 1칸씩 이동시키면서 컨벌루션 연산을 수행하여 특징맵(503)을 생성한다. 이 과정에서, 특징 추출부(511a)는 서로 대응되는 데이터를 곱한 후 이들을 모두 합산한 값을 마스크의 중앙에 대응되는 위치에 기록하고, 동일한 방식으로 1칸씩 이동시키면서 특징맵(503)을 형성하였고, 가장자리의 공간은 0으로 채워서 입력 데이터의 크기를 그대로 유지하였다.
풀링부(511b)는 특징 추출부(511a)로부터 입력된 특징맵에 대해서 풀링(pooling)을 수행하여 특징맵의 크기를 축소시킨다. 본 발명의 바람직한 제 1 실시예에서는 최대값 풀링(Max Pooling) 방식으로 특징맵의 크기를 감소시켰다. 일 예로, 도 9에 도시된 바와 같이, 특징 추출부(521a)로부터 입력된 특징맵의 값들에 대해서 2*2 단위로 조사하여, 4개의 값들 중에서 특징이 큰 최대값만을 추출하는 방식으로 특징맵의 크기를 3*3으로 감소시키고 노이즈를 제거하였다.
그 후, 풀링부(511b)에서 출력된 특징맵은 다시 특징 추출부(511a)에 입력되어 다시 한번 컨벌루션 연산을 통해서 특징맵이 생성되고, 생성된 특징맵은 다시 풀링부(511b)에 입력되어 풀링이 수행될 수도 있다. 즉, 특징맵의 크기에 따라서 컨벌루션 계층(511)은 특징 추출부(511a)에서 특징맵을 생성하고 풀링부(511b)에서 특징맵에 대해서 풀링을 수행하는 과정을 수회 반복적으로 실행할 수 있다.
이러한 과정을 거쳐서 사이즈가 감소된 특징맵은 판단 계층(513)으로 출력되고, 판단 계층(513)은 일반적인 인공 신경망(Neural Network)과 동일한 방식으로 구현되어, 풀링부(511b)로부터 입력된 특징맵 데이터에 기반하여, 데이터가 어떤 의미를 갖는지 판단하고 역전파(Backpropagation)를 통해 학습을 수행한다.
예를 들어, 특징맵이 속하는 값의 범위가 차량 충돌 소리에 해당한다면 차량 충돌이 된 것으로 판단한다. 이렇게 판단하는 역할을 하는 함수를 활성화함수(Activation Function)라고 한다. 이 때, 판단한 결과가 기대 값과 달라서 오판한 경우, 특징 추출부(511a)에서 이용되는 마스크의 값을 조정하여 보정된 특징맵이 나올 수 있도록 하고, 판단 계층(513)을 구성하는 인공 신경망의 웨이트와 바이어스를 조정한다.
이렇게 결과 값에 따라서 이전 과정의 웨이트 값과 바이어스 값을 조정함으로써 CNN에 대해서 학습을 수행하고, 학습된 웨이트 값과 바이어스 값은 CNN 설정 정보로서 설정 정보 저장부(533)에 저장된 후, 교통사고 보고 단말(210)로 전송되어 교통사고 보고 단말(210)이 CNN 설정 정보로 자신의 CNN을 설정할 수 있도록 한다.
도 6은 본 발명의 바람직한 제 2 실시예에 따른 교통사고 보고 단말의 세부 구성을 도시하는 도면이다.
도 6을 참조하여, 본 발명의 바람직한 제 2 실시예에 따른 교통사고 보고 단말(210)을 설명하면, 교통사고 보고 단말(210)은 센서부(211-5), 음향 입력부(211-6), 통신부(217), GPS 모듈(211-4), 데이터 저장부(211-3), 제어부(211-7), 신호 변환부(211-8), 및 음향 판정부(211-1)를 포함한다. 또한, 음향 판정부(211-1)는 학습 서버(500)의 학습부(510)와 동일한 CNN 으로 구현되어, 그 내부에 특징 추출부(211-1a-1) 및 풀링부(211-1a-2)를 포함하는 컨벌루션 계층(211-1a) 및 판단 계층(211-1b)을 포함한다.
센서부(211-5)는 자이로센서, 3축 가속도 센서 등과 같은 센서들을 내장하거나, 차량 내부의 센서들과 연동하여, 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트를 판단하는데 필요한 센서값들을 제어부(211-7)로 출력한다.
제어부(211-7)는 센서값을 이전 센서값과 비교하여 센서값의 순간적인 변화 정도가 임계값 이상인 경우에는 차량의 비정상적 운동 패턴이 발생한 것으로 판단하고, 음향 입력부(211-6)를 즉시 활성화시켜 음향 입력부(211-6)로 하여금 교통사고 보고 단말(210) 주변의 음향을 수집하여 신호 변환부(211-8)로 출력하도록 한다.
예컨대, 특정 시간 t에 대하여 3축 가속도의 값을 x(t), y(t), z(t)로 표현한다면, 아래와 같은 수학식 2에 따라서 가속도의 변화량을 측정할 수 있다.
Figure 112017042205959-pat00007
이 때, 제어부(211-7)는 가속도의 변화량이 임계값 이상인 경우에는 차량의 비정상적 운동 패턴이 감지된 것으로 판단할 수 있다.
또한, 제어부(211-7)는 피치 및 롤의 측정값이 샘플링 중에 한번이라도 일정한 각도를 넘어가는 경우, G 데이터(가속도 변화량)가 한번이라도 임계치를 넘어가는 경우에는 사고가 발생하였다고 판단한다.
음향 입력부(211-6)는 마이크 등으로 구현되어, 제어부(211-7)의 제어에 따라서 활성화되어 교통사고 보고 단말(210) 주변의 음향을 수집하여 아날로그 음향신호로 생성하여 신호 변환부(211-8)로 출력한다.
신호 변환부(211-8)는 음향 입력부(211-6)로부터 입력되는 시간 영역의 아날로그 음향 신호를 주파수 영역의 디지털 신호로 변환하여 음향 판정부(211-1)로 출력한다. 본 발명의 신호 변환부(211-8)는 고속 푸리에 변환(Fast Fourier Transform:FFT)을 통해 시간 영역의 음향 신호를 진폭과 주파수의 스펙트럼을 분석할 수 있도록 주파수 영역의 음향 데이터로 변환하여 음향 판정부(211-1)로 출력한다.
예를 들어서, 마이크로 얻게 되는 소리 신호는 다양한 주파수 대역의 신호들의 합성 데이터로 볼 수 있다. 음향을 통해서 사고를 인지하기 위해서는 보다 구체적으로 고주파 대역의 음향 신호와 저주파 대역의 음향 신호가 어떻게 구성되는지 주파수의 대역별로 스펙트럼을 분석할 필요가 있다. 이러한 합성 데이터를 이산 주파수 영역의 신호로 분해하는 분해식을 이산 푸리에 변환(Discrete Fourier Transform)이라고 하며, 분해식 내에서 중복되는 계산을 줄여 계산 복잡성을 낮춘 분해식이 고속 푸리에 변환이다. 따라서, 본 발명의 신호 변환부(211-8)는 음향 입력부(211-6)로부터 입력되는 시간 영역의 아날로그 음향 신호에 대해서 FFT 를 수행하여 주파수 영역의 음향 데이터로 변환하여 음향 판정부(211-1)로 출력한다.
통신부(217)는 학습 서버(500)와 통신을 수행하여 학습부(510)로부터 음향 판정부(211-1)에 적용될 CNN 설정 정보를 제어부(211-7)로 출력하고, 제어부(211-7)는 CNN 설정 정보를 데이터 저장부(211-3)에 저장하는 한편 음향 판정부(211-1)로 출력하여, 음향 판정부(211-1)를 설정한다.
또한, 통신부(217)는 제어부(211-7)의 제어에 의해서 학습 서버(500) 및 자동음성 안내 장치(220)와 통신을 수행한다. 구체적으로, 통신부(217)는 사고 발생시에 사고 시간 및 사고 위치 정보(GPS 위치 정보)를 기본적으로 포함하는 최소 사고 정보를 자동 음성 안내 장치로 전송하여 교통사고 발생을 알린다. 또한, 통신부(217)는 사고 발생시의 음향 데이터를 학습 서버(500)로 전송할 수도 있다.
GPS 모듈(211-4)은 GPS 수신기로 구현되어, 교통사고 보고 단말(210)의 위치를 측정하여 제어부(211-7)로 출력한다.
음향 판정부(211-1)는 학습 서버(500)의 학습부(510)와 동일한 컨벌루션 인공 신경망(CNN:Convolution Neural Network)으로 구현되어, 신호 변환부(211-8)로부터 입력되는 음향 데이터를 분석하여 사고 발생 여부를 판정하여 제어부(211-7)로 출력한다.
음향 판정부(211-1)는 학습 서버(500)의 학습부(510)와 동일하게 컨벌루션 계층(211-1a)과 판단 계층(211-1b)을 포함하고, 컨벌루션 계층(211-1a)은 특징 추출부(211-1a-1) 및 풀링부(211-1a-2)를 포함하고, 특징 추출부(211-1a-1)에서 이용되는 마스크 및 판단 계층(211-1b)에서 적용되는 웨이트 및 바이어스 값은 학습 서버(500)로부터 수신된 값이 동일하게 설정된다. 따라서, 음향 판정부(211-1)에서 수행되는 동작은 학습을 제외하면 학습 서버(500)의 학습부(510)와 동일하다.
즉, 특징 추출부(211-1a-1)는 신호 변환부(211-8)로부터 입력되는 음향 데이터에 대해서 마스크를 적용하여 특징맵을 생성하여 풀링부(211-1a-2)로 출력하고, 풀링부(211-1a-2)는 특징맵에 대해서 최대값 풀링 방식으로 풀링을 수행하여 특징맵의 사이즈를 축소하며, 이러한 과정을 반복 수행하여 특징맵의 사이즈가 충분히 축소되면 판단 계층(211-1b)으로 출력한다.
판단 계층(211-1b)은 학습 서버(500)로부터 수신된 웨이트와 바이어스 값이 설정된 인공 신경망을 통해서 음향 입력부(211-6)를 통해서 입력된 음향이 교통사고시에 발생하는 음향인지 여부를 최종적으로 판단하여 제어부(211-7)로 출력한다. 이 때, 판단 계층(211-1b)은 음향 데이터에 따라서 사고의 종류(충돌, 추돌, 추락 등)를 식별하여 출력하도록 설계될 수도 있다.
한편, 제어부(211-7)는 통신부(217)를 통해서 학습 서버(500)로부터 CNN 설정정보(웨이트 값 및 바이어스 값)를 수신하여, 음향 판정부(211-1)에 포함된 CNN의 웨이트 값 및 바이어스 값을 설정한다.
또한, 제어부(211-7)는 센서부(211-5)로부터 입력되는 센서값을 이용하여 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트 발생 여부를 판단하고, 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트 가 발생하였다고 판단되면, 음향 입력부(211-6)를 활성화시켜 교통사고 보고 단말(210) 주변의 음향을 수집하도록 제어하고, 음향 입력부(211-6)로부터 입력된 음향이 교통사고시의 음향이라고 음향 판정부(211-1)가 판정하면, 사고 시간, GPS 모듈(211-4)에서 측정된 위치 정보 및 사전에 데이터 저장부(211-3)에 저장된 교통사고 보고 단말(210)의 식별 정보를 포함하는 최소 사고 정보를 생성하여 통신부(520)를 통해서 자동음성 안내 장치(220)로 전송한다.
도 10은 본 발명의 바람직한 제 2 실시예에 따라서 교통사고 보고 단말에서 교통사고 발생 여부를 판단하는 방법을 설명하는 흐름도이다. 즉, 도 3의 제 S310 단계 중 사고 발생을 감지하는 과정을 설명하는 흐름도이다.
본 발명의 바람직한 제 2 실시예에 따른 교통사고 보고 단말에서 교통사고 발생 여부를 판단하는 방법은, 도 4 내지 도 9를 참조하여 설명한 교통사고 보고 단말(210)에서 수행되는 것이므로, 그 기능이 동일하다. 따라서, 이하에서는 전체적인 흐름을 중심으로 설명한다.
먼저, 학습 서버(500)는 내부에 저장된 음향 데이터를 이용하여 컨벌루션 인공 신경망(CNN:Convolution Neural Network)을 학습하고, 학습 결과 획득된 CNN 설정 정보(웨이트 값, 및 바이어스 값 등)를 교통사고 보고 단말(210)로 전송한다(S1010). 이 때, 음향 데이터의 양이 충분히 많다면, 차종 별로 및/또는 교통사고 유형별로 학습을 수행할 수도 있고, 각 교통사고 보고 단말(210)은 자신이 설치된 차종에 대응되는 CNN 설정 정보를 제공받을 수도 있음은 상술한 바와 같다.
교통사고 보고 단말(210)은 학습 서버(500)로부터 수신된 CNN 설정 정보를 이용하여 음향 판정부(211-1)를 구현하는 CNN의 웨이트 값 및 바이어스 값 등을 설정한다(S1020).
그 후, 교통사고 보고 단말(210)은 차량 운행이 시작되면, 센서부(211-5)를 동작시켜 차량의 가속도 등을 측정하여 센서값을 생성하고(S1031), 센서값의 변화를 조사하여 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트 발생 여부를 조사한다(S1033).
제 S1033 단계에서 조사한 결과, 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트 발생되었다고 판단되면, 교통사고 보고 단말(210)은 음향 입력부(211-6)를 활성화하여 주변의 음향 신호를 수집하고, 아날로그 음향 신호에 대해서 고속 푸리에 변환(FFT)을 수행하여 주파수 영역으로 변환된 음향 데이터를 CNN 으로 구현된 음향 판정부(211-1)로 입력한다(S1040).
음향 판정부(211-1)는 입력된 음향 데이터를 이용하여 특징맵을 생성하고(S1051), 특징맵에 대해서 풀링 연산을 수행하여(S1053), 음향 입력부(211-6)에 입력된 음향이 교통사고 발생시에 발생하는 음향과 일치하는지 여부를 판단함으로써 교통사고 발생 여부를 최종적으로 판단한다(S1060).
제 S1060 단계에서 판단한 결과, 사고가 발생했다고 판단되면, 교통사고 보고 단말(210)은 GPS 모듈(211-4)을 이용하여 교통사고 보고 단말(210)의 위치를 측정하여 위치 정보를 생성하고, 사고 시간, 사고 위치 정보, 및 교통사고 보고 단말(210)의 식별정보를 포함하는 최소 사고 정보를 자동음성 안내 장치(220)로 전송하여 사고 발생 사실을 알린다(S1070).
아울러, 교통사고가 발생했다고 판단된 경우에, 교통사고 보고 단말(210)은 교통사고로 판단된 음향 데이터를 학습 서버(500)로 전송하고(S1080), 학습 서버(500)는 수신된 음향 데이터를 저장하여 추후에 CNN 학습에 활용한다(S1090).
지금까지 본 발명의 바람직한 제 2 실시예에 따라서, 본 발명의 교통사고 보고 단말의 구성 및 교통사고 보고 단말에서 교통사고 발생 여부를 판단하는 방법에 대해서 설명하였다.
상술한 제 2 실시예에서는, 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트 발생하였다고 판단된 시점에 음향 입력부(211-6)를 활성화하여, 해당 시점 이후의 음향을 수집하여 사고 발생 여부를 최종적으로 판단하였다.
한편, 본 발명의 바람직한 제 2 실시예의 변형 실시예에서는, 음향 입력부(211-6)가 지속적으로 음향을 수집하여 데이터 저장부(211-3)에 저장하고, 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트 발생하면, 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트 발생 시점 이전에 사전에 정의된 시간 동안 데이터 저장부(211-3)에 저장된 음향 신호와, 해당 시점 이후에 사전에 정의된 시간 동안 음향 입력부(213)에서 수집된 음향 신호를 신호 변환부(211-8)로 출력하고, 신호 변환부(211-8)는 입력된 음향 신호를 주파수 영역의 음향 데이터로 변환하여 음향 판정부(211-1)로 출력함으로써 교통사고 발생 여부를 최종적으로 판단한다.
이 때, 상기 데이터 저장부(211-3)는 사전에 정의된 시간 동안 만큼의 음향 신호를 저장하고, 오래된 신호는 자동으로 삭제하도록 설계되는 것이 바람직하다. 한편, 상기한 구성을 제외한 나머지 구성은 모두 제 2 실시예와 동일하므로, 중복되는 설명은 생략한다.
도 11은 본 발명의 제 2 실시예의 변형 실시예에 따라서 교통사고 보고 단말에서 교통사고 발생 여부를 판단하는 방법을 설명하는 도면이다.
도 11을 참조하면, 제 2 실시예의 변형 실시예는 제 2 실시예의 제 S1010 단계 내지 제 S1031 단계와 동일한 과정을 수행하여, 학습 서버에서 CNN을 학습하고(S1110), 교통사고 보고 단말(210)의 CNN의 초기 설정을 수행하며(S1120), 센서부(211-5)를 작동시킨다(S1131).
또한, 음향 입력부(211-6)가 활성화되어 교통사고 보고 단말(210) 주변의 음향을 수집하고, 음향 입력부(211-6)에서 수집된 음향 신호는 데이터 저장부에 저장된다(S1132). 이 때, 음향 신호가 저장되는 시간은 사전에 정의될 수 있고, 사전에 정의된 시간을 초과하는 음향 신호는 자동으로 삭제될 수 있다. 또한, 제 S1131 단계와 제 S1132 단계는 동시에 수행될 수도 있고, 시간의 선후 관계가 서로 바뀔 수도 있음을 물론이다.
한편, 제 S1033 단계와 동일한 방식으로, 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트가 발생하였는지 여부를 조사하고(S1133), 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트 발생한 경우에는, 발생 시점 이전에 사전에 정의된 시간 동안 데이터 저장부에 저장된 음향 신호와, 발생 시점 이후에 사전에 정의된 시간 동안 음향 입력부(211-6)에서 수집된 음향 신호를 주파수 영역의 음향 데이터로 변환한다(S1140).
주파수 영역으로 변환된 이후에 수행되는 처리 과정은, 제 2 실시예의 제 S1050 단계 내지 제 S1090 단계와 동일하므로 구체적인 설명을 생략한다(S1150~S1190).
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
100 : 응급 구조 서버
210 : 교통사고 보고 단말
211 : 사고 감지부 211-1: 음향 판정부
211-1a: 컨벌루션 계층 211-1b: 판단 계층
211-3: 데이터 저장부 211-4: GPS 모듈
211-5: 센서부 211-6: 음향 입력부
211-7: 제어부 211-8: 신호 변환부
213 : SOS 버튼
215 : 사용자 인터페이스 217 : 통신부
220 : 자동 음성 안내 장치
221 : 최소 사고 정보 수신부 223 : 중대사고 판단부
225 : 자동응답 통화부
230 : 데이터 베이스
240 : 관제 센터 서버
241 : 음성 통화부 243 : 구조 요청부

Claims (24)

  1. 차량 사고가 발생하였다고 판단하거나, 운전자가 SOS 버튼을 누르면 최소 사고 정보를 생성하여 전송하는 교통사고 보고 단말;
    최소 사고 정보가 수신되면 차량의 운전자에게 자동 응답 통화를 연결하여 교통사고 발생 여부를 확인하고, 교통사고 발생이 확인되면 최소 사고 정보를 관제 센터 서버로 전송하고, 자동 응답 통화를 상기 관제 센터 서버로 전환시키는 자동 음성 안내 장치;
    상기 교통사고 보고 단말로부터 수신된 최소 사고 정보 및 운영요원이 상기 관제 센터 서버에 입력된 교통사고 관련 추가 정보를 저장하는 데이터 베이스; 및
    상기 자동 음성 안내 장치로부터 전환된 사고 차량 운전자와의 음성 통화를 운영요원에게 연결하고, 운영요원으로부터 사고와 관련된 추가 정보를 입력받아 상기 데이터 베이스에 저장하고, 응급 구조 서버로 구조 요청을 전송하는 상기 관제 센터 서버를 포함하고,
    상기 교통사고 보고 단말은 차량의 비정상적 운동 패턴이나 차량 운동 이벤트를 감지하여 사고 발생을 판단하는 사고 감지부를 포함하며,
    상기 사고 감지부는
    차량의 운동 패턴이 아래의 수학식을 만족하는 경우에는 비정상적인 운동 패턴이라고 판단하고,
    Figure 112017070139451-pat00025

    상기 수학식에서, S(t)는 시간 t 에서의 센서 측정값이고,
    Figure 112017070139451-pat00026
    는 1 샘플링 구간에서의 측정값의 변동을 나타내며, α(t)는 k-window moving average로서 시간 t 이전 k 개의 샘플링 구간동안 센서값들의 평균값이고, β(t)는 운동 모델 변경 상수로서 센서 특성에 따라서 결정되는 값인 것을 특징으로 하는 교통사고 확인 자동 음성 안내 시스템.
  2. 제 1 항에 있어서, 상기 자동 음성 안내 장치는
    상기 교통사고 보고 단말로부터 최소 사고 정보를 수신하여 중대 사고 판단부로 출력하고, 상기 데이터 베이스에 저장하는 최소 사고 정보 수신부;
    최소 사고 정보에 포함되는 정보들을 이용하여, 해당 사고가 중대 사고인지 여부를 판단하고, 중대 사고라고 판단되면, 상기 최소 사고 정보를 상기 관제 센터 서버로 전송하여, 상기 관제 센터 서버로 하여금 긴급 구조 요청을 수행할 수 있도록 하는 상기 중대 사고 판단부; 및
    사고 차량의 운전자에게 자동 응답 통화를 시도하고, 운전자로부터 실제 사고가 발생했는지 여부를 확인하며, 운전자가 사고 발생을 확인하면, 상기 최소 사고 정보를 상기 관제 센터 서버로 전송하고, 자동 응답 통화를 상기 관제 센터 서버로 전환시키는 자동 응답 통화부를 포함하는 것을 특징으로 하는 교통사고 확인 자동 음성 안내 시스템.
  3. 제 2 항에 있어서, 상기 중대 사고 판단부는
    상기 최소 사고 정보에 포함된 상기 교통사고 보고 단말 또는 사고 차량내에 설치된 센서들의 측정값들이, 사고라고 판단되는 임계값과 비교하여 사전에 정의된 비율 이상인 경우에는 중대 사고라고 판단하는 것을 특징으로 하는 교통사고 확인 자동 음성 안내 시스템.
  4. 제 3 항에 있어서, 상기 교통사고 보고 단말은
    사용자가 누르면 상기 최소 사고 정보와 함께 구조 요청 신호를 상기 자동 음성 안내 장치로 전송하는 SOS 버튼;
    내부에 포함된 센서들 또는 차량에 설치된 센서들을 이용하여 차량의 사고 발생 여부를 감지하고, 차량 사고가 발생되었다고 판단되면 센서값들을 포함하는 최소 사고 정보를 생성하여 상기 자동 음성 안내 장치로 전송하는 상기 사고 감지부; 및
    스피커, 마이크, 디스플레이를 포함하도록 구현되어, 상기 사고 감지부가 사고를 감지하여 최소 사고 정보를 상기 자동 음성 안내 장치로 전송한 후, 사용자에게 알람, 불빛, 사용자 인터페이스 화면을 통해서 사고 발생 감지 사실을 알리고, 실제로 사고가 발생하였는지 여부를 확인하며, 마이크와 스피커를 통해서 상기 자동 음성 안내 장치 및 상기 관제 센터 서버의 운영요원과 음성 통화를 수행할 수 있도록 하는 사용자 인터페이스를 포함하는 것을 특징으로 하는 교통사고 확인 자동 음성 안내 시스템.
  5. 삭제
  6. 삭제
  7. 제 1 항에 있어서, 상기 사고 감지부는
    측정된 피치 및 롤이 샘플링 중에 일정한 각도를 넘어가는 이벤트가 발생하거나, G 데이터(가속도 변화량)가 임계치를 넘어가는 이벤트가 발생한 경우에는 사고가 발생하였다고 판단하는 것을 특징으로 하는 교통사고 확인 자동 음성 안내 시스템.
  8. 제 1 항 내지 제 4 항, 및 제 7 항 중 어느 한 항에 있어서, 상기 사고 감지부는
    차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트를 판단하는데 필요한 센서 측정값들을 생성하는 센서부;
    주변의 음향을 수집하여 신호 변환부로 출력하는 음향 입력부;
    상기 음향 입력부로부터 입력된 시간 영역의 음향 신호를 주파수 영역의 음향 데이터로 변환하는 상기 신호 변환부;
    상기 음향 데이터를 컨벌루션 인공 신경망(CNN:Convolution Neural Network)에 적용하여 상기 음향 입력부에서 수집된 음향 신호가 교통사고 음향 신호인지 여부를 판단하는 음향 판정부; 및
    상기 센서부로부터 입력되는 센서값들을 이용하여 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트가 발생하였고, 상기 음향 판정부에서 상기 음향 입력부에서 수집된 음향 신호가 교통사고 음향 신호라고 판단하면, 최종 사고 발생이라고 판단하여 사고 시간 및 사고 위치 정보를 포함하는 최소 사고 정보를 상기 자동 음성 안내 장치로 전송하는 제어부를 포함하고,
    상기 컨벌루션 인공 신경망은, 상기 컨벌루션 인공 신경망과 동일한 컨벌루션 인공 신경망에 대해서 학습을 수행한 학습 서버로부터 수신된 설정 정보(웨이트 값 및 바이어스 값을 포함 함)에 따라서 초기 설정 되는 것을 특징으로 하는 교통사고 확인 자동 음성 안내 시스템.
  9. 제 8 항에 있어서, 상기 음향 판정부는
    상기 음향 데이터에 상기 학습 서버로부터 수신된 설정 정보에 따른 마스크를 이용하여 컨벌루션 연산을 수행함으로써 상기 음향 데이터의 특징을 나타내는 특징맵을 형성하는 컨벌루션 계층; 및
    상기 특징맵을 이용하여 상기 음향 데이터가 교통사고 음향 데이터에 해당하는지 여부를 판정함으로써, 상기 음향 입력부에서 수집된 음향 신호가 교통사고 음향 신호인지 여부를 판단하는 판단 계층을 포함하는 것을 특징으로 하는 교통사고 확인 자동 음성 안내 시스템.
  10. 제 9 항에 있어서, 상기 컨벌루션 계층은
    상기 음향 데이터에 상기 학습 서버로부터 수신된 설정 정보에 따른 마스크를 이용하여 컨벌루션 연산을 수행함으로써 상기 음향 데이터의 특징을 나타내는 특징맵을 생성하는 특징 추출부; 및
    상기 특징맵에 최대값 풀링(Max Pooling) 연산을 수행하여 상기 특징맵의 크기를 감소시키는 풀링부를 포함하는 것을 특징으로 하는 교통사고 확인 자동 음성 안내 시스템.
  11. 제 8 항에 있어서,
    상기 신호 변환부는 시간 영역의 음향 신호에 대해서 고속 푸리에 트랜스폼(Fast Fourier Transform:FFT)을 수행하여 주파수 영역의 음향 데이터로 변환하는 것을 특징으로 하는 교통사고 확인 자동 음성 안내 시스템.
  12. 제 8 항에 있어서, 상기 제어부는
    상기 센서부로부터 입력되는 센서 측정값을 이용하여 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트가 발생하였다고 판단되면, 상기 음향 입력부를 활성화하고, 상기 음향 판정부에서 상기 음향 입력부에서 수집된 음향 신호가 교통사고 음향 신호라고 판단하면, 최종 사고 발생이라고 판단하여 사고 시간과 사고 위치를 포함하는 최소 사고 정보를 상기 자동 음성 안내 장치로 전송하는 것을 특징으로 하는 교통사고 확인 자동 음성 안내 시스템.
  13. 제 8 항에 있어서, 상기 제어부는
    상기 음향 입력부가 수집한 음향 신호를 데이터 저장부에 저장하고,
    상기 센서부로부터 입력되는 센서 측정값을 이용하여 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트가 발생하였다고 판단되면,
    차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트가 발생한 시점 이전에 사전에 정의된 시간 동안 상기 데이터 저장부에 저장된 음향 신호와, 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트가 발생한 시점 이후에 사전에 정의된 시간 동안 음향 입력부에서 수집된 음향 신호를 상기 신호 변환부로 출력하며, 상기 음향 판정부에서 상기 음향 입력부에서 수집된 음향 신호가 교통사고 음향 신호라고 판단하면, 최종 사고 발생이라고 판단하여 사고 시간과 사고 위치를 포함하는 최소 사고 정보를 상기 자동 음성 안내 장치로 전송하는 것을 특징으로 하는 교통사고 확인 자동 음성 안내 시스템.
  14. (a) 교통사고 보고 단말이 차량 사고가 발생하였다고 판단하거나, 운전자가 SOS 버튼을 누르면, 최소 사고 정보를 생성하여 자동 음성 안내 장치로 전송하는 단계;
    (b) 상기 자동 음성 안내 장치가 최소 사고 정보를 수신하고 차량의 운전자에게 자동 응답 통화를 연결하여 교통사고 발생 여부를 확인하며, 교통사고 발생이 확인되면 최소 사고 정보를 관제 센터 서버로 전송하고, 자동 응답 통화를 상기 관제 센터 서버로 전환시키는 단계; 및
    (c) 상기 관제 센터 서버가 상기 자동 음성 안내 장치로부터 연결된 사고 차량 운전자와의 음성 통화를 운영요원에게 연결하고, 운영요원으로부터 사고와 관련된 추가 정보를 입력받아 데이터 베이스에 저장하고, 응급 구조 서버로 구조 요청을 전송하는 단계를 포함하고,
    상기 (a) 단계는
    차량의 비정상적 운동 패턴 또는 차량 운동 이벤트를 감지하여 사고 발생을 판단하되,
    차량의 운동 패턴이 아래의 수학식을 만족하는 경우에는 비정상적인 운동 패턴이 발생했다고 판단하고,
    Figure 112017070139451-pat00027

    상기 수학식에서, S(t)는 시간 t 에서의 센서 측정값이고,
    Figure 112017070139451-pat00028
    는 1 샘플링 구간에서의 측정값의 변동을 나타내며, α(t)는 k-window moving average로서 시간 t 이전 k 개의 샘플링 구간동안 센서값들의 평균값이고, β(t)는 운동 모델 변경 상수로서 센서 특성에 따라서 결정되는 값인 것을 특징으로 하는 교통사고 확인 자동 음성 안내 방법.
  15. 제 14 항에 있어서,
    상기 (b) 단계는
    (b1) 상기 자동 음성 안내 장치가 최소 사고 정보에 포함되는 정보들을 이용하여, 해당 사고가 중대 사고인지 여부를 판단하고, 중대 사고라고 판단되면, 상기 관제 센터 서버로 하여금 긴급 구조를 수행할 수 있도록 상기 최소 사고 정보를 상기 관제 센터 서버로 전송하는 단계; 및
    (b2) 상기 자동 음성 안내 장치가 사고 차량의 운전자에게 자동 응답 통화를 시도하고, 운전자로부터 실제 사고가 발생했는지 여부를 확인하며, 운전자가 사고 발생을 확인하면, 상기 최소 사고 정보를 상기 관제 센터 서버로 전송하고, 자동 응답 통화를 상기 관제 센터 서버로 전환시키는 단계를 포함하는 것을 특징으로 하는 교통사고 확인 자동 음성 안내 방법.
  16. 제 15 항에 있어서, 상기 (b1) 단계는
    상기 최소 사고 정보에 포함된 상기 교통사고 보고 단말 또는 사고 차량내에 설치된 센서들의 측정값들이, 사고라고 판단되는 임계값과 비교하여 사전에 정의된 비율 이상인 경우에는 중대 사고라고 판단하는 것을 특징으로 하는 교통사고 확인 자동 음성 안내 방법.
  17. 삭제
  18. 삭제
  19. 제 14 항에 있어서, 상기 (a) 단계는
    측정된 피치 및 롤이 샘플링 중에 일정한 각도를 넘어가는 이벤트가 발생하거나, G 데이터(가속도 변화량)가 임계치를 넘어가는 이벤트가 발생한 경우에는 사고가 발생하였다고 판단하는 것을 특징으로 하는 교통사고 확인 자동 음성 안내 방법.
  20. 제 14 항에 있어서, 상기 (a) 단계는
    (a1) 학습 서버에서 복수의 교통사고 음향 데이터를 이용하여 컨벌루션 인공 신경망(CNN:Convolution Neural Network)을 학습하고, 상기 컨벌루션 인공 신경망에 대한 설정 정보를, 상기 컨벌루션 인공 신경망과 동일한 컨벌루션 인공 신경망을 구비한 교통사고 보고 단말로 전송하는 단계;
    (a2) 상기 교통사고 보고 단말이 상기 학습 서버로부터 수신한 설정 정보를 이용하여 컨벌루션 인공 신경망을 초기 설정하는 단계;
    (a3) 차량에 설치된 센서부를 작동시켜 센서값들을 측정하는 단계;
    (a4) 상기 센서값들에 따라서 판단할 때, 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트가 발생한 경우에, 상기 교통사고 보고 단말 주변에서 음향 신호를 수집하고, 상기 음향 신호를 주파수 영역의 음향 데이터로 변환하는 단계;
    (a5) 상기 음향 데이터를 상기 컨벌루션 인공 신경망에 적용하여 교통사고 발생 여부를 판단하는 단계; 및
    (a6) 상기 (a5) 단계에서 교통사고 발생이라고 최종 판단되면, 자동 음성 안내 장치로 최소 사고 정보를 전송하는 단계를 포함하는 것을 특징으로 하는 교통사고 확인 자동 음성 안내 방법.
  21. 제 14 항에 있어서, 상기 (a) 단계는
    (a1) 학습 서버에서 복수의 교통사고 음향 데이터를 이용하여 컨벌루션 인공 신경망(CNN:Convolution Neural Network)을 학습하고, 상기 컨벌루션 인공 신경망에 대한 설정 정보를, 상기 컨벌루션 인공 신경망과 동일한 컨벌루션 인공 신경망을 구비한 교통사고 보고 단말로 전송하는 단계;
    (a2) 상기 교통사고 보고 단말이 상기 학습 서버로부터 수신한 설정 정보를 이용하여 컨벌루션 인공 신경망을 초기 설정하는 단계;
    (a3) 차량에 설치된 센서부를 작동시켜 센서값들을 측정하고, 상기 교통사고 보고 단말 주변의 음향 신호를 수집하여 저장하기 시작하는 단계;
    (a4) 상기 센서값들에 따라서 판단할 때, 차량의 비정상적 운동 패턴 또는 비정상적인 운동 이벤트가 발생한 경우에, 상기 저장된 음향 신호를 주파수 영역의 음향 데이터로 변환하는 단계;
    (a5) 상기 음향 데이터를 상기 컨벌루션 인공 신경망에 적용하여 교통사고 발생 여부를 판단하는 단계; 및
    (a6) 상기 (a5) 단계에서 교통사고 발생이라고 최종 판단되면, 자동 음성 안내 장치로 최소 사고 정보를 전송하는 단계를 포함하는 것을 특징으로 하는 교통사고 확인 자동 음성 안내 방법.
  22. 제 20 항 또는 제 21 항에 있어서, 상기 (a5) 단계는
    (a5-1) 상기 음향 데이터에 상기 학습 서버로부터 수신된 설정 정보에 따른 마스크를 이용하여 컨벌루션 연산을 수행함으로써 상기 음향 데이터의 특징을 나타내는 특징맵을 형성하는 단계; 및
    (a5-2) 상기 특징맵을 이용하여 상기 음향 데이터가 교통사고 음향 데이터에 해당하는지 여부를 판정함으로써, 상기 수집된 음향 신호가 교통사고 음향 신호인지 여부를 판단하는 단계를 포함하는 것을 특징으로 하는 교통사고 확인 자동 음성 안내 방법.
  23. 제 22 항에 있어서, 상기 (a5-1) 단계는
    상기 음향 데이터에 상기 학습 서버로부터 수신된 설정 정보에 따른 마스크를 이용하여 컨벌루션 연산을 수행함으로써 상기 음향 데이터의 특징을 나타내는 특징맵을 생성하는 단계; 및
    상기 특징맵에 최대값 풀링(Max Pooling) 연산을 수행하여 상기 특징맵의 크기를 감소시키는 단계를 포함하는 것을 특징으로 하는 교통사고 확인 자동 음성 안내 방법.
  24. 제 20 항 또는 제 21 항에 있어서,
    (a7) 상기 교통사고 보고 단말이 교통사고로 판단된 음향 데이터를 상기 학습 서버로 전송하는 단계; 및
    (a8) 상기 학습 서버가 수신된 음향 데이터를 저장하여 추후에 컨벌루션 인공 신경망 학습에 이용할 수 있도록 저장하는 단계를 더 포함하는 것을 특징으로 하는 교통사고 확인 자동 음성 안내 방법.
KR1020170055519A 2017-04-28 2017-04-28 교통사고 확인 자동 음성 안내 시스템 및 방법 KR101792141B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170055519A KR101792141B1 (ko) 2017-04-28 2017-04-28 교통사고 확인 자동 음성 안내 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170055519A KR101792141B1 (ko) 2017-04-28 2017-04-28 교통사고 확인 자동 음성 안내 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR101792141B1 true KR101792141B1 (ko) 2017-11-20

Family

ID=60809232

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170055519A KR101792141B1 (ko) 2017-04-28 2017-04-28 교통사고 확인 자동 음성 안내 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR101792141B1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101967092B1 (ko) * 2018-01-17 2019-04-08 장재원 버스 주행정보 시스템에서의 버스의 급출발 또는 급제동에 의한 사고를 감지 및 예방하기 위한 방법 및 장치
KR20190082454A (ko) * 2018-01-02 2019-07-10 주식회사 이노카 e-call 복합기능 디지털 운행기록계
WO2019164035A1 (ko) * 2018-02-23 2019-08-29 주식회사 알티스트 스마트폰을 이용한 사고 자동 구조 요청 방법 및 시스템
KR102024914B1 (ko) * 2019-06-14 2019-11-04 주식회사 사브오토모티브 위기상황 관리 기능을 구비한 블랙박스 시스템
KR102177770B1 (ko) * 2019-05-15 2020-11-11 네이버시스템(주) 차량 긴급 구난 시스템 및 그 방법
CN113408319A (zh) * 2020-03-16 2021-09-17 广州汽车集团股份有限公司 一种城市道路异常感知处理方法、装置、系统及存储介质
KR102540794B1 (ko) * 2022-11-01 2023-06-13 주식회사 에이엔제이솔루션 도로 사고 검지 시스템

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007280407A (ja) * 2007-05-01 2007-10-25 Sumitomo Electric Ind Ltd 交通端末装置および事故検出システム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007280407A (ja) * 2007-05-01 2007-10-25 Sumitomo Electric Ind Ltd 交通端末装置および事故検出システム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190082454A (ko) * 2018-01-02 2019-07-10 주식회사 이노카 e-call 복합기능 디지털 운행기록계
KR102029456B1 (ko) * 2018-01-02 2019-11-29 주식회사 이노카 e-call 복합기능 디지털 운행기록계
KR101967092B1 (ko) * 2018-01-17 2019-04-08 장재원 버스 주행정보 시스템에서의 버스의 급출발 또는 급제동에 의한 사고를 감지 및 예방하기 위한 방법 및 장치
WO2019164035A1 (ko) * 2018-02-23 2019-08-29 주식회사 알티스트 스마트폰을 이용한 사고 자동 구조 요청 방법 및 시스템
KR102177770B1 (ko) * 2019-05-15 2020-11-11 네이버시스템(주) 차량 긴급 구난 시스템 및 그 방법
KR102024914B1 (ko) * 2019-06-14 2019-11-04 주식회사 사브오토모티브 위기상황 관리 기능을 구비한 블랙박스 시스템
CN113408319A (zh) * 2020-03-16 2021-09-17 广州汽车集团股份有限公司 一种城市道路异常感知处理方法、装置、系统及存储介质
KR102540794B1 (ko) * 2022-11-01 2023-06-13 주식회사 에이엔제이솔루션 도로 사고 검지 시스템

Similar Documents

Publication Publication Date Title
KR101792141B1 (ko) 교통사고 확인 자동 음성 안내 시스템 및 방법
US11568496B1 (en) Risk behavior detection methods based on tracking handset movement within a moving vehicle
KR101810539B1 (ko) 교통사고 판단 장치 및 방법
US11999296B2 (en) Motor vehicle artificial intelligence expert system dangerous driving warning and control system and method
US9390612B2 (en) Using audio signals in personal emergency response systems
US9392431B2 (en) Automatic vehicle crash detection using onboard devices
US10037681B2 (en) Emergency notification within an alarm community
US8295890B2 (en) Intra-vehicular mobile device usage detection system and method of using the same
US10223603B1 (en) Apparatuses, systems, and methods for determining when a vehicle occupant is using a mobile telephone
US10178524B2 (en) Vehicle wireless device detection
KR101768640B1 (ko) 최소 사고 정보 군집 분석을 이용한 교통사고 접수 시스템 및 방법
JP7160454B2 (ja) 情報を出力するための方法、装置及びシステム、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム
CN106301429B (zh) 有确定免提模式设置的公共交通工具检测的移动通信设备
US10282624B1 (en) Apparatuses, systems, and methods for determining when a vehicle operator is texting while driving
CN112071309B (zh) 网约车安全监测装置及系统
CN112086098B (zh) 一种驾乘人员分析方法、装置及计算机可读存储介质
Song et al. Detecting driver phone calls in a moving vehicle based on voice features
KR102051136B1 (ko) 클라우드서버를 기반을 하는 인공지능 대쉬보드로봇을 이용한 사용자 상태인식시스템
US20230351894A1 (en) Accident reporter
CN109817224A (zh) 一种语音敏感词监督系统和方法
KR20160111278A (ko) 차량 운전 행태의 모니터링 장치, 이를 이용한 모니터링 시스템 및 모니터링 방법
US10282922B1 (en) Techniques for detecting and reporting a vehicle crash
CN113116294A (zh) 人员身体状况的监测方法及装置
CN216659873U (zh) 一种针对驾驶员的健康监测系统
CN113793134B (zh) 一种车辆报警方法、装置和计算机可读存储介质

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant