KR20180043587A - Emergency call system - Google Patents

Emergency call system Download PDF

Info

Publication number
KR20180043587A
KR20180043587A KR1020160136468A KR20160136468A KR20180043587A KR 20180043587 A KR20180043587 A KR 20180043587A KR 1020160136468 A KR1020160136468 A KR 1020160136468A KR 20160136468 A KR20160136468 A KR 20160136468A KR 20180043587 A KR20180043587 A KR 20180043587A
Authority
KR
South Korea
Prior art keywords
image
accident
call system
emergency call
unit
Prior art date
Application number
KR1020160136468A
Other languages
Korean (ko)
Other versions
KR102610038B1 (en
Inventor
박진석
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020160136468A priority Critical patent/KR102610038B1/en
Publication of KR20180043587A publication Critical patent/KR20180043587A/en
Application granted granted Critical
Publication of KR102610038B1 publication Critical patent/KR102610038B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B27/00Alarm systems in which the alarm condition is signalled from a central station to a plurality of substations
    • G08B27/001Signalling to an emergency team, e.g. firemen
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0205Specific application combined with child monitoring using a transmitter-receiver system
    • G08B21/0208Combination with audio or video communication, e.g. combination with "baby phone" function
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • B60Y2400/303Speed sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Alarm Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to an emergency call system for providing accident information to the outside when an accident of a vehicle equipped with the system occurs. The emergency call system includes a camera for photographing the outside of the vehicle; an accident occurrence determination part for determining whether or not an accident has occurred by comparing the image of a current region photographed by the camera with the image of a region of interest extracted from a previous image and outputting an accident occurrence signal when it is determined that the accident has occurred; and an E-Call module for receiving the accident occurrence signal outputted from the accident occurrence determination part and providing accident information to external equipment.

Description

이머전시 콜 시스템{Emergency call system}[0001] Emergency call system [0002]

본 발명은 이머전시 콜 시스템에 관한 것으로, 상세하게는 다양한 경로를 통해 입력되는 신호를 바탕으로 동작 유무를 판단함으로써, 에어백의 전개가 이루어지지 않는 다양한 형태의 사고의 경우에도 동작할 수 있도록 구현된 이머전시 콜 시스템에 관한 것이다.
The present invention relates to an emergency call system, and more particularly, to an emergency call system that can operate in various types of accidents in which an airbag is not deployed by determining whether an operation is performed based on signals input through various paths To an emergency call system.

e-Call System이란 Emergency Call System의 약어로서, 차량 사고 발생 시 차량 위치, 차량 속도, 차량 방향 및 차량 정보 등을 주변의 PSAP(Public Safety Answering Point, 공공안전대응포인트)로 보내서 신속하고 효율적인 응급 조치가 이루어지도록 하는 시스템이다.e-Call System is an abbreviation of Emergency Call System. It sends out vehicle location, vehicle speed, vehicle direction and vehicle information to nearby PSAP (Public Safety Answering Point) .

2015년도부터 유럽과 러시아에서 법규화를 추진하면서 각 OEM社들이 e-Call System의 개발에 많은 투자를 하고 있는 실정이다.Since 2015, the OEMs are investing heavily in the development of e-call systems while promoting legalization in Europe and Russia.

e-Call System은 기능적으로 크게 3개의 구성으로 이루어지는데, 직접 단말을 담당하는 IVS(In-Vehicle System), 중간 연결을 담당하는 MNO(Mobile Network Operator) 및 정보를 수신하고 처리하는 PSAP로 구성된다.The e-Call system consists of three major functional components: IVS (In-Vehicle System), MNO (Mobile Network Operator), and PSAP for receiving and processing information. .

한편, e-Call System의 동작은 ACU(Airbag Control Unit)에서 보내는 신호에 의해 결정된다.On the other hand, the operation of e-Call System is determined by the signal sent from ACU (Airbag Control Unit).

사고 발생 시, 충격감지센서가 충격량을 감지하여 ACU로 보내면, ACU는 충격감지센서로부터의 값을 통해 에어백 전개의 유무를 판단하고, 에어백 전개에 대한 유무 판단은 e-Call System의 동작 근거로 이용된다.When an accident occurs, the impact sensor senses the amount of impact and sends it to the ACU. The ACU determines whether the airbag deployment is based on the value from the impact sensor, and determines whether or not the airbag deployment is used as an operating basis for the e-call system do.

e-Call System은 사고 발생 시에 사고접수센터로 사고 정보 데이터를 전송한 후, 사고자와 센터 운영자 간의 음성 채널이 형성되면, 사고 상황을 판단하게 된다.When an accident occurs, the e-Call System transmits accident information data to the accident reception center, and if an audio channel is formed between the accidenter and the center operator, the accident situation is judged.

이와 같은 e-Call System의 동작 실행 여부는 충격감지센서에 의해 감지되는충격량을 바탕으로 이루어지기 때문에, 충격량을 입력으로 동작하는 ACU의 작동상태가 e-Call System의 동작 실행 여부를 결정하는 주요한 요소가 된다.Since the operation of the e-Call System is performed based on the amount of impact detected by the impact sensor, the operation state of the ACU operating with the input of the amount of impact is a main factor .

하지만, 실상에서는 차량 사고가 발생하더라도 에어백의 전개가 이루어지지 않는 경우가 많은데, 그 원인은 ACU가 판단하는 값들이 전방충격센서와 측면충격센서에 의해 감지되는 값들로 한정되어 있기 때문이다. 즉, 후방 충돌, 사면 충돌, 전복 및 구름 등의 사고가 발생한 경우에는 에어백이 미작동할 수 있다.However, in actuality, even if a vehicle accident occurs, the air bag is not deployed in many cases because the values determined by the ACU are limited to the values detected by the front impact sensor and the side impact sensor. That is, the airbag may not operate if an accident such as rear impact, slope collision, rollover, and cloud occurs.

또한, 에어백의 미작동은 충격감지센서에 의해 감지되는 충격량이 미비하거나, 충돌 각이 맞지 않는 경우에도 발생할 수 있고, 차량 사고라 하더라도, 전복 및 구름에 의한 차량 사고 시에는 충격감지센서에 의해 감지되지 않을 수도 있다.In addition, the air bag can not be actuated even when the amount of impact detected by the impact sensor is insufficient, or when the collision angle is inconsistent. In the event of a vehicle accident due to rollover or rolling, .

이와 같이, 차량 사고가 발생하더라도 e-Call System이 동작하지 않는 경우가 있기 때문에, 효과적인 e-Call System의 운영이 이루어지지 못하고 있는 실정이다.In this way, even if a vehicle accident occurs, the e-Call System may not operate, so that an effective e-Call System can not be operated.

따라서, ACU의 동작만을 기준으로 e-Call System의 동작을 결정하는 데에는 한계가 있기 때문에, e-Call System의 동작을 결정하기 위한 다양한 기준을 설정하는 것에 대한 고려가 이루어져야 할 것이다.
Therefore, there are limitations in determining the operation of the e-Call System based only on the operation of the ACU, so consideration should be given to setting various criteria for determining the operation of the e-Call System.

따라서, 본 발명은 상기와 같은 종래 기술의 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은, 다양한 경로를 통해 입력되는 신호를 바탕으로 동작 유무를 판단함으로써, 에어백의 전개가 이루어지지 않는 다양한 형태의 사고의 경우에도 동작할 수 있도록 구현된 이머전시 콜 시스템을 제공함에 있다.
SUMMARY OF THE INVENTION Accordingly, the present invention has been made keeping in mind the above problems occurring in the prior art, and it is an object of the present invention to provide an air conditioner, The present invention also provides an emergency call system that can operate even in the event of an accident.

상기와 같은 목적을 달성하기 위한 본 발명의 일 측면에 따른 이머전시 콜 시스템은, 탑재된 차량의 사고 발생 시에 사고 정보를 외부로 제공하는 이머전시 콜 시스템에 있어서, 탑재된 차량의 외부를 촬영하는 카메라; 상기 카메라에 의해 촬영된 현재의 영상과 이전의 영상에서 각각 추출되는 관심 영역의 이미지를 비교하여 사고 발생 여부를 판단하고, 사고가 발생한 것으로 판단되면, 사고 발생 신호를 출력하는 사고발생 판단부; 및 상기 사고발생 판단부로부터 출력되는 사고 발생 신호를 수신하고, 사고 정보를 외부 장비로 제공하는 E-Call 모듈을 포함한다.According to another aspect of the present invention, there is provided an emergency call system for providing accident information to an external device in the event of an accident of a mounted vehicle, the emergency call system comprising: Camera; An accident occurrence judging unit for judging whether or not an accident has occurred by comparing an image of a current region photographed by the camera with an image of a region of interest extracted from a previous image and outputting an accident occurrence signal when it is judged that an accident has occurred; And an E-Call module for receiving an accident occurrence signal output from the accident occurrence determination unit and providing accident information to external equipment.

상기 탑재된 차량의 속도를 측정하는 속도 센서를 더 포함하고, 상기 사고발생 판단부는 사고가 발생한 것으로 판단되면, 상기 속도 센서에 의해 측정된 속도를 기 설정되는 기준 속도와 비교하여, 상기 기준 속도 이상이면, 사고 발생 신호를 출력하도록 구성된다.Further comprising a speed sensor for measuring a speed of the vehicle mounted on the vehicle, wherein the accident occurrence determination unit compares the speed measured by the speed sensor with a preset reference speed, , It is configured to output an accident occurrence signal.

상기 사고발생 판단부는 상기 속도 센서에 의해 측정된 속도가 상기 기준 속도 미만이면, 현재 모드를 판단하여, 자동 모드이면 상기 사고 발생 신호를 출력하고, 수동 모드이면 사고 정보 제공 명령이 입력되는 경우에 상기 사고 발생 신호를 출력하도록 구성된다.Wherein the accident occurrence determination unit determines the current mode if the speed measured by the speed sensor is less than the reference speed and outputs the occurrence signal when the mode is the automatic mode, And output an accident occurrence signal.

상기 사고발생 판단부는, 상기 카메라에 의해 촬영되는 영상을 수신하는 수신부; 상기 수신부에 의해 수신된 영상에서 관심 영역의 이미지를 추출하고, 추출된 이미지를 다수의 픽셀들로 구분하여, 픽셀 단위의 이미지를 제공하는 영상 처리부; 및 상기 영상 처리부로부터 제공되는 픽셀 단위의 이미지를 수신하고, 현재 이미지와 이전 이미지의 동일 좌표의 픽셀 값이 같은지를 비교한 결과를 바탕으로 사고 발생 여부를 판단하는 분석부를 포함한다.Wherein the incident occurrence judging unit comprises: a receiving unit for receiving an image photographed by the camera; An image processing unit for extracting an image of a region of interest from the image received by the receiving unit, dividing the extracted image into a plurality of pixels and providing an image in units of pixels; And an analyzing unit for receiving an image of a pixel unit provided from the image processing unit and determining whether an accident has occurred based on a result of comparing pixel values of the same coordinates of the current image with the previous image.

상기 사고발생 판단부는 조도 센서를 더 포함하고, 상기 영상 처리부는 상기 조도 센서에 의해 감지되는 외부의 조도 값을 기반으로 판단한 결과, 밤인 것으로 판단하면, 상기 수신부에 의해 수신된 영상에 색상 반전 기법을 적용한 후, 색상 반전된 영상에서 관심 영역의 이미지를 추출하도록 구성된다.Wherein the incident occurrence judging unit further comprises an illuminance sensor and the image processing unit judges based on an external illumination value sensed by the illuminance sensor that it is night, And then extracts the image of the region of interest from the color-inverted image.

상기 분석부는 이전 이미지의 픽셀 값과 현재 이미지의 픽셀 값의 차이가 오차범위 이내이면 이전 이미지의 픽셀 값과 현재 이미지의 픽셀 값이 같은 것으로 판단하고, 이전 이미지와 현재 이미지의 동일 좌표의 픽셀을 매칭한 결과 매칭률이 기 설정된 기준 이상이면, 동일한 이미지인 것으로 판단하도록 구성된다.If the difference between the pixel value of the previous image and the pixel value of the current image is within the error range, the analyzing unit determines that the pixel value of the previous image is the same as the pixel value of the current image, And judges that the resultant image is the same image if the result matching rate is equal to or greater than a preset reference.

상기 관심 영역은 영상의 상단부의 영역과 영상의 하단부의 영역으로서, 상기 분석부는 현재 이미지의 상단부의 영역을 이전 이미지의 상단부의 영역과 하단부의 영역을 비교하고, 현재 이미지의 하단부의 영역을 이전 이미지의 상단부의 영역과 하단부의 영역을 비교하도록 구성된다.Wherein the analyzing unit compares a region of the upper end of the current image with a region of the upper end of the previous image and a region of the lower end of the previous image, And the area of the lower end of the upper end portion of the wafer W is compared.

상기 분석부는 현재 이미지의 상단부의 영역이 이전 이미지의 상단부의 영역과 다르고, 이전 이미지의 하단부의 영역과 같으며, 현재 이미지의 하단부의 영역이 이전 이미지의 상단부의 영역과 같고, 이전 이미지의 하단부의 영역과 다른 경우, 사고가 발생한 것으로 판단하고, 그 이외의 경우에는 사고가 발생하지 않은 것으로 판단하도록 구성된다.
The analyzing unit determines that the area of the upper end of the current image is different from the area of the upper end of the previous image and the area of the lower end of the current image is the same as the area of the upper end of the previous image, It is determined that an accident has occurred, and in the other cases, it is determined that an accident has not occurred.

본 발명의 실시 예에 따른 이머전시 콜 시스템을 이용하면, 충격감지 센서에 의해 감지되는 충격량뿐만 아니라 카메라를 통해 획득되는 차량 외부의 영상과 속도 센서에 의해 측정되는 차량 속도를 이용하여서도 사고 발생 여부를 판단할 수 있다.The emergency call system according to the embodiment of the present invention can detect the occurrence of an accident even if an accident is detected by using an image of the outside of the vehicle obtained through a camera and a vehicle speed measured by the speed sensor, Can be determined.

따라서, 다양한 경로를 통해 입력되는 신호를 바탕으로 동작 유무를 판단함으로써, 에어백의 전개가 이루어지지 않는 다양한 형태의 사고에 대해서도 발생 여부를 판단할 수 있다.Accordingly, it is possible to determine whether an accident occurs in various types of accidents in which the airbag is not deployed, by judging the presence or absence of an operation based on signals inputted through various paths.

따라서, 기존에는 발생 여부를 판단할 수 없었던 사고에 대해서도 신속한 대처가 가능하므로, 사고 시 탑승자에 대한 안전성을 향상시킬 수 있다.
Therefore, it is possible to promptly cope with an accident that has not been able to determine the occurrence of an accident, so that the safety of an occupant in an accident can be improved.

도 1은 본 발명의 실시 예에 따른 이머전시 콜 시스템의 일례의 구성을 도시한 도면이다.
도 2는 본 발명의 실시 예에 따른 이머전시 콜 시스템의 사고발생 판단부의 구성을 도시한 도면이다.
도 3은 사고가 발생하지 않은 경우에 있어서의 소정 시간 간격을 갖는 두 이미지를 도시한 것으로서, 도 3(a)는 현재 이미지이고, 도 3(b)는 이전 이미지이다.
도 4는 사고가 발생한 경우에 있어서의 소정 시간 간격을 갖는 두 이미지를 도시한 것으로서, 도 4(a)는 현재 이미지이고, 도 4(b)는 이전 이미지이다.
도 5는 본 발명의 실시 예에 따른 이머전시 콜 시스템의 제 1 동작에 따른 순서를 도시한 플로우챠트이다.
도 6은 본 발명의 실시 예에 따른 이머전시 콜 시스템의 제 2 동작에 따른 순서를 도시한 플로우챠트이다.
1 is a diagram showing an exemplary configuration of an emergency call system according to an embodiment of the present invention.
2 is a diagram showing the configuration of an accident occurrence judging unit of the emergency call system according to the embodiment of the present invention.
Fig. 3 shows two images having a predetermined time interval when no accident occurs. Fig. 3 (a) is a current image, and Fig. 3 (b) is a previous image.
Fig. 4 shows two images having a predetermined time interval when an accident occurs. Fig. 4 (a) is a current image, and Fig. 4 (b) is a previous image.
FIG. 5 is a flowchart illustrating a procedure according to a first operation of the emergency call system according to the embodiment of the present invention. FIG.
FIG. 6 is a flow chart showing a procedure according to a second operation of the emergency call system according to the embodiment of the present invention.

고문에 개시되어 있는 본 발명의 실시 예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 실시 예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 실시 예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시 예들에 한정되는 것으로 해석되어서는 안 된다.For the embodiments of the invention disclosed in the tent, certain structural and functional descriptions are merely illustrative for the purpose of illustrating embodiments of the invention, and the embodiments of the invention may be embodied in various forms, And should not be construed as limited to the embodiments described.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The present invention is capable of various modifications and various forms, and specific embodiments are illustrated in the drawings and described in detail in the text. It should be understood, however, that the invention is not intended to be limited to the particular forms disclosed, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 “~사이에”와 “바로 ~사이에” 또는 “~에 이웃하는”과 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Other expressions that describe the relationship between components, such as "between" and "between" or "neighboring to" and "directly adjacent to" should be interpreted as well.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, “포함하다” 또는 “가지다” 등의 용어는 개시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms " comprising ", or " having ", and the like, are intended to specify the presence of stated features, integers, But do not preclude the presence or addition of steps, operations, elements, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

한편, 어떤 실시 예가 달리 구현 가능한 경우에 특정 블록 내에 명기된 기능 또는 동작이 순서도에 명기된 순서와 다르게 일어날 수도 있다. 예를 들어, 연속하는 두 블록이 실제로는 실질적으로 동시에 수행될 수도 있고, 관련된 기능 또는 동작에 따라서는 상기 블록들이 거꾸로 수행될 수도 있다.
On the other hand, if an embodiment is otherwise feasible, the functions or operations specified in a particular block may occur differently from the order specified in the flowchart. For example, two consecutive blocks may actually be performed at substantially the same time, and depending on the associated function or operation, the blocks may be performed backwards.

이하, 본 발명의 실시 예에 따른 이머전시 콜 시스템의 구성 및 동작에 대하여 첨부된 도면을 참조하여 상세하게 설명하도록 한다.
Hereinafter, the construction and operation of the emergency call system according to the embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시 예에 따른 이머전시 콜 시스템의 일례의 구성을 도시한 도면이다.1 is a diagram showing an exemplary configuration of an emergency call system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시 예에 따른 이머전시 콜 시스템(100, 이하 시스템)은 충격감지 센서(110), 에어백 제어부(ACU: Airbag Control Unit, 120), 카메라(130), 속도 센서(140), 사고발생 판단부(150) 및 E-Call 모듈(160)로 구성될 수 있다.1, an emergency call system 100 according to an exemplary embodiment of the present invention includes an impact detection sensor 110, an airbag control unit 120, a camera 130, An incident occurrence judging unit 150, and an E-Call module 160. [0034] FIG.

이때, 상기 시스템(100)은 충격감지 센서(110)에 의해 감지되는 충격 정보를 바탕으로 한 에어백 제어부(120)의 에어백 개시 여부 판단 결과에 따라 E-Call 모듈(160)을 통해 사고 정보를 외부 장비(ex. 주변 차량, PSAP 등)로 전송한다.At this time, the system 100 determines accident information through the E-Call module 160 according to the determination result of the airbag initiation of the airbag control unit 120 based on the impact information sensed by the impact sensing sensor 110 To the equipment (eg, nearby vehicles, PSAP, etc.).

또한, 상기 시스템(100)은 카메라(130)로부터 획득되는 영상 정보와 속도 센서(140)로부터 획득되는 속도 정보를 바탕으로 한 사고발생 판단부(150)의 판단 결과에 따라 E-Call 모듈(160)을 통해 사고 정보를 외부 장비(ex. 주변 차량, PSAP)로 전송한다.The system 100 further includes an E-Call module 160 (not shown) according to the determination result of the accident occurrence determination unit 150 based on the image information obtained from the camera 130 and the speed information obtained from the speed sensor 140 ) To the external equipment (ex. Peripheral vehicle, PSAP).

상세 구성에 대해서 살펴보면, 상기 충격감지 센서(110)는 차량 사고 발생시 차체에 가해지는 충격을 감지하고, 충격량을 출력한다. 그리고, 상기 충격감지 센서(110)에 의해 출력되는 충격량은 에어백 제어부(120)로 입력된다.In detail, the impact sensor 110 detects an impact applied to the vehicle body when a vehicle accident occurs, and outputs an impact amount. The amount of impact output by the impact sensor 110 is input to the airbag control unit 120.

상기 에어백 제어부(120)는 충격감지 센서(110)로부터의 충격량을 바탕으로 에어백 개시 여부를 판단하고, 에어백을 개시해야 하는 것으로 판단하면, 에어백을 개시하는 한편, E-Call 모듈(160)로 에어백 개시 신호를 제공한다.The airbag controller 120 determines whether the airbag is started based on the amount of impact from the impact sensor 110. If the airbag controller 120 determines that the airbag should be started, / RTI >

일례로, 상기 에어백 제어부(120)는 충격감지 센서(110)로부터의 충격량을 기 설정되는 기준 충격량과 비교하여, 기준 충격량보다 크면 에어백을 개시해야 하는 것으로 판단하고, 기준 충격량 이하이면 에어백을 개시하지 않아도 되는 것으로 판단할 수 있다.For example, the airbag control unit 120 compares the amount of impact from the impact sensor 110 with a predetermined reference amount of impact, determines that the airbag should be started if it is greater than the reference amount of impact, It can be judged that it is not necessary.

물론, 이상의 에어백 제어부(120)의 에어백 개시 여부 판단은 일례로서, 에어백 제어부(120)는 이외의 다른 방법으로 에어백 개시 여부를 판단할 수 있다.Of course, the above-described determination of whether or not the airbag initiation of the airbag control section 120 is an example is possible, and the airbag control section 120 can judge whether or not the airbag is started by other methods.

상기 카메라(130)는 시스템(100)이 탑재된 차량의 외부, 예를 들면 차량의 전방 혹은 차량의 후방을 촬영하는 것으로서, 촬영된 영상을 사고발생 판단부(150)로 제공한다.The camera 130 photographs the outside of the vehicle on which the system 100 is mounted, for example, the front of the vehicle or the rear of the vehicle, and provides the photographed image to the accident occurrence determining unit 150.

예를 들어, 상기 카메라는 차량의 전방을 촬영하도록 설치되는 전방 카메라일 수 있고, 차량의 후방을 촬영하도록 설치되는 후방 카메라일 수도 있다.For example, the camera may be a front camera installed to photograph the front of the vehicle, or a rear camera installed to photograph the rear of the vehicle.

상기 속도 센서(140)는 시스템(100)이 탑재된 차량의 속도를 측정하는 것으로, 측정된 속도를 사고발생 판단부(150)로 제공한다.The speed sensor 140 measures the speed of the vehicle on which the system 100 is mounted, and provides the measured speed to the accident occurrence determination unit 150.

상기 사고발생 판단부(150)는 카메라(130)로부터의 영상과 속도 센서(140)로부터의 속도를 수신하여 사고발생 여부를 판단하고, 사고가 발생한 것으로 판단하면, E-Call 모듈(160)로 사고 발생 신호를 제공한다.The accident occurrence judging unit 150 receives the image from the camera 130 and the speed from the speed sensor 140 to judge whether or not an accident has occurred. If it is judged that an accident has occurred, Provide an incident signal.

이때, 상기 사고발생 판단부(150)는 카메라(130)로부터의 영상을 바탕으로 사고발생 여부를 판단하도록 구성될 수 있고, 카메라(130)로부터의 영상과 속도 센서(140)로부터의 속도를 바탕으로 사고발생 여부를 판단하도록 구성될 수 있다.The incident occurrence determination unit 150 may be configured to determine whether an accident has occurred based on the image from the camera 130. The incident occurrence determination unit 150 may determine the occurrence of an accident based on the image from the camera 130 and the speed from the speed sensor 140 To determine whether or not an accident has occurred.

상기 카메라(130)로부터의 영상을 이용하여 사고발생 여부를 판단하는 경우에는 판단 시간이 적게 소요되는 이점이 있고, 상기 카메라(130)로부터의 영상과 속도 센서(140)로부터의 속도를 이용하여 사고발생 여부를 판단하는 경우에는 판단 정확도를 향상시킬 수 있다는 이점이 있다.When the camera 130 detects the occurrence of an accident, it is advantageous in that it takes a short time to determine the occurrence of an accident. In addition, by using the image from the camera 130 and the speed from the speed sensor 140, There is an advantage that the judgment accuracy can be improved when it is judged whether or not it occurs.

상기 사고발생 판단부(150)의 상세 구성 및 기능에 대해서는 첨부되는 도면을 참조하여 후술하도록 한다.The detailed configuration and function of the accident occurrence determination unit 150 will be described later with reference to the accompanying drawings.

상기 E-Call 모듈(160)은 에어백 제어부(120)로부터 에어백 개시 신호를 수신하거나 사고발생 판단부(150)로부터 사고 발생 신호를 수신하면, 사고 정보를 수신하도록 기 설정된 외부 장비(ex. 주변 차량, PSAP 등)로 사고 정보를 전송한다.When the E-Call module 160 receives an airbag start signal from the airbag control unit 120 or receives an accident occurrence signal from the accident occurrence determination unit 150, , PSAP, etc.).

예를 들어, 상기 E-Call 모듈(160)은 3G/4G와 같은 무선 통신을 이용하여 사고 정보를 전송할 수 있다.For example, the E-Call module 160 may transmit incident information using wireless communication such as 3G / 4G.

상기 E-Call 모듈(160)이 사고 정보를 외부 장비로 전송하는 방법은 어느 하나의 특정 방법에 한정되는 것이 아니며, 공지된 사고 정보 전송 방법을 적용하여 구현될 수 있으므로, 사고 정보 전송 방법에 관한 상세한 설명은 생략한다.
The method of transmitting the accident information to the external equipment by the E-Call module 160 is not limited to any particular method and can be implemented by applying a known accident information transmission method, A detailed description thereof will be omitted.

이상에서는 본 발명의 실시 예에 따른 이머전시 콜 시스템의 전반적인 구성 및 기능에 대해서 살펴보았다. 이하에서는 본 발명의 실시 예에 따른 이머전시 콜 시스템의 사고발생 판단부에 대해서 구체적으로 살펴본다.
The overall configuration and functions of the emergency call system according to the embodiment of the present invention have been described above. Hereinafter, an accident occurrence determination unit of the emergency call system according to an embodiment of the present invention will be described in detail.

도 2는 본 발명의 실시 예에 따른 이머전시 콜 시스템의 사고발생 판단부의 구성을 도시한 도면이다.2 is a diagram showing the configuration of an accident occurrence judging unit of the emergency call system according to the embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시 예에 따른 이머전시 콜 시스템의 사고발생 판단부(200)는 도 1의 사고발생 판단부(150)에 적용될 수 있는 것으로서, 카메라(130)로부터의 영상과 속도 센서(140)로부터의 속도를 바탕으로 사고발생 여부를 판단하고, 사고가 발생한 것으로 판단하면, E-Call 모듈(160)로 사고 발생 신호를 제공한다.Referring to FIG. 2, the accident occurrence determination unit 200 of the emergency call system according to the embodiment of the present invention can be applied to the accident occurrence determination unit 150 of FIG. 1, Based on the speed from the speed sensor 140, it is determined whether an accident has occurred. If it is determined that an accident has occurred, the E-Call module 160 provides an accident occurrence signal.

상기 사고발생 판단부(150)는 수신부(210), 영상 처리부(220) 및 분석부(230)로 구성될 수 있다.The incident occurrence determination unit 150 may include a reception unit 210, an image processing unit 220, and an analysis unit 230.

상기 수신부(210)는 카메라(130)로부터 전송되는 영상과 속도 센서(140)로부터 전송되는 속도를 수신하고, 수신한 영상은 영상 처리부(220)로 제공하고, 수신한 속도는 분석부(230)로 제공한다.The receiving unit 210 receives the image transmitted from the camera 130 and the speed transmitted from the speed sensor 140 and provides the received image to the image processing unit 220. The received speed is transmitted to the analysis unit 230, .

상기 수신부(210)가 카메라(130)와 연결되는 방식 및 속도 센서(140)와 연결되는 방식은 다양하게 설정될 수 있으며, 이에 따라 상기 수신부(210)는 통신을 위한 적절한 통신 모듈을 구비한다.The manner in which the receiving unit 210 is connected to the camera 130 and the method in which the receiving unit 210 is connected to the speed sensor 140 can be variously set. Accordingly, the receiving unit 210 has a proper communication module for communication.

상기 영상 처리부(220)는 수신부(210)로부터 제공되는 영상을 수신하고, 사고 발생을 판단하기 위해 기 설정되는 관심 영역(Region of Interest, ROI)의 이미지를 추출하고, 추출된 이미지를 다수의 픽셀(pixel)들로 구분하여, 픽셀 단위의 이미지를 분석부(230)로 제공한다.The image processing unit 220 receives an image provided from the receiving unit 210, extracts an image of a region of interest (ROI) previously set for determining an occurrence of an accident, and outputs the extracted image to a plurality of pixels and provides an image in units of pixels to the analysis unit 230. [

이때, 상기 영상 처리부(220)에 의해 구분된 픽셀들을 통해 이미지의 패턴을 파악할 수 있어야 하기 때문에, 상기 영상 처리부(220)는 이미지의 패턴을 파악할 수 있을 정도로 이미지를 픽셀로 구분시켜야 하면, 예를 들어 추출한 이미지를 10,000개의 픽셀로 구분할 수 있다.At this time, since the image processor 220 must be able to grasp the pattern of the image through the pixels classified by the image processor 220, if the image processor 220 divides the image into pixels so as to grasp the pattern of the image, The extracted image can be divided into 10,000 pixels.

또한, 하나의 영상에서 상기 관심 영역은 다수 설정될 수 있으며, 영상의 상단부 및 하단부에 위치한 영역일 수 있다.Also, a plurality of regions of interest may be set in one image, and may be regions located at the upper and lower ends of the image.

상기 관심 영역을 많이 설정할수록 사고 판단에 대한 정확성은 높일 수 있으나, 사고 판단에 소요되는 시간이 오래 걸리고, 소요 시간의 단축을 위해서는 고가의 높은 사양의 영상 처리 장치를 사용해야 한다는 부담이 생기게 되므로, 관심 영역의 설정 개수 및 위치는 당업자에 의해 적절하게 조절되는 것이 바람직하다.Although it is possible to increase the accuracy of the accident judgment, the time required for the accident determination is long and the burden of using an expensive high-specification image processing device is required to shorten the time required. It is desirable that the number and position of the regions to be set are appropriately adjusted by those skilled in the art.

그리고, 상기 영상 처리부(220)는 픽셀 단위의 이미지를 분석부(230)에 제공하며, 일정 시간 간격(ex. 0.03초)으로 입력되는 영상에 대해 동일한 처리를 하여, 분석부(230)에 제공한다.The image processing unit 220 provides the image of the pixel unit to the analyzing unit 230 and performs the same processing on the image input at a predetermined time interval (eg 0.03 second) and provides the analyzed image to the analyzing unit 230 do.

상기 영상 처리부(220)로 입력되는 영상의 시간 간격은 다양하게 설정될 수 있는 것으로서, 차량이 100km/h의 속도로 주행중인 경우에 0.03초 동안 차량은 1m 이동하게 되고, 1m 거리 간격이면 색 비교를 통한 이미지 매칭은 비교적 정확하다고 판단되기 때문에 본 실시 예에서는 일례로서 0.03초를 제안하고 있는 것이다.The time interval of the image input to the image processing unit 220 can be variously set. When the vehicle is traveling at a speed of 100 km / h, the vehicle is moved 1 m for 0.03 second, Is 0.03 seconds as an example in the present embodiment.

한편, 상기 영상 처리부(220)는 사고 발생 시의 외부의 조도(낮/밤)에 따라 서로 다르게 이미지를 처리할 수 있다.Meanwhile, the image processing unit 220 can process images differently according to external illuminance (day / night) in the event of an accident.

즉, 낮과는 달리 밤에는 조도가 낮아, 영상의 상단부의 이미지의 픽셀 분포와 영상의 하단부의 이미지의 픽셀 분포가 많이 유사하므로, 사고 발생을 판단하는 데에 어려움이 있다.That is, unlike the daytime, the illuminance at night is low, and the pixel distribution of the image at the upper end of the image is very similar to the pixel distribution of the image at the lower end of the image.

이에, 상기 영상 처리부(220)는 낮에는 상기에서 언급한 바와 같이 영상을 처리하지만, 밤에는 영상에 색상 반전 기법을 적용하고, 색상 반전된 영상에서 관심 영역(Region of Interest, ROI)의 이미지를 추출하고, 추출된 이미지를 다수의 픽셀(pixel)들로 구분한다.Accordingly, the image processing unit 220 processes the image as mentioned above during the daytime, but applies the color inversion technique to the image at night, and applies the color inversion technique to the image of the region of interest (ROI) Extracts the extracted image, and divides the extracted image into a plurality of pixels.

이를 위하여, 상기 사고발생 판단부(200)는 외부의 조도를 측정하는 조도 센서(240)를 더 구비할 수 있다.For this, the incident occurrence determination unit 200 may further include an illuminance sensor 240 for measuring an external illuminance.

이때, 상기 영상 처리부(220)에는 낮과 밤을 구별하기 위한 조도 값은 기 설정되어 있으며, 이러한 조도 값은 다양하게 설정될 수 있다.In this case, the image processing unit 220 is provided with illuminance values for distinguishing between day and night, and the illuminance values can be variously set.

종합하면, 상기 영상 처리부(220)가, 낮과 밤의 구별 없이 영상을 처리하도록 구현된 경우에는, 수신부(210)로부터 제공되는 영상을 수신하고, 영상 내 관심 영역(Region of Interest, ROI)의 이미지를 추출하고, 추출된 이미지를 다수의 픽셀(pixel)들로 구분한다.In other words, if the image processing unit 220 is configured to process an image without distinguishing between day and night, the image processing unit 220 receives the image provided from the receiving unit 210 and extracts a region of interest (ROI) Extracts the image, and divides the extracted image into a plurality of pixels.

한편, 상기 영상 처리부(220)가, 낮과 밤을 구별하여 영상을 처리하도록 구현된 경우에는, 조도 센서(240)로부터 제공되는 조도 값을 바탕으로 낮인지 밤인지를 판단한다.On the other hand, if the image processing unit 220 is configured to process images by distinguishing day and night, it is determined whether it is night or night based on the illuminance value provided from the illuminance sensor 240.

그리고, 낮인 것으로 판단되면, 상기 영상 처리부(220)는 수신부(210)로부터 제공되는 영상을 수신하고, 영상 내 관심 영역(Region of Interest, ROI)의 이미지를 추출하고, 추출된 이미지를 다수의 픽셀(pixel)들로 구분한다.If it is determined to be low, the image processing unit 220 receives the image provided from the receiving unit 210, extracts an image of a region of interest (ROI) in the image, and outputs the extracted image to a plurality of pixels (pixels).

반면, 밤인 것으로 판단되면, 상기 영상 처리부(220)는 수신부(210)로부터 제공되는 영상에 색상 반전 기법을 적용하고, 색상 반전된 영상 내 관심 영역(Region of Interest, ROI)의 이미지를 추출하고, 추출된 이미지를 다수의 픽셀(pixel)들로 구분한다.On the other hand, if it is determined to be the night, the image processing unit 220 applies a color inversion technique to the image provided from the receiving unit 210, extracts an image of a region of interest (ROI) in the color- The extracted image is divided into a plurality of pixels.

상기 분석부(230)는 영상 처리부(220)로부터 제공되는 픽셀 단위의 이미지를 분석하여 사고 발생 여부를 판단하고, 사고가 발생한 것으로 판단되면, 사고 발생 신호를 E-Call 모듈(160)로 전송한다.The analysis unit 230 analyzes an image of a pixel unit provided from the image processing unit 220 to determine whether an accident has occurred. If it is determined that an accident has occurred, the analysis unit 230 transmits an accident occurrence signal to the E-Call module 160 .

이때, 상기 분석부(230)는 앞서 수신한 이미지(In-1)와 현재 수신한 이미지(In)의 동일 좌표의 픽셀 값이 같은지를 비교한다. 여기서, 비교되는 픽셀 값은 RGB 값이다.At this time, the analyzer 230 compares pixel values of the same coordinates of the previously received image (In-1) with the currently received image (In). Here, the pixel value to be compared is an RGB value.

그리고, 상기 분석부(230)는 앞서 수신한 이미지(In-1)의 픽셀 값과 현재 수신한 이미지(In)의 픽셀 값의 차이가 오차범위(ex. ±10%) 이내이면 앞서 수신한 이미지(In-1)의 픽셀 값과 현재 수신한 이미지(In)의 픽셀 값이 같은 것으로 판단한다.If the difference between the pixel value of the previously received image In-1 and the pixel value of the currently received image In is within the tolerance range (e.g., ± 10%), the analyzer 230 analyzes the received image (In-1) and the pixel value of the currently received image In are the same.

그리고, 상기 분석부(230)는 앞서 수신한 이미지와 현재 수신한 이미지의 동일 좌표의 픽셀을 매칭한 결과 매칭률이 기 설정된 기준(ex. 80%) 이상이면, 동일한 이미지인 것으로 판단한다.The analysis unit 230 determines that the received image is the same image if the matching rate is equal to or greater than a preset reference (eg, 80%) by matching the pixels of the same coordinates between the previously received image and the currently received image.

특히, 상기 분석부(230)는 현재 이미지(In)의 상단부의 영역(A)을 이전 이미지(In-1)의 상단부의 영역(A)과 하단부의 영역(B)을 비교하고, 현재 이미지(In)의 하단부의 영역(B)을 이전 이미지(In-1)의 상단부의 영역(A)과 하단부의 영역(B)을 비교하여, 사고 발생 여부를 판단한다.Particularly, the analysis unit 230 compares the upper region A of the current image In with the upper region A of the previous image In-1 and the lower region B, The area B at the lower end of the first image In is compared with the area A at the upper end of the previous image In-1 and the area B at the lower end.

이때, 상기 분석부(230)는 현재 이미지의 상단부의 영역(In_A)이 이전 이미지의 상단부의 영역(In-1_A)과 다르고(In_A≠In-1_A), 이전 이미지의 하단부의 영역(In-1_B)과 같고(In_A=In-1_B), 현재 이미지의 하단부의 영역(In_B)이 이전 이미지의 상단부의 영역(In-1_A)과 같고(In_B=In-1_A), 이전 이미지의 하단부의 영역(In-1_B)과 다른(In_B≠In-1_B) 경우, 사고가 발생한 것으로 판단하고, 그 이외의 경우에는 사고가 발생하지 않은 것으로 판단한다.At this time, the analysis unit 230 determines that the upper region In_A of the current image is different from the upper region In-1_A of the previous image (In_A? In-1_A) and the lower region of the previous image In- (In_B = In-1_A), and the area (In_B = In-1_B) of the lower end of the current image is the same as the area (In_1_A) -1_B) and another (In_B? In-1_B), it is determined that an accident has occurred, and otherwise, it is determined that no accident has occurred.

도 3은 사고가 발생하지 않은 경우에 있어서의 소정 시간 간격을 갖는 두 이미지를 도시한 것으로서, 도 3(a)는 현재 이미지이고, 도 3(b)는 이전 이미지이다.Fig. 3 shows two images having a predetermined time interval when no accident occurs. Fig. 3 (a) is a current image and Fig. 3 (b) is a previous image.

도 3과 같은 이미지를 분석부(230)가 분석하게 되면, 분석부(230)는 현재 이미지의 상단부의 영역(In_A)이 이전 이미지의 상단부의 영역(In-1_A)과 같고(In_A=In-1_A), 이전 이미지의 하단부의 영역(In-1_B)과 다르며(In_A≠In-1_B), 현재 이미지의 하단부의 영역(In_B)이 이전 이미지의 상단부의 영역(In-1_A)과 다르고(In_B≠In-1_A), 이전 이미지의 하단부의 영역(In-1_B)과 같다(In_B=In-1_B)는 분석을 토대로 사고가 발생하지 않은 것으로 판단한다.3 is analyzed by the analyzing unit 230, the analyzing unit 230 determines that the upper region In_A of the current image is equal to the upper region In-1_A of the previous image (In_A = In- 1_A of the current image is different from the area In-1_B of the lower end of the previous image (In_A? In-1_B), the area In_B of the lower end of the current image is different from the area In- In-1_A) is the same as the area (In-1_B) at the lower end of the previous image (In_B = In-1_B).

반면, 도 4는 사고가 발생한 경우에 있어서의 소정 시간 간격을 갖는 두 이미지를 도시한 것으로서, 도 4(a)는 현재 이미지이고, 도 4(b)는 이전 이미지이다.On the other hand, FIG. 4 shows two images having a predetermined time interval when an accident occurs. FIG. 4A shows the current image and FIG. 4B shows the previous image.

도 4와 같은 이미지를 분석부(230)가 분석하게 되면, 분석부(230)는 현재 이미지의 상단부의 영역(In_A)이 이전 이미지의 상단부의 영역(In-1_A)과 다르고(In_A≠In-1_A), 이전 이미지의 하단부의 영역(In-1_B)과 같으며(In_A=In-1_B), 현재 이미지의 하단부의 영역(In_B)이 이전 이미지의 상단부의 영역(In-1_A)과 같고(In_B=In-1_A), 이전 이미지의 하단부의 영역(In-1_B)과 다르다(In_B≠In-1_B)는 분석을 토대로 사고가 발생한 것으로 판단한다.4 is analyzed by the analysis unit 230, the analysis unit 230 determines that the upper region In_A of the current image is different from the upper region In-1_A of the previous image (In_A? In- (In_B) of the lower portion of the current image is the same as the upper region (In-1_A) of the previous image (In_B = In_B) = In-1_A) is different from the area (In-1_B) in the lower end of the previous image (In_B? In-1_B).

한편, 상기 분석부(230)는 영상만을 바탕으로 사고 발생 여부를 판단할 수 있으나, 영상 이외에 차량의 속도도 고려하여 사고 발생 여부를 판단할 수 있다.Meanwhile, the analyzer 230 can determine whether or not an accident has occurred based on only the image, but can also determine whether an accident has occurred by considering the speed of the vehicle in addition to the image.

이와 같이 사고 발생 여부 판단 시 차량의 속도를 고려하는 것은 저속(ex. 30km 미만)의 경우에는 운전자가 직접 e-Call을 동작시킬 수 있다는 것을 가정한 경우로서, 상기 분석부(230)는 영상을 기반으로 한 분석을 통해 사고가 발생한 것으로 판단하고, 현재 속도가 기 설정되는 기준 속도 이상인 경우에 사고 발생 신호를 E-Call 모듈(160)로 제공한다.In this case, it is assumed that the driver can directly operate the e-call in the case of a low speed (for example, less than 30 km) in consideration of the speed of the vehicle when the occurrence of an accident is determined. It is determined that an accident has occurred through the analysis based on the current speed, and an accident occurrence signal is provided to the E-Call module 160 when the current speed is equal to or higher than the predetermined reference speed.

또한, 상기 분석부(230)는 영상 분석을 통해 전복 사고 발생을 지속적으로 판단하는 경우에는 도로에서의 전복 사고가 아니라 낭떠러지에서의 전복 사고인 것으로 판단하여, E-Call 모듈(160)로 이를 제공할 수 있다.
In addition, when the analysis unit 230 continuously judges occurrence of the overturning accident through the image analysis, the analysis unit 230 determines that it is not an overturning accident on the road but an overturning accident on a cliffside, and provides it to the E-Call module 160 can do.

이상에서는 본 발명의 실시 예에 따른 이머전시 콜 시스템의 구성 및 그 기능에 대해서 상세히 살펴보았다. 이하에서는 본 발명의 실시 예에 따른 이머전시 콜 시스템의 동작에 대해서 보다 구체적으로 살펴보기로 한다.
The configuration and function of the emergency call system according to the embodiment of the present invention have been described in detail above. Hereinafter, the operation of the emergency call system according to the embodiment of the present invention will be described in more detail.

도 5는 본 발명의 실시 예에 따른 이머전시 콜 시스템의 제 1 동작에 따른 순서를 도시한 플로우챠트이다.FIG. 5 is a flowchart illustrating a procedure according to a first operation of the emergency call system according to the embodiment of the present invention. FIG.

도 5에 도시된 동작은 도 1 내지 4를 참조하여 살펴본 이머전시 콜 시스템(100)에 의해 수행될 수 있는 것으로서, 충격감지 센서(110)에 의해 감지되는 충격에 따른 시스템(100)의 동작은 공지된 기술로서 이에 대한 상세할 설명은 생략하고, 카메라(130)에 의해 획득되는 영상에 기반으로 한 시스템(100)의 동작을 중심으로 설명한다.The operation shown in FIG. 5 may be performed by the emergency call system 100 described with reference to FIGS. 1-4, wherein the operation of the system 100 in response to an impact sensed by the impact sensing sensor 110 A detailed description thereof will be omitted and the operation of the system 100 based on the image acquired by the camera 130 will be mainly described.

먼저, 카메라(130)가 차량의 외부를 촬영하고(S500), 촬영한 영상을 사고발생 판단부(150)로 제공한다. 이때, 상기 카메라(130)는 차량의 후방을 촬영할 수 있고, 차량의 전방을 촬영할 수도 있다.First, the camera 130 photographs the outside of the vehicle (S500), and provides the photographed image to the accident occurrence judging unit 150. [ At this time, the camera 130 can photograph the rear of the vehicle and photograph the front of the vehicle.

그러면, 상기 사고발생 판단부(150)는 카메라(130)부터 제공되는 영상에서 기 설정되는 관심 영역의 이미지를 추출하고(S510), 추출된 이미지를 다수의 픽셀로 구분한다(S520).Then, the incident occurrence determination unit 150 extracts an image of a region of interest set in the image provided from the camera 130 (S510), and divides the extracted image into a plurality of pixels (S520).

이때, 상기 단계 S510에 있어서, 기 설정되는 관심 영역은 2개로서, 영상의 상단부 및 하단부일 수 있다.At this time, in the step S510, the predetermined region of interest is two and may be the top and bottom of the image.

한편, 상기 단계 S510에 있어서, 상기 사고발생 판단부(150)는 관심 영역의 이미지를 추출하기 전에 조도 센서(240)에 의해 측정되는 외부의 조도를 바탕으로 낮인지 밤인지를 판단하고, 밤인 경우에는, 영상에 색상 반전 기법을 적용한 후, 색상 반전된 영상에서 관심 영역의 이미지를 추출할 수 있다.Meanwhile, in step S510, the incident occurrence determination unit 150 determines whether it is night or night based on the external illuminance measured by the illuminance sensor 240 before extracting the image of the area of interest, , A color inversion technique may be applied to an image, and then an image of a region of interest may be extracted from the color-inverted image.

이후, 상기 사고발생 판단부(150)는 현재 이미지와 이전 이미지의 동일 좌표의 픽셀 값을 비교하여(S530), 사고가 발생하였는지를 판단한다(S540).Thereafter, the incident occurrence determination unit 150 compares the pixel values of the same coordinates of the current image and the previous image (S530), and determines whether an accident has occurred (S540).

상기 단계 S530에 있어서, 상기 사고발생 판단부(150)는 현재 이미지의 상단부의 영역을 이전 이미지의 상단부의 영역과 하단부의 영역을 비교하고, 현재 이미지의 하단부의 영역을 이전 이미지의 상단부의 영역과 하단부의 영역을 비교한다.In step S530, the incident occurrence determination unit 150 compares the upper end area of the current image with the upper end area of the previous image and the lower end area, and determines the lower end area of the current image as the upper end area of the previous image Compare the area at the bottom.

상기 단계 S540에 있어서, 상기 사고발생 판단부(150)는 현재 이미지의 상단부의 영역이 이전 이미지의 상단부의 영역과 다르고, 이전 이미지의 하단부의 영역과 같고, 현재 이미지의 하단부의 영역이 이전 이미지의 상단부의 영역과 같고, 이전 이미지의 하단부의 영역과 다르면 사고가 발생한 것으로 판단하고, 그 이외의 경우에는 사고가 발생하지 않은 것으로 판단한다.In step S540, the incident occurrence determination unit 150 determines that the upper end of the current image is different from the upper end of the previous image and is the same as the lower end of the previous image, It is judged that an accident has occurred if it is the same as the area of the upper end and is different from the area of the lower end of the previous image, and otherwise, it is judged that no accident has occurred.

이때, 상기 단계 S540에 있어서, 상기 사고발생 판단부(150)는 이전 이미지의 픽셀 값과 현재 이미지의 픽셀 값의 차이가 오차범위 이내이면 이전 이미지의 픽셀 값과 현재 이미지의 픽셀 값이 같은 것으로 판단한다.If the difference between the pixel value of the previous image and the pixel value of the current image is within the error range, the occurrence determination unit 150 determines that the pixel value of the previous image is the same as the pixel value of the current image do.

그리고, 상기 단계 S540에 있어서, 상기 사고발생 판단부(150)는 이전 이미지와 현재 이미지의 동일 좌표의 픽셀을 매칭한 결과 매칭률이 기 설정된 기준 이상이면, 같은 이미지인 것으로 판단한다.In step S540, the incident occurrence determination unit 150 determines that the current image is the same image if the matching rate of pixels matching the same coordinates of the previous image and the current image is greater than a predetermined reference.

상기 단계 S540에 따른 판단 결과, 사고가 발생한 것으로 판단하면(S540-예), 사고발생 판단부(150)는 E-Call 모듈(160)로 사고발생 신호를 전송하고, E-Call 모듈(160)은 사고 정보를 외부(ex. 주변 차량, PSAP 등)로 제공한다(S550).If it is determined in step S540 that an accident has occurred (YES in step S540), the occurrence determination unit 150 transmits an incident occurrence signal to the E-Call module 160, (E.g., near vehicle, PSAP, etc.) (S550).

반면, 상기 단계 S540에 따른 판단 결과, 사고가 발생하지 않은 것으로 판단하면(S540-아니오), 사고발생 판단부(150)는 단계 S510로 피드백된다.
On the other hand, if it is determined in step S540 that an accident has not occurred (S540: NO), the accident occurrence determination unit 150 is fed back to step S510.

도 6은 본 발명의 실시 예에 따른 이머전시 콜 시스템의 제 2 동작에 따른 순서를 도시한 플로우챠트이다.FIG. 6 is a flow chart showing a procedure according to a second operation of the emergency call system according to the embodiment of the present invention.

도 6에 도시된 동작은 도 1 내지 4를 참조하여 살펴본 이머전시 콜 시스템(100)에 의해 수행될 수 있는 것으로서, 도 4에서의 동작이 카메라(130)에 의해 획득되는 영상에 기반으로 이루어지는 것에 반해, 카메라(130)에 의해 획득되는 영상 이외에도 속도 센서(140)에 의해 측정되는 차량의 속도도 함께 이용한다.The operation shown in Fig. 6 can be performed by the emergency call system 100 shown in Figs. 1 to 4, in which the operation in Fig. 4 is based on an image obtained by the camera 130 In addition to the image obtained by the camera 130, the speed of the vehicle measured by the speed sensor 140 is also used.

도 6을 참조하면, 카메라(130)가 차량의 외부를 촬영하고(S500), 속도 센서(140)가 차량의 속도를 측정한다(S510). 이때, 상기 카메라(130)는 차량의 후방을 촬영할 수 있고, 차량의 전방을 촬영할 수도 있다.Referring to FIG. 6, the camera 130 photographs the outside of the vehicle (S500), and the speed sensor 140 measures the speed of the vehicle (S510). At this time, the camera 130 can photograph the rear of the vehicle and photograph the front of the vehicle.

이후, 사고발생 판단부(150)는 카메라(130)부터 제공되는 영상에서 기 설정되는 관심 영역의 이미지를 추출하고(S610), 추출된 이미지를 다수의 픽셀로 구분한다(S620). 상기 단계 S610에 있어서, 기 설정되는 관심 영역은 2개로서, 영상의 상단부 및 하단부일 수 있다.Then, the incident occurrence determination unit 150 extracts an image of a region of interest set in the image provided from the camera 130 (S610), and divides the extracted image into a plurality of pixels (S620). In step S610, the two regions of interest that have been set are the upper and lower ends of the image.

한편, 상기 단계 S610에 있어서, 상기 사고발생 판단부(150)는 관심 영역의 이미지를 추출하기 전에 조도 센서(240)에 의해 측정되는 외부의 조도를 바탕으로 낮인지 밤인지를 판단하고, 밤인 경우에는, 영상에 색상 반전 기법을 적용한 후, 색상 반전된 영상에서 관심 영역의 이미지를 추출할 수 있다.On the other hand, in step S610, the accident occurrence determining unit 150 determines whether it is night or night based on the external illuminance measured by the illuminance sensor 240 before extracting the image of the ROI, , A color inversion technique may be applied to an image, and then an image of a region of interest may be extracted from the color-inverted image.

이후, 상기 사고발생 판단부(150)는 현재 이미지와 이전 이미지의 동일 좌표의 픽셀 값을 비교하여(S630), 사고가 발생하였는지를 판단한다(S640).Thereafter, the incident occurrence determining unit 150 compares pixel values of the same coordinates of the current image and the previous image (S630), and determines whether an accident has occurred (S640).

상기 단계 S630에 있어서, 상기 사고발생 판단부(150)는 현재 이미지의 상단부의 영역을 이전 이미지의 상단부의 영역과 하단부의 영역을 비교하고, 현재 이미지의 하단부의 영역을 이전 이미지의 상단부의 영역과 하단부의 영역을 비교한다.In step S630, the incident occurrence determination unit 150 compares the upper end region of the current image with the upper end region of the previous image and the lower end region, and determines the lower end region of the current image as the upper end region of the previous image Compare the area at the bottom.

상기 단계 S640에 있어서, 상기 사고발생 판단부(150)는 현재 이미지의 상단부의 영역이 이전 이미지의 상단부의 영역과 다르고, 이전 이미지의 하단부의 영역과 같고, 현재 이미지의 하단부의 영역이 이전 이미지의 상단부의 영역과 같고, 이전 이미지의 하단부의 영역과 다르면 사고가 발생한 것으로 판단하고, 그 이외의 경우에는 사고가 발생하지 않은 것으로 판단한다.In step S640, the incident occurrence determination unit 150 determines that the current upper end area of the image is different from the upper end area of the previous image and is the same as the lower end area of the previous image, It is judged that an accident has occurred if it is the same as the area of the upper end and is different from the area of the lower end of the previous image, and otherwise, it is judged that no accident has occurred.

이때, 상기 단계 S640에 있어서, 상기 사고발생 판단부(150)는 이전 이미지의 픽셀 값과 현재 이미지의 픽셀 값의 차이가 오차범위 이내이면 이전 이미지의 픽셀 값과 현재 이미지의 픽셀 값이 같은 것으로 판단한다.If the difference between the pixel value of the previous image and the pixel value of the current image is within the error range, the incident occurrence determination unit 150 determines that the pixel value of the previous image is the same as the pixel value of the current image in step S640 do.

그리고, 상기 단계 S640에 있어서, 상기 사고발생 판단부(150)는 이전 이미지와 현재 이미지의 동일 좌표의 픽셀을 매칭한 결과 매칭률이 기 설정된 기준 이상이면, 같은 이미지인 것으로 판단한다.In step S640, the incident occurrence determination unit 150 determines that the image is the same if the matching rate of the pixels of the same coordinates of the previous image and the current image is greater than a preset reference.

상기 단계 S640에 따른 판단 결과, 사고가 발생하지 않은 것으로 판단하면(S640-아니오), 사고발생 판단부(150)는 단계 S610로 피드백된다.If it is determined in step S640 that no accident has occurred (NO in step S640), the occurrence determination unit 150 feeds back the information to step S610.

반면, 상기 단계 S640에서의 판단 결과, 사고가 발생한 것으로 판단하면(S540-예), 사고발생 판단부(150)는 단계 S600에서 측정된 속도를 기 설정된 기준 속도와 비교하고(S650), 측정된 속도가 기준 속도 이상인지를 판단한다(S660).On the other hand, if it is determined in step S640 that an accident has occurred (YES in step S540), the occurrence determination unit 150 compares the speed measured in step S600 with a preset reference speed (step S650) It is determined whether the speed is equal to or higher than the reference speed (S660).

상기 단계 S660에서의 판단 결과, 측정된 속도가 기준 속도 이상이면(S660-예), 사고발생 판단부(150)는 E-Call 모듈(160)로 사고발생 신호를 전송하고, E-Call 모듈(160)은 사고 정보를 외부(ex. 주변 차량, PSAP 등)로 제공한다(S670).If it is determined in step S660 that the measured speed is equal to or higher than the reference speed (YES in step S660), the occurrence determination unit 150 transmits an accident occurrence signal to the E-Call module 160, 160 provides accident information to the outside (ex. Peripheral vehicle, PSAP, etc.) (S670).

반면, 상기 단계 S660에서의 판단 결과, 측정된 속도가 기준 속도 미만이면(S660-아니오), 사고발생 판단부(150)는 현재 모드가 자동 모드인지를 판단한다(S680).If it is determined in step S660 that the measured speed is less than the reference speed (NO in step S660), the occurrence determination unit 150 determines whether the current mode is the automatic mode in step S680.

상기 단계 S680에서의 판단 결과, 현재 모드가 자동 모드인 것으로 판단되면, 사고발생 판단부(150)는 E-Call 모듈(160)로 사고발생 신호를 전송하고, E-Call 모듈(160)은 사고 정보를 외부(ex. 주변 차량, PSAP 등)로 제공한다(S670).If it is determined in step S680 that the current mode is the automatic mode, the occurrence determination unit 150 transmits an incident occurrence signal to the E-Call module 160, and the E-Call module 160 And provides the information to the outside (ex. Peripheral vehicle, PSAP, etc.) (S670).

반면, 상기 단계 S680에서의 판단 결과, 현재 모드가 자동 모드가 아닌 경우, 즉 현재 모드가 수동 모드인 경우이면, 사고발생 판단부(150)는 외부로부터 사고 정보 제공 명령이 입력되는지를 판단한다(S690).On the other hand, if it is determined in step S680 that the current mode is not the automatic mode, that is, if the current mode is the manual mode, the accident occurrence determining unit 150 determines whether an accident information providing command is input from the outside S690).

상기 단계 S690에서의 판단 결과, 외부로부터의 사고 정보 제공 명령이 입력되는 경우(S690-예), 사고발생 판단부(150)는 E-Call 모듈(160)로 사고발생 신호를 전송하고, E-Call 모듈(160)은 사고 정보를 외부(ex. 주변 차량, PSAP 등)로 제공한다(S670).If it is determined in step S690 that an accident information providing instruction from the outside is input (S690-YES), the accident occurrence determining unit 150 transmits an accident occurrence signal to the E-Call module 160, The call module 160 provides incident information to the outside (ex. Peripheral vehicle, PSAP, etc.) (S670).

반면, 상기 단계 S690에서의 판단 결과, 외부로부터의 사고 정보 제공 명령이 입력되지 않는 경우(S690-아니오), 사고발생 판단부(150)는 동작을 종료한다.
On the other hand, if it is determined in the step S690 that no accident information providing instruction from the outside is input (S690-No), the occurrence determination unit 150 ends the operation.

한편, 본 발명에 따른 이머전시 콜 시스템 및 이의 동작 방법을 실시 예에 따라 설명하였지만, 본 발명의 범위는 특정 실시 예에 한정되는 것은 아니며, 본 발명과 관련하여 통상의 지식을 가진 자에게 자명한 범위 내에서 여러 가지의 대안, 수정 및 변경하여 실시할 수 있다.
While the present invention has been described with reference to exemplary embodiments, it is to be understood that the scope of the invention is not limited to the disclosed exemplary embodiments, And various alternatives, modifications, and alterations can be made within the scope.

따라서, 본 발명에 기재된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.
Therefore, the embodiments described in the present invention and the accompanying drawings are intended to illustrate rather than limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and accompanying drawings . The scope of protection of the present invention should be construed according to the claims, and all technical ideas within the scope of equivalents should be interpreted as being included in the scope of the present invention.

100 : 이머전시 콜 시스템
110 : 충격감지 센서
120 : 에어백 제어 유닛
130 : 카메라
140 : 속도 센서
150, 200 : 사고발생 판단부
160 : E-Call 모듈
210 : 수신부
220 : 영상 처리부
230 : 분석부
240 : 조도 센서
100: Emergency call system
110: Shock sensor
120: air bag control unit
130: camera
140: Speed sensor
150, 200: an accident occurrence judging unit
160: E-Call module
210:
220:
230:
240: illuminance sensor

Claims (8)

탑재된 차량의 사고 발생 시에 사고 정보를 외부로 제공하는 이머전시 콜 시스템에 있어서,
탑재된 차량의 외부를 촬영하는 카메라;
상기 카메라에 의해 촬영된 현재의 영상과 이전의 영상에서 각각 추출되는 관심 영역의 이미지를 비교하여 사고 발생 여부를 판단하고, 사고가 발생한 것으로 판단되면, 사고 발생 신호를 출력하는 사고발생 판단부; 및
상기 사고발생 판단부로부터 출력되는 사고 발생 신호를 수신하고, 사고 정보를 외부 장비로 제공하는 E-Call 모듈을 포함하는
이머전시 콜 시스템.
1. An emergency call system for providing accident information to an outside when an accident of a mounted vehicle occurs,
A camera for photographing the exterior of the mounted vehicle;
An accident occurrence judging unit for judging whether or not an accident has occurred by comparing an image of a current region photographed by the camera with an image of a region of interest extracted from a previous image and outputting an accident occurrence signal when it is judged that an accident has occurred; And
And an E-Call module for receiving an accident occurrence signal output from the accident occurrence determination unit and providing accident information to external equipment
Emergency call system.
제 1 항에 있어서,
상기 탑재된 차량의 속도를 측정하는 속도 센서를 더 포함하고,
상기 사고발생 판단부는 사고가 발생한 것으로 판단되면, 상기 속도 센서에 의해 측정된 속도를 기 설정되는 기준 속도와 비교하여, 상기 기준 속도 이상이면, 사고 발생 신호를 출력하도록 구성되는 것
인 이머전시 콜 시스템.
The method according to claim 1,
Further comprising a speed sensor for measuring the speed of the mounted vehicle,
The accident occurrence judging unit compares the speed measured by the speed sensor with a predetermined reference speed and outputs an accident occurrence signal if the estimated speed is equal to or higher than the reference speed
Emergency call system.
제 2 항에 있어서,
상기 사고발생 판단부는 상기 속도 센서에 의해 측정된 속도가 상기 기준 속도 미만이면, 현재 모드를 판단하여, 자동 모드이면 상기 사고 발생 신호를 출력하고, 수동 모드이면 사고 정보 제공 명령이 입력되는 경우에 상기 사고 발생 신호를 출력하도록 구성되는 것
인 이머전시 콜 시스템.
3. The method of claim 2,
Wherein the accident occurrence judging unit judges the current mode if the speed measured by the speed sensor is less than the reference speed and outputs the accident occurrence signal if it is in the automatic mode, Being configured to output an incident signal
Emergency call system.
제 1 항에 있어서,
상기 사고발생 판단부는,
상기 카메라에 의해 촬영되는 영상을 수신하는 수신부;
상기 수신부에 의해 수신된 영상에서 관심 영역의 이미지를 추출하고, 추출된 이미지를 다수의 픽셀들로 구분하여, 픽셀 단위의 이미지를 제공하는 영상 처리부; 및
상기 영상 처리부로부터 제공되는 픽셀 단위의 이미지를 수신하고, 현재 이미지와 이전 이미지의 동일 좌표의 픽셀 값이 같은지를 비교한 결과를 바탕으로 사고 발생 여부를 판단하는 분석부를 포함하는
이머전시 콜 시스템.
The method according to claim 1,
Wherein,
A receiving unit for receiving an image captured by the camera;
An image processing unit for extracting an image of a region of interest from the image received by the receiving unit, dividing the extracted image into a plurality of pixels and providing an image in units of pixels; And
And an analyzing unit that receives an image in units of pixels provided from the image processing unit and determines whether an accident has occurred based on a result of comparing pixel values of the same coordinates of the current image with the previous image
Emergency call system.
제 4 항에 있어서,
상기 사고발생 판단부는 조도 센서를 더 포함하고,
상기 영상 처리부는 상기 조도 센서에 의해 감지되는 외부의 조도 값을 기반으로 판단한 결과, 밤인 것으로 판단하면, 상기 수신부에 의해 수신된 영상에 색상 반전 기법을 적용한 후, 색상 반전된 영상에서 관심 영역의 이미지를 추출하도록 구성되는 것
인 이머전시 콜 시스템.
5. The method of claim 4,
The accident occurrence determining unit may further include an illuminance sensor,
Wherein the image processing unit applies a color inversion technique to the image received by the receiving unit when determining that the image is night based on an external illuminance value sensed by the illuminance sensor, .
Emergency call system.
제 4 항에 있어서,
상기 분석부는 이전 이미지의 픽셀 값과 현재 이미지의 픽셀 값의 차이가 오차범위 이내이면 이전 이미지의 픽셀 값과 현재 이미지의 픽셀 값이 같은 것으로 판단하고, 이전 이미지와 현재 이미지의 동일 좌표의 픽셀을 매칭한 결과 매칭률이 기 설정된 기준 이상이면, 동일한 이미지인 것으로 판단하도록 구성되는 것
인 이머전시 콜 시스템.
5. The method of claim 4,
If the difference between the pixel value of the previous image and the pixel value of the current image is within the error range, the analyzing unit determines that the pixel value of the previous image is the same as the pixel value of the current image, If the result matching rate is equal to or greater than a preset reference, it is determined that the image is the same image
Emergency call system.
제 4 항에 있어서,
상기 관심 영역은 영상의 상단부의 영역과 영상의 하단부의 영역으로서,
상기 분석부는 현재 이미지의 상단부의 영역을 이전 이미지의 상단부의 영역과 하단부의 영역을 비교하고, 현재 이미지의 하단부의 영역을 이전 이미지의 상단부의 영역과 하단부의 영역을 비교하도록 구성되는 것
인 이머전시 콜 시스템.
5. The method of claim 4,
Wherein the region of interest is a region of an upper end portion of an image and a lower end portion of the image,
The analyzing unit compares the upper end region of the current image with the upper end region and the lower end region of the previous image and compares the lower end region of the current image with the upper end region and the lower end region of the previous image
Emergency call system.
제 7 항에 있어서,
상기 분석부는 현재 이미지의 상단부의 영역이 이전 이미지의 상단부의 영역과 다르고, 이전 이미지의 하단부의 영역과 같으며, 현재 이미지의 하단부의 영역이 이전 이미지의 상단부의 영역과 같고, 이전 이미지의 하단부의 영역과 다른 경우, 사고가 발생한 것으로 판단하고, 그 이외의 경우에는 사고가 발생하지 않은 것으로 판단하도록 구성되는 것
인 이머전시 콜 시스템.
8. The method of claim 7,
The analyzing unit determines that the area of the upper end of the current image is different from the area of the upper end of the previous image and the area of the lower end of the current image is the same as the area of the upper end of the previous image, If it is different from the area, it is judged that an accident has occurred. Otherwise, it is judged that the accident does not occur
Emergency call system.
KR1020160136468A 2016-10-20 2016-10-20 Emergency call system KR102610038B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160136468A KR102610038B1 (en) 2016-10-20 2016-10-20 Emergency call system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160136468A KR102610038B1 (en) 2016-10-20 2016-10-20 Emergency call system

Publications (2)

Publication Number Publication Date
KR20180043587A true KR20180043587A (en) 2018-04-30
KR102610038B1 KR102610038B1 (en) 2023-12-06

Family

ID=62080879

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160136468A KR102610038B1 (en) 2016-10-20 2016-10-20 Emergency call system

Country Status (1)

Country Link
KR (1) KR102610038B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111332200A (en) * 2018-12-18 2020-06-26 现代自动车株式会社 Vehicle and control method of vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090030098A (en) * 2007-09-19 2009-03-24 삼성테크윈 주식회사 Apparatus and method for digital picturing image
KR20140076453A (en) * 2012-12-12 2014-06-20 국민대학교산학협력단 Black-box system for vehicle and operating method thereof
KR101537211B1 (en) * 2014-02-14 2015-07-16 크루셜텍 (주) Fingerprint detecting method and electric device supporting different fingerprint input type
KR20160028542A (en) * 2014-09-03 2016-03-14 정국교 an emergency management and crime prevention system for cars and the method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090030098A (en) * 2007-09-19 2009-03-24 삼성테크윈 주식회사 Apparatus and method for digital picturing image
KR20140076453A (en) * 2012-12-12 2014-06-20 국민대학교산학협력단 Black-box system for vehicle and operating method thereof
KR101537211B1 (en) * 2014-02-14 2015-07-16 크루셜텍 (주) Fingerprint detecting method and electric device supporting different fingerprint input type
KR20160028542A (en) * 2014-09-03 2016-03-14 정국교 an emergency management and crime prevention system for cars and the method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111332200A (en) * 2018-12-18 2020-06-26 现代自动车株式会社 Vehicle and control method of vehicle
KR20200075442A (en) * 2018-12-18 2020-06-26 현대자동차주식회사 Vehicle and control method thereof

Also Published As

Publication number Publication date
KR102610038B1 (en) 2023-12-06

Similar Documents

Publication Publication Date Title
KR20150137555A (en) Apparatus and method for requesting emergency call about vehicle accident using driving information of vehicle
US11461595B2 (en) Image processing apparatus and external environment recognition apparatus
CN109478324B (en) Image processing apparatus and external recognition apparatus
US9679484B2 (en) Apparatus and method for detecting nearby vehicles through inter-vehicle communication
US20060195241A1 (en) Vehicle information notification device
JP4244873B2 (en) Inter-vehicle communication control system, in-vehicle communication system, and communication status display device
US11463408B2 (en) Vehicular secure gateway system
KR20130136815A (en) System and method for lane departure warning
US20190147746A1 (en) Device for identifying an accident situation of an open road vehicle
US20200126420A1 (en) Method and apparatus for analyzing driving tendency and system for controlling vehicle
KR20020097357A (en) Control method for preventing a lane secession of vehicle
JP2024052899A (en) Communication device and communication method
KR20180043587A (en) Emergency call system
KR20160128656A (en) System for Providing Traffic Accident Information
JPH1091899A (en) Road monitoring system
KR20120117442A (en) Portable apparatus for determining driving condition of automobile and method thereof
EP1897767A1 (en) Vehicle emergency system
CN109461318B (en) Vehicle control device and method for recognizing traffic sign
KR101816034B1 (en) Apparatus and method for detecting road boundary line using camera and radar
KR102538171B1 (en) Vehicle detection device and method without V2X installed using sensor integration technology
JP2008203980A (en) Emergency notification device
KR102006590B1 (en) WAVE and LTE integrated system and method for supporting Cooperative-Intelligent Transport Systems and Emergency Call service using the same
KR20180002251A (en) Vehicle camera image integrated processing apparatus and method using a local area wireless communication
JP2008176459A (en) Caution object detection device and traffic safety support system using caution object detection device
JP2007253781A (en) In-vehicle display system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right