KR20180043587A - Emergency call system - Google Patents
Emergency call system Download PDFInfo
- Publication number
- KR20180043587A KR20180043587A KR1020160136468A KR20160136468A KR20180043587A KR 20180043587 A KR20180043587 A KR 20180043587A KR 1020160136468 A KR1020160136468 A KR 1020160136468A KR 20160136468 A KR20160136468 A KR 20160136468A KR 20180043587 A KR20180043587 A KR 20180043587A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- accident
- call system
- emergency call
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 23
- 238000004458 analytical method Methods 0.000 description 13
- 239000000284 extract Substances 0.000 description 9
- 238000010586 diagram Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000000977 initiatory effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B27/00—Alarm systems in which the alarm condition is signalled from a central station to a plurality of substations
- G08B27/001—Signalling to an emergency team, e.g. firemen
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/008—Registering or indicating the working of vehicles communicating information to a remotely located station
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0841—Registering performance data
- G07C5/085—Registering performance data using electronic data carriers
- G07C5/0866—Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/0202—Child monitoring systems using a transmitter-receiver system carried by the parent and the child
- G08B21/0205—Specific application combined with child monitoring using a transmitter-receiver system
- G08B21/0208—Combination with audio or video communication, e.g. combination with "baby phone" function
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/42—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/30—Sensors
- B60Y2400/303—Speed sensors
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Emergency Management (AREA)
- Business, Economics & Management (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Health & Medical Sciences (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Alarm Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 발명은 이머전시 콜 시스템에 관한 것으로, 상세하게는 다양한 경로를 통해 입력되는 신호를 바탕으로 동작 유무를 판단함으로써, 에어백의 전개가 이루어지지 않는 다양한 형태의 사고의 경우에도 동작할 수 있도록 구현된 이머전시 콜 시스템에 관한 것이다.
The present invention relates to an emergency call system, and more particularly, to an emergency call system that can operate in various types of accidents in which an airbag is not deployed by determining whether an operation is performed based on signals input through various paths To an emergency call system.
e-Call System이란 Emergency Call System의 약어로서, 차량 사고 발생 시 차량 위치, 차량 속도, 차량 방향 및 차량 정보 등을 주변의 PSAP(Public Safety Answering Point, 공공안전대응포인트)로 보내서 신속하고 효율적인 응급 조치가 이루어지도록 하는 시스템이다.e-Call System is an abbreviation of Emergency Call System. It sends out vehicle location, vehicle speed, vehicle direction and vehicle information to nearby PSAP (Public Safety Answering Point) .
2015년도부터 유럽과 러시아에서 법규화를 추진하면서 각 OEM社들이 e-Call System의 개발에 많은 투자를 하고 있는 실정이다.Since 2015, the OEMs are investing heavily in the development of e-call systems while promoting legalization in Europe and Russia.
e-Call System은 기능적으로 크게 3개의 구성으로 이루어지는데, 직접 단말을 담당하는 IVS(In-Vehicle System), 중간 연결을 담당하는 MNO(Mobile Network Operator) 및 정보를 수신하고 처리하는 PSAP로 구성된다.The e-Call system consists of three major functional components: IVS (In-Vehicle System), MNO (Mobile Network Operator), and PSAP for receiving and processing information. .
한편, e-Call System의 동작은 ACU(Airbag Control Unit)에서 보내는 신호에 의해 결정된다.On the other hand, the operation of e-Call System is determined by the signal sent from ACU (Airbag Control Unit).
사고 발생 시, 충격감지센서가 충격량을 감지하여 ACU로 보내면, ACU는 충격감지센서로부터의 값을 통해 에어백 전개의 유무를 판단하고, 에어백 전개에 대한 유무 판단은 e-Call System의 동작 근거로 이용된다.When an accident occurs, the impact sensor senses the amount of impact and sends it to the ACU. The ACU determines whether the airbag deployment is based on the value from the impact sensor, and determines whether or not the airbag deployment is used as an operating basis for the e-call system do.
e-Call System은 사고 발생 시에 사고접수센터로 사고 정보 데이터를 전송한 후, 사고자와 센터 운영자 간의 음성 채널이 형성되면, 사고 상황을 판단하게 된다.When an accident occurs, the e-Call System transmits accident information data to the accident reception center, and if an audio channel is formed between the accidenter and the center operator, the accident situation is judged.
이와 같은 e-Call System의 동작 실행 여부는 충격감지센서에 의해 감지되는충격량을 바탕으로 이루어지기 때문에, 충격량을 입력으로 동작하는 ACU의 작동상태가 e-Call System의 동작 실행 여부를 결정하는 주요한 요소가 된다.Since the operation of the e-Call System is performed based on the amount of impact detected by the impact sensor, the operation state of the ACU operating with the input of the amount of impact is a main factor .
하지만, 실상에서는 차량 사고가 발생하더라도 에어백의 전개가 이루어지지 않는 경우가 많은데, 그 원인은 ACU가 판단하는 값들이 전방충격센서와 측면충격센서에 의해 감지되는 값들로 한정되어 있기 때문이다. 즉, 후방 충돌, 사면 충돌, 전복 및 구름 등의 사고가 발생한 경우에는 에어백이 미작동할 수 있다.However, in actuality, even if a vehicle accident occurs, the air bag is not deployed in many cases because the values determined by the ACU are limited to the values detected by the front impact sensor and the side impact sensor. That is, the airbag may not operate if an accident such as rear impact, slope collision, rollover, and cloud occurs.
또한, 에어백의 미작동은 충격감지센서에 의해 감지되는 충격량이 미비하거나, 충돌 각이 맞지 않는 경우에도 발생할 수 있고, 차량 사고라 하더라도, 전복 및 구름에 의한 차량 사고 시에는 충격감지센서에 의해 감지되지 않을 수도 있다.In addition, the air bag can not be actuated even when the amount of impact detected by the impact sensor is insufficient, or when the collision angle is inconsistent. In the event of a vehicle accident due to rollover or rolling, .
이와 같이, 차량 사고가 발생하더라도 e-Call System이 동작하지 않는 경우가 있기 때문에, 효과적인 e-Call System의 운영이 이루어지지 못하고 있는 실정이다.In this way, even if a vehicle accident occurs, the e-Call System may not operate, so that an effective e-Call System can not be operated.
따라서, ACU의 동작만을 기준으로 e-Call System의 동작을 결정하는 데에는 한계가 있기 때문에, e-Call System의 동작을 결정하기 위한 다양한 기준을 설정하는 것에 대한 고려가 이루어져야 할 것이다.
Therefore, there are limitations in determining the operation of the e-Call System based only on the operation of the ACU, so consideration should be given to setting various criteria for determining the operation of the e-Call System.
따라서, 본 발명은 상기와 같은 종래 기술의 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은, 다양한 경로를 통해 입력되는 신호를 바탕으로 동작 유무를 판단함으로써, 에어백의 전개가 이루어지지 않는 다양한 형태의 사고의 경우에도 동작할 수 있도록 구현된 이머전시 콜 시스템을 제공함에 있다.
SUMMARY OF THE INVENTION Accordingly, the present invention has been made keeping in mind the above problems occurring in the prior art, and it is an object of the present invention to provide an air conditioner, The present invention also provides an emergency call system that can operate even in the event of an accident.
상기와 같은 목적을 달성하기 위한 본 발명의 일 측면에 따른 이머전시 콜 시스템은, 탑재된 차량의 사고 발생 시에 사고 정보를 외부로 제공하는 이머전시 콜 시스템에 있어서, 탑재된 차량의 외부를 촬영하는 카메라; 상기 카메라에 의해 촬영된 현재의 영상과 이전의 영상에서 각각 추출되는 관심 영역의 이미지를 비교하여 사고 발생 여부를 판단하고, 사고가 발생한 것으로 판단되면, 사고 발생 신호를 출력하는 사고발생 판단부; 및 상기 사고발생 판단부로부터 출력되는 사고 발생 신호를 수신하고, 사고 정보를 외부 장비로 제공하는 E-Call 모듈을 포함한다.According to another aspect of the present invention, there is provided an emergency call system for providing accident information to an external device in the event of an accident of a mounted vehicle, the emergency call system comprising: Camera; An accident occurrence judging unit for judging whether or not an accident has occurred by comparing an image of a current region photographed by the camera with an image of a region of interest extracted from a previous image and outputting an accident occurrence signal when it is judged that an accident has occurred; And an E-Call module for receiving an accident occurrence signal output from the accident occurrence determination unit and providing accident information to external equipment.
상기 탑재된 차량의 속도를 측정하는 속도 센서를 더 포함하고, 상기 사고발생 판단부는 사고가 발생한 것으로 판단되면, 상기 속도 센서에 의해 측정된 속도를 기 설정되는 기준 속도와 비교하여, 상기 기준 속도 이상이면, 사고 발생 신호를 출력하도록 구성된다.Further comprising a speed sensor for measuring a speed of the vehicle mounted on the vehicle, wherein the accident occurrence determination unit compares the speed measured by the speed sensor with a preset reference speed, , It is configured to output an accident occurrence signal.
상기 사고발생 판단부는 상기 속도 센서에 의해 측정된 속도가 상기 기준 속도 미만이면, 현재 모드를 판단하여, 자동 모드이면 상기 사고 발생 신호를 출력하고, 수동 모드이면 사고 정보 제공 명령이 입력되는 경우에 상기 사고 발생 신호를 출력하도록 구성된다.Wherein the accident occurrence determination unit determines the current mode if the speed measured by the speed sensor is less than the reference speed and outputs the occurrence signal when the mode is the automatic mode, And output an accident occurrence signal.
상기 사고발생 판단부는, 상기 카메라에 의해 촬영되는 영상을 수신하는 수신부; 상기 수신부에 의해 수신된 영상에서 관심 영역의 이미지를 추출하고, 추출된 이미지를 다수의 픽셀들로 구분하여, 픽셀 단위의 이미지를 제공하는 영상 처리부; 및 상기 영상 처리부로부터 제공되는 픽셀 단위의 이미지를 수신하고, 현재 이미지와 이전 이미지의 동일 좌표의 픽셀 값이 같은지를 비교한 결과를 바탕으로 사고 발생 여부를 판단하는 분석부를 포함한다.Wherein the incident occurrence judging unit comprises: a receiving unit for receiving an image photographed by the camera; An image processing unit for extracting an image of a region of interest from the image received by the receiving unit, dividing the extracted image into a plurality of pixels and providing an image in units of pixels; And an analyzing unit for receiving an image of a pixel unit provided from the image processing unit and determining whether an accident has occurred based on a result of comparing pixel values of the same coordinates of the current image with the previous image.
상기 사고발생 판단부는 조도 센서를 더 포함하고, 상기 영상 처리부는 상기 조도 센서에 의해 감지되는 외부의 조도 값을 기반으로 판단한 결과, 밤인 것으로 판단하면, 상기 수신부에 의해 수신된 영상에 색상 반전 기법을 적용한 후, 색상 반전된 영상에서 관심 영역의 이미지를 추출하도록 구성된다.Wherein the incident occurrence judging unit further comprises an illuminance sensor and the image processing unit judges based on an external illumination value sensed by the illuminance sensor that it is night, And then extracts the image of the region of interest from the color-inverted image.
상기 분석부는 이전 이미지의 픽셀 값과 현재 이미지의 픽셀 값의 차이가 오차범위 이내이면 이전 이미지의 픽셀 값과 현재 이미지의 픽셀 값이 같은 것으로 판단하고, 이전 이미지와 현재 이미지의 동일 좌표의 픽셀을 매칭한 결과 매칭률이 기 설정된 기준 이상이면, 동일한 이미지인 것으로 판단하도록 구성된다.If the difference between the pixel value of the previous image and the pixel value of the current image is within the error range, the analyzing unit determines that the pixel value of the previous image is the same as the pixel value of the current image, And judges that the resultant image is the same image if the result matching rate is equal to or greater than a preset reference.
상기 관심 영역은 영상의 상단부의 영역과 영상의 하단부의 영역으로서, 상기 분석부는 현재 이미지의 상단부의 영역을 이전 이미지의 상단부의 영역과 하단부의 영역을 비교하고, 현재 이미지의 하단부의 영역을 이전 이미지의 상단부의 영역과 하단부의 영역을 비교하도록 구성된다.Wherein the analyzing unit compares a region of the upper end of the current image with a region of the upper end of the previous image and a region of the lower end of the previous image, And the area of the lower end of the upper end portion of the wafer W is compared.
상기 분석부는 현재 이미지의 상단부의 영역이 이전 이미지의 상단부의 영역과 다르고, 이전 이미지의 하단부의 영역과 같으며, 현재 이미지의 하단부의 영역이 이전 이미지의 상단부의 영역과 같고, 이전 이미지의 하단부의 영역과 다른 경우, 사고가 발생한 것으로 판단하고, 그 이외의 경우에는 사고가 발생하지 않은 것으로 판단하도록 구성된다.
The analyzing unit determines that the area of the upper end of the current image is different from the area of the upper end of the previous image and the area of the lower end of the current image is the same as the area of the upper end of the previous image, It is determined that an accident has occurred, and in the other cases, it is determined that an accident has not occurred.
본 발명의 실시 예에 따른 이머전시 콜 시스템을 이용하면, 충격감지 센서에 의해 감지되는 충격량뿐만 아니라 카메라를 통해 획득되는 차량 외부의 영상과 속도 센서에 의해 측정되는 차량 속도를 이용하여서도 사고 발생 여부를 판단할 수 있다.The emergency call system according to the embodiment of the present invention can detect the occurrence of an accident even if an accident is detected by using an image of the outside of the vehicle obtained through a camera and a vehicle speed measured by the speed sensor, Can be determined.
따라서, 다양한 경로를 통해 입력되는 신호를 바탕으로 동작 유무를 판단함으로써, 에어백의 전개가 이루어지지 않는 다양한 형태의 사고에 대해서도 발생 여부를 판단할 수 있다.Accordingly, it is possible to determine whether an accident occurs in various types of accidents in which the airbag is not deployed, by judging the presence or absence of an operation based on signals inputted through various paths.
따라서, 기존에는 발생 여부를 판단할 수 없었던 사고에 대해서도 신속한 대처가 가능하므로, 사고 시 탑승자에 대한 안전성을 향상시킬 수 있다.
Therefore, it is possible to promptly cope with an accident that has not been able to determine the occurrence of an accident, so that the safety of an occupant in an accident can be improved.
도 1은 본 발명의 실시 예에 따른 이머전시 콜 시스템의 일례의 구성을 도시한 도면이다.
도 2는 본 발명의 실시 예에 따른 이머전시 콜 시스템의 사고발생 판단부의 구성을 도시한 도면이다.
도 3은 사고가 발생하지 않은 경우에 있어서의 소정 시간 간격을 갖는 두 이미지를 도시한 것으로서, 도 3(a)는 현재 이미지이고, 도 3(b)는 이전 이미지이다.
도 4는 사고가 발생한 경우에 있어서의 소정 시간 간격을 갖는 두 이미지를 도시한 것으로서, 도 4(a)는 현재 이미지이고, 도 4(b)는 이전 이미지이다.
도 5는 본 발명의 실시 예에 따른 이머전시 콜 시스템의 제 1 동작에 따른 순서를 도시한 플로우챠트이다.
도 6은 본 발명의 실시 예에 따른 이머전시 콜 시스템의 제 2 동작에 따른 순서를 도시한 플로우챠트이다.1 is a diagram showing an exemplary configuration of an emergency call system according to an embodiment of the present invention.
2 is a diagram showing the configuration of an accident occurrence judging unit of the emergency call system according to the embodiment of the present invention.
Fig. 3 shows two images having a predetermined time interval when no accident occurs. Fig. 3 (a) is a current image, and Fig. 3 (b) is a previous image.
Fig. 4 shows two images having a predetermined time interval when an accident occurs. Fig. 4 (a) is a current image, and Fig. 4 (b) is a previous image.
FIG. 5 is a flowchart illustrating a procedure according to a first operation of the emergency call system according to the embodiment of the present invention. FIG.
FIG. 6 is a flow chart showing a procedure according to a second operation of the emergency call system according to the embodiment of the present invention.
고문에 개시되어 있는 본 발명의 실시 예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 실시 예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 실시 예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시 예들에 한정되는 것으로 해석되어서는 안 된다.For the embodiments of the invention disclosed in the tent, certain structural and functional descriptions are merely illustrative for the purpose of illustrating embodiments of the invention, and the embodiments of the invention may be embodied in various forms, And should not be construed as limited to the embodiments described.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The present invention is capable of various modifications and various forms, and specific embodiments are illustrated in the drawings and described in detail in the text. It should be understood, however, that the invention is not intended to be limited to the particular forms disclosed, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.
어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 “~사이에”와 “바로 ~사이에” 또는 “~에 이웃하는”과 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Other expressions that describe the relationship between components, such as "between" and "between" or "neighboring to" and "directly adjacent to" should be interpreted as well.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, “포함하다” 또는 “가지다” 등의 용어는 개시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms " comprising ", or " having ", and the like, are intended to specify the presence of stated features, integers, But do not preclude the presence or addition of steps, operations, elements, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.
한편, 어떤 실시 예가 달리 구현 가능한 경우에 특정 블록 내에 명기된 기능 또는 동작이 순서도에 명기된 순서와 다르게 일어날 수도 있다. 예를 들어, 연속하는 두 블록이 실제로는 실질적으로 동시에 수행될 수도 있고, 관련된 기능 또는 동작에 따라서는 상기 블록들이 거꾸로 수행될 수도 있다.
On the other hand, if an embodiment is otherwise feasible, the functions or operations specified in a particular block may occur differently from the order specified in the flowchart. For example, two consecutive blocks may actually be performed at substantially the same time, and depending on the associated function or operation, the blocks may be performed backwards.
이하, 본 발명의 실시 예에 따른 이머전시 콜 시스템의 구성 및 동작에 대하여 첨부된 도면을 참조하여 상세하게 설명하도록 한다.
Hereinafter, the construction and operation of the emergency call system according to the embodiment of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 실시 예에 따른 이머전시 콜 시스템의 일례의 구성을 도시한 도면이다.1 is a diagram showing an exemplary configuration of an emergency call system according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시 예에 따른 이머전시 콜 시스템(100, 이하 시스템)은 충격감지 센서(110), 에어백 제어부(ACU: Airbag Control Unit, 120), 카메라(130), 속도 센서(140), 사고발생 판단부(150) 및 E-Call 모듈(160)로 구성될 수 있다.1, an
이때, 상기 시스템(100)은 충격감지 센서(110)에 의해 감지되는 충격 정보를 바탕으로 한 에어백 제어부(120)의 에어백 개시 여부 판단 결과에 따라 E-Call 모듈(160)을 통해 사고 정보를 외부 장비(ex. 주변 차량, PSAP 등)로 전송한다.At this time, the
또한, 상기 시스템(100)은 카메라(130)로부터 획득되는 영상 정보와 속도 센서(140)로부터 획득되는 속도 정보를 바탕으로 한 사고발생 판단부(150)의 판단 결과에 따라 E-Call 모듈(160)을 통해 사고 정보를 외부 장비(ex. 주변 차량, PSAP)로 전송한다.The
상세 구성에 대해서 살펴보면, 상기 충격감지 센서(110)는 차량 사고 발생시 차체에 가해지는 충격을 감지하고, 충격량을 출력한다. 그리고, 상기 충격감지 센서(110)에 의해 출력되는 충격량은 에어백 제어부(120)로 입력된다.In detail, the
상기 에어백 제어부(120)는 충격감지 센서(110)로부터의 충격량을 바탕으로 에어백 개시 여부를 판단하고, 에어백을 개시해야 하는 것으로 판단하면, 에어백을 개시하는 한편, E-Call 모듈(160)로 에어백 개시 신호를 제공한다.The
일례로, 상기 에어백 제어부(120)는 충격감지 센서(110)로부터의 충격량을 기 설정되는 기준 충격량과 비교하여, 기준 충격량보다 크면 에어백을 개시해야 하는 것으로 판단하고, 기준 충격량 이하이면 에어백을 개시하지 않아도 되는 것으로 판단할 수 있다.For example, the
물론, 이상의 에어백 제어부(120)의 에어백 개시 여부 판단은 일례로서, 에어백 제어부(120)는 이외의 다른 방법으로 에어백 개시 여부를 판단할 수 있다.Of course, the above-described determination of whether or not the airbag initiation of the
상기 카메라(130)는 시스템(100)이 탑재된 차량의 외부, 예를 들면 차량의 전방 혹은 차량의 후방을 촬영하는 것으로서, 촬영된 영상을 사고발생 판단부(150)로 제공한다.The
예를 들어, 상기 카메라는 차량의 전방을 촬영하도록 설치되는 전방 카메라일 수 있고, 차량의 후방을 촬영하도록 설치되는 후방 카메라일 수도 있다.For example, the camera may be a front camera installed to photograph the front of the vehicle, or a rear camera installed to photograph the rear of the vehicle.
상기 속도 센서(140)는 시스템(100)이 탑재된 차량의 속도를 측정하는 것으로, 측정된 속도를 사고발생 판단부(150)로 제공한다.The
상기 사고발생 판단부(150)는 카메라(130)로부터의 영상과 속도 센서(140)로부터의 속도를 수신하여 사고발생 여부를 판단하고, 사고가 발생한 것으로 판단하면, E-Call 모듈(160)로 사고 발생 신호를 제공한다.The accident
이때, 상기 사고발생 판단부(150)는 카메라(130)로부터의 영상을 바탕으로 사고발생 여부를 판단하도록 구성될 수 있고, 카메라(130)로부터의 영상과 속도 센서(140)로부터의 속도를 바탕으로 사고발생 여부를 판단하도록 구성될 수 있다.The incident
상기 카메라(130)로부터의 영상을 이용하여 사고발생 여부를 판단하는 경우에는 판단 시간이 적게 소요되는 이점이 있고, 상기 카메라(130)로부터의 영상과 속도 센서(140)로부터의 속도를 이용하여 사고발생 여부를 판단하는 경우에는 판단 정확도를 향상시킬 수 있다는 이점이 있다.When the
상기 사고발생 판단부(150)의 상세 구성 및 기능에 대해서는 첨부되는 도면을 참조하여 후술하도록 한다.The detailed configuration and function of the accident
상기 E-Call 모듈(160)은 에어백 제어부(120)로부터 에어백 개시 신호를 수신하거나 사고발생 판단부(150)로부터 사고 발생 신호를 수신하면, 사고 정보를 수신하도록 기 설정된 외부 장비(ex. 주변 차량, PSAP 등)로 사고 정보를 전송한다.When the
예를 들어, 상기 E-Call 모듈(160)은 3G/4G와 같은 무선 통신을 이용하여 사고 정보를 전송할 수 있다.For example, the
상기 E-Call 모듈(160)이 사고 정보를 외부 장비로 전송하는 방법은 어느 하나의 특정 방법에 한정되는 것이 아니며, 공지된 사고 정보 전송 방법을 적용하여 구현될 수 있으므로, 사고 정보 전송 방법에 관한 상세한 설명은 생략한다.
The method of transmitting the accident information to the external equipment by the
이상에서는 본 발명의 실시 예에 따른 이머전시 콜 시스템의 전반적인 구성 및 기능에 대해서 살펴보았다. 이하에서는 본 발명의 실시 예에 따른 이머전시 콜 시스템의 사고발생 판단부에 대해서 구체적으로 살펴본다.
The overall configuration and functions of the emergency call system according to the embodiment of the present invention have been described above. Hereinafter, an accident occurrence determination unit of the emergency call system according to an embodiment of the present invention will be described in detail.
도 2는 본 발명의 실시 예에 따른 이머전시 콜 시스템의 사고발생 판단부의 구성을 도시한 도면이다.2 is a diagram showing the configuration of an accident occurrence judging unit of the emergency call system according to the embodiment of the present invention.
도 2를 참조하면, 본 발명의 실시 예에 따른 이머전시 콜 시스템의 사고발생 판단부(200)는 도 1의 사고발생 판단부(150)에 적용될 수 있는 것으로서, 카메라(130)로부터의 영상과 속도 센서(140)로부터의 속도를 바탕으로 사고발생 여부를 판단하고, 사고가 발생한 것으로 판단하면, E-Call 모듈(160)로 사고 발생 신호를 제공한다.Referring to FIG. 2, the accident
상기 사고발생 판단부(150)는 수신부(210), 영상 처리부(220) 및 분석부(230)로 구성될 수 있다.The incident
상기 수신부(210)는 카메라(130)로부터 전송되는 영상과 속도 센서(140)로부터 전송되는 속도를 수신하고, 수신한 영상은 영상 처리부(220)로 제공하고, 수신한 속도는 분석부(230)로 제공한다.The receiving
상기 수신부(210)가 카메라(130)와 연결되는 방식 및 속도 센서(140)와 연결되는 방식은 다양하게 설정될 수 있으며, 이에 따라 상기 수신부(210)는 통신을 위한 적절한 통신 모듈을 구비한다.The manner in which the receiving
상기 영상 처리부(220)는 수신부(210)로부터 제공되는 영상을 수신하고, 사고 발생을 판단하기 위해 기 설정되는 관심 영역(Region of Interest, ROI)의 이미지를 추출하고, 추출된 이미지를 다수의 픽셀(pixel)들로 구분하여, 픽셀 단위의 이미지를 분석부(230)로 제공한다.The
이때, 상기 영상 처리부(220)에 의해 구분된 픽셀들을 통해 이미지의 패턴을 파악할 수 있어야 하기 때문에, 상기 영상 처리부(220)는 이미지의 패턴을 파악할 수 있을 정도로 이미지를 픽셀로 구분시켜야 하면, 예를 들어 추출한 이미지를 10,000개의 픽셀로 구분할 수 있다.At this time, since the
또한, 하나의 영상에서 상기 관심 영역은 다수 설정될 수 있으며, 영상의 상단부 및 하단부에 위치한 영역일 수 있다.Also, a plurality of regions of interest may be set in one image, and may be regions located at the upper and lower ends of the image.
상기 관심 영역을 많이 설정할수록 사고 판단에 대한 정확성은 높일 수 있으나, 사고 판단에 소요되는 시간이 오래 걸리고, 소요 시간의 단축을 위해서는 고가의 높은 사양의 영상 처리 장치를 사용해야 한다는 부담이 생기게 되므로, 관심 영역의 설정 개수 및 위치는 당업자에 의해 적절하게 조절되는 것이 바람직하다.Although it is possible to increase the accuracy of the accident judgment, the time required for the accident determination is long and the burden of using an expensive high-specification image processing device is required to shorten the time required. It is desirable that the number and position of the regions to be set are appropriately adjusted by those skilled in the art.
그리고, 상기 영상 처리부(220)는 픽셀 단위의 이미지를 분석부(230)에 제공하며, 일정 시간 간격(ex. 0.03초)으로 입력되는 영상에 대해 동일한 처리를 하여, 분석부(230)에 제공한다.The
상기 영상 처리부(220)로 입력되는 영상의 시간 간격은 다양하게 설정될 수 있는 것으로서, 차량이 100km/h의 속도로 주행중인 경우에 0.03초 동안 차량은 1m 이동하게 되고, 1m 거리 간격이면 색 비교를 통한 이미지 매칭은 비교적 정확하다고 판단되기 때문에 본 실시 예에서는 일례로서 0.03초를 제안하고 있는 것이다.The time interval of the image input to the
한편, 상기 영상 처리부(220)는 사고 발생 시의 외부의 조도(낮/밤)에 따라 서로 다르게 이미지를 처리할 수 있다.Meanwhile, the
즉, 낮과는 달리 밤에는 조도가 낮아, 영상의 상단부의 이미지의 픽셀 분포와 영상의 하단부의 이미지의 픽셀 분포가 많이 유사하므로, 사고 발생을 판단하는 데에 어려움이 있다.That is, unlike the daytime, the illuminance at night is low, and the pixel distribution of the image at the upper end of the image is very similar to the pixel distribution of the image at the lower end of the image.
이에, 상기 영상 처리부(220)는 낮에는 상기에서 언급한 바와 같이 영상을 처리하지만, 밤에는 영상에 색상 반전 기법을 적용하고, 색상 반전된 영상에서 관심 영역(Region of Interest, ROI)의 이미지를 추출하고, 추출된 이미지를 다수의 픽셀(pixel)들로 구분한다.Accordingly, the
이를 위하여, 상기 사고발생 판단부(200)는 외부의 조도를 측정하는 조도 센서(240)를 더 구비할 수 있다.For this, the incident
이때, 상기 영상 처리부(220)에는 낮과 밤을 구별하기 위한 조도 값은 기 설정되어 있으며, 이러한 조도 값은 다양하게 설정될 수 있다.In this case, the
종합하면, 상기 영상 처리부(220)가, 낮과 밤의 구별 없이 영상을 처리하도록 구현된 경우에는, 수신부(210)로부터 제공되는 영상을 수신하고, 영상 내 관심 영역(Region of Interest, ROI)의 이미지를 추출하고, 추출된 이미지를 다수의 픽셀(pixel)들로 구분한다.In other words, if the
한편, 상기 영상 처리부(220)가, 낮과 밤을 구별하여 영상을 처리하도록 구현된 경우에는, 조도 센서(240)로부터 제공되는 조도 값을 바탕으로 낮인지 밤인지를 판단한다.On the other hand, if the
그리고, 낮인 것으로 판단되면, 상기 영상 처리부(220)는 수신부(210)로부터 제공되는 영상을 수신하고, 영상 내 관심 영역(Region of Interest, ROI)의 이미지를 추출하고, 추출된 이미지를 다수의 픽셀(pixel)들로 구분한다.If it is determined to be low, the
반면, 밤인 것으로 판단되면, 상기 영상 처리부(220)는 수신부(210)로부터 제공되는 영상에 색상 반전 기법을 적용하고, 색상 반전된 영상 내 관심 영역(Region of Interest, ROI)의 이미지를 추출하고, 추출된 이미지를 다수의 픽셀(pixel)들로 구분한다.On the other hand, if it is determined to be the night, the
상기 분석부(230)는 영상 처리부(220)로부터 제공되는 픽셀 단위의 이미지를 분석하여 사고 발생 여부를 판단하고, 사고가 발생한 것으로 판단되면, 사고 발생 신호를 E-Call 모듈(160)로 전송한다.The
이때, 상기 분석부(230)는 앞서 수신한 이미지(In-1)와 현재 수신한 이미지(In)의 동일 좌표의 픽셀 값이 같은지를 비교한다. 여기서, 비교되는 픽셀 값은 RGB 값이다.At this time, the
그리고, 상기 분석부(230)는 앞서 수신한 이미지(In-1)의 픽셀 값과 현재 수신한 이미지(In)의 픽셀 값의 차이가 오차범위(ex. ±10%) 이내이면 앞서 수신한 이미지(In-1)의 픽셀 값과 현재 수신한 이미지(In)의 픽셀 값이 같은 것으로 판단한다.If the difference between the pixel value of the previously received image In-1 and the pixel value of the currently received image In is within the tolerance range (e.g., ± 10%), the
그리고, 상기 분석부(230)는 앞서 수신한 이미지와 현재 수신한 이미지의 동일 좌표의 픽셀을 매칭한 결과 매칭률이 기 설정된 기준(ex. 80%) 이상이면, 동일한 이미지인 것으로 판단한다.The
특히, 상기 분석부(230)는 현재 이미지(In)의 상단부의 영역(A)을 이전 이미지(In-1)의 상단부의 영역(A)과 하단부의 영역(B)을 비교하고, 현재 이미지(In)의 하단부의 영역(B)을 이전 이미지(In-1)의 상단부의 영역(A)과 하단부의 영역(B)을 비교하여, 사고 발생 여부를 판단한다.Particularly, the
이때, 상기 분석부(230)는 현재 이미지의 상단부의 영역(In_A)이 이전 이미지의 상단부의 영역(In-1_A)과 다르고(In_A≠In-1_A), 이전 이미지의 하단부의 영역(In-1_B)과 같고(In_A=In-1_B), 현재 이미지의 하단부의 영역(In_B)이 이전 이미지의 상단부의 영역(In-1_A)과 같고(In_B=In-1_A), 이전 이미지의 하단부의 영역(In-1_B)과 다른(In_B≠In-1_B) 경우, 사고가 발생한 것으로 판단하고, 그 이외의 경우에는 사고가 발생하지 않은 것으로 판단한다.At this time, the
도 3은 사고가 발생하지 않은 경우에 있어서의 소정 시간 간격을 갖는 두 이미지를 도시한 것으로서, 도 3(a)는 현재 이미지이고, 도 3(b)는 이전 이미지이다.Fig. 3 shows two images having a predetermined time interval when no accident occurs. Fig. 3 (a) is a current image and Fig. 3 (b) is a previous image.
도 3과 같은 이미지를 분석부(230)가 분석하게 되면, 분석부(230)는 현재 이미지의 상단부의 영역(In_A)이 이전 이미지의 상단부의 영역(In-1_A)과 같고(In_A=In-1_A), 이전 이미지의 하단부의 영역(In-1_B)과 다르며(In_A≠In-1_B), 현재 이미지의 하단부의 영역(In_B)이 이전 이미지의 상단부의 영역(In-1_A)과 다르고(In_B≠In-1_A), 이전 이미지의 하단부의 영역(In-1_B)과 같다(In_B=In-1_B)는 분석을 토대로 사고가 발생하지 않은 것으로 판단한다.3 is analyzed by the analyzing
반면, 도 4는 사고가 발생한 경우에 있어서의 소정 시간 간격을 갖는 두 이미지를 도시한 것으로서, 도 4(a)는 현재 이미지이고, 도 4(b)는 이전 이미지이다.On the other hand, FIG. 4 shows two images having a predetermined time interval when an accident occurs. FIG. 4A shows the current image and FIG. 4B shows the previous image.
도 4와 같은 이미지를 분석부(230)가 분석하게 되면, 분석부(230)는 현재 이미지의 상단부의 영역(In_A)이 이전 이미지의 상단부의 영역(In-1_A)과 다르고(In_A≠In-1_A), 이전 이미지의 하단부의 영역(In-1_B)과 같으며(In_A=In-1_B), 현재 이미지의 하단부의 영역(In_B)이 이전 이미지의 상단부의 영역(In-1_A)과 같고(In_B=In-1_A), 이전 이미지의 하단부의 영역(In-1_B)과 다르다(In_B≠In-1_B)는 분석을 토대로 사고가 발생한 것으로 판단한다.4 is analyzed by the
한편, 상기 분석부(230)는 영상만을 바탕으로 사고 발생 여부를 판단할 수 있으나, 영상 이외에 차량의 속도도 고려하여 사고 발생 여부를 판단할 수 있다.Meanwhile, the
이와 같이 사고 발생 여부 판단 시 차량의 속도를 고려하는 것은 저속(ex. 30km 미만)의 경우에는 운전자가 직접 e-Call을 동작시킬 수 있다는 것을 가정한 경우로서, 상기 분석부(230)는 영상을 기반으로 한 분석을 통해 사고가 발생한 것으로 판단하고, 현재 속도가 기 설정되는 기준 속도 이상인 경우에 사고 발생 신호를 E-Call 모듈(160)로 제공한다.In this case, it is assumed that the driver can directly operate the e-call in the case of a low speed (for example, less than 30 km) in consideration of the speed of the vehicle when the occurrence of an accident is determined. It is determined that an accident has occurred through the analysis based on the current speed, and an accident occurrence signal is provided to the
또한, 상기 분석부(230)는 영상 분석을 통해 전복 사고 발생을 지속적으로 판단하는 경우에는 도로에서의 전복 사고가 아니라 낭떠러지에서의 전복 사고인 것으로 판단하여, E-Call 모듈(160)로 이를 제공할 수 있다.
In addition, when the
이상에서는 본 발명의 실시 예에 따른 이머전시 콜 시스템의 구성 및 그 기능에 대해서 상세히 살펴보았다. 이하에서는 본 발명의 실시 예에 따른 이머전시 콜 시스템의 동작에 대해서 보다 구체적으로 살펴보기로 한다.
The configuration and function of the emergency call system according to the embodiment of the present invention have been described in detail above. Hereinafter, the operation of the emergency call system according to the embodiment of the present invention will be described in more detail.
도 5는 본 발명의 실시 예에 따른 이머전시 콜 시스템의 제 1 동작에 따른 순서를 도시한 플로우챠트이다.FIG. 5 is a flowchart illustrating a procedure according to a first operation of the emergency call system according to the embodiment of the present invention. FIG.
도 5에 도시된 동작은 도 1 내지 4를 참조하여 살펴본 이머전시 콜 시스템(100)에 의해 수행될 수 있는 것으로서, 충격감지 센서(110)에 의해 감지되는 충격에 따른 시스템(100)의 동작은 공지된 기술로서 이에 대한 상세할 설명은 생략하고, 카메라(130)에 의해 획득되는 영상에 기반으로 한 시스템(100)의 동작을 중심으로 설명한다.The operation shown in FIG. 5 may be performed by the
먼저, 카메라(130)가 차량의 외부를 촬영하고(S500), 촬영한 영상을 사고발생 판단부(150)로 제공한다. 이때, 상기 카메라(130)는 차량의 후방을 촬영할 수 있고, 차량의 전방을 촬영할 수도 있다.First, the
그러면, 상기 사고발생 판단부(150)는 카메라(130)부터 제공되는 영상에서 기 설정되는 관심 영역의 이미지를 추출하고(S510), 추출된 이미지를 다수의 픽셀로 구분한다(S520).Then, the incident
이때, 상기 단계 S510에 있어서, 기 설정되는 관심 영역은 2개로서, 영상의 상단부 및 하단부일 수 있다.At this time, in the step S510, the predetermined region of interest is two and may be the top and bottom of the image.
한편, 상기 단계 S510에 있어서, 상기 사고발생 판단부(150)는 관심 영역의 이미지를 추출하기 전에 조도 센서(240)에 의해 측정되는 외부의 조도를 바탕으로 낮인지 밤인지를 판단하고, 밤인 경우에는, 영상에 색상 반전 기법을 적용한 후, 색상 반전된 영상에서 관심 영역의 이미지를 추출할 수 있다.Meanwhile, in step S510, the incident
이후, 상기 사고발생 판단부(150)는 현재 이미지와 이전 이미지의 동일 좌표의 픽셀 값을 비교하여(S530), 사고가 발생하였는지를 판단한다(S540).Thereafter, the incident
상기 단계 S530에 있어서, 상기 사고발생 판단부(150)는 현재 이미지의 상단부의 영역을 이전 이미지의 상단부의 영역과 하단부의 영역을 비교하고, 현재 이미지의 하단부의 영역을 이전 이미지의 상단부의 영역과 하단부의 영역을 비교한다.In step S530, the incident
상기 단계 S540에 있어서, 상기 사고발생 판단부(150)는 현재 이미지의 상단부의 영역이 이전 이미지의 상단부의 영역과 다르고, 이전 이미지의 하단부의 영역과 같고, 현재 이미지의 하단부의 영역이 이전 이미지의 상단부의 영역과 같고, 이전 이미지의 하단부의 영역과 다르면 사고가 발생한 것으로 판단하고, 그 이외의 경우에는 사고가 발생하지 않은 것으로 판단한다.In step S540, the incident
이때, 상기 단계 S540에 있어서, 상기 사고발생 판단부(150)는 이전 이미지의 픽셀 값과 현재 이미지의 픽셀 값의 차이가 오차범위 이내이면 이전 이미지의 픽셀 값과 현재 이미지의 픽셀 값이 같은 것으로 판단한다.If the difference between the pixel value of the previous image and the pixel value of the current image is within the error range, the
그리고, 상기 단계 S540에 있어서, 상기 사고발생 판단부(150)는 이전 이미지와 현재 이미지의 동일 좌표의 픽셀을 매칭한 결과 매칭률이 기 설정된 기준 이상이면, 같은 이미지인 것으로 판단한다.In step S540, the incident
상기 단계 S540에 따른 판단 결과, 사고가 발생한 것으로 판단하면(S540-예), 사고발생 판단부(150)는 E-Call 모듈(160)로 사고발생 신호를 전송하고, E-Call 모듈(160)은 사고 정보를 외부(ex. 주변 차량, PSAP 등)로 제공한다(S550).If it is determined in step S540 that an accident has occurred (YES in step S540), the
반면, 상기 단계 S540에 따른 판단 결과, 사고가 발생하지 않은 것으로 판단하면(S540-아니오), 사고발생 판단부(150)는 단계 S510로 피드백된다.
On the other hand, if it is determined in step S540 that an accident has not occurred (S540: NO), the accident
도 6은 본 발명의 실시 예에 따른 이머전시 콜 시스템의 제 2 동작에 따른 순서를 도시한 플로우챠트이다.FIG. 6 is a flow chart showing a procedure according to a second operation of the emergency call system according to the embodiment of the present invention.
도 6에 도시된 동작은 도 1 내지 4를 참조하여 살펴본 이머전시 콜 시스템(100)에 의해 수행될 수 있는 것으로서, 도 4에서의 동작이 카메라(130)에 의해 획득되는 영상에 기반으로 이루어지는 것에 반해, 카메라(130)에 의해 획득되는 영상 이외에도 속도 센서(140)에 의해 측정되는 차량의 속도도 함께 이용한다.The operation shown in Fig. 6 can be performed by the
도 6을 참조하면, 카메라(130)가 차량의 외부를 촬영하고(S500), 속도 센서(140)가 차량의 속도를 측정한다(S510). 이때, 상기 카메라(130)는 차량의 후방을 촬영할 수 있고, 차량의 전방을 촬영할 수도 있다.Referring to FIG. 6, the
이후, 사고발생 판단부(150)는 카메라(130)부터 제공되는 영상에서 기 설정되는 관심 영역의 이미지를 추출하고(S610), 추출된 이미지를 다수의 픽셀로 구분한다(S620). 상기 단계 S610에 있어서, 기 설정되는 관심 영역은 2개로서, 영상의 상단부 및 하단부일 수 있다.Then, the incident
한편, 상기 단계 S610에 있어서, 상기 사고발생 판단부(150)는 관심 영역의 이미지를 추출하기 전에 조도 센서(240)에 의해 측정되는 외부의 조도를 바탕으로 낮인지 밤인지를 판단하고, 밤인 경우에는, 영상에 색상 반전 기법을 적용한 후, 색상 반전된 영상에서 관심 영역의 이미지를 추출할 수 있다.On the other hand, in step S610, the accident
이후, 상기 사고발생 판단부(150)는 현재 이미지와 이전 이미지의 동일 좌표의 픽셀 값을 비교하여(S630), 사고가 발생하였는지를 판단한다(S640).Thereafter, the incident
상기 단계 S630에 있어서, 상기 사고발생 판단부(150)는 현재 이미지의 상단부의 영역을 이전 이미지의 상단부의 영역과 하단부의 영역을 비교하고, 현재 이미지의 하단부의 영역을 이전 이미지의 상단부의 영역과 하단부의 영역을 비교한다.In step S630, the incident
상기 단계 S640에 있어서, 상기 사고발생 판단부(150)는 현재 이미지의 상단부의 영역이 이전 이미지의 상단부의 영역과 다르고, 이전 이미지의 하단부의 영역과 같고, 현재 이미지의 하단부의 영역이 이전 이미지의 상단부의 영역과 같고, 이전 이미지의 하단부의 영역과 다르면 사고가 발생한 것으로 판단하고, 그 이외의 경우에는 사고가 발생하지 않은 것으로 판단한다.In step S640, the incident
이때, 상기 단계 S640에 있어서, 상기 사고발생 판단부(150)는 이전 이미지의 픽셀 값과 현재 이미지의 픽셀 값의 차이가 오차범위 이내이면 이전 이미지의 픽셀 값과 현재 이미지의 픽셀 값이 같은 것으로 판단한다.If the difference between the pixel value of the previous image and the pixel value of the current image is within the error range, the incident
그리고, 상기 단계 S640에 있어서, 상기 사고발생 판단부(150)는 이전 이미지와 현재 이미지의 동일 좌표의 픽셀을 매칭한 결과 매칭률이 기 설정된 기준 이상이면, 같은 이미지인 것으로 판단한다.In step S640, the incident
상기 단계 S640에 따른 판단 결과, 사고가 발생하지 않은 것으로 판단하면(S640-아니오), 사고발생 판단부(150)는 단계 S610로 피드백된다.If it is determined in step S640 that no accident has occurred (NO in step S640), the
반면, 상기 단계 S640에서의 판단 결과, 사고가 발생한 것으로 판단하면(S540-예), 사고발생 판단부(150)는 단계 S600에서 측정된 속도를 기 설정된 기준 속도와 비교하고(S650), 측정된 속도가 기준 속도 이상인지를 판단한다(S660).On the other hand, if it is determined in step S640 that an accident has occurred (YES in step S540), the
상기 단계 S660에서의 판단 결과, 측정된 속도가 기준 속도 이상이면(S660-예), 사고발생 판단부(150)는 E-Call 모듈(160)로 사고발생 신호를 전송하고, E-Call 모듈(160)은 사고 정보를 외부(ex. 주변 차량, PSAP 등)로 제공한다(S670).If it is determined in step S660 that the measured speed is equal to or higher than the reference speed (YES in step S660), the
반면, 상기 단계 S660에서의 판단 결과, 측정된 속도가 기준 속도 미만이면(S660-아니오), 사고발생 판단부(150)는 현재 모드가 자동 모드인지를 판단한다(S680).If it is determined in step S660 that the measured speed is less than the reference speed (NO in step S660), the
상기 단계 S680에서의 판단 결과, 현재 모드가 자동 모드인 것으로 판단되면, 사고발생 판단부(150)는 E-Call 모듈(160)로 사고발생 신호를 전송하고, E-Call 모듈(160)은 사고 정보를 외부(ex. 주변 차량, PSAP 등)로 제공한다(S670).If it is determined in step S680 that the current mode is the automatic mode, the
반면, 상기 단계 S680에서의 판단 결과, 현재 모드가 자동 모드가 아닌 경우, 즉 현재 모드가 수동 모드인 경우이면, 사고발생 판단부(150)는 외부로부터 사고 정보 제공 명령이 입력되는지를 판단한다(S690).On the other hand, if it is determined in step S680 that the current mode is not the automatic mode, that is, if the current mode is the manual mode, the accident
상기 단계 S690에서의 판단 결과, 외부로부터의 사고 정보 제공 명령이 입력되는 경우(S690-예), 사고발생 판단부(150)는 E-Call 모듈(160)로 사고발생 신호를 전송하고, E-Call 모듈(160)은 사고 정보를 외부(ex. 주변 차량, PSAP 등)로 제공한다(S670).If it is determined in step S690 that an accident information providing instruction from the outside is input (S690-YES), the accident
반면, 상기 단계 S690에서의 판단 결과, 외부로부터의 사고 정보 제공 명령이 입력되지 않는 경우(S690-아니오), 사고발생 판단부(150)는 동작을 종료한다.
On the other hand, if it is determined in the step S690 that no accident information providing instruction from the outside is input (S690-No), the
한편, 본 발명에 따른 이머전시 콜 시스템 및 이의 동작 방법을 실시 예에 따라 설명하였지만, 본 발명의 범위는 특정 실시 예에 한정되는 것은 아니며, 본 발명과 관련하여 통상의 지식을 가진 자에게 자명한 범위 내에서 여러 가지의 대안, 수정 및 변경하여 실시할 수 있다.
While the present invention has been described with reference to exemplary embodiments, it is to be understood that the scope of the invention is not limited to the disclosed exemplary embodiments, And various alternatives, modifications, and alterations can be made within the scope.
따라서, 본 발명에 기재된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.
Therefore, the embodiments described in the present invention and the accompanying drawings are intended to illustrate rather than limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and accompanying drawings . The scope of protection of the present invention should be construed according to the claims, and all technical ideas within the scope of equivalents should be interpreted as being included in the scope of the present invention.
100 : 이머전시 콜 시스템
110 : 충격감지 센서
120 : 에어백 제어 유닛
130 : 카메라
140 : 속도 센서
150, 200 : 사고발생 판단부
160 : E-Call 모듈
210 : 수신부
220 : 영상 처리부
230 : 분석부
240 : 조도 센서100: Emergency call system
110: Shock sensor
120: air bag control unit
130: camera
140: Speed sensor
150, 200: an accident occurrence judging unit
160: E-Call module
210:
220:
230:
240: illuminance sensor
Claims (8)
탑재된 차량의 외부를 촬영하는 카메라;
상기 카메라에 의해 촬영된 현재의 영상과 이전의 영상에서 각각 추출되는 관심 영역의 이미지를 비교하여 사고 발생 여부를 판단하고, 사고가 발생한 것으로 판단되면, 사고 발생 신호를 출력하는 사고발생 판단부; 및
상기 사고발생 판단부로부터 출력되는 사고 발생 신호를 수신하고, 사고 정보를 외부 장비로 제공하는 E-Call 모듈을 포함하는
이머전시 콜 시스템.1. An emergency call system for providing accident information to an outside when an accident of a mounted vehicle occurs,
A camera for photographing the exterior of the mounted vehicle;
An accident occurrence judging unit for judging whether or not an accident has occurred by comparing an image of a current region photographed by the camera with an image of a region of interest extracted from a previous image and outputting an accident occurrence signal when it is judged that an accident has occurred; And
And an E-Call module for receiving an accident occurrence signal output from the accident occurrence determination unit and providing accident information to external equipment
Emergency call system.
상기 탑재된 차량의 속도를 측정하는 속도 센서를 더 포함하고,
상기 사고발생 판단부는 사고가 발생한 것으로 판단되면, 상기 속도 센서에 의해 측정된 속도를 기 설정되는 기준 속도와 비교하여, 상기 기준 속도 이상이면, 사고 발생 신호를 출력하도록 구성되는 것
인 이머전시 콜 시스템.The method according to claim 1,
Further comprising a speed sensor for measuring the speed of the mounted vehicle,
The accident occurrence judging unit compares the speed measured by the speed sensor with a predetermined reference speed and outputs an accident occurrence signal if the estimated speed is equal to or higher than the reference speed
Emergency call system.
상기 사고발생 판단부는 상기 속도 센서에 의해 측정된 속도가 상기 기준 속도 미만이면, 현재 모드를 판단하여, 자동 모드이면 상기 사고 발생 신호를 출력하고, 수동 모드이면 사고 정보 제공 명령이 입력되는 경우에 상기 사고 발생 신호를 출력하도록 구성되는 것
인 이머전시 콜 시스템.3. The method of claim 2,
Wherein the accident occurrence judging unit judges the current mode if the speed measured by the speed sensor is less than the reference speed and outputs the accident occurrence signal if it is in the automatic mode, Being configured to output an incident signal
Emergency call system.
상기 사고발생 판단부는,
상기 카메라에 의해 촬영되는 영상을 수신하는 수신부;
상기 수신부에 의해 수신된 영상에서 관심 영역의 이미지를 추출하고, 추출된 이미지를 다수의 픽셀들로 구분하여, 픽셀 단위의 이미지를 제공하는 영상 처리부; 및
상기 영상 처리부로부터 제공되는 픽셀 단위의 이미지를 수신하고, 현재 이미지와 이전 이미지의 동일 좌표의 픽셀 값이 같은지를 비교한 결과를 바탕으로 사고 발생 여부를 판단하는 분석부를 포함하는
이머전시 콜 시스템.The method according to claim 1,
Wherein,
A receiving unit for receiving an image captured by the camera;
An image processing unit for extracting an image of a region of interest from the image received by the receiving unit, dividing the extracted image into a plurality of pixels and providing an image in units of pixels; And
And an analyzing unit that receives an image in units of pixels provided from the image processing unit and determines whether an accident has occurred based on a result of comparing pixel values of the same coordinates of the current image with the previous image
Emergency call system.
상기 사고발생 판단부는 조도 센서를 더 포함하고,
상기 영상 처리부는 상기 조도 센서에 의해 감지되는 외부의 조도 값을 기반으로 판단한 결과, 밤인 것으로 판단하면, 상기 수신부에 의해 수신된 영상에 색상 반전 기법을 적용한 후, 색상 반전된 영상에서 관심 영역의 이미지를 추출하도록 구성되는 것
인 이머전시 콜 시스템.5. The method of claim 4,
The accident occurrence determining unit may further include an illuminance sensor,
Wherein the image processing unit applies a color inversion technique to the image received by the receiving unit when determining that the image is night based on an external illuminance value sensed by the illuminance sensor, .
Emergency call system.
상기 분석부는 이전 이미지의 픽셀 값과 현재 이미지의 픽셀 값의 차이가 오차범위 이내이면 이전 이미지의 픽셀 값과 현재 이미지의 픽셀 값이 같은 것으로 판단하고, 이전 이미지와 현재 이미지의 동일 좌표의 픽셀을 매칭한 결과 매칭률이 기 설정된 기준 이상이면, 동일한 이미지인 것으로 판단하도록 구성되는 것
인 이머전시 콜 시스템.5. The method of claim 4,
If the difference between the pixel value of the previous image and the pixel value of the current image is within the error range, the analyzing unit determines that the pixel value of the previous image is the same as the pixel value of the current image, If the result matching rate is equal to or greater than a preset reference, it is determined that the image is the same image
Emergency call system.
상기 관심 영역은 영상의 상단부의 영역과 영상의 하단부의 영역으로서,
상기 분석부는 현재 이미지의 상단부의 영역을 이전 이미지의 상단부의 영역과 하단부의 영역을 비교하고, 현재 이미지의 하단부의 영역을 이전 이미지의 상단부의 영역과 하단부의 영역을 비교하도록 구성되는 것
인 이머전시 콜 시스템.5. The method of claim 4,
Wherein the region of interest is a region of an upper end portion of an image and a lower end portion of the image,
The analyzing unit compares the upper end region of the current image with the upper end region and the lower end region of the previous image and compares the lower end region of the current image with the upper end region and the lower end region of the previous image
Emergency call system.
상기 분석부는 현재 이미지의 상단부의 영역이 이전 이미지의 상단부의 영역과 다르고, 이전 이미지의 하단부의 영역과 같으며, 현재 이미지의 하단부의 영역이 이전 이미지의 상단부의 영역과 같고, 이전 이미지의 하단부의 영역과 다른 경우, 사고가 발생한 것으로 판단하고, 그 이외의 경우에는 사고가 발생하지 않은 것으로 판단하도록 구성되는 것
인 이머전시 콜 시스템.
8. The method of claim 7,
The analyzing unit determines that the area of the upper end of the current image is different from the area of the upper end of the previous image and the area of the lower end of the current image is the same as the area of the upper end of the previous image, If it is different from the area, it is judged that an accident has occurred. Otherwise, it is judged that the accident does not occur
Emergency call system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160136468A KR102610038B1 (en) | 2016-10-20 | 2016-10-20 | Emergency call system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160136468A KR102610038B1 (en) | 2016-10-20 | 2016-10-20 | Emergency call system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180043587A true KR20180043587A (en) | 2018-04-30 |
KR102610038B1 KR102610038B1 (en) | 2023-12-06 |
Family
ID=62080879
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160136468A KR102610038B1 (en) | 2016-10-20 | 2016-10-20 | Emergency call system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102610038B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111332200A (en) * | 2018-12-18 | 2020-06-26 | 现代自动车株式会社 | Vehicle and control method of vehicle |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090030098A (en) * | 2007-09-19 | 2009-03-24 | 삼성테크윈 주식회사 | Apparatus and method for digital picturing image |
KR20140076453A (en) * | 2012-12-12 | 2014-06-20 | 국민대학교산학협력단 | Black-box system for vehicle and operating method thereof |
KR101537211B1 (en) * | 2014-02-14 | 2015-07-16 | 크루셜텍 (주) | Fingerprint detecting method and electric device supporting different fingerprint input type |
KR20160028542A (en) * | 2014-09-03 | 2016-03-14 | 정국교 | an emergency management and crime prevention system for cars and the method thereof |
-
2016
- 2016-10-20 KR KR1020160136468A patent/KR102610038B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090030098A (en) * | 2007-09-19 | 2009-03-24 | 삼성테크윈 주식회사 | Apparatus and method for digital picturing image |
KR20140076453A (en) * | 2012-12-12 | 2014-06-20 | 국민대학교산학협력단 | Black-box system for vehicle and operating method thereof |
KR101537211B1 (en) * | 2014-02-14 | 2015-07-16 | 크루셜텍 (주) | Fingerprint detecting method and electric device supporting different fingerprint input type |
KR20160028542A (en) * | 2014-09-03 | 2016-03-14 | 정국교 | an emergency management and crime prevention system for cars and the method thereof |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111332200A (en) * | 2018-12-18 | 2020-06-26 | 现代自动车株式会社 | Vehicle and control method of vehicle |
KR20200075442A (en) * | 2018-12-18 | 2020-06-26 | 현대자동차주식회사 | Vehicle and control method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR102610038B1 (en) | 2023-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20150137555A (en) | Apparatus and method for requesting emergency call about vehicle accident using driving information of vehicle | |
US11461595B2 (en) | Image processing apparatus and external environment recognition apparatus | |
CN109478324B (en) | Image processing apparatus and external recognition apparatus | |
US9679484B2 (en) | Apparatus and method for detecting nearby vehicles through inter-vehicle communication | |
US20060195241A1 (en) | Vehicle information notification device | |
JP4244873B2 (en) | Inter-vehicle communication control system, in-vehicle communication system, and communication status display device | |
US11463408B2 (en) | Vehicular secure gateway system | |
KR20130136815A (en) | System and method for lane departure warning | |
US20190147746A1 (en) | Device for identifying an accident situation of an open road vehicle | |
US20200126420A1 (en) | Method and apparatus for analyzing driving tendency and system for controlling vehicle | |
KR20020097357A (en) | Control method for preventing a lane secession of vehicle | |
JP2024052899A (en) | Communication device and communication method | |
KR20180043587A (en) | Emergency call system | |
KR20160128656A (en) | System for Providing Traffic Accident Information | |
JPH1091899A (en) | Road monitoring system | |
KR20120117442A (en) | Portable apparatus for determining driving condition of automobile and method thereof | |
EP1897767A1 (en) | Vehicle emergency system | |
CN109461318B (en) | Vehicle control device and method for recognizing traffic sign | |
KR101816034B1 (en) | Apparatus and method for detecting road boundary line using camera and radar | |
KR102538171B1 (en) | Vehicle detection device and method without V2X installed using sensor integration technology | |
JP2008203980A (en) | Emergency notification device | |
KR102006590B1 (en) | WAVE and LTE integrated system and method for supporting Cooperative-Intelligent Transport Systems and Emergency Call service using the same | |
KR20180002251A (en) | Vehicle camera image integrated processing apparatus and method using a local area wireless communication | |
JP2008176459A (en) | Caution object detection device and traffic safety support system using caution object detection device | |
JP2007253781A (en) | In-vehicle display system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |