KR102614325B1 - Electronic device for analyzing an accident event of vehicle and operating method thereof - Google Patents

Electronic device for analyzing an accident event of vehicle and operating method thereof Download PDF

Info

Publication number
KR102614325B1
KR102614325B1 KR1020210161219A KR20210161219A KR102614325B1 KR 102614325 B1 KR102614325 B1 KR 102614325B1 KR 1020210161219 A KR1020210161219 A KR 1020210161219A KR 20210161219 A KR20210161219 A KR 20210161219A KR 102614325 B1 KR102614325 B1 KR 102614325B1
Authority
KR
South Korea
Prior art keywords
vehicle
information
surrounding environment
environment information
accident event
Prior art date
Application number
KR1020210161219A
Other languages
Korean (ko)
Other versions
KR20230075032A (en
Inventor
장미선
정회인
Original Assignee
주식회사 넥스트칩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 넥스트칩 filed Critical 주식회사 넥스트칩
Priority to KR1020210161219A priority Critical patent/KR102614325B1/en
Publication of KR20230075032A publication Critical patent/KR20230075032A/en
Application granted granted Critical
Publication of KR102614325B1 publication Critical patent/KR102614325B1/en

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/02Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration by making use of inertia forces using solid seismic masses
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station

Abstract

차량의 사고 이벤트 분석 결과를 생성하기 위해, 차량에 탑재된 전자 장치는, 전자 장치가 탑재된 차량에 대한 사고 이벤트가 감지됨에 따라, 사고 이벤트가 발생한 시각 정보를 획득하고, 시각 정보에 기초하여, 사고 이벤트에 대한 제1 주변 환경 정보를 생성하고, 시각 정보에 기초하여, 차량을 제어하는 차량 제어 장치로부터 사고 이벤트에 대한 제2 주변 환경 정보를 획득하고, 제1 주변 환경 정보 및 제2 주변 환경 정보에 기초하여 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 결정하고, 복잡도에 기초하여, 전자 장치가 정보 처리를 수행하는 경우, 제1 주변 환경 정보 및 제2 주변 환경 정보를 분석함으로써 사고 이벤트에 대한 분석 결과를 생성하고, 및 복잡도에 기초하여, 미리 결정된 분석 서버가 정보 처리를 수행하는 경우, 분석 서버로 제1 주변 환경 정보 및 제2 주변 환경 정보를 전송할 수 있다. 전자 장치가 분석 서버로 제1 주변 환경 정보 및 제2 주변 환경 정보를 전송하는 경우, 분석 결과는 분석 서버에 의해 생성될 수 있다. 그 외에도 다양한 실시예들이 가능할 수 있다.In order to generate an accident event analysis result of the vehicle, the electronic device mounted on the vehicle acquires time information at which the accident event occurred as an accident event for the vehicle equipped with the electronic device is detected, and based on the time information, Generating first surrounding environment information for an accident event, based on the visual information, obtaining second surrounding environment information for an accident event from a vehicle control device that controls the vehicle, the first surrounding environment information and the second surrounding environment Determine the complexity of information processing for analyzing an accident event based on the information, and based on the complexity, when the electronic device performs information processing, analyze the first surrounding environment information and the second surrounding environment information to determine the complexity of the information processing to analyze the accident event. If an analysis result is generated and a predetermined analysis server performs information processing based on complexity, the first surrounding environment information and the second surrounding environment information may be transmitted to the analysis server. When the electronic device transmits the first surrounding environment information and the second surrounding environment information to the analysis server, analysis results may be generated by the analysis server. In addition, various embodiments may be possible.

Description

차량의 사고 이벤트를 분석하기 위한 전자 장치 및 그 동작방법 {ELECTRONIC DEVICE FOR ANALYZING AN ACCIDENT EVENT OF VEHICLE AND OPERATING METHOD THEREOF}Electronic device for analyzing vehicle accident events and its operating method {ELECTRONIC DEVICE FOR ANALYZING AN ACCIDENT EVENT OF VEHICLE AND OPERATING METHOD THEREOF}

아래의 실시예들은 차량의 사고 이벤트를 분석하는 방법에 관한 것이다.The embodiments below relate to a method for analyzing a vehicle accident event.

자율 주행 차량 또는 ADAS(advanced driver assistance system)을 지원하는 차량은 하나 이상의 센서들을 이용하여 차량 주변의 상황을 인식하고, 인식된 상황에 대해 적절한 차량의 제어가 요구된다. 예를 들어, 차량 주변의 상황을 인식하기 위해, 도로의 차선 및 차량 주변의 오브젝트가 검출된다. 차선 또는 오브젝트를 검출하기 위해 차량의 카메라를 이용하여 이미지를 생성하고, 이미지 내의 오브젝트를 식별할 수 있다.Autonomous vehicles or vehicles supporting ADAS (advanced driver assistance system) use one or more sensors to recognize situations around the vehicle, and appropriate vehicle control is required for the recognized situations. For example, to recognize the situation around the vehicle, the lanes of the road and objects around the vehicle are detected. To detect lanes or objects, images can be created using the vehicle's camera, and objects within the image can be identified.

차량에 충격이 감지되는 등 사고 이벤트가 발생하는 경우, 사고 이벤트를 분석하기 위해 다양한 정보 처리가 필요할 수 있다. 예를 들어, 사고 이벤트 분석 결과 촬영된 영상에서 객체가 인식되고, 객체의 종류가 판단되고, 충격 방향 및 충격 속도 등이 결정될 수 있다. 차량 사고 이벤트 분석을 위한 정보 처리에는 높은 계산량이 필요할 수 있고, 차량 내 전자 장치에서는 성능의 한계로 인해 높은 계산량의 정보 처리가 불가능할 수 있다.When an accident event occurs, such as when an impact is detected in a vehicle, various information processing may be required to analyze the accident event. For example, as a result of accident event analysis, an object may be recognized in a captured image, the type of object may be determined, and the direction and speed of impact may be determined. Information processing for vehicle accident event analysis may require a high computational amount, and high computational information processing may not be possible in electronic devices within the vehicle due to performance limitations.

ECU(electronic control unit)와 같은 차량 제어 장치는 차량에 부착 또는 설치된 센서들을 통해 다양한 정보를 획득할 수 있으나, 보다 정확한 차량의 사고 이벤트 분석을 위해 더 많은 정보가 필요할 수 있다.A vehicle control device such as an ECU (electronic control unit) can obtain various information through sensors attached or installed on the vehicle, but more information may be needed for more accurate analysis of vehicle accident events.

다만, 기술적 과제는 상술한 기술적 과제들로 한정되는 것은 아니며, 또 다른 기술적 과제들이 존재할 수 있다.However, technical challenges are not limited to the above-mentioned technical challenges, and other technical challenges may exist.

일 실시 예에 따르면, 전자 장치에 의해 수행되는 사고 이벤트 분석 방법은, 상기 전자 장치가 탑재된 차량에 대한 사고 이벤트가 감지됨에 따라, 상기 사고 이벤트가 발생한 시각 정보를 획득하는 단계; 상기 시각(time) 정보에 기초하여, 상기 사고 이벤트에 대한 제1 주변 환경 정보를 생성하는 단계; 상기 시각 정보에 기초하여, 상기 차량을 제어하는 차량 제어 장치로부터 상기 사고 이벤트에 대한 제2 주변 환경 정보를 획득하는 단계; 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보에 기초하여 상기 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 결정하는 단계; 상기 복잡도에 기초하여, 상기 전자 장치가 상기 정보 처리를 수행하는 경우, 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보를 분석함으로써 상기 사고 이벤트에 대한 분석 결과를 생성하는 단계; 및 상기 복잡도에 기초하여, 미리 결정된 분석 서버가 상기 정보 처리를 수행하는 경우, 상기 분석 서버로 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보를 전송하는 단계 - 상기 분석 결과는 상기 분석 서버에 의해 생성됨 -를 포함할 수 있다.According to one embodiment, an accident event analysis method performed by an electronic device includes: acquiring time information at which the accident event occurred when an accident event for a vehicle equipped with the electronic device is detected; Based on the time information, generating first surrounding environment information for the accident event; Based on the visual information, obtaining second surrounding environment information about the accident event from a vehicle control device that controls the vehicle; determining a complexity of information processing for analyzing the accident event based on the first surrounding environment information and the second surrounding environment information; Based on the complexity, when the electronic device performs the information processing, generating an analysis result for the accident event by analyzing the first surrounding environment information and the second surrounding environment information; and based on the complexity, when a predetermined analysis server performs the information processing, transmitting the first surrounding environment information and the second surrounding environment information to the analysis server - the analysis result is sent to the analysis server. Created by - may include.

일 실시 예에 따르면, 상기 사고 이벤트는, 상기 전자 장치에 의해 감지되거나, 상기 차량 제어 장치와 통신하는 상기 차량에 탑재된 하나 이상의 차량용 센서에 의해 감지될 수 있다.According to one embodiment, the accident event may be detected by the electronic device or by one or more vehicle sensors mounted on the vehicle that communicate with the vehicle control device.

일 실시 예에 따르면, 상기 제1 주변 환경 정보는, 상기 전자 장치와 연결된 촬영 장치, GPS 센서 및 충격 감지 센서, 가속도 센서 및 사운드 감지 센서 중 적어도 어느 하나에 기초하여 생성될 수 있다.According to one embodiment, the first surrounding environment information may be generated based on at least one of a photographing device, a GPS sensor, an impact detection sensor, an acceleration sensor, and a sound detection sensor connected to the electronic device.

일 실시 예에 따르면, 상기 제2 주변 환경 정보는, 상기 차량에 탑재된 초음파(ultrasonic) 센서, 레이더(RADAR) 센서, 라이다(LiDAR) 센서, 조향각(steering angle) 센서, 가속도 센서, AVM(around view monitor) 용 카메라, 충격 감지 센서 및 사운드 감지 센서 중 적어도 어느 하나를 통해 획득될 수 있다.According to one embodiment, the second surrounding environment information includes an ultrasonic sensor, a RADAR sensor, a LiDAR sensor, a steering angle sensor, an acceleration sensor, and an AVM ( It can be obtained through at least one of a camera for (around view monitor), an impact detection sensor, and a sound detection sensor.

일 실시 예에 따르면, 상기 복잡도를 결정하는 단계는, 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보에 기초하여 상기 차량이 주차 중인지 여부를 결정하는 단계; 상기 차량이 주차 중이면, 상기 복잡도를 제1 레벨로 결정하는 단계; 및 상기 차량이 주차 중이 아니면, 상기 복잡도를 상기 제1 레벨보다 높은 제2 레벨로 결정하는 단계를 포함할 수 있다.According to one embodiment, determining the complexity includes determining whether the vehicle is parked based on the first surrounding environment information and the second surrounding environment information; If the vehicle is parked, determining the complexity to be a first level; and if the vehicle is not parked, determining the complexity to be a second level higher than the first level.

일 실시 예에 따르면, 상기 복잡도를 결정하는 단계는, 상기 제1 주변 환경 정보 또는 상기 제2 주변 환경 정보의 획득에 관여한 센서의 개수, 상기 제1 주변 환경 정보와 상기 제2 주변 환경 정보의 용량, 및 상기 제1 주변 환경 정보와 상기 제2 주변 환경 정보에 포함된 영상에서 객체 검출(object detection)의 난이도 중 적어도 어느 하나에 기초하여 상기 정보 처리의 복잡도를 결정하는 단계를 포함할 수 있다.According to one embodiment, the step of determining the complexity includes determining the number of sensors involved in acquiring the first surrounding environment information or the second surrounding environment information, and the number of sensors involved in acquiring the first surrounding environment information and the second surrounding environment information. It may include determining the complexity of the information processing based on at least one of capacity and difficulty of object detection in the image included in the first surrounding environment information and the second surrounding environment information. .

일 실시 예에 따르면, 상기 분석 결과는, 상기 사고 이벤트와 관련된 외부 객체의 크기 정보, 상기 외부 객체의 종류 정보, 상기 외부 객체의 충격 방향 정보, 상기 외부 객체의 충격 속도 정보 및 상기 차량 내부의 탑승자의 상태 정보 중 적어도 어느 하나를 포함할 수 있다.According to one embodiment, the analysis result includes size information of the external object related to the accident event, type information of the external object, impact direction information of the external object, impact speed information of the external object, and occupants inside the vehicle. It may include at least one of the status information.

일 실시 예에 따르면, 상기 분석 결과는 상기 전자 장치가 상기 사고 이벤트에 대한 분석 결과를 생성하기 위해 이용되는 학습 모델 또는 상기 분석 서버가 상기 사고 이벤트에 대한 분석 결과를 생성하기 위해 이용되는 학습 모델에 기초하여 생성되고, 상기 분석 결과는 상기 전자 장치의 학습 모델 또는 상기 분석 서버의 학습 모델을 재학습하기 위해 이용될 수 있다.According to one embodiment, the analysis result is a learning model used by the electronic device to generate an analysis result for the accident event or a learning model used by the analysis server to generate an analysis result for the accident event. The analysis result may be used to retrain the learning model of the electronic device or the learning model of the analysis server.

일 실시 예에 따르면, 상기 분석 서버가 상기 정보 처리를 수행하는 경우, 상기 분석 서버로부터 상기 분석 결과를 수신하는 단계; 및 상기 분석 결과를 저장하고, 상기 분석 결과를 상기 전자 장치와 연동된 사용자 단말로 전송하는 단계를 더 포함할 수 있다. According to one embodiment, when the analysis server performs the information processing, receiving the analysis result from the analysis server; And it may further include storing the analysis results and transmitting the analysis results to a user terminal linked to the electronic device.

일 실시 예에 따르면, 상기 분석 서버가 상기 정보 처리를 수행하는 경우, 상기 분석 결과는 상기 사고 이벤트와 연관된 엔티티(entity) - 상기 엔티티는, 상기 차량의 주변에 위치한 소방서의 서버, 경찰서의 서버, 및 상기 차량과 연동된 보험사의 서버 중 적어도 어느 하나를 포함함 -로 전송될 수 있다.According to one embodiment, when the analysis server performs the information processing, the analysis result is an entity associated with the accident event - the entity is a server of a fire department, a server of a police station, located around the vehicle, and at least one of an insurance company's server linked to the vehicle.

일 실시 예에 따르면, 상기 차량은, 자율주행 차량(autonomous vehicle) 또는 어드밴스드 운전자 지원 시스템(advanced driver assistance system)을 지원하는 차량일 수 있다.According to one embodiment, the vehicle may be an autonomous vehicle or a vehicle supporting an advanced driver assistance system.

일 실시 예에 따르면, 상기 전자 장치는 블랙박스(blackbox), 차량용 영상녹화장치(DVRS: Drive Video Record System) 중 어느 하나이고, 상기 차량 제어 장치는 차량용 전자 제어 장치(ECU: Electronic Control Unit)일 수 있다.According to one embodiment, the electronic device is one of a black box and a vehicle video recording system (DVRS: Drive Video Record System), and the vehicle control device is a vehicle electronic control unit (ECU: Electronic Control Unit). You can.

일 실시 예에 따르면, 사고 이벤트 분석 방법을 수행하는 전자 장치는, 상기 전자 장치가 탑재된 차량의 사고 이벤트에 대한 제1 주변 환경 정보를 획득하기 위한 센서부; 상기 차량을 제어하는 차량 제어 장치 및 미리 결정된 사고 이벤트 분석 서버와 통신하기 위한 통신부; 컴퓨터로 실행 가능한 명령어들(computer-executable instructions)이 저장된 메모리; 및 상기 메모리에 억세스(access)하여 상기 명령어들을 실행하는 프로세서를 포함하고, 상기 명령어들은, 상기 사고 이벤트가 감지됨에 따라, 상기 사고 이벤트가 발생한 시각(time) 정보를 획득하고, 상기 시각 정보에 기초하여, 상기 센서부를 통해 상기 제1 주변 환경 정보를 생성하고, 상기 시각 정보에 기초하여, 상기 차량 제어 장치로부터 상기 사고 이벤트에 대한 제2 주변 환경 정보를 획득하고, 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보에 기초하여 상기 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 결정하고, 상기 복잡도에 기초하여, 상기 전자 장치가 상기 정보 처리를 수행하는 경우, 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보를 분석함으로써 상기 사고 이벤트에 대한 분석 결과를 생성하고, 및 상기 복잡도에 기초하여, 상기 분석 서버가 상기 정보 처리를 수행하는 경우, 상기 분석 서버로 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보를 전송 - 상기 분석 결과는 상기 분석 서버에 의해 생성됨 -하도록 구성될 수 있다.According to one embodiment, an electronic device that performs an accident event analysis method includes: a sensor unit for acquiring first surrounding environment information about an accident event of a vehicle on which the electronic device is mounted; a communication unit for communicating with a vehicle control device that controls the vehicle and a predetermined accident event analysis server; Memory storing computer-executable instructions; and a processor that accesses the memory and executes the instructions, wherein the instructions obtain information on the time when the accident event occurred as the accident event is detected, and execute information based on the time information. Thus, the first surrounding environment information is generated through the sensor unit, and based on the visual information, second surrounding environment information about the accident event is acquired from the vehicle control device, and the first surrounding environment information and the Determine the complexity of information processing for analyzing the accident event based on the second surrounding environment information, and when the electronic device performs the information processing based on the complexity, the first surrounding environment information and the first 2 Generate an analysis result for the accident event by analyzing surrounding environment information, and based on the complexity, when the analysis server performs the information processing, send the first surrounding environment information and the first to the analysis server. 2 It may be configured to transmit surrounding environment information - the analysis result is generated by the analysis server.

일 실시 예에 따르면, 상기 사고 이벤트는, 상기 센서부에 의해 감지되거나, 상기 차량 제어 장치와 통신하는 상기 차량에 탑재된 하나 이상의 차량용 센서들에 의해 감지될 수 있다.According to one embodiment, the accident event may be detected by the sensor unit or by one or more vehicle sensors mounted on the vehicle that communicate with the vehicle control device.

일 실시 예에 따르면, 상기 센서부는, 상기 전자 장치와 연결된 촬영 장치, GPS 센서, 충격 감지 센서, 가속도 센서 및 사운드 감지 센서 중 적어도 어느 하나를 포함할 수 있다.According to one embodiment, the sensor unit may include at least one of a photographing device, a GPS sensor, an impact detection sensor, an acceleration sensor, and a sound detection sensor connected to the electronic device.

일 실시 예에 따르면, 상기 제2 주변 환경 정보는, 상기 차량에 탑재된 초음파(ultrasonic) 센서, 레이더(RADAR) 센서, 라이다(LiDAR) 센서, 조향각(steering angle) 센서, 가속도 센서, AVM(around view monitor) 용 카메라, 충격 감지 센서 및 사운드 감지 센서 중 적어도 어느 하나를 통해 획득될 수 있다.According to one embodiment, the second surrounding environment information includes an ultrasonic sensor, a RADAR sensor, a LiDAR sensor, a steering angle sensor, an acceleration sensor, and an AVM ( It can be obtained through at least one of a camera for (around view monitor), an impact detection sensor, and a sound detection sensor.

일 실시 예에 따르면, 상기 복잡도를 결정하는 단계는, 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보에 기초하여 상기 차량이 주차 중인지 여부를 결정하는 단계; 상기 차량이 주차 중이면, 상기 복잡도를 제1 레벨로 결정하는 단계; 및 상기 차량이 주차 중이 아니면, 상기 복잡도를 상기 제1 레벨보다 높은 제2 레벨로 결정하는 단계를 포함할 수 있다.According to one embodiment, determining the complexity includes determining whether the vehicle is parked based on the first surrounding environment information and the second surrounding environment information; If the vehicle is parked, determining the complexity to be a first level; and if the vehicle is not parked, determining the complexity to be a second level higher than the first level.

일 실시 예에 따르면, 상기 분석 결과는, 상기 사고 이벤트와 관련된 외부 객체의 크기 정보, 상기 외부 객체의 종류 정보, 상기 외부 객체의 충격 방향 정보, 상기 외부 객체의 충격 속도 정보 및 상기 차량 내부의 탑승자의 상태 정보 중 적어도 어느 하나를 포함할 수 있다.According to one embodiment, the analysis result includes size information of the external object related to the accident event, type information of the external object, impact direction information of the external object, impact speed information of the external object, and occupants inside the vehicle. It may include at least one of the status information.

일 실시 예에 따르면, 차량에 대한 사고 이벤트 분석 시스템은, 상기 차량에 탑재되어 상기 사고 이벤트가 감지됨에 따라, 상기 사고 이벤트가 발생한 시각(time) 정보를 획득하고, 상기 시각 정보에 기초하여 상기 사고 이벤트에 대한 제1 주변 환경 정보를 생성하고, 상기 시각 정보에 기초하여 상기 차량을 제어하는 차량 제어 장치로부터 상기 사고 이벤트에 대한 제2 주변 환경 정보를 획득하고, 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보에 기초하여 상기 사고 이벤트를 분석하기 위한 복잡도를 결정하고, 상기 복잡도가 임계 수준 이하이면 상기 사고 이벤트에 대한 분석 결과를 생성하는 전자 장치; 및 상기 복잡도가 상기 임계 수준을 초과하면, 상기 전자 장치로부터 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보를 수신하여 상기 사고 이벤트에 대한 분석 결과를 생성하는 사고 이벤트 분석 서버를 포함할 수 있다.According to one embodiment, an accident event analysis system for a vehicle is mounted on the vehicle and, as the accident event is detected, obtains information on the time when the accident event occurred, and based on the time information, the accident event is detected. Generate first surrounding environment information for an event, obtain second surrounding environment information for the accident event from a vehicle control device that controls the vehicle based on the visual information, and obtain the first surrounding environment information and the first surrounding environment information. 2 an electronic device that determines a complexity for analyzing the accident event based on surrounding environment information and generates an analysis result for the accident event if the complexity is below a critical level; And when the complexity exceeds the threshold level, it may include an accident event analysis server that receives the first surrounding environment information and the second surrounding environment information from the electronic device and generates an analysis result for the accident event. .

차량에는 차량용 영상녹화장치(DVRS: Drive Video Record System), 예를 들어 블랙박스(blackbox)가 포함될 수 있고, 차량에 부착 또는 설치된 센서들을 통해 획득한 정보뿐만 아니라 차량용 영상녹화장치로 획득한 정보들에 기초하여 보다 정확하게 사고 이벤트를 분석하는 전자 장치 및 시스템이 제공될 수 있다.A vehicle may include a vehicle video recording system (DVRS: Drive Video Record System), for example, a black box, and information obtained through sensors attached or installed in the vehicle as well as information obtained by the vehicle video recording device. Based on this, electronic devices and systems that analyze accident events more accurately can be provided.

사고 이벤트를 분석하기 위한 정보 처리의 복잡도에 따라 적응적으로 전자 장치 또는 사고 이벤트 분석 서버에서 사고 이벤트를 분석하기 위한 정보 처리를 수행하는 시스템이 제공될 수 있다.A system that adaptively performs information processing for analyzing an accident event in an electronic device or an accident event analysis server may be provided depending on the complexity of information processing for analyzing an accident event.

이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.In addition, various effects that can be directly or indirectly identified through this document may be provided.

도 1은 일 실시 예에 따른, 전자 장치의 블록도이다.
도 2는 일 실시 예에 따른, 사고 이벤트 분석 시스템의 블록도이다.
도 3은 일 실시 예에 따른, 전자 장치가 탑재된 차량을 도시한다.
도 4는 일 실시 예에 따른, 전자 장치의 동작을 설명하기 위한 흐름도이다.
도 5는 일 실시 예에 따른, 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 결정하는 동작을 설명하기 위한 도면이다.
도 6은 일 실시 예에 따른, 전자 장치에서 사고 이벤트 분석을 위한 정보 처리를 수행하는 경우 전자 장치의 동작을 설명하기 위한 도면이다.
도 7은 일 실시 예에 따른, 사고 이벤트 분석 서버에서 사고 이벤트 분석을 위한 정보 처리를 수행하는 경우 전자 장치의 동작을 설명하기 위한 도면이다.
도 8은 일 실시 예에 따른, 사고 이벤트 분석 시스템의 동작을 설명하기 위한 흐름도이다.
도 9는 일 실시 예에 따른, 사고 이벤트 분석 시스템의 사고 이벤트 분석 서버의 동작을 설명하기 위한 흐름도이다.
1 is a block diagram of an electronic device, according to an embodiment.
Figure 2 is a block diagram of an accident event analysis system, according to one embodiment.
Figure 3 shows a vehicle equipped with an electronic device, according to one embodiment.
Figure 4 is a flowchart for explaining the operation of an electronic device, according to an embodiment.
Figure 5 is a diagram for explaining an operation of determining the complexity of information processing for analyzing an accident event, according to an embodiment.
FIG. 6 is a diagram for explaining the operation of an electronic device when the electronic device performs information processing for accident event analysis, according to an embodiment.
FIG. 7 is a diagram illustrating the operation of an electronic device when information processing for accident event analysis is performed in an accident event analysis server, according to an embodiment.
Figure 8 is a flowchart for explaining the operation of an accident event analysis system according to an embodiment.
Figure 9 is a flowchart for explaining the operation of the accident event analysis server of the accident event analysis system, according to one embodiment.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only and may be changed and implemented in various forms. Accordingly, the actual implementation form is not limited to the specific disclosed embodiments, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea described in the embodiments.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but these terms should be interpreted only for the purpose of distinguishing one component from another component. For example, a first component may be named a second component, and similarly, the second component may also be named a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected” to another component, it should be understood that it may be directly connected or connected to the other component, but that other components may exist in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as “comprise” or “have” are intended to designate the presence of the described features, numbers, steps, operations, components, parts, or combinations thereof, and are intended to indicate the presence of one or more other features or numbers, It should be understood that this does not exclude in advance the possibility of the presence or addition of steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art. Terms as defined in commonly used dictionaries should be interpreted as having meanings consistent with the meanings they have in the context of the related technology, and unless clearly defined in this specification, should not be interpreted in an idealized or overly formal sense. No.

이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings. In the description with reference to the accompanying drawings, identical components will be assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted.

< 전자 장치 및 시스템 ><Electronic devices and systems>

도 1은 일 실시 예에 따른 전자 장치(101)의 블록도이다.Figure 1 is a block diagram of an electronic device 101 according to an embodiment.

도 1을 참조하면, 사고 이벤트를 분석하는 전자 장치(101)는 통신부(110), 프로세서(120), 메모리(130), 센서부(140)를 포함할 수 있다. 전자 장치(101)는 차량용 영상녹화장치(DVRS), 블랙박스일 수 있고, 자율주행 차량(autonomous vehicle) 또는 어드밴스드 운전자 지원 시스템(advanced driver assistance system)을 지원하는 차량에 부착 또는 설치될 수 있다. Referring to FIG. 1 , the electronic device 101 that analyzes an accident event may include a communication unit 110, a processor 120, a memory 130, and a sensor unit 140. The electronic device 101 may be a vehicle video recording system (DVRS) or a black box, and may be attached or installed on an autonomous vehicle or a vehicle supporting an advanced driver assistance system.

일 실시 예에 따르면, 통신부(110)는 프로세서(120) 및 메모리(130)와 연결되어 데이터를 송수신할 수 있다. 통신부(110)는 외부의 다른 장치와 연결되어 데이터, 예를 들어 카메라로 촬영된 영상을 수신할 수 있다. 이하에서 "A"를 송수신한다라는 표현은 "A를 나타내는 정보(information) 또는 데이터"를 송수신하는 것을 나타낼 수 있다.According to one embodiment, the communication unit 110 is connected to the processor 120 and the memory 130 to transmit and receive data. The communication unit 110 may be connected to another external device and receive data, for example, images captured by a camera. Hereinafter, the expression "transmitting and receiving "A" may refer to transmitting and receiving "information or data representing A."

일 실시 예에 따르면, 통신부(110)는 전자 장치(101) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(110)는 내부 버스(internal bus) 및 외부 버스(external bus)를 포함할 수 있다. 다른 예로, 통신부(110)는 전자 장치(101)과 외부의 장치를 연결하는 요소일 수 있다. 통신부(110)는 인터페이스(interface)일 수 있다. 통신부(110)는 외부의 장치로부터 데이터를 수신하여, 프로세서(120) 및 메모리(130)에 데이터를 전송할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 통신부(110)를 통해 차량 제어 장치 및 사고 이벤트를 분석하기 위한 서버와 통신을 수행할 수 있다. 차량 제어 장치는 차량의 기계나 전자 장치를 제어하기 위한 장치로, 예를 들어 ECU(electronic control unit)일 수 있다. 차량 제어 장치 및 사고 이벤트를 분석하기 위한 서버에 대해서는, 사고 이벤트 분석 시스템을 도시하는 도 2를 참조하여 상세히 설명한다.According to one embodiment, the communication unit 110 may be implemented as a circuitry within the electronic device 101. For example, the communication unit 110 may include an internal bus and an external bus. As another example, the communication unit 110 may be an element that connects the electronic device 101 and an external device. The communication unit 110 may be an interface. The communication unit 110 may receive data from an external device and transmit the data to the processor 120 and the memory 130. According to one embodiment, the processor 120 may communicate with a vehicle control device and a server for analyzing accident events through the communication unit 110. A vehicle control device is a device for controlling mechanical or electronic devices of a vehicle, and may be, for example, an ECU (electronic control unit). The vehicle control device and the server for analyzing accident events will be described in detail with reference to FIG. 2, which shows the accident event analysis system.

일 실시 예에 따르면, 프로세서(120)는 통신부(110)가 수신한 데이터 및 메모리(130)에 저장된 데이터를 처리할 수 잇다. "프로세서"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 컴퓨터로 실행 가능한 명령어들(computer-executable instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.According to one embodiment, the processor 120 may process data received by the communication unit 110 and data stored in the memory 130. A “processor” may be a data processing device implemented in hardware that has a circuit with a physical structure for executing desired operations. For example, the intended operations may include code included in a program or computer-executable instructions. For example, data processing devices implemented in hardware include microprocessors, central processing units, processor cores, multi-core processors, and multiprocessors. , ASIC (Application-Specific Integrated Circuit), and FPGA (Field Programmable Gate Array).

일 실시 예에 따르면, 프로세서(120)는 메모리(예를 들어, 메모리(130))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(120)에 의해 유발된 인스트럭션들을 실행할 수 있다.According to one embodiment, the processor 120 may execute computer-readable code (e.g., software) stored in a memory (e.g., memory 130) and instructions triggered by the processor 120. there is.

일 실시 예에 따르면, 메모리(130)는 통신부(110)가 수신한 데이터 및 프로세서(120)가 처리한 데이터를 저장할 수 있다. 예를 들어, 메모리(130)는 프로그램(또는 어플리케이션, 소프트웨어)을 저장할 수 있다. 저장되는 프로그램은 센서부(140)를 통해 획득한 정보 및 차량 제어 장치(미도시)로부터 수신한 정보에 기초하여 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 결정하고, 복잡도에 기초하여 정보 처리를 수행하거나 사고 이벤트 분석 서버로 정보 처리를 요청할 수 있도록 코딩되어 프로세서(120)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.According to one embodiment, the memory 130 may store data received by the communication unit 110 and data processed by the processor 120. For example, the memory 130 may store programs (or applications, software). The stored program determines the complexity of information processing for analyzing an accident event based on information acquired through the sensor unit 140 and information received from a vehicle control device (not shown), and performs information processing based on the complexity. It may be a set of syntaxes that are coded to perform or request information processing from an accident event analysis server and can be executed by the processor 120.

일 실시 예에 따르면, 메모리(130)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.According to one embodiment, the memory 130 may include one or more volatile memory, non-volatile memory, random access memory (RAM), flash memory, a hard disk drive, and an optical disk drive.

일 실시 예에 따르면, 메모리(130)는 전자 장치(101)를 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장할 수 있다. 전자 장치(101)를 동작 시키는 명령어 세트는 프로세서(120)에 의해 실행될 수 있다.According to one embodiment, the memory 130 may store a set of instructions (eg, software) that operates the electronic device 101. A set of instructions for operating the electronic device 101 may be executed by the processor 120.

일 실시 예에 따르면, 센서부(140)는 촬영 장치, GPS 센서, 충격 감지 센서, 가속도 센서 및 사운드 감지 센서 중 적어도 어느 하나를 포함할 수 있다. 일 례로, 전자 장치(101)는 차량 전면에 부착 또는 설치될 수 있고, 센서부(140)의 촬영 장치로 차량의 정면 방향 영상이 획득될 수 있다. 다만 촬영 장치로 차량의 정면 방향 영상만 획득되는 것은 아니고, 다양한 차량 주변 영상이 획득될 수 있다. 예를 들어, 센서부(140)의 촬영 장치가 차량 내부를 촬영할 수 있고, 차량 내부 탑승자에 대한 영상이 센서부(140)를 통해 획득될 수 있다.According to one embodiment, the sensor unit 140 may include at least one of a photographing device, a GPS sensor, an impact detection sensor, an acceleration sensor, and a sound detection sensor. For example, the electronic device 101 may be attached or installed on the front of the vehicle, and an image in the front direction of the vehicle may be acquired with the imaging device of the sensor unit 140. However, not only images in the front direction of the vehicle can be obtained with the imaging device, but various images around the vehicle can be obtained. For example, the imaging device of the sensor unit 140 may photograph the interior of the vehicle, and images of occupants inside the vehicle may be acquired through the sensor unit 140.

다른 일 례로, 전자 장치(101)의 GPS 센서로 차량의 현재 위치 정보가 획득되거나, 충격 감지 센서로 충격이 감지될 수 있다. 또 다른 일 례로, 전자 장치(101)의 가속도 센서로 전자 장치(101)가 탑재된 차량의 이동 속도에 대한 정보가 획득되고, 사운드 감지 센서로 탑승자의 음성 및/또는 다른 차량의 경적 소리 등 다양한 사운드 정보가 획득될 수 있다.As another example, the current location information of the vehicle may be acquired using the GPS sensor of the electronic device 101, or an impact may be detected using an impact detection sensor. As another example, the acceleration sensor of the electronic device 101 obtains information about the moving speed of the vehicle equipped with the electronic device 101, and the sound detection sensor obtains various information such as the passenger's voice and/or the sound of the horn of another vehicle. Sound information may be obtained.

일 실시 예에 따르면, 전자 장치(101)의 프로세서(120)는 전자 장치(101)가 탑재된 차량에 대한 사고 이벤트가 감지됨에 따라 사고 이벤트가 발생한 시각에 대한 정보를 획득하고, 시각 정보에 기초하여 사고 이벤트에 대한 제1 주변 환경 정보를 생성하고, 차량을 제어하는 차량 제어 장치로부터 제2 주변 환경 정보를 획득할 수 있다.According to one embodiment, the processor 120 of the electronic device 101 acquires information about the time when the accident event occurred as an accident event for a vehicle equipped with the electronic device 101 is detected, and based on the time information Thus, first surrounding environment information about the accident event can be generated, and second surrounding environment information can be obtained from the vehicle control device that controls the vehicle.

일 실시 예에 따르면, 프로세서(120)는 제1 주변 환경 정보 및 제2 주변 환경 정보에 기초하여 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 결정할 수 있다. 예를 들어, 사고 이벤트를 분석한 결과에는 사고 이벤트와 관련된 외부 객체의 크기 정보, 외부 객체의 종류 정보, 외부 객체의 충격 방향 정보, 외부 객체의 충격 속도 정보 및 차량 내부 탑승자의 상태 정보 중 적어도 어느 하나가 포함될 수 있고, 전술한 정보들을 획득하기 위해 다양한 정보 처리가 수행되어야 할 수 있다. 사고 이벤트 분석을 위한 정보 처리의 복잡도를 결정하는 동작은 도 5를 참조하여 상세히 설명한다.According to one embodiment, the processor 120 may determine the complexity of information processing for analyzing an accident event based on the first surrounding environment information and the second surrounding environment information. For example, the result of analyzing an accident event may include at least one of the size information of the external object related to the accident event, the type information of the external object, the impact direction information of the external object, the impact speed information of the external object, and the status information of the occupants inside the vehicle. One may be included, and various information processing may have to be performed to obtain the above-described information. The operation of determining the complexity of information processing for accident event analysis will be described in detail with reference to FIG. 5.

일 실시 예에 따르면, 프로세서(120)는 복잡도에 기초하여 전자 장치(101)에서 정보 처리를 수행할지, 사고 이벤트 분석 서버에서 수행할지 결정할 수 있다. 전자 장치(101)에서 정보 처리를 수행하는 경우, 프로세서(120)는 제1 주변 환경 정보 및 제2 주변 환경 정보를 분석함으로써 사고 이벤트에 대한 분석 결과를 생성할 수 있다. 분석 서버에서 정보 처리를 수행하는 경우, 프로세서(120)는 분석 서버로 제1 주변 환경 정보 및 제2 주변 환경 정보를 전송하고, 분석 결과는 분석 서버에 의해 생성될 수 있다. According to one embodiment, the processor 120 may determine whether to perform information processing in the electronic device 101 or the accident event analysis server based on complexity. When performing information processing in the electronic device 101, the processor 120 may generate an analysis result for an accident event by analyzing the first surrounding environment information and the second surrounding environment information. When information processing is performed in the analysis server, the processor 120 transmits the first surrounding environment information and the second surrounding environment information to the analysis server, and the analysis result may be generated by the analysis server.

일 실시 예에 따르면, 분석 결과는 전자 장치(101) 또는 사고 이벤트 분석 서버에 포함된, 사고 이벤트에 대한 분석 결과를 생성하기 위해 이용되는 학습 모델에 기초하여 생성될 수 있다. 학습 모델에 기초하여 분석 결과가 생성되는 구체적인 동작은 도 6 및 도 9를 참조하여 상세히 설명한다.According to one embodiment, the analysis result may be generated based on a learning model included in the electronic device 101 or the accident event analysis server and used to generate the analysis result for the accident event. The specific operation of generating analysis results based on the learning model will be described in detail with reference to FIGS. 6 and 9.

다양한 실시 예들에 따른 전자 장치(101)의 프로세서(120)의 동작을, 도 4 내지 도 7을 참조하여 상세히 설명한다.The operation of the processor 120 of the electronic device 101 according to various embodiments will be described in detail with reference to FIGS. 4 to 7.

도 2는 일 실시 예에 따른, 사고 이벤트 분석 시스템(200)의 블록도이다.Figure 2 is a block diagram of an accident event analysis system 200, according to one embodiment.

도 2를 참조하면, 도 1을 참조하여 전술한 전자 장치(101)를 포함하는, 일 실시 예에 따른 사고 이벤트 분석 시스템(200)이 도시된다. 사고 이벤트 분석 시스템(200)은 전자 장치(101), 전자 장치(101)와 통신하는 차량 제어 장치(230) 및 사고 이벤트 분석 서버(250)를 포함할 수 있다. 차량 제어 장치(230) 및 사고 이벤트 분석 서버(250)에 대해, 도 1을 참조하여 전술한 바와 중복되는 설명은 생략한다. Referring to FIG. 2 , an accident event analysis system 200 according to an embodiment is shown, including the electronic device 101 described above with reference to FIG. 1 . The accident event analysis system 200 may include an electronic device 101, a vehicle control device 230 that communicates with the electronic device 101, and an accident event analysis server 250. Descriptions of the vehicle control device 230 and the accident event analysis server 250 that overlap with those described above with reference to FIG. 1 will be omitted.

차량 제어 장치(230)는 도 1을 참조하여 전술한 바와 같이 차량의 기계나 전자 장치를 제어하기 위한 장치로, ECU일 수 있다. 차량 제어 장치(230)는 차량용 센서들을 통해 감지된 정보들을 획득하고, 가공하여 전자 장치(101)로 전송할 수 있다. 예를 들어, 차량 제어 장치(230)는 차량용 센서들을 통해 사고 이벤트의 발생을 감지하고, 사고 이벤트가 발생한 시각 정보를 전자 장치(101)로 전송할 수 있다. 다른 일 례로, 차량 제어 장치(230)는 사고 이벤트를 감지함에 따라, 시각 정보를 기준으로 소정 시간 동안 차량용 센서로 감지된 정보를 제2 주변 환경 정보로서 전자 장치(101)로 전송할 수 있다.As described above with reference to FIG. 1 , the vehicle control device 230 is a device for controlling mechanical or electronic devices of a vehicle and may be an ECU. The vehicle control device 230 may acquire information sensed through vehicle sensors, process it, and transmit it to the electronic device 101. For example, the vehicle control device 230 may detect the occurrence of an accident event through vehicle sensors and transmit information on the time when the accident event occurred to the electronic device 101. As another example, as the vehicle control device 230 detects an accident event, the information detected by the vehicle sensor may be transmitted to the electronic device 101 as second surrounding environment information for a predetermined period of time based on visual information.

사고 이벤트 분석 서버(250)는, 전자 장치(101)의 요청에 따라 사고 이벤트를 분석하기 위한 정보 처리를 수행할 수 있다. 사고 이벤트 분석 서버(250)에는 사고 이벤트에 대한 분석 결과를 생성하기 위해 이용되는 학습 모델이 포함될 수 있고, 사고 이벤트 분석 서버(250)에 포함된 학습 모델은 전자 장치(101)에 포함된 학습 모델보다 연산 속도가 빠를 수 있다. 사고 이벤트 분석 서버(250)의 동작에 대해서는 도 9를 참조하여 상세히 설명한다.The accident event analysis server 250 may perform information processing to analyze the accident event according to a request from the electronic device 101. The accident event analysis server 250 may include a learning model used to generate analysis results for the accident event, and the learning model included in the accident event analysis server 250 is a learning model included in the electronic device 101. The calculation speed may be faster. The operation of the accident event analysis server 250 will be described in detail with reference to FIG. 9.

사고 이벤트 분석 시스템(200)의 동작에 대해서는 도 8 및 도 9를 참조하여 상세히 설명한다.The operation of the accident event analysis system 200 will be described in detail with reference to FIGS. 8 and 9.

도 3은 일 실시 예에 따른 전자 장치가 탑재된 차량(300)을 도시한다.Figure 3 shows a vehicle 300 equipped with an electronic device according to an embodiment.

도 3을 참조하면, 도 1을 참조하여 설명한 전자 장치(101)가 포함되는 차량(300)이 도시된다. 일 실시 예에 따른 차량(300)은 운전자로부터의 입력이 거의 없거나 또는 전혀 없는 상황에서도, 인지된 주변 환경에 따라서 자율 모드(autonomous mode)로 주행할 수 있다. 다시 말해, 차량(300)은 자율주행 차량 또는 ADAS(advanced driver assistance system)을 지원하는 차량일 수 있다.Referring to FIG. 3 , a vehicle 300 including the electronic device 101 described with reference to FIG. 1 is shown. The vehicle 300 according to one embodiment may drive in an autonomous mode according to the perceived surrounding environment, even in situations where there is little or no input from the driver. In other words, the vehicle 300 may be an autonomous vehicle or a vehicle that supports an advanced driver assistance system (ADAS).

주변 환경은 차량(300)에 부착 또는 설치된 하나 이상의 차량용 센서들을 통해 인지될 수 있다. 예를 들어, 하나 이상의 차량용 센서들은 초음파(ultrasonic) 센서, 레이더(RADAR) 센서, 라이다(LiDAR) 센서, 조향각(steering angle) 센서, 가속도 센서, AVM(around view monitor) 용 카메라, 충격 감지 센서 및 사운드 감지 센서 등을 포함할 수 있다. 차량용 센서들은 차량의 전방(310, 320), 사이드 미러(330, 340), 후방(350) 등에 위치할 수 있으나, 기재된 예들로 제한되는 것은 아니다. 일 례로, 차량용 센서들은 차량의 앞 그릴, 뒤 트렁크, 좌/우 바퀴 등에 위치할 수도 있다. 다른 일 례로, 차량용 센서들 중 일부는 차량(300) 내부에 설치될 수 있다. 예를 들어, 차량용 센서는 차량(300) 내부에 부착 또는 설치된 카메라를 포함할 수 있고, 차량 제어 장치(230)는 차량(300) 내부 카메라를 통해 탑승자에 대한 영상을 획득할 수 있다. 주변 환경은 도로, 도로의 상태, 차선의 종류, 주변 차량의 유무, 근접한 차량과의 거리, 날씨, 장애물의 유무 등을 포함할 수 있고, 기재된 예들로 제한되는 것은 아니다.The surrounding environment may be recognized through one or more vehicle sensors attached or installed on the vehicle 300. For example, one or more automotive sensors may include an ultrasonic sensor, a RADAR sensor, a LiDAR sensor, a steering angle sensor, an acceleration sensor, a camera for an AVM (around view monitor), and an impact detection sensor. and a sound detection sensor. Vehicle sensors may be located in the front (310, 320), side mirrors (330, 340), rear (350), etc. of the vehicle, but are not limited to the examples described. For example, automotive sensors may be located on the vehicle's front grill, rear trunk, left/right wheels, etc. As another example, some of the vehicle sensors may be installed inside the vehicle 300. For example, the vehicle sensor may include a camera attached or installed inside the vehicle 300, and the vehicle control device 230 may acquire images of the occupants through the camera inside the vehicle 300. The surrounding environment may include roads, road conditions, types of lanes, presence or absence of surrounding vehicles, distance to nearby vehicles, weather, presence or absence of obstacles, etc., and is not limited to the examples described.

차량용 센서들 중 카메라는, 주차 보조를 위해 차량(300)과 수평한 각도 또는 일정하게 기울어진 각도로 장착될 수도 있으며, 사각 지역이 없도록 하기 위해 어안렌즈(fisheye lens)를 포함하는 카메라가 사용될 수 있다. 예를 들어, 센서는 차량(300)에 빌트인(built-in)되어 있을 수도 있다. Among vehicle sensors, a camera may be mounted at a horizontal angle or a constant tilt angle to the vehicle 300 for parking assistance, and a camera including a fisheye lens may be used to ensure that there are no blind spots. there is. For example, the sensor may be built-in to the vehicle 300.

차량(300)은 주변 환경을 인식하고, 주변 환경에 적합한 자율 주행 경로를 생성할 수 있다. 자율 주행 경로를 따라가도록 자율 주행 차량은 내외부의 기계적인 요소들을 제어할 수 있다. 차량(300)은 자율 주행 경로를 주기적으로 생성할 수 있다.The vehicle 300 can recognize the surrounding environment and create an autonomous driving path suitable for the surrounding environment. Autonomous vehicles can control internal and external mechanical elements to follow an autonomous path. The vehicle 300 may periodically generate an autonomous driving route.

다른 일 측면에 따른, 차량(300)은 어드밴스드 운전자 지원 시스템(ADAS)을 이용하여 운전자의 운전을 보조할 수 있다. ADAS는 충돌 위험시 운전자가 제동장치를 밟지 않아도 스스로 속도를 줄이거나 멈추는 자동 긴급제동 시스템(Autonomous Emergency Braking: AEB), 차선 이탈 시 주행 방향을 조절해 차선을 유지하는 주행 조향보조 시스템(Lane Keep Assist System: LKAS), 사전에 정해 놓은 속도로 달리면서도 앞차와 간격을 알아서 유지하는 어드밴스드 스마트 크루즈 컨트롤(Advanced Smart Cruise Control: ASCC), 사각지대 충돌 위험을 감지해 안전한 차로 변경을 돕는 후측방 충돌 회피 지원 시스템(Active Blind Spot Detection: ABSD), 차량 주변 상황을 시각적으로 보여주는 어라운드 뷰 모니터링 시스템(Around View Monitor: AVM) 등을 포함할 수 있다.According to another aspect, the vehicle 300 may assist the driver's driving using an advanced driver assistance system (ADAS). ADAS includes Autonomous Emergency Braking (AEB), which slows down or stops on its own without the driver having to apply the brakes in the event of a collision, and Lane Keep Assist, which adjusts the driving direction in case of lane departure to maintain the lane. System: LKAS), Advanced Smart Cruise Control (ASCC), which automatically maintains the distance from the car in front while driving at a preset speed, and rear and side collision avoidance support that detects the risk of blind spot collision and helps change lanes safely. It may include a system (Active Blind Spot Detection: ABSD) and an Around View Monitor (AVM) system that visually shows the situation around the vehicle.

차량(300)에 포함된 차량 제어 장치(230)는 차량(300)의 기계 또는 전자 장치를 제어하여, 자율 주행하거나 운전자의 운전을 보조할 수 있고, 기재된 실시예 이외의 다양한 종류의 컨트롤러나 센서 등과 통신할 수 있다.The vehicle control device 230 included in the vehicle 300 can control the mechanical or electronic devices of the vehicle 300 to drive autonomously or assist the driver's driving, and various types of controllers or sensors other than the described embodiment. You can communicate with etc.

일 실시 예에 따르면, 전자 장치(101)는 블랙박스(blackbox)일 수 있고, 도 3과 같이 차량에 부착 또는 설치되거나, 차량에 빌트-인 될 수 있다. 전자 장치(101)는 유선 또는 무선 통신을 통해 차량 제어 장치(230)와 통신을 수행할 수 있다. 예를 들어, 전자 장치(101)에는 블루투스 통신을 위한 USB 동글이 삽입될 수 있고, 전자 장치(101)는 차량 제어 장치(230)와 블루투스 기반 무선 통신을 수행할 수 있다. 다른 일 례로, 전자 장치(101)는 차량 제어 장치(230)와 셀룰러 네트워크(예를 들어, LTE) 기반 무선 통신을 수행할 수 있다. 또 다른 일 례로, 전자 장치(101)가 차량(300)에 빌트-인 되는 경우, 차량 제어 장치(230)와 유선으로 통신을 수행할 수 있다.According to one embodiment, the electronic device 101 may be a black box, and may be attached or installed in a vehicle, or built-in to the vehicle, as shown in FIG. 3. The electronic device 101 may communicate with the vehicle control device 230 through wired or wireless communication. For example, a USB dongle for Bluetooth communication may be inserted into the electronic device 101, and the electronic device 101 may perform Bluetooth-based wireless communication with the vehicle control device 230. As another example, the electronic device 101 may perform wireless communication with the vehicle control device 230 based on a cellular network (eg, LTE). As another example, when the electronic device 101 is built into the vehicle 300, it can communicate with the vehicle control device 230 by wire.

전술한 도 1 내지 도 3, 및 후술할 도 4 내지 도 9에서, 전자 장치(101)는 ECU와 같은 차량 제어 장치(230)와 구분되어 설명되지만 구현에 따라 전자 장치(101)는 차량 제어 장치(230)와 하나로 구현될 수 있다. 예를 들어, 전자 장치(101)가 차량(300)에 빌트-인 되는 경우, 차량 제어 장치(230)와 하나의 장치로 동작할 수 있다.In FIGS. 1 to 3 described above and FIGS. 4 to 9 described later, the electronic device 101 is described separately from the vehicle control device 230 such as an ECU, but depending on implementation, the electronic device 101 may be used as a vehicle control device. It can be implemented as one with (230). For example, when the electronic device 101 is built into the vehicle 300, it can operate as a single device with the vehicle control device 230.

아래에서 도 4 내지 도 9를 참조하여, 전자 장치(101) 또는 사고 이벤트 분석 시스템(200)이 사고 이벤트를 분석하는 방법에 대해 상세히 설명한다.Below, with reference to FIGS. 4 to 9 , how the electronic device 101 or the accident event analysis system 200 analyzes an accident event will be described in detail.

<사고 이벤트를 분석하는 방법><How to analyze accident events>

도 4는 일 실시 예에 따른, 전자 장치(101)의 동작을 설명하기 위한 흐름도이다.FIG. 4 is a flowchart for explaining the operation of the electronic device 101 according to an embodiment.

단계 410 내지 460은 도 1을 참조하여 전술된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있고, 간결하고 명확한 설명을 위해 도 1 내지 도 3을 참조하여 설명한 내용과 중복되는 내용은 생략될 수 있다.Steps 410 to 460 may be performed by the processor 120 of the electronic device 101 described above with reference to FIG. 1, and for concise and clear explanation, content that overlaps with the content described with reference to FIGS. 1 to 3 will be omitted. It may be omitted.

단계 410에서 프로세서(120)는, 전자 장치(101)가 탑재된 차량에 대한 사고 이벤트가 감지됨에 따라, 사고 이벤트 발생 시각(time)에 대한 정보를 획득할 수 있다.In step 410, the processor 120 may obtain information about the time of occurrence of the accident event as an accident event for a vehicle equipped with the electronic device 101 is detected.

도 3을 참조하여 전술한 바와 같이, 전자 장치(101)가 탑재된 차량(300)에는 차량에 포함된 기계나 전자 장치를 제어하기 위한 차량 제어 장치(230)가 포함될 수 있고, 사고 이벤트는 차량 제어 장치(230)와 통신하는 차량용 센서, 또는 전자 장치(101)에 포함된 센서부(140)를 통해 감지될 수 있다. 예를 들어, 사고 이벤트는 차량용 센서 중 충격 감지 센서 또는 센서부(140)의 충격 감지 센서에 의해 감지될 수 있다. As described above with reference to FIG. 3, the vehicle 300 equipped with the electronic device 101 may include a vehicle control device 230 for controlling mechanical or electronic devices included in the vehicle, and an accident event may occur in the vehicle. It may be detected through a vehicle sensor that communicates with the control device 230 or the sensor unit 140 included in the electronic device 101. For example, an accident event may be detected by an impact detection sensor among vehicle sensors or an impact detection sensor of the sensor unit 140.

일 실시 예에 따르면, 사고 이벤트가 차량용 센서들을 통해 감지되고, 차량 제어 장치(230)가 사고 이벤트가 발생한 시각 정보를 획득하여 전자 장치(101)로 전송할 수 있다. 다른 일 실시 예에 따르면, 사고 이벤트가 전자 장치(101)의 센서부(140)를 통해 감지되고, 프로세서(120)는 사고 이벤트가 발생한 시각 정보를 획득할 수 있다.According to one embodiment, an accident event is detected through vehicle sensors, and the vehicle control device 230 may obtain information on the time when the accident event occurred and transmit it to the electronic device 101. According to another embodiment, an accident event is detected through the sensor unit 140 of the electronic device 101, and the processor 120 may obtain information on the time when the accident event occurred.

단계 420에서 프로세서(120)는, 시각 정보에 기초하여 사고 이벤트에 대한 제1 주변 환경 정보를 생성할 수 있다. 일 례로, 전자 장치(101)의 센서부(140)를 통해 사고 이벤트가 감지된 경우, 프로세서(120)는 시각 정보를 기준으로 소정 시간(예를 들어, 전후 5분) 동안 센서부(140)를 통해 감지된 정보를 제1 주변 환경 정보로 생성할 수 있다. 다른 일 례로, 차량 제어 장치가 차량용 센서들을 통해 사고 이벤트를 감지한 경우, 프로세서(120)는 차량 제어 장치로부터 시각 정보를 수신하고, 수신한 시각 정보를 기준으로 소정 시간 동안 센서부(140)를 통해 감지된 정보를 제1 주변 환경 정보로 생성할 수 있다.In step 420, the processor 120 may generate first surrounding environment information about the accident event based on visual information. For example, when an accident event is detected through the sensor unit 140 of the electronic device 101, the processor 120 detects the sensor unit 140 for a predetermined period of time (e.g., 5 minutes before and after) based on the visual information. The sensed information can be generated as first surrounding environment information. As another example, when the vehicle control device detects an accident event through vehicle sensors, the processor 120 receives time information from the vehicle control device and operates the sensor unit 140 for a predetermined time based on the received time information. Information detected through the sensor can be generated as first surrounding environment information.

단계 430에서 프로세서(120)는, 차량을 제어하는 차량 제어 장치로부터 제2 주변 환경 정보를 획득할 수 있다. 일 례로, 전자 장치(101)의 센서부(140)를 통해 사고 이벤트가 감지된 경우, 프로세서(120)는 시각 정보를 기준으로 소정 시간(예를 들어, 충격 감지 시각 전후 5분) 동안 차량용 센서를 통해 감지된 정보를 차량 제어 장치로 요청함에 따라 제2 주변 환경 정보를 획득할 수 있다. 다른 일 례로, 차량 제어 장치가 차량용 센서들을 통해 사고 이벤트를 감지한 경우, 차량 제어 장치는 시각 정보를 기준으로 소정 시간 동안 차량용 센서를 통해 감지된 정보를 전자 장치(101)로 전송할 수 있고, 프로세서(120)는 제2 주변 환경 정보를 획득할 수 있다.In step 430, the processor 120 may obtain second surrounding environment information from a vehicle control device that controls the vehicle. For example, when an accident event is detected through the sensor unit 140 of the electronic device 101, the processor 120 detects the vehicle sensor for a predetermined period of time (for example, 5 minutes before and after the impact detection time) based on the visual information. Second surrounding environment information can be obtained by requesting the sensed information to the vehicle control device. As another example, when the vehicle control device detects an accident event through vehicle sensors, the vehicle control device may transmit the information detected through the vehicle sensor to the electronic device 101 for a predetermined period of time based on visual information, and the processor 120 may obtain second surrounding environment information.

다만 전술한 실시 예들로 제한되는 것은 아니고, 다양한 방법으로 제1 주변 환경 정보 및 제2 주변 환경 정보가 획득될 수 있다. 예를 들어, 차량 제어 장치는 차량용 센서를 통해 감지된 정보를 벌크(bulk)로 전자 장치(101)로 전송하고, 프로세서(120)는 벌크 데이터 중 시각 정보를 기준으로 소정 시간 동안의 데이터를 제2 주변 환경 정보로 획득할 수 있다.However, it is not limited to the above-described embodiments, and the first surrounding environment information and the second surrounding environment information can be obtained in various ways. For example, the vehicle control device transmits information detected through a vehicle sensor in bulk to the electronic device 101, and the processor 120 provides data for a predetermined time based on visual information among the bulk data. 2 Can be obtained from information about the surrounding environment.

단계 440에서 프로세서(120)는, 제1 주변 환경 정보 및 제2 주변 환경 정보에 기초하여 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 결정할 수 있다. 단계 450에서 프로세서(120)는, 복잡도가 임계수준 이하인지 여부를 판단할 수 있다. 복잡도 결정 과정 및 복잡도를 구분하는 임계 수준은 도 5를 참조하여 상세히 설명한다.In step 440, the processor 120 may determine the complexity of information processing for analyzing an accident event based on the first surrounding environment information and the second surrounding environment information. In step 450, the processor 120 may determine whether the complexity is below a critical level. The complexity determination process and the threshold level for classifying complexity will be described in detail with reference to FIG. 5.

단계 460에서 프로세서(120)는, 복잡도가 임계 수준 이하인 경우 제1 주변 환경 정보 및 제2 주변 환경 정보에 기초하여 사고 이벤트 분석을 위한 정보 처리를 수행하고, 분석 결과를 생성할 수 있다. 도 1을 참조하여 전술한 바와 같이, 사고 이벤트를 분석한 결과에는 사고 이벤트와 관련된 외부 객체의 크기 정보, 외부 객체의 종류 정보, 외부 객체의 충격 방향 정보, 외부 객체의 충격 속도 정보 및 차량 내부 탑승자의 상태 정보 중 적어도 어느 하나가 포함될 수 있고, 프로세서(120)는 이를 위한 정보 처리를 수행할 수 있다. 일 례로, 프로세서(120)는 사고 이벤트에 관여한 객체를 인식하고, 객체의 종류를 판단하기 위해, 전자 장치(101)의 센서부(140) 중 촬영 장치를 통해 획득한 차량(300)의 정방향 영상에 대해 DNN 기반의 시맨틱 세그멘테이션(DNN-based semantic segmentation)을 수행할 수 있다. 다만 이는 일 예시일 뿐, 프로세서(120)는 사고 이벤트와 관련된 외부 객체의 크기 정보, 외부 객체의 종류 정보, 외부 객체의 충격 방향 정보,외부 객체의 충격 속도 정보 및 차량 내부 탑승자의 상태 정보를 획득하기 위해 다양한 방법을 이용할 수 있다. In step 460, if the complexity is below a critical level, the processor 120 may perform information processing for accident event analysis based on the first surrounding environment information and the second surrounding environment information and generate an analysis result. As described above with reference to FIG. 1, the results of analyzing the accident event include size information of the external object related to the accident event, type information of the external object, impact direction information of the external object, impact speed information of the external object, and occupants inside the vehicle. At least one of the state information may be included, and the processor 120 may perform information processing for this. For example, the processor 120 recognizes an object involved in an accident event and determines the type of the object by detecting the forward direction of the vehicle 300 obtained through the imaging device of the sensor unit 140 of the electronic device 101. DNN-based semantic segmentation can be performed on images. However, this is only an example, and the processor 120 acquires size information of the external object related to the accident event, type information of the external object, impact direction information of the external object, impact speed information of the external object, and status information of the occupants inside the vehicle. Various methods can be used to do this.

일 실시 예에 따르면, 프로세서(120)는 전자 장치(101)의 센서부(140) 또는 차량용 센서로 획득된 차량 내부 탑승자에 대한 영상을 분석하여 차량 내부 탑승자의 상태 정보를 획득할 수 있다. 일 례로, 프로세서(120)는 차량 사고 이벤트가 발생한 후 차량 내부 영상에서 움직임이 감지되지 않는 경우 탑승자가 의식이 없다고 결정할 수 있다.According to one embodiment, the processor 120 may obtain status information of the occupants inside the vehicle by analyzing images of the occupants inside the vehicle obtained by the sensor unit 140 of the electronic device 101 or a vehicle sensor. For example, the processor 120 may determine that the occupant is unconscious when no movement is detected in an image inside the vehicle after a vehicle accident event occurs.

일 실시 예에 따르면, 프로세서(120)는 사고 이벤트 분석에 있어 전자 장치(101)에 포함된 학습 모델을 이용할 수 있고, 프로세서(120)가 학습 모델을 이용하여 사고 이벤트에 대한 분석 결과를 생성하는 구체적인 동작은 도 6을 참조하여 상세히 설명한다.According to one embodiment, the processor 120 may use a learning model included in the electronic device 101 in analyzing an accident event, and the processor 120 uses the learning model to generate analysis results for the accident event. Specific operations will be described in detail with reference to FIG. 6 .

단계 470에서 프로세서(120)는, 복잡도가 임계 수준을 초과하는 경우 미리 결정된 사고 이벤트 분석 서버(250)로 제1 주변 환경 정보 및 제2 주변 환경 정보를 전송할 수 있다. 사고 이벤트와 관련된 외부 객체의 크기 정보, 외부 객체의 종류 정보, 외부 객체의 충격 방향 정보, 외부 객체의 충격 속도 정보 및 차량 내부 탑승자의 상태 정보 중 적어도 어느 하나를 포함하는 분석 결과는 분석 서버(250)에 의해 생성될 수 있다.In step 470, the processor 120 may transmit the first surrounding environment information and the second surrounding environment information to the predetermined accident event analysis server 250 when the complexity exceeds a critical level. The analysis result including at least one of the size information of the external object related to the accident event, the type information of the external object, the impact direction information of the external object, the impact speed information of the external object, and the status information of the occupants inside the vehicle are sent to the analysis server (250) ) can be created by.

도 5는 일 실시 예에 따른, 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 결정하는 동작을 설명하기 위한 도면이다.Figure 5 is a diagram for explaining an operation of determining the complexity of information processing for analyzing an accident event, according to an embodiment.

단계 510 내지 530은 도 1을 참조하여 전술된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있고, 간결하고 명확한 설명을 위해 도 1 내지 도 4를 참조하여 설명한 내용과 중복되는 내용은 생략될 수 있다.Steps 510 to 530 may be performed by the processor 120 of the electronic device 101 described above with reference to FIG. 1, and for concise and clear explanation, content that overlaps with the content described with reference to FIGS. 1 to 4 will be omitted. It may be omitted.

일 실시 예에 따르면, 단계 510 내지 단계 530은 도 4를 참조하여 설명한 제1 주변 환경 정보 및 제2 주변 환경 정보에 기초하여 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 결정하는 동작(예: 도 4의 단계 440)에 대응될 수 있다. 복잡도를 결정하는 동작과 관련하여, 전자 장치(101)에서 정보 처리를 수행할지 분석 서버(250)에서 정보 처리를 수행할지 여부를 결정하기 위한 복잡도의 임계 수준(예: 도 4의 단계 450의 임계 수준)에 대해서도 함께 설명한다.According to one embodiment, steps 510 to 530 include determining the complexity of information processing for analyzing an accident event based on the first surrounding environment information and the second surrounding environment information described with reference to FIG. 4 (e.g., FIG. It can correspond to step 440) of 4. In connection with the operation of determining complexity, a threshold level of complexity for determining whether to perform information processing in the electronic device 101 or the analysis server 250 (e.g., the threshold in step 450 of FIG. 4 level) is also explained.

단계 510에서 프로세서(120)는 제1 주변 환경 정보와 제2 주변 환경 정보에 기초하여 전자 장치(101)가 포함된 차량이 주차중인지 여부를 판단할 수 있다. 일 례로, 시각 정보를 기준으로 소정 시간에 대해 획득한 제1 주변 환경 정보 중 차량의 정면 촬영 영상에 있어서, 전자 장치(101)의 프로세서(120)는 해당 시간 동안 정면 촬영 영상에서 일정 수준 이상의 움직임이 발생하지 않으면 주차중이라고 판단할 수 있다. 다른 일 례로, 차량 제어 장치(230)로부터 전달받은 제2 주변 환경 정보에는 차량의 상태에 대한 정보(예를 들어, 기어가 주차(P), 주행(D) 및 중립(N) 중 주차(P)로 설정되어 있는지 여부에 대한 정보)가 포함될 수 있고, 프로세서(120)는 차량 상태 정보에 기초하여 차량이 주차중이라고 판단할 수 있다.In step 510, the processor 120 may determine whether the vehicle including the electronic device 101 is parked based on the first surrounding environment information and the second surrounding environment information. For example, in the front view image of a vehicle among the first surrounding environment information acquired for a predetermined time based on visual information, the processor 120 of the electronic device 101 detects movement above a certain level in the front view image during that time. If this does not occur, it can be determined that the vehicle is parking. As another example, the second surrounding environment information received from the vehicle control device 230 includes information about the state of the vehicle (e.g., gear is parked (P), driving (D), and parked (P) in neutral (N). ) may be included, and the processor 120 may determine that the vehicle is parked based on vehicle status information.

차량이 주차중이라고 결정되면, 단계 520에서 프로세서(120)는 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 제1 레벨로 결정할 수 있다. 주차중인 경우 주차중이 아닌 경우보다 상대적으로 차량의 움직임이 적으므로 제1 주변 환경 정보 및 제2 주변 환경 정보에 포함된 영상 정보에서 객체를 인식하거나 추출하는데 필요한 정보 처리량이 적을 수 있다. 프로세서(120)는 정보 처리량이 적기 때문에 복잡도를 상대적으로 낮은 제1 레벨로 결정하고, 전자 장치(101)에서 사고 이벤트를 분석하기 위한 정보 처리를 수행하기로 결정할 수 있다.If it is determined that the vehicle is parked, in step 520 the processor 120 may determine a first level of complexity of information processing for analyzing the accident event. When parking, the vehicle moves relatively less than when not parking, so the amount of information processing required to recognize or extract an object from image information included in the first surrounding environment information and the second surrounding environment information may be less. Since the amount of information processing is small, the processor 120 may determine the complexity to be a relatively low first level and decide to perform information processing to analyze the accident event in the electronic device 101.

차량이 주차중이 아니라고 결정되면, 단계 530에서 프로세서(120)는 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 제1 레벨보다 높은 제2 레벨로 결정할 수 있다. 주차중이 아닌 경우 주차중인 경우보다 상대적으로 차량의 움직임이 많고, 제1 주변 환경 정보 및 제2 주변 환경 정보에 포함된 영상 정보에서 객체를 인식하거나 추출하는데 필요한 정보 처리량이 많을 수 있다. 프로세서(120)는 정보 처리량이 많기 때문에 복잡도를 제1 레벨보다 높은 제2 레벨로 결정하고, 전자 장치(101)와 통신하는 미리 결정된 사고 이벤트 분석 서버(250)에서 사고 이벤트를 분석하기 위한 정보 처리를 수행하기로 결정할 수 있다. 도 4를 참조하여 전술한 바와 같이, 분석 서버(250)에서 정보 처리를 수행하는 경우 프로세서(120)는 분석 서버(250)로 제1 주변 환경 정보 및 제2 주변 환경 정보를 전송할 수 있다.If it is determined that the vehicle is not parked, in step 530 the processor 120 may determine the complexity of information processing for analyzing the accident event to be a second level higher than the first level. When the vehicle is not parked, there is relatively more movement of the vehicle than when it is parked, and the amount of information processing required to recognize or extract an object from the image information included in the first surrounding environment information and the second surrounding environment information may be large. The processor 120 determines the complexity to be a second level higher than the first level because the amount of information processing is large, and processes the information to analyze the accident event in the predetermined accident event analysis server 250 in communication with the electronic device 101. You may decide to carry out . As described above with reference to FIG. 4 , when the analysis server 250 performs information processing, the processor 120 may transmit first surrounding environment information and second surrounding environment information to the analysis server 250 .

도 5를 참조하여 복잡도 결정 방법에 대해 차량이 주차중인지 여부를 기준으로 결정하는 실시 예를 설명하였지만, 이에 제한되는 것은 아니고 다양한 방법으로 복잡도가 결정되고, 복잡도에 따라 전자 장치(101)에서 영상 처리를 수행할지 분석 서버(250)에서 영상 처리를 수행할지 여부가 결정될 수 있다.Referring to FIG. 5, an embodiment of determining the complexity has been described based on whether the vehicle is parked, but it is not limited to this and the complexity is determined in various ways, and the image is processed in the electronic device 101 according to the complexity. It may be determined whether to perform image processing in the analysis server 250.

예를 들어, 전술한 실시 예에서는 차량이 주차중이 아닌 경우 프로세서(120)가 복잡도를 높게 결정한다고 설명하였지만, 차량이 주차중이 아닌 경우에도 복잡도가 낮게 결정되고 전자 장치(101)에서 사고 이벤트를 분석하기 위한 정보 처리가 수행될 수 있다. 일 실시 예에 따르면, 프로세서(120)는 획득된 영상들의 변화량에 따라 복잡도를 결정할 수 있다. 차량이 고속도로에서 일정 범위의 속도로 주행 중인 경우, 획득되는 영상들 간 변화량이 비교적 작을 수 있고, 프로세서(120)는 차량이 주차중이 아니라도 복잡도를 낮게 결정하고, 전자 장치(101)에서 사고 이벤트 분석을 위한 정보 처리를 수행할 수 있다.For example, in the above-described embodiment, it was explained that the processor 120 determines the complexity to be high when the vehicle is not parked, but even when the vehicle is not parked, the complexity is determined to be low and the electronic device 101 detects an accident event. Information processing may be performed to analyze. According to one embodiment, the processor 120 may determine complexity according to the amount of change in the acquired images. When a vehicle is traveling at a certain speed on a highway, the amount of change between acquired images may be relatively small, and the processor 120 determines the complexity to be low even if the vehicle is not parked, and the electronic device 101 determines the accident Information processing for event analysis can be performed.

일 실시 예에 따르면, 프로세서(120)는 제1 주변 환경 정보와 제2 주변 환경 정보의 용량의 합을 기준으로 복잡도를 결정하고, 미리 결정된 임계값에 따라 전자 장치(101)에서 정보 처리를 수행할지, 분석 서버(250)에서 정보 처리를 수행할지 여부를 결정할 수 있다. 예를 들어, 프로세서(120)는 제1 주변 환경 정보 및 제2 주변 환경 정보의 용량의 합이 임계값보다 낮으면 전자 장치(101)에서 정보 처리를 수행하기로 결정할 수 있다. 임계값은 다양하게 결정될 수 있고, 예를 들어 전자 장치(101)에 포함된, 사고 이벤트에 대한 분석 결과를 생성하기 위해 이용되는 학습 모델이 1분 내에 처리할 수 있는 데이터 용량을 기준으로 임계값이 결정될 수 있다.According to one embodiment, the processor 120 determines the complexity based on the sum of the capacities of the first surrounding environment information and the second surrounding environment information and performs information processing in the electronic device 101 according to a predetermined threshold. or whether to perform information processing in the analysis server 250. For example, the processor 120 may determine to perform information processing on the electronic device 101 when the sum of the capacities of the first surrounding environment information and the second surrounding environment information is lower than a threshold. The threshold may be determined in various ways, for example, based on the amount of data that a learning model included in the electronic device 101 and used to generate analysis results for an accident event can process within 1 minute. This can be decided.

다른 일 실시 예에 따르면, 프로세서(120)는 제1 주변 환경 정보와 제2 주변 환경 정보가 획득되는 과정에 연관된 센서의 개수에 기초하여 복잡도를 결정하고, 미리 결정된 임계 개수에 따라 전자 장치(101)에서 정보 처리를 수행할지, 분석 서버(250)에서 정보 처리를 수행할지 여부를 결정할 수 있다. 예를 들어, 제1 주변 환경 정보가 전자 장치(101)의 센서부(140)에 포함된 카메라 및 충격감지센서로 획득되고, 제2 주변 환경 정보가 차량 제어 장치(230)와 통신하는 차량용 센서들 중 전방 및 왼쪽 사이드미러에 설치된 AVM(around view monitor) 용 카메라(예를 들어, 도 3의 320, 330에 설치된 카메라)로 획득될 수 있다. 이 때, 프로세서(120)는 제1 주변 환경 정보와 제2 주변 환경 정보가 획득되는 과정에 연관된 센서의 개수를 4라고 결정할 수 있고, 임계값(예를 들어, 5) 이하이므로 전자 장치(101)에서 정보 처리를 수행하는 것으로 결정할 수 있다.According to another embodiment, the processor 120 determines the complexity based on the number of sensors involved in the process of acquiring the first surrounding environment information and the second surrounding environment information, and configures the electronic device 101 according to a predetermined threshold number. ), or whether to perform information processing in the analysis server 250. For example, the first surrounding environment information is acquired by a camera and an impact detection sensor included in the sensor unit 140 of the electronic device 101, and the second surrounding environment information is obtained by a vehicle sensor that communicates with the vehicle control device 230. Among these, it can be acquired with an around view monitor (AVM) camera installed on the front and left side mirrors (for example, cameras installed at 320 and 330 in FIG. 3). At this time, the processor 120 may determine that the number of sensors involved in the process of acquiring the first surrounding environment information and the second surrounding environment information is 4, and since it is below the threshold (for example, 5), the electronic device 101 ) may decide to perform information processing.

또 다른 일 실시 예에 따르면, 프로세서(120)는 제1 주변 환경 정보와 제2 주변 환경 정보에 포함된 영상에서 객체 검출(object detection)의 난이도에 따라 복잡도를 결정할 수 있다. 예를 들어 제1 주변 환경 정보에는 전자 장치(101)의 센서부(140) 중 카메라로 촬영된 차량의 정면 영상이 포함될 수 있고, 제2 주변 환경 정보에는 차량용 센서들 중 AVM 용 카메라로 촬영된 차량 주변 영상이 포함될 수 있다. 프로세서(120)는 영상 분석을 통해 영상에서 객체 검출이 어려운 경우 사고 이벤트를 분석하기 위한 정보 처리의 복잡도가 높다고 결정할 수 있다. 예를 들어, 촬영된 영상의 조도가 임계값 이하인 경우 프로세서(120)는 객체 검출이 어렵다고 결정할 수 있고, 정보 처리의 복잡도가 높다고 결정할 수 있다. 프로세서(120)는 조도의 임계값을 기준으로 촬영 영상의 조도가 임계값 이상인 경우 전자 장치(101)에서 정보 처리를 수행하는 것으로 결정할 수 있다.According to another embodiment, the processor 120 may determine the complexity according to the difficulty of object detection in images included in the first surrounding environment information and the second surrounding environment information. For example, the first surrounding environment information may include a front image of the vehicle captured by a camera among the sensor units 140 of the electronic device 101, and the second surrounding environment information may include an image captured by a camera for an AVM among vehicle sensors. Video surrounding the vehicle may be included. When it is difficult to detect an object in an image through image analysis, the processor 120 may determine that the complexity of information processing for analyzing an accident event is high. For example, if the illuminance of the captured image is below the threshold, the processor 120 may determine that object detection is difficult and the complexity of information processing may be high. Based on the illuminance threshold, the processor 120 may determine that the electronic device 101 performs information processing when the illuminance of the captured image is greater than or equal to the threshold.

도 6은 일 실시 예에 따른, 전자 장치에서 사고 이벤트 분석을 위한 정보 처리를 수행하는 경우 전자 장치의 동작을 설명하기 위한 도면이다.FIG. 6 is a diagram for explaining the operation of an electronic device when the electronic device performs information processing for accident event analysis, according to an embodiment.

단계 610 내지 단계 640은 도 1을 참조하여 전술된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있고, 간결하고 명확한 설명을 위해 도 1 내지 도 5를 참조하여 설명한 내용과 중복되는 내용은 생략될 수 있다.Steps 610 to 640 may be performed by the processor 120 of the electronic device 101 described above with reference to FIG. 1, and for concise and clear explanation, content overlaps with the content described with reference to FIGS. 1 to 5. can be omitted.

일 실시 예에 따르면, 단계 610 내지 단계 630은 도 4를 참조하여 설명한, 전자 장치(101)에서 정보 처리를 수행하는 경우 프로세서(120)가 제1 주변 환경 정보 및 제2 주변 환경 정보에 기초하여 사고 이벤트에 대한 분석 결과를 생성하는 동작(예: 도 4의 단계 460)에 대응될 수 있다.According to one embodiment, in steps 610 to 630, when information processing is performed in the electronic device 101, which is described with reference to FIG. 4, the processor 120 performs processing based on first surrounding environment information and second surrounding environment information. It may correspond to an operation of generating an analysis result for an accident event (eg, step 460 of FIG. 4).

단계 610 내지 단계 620에서 프로세서(120)는 전자 장치(101)에 포함된 학습 모델로 제1 주변 환경 정보 및 제2 주변 환경 정보를 입력하고, 학습 모델에서 출력되는 분석 결과를 획득할 수 있다. 전자 장치(101)에 포함된 학습 모델은 예를 들어 메모리(130)에 저장되어 있을 수 있고, 업데이트될 수 있다.In steps 610 to 620, the processor 120 may input first surrounding environment information and second surrounding environment information into a learning model included in the electronic device 101 and obtain analysis results output from the learning model. The learning model included in the electronic device 101 may be stored in, for example, the memory 130 and may be updated.

단계 630에서, 프로세서(120)는 분석 결과에 따라 전자 장치(101)에 포함된 학습 모델을 업데이트할 수 있다. 예를 들어, 프로세서(120)는 분석 결과를 학습 모델로 재학습시킬 수 있다.In step 630, the processor 120 may update the learning model included in the electronic device 101 according to the analysis result. For example, the processor 120 may retrain the analysis results into a learning model.

도 4의 단계 460을 참조하여 설명한 바와 같이, 사고 이벤트를 분석한 결과에는 사고 이벤트와 관련된 외부 객체의 크기 정보, 외부 객체의 종류 정보, 외부 객체의 충격 방향 정보, 외부 객체의 충격 속도 정보 및 차량 내부 탑승자의 상태 정보 중 적어도 어느 하나가 포함될 수 있다.As described with reference to step 460 of FIG. 4, the results of analyzing the accident event include size information of the external object related to the accident event, type information of the external object, impact direction information of the external object, impact speed information of the external object, and vehicle At least one of the status information of the occupants inside may be included.

일 실시 예에 따르면 프로세서(120)는 사고 이벤트 분석 결과를 생성(예를 들어, 단계 610 내지 단계 630)한 이후 단계 640에서, 분석 결과를 저장하고, 분석 결과를 전자 장치(101)와 연동된 사용자 단말로 전송할 수 있다. 예를 들어, 전자 장치(101)의 메모리(130)에 분석 결과를 저장하고, 전자 장치(101)와 연동된 스마트폰으로 분석 결과를 전송하거나, 차량 제어 장치(230)로 전송할 수 있다. 차량 제어 장치(230)는 분석 결과를 저장하고, 운전자에게 디스플레이할 수 있다. 예를 들어, 차량의 HUD(head up display), CID(centrer information display), RSE(rear seat entertainment) 및 조수석 디스플레이 중 적어도 어느 하나를 통해 분석 결과가 디스플레이될 수 있다.According to one embodiment, the processor 120 generates an accident event analysis result (e.g., steps 610 to 630), then stores the analysis result in step 640, and stores the analysis result in a device linked to the electronic device 101. It can be transmitted to the user terminal. For example, the analysis results can be stored in the memory 130 of the electronic device 101 and transmitted to a smartphone linked to the electronic device 101 or transmitted to the vehicle control device 230. The vehicle control device 230 may store the analysis results and display them to the driver. For example, the analysis results may be displayed through at least one of the vehicle's head up display (HUD), center information display (CID), rear seat entertainment (RSE), and passenger seat display.

다른 일 실시 예에 따르면, 단계 640에서 프로세서(120)는 분석 결과에 포함된 차량 내부 탑승자의 상태 정보에 따라 긴급 구조 요청을 전송할 수 있다. 예를 들어 프로세서(120)는 사고 이벤트 발생 이후 차량 내부 탑승자에 대한 영상에서 움직임이 감지되지 않는 경우 분석 결과로 탑승자가 의식이 없다는 탑승자 상태 정보를 생성할 수 있고, 차량의 주변에 위치한 병원의 서버, 소방서의 서버 또는 경찰서의 서버로 긴급 구조 요청을 전송할 수 있다.According to another embodiment, in step 640, the processor 120 may transmit an emergency rescue request according to status information of occupants inside the vehicle included in the analysis result. For example, if no movement is detected in the video of the occupants inside the vehicle after an accident event occurs, the processor 120 may generate occupant status information indicating that the occupant is unconscious as a result of the analysis, and may generate occupant status information indicating that the occupant is unconscious, and may generate occupant status information indicating that the occupant is unconscious, and may generate occupant status information indicating that the occupant is unconscious. , an emergency rescue request can be transmitted to the fire department's server or the police station's server.

도 7은 일 실시 예에 따른, 사고 이벤트 분석 서버에서 사고 이벤트 분석을 위한 정보 처리를 수행하는 경우 전자 장치의 동작을 설명하기 위한 도면이다.FIG. 7 is a diagram illustrating the operation of an electronic device when information processing for accident event analysis is performed in an accident event analysis server, according to an embodiment.

단계 710 내지 단계 720은 도 1을 참조하여 전술된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있고, 간결하고 명확한 설명을 위해 도 1 내지 도 6을 참조하여 설명한 내용과 중복되는 내용은 생략될 수 있다.Steps 710 to 720 may be performed by the processor 120 of the electronic device 101 described above with reference to FIG. 1, and for concise and clear explanation, content overlaps with the content described with reference to FIGS. 1 to 6. can be omitted.

일 실시 예에 따르면, 복잡도에 기초하여 미리 결정된 분석 서버(250)에서 사고 이벤트를 분석하기 위한 정보 처리를 수행하는 것으로 결정하고, 분석 서버(250)로 제1 주변 환경 정보 및 제2 주변 환경 정보를 전송하는 동작(예: 도 4의 동작 470) 이후 단계 710 내지 단계 720이 수행될 수 있다.According to one embodiment, it is determined to perform information processing to analyze the accident event in the analysis server 250, which is predetermined based on complexity, and the first surrounding environment information and the second surrounding environment information are sent to the analysis server 250. After the operation of transmitting (e.g., operation 470 of FIG. 4), steps 710 to 720 may be performed.

단계 710에서, 프로세서(120)는 미리 결정된 분석 서버(250)로부터 분석 결과를 수신할 수 있다. 분석 서버(250)에서 분석 결과가 생성되는 동작은 도 9를 참조하여 상세히 설명한다.In step 710, the processor 120 may receive an analysis result from the predetermined analysis server 250. The operation of generating analysis results in the analysis server 250 will be described in detail with reference to FIG. 9.

단계 720에서, 프로세서(120)는 분석 결과를 저장하고, 분석 결과를 전자 장치(101)와 연동된 사용자 단말로 분석 결과를 전송할 수 있다. 단계 720은 도 6의 단계 640과 중복되므로 설명을 생략한다.In step 720, the processor 120 may store the analysis results and transmit the analysis results to the user terminal linked to the electronic device 101. Since step 720 overlaps with step 640 of FIG. 6, description is omitted.

도 8은 일 실시 예에 따른, 사고 이벤트 분석 시스템의 동작을 설명하기 위한 흐름도이다.Figure 8 is a flowchart for explaining the operation of an accident event analysis system according to an embodiment.

단계 810 내지 880은 도 2를 참조하여 전술된 사고 이벤트 분석 시스템(200)의 동작일 수 있고, 도 1을 참조하여 전술한 전자 장치(101)(또는, 전자 장치(101)의 프로세서(120)) 또는 사고 이벤트 분석 서버(250)에 의해 수행될 수 있다. 간결하고 명확한 설명을 위해 도 1 내지 도 7을 참조하여 설명한 내용과 중복되는 내용은 생략될 수 있다.Steps 810 to 880 may be operations of the accident event analysis system 200 described above with reference to FIG. 2 and may be performed by the electronic device 101 (or the processor 120 of the electronic device 101) described above with reference to FIG. 1 ) or may be performed by the accident event analysis server 250. For concise and clear description, content that overlaps with the content described with reference to FIGS. 1 to 7 may be omitted.

단계 810 내지 단계 850에서, 전자 장치(101)는 사고 이벤트가 감지됨에 따라 사고 이벤트 발생 시각에 대한 정보를 획득하고, 제1 주변 환경 정보를 생성하고, 제2 주변 환경 정보를 수신하고, 제1 환경 정보 및 제2 환경 정보에 기초하여 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 결정하고, 임계 수준에 따라 전자 장치(101)에서 사고 이벤트 분석을 위한 정보 처리를 수행할지, 사고 이벤트 분석 서버(250)에서 정보 처리를 수행할지 여부를 결정할 수 있다. In steps 810 to 850, as the accident event is detected, the electronic device 101 acquires information about the time of occurrence of the accident event, generates first surrounding environment information, receives second surrounding environment information, and generates first surrounding environment information. Based on the environmental information and the second environmental information, the complexity of information processing for analyzing the accident event is determined, and depending on the threshold level, whether to perform information processing for accident event analysis in the electronic device 101, the accident event analysis server ( 250), you can decide whether to perform information processing.

전자 장치(101)에서 정보 처리를 수행하는 경우, 단계 860에서 전자 장치(101)는 제1 주변 환경 정보 및 제2 주변 환경 정보에 기초하여 사고 이벤트에 대한 분석 결과를 생성할 수 있다. When information processing is performed in the electronic device 101, in step 860, the electronic device 101 may generate an analysis result for the accident event based on the first surrounding environment information and the second surrounding environment information.

사고 이벤트 분석 서버(250)에서 정보 처리를 수행하는 경우, 단계 870에서 전자 장치(101)는 미리 결정된 분석 서버(250)로 제1 주변 환경 정보 및 제2 주변 환경 정보를 전송할 수 있다.When information processing is performed in the accident event analysis server 250, the electronic device 101 may transmit first surrounding environment information and second surrounding environment information to the predetermined analysis server 250 in step 870.

단계 810 내지 단계 870은 도 4를 참조하여 전술한 전자 장치(101)의 동작(예: 도 4의 단계 410 내지 단계 470)과 중복되므로, 상세한 설명을 생략한다.Since steps 810 to 870 overlap with the operations of the electronic device 101 described above with reference to FIG. 4 (e.g., steps 410 to 470 of FIG. 4 ), detailed description thereof will be omitted.

제1 주변 환경 정보 및 제2 주변 환경 정보가 분석 서버(250)로 전송되면, 단계 880에서 분석 서버(250)가 사고 이벤트에 대한 분석 결과를 생성할 수 있다. 사고 이벤트 분석 서버(250)가 사고 이벤트에 대한 분석 결과를 생성하는 동작은 도 9를 참조하여 상세히 설명한다.When the first surrounding environment information and the second surrounding environment information are transmitted to the analysis server 250, the analysis server 250 may generate an analysis result for the accident event in step 880. The operation of the accident event analysis server 250 to generate analysis results for an accident event will be described in detail with reference to FIG. 9 .

도 9는 일 실시 예에 따른, 사고 이벤트 분석 시스템의 사고 이벤트 분석 서버의 동작을 설명하기 위한 흐름도이다.Figure 9 is a flowchart for explaining the operation of the accident event analysis server of the accident event analysis system, according to one embodiment.

단계 910 내지 단계 940은 도 2를 참조하여 전술된 사고 이벤트 분석 시스템(200)의 사고 이벤트 분석 서버(250)에 의해 수행될 수 있고, 간결하고 명확한 설명을 위해 도 1 내지 도 8을 참조하여 설명한 내용과 중복되는 내용은 생략될 수 있다.Steps 910 to 940 may be performed by the accident event analysis server 250 of the accident event analysis system 200 described above with reference to FIG. 2, and are described with reference to FIGS. 1 to 8 for concise and clear explanation. Content that overlaps with the content may be omitted.

일 실시 예에 따르면, 단계 910 내지 단계 930은 도 8을 참조하여 설명한, 분석 서버(250)에서 정보 처리를 수행하는 경우 분석 서버(250)가 제1 주변 환경 정보 및 제2 주변 환경 정보에 기초하여 사고 이벤트에 대한 분석 결과를 생성하는 동작(예: 도 8의 단계 880)에 대응될 수 있다.According to one embodiment, steps 910 to 930 are performed based on the first surrounding environment information and the second surrounding environment information when the analysis server 250 performs information processing, which is explained with reference to FIG. 8. This may correspond to an operation of generating an analysis result for an accident event (eg, step 880 of FIG. 8).

단계 910 내지 단계 920에서 분석 서버(250)는 분석 서버(250)에 포함된 학습 모델로 제1 주변 환경 정보 및 제2 주변 환경 정보를 입력하고, 학습 모델에서 출력되는 분석 결과를 획득할 수 있다. 도 6을 참조하여 전술한 바와 같이, 분석 결과에는 사고 이벤트와 관련된 외부 객체의 크기 정보, 외부 객체의 종류 정보, 외부 객체의 충격 방향 정보, 외부 객체의 충격 속도 정보 및 차량 내부 탑승자의 상태 정보 중 적어도 어느 하나가 포함될 수 있다.In steps 910 to 920, the analysis server 250 may input first surrounding environment information and second surrounding environment information into a learning model included in the analysis server 250 and obtain analysis results output from the learning model. . As described above with reference to FIG. 6, the analysis results include information on the size of the external object related to the accident event, information on the type of the external object, information on the direction of impact of the external object, information on the impact speed of the external object, and information on the status of the occupants inside the vehicle. At least one may be included.

분석 서버(250)에 포함된, 사고 이벤트에 대한 분석 결과를 생성하기 위해 이용되는 학습 모델은 전자 장치(101)에 포함된 학습 모델(예를 들어, 도 6을 참조하여 전술한 전자 장치(101)에 포함된 학습 모델)보다 성능이 좋을 수 있다. 예를 들어, 분석 서버(250)에 포함된 학습 모델은 전자 장치(101)에 포함된 학습 모델보다 연산 처리 속도가 더 빠를 수 있고, 더 많은 노드(node)로 구성될 수 있다. 일 실시 예에 따르면, 분석 서버(250)에 포함된 학습 모델은 주기적으로 업데이트될 수 있다.The learning model included in the analysis server 250 and used to generate analysis results for the accident event is the learning model included in the electronic device 101 (e.g., the electronic device 101 described above with reference to FIG. 6 ) may perform better than the learning model included in ). For example, the learning model included in the analysis server 250 may have a faster computational processing speed and may be composed of more nodes than the learning model included in the electronic device 101. According to one embodiment, the learning model included in the analysis server 250 may be periodically updated.

단계 930에서, 분석 서버(250)는 분석 결과에 따라 분석 서버(250)에 포함된 학습 모델을 업데이트할 수 있다. 예를 들어, 분석 서버(250)는 분석 결과를 학습 모델로 재학습시킬 수 있다.In step 930, the analysis server 250 may update the learning model included in the analysis server 250 according to the analysis results. For example, the analysis server 250 may retrain the analysis results into a learning model.

도 4를 참조하여 전술한 바와 같이, 분석 서버(250)에서 생성한 사고 이벤트 분석 결과에는 사고 이벤트와 관련된 외부 객체의 크기 정보, 외부 객체의 종류 정보, 외부 객체의 충격 방향 정보, 외부 객체의 충격 속도 정보 및 차량 내부 탑승자의 상태 정보 중 적어도 어느 하나가 포함될 수 있다.As described above with reference to FIG. 4, the accident event analysis results generated by the analysis server 250 include size information of the external object related to the accident event, type information of the external object, impact direction information of the external object, and impact of the external object. At least one of speed information and status information of occupants inside the vehicle may be included.

일 실시 예에 따르면 분석 서버(250)는 사고 이벤트 분석 결과를 생성(예를 들어, 단계 910 내지 단계 930)한 이후 단계 940에서, 분석 결과를 사고 이벤트와 관련된 엔티티(entity)로 전송할 수 있다. 예를 들어, 분석 서버(250)에서 생성된 분석 결과는 차량의 주변에 위치한 소방서의 서버, 경찰서의 서버, 및 차량과 연동된 보험사의 서버 중 적어도 어느 하나로 전송될 수 있다.According to one embodiment, the analysis server 250 may generate an accident event analysis result (eg, steps 910 to 930) and then transmit the analysis result to an entity related to the accident event in step 940. For example, the analysis results generated by the analysis server 250 may be transmitted to at least one of a fire department server located around the vehicle, a police station server, and an insurance company server linked to the vehicle.

다른 일 실시 예에 따르면, 분석 결과는 다시 전자 장치(101)로 전송될 수 있다. 도 6의 동작 640을 참조하여 전술한 바와 같이, 전자 장치(101)는 분석 서버(250)로부터 수신한 분석 결과를 메모리(130)에 저장하고, 전자 장치(101)와 연동된 스마트폰으로 분석 결과를 전송하거나, 차량 제어 장치(230)로 전송할 수 있다. 차량 제어 장치(230)는 분석 결과를 저장하고, 차량의 HUD(head up display), CID(centrer information display), RSE(rear seat entertainment) 및 조수석 디스플레이 중 적어도 어느 하나를 통해 분석 결과를 디스플레이할 수 있다.According to another embodiment, the analysis results may be transmitted back to the electronic device 101. As described above with reference to operation 640 of FIG. 6, the electronic device 101 stores the analysis results received from the analysis server 250 in the memory 130 and analyzes them with a smartphone linked to the electronic device 101. The results can be transmitted or transmitted to the vehicle control device 230. The vehicle control device 230 may store the analysis results and display the analysis results through at least one of the vehicle's head up display (HUD), centerer information display (CID), rear seat entertainment (RSE), and passenger seat display. there is.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, and a field programmable gate (FPGA). It may be implemented using a general-purpose computer or a special-purpose computer, such as an array, programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and software applications running on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include multiple processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on a computer-readable recording medium.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 저장할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. A computer-readable medium may store program instructions, data files, data structures, etc., singly or in combination, and the program instructions recorded on the medium may be specially designed and constructed for the embodiment or may be known and available to those skilled in the art of computer software. there is. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.

위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or multiple software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on this. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

Claims (20)

전자 장치에 의해 수행되는 사고 이벤트 분석 방법에 있어서,
상기 전자 장치가 탑재된 차량에 대한 사고 이벤트가 감지됨에 따라, 상기 사고 이벤트가 발생한 시각(time) 정보를 획득하는 단계;
상기 시각 정보에 기초하여, 상기 사고 이벤트에 대한 제1 주변 환경 정보를 생성하는 단계;
상기 시각 정보에 기초하여, 상기 차량을 제어하는 차량 제어 장치로부터 상기 사고 이벤트에 대한 제2 주변 환경 정보를 획득하는 단계;
상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보에 기초하여 상기 사고 이벤트를 분석하기 위한 정보 처리량을 나타내는 복잡도를 제1 레벨 또는 제2 레벨로 결정하는 단계;
상기 복잡도가 상기 제1 레벨로 결정됨에 따라, 상기 전자 장치가 상기 정보 처리를 수행하는 경우, 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보를 분석함으로써 상기 사고 이벤트에 대한 분석 결과를 생성하는 단계; 및
상기 복잡도가 상기 제2 레벨로 결정됨에 따라, 미리 결정된 분석 서버가 상기 정보 처리를 수행하는 경우, 상기 분석 서버로 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보를 전송하는 단계 - 상기 분석 결과는 상기 분석 서버에 의해 생성됨 -
를 포함하는,
사고 이벤트 분석 방법.
In an accident event analysis method performed by an electronic device,
As an accident event for a vehicle equipped with the electronic device is detected, obtaining information on the time when the accident event occurred;
Based on the visual information, generating first surrounding environment information for the accident event;
Based on the visual information, obtaining second surrounding environment information about the accident event from a vehicle control device that controls the vehicle;
determining a complexity indicating an information processing amount for analyzing the accident event as a first level or a second level based on the first surrounding environment information and the second surrounding environment information;
As the complexity is determined to be the first level, when the electronic device performs the information processing, an analysis result for the accident event is generated by analyzing the first surrounding environment information and the second surrounding environment information. step; and
As the complexity is determined to be the second level, when a predetermined analysis server performs the information processing, transmitting the first surrounding environment information and the second surrounding environment information to the analysis server - the analysis result is generated by the above analysis server -
Including,
How to analyze accident events.
제1항에 있어서,
상기 사고 이벤트는,
상기 전자 장치에 의해 감지되거나, 상기 차량 제어 장치와 통신하는 상기 차량에 탑재된 하나 이상의 차량용 센서에 의해 감지되는,
사고 이벤트 분석 방법.
According to paragraph 1,
The accident event is,
Sensed by the electronic device or by one or more vehicle sensors mounted on the vehicle in communication with the vehicle control device,
How to analyze accident events.
제1항에 있어서,
상기 제1 주변 환경 정보는,
상기 전자 장치와 연결된 촬영 장치, GPS 센서, 충격 감지 센서, 가속도 센서 및 사운드 감지 센서 중 적어도 어느 하나에 기초하여 생성되는,
사고 이벤트 분석 방법.
According to paragraph 1,
The first surrounding environment information is,
Generated based on at least one of a photographing device, a GPS sensor, an impact detection sensor, an acceleration sensor, and a sound detection sensor connected to the electronic device,
How to analyze accident events.
제1항에 있어서,
상기 제2 주변 환경 정보는,
상기 차량에 탑재된 초음파(ultrasonic) 센서, 레이더(RADAR) 센서, 라이다(LiDAR) 센서, 조향각(steering angle) 센서, 가속도 센서, AVM(around view monitor) 용 카메라, 충격 감지 센서 및 사운드 감지 센서 중 적어도 어느 하나를 통해 획득되는,
사고 이벤트 분석 방법.
According to paragraph 1,
The second surrounding environment information is,
Ultrasonic sensor, RADAR sensor, LiDAR sensor, steering angle sensor, acceleration sensor, camera for AVM (around view monitor), shock detection sensor, and sound detection sensor mounted on the vehicle. Obtained through at least one of the
How to analyze accident events.
제1항에 있어서,
상기 복잡도를 제1 레벨 또는 제2 레벨로 결정하는 단계는,
상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보에 기초하여 상기 차량이 주차 중인지 여부를 결정하는 단계;
상기 차량이 주차 중이면, 상기 복잡도를 상기 제1 레벨로 결정하는 단계; 및
상기 차량이 주차 중이 아니면, 상기 복잡도를 상기 제1 레벨보다 높은 상기 제2 레벨로 결정하는 단계
를 포함하는,
사고 이벤트 분석 방법.
According to paragraph 1,
The step of determining the complexity as the first level or the second level is,
determining whether the vehicle is parked based on the first surrounding environment information and the second surrounding environment information;
If the vehicle is parked, determining the complexity to the first level; and
If the vehicle is not parked, determining the complexity to be the second level higher than the first level.
Including,
How to analyze accident events.
제1항에 있어서,
상기 복잡도를 제1 레벨 또는 제2 레벨로 계산하는 단계는,
상기 제1 주변 환경 정보 또는 상기 제2 주변 환경 정보의 획득에 관여한 센서의 개수, 상기 제1 주변 환경 정보와 상기 제2 주변 환경 정보의 용량, 및 상기 제1 주변 환경 정보와 상기 제2 주변 환경 정보에 포함된 영상에서 객체 검출(object detection)의 난이도 중 적어도 어느 하나에 기초하여 상기 정보 처리의 복잡도를 상기 제1 레벨 또는 상기 제2 레벨로 결정하는 단계
를 포함하는,
사고 이벤트 분석 방법.
According to paragraph 1,
The step of calculating the complexity as the first level or the second level is,
The number of sensors involved in acquiring the first surrounding environment information or the second surrounding environment information, the capacity of the first surrounding environment information and the second surrounding environment information, and the first surrounding environment information and the second surrounding environment information. Determining the complexity of the information processing as the first level or the second level based on at least one of the difficulty of object detection in the image included in the environment information
Including,
How to analyze accident events.
제1항에 있어서,
상기 분석 결과는,
상기 사고 이벤트와 관련된 외부 객체의 크기 정보, 상기 외부 객체의 종류 정보, 상기 외부 객체의 충격 방향 정보, 상기 외부 객체의 충격 속도 정보 및 상기 차량 내부의 탑승자의 상태 정보 중 적어도 어느 하나를 포함하는,
사고 이벤트 분석 방법.
According to paragraph 1,
The results of the above analysis are,
Containing at least one of size information of the external object related to the accident event, type information of the external object, impact direction information of the external object, impact speed information of the external object, and status information of the occupants inside the vehicle,
How to analyze accident events.
제1항에 있어서,
상기 분석 결과는 상기 전자 장치가 상기 사고 이벤트에 대한 분석 결과를 생성하기 위해 이용되는 학습 모델 또는 상기 분석 서버가 상기 사고 이벤트에 대한 분석 결과를 생성하기 위해 이용되는 학습 모델에 기초하여 생성되고,
상기 분석 결과는 상기 전자 장치의 학습 모델 또는 상기 분석 서버의 학습 모델을 재학습하기 위해 이용되는,
사고 이벤트 분석 방법.
According to paragraph 1,
The analysis result is generated based on a learning model used by the electronic device to generate an analysis result for the accident event or a learning model used by the analysis server to generate an analysis result for the accident event,
The analysis results are used to retrain the learning model of the electronic device or the learning model of the analysis server,
How to analyze accident events.
제1항에 있어서,
상기 분석 서버가 상기 정보 처리를 수행하는 경우, 상기 분석 서버로부터 상기 분석 결과를 수신하는 단계; 및
상기 분석 결과를 저장하고, 상기 분석 결과를 상기 전자 장치와 연동된 사용자 단말로 전송하는 단계
를 더 포함하는,
사고 이벤트 분석 방법.
According to paragraph 1,
When the analysis server performs the information processing, receiving the analysis result from the analysis server; and
Storing the analysis results and transmitting the analysis results to a user terminal linked to the electronic device.
Containing more,
How to analyze accident events.
제1항에 있어서,
상기 분석 서버가 상기 정보 처리를 수행하는 경우,
상기 분석 결과는 상기 사고 이벤트와 연관된 엔티티(entity) - 상기 엔티티는, 상기 차량의 주변에 위치한 소방서의 서버, 경찰서의 서버, 및 상기 차량과 연동된 보험사의 서버 중 적어도 어느 하나를 포함함 -로 전송되는,
사고 이벤트 분석 방법.
According to paragraph 1,
When the analysis server performs the information processing,
The analysis result is an entity associated with the accident event - the entity includes at least one of a fire department server located around the vehicle, a police station server, and an insurance company server linked to the vehicle. transmitted,
How to analyze accident events.
제1항에 있어서,
상기 차량은, 자율주행 차량(autonomous vehicle) 또는 어드밴스드 운전자 지원 시스템(advanced driver assistance system)을 지원하는 차량인,
사고 이벤트 분석 방법.
According to paragraph 1,
The vehicle is an autonomous vehicle or a vehicle that supports an advanced driver assistance system,
How to analyze accident events.
제1항에 있어서,
상기 전자 장치는 블랙박스(blackbox), 차량용 영상녹화장치(DVRS: Drive Video Record System) 중 어느 하나이고,
상기 차량 제어 장치는 차량용 전자 제어 장치(ECU: Electronic Control Unit)인,
사고 이벤트 분석 방법.
According to paragraph 1,
The electronic device is either a black box or a vehicle video recording system (DVRS: Drive Video Record System),
The vehicle control device is a vehicle electronic control unit (ECU: Electronic Control Unit),
How to analyze accident events.
제1항 내지 제12항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.
A computer-readable recording medium containing a program for performing the method of any one of claims 1 to 12.
사고 이벤트 분석 방법을 수행하는 전자 장치에 있어서,
상기 전자 장치가 탑재된 차량의 사고 이벤트에 대한 제1 주변 환경 정보를 획득하기 위한 센서부;
상기 차량을 제어하는 차량 제어 장치 및 미리 결정된 사고 이벤트 분석 서버와 통신하기 위한 통신부;
컴퓨터로 실행 가능한 명령어들(computer-executable instructions)이 저장된 메모리; 및
상기 메모리에 억세스(access)하여 상기 명령어들을 실행하는 프로세서
를 포함하고,
상기 명령어들은,
상기 사고 이벤트가 감지됨에 따라, 상기 사고 이벤트가 발생한 시각(time) 정보를 획득하고, 상기 시각 정보에 기초하여, 상기 센서부를 통해 상기 제1 주변 환경 정보를 생성하고, 상기 시각 정보에 기초하여, 상기 차량 제어 장치로부터 상기 사고 이벤트에 대한 제2 주변 환경 정보를 획득하고, 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보에 기초하여 상기 사고 이벤트를 분석하기 위한 정보 처리량을 나타내는 복잡도를 제1 레벨 또는 제2 레벨로 결정하고, 상기 복잡도가 상기 제1 레벨로 결정됨에 따라, 상기 전자 장치가 상기 정보 처리를 수행하는 경우, 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보를 분석함으로써 상기 사고 이벤트에 대한 분석 결과를 생성하고, 및 상기 복잡도가 상기 제2 레벨로 결정됨에 따라, 상기 분석 서버가 상기 정보 처리를 수행하는 경우, 상기 분석 서버로 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보를 전송 - 상기 분석 결과는 상기 분석 서버에 의해 생성됨 -
하도록 구성되는,
전자 장치.
In an electronic device performing an accident event analysis method,
a sensor unit configured to acquire first surrounding environment information about an accident event of a vehicle equipped with the electronic device;
a communication unit for communicating with a vehicle control device that controls the vehicle and a predetermined accident event analysis server;
Memory storing computer-executable instructions; and
A processor that accesses the memory and executes the instructions
Including,
The above commands are:
As the accident event is detected, information on the time when the accident event occurred is obtained, and based on the time information, the first surrounding environment information is generated through the sensor unit, and based on the time information, A first complexity indicating the information processing amount for obtaining second surrounding environment information about the accident event from the vehicle control device and analyzing the accident event based on the first surrounding environment information and the second surrounding environment information level or a second level, and as the complexity is determined to be the first level, when the electronic device performs the information processing, the first surrounding environment information and the second surrounding environment information are analyzed to determine the first level. Generating an analysis result for an accident event, and as the complexity is determined to be the second level, when the analysis server performs the information processing, the first surrounding environment information and the second surrounding environment information to the analysis server Transmit environmental information - the analysis results are generated by the analysis server -
configured to,
Electronic devices.
제14항에 있어서,
상기 사고 이벤트는,
상기 센서부에 의해 감지되거나, 상기 차량 제어 장치와 통신하는 상기 차량에 탑재된 하나 이상의 차량용 센서들에 의해 감지되는,
전자 장치.
According to clause 14,
The accident event is,
Sensed by the sensor unit, or detected by one or more vehicle sensors mounted on the vehicle in communication with the vehicle control device,
Electronic devices.
제14항에 있어서,
상기 센서부는,
상기 전자 장치와 연결된 촬영 장치, GPS 센서, 충격 감지 센서, 가속도 센서 및 사운드 감지 센서 중 적어도 어느 하나를 포함하는,
전자 장치.
According to clause 14,
The sensor unit,
Comprising at least one of a photographing device connected to the electronic device, a GPS sensor, an impact detection sensor, an acceleration sensor, and a sound detection sensor,
Electronic devices.
제14항에 있어서,
상기 제2 주변 환경 정보는,
상기 차량에 탑재된 초음파(ultrasonic) 센서, 레이더(RADAR) 센서, 라이다(LiDAR) 센서, 조향각(steering angle) 센서, 가속도 센서, AVM(around view monitor) 용 카메라, 충격 감지 센서 및 사운드 감지 센서 중 적어도 어느 하나를 통해 획득되는,
전자 장치.
According to clause 14,
The second surrounding environment information is,
Ultrasonic sensor, RADAR sensor, LiDAR sensor, steering angle sensor, acceleration sensor, camera for AVM (around view monitor), shock detection sensor, and sound detection sensor mounted on the vehicle. Obtained through at least one of the
Electronic devices.
제14항에 있어서,
상기 복잡도를 제1 레벨 또는 제2 레벨로 결정하는 단계는,
상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보에 기초하여 상기 차량이 주차 중인지 여부를 결정하는 단계;
상기 차량이 주차 중이면, 상기 복잡도를 상기 제1 레벨로 결정하는 단계; 및
상기 차량이 주차 중이 아니면, 상기 복잡도를 상기 제1 레벨보다 높은 상기 제2 레벨로 결정하는 단계
를 포함하는,
전자 장치.
According to clause 14,
The step of determining the complexity as the first level or the second level is,
determining whether the vehicle is parked based on the first surrounding environment information and the second surrounding environment information;
If the vehicle is parked, determining the complexity to the first level; and
If the vehicle is not parked, determining the complexity to be at the second level higher than the first level.
Including,
Electronic devices.
제14항에 있어서,
상기 분석 결과는,
상기 사고 이벤트와 관련된 외부 객체의 크기 정보, 상기 외부 객체의 종류 정보, 상기 외부 객체의 충격 방향 정보, 상기 외부 객체의 충격 속도 정보 및 상기 차량 내부의 탑승자의 상태 정보 중 적어도 어느 하나를 포함하는,
전자 장치.
According to clause 14,
The results of the above analysis are,
Containing at least one of size information of the external object related to the accident event, type information of the external object, impact direction information of the external object, impact speed information of the external object, and status information of the occupants inside the vehicle,
Electronic devices.
차량에 대한 사고 이벤트 분석 시스템에 있어서,
상기 차량에 탑재되어 상기 사고 이벤트가 감지됨에 따라, 상기 사고 이벤트가 발생한 시각(time) 정보를 획득하고, 상기 시각 정보에 기초하여 상기 사고 이벤트에 대한 제1 주변 환경 정보를 생성하고, 상기 시각 정보에 기초하여 상기 차량을 제어하는 차량 제어 장치로부터 상기 사고 이벤트에 대한 제2 주변 환경 정보를 획득하고, 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보에 기초하여 상기 사고 이벤트를 분석하기 위한 정보 처리량을 나타내는 복잡도를 제1 레벨 또는 제2 레벨로 결정하고, 상기 복잡도가 상기 제1 레벨인 경우 상기 사고 이벤트에 대한 분석 결과를 생성하는 전자 장치; 및
상기 복잡도가 상기 제2 레벨인 경우, 상기 전자 장치로부터 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보를 수신하여 상기 사고 이벤트에 대한 분석 결과를 생성하는 사고 이벤트 분석 서버
를 포함하는,
사고 이벤트 분석 시스템.
In an accident event analysis system for a vehicle,
As it is mounted on the vehicle and the accident event is detected, information on the time when the accident event occurred is obtained, and first surrounding environment information about the accident event is generated based on the time information, and the time information Information for obtaining second surrounding environment information about the accident event from a vehicle control device that controls the vehicle based on and analyzing the accident event based on the first surrounding environment information and the second surrounding environment information An electronic device that determines a complexity indicating throughput as a first level or a second level, and generates an analysis result for the accident event when the complexity is the first level; and
When the complexity is the second level, an accident event analysis server that receives the first surrounding environment information and the second surrounding environment information from the electronic device and generates an analysis result for the accident event.
Including,
Accident event analysis system.
KR1020210161219A 2021-11-22 2021-11-22 Electronic device for analyzing an accident event of vehicle and operating method thereof KR102614325B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210161219A KR102614325B1 (en) 2021-11-22 2021-11-22 Electronic device for analyzing an accident event of vehicle and operating method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210161219A KR102614325B1 (en) 2021-11-22 2021-11-22 Electronic device for analyzing an accident event of vehicle and operating method thereof

Publications (2)

Publication Number Publication Date
KR20230075032A KR20230075032A (en) 2023-05-31
KR102614325B1 true KR102614325B1 (en) 2023-12-19

Family

ID=86543810

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210161219A KR102614325B1 (en) 2021-11-22 2021-11-22 Electronic device for analyzing an accident event of vehicle and operating method thereof

Country Status (1)

Country Link
KR (1) KR102614325B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011123814A (en) 2009-12-14 2011-06-23 Clarion Co Ltd Processor for traffic accident information
JP2018180843A (en) 2017-04-11 2018-11-15 株式会社デンソー Data storage device for vehicle
JP2021176090A (en) 2017-08-09 2021-11-04 株式会社ユピテル On-vehicle electronic apparatus, server and client terminal

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102111758B1 (en) * 2013-04-29 2020-06-08 팅크웨어(주) Image-processing Apparatus for Car and Method of Sharing Data Using The Same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011123814A (en) 2009-12-14 2011-06-23 Clarion Co Ltd Processor for traffic accident information
JP2018180843A (en) 2017-04-11 2018-11-15 株式会社デンソー Data storage device for vehicle
JP2021176090A (en) 2017-08-09 2021-11-04 株式会社ユピテル On-vehicle electronic apparatus, server and client terminal

Also Published As

Publication number Publication date
KR20230075032A (en) 2023-05-31

Similar Documents

Publication Publication Date Title
JP6724986B2 (en) Method and system for adaptive detection and application of horns for autonomous vehicles
US11367354B2 (en) Traffic prediction based on map images for autonomous driving
EP3324332B1 (en) Method and system to predict vehicle traffic behavior for autonomous vehicles to make driving decisions
US10668925B2 (en) Driver intention-based lane assistant system for autonomous driving vehicles
US10457294B1 (en) Neural network based safety monitoring system for autonomous vehicles
EP3332300B1 (en) Method and system to construct surrounding environment for autonomous vehicles to make driving decisions
EP3605491A1 (en) Use sub-system of autonomous driving vehicles (adv) for police car patrol
EP3378707B1 (en) Collision prediction and forward airbag deployment system for autonomous driving vehicles
US20190009713A1 (en) System and method for generating a parking alert
US10507813B2 (en) Method and system for automated vehicle emergency light control of an autonomous driving vehicle
CN111133448A (en) Controlling autonomous vehicles using safe arrival times
KR102613792B1 (en) Imaging device, image processing device, and image processing method
CN113561963B (en) Parking method and device and vehicle
CN109085818B (en) Method and system for controlling door lock of autonomous vehicle based on lane information
US11107227B1 (en) Object detection based on three-dimensional distance measurement sensor point cloud data
US20220383749A1 (en) Signal processing device, signal processing method, program, and mobile device
EP4264567A1 (en) Available parking space identification device, available parking space identification method, and program
EP3700796B1 (en) Methods for obstacle filtering for non-nudge planning system in autonomous driving vehicle
KR102094405B1 (en) Method and apparatus for determining an accident using an image
KR102614325B1 (en) Electronic device for analyzing an accident event of vehicle and operating method thereof
KR101875517B1 (en) Method and apparatus for processing a image
US20210341926A1 (en) Dynamic tire rotation during collision
CN114511834A (en) Method and device for determining prompt information, electronic equipment and storage medium
KR20240049782A (en) System for detecting vehicle object collision risk based on aritificial intelligence
CN114841336A (en) Patching a deployed deep neural network for autonomous machine applications

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant