KR102614325B1 - Electronic device for analyzing an accident event of vehicle and operating method thereof - Google Patents
Electronic device for analyzing an accident event of vehicle and operating method thereof Download PDFInfo
- Publication number
- KR102614325B1 KR102614325B1 KR1020210161219A KR20210161219A KR102614325B1 KR 102614325 B1 KR102614325 B1 KR 102614325B1 KR 1020210161219 A KR1020210161219 A KR 1020210161219A KR 20210161219 A KR20210161219 A KR 20210161219A KR 102614325 B1 KR102614325 B1 KR 102614325B1
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- information
- surrounding environment
- environment information
- accident event
- Prior art date
Links
- 238000011017 operating method Methods 0.000 title 1
- 238000004458 analytical method Methods 0.000 claims abstract description 190
- 230000010365 information processing Effects 0.000 claims abstract description 74
- 230000000007 visual effect Effects 0.000 claims abstract description 13
- 238000001514 detection method Methods 0.000 claims description 31
- 238000004891 communication Methods 0.000 claims description 20
- 238000000034 method Methods 0.000 claims description 16
- 230000001133 acceleration Effects 0.000 claims description 11
- 230000007613 environmental effect Effects 0.000 claims description 3
- 230000035939 shock Effects 0.000 claims 2
- 238000012545 processing Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 10
- 208000003443 Unconsciousness Diseases 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 201000007694 Athabaskan brainstem dysgenesis syndrome Diseases 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 208000020006 human HOXA1 syndromes Diseases 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0841—Registering performance data
- G07C5/085—Registering performance data using electronic data carriers
- G07C5/0866—Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01D—MEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
- G01D21/00—Measuring or testing not otherwise provided for
- G01D21/02—Measuring two or more variables by means not covered by a single other subclass
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P15/00—Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
- G01P15/02—Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration by making use of inertia forces using solid seismic masses
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/008—Registering or indicating the working of vehicles communicating information to a remotely located station
Abstract
차량의 사고 이벤트 분석 결과를 생성하기 위해, 차량에 탑재된 전자 장치는, 전자 장치가 탑재된 차량에 대한 사고 이벤트가 감지됨에 따라, 사고 이벤트가 발생한 시각 정보를 획득하고, 시각 정보에 기초하여, 사고 이벤트에 대한 제1 주변 환경 정보를 생성하고, 시각 정보에 기초하여, 차량을 제어하는 차량 제어 장치로부터 사고 이벤트에 대한 제2 주변 환경 정보를 획득하고, 제1 주변 환경 정보 및 제2 주변 환경 정보에 기초하여 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 결정하고, 복잡도에 기초하여, 전자 장치가 정보 처리를 수행하는 경우, 제1 주변 환경 정보 및 제2 주변 환경 정보를 분석함으로써 사고 이벤트에 대한 분석 결과를 생성하고, 및 복잡도에 기초하여, 미리 결정된 분석 서버가 정보 처리를 수행하는 경우, 분석 서버로 제1 주변 환경 정보 및 제2 주변 환경 정보를 전송할 수 있다. 전자 장치가 분석 서버로 제1 주변 환경 정보 및 제2 주변 환경 정보를 전송하는 경우, 분석 결과는 분석 서버에 의해 생성될 수 있다. 그 외에도 다양한 실시예들이 가능할 수 있다.In order to generate an accident event analysis result of the vehicle, the electronic device mounted on the vehicle acquires time information at which the accident event occurred as an accident event for the vehicle equipped with the electronic device is detected, and based on the time information, Generating first surrounding environment information for an accident event, based on the visual information, obtaining second surrounding environment information for an accident event from a vehicle control device that controls the vehicle, the first surrounding environment information and the second surrounding environment Determine the complexity of information processing for analyzing an accident event based on the information, and based on the complexity, when the electronic device performs information processing, analyze the first surrounding environment information and the second surrounding environment information to determine the complexity of the information processing to analyze the accident event. If an analysis result is generated and a predetermined analysis server performs information processing based on complexity, the first surrounding environment information and the second surrounding environment information may be transmitted to the analysis server. When the electronic device transmits the first surrounding environment information and the second surrounding environment information to the analysis server, analysis results may be generated by the analysis server. In addition, various embodiments may be possible.
Description
아래의 실시예들은 차량의 사고 이벤트를 분석하는 방법에 관한 것이다.The embodiments below relate to a method for analyzing a vehicle accident event.
자율 주행 차량 또는 ADAS(advanced driver assistance system)을 지원하는 차량은 하나 이상의 센서들을 이용하여 차량 주변의 상황을 인식하고, 인식된 상황에 대해 적절한 차량의 제어가 요구된다. 예를 들어, 차량 주변의 상황을 인식하기 위해, 도로의 차선 및 차량 주변의 오브젝트가 검출된다. 차선 또는 오브젝트를 검출하기 위해 차량의 카메라를 이용하여 이미지를 생성하고, 이미지 내의 오브젝트를 식별할 수 있다.Autonomous vehicles or vehicles supporting ADAS (advanced driver assistance system) use one or more sensors to recognize situations around the vehicle, and appropriate vehicle control is required for the recognized situations. For example, to recognize the situation around the vehicle, the lanes of the road and objects around the vehicle are detected. To detect lanes or objects, images can be created using the vehicle's camera, and objects within the image can be identified.
차량에 충격이 감지되는 등 사고 이벤트가 발생하는 경우, 사고 이벤트를 분석하기 위해 다양한 정보 처리가 필요할 수 있다. 예를 들어, 사고 이벤트 분석 결과 촬영된 영상에서 객체가 인식되고, 객체의 종류가 판단되고, 충격 방향 및 충격 속도 등이 결정될 수 있다. 차량 사고 이벤트 분석을 위한 정보 처리에는 높은 계산량이 필요할 수 있고, 차량 내 전자 장치에서는 성능의 한계로 인해 높은 계산량의 정보 처리가 불가능할 수 있다.When an accident event occurs, such as when an impact is detected in a vehicle, various information processing may be required to analyze the accident event. For example, as a result of accident event analysis, an object may be recognized in a captured image, the type of object may be determined, and the direction and speed of impact may be determined. Information processing for vehicle accident event analysis may require a high computational amount, and high computational information processing may not be possible in electronic devices within the vehicle due to performance limitations.
ECU(electronic control unit)와 같은 차량 제어 장치는 차량에 부착 또는 설치된 센서들을 통해 다양한 정보를 획득할 수 있으나, 보다 정확한 차량의 사고 이벤트 분석을 위해 더 많은 정보가 필요할 수 있다.A vehicle control device such as an ECU (electronic control unit) can obtain various information through sensors attached or installed on the vehicle, but more information may be needed for more accurate analysis of vehicle accident events.
다만, 기술적 과제는 상술한 기술적 과제들로 한정되는 것은 아니며, 또 다른 기술적 과제들이 존재할 수 있다.However, technical challenges are not limited to the above-mentioned technical challenges, and other technical challenges may exist.
일 실시 예에 따르면, 전자 장치에 의해 수행되는 사고 이벤트 분석 방법은, 상기 전자 장치가 탑재된 차량에 대한 사고 이벤트가 감지됨에 따라, 상기 사고 이벤트가 발생한 시각 정보를 획득하는 단계; 상기 시각(time) 정보에 기초하여, 상기 사고 이벤트에 대한 제1 주변 환경 정보를 생성하는 단계; 상기 시각 정보에 기초하여, 상기 차량을 제어하는 차량 제어 장치로부터 상기 사고 이벤트에 대한 제2 주변 환경 정보를 획득하는 단계; 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보에 기초하여 상기 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 결정하는 단계; 상기 복잡도에 기초하여, 상기 전자 장치가 상기 정보 처리를 수행하는 경우, 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보를 분석함으로써 상기 사고 이벤트에 대한 분석 결과를 생성하는 단계; 및 상기 복잡도에 기초하여, 미리 결정된 분석 서버가 상기 정보 처리를 수행하는 경우, 상기 분석 서버로 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보를 전송하는 단계 - 상기 분석 결과는 상기 분석 서버에 의해 생성됨 -를 포함할 수 있다.According to one embodiment, an accident event analysis method performed by an electronic device includes: acquiring time information at which the accident event occurred when an accident event for a vehicle equipped with the electronic device is detected; Based on the time information, generating first surrounding environment information for the accident event; Based on the visual information, obtaining second surrounding environment information about the accident event from a vehicle control device that controls the vehicle; determining a complexity of information processing for analyzing the accident event based on the first surrounding environment information and the second surrounding environment information; Based on the complexity, when the electronic device performs the information processing, generating an analysis result for the accident event by analyzing the first surrounding environment information and the second surrounding environment information; and based on the complexity, when a predetermined analysis server performs the information processing, transmitting the first surrounding environment information and the second surrounding environment information to the analysis server - the analysis result is sent to the analysis server. Created by - may include.
일 실시 예에 따르면, 상기 사고 이벤트는, 상기 전자 장치에 의해 감지되거나, 상기 차량 제어 장치와 통신하는 상기 차량에 탑재된 하나 이상의 차량용 센서에 의해 감지될 수 있다.According to one embodiment, the accident event may be detected by the electronic device or by one or more vehicle sensors mounted on the vehicle that communicate with the vehicle control device.
일 실시 예에 따르면, 상기 제1 주변 환경 정보는, 상기 전자 장치와 연결된 촬영 장치, GPS 센서 및 충격 감지 센서, 가속도 센서 및 사운드 감지 센서 중 적어도 어느 하나에 기초하여 생성될 수 있다.According to one embodiment, the first surrounding environment information may be generated based on at least one of a photographing device, a GPS sensor, an impact detection sensor, an acceleration sensor, and a sound detection sensor connected to the electronic device.
일 실시 예에 따르면, 상기 제2 주변 환경 정보는, 상기 차량에 탑재된 초음파(ultrasonic) 센서, 레이더(RADAR) 센서, 라이다(LiDAR) 센서, 조향각(steering angle) 센서, 가속도 센서, AVM(around view monitor) 용 카메라, 충격 감지 센서 및 사운드 감지 센서 중 적어도 어느 하나를 통해 획득될 수 있다.According to one embodiment, the second surrounding environment information includes an ultrasonic sensor, a RADAR sensor, a LiDAR sensor, a steering angle sensor, an acceleration sensor, and an AVM ( It can be obtained through at least one of a camera for (around view monitor), an impact detection sensor, and a sound detection sensor.
일 실시 예에 따르면, 상기 복잡도를 결정하는 단계는, 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보에 기초하여 상기 차량이 주차 중인지 여부를 결정하는 단계; 상기 차량이 주차 중이면, 상기 복잡도를 제1 레벨로 결정하는 단계; 및 상기 차량이 주차 중이 아니면, 상기 복잡도를 상기 제1 레벨보다 높은 제2 레벨로 결정하는 단계를 포함할 수 있다.According to one embodiment, determining the complexity includes determining whether the vehicle is parked based on the first surrounding environment information and the second surrounding environment information; If the vehicle is parked, determining the complexity to be a first level; and if the vehicle is not parked, determining the complexity to be a second level higher than the first level.
일 실시 예에 따르면, 상기 복잡도를 결정하는 단계는, 상기 제1 주변 환경 정보 또는 상기 제2 주변 환경 정보의 획득에 관여한 센서의 개수, 상기 제1 주변 환경 정보와 상기 제2 주변 환경 정보의 용량, 및 상기 제1 주변 환경 정보와 상기 제2 주변 환경 정보에 포함된 영상에서 객체 검출(object detection)의 난이도 중 적어도 어느 하나에 기초하여 상기 정보 처리의 복잡도를 결정하는 단계를 포함할 수 있다.According to one embodiment, the step of determining the complexity includes determining the number of sensors involved in acquiring the first surrounding environment information or the second surrounding environment information, and the number of sensors involved in acquiring the first surrounding environment information and the second surrounding environment information. It may include determining the complexity of the information processing based on at least one of capacity and difficulty of object detection in the image included in the first surrounding environment information and the second surrounding environment information. .
일 실시 예에 따르면, 상기 분석 결과는, 상기 사고 이벤트와 관련된 외부 객체의 크기 정보, 상기 외부 객체의 종류 정보, 상기 외부 객체의 충격 방향 정보, 상기 외부 객체의 충격 속도 정보 및 상기 차량 내부의 탑승자의 상태 정보 중 적어도 어느 하나를 포함할 수 있다.According to one embodiment, the analysis result includes size information of the external object related to the accident event, type information of the external object, impact direction information of the external object, impact speed information of the external object, and occupants inside the vehicle. It may include at least one of the status information.
일 실시 예에 따르면, 상기 분석 결과는 상기 전자 장치가 상기 사고 이벤트에 대한 분석 결과를 생성하기 위해 이용되는 학습 모델 또는 상기 분석 서버가 상기 사고 이벤트에 대한 분석 결과를 생성하기 위해 이용되는 학습 모델에 기초하여 생성되고, 상기 분석 결과는 상기 전자 장치의 학습 모델 또는 상기 분석 서버의 학습 모델을 재학습하기 위해 이용될 수 있다.According to one embodiment, the analysis result is a learning model used by the electronic device to generate an analysis result for the accident event or a learning model used by the analysis server to generate an analysis result for the accident event. The analysis result may be used to retrain the learning model of the electronic device or the learning model of the analysis server.
일 실시 예에 따르면, 상기 분석 서버가 상기 정보 처리를 수행하는 경우, 상기 분석 서버로부터 상기 분석 결과를 수신하는 단계; 및 상기 분석 결과를 저장하고, 상기 분석 결과를 상기 전자 장치와 연동된 사용자 단말로 전송하는 단계를 더 포함할 수 있다. According to one embodiment, when the analysis server performs the information processing, receiving the analysis result from the analysis server; And it may further include storing the analysis results and transmitting the analysis results to a user terminal linked to the electronic device.
일 실시 예에 따르면, 상기 분석 서버가 상기 정보 처리를 수행하는 경우, 상기 분석 결과는 상기 사고 이벤트와 연관된 엔티티(entity) - 상기 엔티티는, 상기 차량의 주변에 위치한 소방서의 서버, 경찰서의 서버, 및 상기 차량과 연동된 보험사의 서버 중 적어도 어느 하나를 포함함 -로 전송될 수 있다.According to one embodiment, when the analysis server performs the information processing, the analysis result is an entity associated with the accident event - the entity is a server of a fire department, a server of a police station, located around the vehicle, and at least one of an insurance company's server linked to the vehicle.
일 실시 예에 따르면, 상기 차량은, 자율주행 차량(autonomous vehicle) 또는 어드밴스드 운전자 지원 시스템(advanced driver assistance system)을 지원하는 차량일 수 있다.According to one embodiment, the vehicle may be an autonomous vehicle or a vehicle supporting an advanced driver assistance system.
일 실시 예에 따르면, 상기 전자 장치는 블랙박스(blackbox), 차량용 영상녹화장치(DVRS: Drive Video Record System) 중 어느 하나이고, 상기 차량 제어 장치는 차량용 전자 제어 장치(ECU: Electronic Control Unit)일 수 있다.According to one embodiment, the electronic device is one of a black box and a vehicle video recording system (DVRS: Drive Video Record System), and the vehicle control device is a vehicle electronic control unit (ECU: Electronic Control Unit). You can.
일 실시 예에 따르면, 사고 이벤트 분석 방법을 수행하는 전자 장치는, 상기 전자 장치가 탑재된 차량의 사고 이벤트에 대한 제1 주변 환경 정보를 획득하기 위한 센서부; 상기 차량을 제어하는 차량 제어 장치 및 미리 결정된 사고 이벤트 분석 서버와 통신하기 위한 통신부; 컴퓨터로 실행 가능한 명령어들(computer-executable instructions)이 저장된 메모리; 및 상기 메모리에 억세스(access)하여 상기 명령어들을 실행하는 프로세서를 포함하고, 상기 명령어들은, 상기 사고 이벤트가 감지됨에 따라, 상기 사고 이벤트가 발생한 시각(time) 정보를 획득하고, 상기 시각 정보에 기초하여, 상기 센서부를 통해 상기 제1 주변 환경 정보를 생성하고, 상기 시각 정보에 기초하여, 상기 차량 제어 장치로부터 상기 사고 이벤트에 대한 제2 주변 환경 정보를 획득하고, 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보에 기초하여 상기 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 결정하고, 상기 복잡도에 기초하여, 상기 전자 장치가 상기 정보 처리를 수행하는 경우, 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보를 분석함으로써 상기 사고 이벤트에 대한 분석 결과를 생성하고, 및 상기 복잡도에 기초하여, 상기 분석 서버가 상기 정보 처리를 수행하는 경우, 상기 분석 서버로 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보를 전송 - 상기 분석 결과는 상기 분석 서버에 의해 생성됨 -하도록 구성될 수 있다.According to one embodiment, an electronic device that performs an accident event analysis method includes: a sensor unit for acquiring first surrounding environment information about an accident event of a vehicle on which the electronic device is mounted; a communication unit for communicating with a vehicle control device that controls the vehicle and a predetermined accident event analysis server; Memory storing computer-executable instructions; and a processor that accesses the memory and executes the instructions, wherein the instructions obtain information on the time when the accident event occurred as the accident event is detected, and execute information based on the time information. Thus, the first surrounding environment information is generated through the sensor unit, and based on the visual information, second surrounding environment information about the accident event is acquired from the vehicle control device, and the first surrounding environment information and the Determine the complexity of information processing for analyzing the accident event based on the second surrounding environment information, and when the electronic device performs the information processing based on the complexity, the first surrounding environment information and the first 2 Generate an analysis result for the accident event by analyzing surrounding environment information, and based on the complexity, when the analysis server performs the information processing, send the first surrounding environment information and the first to the analysis server. 2 It may be configured to transmit surrounding environment information - the analysis result is generated by the analysis server.
일 실시 예에 따르면, 상기 사고 이벤트는, 상기 센서부에 의해 감지되거나, 상기 차량 제어 장치와 통신하는 상기 차량에 탑재된 하나 이상의 차량용 센서들에 의해 감지될 수 있다.According to one embodiment, the accident event may be detected by the sensor unit or by one or more vehicle sensors mounted on the vehicle that communicate with the vehicle control device.
일 실시 예에 따르면, 상기 센서부는, 상기 전자 장치와 연결된 촬영 장치, GPS 센서, 충격 감지 센서, 가속도 센서 및 사운드 감지 센서 중 적어도 어느 하나를 포함할 수 있다.According to one embodiment, the sensor unit may include at least one of a photographing device, a GPS sensor, an impact detection sensor, an acceleration sensor, and a sound detection sensor connected to the electronic device.
일 실시 예에 따르면, 상기 제2 주변 환경 정보는, 상기 차량에 탑재된 초음파(ultrasonic) 센서, 레이더(RADAR) 센서, 라이다(LiDAR) 센서, 조향각(steering angle) 센서, 가속도 센서, AVM(around view monitor) 용 카메라, 충격 감지 센서 및 사운드 감지 센서 중 적어도 어느 하나를 통해 획득될 수 있다.According to one embodiment, the second surrounding environment information includes an ultrasonic sensor, a RADAR sensor, a LiDAR sensor, a steering angle sensor, an acceleration sensor, and an AVM ( It can be obtained through at least one of a camera for (around view monitor), an impact detection sensor, and a sound detection sensor.
일 실시 예에 따르면, 상기 복잡도를 결정하는 단계는, 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보에 기초하여 상기 차량이 주차 중인지 여부를 결정하는 단계; 상기 차량이 주차 중이면, 상기 복잡도를 제1 레벨로 결정하는 단계; 및 상기 차량이 주차 중이 아니면, 상기 복잡도를 상기 제1 레벨보다 높은 제2 레벨로 결정하는 단계를 포함할 수 있다.According to one embodiment, determining the complexity includes determining whether the vehicle is parked based on the first surrounding environment information and the second surrounding environment information; If the vehicle is parked, determining the complexity to be a first level; and if the vehicle is not parked, determining the complexity to be a second level higher than the first level.
일 실시 예에 따르면, 상기 분석 결과는, 상기 사고 이벤트와 관련된 외부 객체의 크기 정보, 상기 외부 객체의 종류 정보, 상기 외부 객체의 충격 방향 정보, 상기 외부 객체의 충격 속도 정보 및 상기 차량 내부의 탑승자의 상태 정보 중 적어도 어느 하나를 포함할 수 있다.According to one embodiment, the analysis result includes size information of the external object related to the accident event, type information of the external object, impact direction information of the external object, impact speed information of the external object, and occupants inside the vehicle. It may include at least one of the status information.
일 실시 예에 따르면, 차량에 대한 사고 이벤트 분석 시스템은, 상기 차량에 탑재되어 상기 사고 이벤트가 감지됨에 따라, 상기 사고 이벤트가 발생한 시각(time) 정보를 획득하고, 상기 시각 정보에 기초하여 상기 사고 이벤트에 대한 제1 주변 환경 정보를 생성하고, 상기 시각 정보에 기초하여 상기 차량을 제어하는 차량 제어 장치로부터 상기 사고 이벤트에 대한 제2 주변 환경 정보를 획득하고, 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보에 기초하여 상기 사고 이벤트를 분석하기 위한 복잡도를 결정하고, 상기 복잡도가 임계 수준 이하이면 상기 사고 이벤트에 대한 분석 결과를 생성하는 전자 장치; 및 상기 복잡도가 상기 임계 수준을 초과하면, 상기 전자 장치로부터 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보를 수신하여 상기 사고 이벤트에 대한 분석 결과를 생성하는 사고 이벤트 분석 서버를 포함할 수 있다.According to one embodiment, an accident event analysis system for a vehicle is mounted on the vehicle and, as the accident event is detected, obtains information on the time when the accident event occurred, and based on the time information, the accident event is detected. Generate first surrounding environment information for an event, obtain second surrounding environment information for the accident event from a vehicle control device that controls the vehicle based on the visual information, and obtain the first surrounding environment information and the first surrounding environment information. 2 an electronic device that determines a complexity for analyzing the accident event based on surrounding environment information and generates an analysis result for the accident event if the complexity is below a critical level; And when the complexity exceeds the threshold level, it may include an accident event analysis server that receives the first surrounding environment information and the second surrounding environment information from the electronic device and generates an analysis result for the accident event. .
차량에는 차량용 영상녹화장치(DVRS: Drive Video Record System), 예를 들어 블랙박스(blackbox)가 포함될 수 있고, 차량에 부착 또는 설치된 센서들을 통해 획득한 정보뿐만 아니라 차량용 영상녹화장치로 획득한 정보들에 기초하여 보다 정확하게 사고 이벤트를 분석하는 전자 장치 및 시스템이 제공될 수 있다.A vehicle may include a vehicle video recording system (DVRS: Drive Video Record System), for example, a black box, and information obtained through sensors attached or installed in the vehicle as well as information obtained by the vehicle video recording device. Based on this, electronic devices and systems that analyze accident events more accurately can be provided.
사고 이벤트를 분석하기 위한 정보 처리의 복잡도에 따라 적응적으로 전자 장치 또는 사고 이벤트 분석 서버에서 사고 이벤트를 분석하기 위한 정보 처리를 수행하는 시스템이 제공될 수 있다.A system that adaptively performs information processing for analyzing an accident event in an electronic device or an accident event analysis server may be provided depending on the complexity of information processing for analyzing an accident event.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.In addition, various effects that can be directly or indirectly identified through this document may be provided.
도 1은 일 실시 예에 따른, 전자 장치의 블록도이다.
도 2는 일 실시 예에 따른, 사고 이벤트 분석 시스템의 블록도이다.
도 3은 일 실시 예에 따른, 전자 장치가 탑재된 차량을 도시한다.
도 4는 일 실시 예에 따른, 전자 장치의 동작을 설명하기 위한 흐름도이다.
도 5는 일 실시 예에 따른, 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 결정하는 동작을 설명하기 위한 도면이다.
도 6은 일 실시 예에 따른, 전자 장치에서 사고 이벤트 분석을 위한 정보 처리를 수행하는 경우 전자 장치의 동작을 설명하기 위한 도면이다.
도 7은 일 실시 예에 따른, 사고 이벤트 분석 서버에서 사고 이벤트 분석을 위한 정보 처리를 수행하는 경우 전자 장치의 동작을 설명하기 위한 도면이다.
도 8은 일 실시 예에 따른, 사고 이벤트 분석 시스템의 동작을 설명하기 위한 흐름도이다.
도 9는 일 실시 예에 따른, 사고 이벤트 분석 시스템의 사고 이벤트 분석 서버의 동작을 설명하기 위한 흐름도이다. 1 is a block diagram of an electronic device, according to an embodiment.
Figure 2 is a block diagram of an accident event analysis system, according to one embodiment.
Figure 3 shows a vehicle equipped with an electronic device, according to one embodiment.
Figure 4 is a flowchart for explaining the operation of an electronic device, according to an embodiment.
Figure 5 is a diagram for explaining an operation of determining the complexity of information processing for analyzing an accident event, according to an embodiment.
FIG. 6 is a diagram for explaining the operation of an electronic device when the electronic device performs information processing for accident event analysis, according to an embodiment.
FIG. 7 is a diagram illustrating the operation of an electronic device when information processing for accident event analysis is performed in an accident event analysis server, according to an embodiment.
Figure 8 is a flowchart for explaining the operation of an accident event analysis system according to an embodiment.
Figure 9 is a flowchart for explaining the operation of the accident event analysis server of the accident event analysis system, according to one embodiment.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only and may be changed and implemented in various forms. Accordingly, the actual implementation form is not limited to the specific disclosed embodiments, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea described in the embodiments.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but these terms should be interpreted only for the purpose of distinguishing one component from another component. For example, a first component may be named a second component, and similarly, the second component may also be named a first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected” to another component, it should be understood that it may be directly connected or connected to the other component, but that other components may exist in between.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as “comprise” or “have” are intended to designate the presence of the described features, numbers, steps, operations, components, parts, or combinations thereof, and are intended to indicate the presence of one or more other features or numbers, It should be understood that this does not exclude in advance the possibility of the presence or addition of steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art. Terms as defined in commonly used dictionaries should be interpreted as having meanings consistent with the meanings they have in the context of the related technology, and unless clearly defined in this specification, should not be interpreted in an idealized or overly formal sense. No.
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings. In the description with reference to the accompanying drawings, identical components will be assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted.
< 전자 장치 및 시스템 ><Electronic devices and systems>
도 1은 일 실시 예에 따른 전자 장치(101)의 블록도이다.Figure 1 is a block diagram of an
도 1을 참조하면, 사고 이벤트를 분석하는 전자 장치(101)는 통신부(110), 프로세서(120), 메모리(130), 센서부(140)를 포함할 수 있다. 전자 장치(101)는 차량용 영상녹화장치(DVRS), 블랙박스일 수 있고, 자율주행 차량(autonomous vehicle) 또는 어드밴스드 운전자 지원 시스템(advanced driver assistance system)을 지원하는 차량에 부착 또는 설치될 수 있다. Referring to FIG. 1 , the
일 실시 예에 따르면, 통신부(110)는 프로세서(120) 및 메모리(130)와 연결되어 데이터를 송수신할 수 있다. 통신부(110)는 외부의 다른 장치와 연결되어 데이터, 예를 들어 카메라로 촬영된 영상을 수신할 수 있다. 이하에서 "A"를 송수신한다라는 표현은 "A를 나타내는 정보(information) 또는 데이터"를 송수신하는 것을 나타낼 수 있다.According to one embodiment, the
일 실시 예에 따르면, 통신부(110)는 전자 장치(101) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(110)는 내부 버스(internal bus) 및 외부 버스(external bus)를 포함할 수 있다. 다른 예로, 통신부(110)는 전자 장치(101)과 외부의 장치를 연결하는 요소일 수 있다. 통신부(110)는 인터페이스(interface)일 수 있다. 통신부(110)는 외부의 장치로부터 데이터를 수신하여, 프로세서(120) 및 메모리(130)에 데이터를 전송할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 통신부(110)를 통해 차량 제어 장치 및 사고 이벤트를 분석하기 위한 서버와 통신을 수행할 수 있다. 차량 제어 장치는 차량의 기계나 전자 장치를 제어하기 위한 장치로, 예를 들어 ECU(electronic control unit)일 수 있다. 차량 제어 장치 및 사고 이벤트를 분석하기 위한 서버에 대해서는, 사고 이벤트 분석 시스템을 도시하는 도 2를 참조하여 상세히 설명한다.According to one embodiment, the
일 실시 예에 따르면, 프로세서(120)는 통신부(110)가 수신한 데이터 및 메모리(130)에 저장된 데이터를 처리할 수 잇다. "프로세서"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 컴퓨터로 실행 가능한 명령어들(computer-executable instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.According to one embodiment, the
일 실시 예에 따르면, 프로세서(120)는 메모리(예를 들어, 메모리(130))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(120)에 의해 유발된 인스트럭션들을 실행할 수 있다.According to one embodiment, the
일 실시 예에 따르면, 메모리(130)는 통신부(110)가 수신한 데이터 및 프로세서(120)가 처리한 데이터를 저장할 수 있다. 예를 들어, 메모리(130)는 프로그램(또는 어플리케이션, 소프트웨어)을 저장할 수 있다. 저장되는 프로그램은 센서부(140)를 통해 획득한 정보 및 차량 제어 장치(미도시)로부터 수신한 정보에 기초하여 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 결정하고, 복잡도에 기초하여 정보 처리를 수행하거나 사고 이벤트 분석 서버로 정보 처리를 요청할 수 있도록 코딩되어 프로세서(120)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.According to one embodiment, the
일 실시 예에 따르면, 메모리(130)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.According to one embodiment, the
일 실시 예에 따르면, 메모리(130)는 전자 장치(101)를 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장할 수 있다. 전자 장치(101)를 동작 시키는 명령어 세트는 프로세서(120)에 의해 실행될 수 있다.According to one embodiment, the
일 실시 예에 따르면, 센서부(140)는 촬영 장치, GPS 센서, 충격 감지 센서, 가속도 센서 및 사운드 감지 센서 중 적어도 어느 하나를 포함할 수 있다. 일 례로, 전자 장치(101)는 차량 전면에 부착 또는 설치될 수 있고, 센서부(140)의 촬영 장치로 차량의 정면 방향 영상이 획득될 수 있다. 다만 촬영 장치로 차량의 정면 방향 영상만 획득되는 것은 아니고, 다양한 차량 주변 영상이 획득될 수 있다. 예를 들어, 센서부(140)의 촬영 장치가 차량 내부를 촬영할 수 있고, 차량 내부 탑승자에 대한 영상이 센서부(140)를 통해 획득될 수 있다.According to one embodiment, the
다른 일 례로, 전자 장치(101)의 GPS 센서로 차량의 현재 위치 정보가 획득되거나, 충격 감지 센서로 충격이 감지될 수 있다. 또 다른 일 례로, 전자 장치(101)의 가속도 센서로 전자 장치(101)가 탑재된 차량의 이동 속도에 대한 정보가 획득되고, 사운드 감지 센서로 탑승자의 음성 및/또는 다른 차량의 경적 소리 등 다양한 사운드 정보가 획득될 수 있다.As another example, the current location information of the vehicle may be acquired using the GPS sensor of the
일 실시 예에 따르면, 전자 장치(101)의 프로세서(120)는 전자 장치(101)가 탑재된 차량에 대한 사고 이벤트가 감지됨에 따라 사고 이벤트가 발생한 시각에 대한 정보를 획득하고, 시각 정보에 기초하여 사고 이벤트에 대한 제1 주변 환경 정보를 생성하고, 차량을 제어하는 차량 제어 장치로부터 제2 주변 환경 정보를 획득할 수 있다.According to one embodiment, the
일 실시 예에 따르면, 프로세서(120)는 제1 주변 환경 정보 및 제2 주변 환경 정보에 기초하여 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 결정할 수 있다. 예를 들어, 사고 이벤트를 분석한 결과에는 사고 이벤트와 관련된 외부 객체의 크기 정보, 외부 객체의 종류 정보, 외부 객체의 충격 방향 정보, 외부 객체의 충격 속도 정보 및 차량 내부 탑승자의 상태 정보 중 적어도 어느 하나가 포함될 수 있고, 전술한 정보들을 획득하기 위해 다양한 정보 처리가 수행되어야 할 수 있다. 사고 이벤트 분석을 위한 정보 처리의 복잡도를 결정하는 동작은 도 5를 참조하여 상세히 설명한다.According to one embodiment, the
일 실시 예에 따르면, 프로세서(120)는 복잡도에 기초하여 전자 장치(101)에서 정보 처리를 수행할지, 사고 이벤트 분석 서버에서 수행할지 결정할 수 있다. 전자 장치(101)에서 정보 처리를 수행하는 경우, 프로세서(120)는 제1 주변 환경 정보 및 제2 주변 환경 정보를 분석함으로써 사고 이벤트에 대한 분석 결과를 생성할 수 있다. 분석 서버에서 정보 처리를 수행하는 경우, 프로세서(120)는 분석 서버로 제1 주변 환경 정보 및 제2 주변 환경 정보를 전송하고, 분석 결과는 분석 서버에 의해 생성될 수 있다. According to one embodiment, the
일 실시 예에 따르면, 분석 결과는 전자 장치(101) 또는 사고 이벤트 분석 서버에 포함된, 사고 이벤트에 대한 분석 결과를 생성하기 위해 이용되는 학습 모델에 기초하여 생성될 수 있다. 학습 모델에 기초하여 분석 결과가 생성되는 구체적인 동작은 도 6 및 도 9를 참조하여 상세히 설명한다.According to one embodiment, the analysis result may be generated based on a learning model included in the
다양한 실시 예들에 따른 전자 장치(101)의 프로세서(120)의 동작을, 도 4 내지 도 7을 참조하여 상세히 설명한다.The operation of the
도 2는 일 실시 예에 따른, 사고 이벤트 분석 시스템(200)의 블록도이다.Figure 2 is a block diagram of an accident
도 2를 참조하면, 도 1을 참조하여 전술한 전자 장치(101)를 포함하는, 일 실시 예에 따른 사고 이벤트 분석 시스템(200)이 도시된다. 사고 이벤트 분석 시스템(200)은 전자 장치(101), 전자 장치(101)와 통신하는 차량 제어 장치(230) 및 사고 이벤트 분석 서버(250)를 포함할 수 있다. 차량 제어 장치(230) 및 사고 이벤트 분석 서버(250)에 대해, 도 1을 참조하여 전술한 바와 중복되는 설명은 생략한다. Referring to FIG. 2 , an accident
차량 제어 장치(230)는 도 1을 참조하여 전술한 바와 같이 차량의 기계나 전자 장치를 제어하기 위한 장치로, ECU일 수 있다. 차량 제어 장치(230)는 차량용 센서들을 통해 감지된 정보들을 획득하고, 가공하여 전자 장치(101)로 전송할 수 있다. 예를 들어, 차량 제어 장치(230)는 차량용 센서들을 통해 사고 이벤트의 발생을 감지하고, 사고 이벤트가 발생한 시각 정보를 전자 장치(101)로 전송할 수 있다. 다른 일 례로, 차량 제어 장치(230)는 사고 이벤트를 감지함에 따라, 시각 정보를 기준으로 소정 시간 동안 차량용 센서로 감지된 정보를 제2 주변 환경 정보로서 전자 장치(101)로 전송할 수 있다.As described above with reference to FIG. 1 , the
사고 이벤트 분석 서버(250)는, 전자 장치(101)의 요청에 따라 사고 이벤트를 분석하기 위한 정보 처리를 수행할 수 있다. 사고 이벤트 분석 서버(250)에는 사고 이벤트에 대한 분석 결과를 생성하기 위해 이용되는 학습 모델이 포함될 수 있고, 사고 이벤트 분석 서버(250)에 포함된 학습 모델은 전자 장치(101)에 포함된 학습 모델보다 연산 속도가 빠를 수 있다. 사고 이벤트 분석 서버(250)의 동작에 대해서는 도 9를 참조하여 상세히 설명한다.The accident
사고 이벤트 분석 시스템(200)의 동작에 대해서는 도 8 및 도 9를 참조하여 상세히 설명한다.The operation of the accident
도 3은 일 실시 예에 따른 전자 장치가 탑재된 차량(300)을 도시한다.Figure 3 shows a
도 3을 참조하면, 도 1을 참조하여 설명한 전자 장치(101)가 포함되는 차량(300)이 도시된다. 일 실시 예에 따른 차량(300)은 운전자로부터의 입력이 거의 없거나 또는 전혀 없는 상황에서도, 인지된 주변 환경에 따라서 자율 모드(autonomous mode)로 주행할 수 있다. 다시 말해, 차량(300)은 자율주행 차량 또는 ADAS(advanced driver assistance system)을 지원하는 차량일 수 있다.Referring to FIG. 3 , a
주변 환경은 차량(300)에 부착 또는 설치된 하나 이상의 차량용 센서들을 통해 인지될 수 있다. 예를 들어, 하나 이상의 차량용 센서들은 초음파(ultrasonic) 센서, 레이더(RADAR) 센서, 라이다(LiDAR) 센서, 조향각(steering angle) 센서, 가속도 센서, AVM(around view monitor) 용 카메라, 충격 감지 센서 및 사운드 감지 센서 등을 포함할 수 있다. 차량용 센서들은 차량의 전방(310, 320), 사이드 미러(330, 340), 후방(350) 등에 위치할 수 있으나, 기재된 예들로 제한되는 것은 아니다. 일 례로, 차량용 센서들은 차량의 앞 그릴, 뒤 트렁크, 좌/우 바퀴 등에 위치할 수도 있다. 다른 일 례로, 차량용 센서들 중 일부는 차량(300) 내부에 설치될 수 있다. 예를 들어, 차량용 센서는 차량(300) 내부에 부착 또는 설치된 카메라를 포함할 수 있고, 차량 제어 장치(230)는 차량(300) 내부 카메라를 통해 탑승자에 대한 영상을 획득할 수 있다. 주변 환경은 도로, 도로의 상태, 차선의 종류, 주변 차량의 유무, 근접한 차량과의 거리, 날씨, 장애물의 유무 등을 포함할 수 있고, 기재된 예들로 제한되는 것은 아니다.The surrounding environment may be recognized through one or more vehicle sensors attached or installed on the
차량용 센서들 중 카메라는, 주차 보조를 위해 차량(300)과 수평한 각도 또는 일정하게 기울어진 각도로 장착될 수도 있으며, 사각 지역이 없도록 하기 위해 어안렌즈(fisheye lens)를 포함하는 카메라가 사용될 수 있다. 예를 들어, 센서는 차량(300)에 빌트인(built-in)되어 있을 수도 있다. Among vehicle sensors, a camera may be mounted at a horizontal angle or a constant tilt angle to the
차량(300)은 주변 환경을 인식하고, 주변 환경에 적합한 자율 주행 경로를 생성할 수 있다. 자율 주행 경로를 따라가도록 자율 주행 차량은 내외부의 기계적인 요소들을 제어할 수 있다. 차량(300)은 자율 주행 경로를 주기적으로 생성할 수 있다.The
다른 일 측면에 따른, 차량(300)은 어드밴스드 운전자 지원 시스템(ADAS)을 이용하여 운전자의 운전을 보조할 수 있다. ADAS는 충돌 위험시 운전자가 제동장치를 밟지 않아도 스스로 속도를 줄이거나 멈추는 자동 긴급제동 시스템(Autonomous Emergency Braking: AEB), 차선 이탈 시 주행 방향을 조절해 차선을 유지하는 주행 조향보조 시스템(Lane Keep Assist System: LKAS), 사전에 정해 놓은 속도로 달리면서도 앞차와 간격을 알아서 유지하는 어드밴스드 스마트 크루즈 컨트롤(Advanced Smart Cruise Control: ASCC), 사각지대 충돌 위험을 감지해 안전한 차로 변경을 돕는 후측방 충돌 회피 지원 시스템(Active Blind Spot Detection: ABSD), 차량 주변 상황을 시각적으로 보여주는 어라운드 뷰 모니터링 시스템(Around View Monitor: AVM) 등을 포함할 수 있다.According to another aspect, the
차량(300)에 포함된 차량 제어 장치(230)는 차량(300)의 기계 또는 전자 장치를 제어하여, 자율 주행하거나 운전자의 운전을 보조할 수 있고, 기재된 실시예 이외의 다양한 종류의 컨트롤러나 센서 등과 통신할 수 있다.The
일 실시 예에 따르면, 전자 장치(101)는 블랙박스(blackbox)일 수 있고, 도 3과 같이 차량에 부착 또는 설치되거나, 차량에 빌트-인 될 수 있다. 전자 장치(101)는 유선 또는 무선 통신을 통해 차량 제어 장치(230)와 통신을 수행할 수 있다. 예를 들어, 전자 장치(101)에는 블루투스 통신을 위한 USB 동글이 삽입될 수 있고, 전자 장치(101)는 차량 제어 장치(230)와 블루투스 기반 무선 통신을 수행할 수 있다. 다른 일 례로, 전자 장치(101)는 차량 제어 장치(230)와 셀룰러 네트워크(예를 들어, LTE) 기반 무선 통신을 수행할 수 있다. 또 다른 일 례로, 전자 장치(101)가 차량(300)에 빌트-인 되는 경우, 차량 제어 장치(230)와 유선으로 통신을 수행할 수 있다.According to one embodiment, the
전술한 도 1 내지 도 3, 및 후술할 도 4 내지 도 9에서, 전자 장치(101)는 ECU와 같은 차량 제어 장치(230)와 구분되어 설명되지만 구현에 따라 전자 장치(101)는 차량 제어 장치(230)와 하나로 구현될 수 있다. 예를 들어, 전자 장치(101)가 차량(300)에 빌트-인 되는 경우, 차량 제어 장치(230)와 하나의 장치로 동작할 수 있다.In FIGS. 1 to 3 described above and FIGS. 4 to 9 described later, the
아래에서 도 4 내지 도 9를 참조하여, 전자 장치(101) 또는 사고 이벤트 분석 시스템(200)이 사고 이벤트를 분석하는 방법에 대해 상세히 설명한다.Below, with reference to FIGS. 4 to 9 , how the
<사고 이벤트를 분석하는 방법><How to analyze accident events>
도 4는 일 실시 예에 따른, 전자 장치(101)의 동작을 설명하기 위한 흐름도이다.FIG. 4 is a flowchart for explaining the operation of the
단계 410 내지 460은 도 1을 참조하여 전술된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있고, 간결하고 명확한 설명을 위해 도 1 내지 도 3을 참조하여 설명한 내용과 중복되는 내용은 생략될 수 있다.
단계 410에서 프로세서(120)는, 전자 장치(101)가 탑재된 차량에 대한 사고 이벤트가 감지됨에 따라, 사고 이벤트 발생 시각(time)에 대한 정보를 획득할 수 있다.In
도 3을 참조하여 전술한 바와 같이, 전자 장치(101)가 탑재된 차량(300)에는 차량에 포함된 기계나 전자 장치를 제어하기 위한 차량 제어 장치(230)가 포함될 수 있고, 사고 이벤트는 차량 제어 장치(230)와 통신하는 차량용 센서, 또는 전자 장치(101)에 포함된 센서부(140)를 통해 감지될 수 있다. 예를 들어, 사고 이벤트는 차량용 센서 중 충격 감지 센서 또는 센서부(140)의 충격 감지 센서에 의해 감지될 수 있다. As described above with reference to FIG. 3, the
일 실시 예에 따르면, 사고 이벤트가 차량용 센서들을 통해 감지되고, 차량 제어 장치(230)가 사고 이벤트가 발생한 시각 정보를 획득하여 전자 장치(101)로 전송할 수 있다. 다른 일 실시 예에 따르면, 사고 이벤트가 전자 장치(101)의 센서부(140)를 통해 감지되고, 프로세서(120)는 사고 이벤트가 발생한 시각 정보를 획득할 수 있다.According to one embodiment, an accident event is detected through vehicle sensors, and the
단계 420에서 프로세서(120)는, 시각 정보에 기초하여 사고 이벤트에 대한 제1 주변 환경 정보를 생성할 수 있다. 일 례로, 전자 장치(101)의 센서부(140)를 통해 사고 이벤트가 감지된 경우, 프로세서(120)는 시각 정보를 기준으로 소정 시간(예를 들어, 전후 5분) 동안 센서부(140)를 통해 감지된 정보를 제1 주변 환경 정보로 생성할 수 있다. 다른 일 례로, 차량 제어 장치가 차량용 센서들을 통해 사고 이벤트를 감지한 경우, 프로세서(120)는 차량 제어 장치로부터 시각 정보를 수신하고, 수신한 시각 정보를 기준으로 소정 시간 동안 센서부(140)를 통해 감지된 정보를 제1 주변 환경 정보로 생성할 수 있다.In
단계 430에서 프로세서(120)는, 차량을 제어하는 차량 제어 장치로부터 제2 주변 환경 정보를 획득할 수 있다. 일 례로, 전자 장치(101)의 센서부(140)를 통해 사고 이벤트가 감지된 경우, 프로세서(120)는 시각 정보를 기준으로 소정 시간(예를 들어, 충격 감지 시각 전후 5분) 동안 차량용 센서를 통해 감지된 정보를 차량 제어 장치로 요청함에 따라 제2 주변 환경 정보를 획득할 수 있다. 다른 일 례로, 차량 제어 장치가 차량용 센서들을 통해 사고 이벤트를 감지한 경우, 차량 제어 장치는 시각 정보를 기준으로 소정 시간 동안 차량용 센서를 통해 감지된 정보를 전자 장치(101)로 전송할 수 있고, 프로세서(120)는 제2 주변 환경 정보를 획득할 수 있다.In
다만 전술한 실시 예들로 제한되는 것은 아니고, 다양한 방법으로 제1 주변 환경 정보 및 제2 주변 환경 정보가 획득될 수 있다. 예를 들어, 차량 제어 장치는 차량용 센서를 통해 감지된 정보를 벌크(bulk)로 전자 장치(101)로 전송하고, 프로세서(120)는 벌크 데이터 중 시각 정보를 기준으로 소정 시간 동안의 데이터를 제2 주변 환경 정보로 획득할 수 있다.However, it is not limited to the above-described embodiments, and the first surrounding environment information and the second surrounding environment information can be obtained in various ways. For example, the vehicle control device transmits information detected through a vehicle sensor in bulk to the
단계 440에서 프로세서(120)는, 제1 주변 환경 정보 및 제2 주변 환경 정보에 기초하여 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 결정할 수 있다. 단계 450에서 프로세서(120)는, 복잡도가 임계수준 이하인지 여부를 판단할 수 있다. 복잡도 결정 과정 및 복잡도를 구분하는 임계 수준은 도 5를 참조하여 상세히 설명한다.In
단계 460에서 프로세서(120)는, 복잡도가 임계 수준 이하인 경우 제1 주변 환경 정보 및 제2 주변 환경 정보에 기초하여 사고 이벤트 분석을 위한 정보 처리를 수행하고, 분석 결과를 생성할 수 있다. 도 1을 참조하여 전술한 바와 같이, 사고 이벤트를 분석한 결과에는 사고 이벤트와 관련된 외부 객체의 크기 정보, 외부 객체의 종류 정보, 외부 객체의 충격 방향 정보, 외부 객체의 충격 속도 정보 및 차량 내부 탑승자의 상태 정보 중 적어도 어느 하나가 포함될 수 있고, 프로세서(120)는 이를 위한 정보 처리를 수행할 수 있다. 일 례로, 프로세서(120)는 사고 이벤트에 관여한 객체를 인식하고, 객체의 종류를 판단하기 위해, 전자 장치(101)의 센서부(140) 중 촬영 장치를 통해 획득한 차량(300)의 정방향 영상에 대해 DNN 기반의 시맨틱 세그멘테이션(DNN-based semantic segmentation)을 수행할 수 있다. 다만 이는 일 예시일 뿐, 프로세서(120)는 사고 이벤트와 관련된 외부 객체의 크기 정보, 외부 객체의 종류 정보, 외부 객체의 충격 방향 정보,외부 객체의 충격 속도 정보 및 차량 내부 탑승자의 상태 정보를 획득하기 위해 다양한 방법을 이용할 수 있다. In
일 실시 예에 따르면, 프로세서(120)는 전자 장치(101)의 센서부(140) 또는 차량용 센서로 획득된 차량 내부 탑승자에 대한 영상을 분석하여 차량 내부 탑승자의 상태 정보를 획득할 수 있다. 일 례로, 프로세서(120)는 차량 사고 이벤트가 발생한 후 차량 내부 영상에서 움직임이 감지되지 않는 경우 탑승자가 의식이 없다고 결정할 수 있다.According to one embodiment, the
일 실시 예에 따르면, 프로세서(120)는 사고 이벤트 분석에 있어 전자 장치(101)에 포함된 학습 모델을 이용할 수 있고, 프로세서(120)가 학습 모델을 이용하여 사고 이벤트에 대한 분석 결과를 생성하는 구체적인 동작은 도 6을 참조하여 상세히 설명한다.According to one embodiment, the
단계 470에서 프로세서(120)는, 복잡도가 임계 수준을 초과하는 경우 미리 결정된 사고 이벤트 분석 서버(250)로 제1 주변 환경 정보 및 제2 주변 환경 정보를 전송할 수 있다. 사고 이벤트와 관련된 외부 객체의 크기 정보, 외부 객체의 종류 정보, 외부 객체의 충격 방향 정보, 외부 객체의 충격 속도 정보 및 차량 내부 탑승자의 상태 정보 중 적어도 어느 하나를 포함하는 분석 결과는 분석 서버(250)에 의해 생성될 수 있다.In
도 5는 일 실시 예에 따른, 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 결정하는 동작을 설명하기 위한 도면이다.Figure 5 is a diagram for explaining an operation of determining the complexity of information processing for analyzing an accident event, according to an embodiment.
단계 510 내지 530은 도 1을 참조하여 전술된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있고, 간결하고 명확한 설명을 위해 도 1 내지 도 4를 참조하여 설명한 내용과 중복되는 내용은 생략될 수 있다.
일 실시 예에 따르면, 단계 510 내지 단계 530은 도 4를 참조하여 설명한 제1 주변 환경 정보 및 제2 주변 환경 정보에 기초하여 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 결정하는 동작(예: 도 4의 단계 440)에 대응될 수 있다. 복잡도를 결정하는 동작과 관련하여, 전자 장치(101)에서 정보 처리를 수행할지 분석 서버(250)에서 정보 처리를 수행할지 여부를 결정하기 위한 복잡도의 임계 수준(예: 도 4의 단계 450의 임계 수준)에 대해서도 함께 설명한다.According to one embodiment, steps 510 to 530 include determining the complexity of information processing for analyzing an accident event based on the first surrounding environment information and the second surrounding environment information described with reference to FIG. 4 (e.g., FIG. It can correspond to step 440) of 4. In connection with the operation of determining complexity, a threshold level of complexity for determining whether to perform information processing in the
단계 510에서 프로세서(120)는 제1 주변 환경 정보와 제2 주변 환경 정보에 기초하여 전자 장치(101)가 포함된 차량이 주차중인지 여부를 판단할 수 있다. 일 례로, 시각 정보를 기준으로 소정 시간에 대해 획득한 제1 주변 환경 정보 중 차량의 정면 촬영 영상에 있어서, 전자 장치(101)의 프로세서(120)는 해당 시간 동안 정면 촬영 영상에서 일정 수준 이상의 움직임이 발생하지 않으면 주차중이라고 판단할 수 있다. 다른 일 례로, 차량 제어 장치(230)로부터 전달받은 제2 주변 환경 정보에는 차량의 상태에 대한 정보(예를 들어, 기어가 주차(P), 주행(D) 및 중립(N) 중 주차(P)로 설정되어 있는지 여부에 대한 정보)가 포함될 수 있고, 프로세서(120)는 차량 상태 정보에 기초하여 차량이 주차중이라고 판단할 수 있다.In
차량이 주차중이라고 결정되면, 단계 520에서 프로세서(120)는 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 제1 레벨로 결정할 수 있다. 주차중인 경우 주차중이 아닌 경우보다 상대적으로 차량의 움직임이 적으므로 제1 주변 환경 정보 및 제2 주변 환경 정보에 포함된 영상 정보에서 객체를 인식하거나 추출하는데 필요한 정보 처리량이 적을 수 있다. 프로세서(120)는 정보 처리량이 적기 때문에 복잡도를 상대적으로 낮은 제1 레벨로 결정하고, 전자 장치(101)에서 사고 이벤트를 분석하기 위한 정보 처리를 수행하기로 결정할 수 있다.If it is determined that the vehicle is parked, in
차량이 주차중이 아니라고 결정되면, 단계 530에서 프로세서(120)는 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 제1 레벨보다 높은 제2 레벨로 결정할 수 있다. 주차중이 아닌 경우 주차중인 경우보다 상대적으로 차량의 움직임이 많고, 제1 주변 환경 정보 및 제2 주변 환경 정보에 포함된 영상 정보에서 객체를 인식하거나 추출하는데 필요한 정보 처리량이 많을 수 있다. 프로세서(120)는 정보 처리량이 많기 때문에 복잡도를 제1 레벨보다 높은 제2 레벨로 결정하고, 전자 장치(101)와 통신하는 미리 결정된 사고 이벤트 분석 서버(250)에서 사고 이벤트를 분석하기 위한 정보 처리를 수행하기로 결정할 수 있다. 도 4를 참조하여 전술한 바와 같이, 분석 서버(250)에서 정보 처리를 수행하는 경우 프로세서(120)는 분석 서버(250)로 제1 주변 환경 정보 및 제2 주변 환경 정보를 전송할 수 있다.If it is determined that the vehicle is not parked, in
도 5를 참조하여 복잡도 결정 방법에 대해 차량이 주차중인지 여부를 기준으로 결정하는 실시 예를 설명하였지만, 이에 제한되는 것은 아니고 다양한 방법으로 복잡도가 결정되고, 복잡도에 따라 전자 장치(101)에서 영상 처리를 수행할지 분석 서버(250)에서 영상 처리를 수행할지 여부가 결정될 수 있다.Referring to FIG. 5, an embodiment of determining the complexity has been described based on whether the vehicle is parked, but it is not limited to this and the complexity is determined in various ways, and the image is processed in the
예를 들어, 전술한 실시 예에서는 차량이 주차중이 아닌 경우 프로세서(120)가 복잡도를 높게 결정한다고 설명하였지만, 차량이 주차중이 아닌 경우에도 복잡도가 낮게 결정되고 전자 장치(101)에서 사고 이벤트를 분석하기 위한 정보 처리가 수행될 수 있다. 일 실시 예에 따르면, 프로세서(120)는 획득된 영상들의 변화량에 따라 복잡도를 결정할 수 있다. 차량이 고속도로에서 일정 범위의 속도로 주행 중인 경우, 획득되는 영상들 간 변화량이 비교적 작을 수 있고, 프로세서(120)는 차량이 주차중이 아니라도 복잡도를 낮게 결정하고, 전자 장치(101)에서 사고 이벤트 분석을 위한 정보 처리를 수행할 수 있다.For example, in the above-described embodiment, it was explained that the
일 실시 예에 따르면, 프로세서(120)는 제1 주변 환경 정보와 제2 주변 환경 정보의 용량의 합을 기준으로 복잡도를 결정하고, 미리 결정된 임계값에 따라 전자 장치(101)에서 정보 처리를 수행할지, 분석 서버(250)에서 정보 처리를 수행할지 여부를 결정할 수 있다. 예를 들어, 프로세서(120)는 제1 주변 환경 정보 및 제2 주변 환경 정보의 용량의 합이 임계값보다 낮으면 전자 장치(101)에서 정보 처리를 수행하기로 결정할 수 있다. 임계값은 다양하게 결정될 수 있고, 예를 들어 전자 장치(101)에 포함된, 사고 이벤트에 대한 분석 결과를 생성하기 위해 이용되는 학습 모델이 1분 내에 처리할 수 있는 데이터 용량을 기준으로 임계값이 결정될 수 있다.According to one embodiment, the
다른 일 실시 예에 따르면, 프로세서(120)는 제1 주변 환경 정보와 제2 주변 환경 정보가 획득되는 과정에 연관된 센서의 개수에 기초하여 복잡도를 결정하고, 미리 결정된 임계 개수에 따라 전자 장치(101)에서 정보 처리를 수행할지, 분석 서버(250)에서 정보 처리를 수행할지 여부를 결정할 수 있다. 예를 들어, 제1 주변 환경 정보가 전자 장치(101)의 센서부(140)에 포함된 카메라 및 충격감지센서로 획득되고, 제2 주변 환경 정보가 차량 제어 장치(230)와 통신하는 차량용 센서들 중 전방 및 왼쪽 사이드미러에 설치된 AVM(around view monitor) 용 카메라(예를 들어, 도 3의 320, 330에 설치된 카메라)로 획득될 수 있다. 이 때, 프로세서(120)는 제1 주변 환경 정보와 제2 주변 환경 정보가 획득되는 과정에 연관된 센서의 개수를 4라고 결정할 수 있고, 임계값(예를 들어, 5) 이하이므로 전자 장치(101)에서 정보 처리를 수행하는 것으로 결정할 수 있다.According to another embodiment, the
또 다른 일 실시 예에 따르면, 프로세서(120)는 제1 주변 환경 정보와 제2 주변 환경 정보에 포함된 영상에서 객체 검출(object detection)의 난이도에 따라 복잡도를 결정할 수 있다. 예를 들어 제1 주변 환경 정보에는 전자 장치(101)의 센서부(140) 중 카메라로 촬영된 차량의 정면 영상이 포함될 수 있고, 제2 주변 환경 정보에는 차량용 센서들 중 AVM 용 카메라로 촬영된 차량 주변 영상이 포함될 수 있다. 프로세서(120)는 영상 분석을 통해 영상에서 객체 검출이 어려운 경우 사고 이벤트를 분석하기 위한 정보 처리의 복잡도가 높다고 결정할 수 있다. 예를 들어, 촬영된 영상의 조도가 임계값 이하인 경우 프로세서(120)는 객체 검출이 어렵다고 결정할 수 있고, 정보 처리의 복잡도가 높다고 결정할 수 있다. 프로세서(120)는 조도의 임계값을 기준으로 촬영 영상의 조도가 임계값 이상인 경우 전자 장치(101)에서 정보 처리를 수행하는 것으로 결정할 수 있다.According to another embodiment, the
도 6은 일 실시 예에 따른, 전자 장치에서 사고 이벤트 분석을 위한 정보 처리를 수행하는 경우 전자 장치의 동작을 설명하기 위한 도면이다.FIG. 6 is a diagram for explaining the operation of an electronic device when the electronic device performs information processing for accident event analysis, according to an embodiment.
단계 610 내지 단계 640은 도 1을 참조하여 전술된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있고, 간결하고 명확한 설명을 위해 도 1 내지 도 5를 참조하여 설명한 내용과 중복되는 내용은 생략될 수 있다.
일 실시 예에 따르면, 단계 610 내지 단계 630은 도 4를 참조하여 설명한, 전자 장치(101)에서 정보 처리를 수행하는 경우 프로세서(120)가 제1 주변 환경 정보 및 제2 주변 환경 정보에 기초하여 사고 이벤트에 대한 분석 결과를 생성하는 동작(예: 도 4의 단계 460)에 대응될 수 있다.According to one embodiment, in
단계 610 내지 단계 620에서 프로세서(120)는 전자 장치(101)에 포함된 학습 모델로 제1 주변 환경 정보 및 제2 주변 환경 정보를 입력하고, 학습 모델에서 출력되는 분석 결과를 획득할 수 있다. 전자 장치(101)에 포함된 학습 모델은 예를 들어 메모리(130)에 저장되어 있을 수 있고, 업데이트될 수 있다.In
단계 630에서, 프로세서(120)는 분석 결과에 따라 전자 장치(101)에 포함된 학습 모델을 업데이트할 수 있다. 예를 들어, 프로세서(120)는 분석 결과를 학습 모델로 재학습시킬 수 있다.In step 630, the
도 4의 단계 460을 참조하여 설명한 바와 같이, 사고 이벤트를 분석한 결과에는 사고 이벤트와 관련된 외부 객체의 크기 정보, 외부 객체의 종류 정보, 외부 객체의 충격 방향 정보, 외부 객체의 충격 속도 정보 및 차량 내부 탑승자의 상태 정보 중 적어도 어느 하나가 포함될 수 있다.As described with reference to step 460 of FIG. 4, the results of analyzing the accident event include size information of the external object related to the accident event, type information of the external object, impact direction information of the external object, impact speed information of the external object, and vehicle At least one of the status information of the occupants inside may be included.
일 실시 예에 따르면 프로세서(120)는 사고 이벤트 분석 결과를 생성(예를 들어, 단계 610 내지 단계 630)한 이후 단계 640에서, 분석 결과를 저장하고, 분석 결과를 전자 장치(101)와 연동된 사용자 단말로 전송할 수 있다. 예를 들어, 전자 장치(101)의 메모리(130)에 분석 결과를 저장하고, 전자 장치(101)와 연동된 스마트폰으로 분석 결과를 전송하거나, 차량 제어 장치(230)로 전송할 수 있다. 차량 제어 장치(230)는 분석 결과를 저장하고, 운전자에게 디스플레이할 수 있다. 예를 들어, 차량의 HUD(head up display), CID(centrer information display), RSE(rear seat entertainment) 및 조수석 디스플레이 중 적어도 어느 하나를 통해 분석 결과가 디스플레이될 수 있다.According to one embodiment, the
다른 일 실시 예에 따르면, 단계 640에서 프로세서(120)는 분석 결과에 포함된 차량 내부 탑승자의 상태 정보에 따라 긴급 구조 요청을 전송할 수 있다. 예를 들어 프로세서(120)는 사고 이벤트 발생 이후 차량 내부 탑승자에 대한 영상에서 움직임이 감지되지 않는 경우 분석 결과로 탑승자가 의식이 없다는 탑승자 상태 정보를 생성할 수 있고, 차량의 주변에 위치한 병원의 서버, 소방서의 서버 또는 경찰서의 서버로 긴급 구조 요청을 전송할 수 있다.According to another embodiment, in
도 7은 일 실시 예에 따른, 사고 이벤트 분석 서버에서 사고 이벤트 분석을 위한 정보 처리를 수행하는 경우 전자 장치의 동작을 설명하기 위한 도면이다.FIG. 7 is a diagram illustrating the operation of an electronic device when information processing for accident event analysis is performed in an accident event analysis server, according to an embodiment.
단계 710 내지 단계 720은 도 1을 참조하여 전술된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있고, 간결하고 명확한 설명을 위해 도 1 내지 도 6을 참조하여 설명한 내용과 중복되는 내용은 생략될 수 있다.
일 실시 예에 따르면, 복잡도에 기초하여 미리 결정된 분석 서버(250)에서 사고 이벤트를 분석하기 위한 정보 처리를 수행하는 것으로 결정하고, 분석 서버(250)로 제1 주변 환경 정보 및 제2 주변 환경 정보를 전송하는 동작(예: 도 4의 동작 470) 이후 단계 710 내지 단계 720이 수행될 수 있다.According to one embodiment, it is determined to perform information processing to analyze the accident event in the
단계 710에서, 프로세서(120)는 미리 결정된 분석 서버(250)로부터 분석 결과를 수신할 수 있다. 분석 서버(250)에서 분석 결과가 생성되는 동작은 도 9를 참조하여 상세히 설명한다.In
단계 720에서, 프로세서(120)는 분석 결과를 저장하고, 분석 결과를 전자 장치(101)와 연동된 사용자 단말로 분석 결과를 전송할 수 있다. 단계 720은 도 6의 단계 640과 중복되므로 설명을 생략한다.In
도 8은 일 실시 예에 따른, 사고 이벤트 분석 시스템의 동작을 설명하기 위한 흐름도이다.Figure 8 is a flowchart for explaining the operation of an accident event analysis system according to an embodiment.
단계 810 내지 880은 도 2를 참조하여 전술된 사고 이벤트 분석 시스템(200)의 동작일 수 있고, 도 1을 참조하여 전술한 전자 장치(101)(또는, 전자 장치(101)의 프로세서(120)) 또는 사고 이벤트 분석 서버(250)에 의해 수행될 수 있다. 간결하고 명확한 설명을 위해 도 1 내지 도 7을 참조하여 설명한 내용과 중복되는 내용은 생략될 수 있다.
단계 810 내지 단계 850에서, 전자 장치(101)는 사고 이벤트가 감지됨에 따라 사고 이벤트 발생 시각에 대한 정보를 획득하고, 제1 주변 환경 정보를 생성하고, 제2 주변 환경 정보를 수신하고, 제1 환경 정보 및 제2 환경 정보에 기초하여 사고 이벤트를 분석하기 위한 정보 처리의 복잡도를 결정하고, 임계 수준에 따라 전자 장치(101)에서 사고 이벤트 분석을 위한 정보 처리를 수행할지, 사고 이벤트 분석 서버(250)에서 정보 처리를 수행할지 여부를 결정할 수 있다. In
전자 장치(101)에서 정보 처리를 수행하는 경우, 단계 860에서 전자 장치(101)는 제1 주변 환경 정보 및 제2 주변 환경 정보에 기초하여 사고 이벤트에 대한 분석 결과를 생성할 수 있다. When information processing is performed in the
사고 이벤트 분석 서버(250)에서 정보 처리를 수행하는 경우, 단계 870에서 전자 장치(101)는 미리 결정된 분석 서버(250)로 제1 주변 환경 정보 및 제2 주변 환경 정보를 전송할 수 있다.When information processing is performed in the accident
단계 810 내지 단계 870은 도 4를 참조하여 전술한 전자 장치(101)의 동작(예: 도 4의 단계 410 내지 단계 470)과 중복되므로, 상세한 설명을 생략한다.Since
제1 주변 환경 정보 및 제2 주변 환경 정보가 분석 서버(250)로 전송되면, 단계 880에서 분석 서버(250)가 사고 이벤트에 대한 분석 결과를 생성할 수 있다. 사고 이벤트 분석 서버(250)가 사고 이벤트에 대한 분석 결과를 생성하는 동작은 도 9를 참조하여 상세히 설명한다.When the first surrounding environment information and the second surrounding environment information are transmitted to the
도 9는 일 실시 예에 따른, 사고 이벤트 분석 시스템의 사고 이벤트 분석 서버의 동작을 설명하기 위한 흐름도이다.Figure 9 is a flowchart for explaining the operation of the accident event analysis server of the accident event analysis system, according to one embodiment.
단계 910 내지 단계 940은 도 2를 참조하여 전술된 사고 이벤트 분석 시스템(200)의 사고 이벤트 분석 서버(250)에 의해 수행될 수 있고, 간결하고 명확한 설명을 위해 도 1 내지 도 8을 참조하여 설명한 내용과 중복되는 내용은 생략될 수 있다.
일 실시 예에 따르면, 단계 910 내지 단계 930은 도 8을 참조하여 설명한, 분석 서버(250)에서 정보 처리를 수행하는 경우 분석 서버(250)가 제1 주변 환경 정보 및 제2 주변 환경 정보에 기초하여 사고 이벤트에 대한 분석 결과를 생성하는 동작(예: 도 8의 단계 880)에 대응될 수 있다.According to one embodiment, steps 910 to 930 are performed based on the first surrounding environment information and the second surrounding environment information when the
단계 910 내지 단계 920에서 분석 서버(250)는 분석 서버(250)에 포함된 학습 모델로 제1 주변 환경 정보 및 제2 주변 환경 정보를 입력하고, 학습 모델에서 출력되는 분석 결과를 획득할 수 있다. 도 6을 참조하여 전술한 바와 같이, 분석 결과에는 사고 이벤트와 관련된 외부 객체의 크기 정보, 외부 객체의 종류 정보, 외부 객체의 충격 방향 정보, 외부 객체의 충격 속도 정보 및 차량 내부 탑승자의 상태 정보 중 적어도 어느 하나가 포함될 수 있다.In
분석 서버(250)에 포함된, 사고 이벤트에 대한 분석 결과를 생성하기 위해 이용되는 학습 모델은 전자 장치(101)에 포함된 학습 모델(예를 들어, 도 6을 참조하여 전술한 전자 장치(101)에 포함된 학습 모델)보다 성능이 좋을 수 있다. 예를 들어, 분석 서버(250)에 포함된 학습 모델은 전자 장치(101)에 포함된 학습 모델보다 연산 처리 속도가 더 빠를 수 있고, 더 많은 노드(node)로 구성될 수 있다. 일 실시 예에 따르면, 분석 서버(250)에 포함된 학습 모델은 주기적으로 업데이트될 수 있다.The learning model included in the
단계 930에서, 분석 서버(250)는 분석 결과에 따라 분석 서버(250)에 포함된 학습 모델을 업데이트할 수 있다. 예를 들어, 분석 서버(250)는 분석 결과를 학습 모델로 재학습시킬 수 있다.In step 930, the
도 4를 참조하여 전술한 바와 같이, 분석 서버(250)에서 생성한 사고 이벤트 분석 결과에는 사고 이벤트와 관련된 외부 객체의 크기 정보, 외부 객체의 종류 정보, 외부 객체의 충격 방향 정보, 외부 객체의 충격 속도 정보 및 차량 내부 탑승자의 상태 정보 중 적어도 어느 하나가 포함될 수 있다.As described above with reference to FIG. 4, the accident event analysis results generated by the
일 실시 예에 따르면 분석 서버(250)는 사고 이벤트 분석 결과를 생성(예를 들어, 단계 910 내지 단계 930)한 이후 단계 940에서, 분석 결과를 사고 이벤트와 관련된 엔티티(entity)로 전송할 수 있다. 예를 들어, 분석 서버(250)에서 생성된 분석 결과는 차량의 주변에 위치한 소방서의 서버, 경찰서의 서버, 및 차량과 연동된 보험사의 서버 중 적어도 어느 하나로 전송될 수 있다.According to one embodiment, the
다른 일 실시 예에 따르면, 분석 결과는 다시 전자 장치(101)로 전송될 수 있다. 도 6의 동작 640을 참조하여 전술한 바와 같이, 전자 장치(101)는 분석 서버(250)로부터 수신한 분석 결과를 메모리(130)에 저장하고, 전자 장치(101)와 연동된 스마트폰으로 분석 결과를 전송하거나, 차량 제어 장치(230)로 전송할 수 있다. 차량 제어 장치(230)는 분석 결과를 저장하고, 차량의 HUD(head up display), CID(centrer information display), RSE(rear seat entertainment) 및 조수석 디스플레이 중 적어도 어느 하나를 통해 분석 결과를 디스플레이할 수 있다.According to another embodiment, the analysis results may be transmitted back to the
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, and a field programmable gate (FPGA). It may be implemented using a general-purpose computer or a special-purpose computer, such as an array, programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and software applications running on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include multiple processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on a computer-readable recording medium.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 저장할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. A computer-readable medium may store program instructions, data files, data structures, etc., singly or in combination, and the program instructions recorded on the medium may be specially designed and constructed for the embodiment or may be known and available to those skilled in the art of computer software. there is. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.
위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or multiple software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on this. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.
Claims (20)
상기 전자 장치가 탑재된 차량에 대한 사고 이벤트가 감지됨에 따라, 상기 사고 이벤트가 발생한 시각(time) 정보를 획득하는 단계;
상기 시각 정보에 기초하여, 상기 사고 이벤트에 대한 제1 주변 환경 정보를 생성하는 단계;
상기 시각 정보에 기초하여, 상기 차량을 제어하는 차량 제어 장치로부터 상기 사고 이벤트에 대한 제2 주변 환경 정보를 획득하는 단계;
상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보에 기초하여 상기 사고 이벤트를 분석하기 위한 정보 처리량을 나타내는 복잡도를 제1 레벨 또는 제2 레벨로 결정하는 단계;
상기 복잡도가 상기 제1 레벨로 결정됨에 따라, 상기 전자 장치가 상기 정보 처리를 수행하는 경우, 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보를 분석함으로써 상기 사고 이벤트에 대한 분석 결과를 생성하는 단계; 및
상기 복잡도가 상기 제2 레벨로 결정됨에 따라, 미리 결정된 분석 서버가 상기 정보 처리를 수행하는 경우, 상기 분석 서버로 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보를 전송하는 단계 - 상기 분석 결과는 상기 분석 서버에 의해 생성됨 -
를 포함하는,
사고 이벤트 분석 방법.
In an accident event analysis method performed by an electronic device,
As an accident event for a vehicle equipped with the electronic device is detected, obtaining information on the time when the accident event occurred;
Based on the visual information, generating first surrounding environment information for the accident event;
Based on the visual information, obtaining second surrounding environment information about the accident event from a vehicle control device that controls the vehicle;
determining a complexity indicating an information processing amount for analyzing the accident event as a first level or a second level based on the first surrounding environment information and the second surrounding environment information;
As the complexity is determined to be the first level, when the electronic device performs the information processing, an analysis result for the accident event is generated by analyzing the first surrounding environment information and the second surrounding environment information. step; and
As the complexity is determined to be the second level, when a predetermined analysis server performs the information processing, transmitting the first surrounding environment information and the second surrounding environment information to the analysis server - the analysis result is generated by the above analysis server -
Including,
How to analyze accident events.
상기 사고 이벤트는,
상기 전자 장치에 의해 감지되거나, 상기 차량 제어 장치와 통신하는 상기 차량에 탑재된 하나 이상의 차량용 센서에 의해 감지되는,
사고 이벤트 분석 방법.
According to paragraph 1,
The accident event is,
Sensed by the electronic device or by one or more vehicle sensors mounted on the vehicle in communication with the vehicle control device,
How to analyze accident events.
상기 제1 주변 환경 정보는,
상기 전자 장치와 연결된 촬영 장치, GPS 센서, 충격 감지 센서, 가속도 센서 및 사운드 감지 센서 중 적어도 어느 하나에 기초하여 생성되는,
사고 이벤트 분석 방법.
According to paragraph 1,
The first surrounding environment information is,
Generated based on at least one of a photographing device, a GPS sensor, an impact detection sensor, an acceleration sensor, and a sound detection sensor connected to the electronic device,
How to analyze accident events.
상기 제2 주변 환경 정보는,
상기 차량에 탑재된 초음파(ultrasonic) 센서, 레이더(RADAR) 센서, 라이다(LiDAR) 센서, 조향각(steering angle) 센서, 가속도 센서, AVM(around view monitor) 용 카메라, 충격 감지 센서 및 사운드 감지 센서 중 적어도 어느 하나를 통해 획득되는,
사고 이벤트 분석 방법.
According to paragraph 1,
The second surrounding environment information is,
Ultrasonic sensor, RADAR sensor, LiDAR sensor, steering angle sensor, acceleration sensor, camera for AVM (around view monitor), shock detection sensor, and sound detection sensor mounted on the vehicle. Obtained through at least one of the
How to analyze accident events.
상기 복잡도를 제1 레벨 또는 제2 레벨로 결정하는 단계는,
상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보에 기초하여 상기 차량이 주차 중인지 여부를 결정하는 단계;
상기 차량이 주차 중이면, 상기 복잡도를 상기 제1 레벨로 결정하는 단계; 및
상기 차량이 주차 중이 아니면, 상기 복잡도를 상기 제1 레벨보다 높은 상기 제2 레벨로 결정하는 단계
를 포함하는,
사고 이벤트 분석 방법.
According to paragraph 1,
The step of determining the complexity as the first level or the second level is,
determining whether the vehicle is parked based on the first surrounding environment information and the second surrounding environment information;
If the vehicle is parked, determining the complexity to the first level; and
If the vehicle is not parked, determining the complexity to be the second level higher than the first level.
Including,
How to analyze accident events.
상기 복잡도를 제1 레벨 또는 제2 레벨로 계산하는 단계는,
상기 제1 주변 환경 정보 또는 상기 제2 주변 환경 정보의 획득에 관여한 센서의 개수, 상기 제1 주변 환경 정보와 상기 제2 주변 환경 정보의 용량, 및 상기 제1 주변 환경 정보와 상기 제2 주변 환경 정보에 포함된 영상에서 객체 검출(object detection)의 난이도 중 적어도 어느 하나에 기초하여 상기 정보 처리의 복잡도를 상기 제1 레벨 또는 상기 제2 레벨로 결정하는 단계
를 포함하는,
사고 이벤트 분석 방법.
According to paragraph 1,
The step of calculating the complexity as the first level or the second level is,
The number of sensors involved in acquiring the first surrounding environment information or the second surrounding environment information, the capacity of the first surrounding environment information and the second surrounding environment information, and the first surrounding environment information and the second surrounding environment information. Determining the complexity of the information processing as the first level or the second level based on at least one of the difficulty of object detection in the image included in the environment information
Including,
How to analyze accident events.
상기 분석 결과는,
상기 사고 이벤트와 관련된 외부 객체의 크기 정보, 상기 외부 객체의 종류 정보, 상기 외부 객체의 충격 방향 정보, 상기 외부 객체의 충격 속도 정보 및 상기 차량 내부의 탑승자의 상태 정보 중 적어도 어느 하나를 포함하는,
사고 이벤트 분석 방법.
According to paragraph 1,
The results of the above analysis are,
Containing at least one of size information of the external object related to the accident event, type information of the external object, impact direction information of the external object, impact speed information of the external object, and status information of the occupants inside the vehicle,
How to analyze accident events.
상기 분석 결과는 상기 전자 장치가 상기 사고 이벤트에 대한 분석 결과를 생성하기 위해 이용되는 학습 모델 또는 상기 분석 서버가 상기 사고 이벤트에 대한 분석 결과를 생성하기 위해 이용되는 학습 모델에 기초하여 생성되고,
상기 분석 결과는 상기 전자 장치의 학습 모델 또는 상기 분석 서버의 학습 모델을 재학습하기 위해 이용되는,
사고 이벤트 분석 방법.
According to paragraph 1,
The analysis result is generated based on a learning model used by the electronic device to generate an analysis result for the accident event or a learning model used by the analysis server to generate an analysis result for the accident event,
The analysis results are used to retrain the learning model of the electronic device or the learning model of the analysis server,
How to analyze accident events.
상기 분석 서버가 상기 정보 처리를 수행하는 경우, 상기 분석 서버로부터 상기 분석 결과를 수신하는 단계; 및
상기 분석 결과를 저장하고, 상기 분석 결과를 상기 전자 장치와 연동된 사용자 단말로 전송하는 단계
를 더 포함하는,
사고 이벤트 분석 방법.
According to paragraph 1,
When the analysis server performs the information processing, receiving the analysis result from the analysis server; and
Storing the analysis results and transmitting the analysis results to a user terminal linked to the electronic device.
Containing more,
How to analyze accident events.
상기 분석 서버가 상기 정보 처리를 수행하는 경우,
상기 분석 결과는 상기 사고 이벤트와 연관된 엔티티(entity) - 상기 엔티티는, 상기 차량의 주변에 위치한 소방서의 서버, 경찰서의 서버, 및 상기 차량과 연동된 보험사의 서버 중 적어도 어느 하나를 포함함 -로 전송되는,
사고 이벤트 분석 방법.
According to paragraph 1,
When the analysis server performs the information processing,
The analysis result is an entity associated with the accident event - the entity includes at least one of a fire department server located around the vehicle, a police station server, and an insurance company server linked to the vehicle. transmitted,
How to analyze accident events.
상기 차량은, 자율주행 차량(autonomous vehicle) 또는 어드밴스드 운전자 지원 시스템(advanced driver assistance system)을 지원하는 차량인,
사고 이벤트 분석 방법.
According to paragraph 1,
The vehicle is an autonomous vehicle or a vehicle that supports an advanced driver assistance system,
How to analyze accident events.
상기 전자 장치는 블랙박스(blackbox), 차량용 영상녹화장치(DVRS: Drive Video Record System) 중 어느 하나이고,
상기 차량 제어 장치는 차량용 전자 제어 장치(ECU: Electronic Control Unit)인,
사고 이벤트 분석 방법.
According to paragraph 1,
The electronic device is either a black box or a vehicle video recording system (DVRS: Drive Video Record System),
The vehicle control device is a vehicle electronic control unit (ECU: Electronic Control Unit),
How to analyze accident events.
A computer-readable recording medium containing a program for performing the method of any one of claims 1 to 12.
상기 전자 장치가 탑재된 차량의 사고 이벤트에 대한 제1 주변 환경 정보를 획득하기 위한 센서부;
상기 차량을 제어하는 차량 제어 장치 및 미리 결정된 사고 이벤트 분석 서버와 통신하기 위한 통신부;
컴퓨터로 실행 가능한 명령어들(computer-executable instructions)이 저장된 메모리; 및
상기 메모리에 억세스(access)하여 상기 명령어들을 실행하는 프로세서
를 포함하고,
상기 명령어들은,
상기 사고 이벤트가 감지됨에 따라, 상기 사고 이벤트가 발생한 시각(time) 정보를 획득하고, 상기 시각 정보에 기초하여, 상기 센서부를 통해 상기 제1 주변 환경 정보를 생성하고, 상기 시각 정보에 기초하여, 상기 차량 제어 장치로부터 상기 사고 이벤트에 대한 제2 주변 환경 정보를 획득하고, 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보에 기초하여 상기 사고 이벤트를 분석하기 위한 정보 처리량을 나타내는 복잡도를 제1 레벨 또는 제2 레벨로 결정하고, 상기 복잡도가 상기 제1 레벨로 결정됨에 따라, 상기 전자 장치가 상기 정보 처리를 수행하는 경우, 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보를 분석함으로써 상기 사고 이벤트에 대한 분석 결과를 생성하고, 및 상기 복잡도가 상기 제2 레벨로 결정됨에 따라, 상기 분석 서버가 상기 정보 처리를 수행하는 경우, 상기 분석 서버로 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보를 전송 - 상기 분석 결과는 상기 분석 서버에 의해 생성됨 -
하도록 구성되는,
전자 장치.
In an electronic device performing an accident event analysis method,
a sensor unit configured to acquire first surrounding environment information about an accident event of a vehicle equipped with the electronic device;
a communication unit for communicating with a vehicle control device that controls the vehicle and a predetermined accident event analysis server;
Memory storing computer-executable instructions; and
A processor that accesses the memory and executes the instructions
Including,
The above commands are:
As the accident event is detected, information on the time when the accident event occurred is obtained, and based on the time information, the first surrounding environment information is generated through the sensor unit, and based on the time information, A first complexity indicating the information processing amount for obtaining second surrounding environment information about the accident event from the vehicle control device and analyzing the accident event based on the first surrounding environment information and the second surrounding environment information level or a second level, and as the complexity is determined to be the first level, when the electronic device performs the information processing, the first surrounding environment information and the second surrounding environment information are analyzed to determine the first level. Generating an analysis result for an accident event, and as the complexity is determined to be the second level, when the analysis server performs the information processing, the first surrounding environment information and the second surrounding environment information to the analysis server Transmit environmental information - the analysis results are generated by the analysis server -
configured to,
Electronic devices.
상기 사고 이벤트는,
상기 센서부에 의해 감지되거나, 상기 차량 제어 장치와 통신하는 상기 차량에 탑재된 하나 이상의 차량용 센서들에 의해 감지되는,
전자 장치.
According to clause 14,
The accident event is,
Sensed by the sensor unit, or detected by one or more vehicle sensors mounted on the vehicle in communication with the vehicle control device,
Electronic devices.
상기 센서부는,
상기 전자 장치와 연결된 촬영 장치, GPS 센서, 충격 감지 센서, 가속도 센서 및 사운드 감지 센서 중 적어도 어느 하나를 포함하는,
전자 장치.
According to clause 14,
The sensor unit,
Comprising at least one of a photographing device connected to the electronic device, a GPS sensor, an impact detection sensor, an acceleration sensor, and a sound detection sensor,
Electronic devices.
상기 제2 주변 환경 정보는,
상기 차량에 탑재된 초음파(ultrasonic) 센서, 레이더(RADAR) 센서, 라이다(LiDAR) 센서, 조향각(steering angle) 센서, 가속도 센서, AVM(around view monitor) 용 카메라, 충격 감지 센서 및 사운드 감지 센서 중 적어도 어느 하나를 통해 획득되는,
전자 장치.
According to clause 14,
The second surrounding environment information is,
Ultrasonic sensor, RADAR sensor, LiDAR sensor, steering angle sensor, acceleration sensor, camera for AVM (around view monitor), shock detection sensor, and sound detection sensor mounted on the vehicle. Obtained through at least one of the
Electronic devices.
상기 복잡도를 제1 레벨 또는 제2 레벨로 결정하는 단계는,
상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보에 기초하여 상기 차량이 주차 중인지 여부를 결정하는 단계;
상기 차량이 주차 중이면, 상기 복잡도를 상기 제1 레벨로 결정하는 단계; 및
상기 차량이 주차 중이 아니면, 상기 복잡도를 상기 제1 레벨보다 높은 상기 제2 레벨로 결정하는 단계
를 포함하는,
전자 장치.
According to clause 14,
The step of determining the complexity as the first level or the second level is,
determining whether the vehicle is parked based on the first surrounding environment information and the second surrounding environment information;
If the vehicle is parked, determining the complexity to the first level; and
If the vehicle is not parked, determining the complexity to be at the second level higher than the first level.
Including,
Electronic devices.
상기 분석 결과는,
상기 사고 이벤트와 관련된 외부 객체의 크기 정보, 상기 외부 객체의 종류 정보, 상기 외부 객체의 충격 방향 정보, 상기 외부 객체의 충격 속도 정보 및 상기 차량 내부의 탑승자의 상태 정보 중 적어도 어느 하나를 포함하는,
전자 장치.
According to clause 14,
The results of the above analysis are,
Containing at least one of size information of the external object related to the accident event, type information of the external object, impact direction information of the external object, impact speed information of the external object, and status information of the occupants inside the vehicle,
Electronic devices.
상기 차량에 탑재되어 상기 사고 이벤트가 감지됨에 따라, 상기 사고 이벤트가 발생한 시각(time) 정보를 획득하고, 상기 시각 정보에 기초하여 상기 사고 이벤트에 대한 제1 주변 환경 정보를 생성하고, 상기 시각 정보에 기초하여 상기 차량을 제어하는 차량 제어 장치로부터 상기 사고 이벤트에 대한 제2 주변 환경 정보를 획득하고, 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보에 기초하여 상기 사고 이벤트를 분석하기 위한 정보 처리량을 나타내는 복잡도를 제1 레벨 또는 제2 레벨로 결정하고, 상기 복잡도가 상기 제1 레벨인 경우 상기 사고 이벤트에 대한 분석 결과를 생성하는 전자 장치; 및
상기 복잡도가 상기 제2 레벨인 경우, 상기 전자 장치로부터 상기 제1 주변 환경 정보 및 상기 제2 주변 환경 정보를 수신하여 상기 사고 이벤트에 대한 분석 결과를 생성하는 사고 이벤트 분석 서버
를 포함하는,
사고 이벤트 분석 시스템.In an accident event analysis system for a vehicle,
As it is mounted on the vehicle and the accident event is detected, information on the time when the accident event occurred is obtained, and first surrounding environment information about the accident event is generated based on the time information, and the time information Information for obtaining second surrounding environment information about the accident event from a vehicle control device that controls the vehicle based on and analyzing the accident event based on the first surrounding environment information and the second surrounding environment information An electronic device that determines a complexity indicating throughput as a first level or a second level, and generates an analysis result for the accident event when the complexity is the first level; and
When the complexity is the second level, an accident event analysis server that receives the first surrounding environment information and the second surrounding environment information from the electronic device and generates an analysis result for the accident event.
Including,
Accident event analysis system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210161219A KR102614325B1 (en) | 2021-11-22 | 2021-11-22 | Electronic device for analyzing an accident event of vehicle and operating method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210161219A KR102614325B1 (en) | 2021-11-22 | 2021-11-22 | Electronic device for analyzing an accident event of vehicle and operating method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230075032A KR20230075032A (en) | 2023-05-31 |
KR102614325B1 true KR102614325B1 (en) | 2023-12-19 |
Family
ID=86543810
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210161219A KR102614325B1 (en) | 2021-11-22 | 2021-11-22 | Electronic device for analyzing an accident event of vehicle and operating method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102614325B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011123814A (en) | 2009-12-14 | 2011-06-23 | Clarion Co Ltd | Processor for traffic accident information |
JP2018180843A (en) | 2017-04-11 | 2018-11-15 | 株式会社デンソー | Data storage device for vehicle |
JP2021176090A (en) | 2017-08-09 | 2021-11-04 | 株式会社ユピテル | On-vehicle electronic apparatus, server and client terminal |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102111758B1 (en) * | 2013-04-29 | 2020-06-08 | 팅크웨어(주) | Image-processing Apparatus for Car and Method of Sharing Data Using The Same |
-
2021
- 2021-11-22 KR KR1020210161219A patent/KR102614325B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011123814A (en) | 2009-12-14 | 2011-06-23 | Clarion Co Ltd | Processor for traffic accident information |
JP2018180843A (en) | 2017-04-11 | 2018-11-15 | 株式会社デンソー | Data storage device for vehicle |
JP2021176090A (en) | 2017-08-09 | 2021-11-04 | 株式会社ユピテル | On-vehicle electronic apparatus, server and client terminal |
Also Published As
Publication number | Publication date |
---|---|
KR20230075032A (en) | 2023-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6724986B2 (en) | Method and system for adaptive detection and application of horns for autonomous vehicles | |
US11367354B2 (en) | Traffic prediction based on map images for autonomous driving | |
EP3324332B1 (en) | Method and system to predict vehicle traffic behavior for autonomous vehicles to make driving decisions | |
US10668925B2 (en) | Driver intention-based lane assistant system for autonomous driving vehicles | |
US10457294B1 (en) | Neural network based safety monitoring system for autonomous vehicles | |
EP3332300B1 (en) | Method and system to construct surrounding environment for autonomous vehicles to make driving decisions | |
EP3605491A1 (en) | Use sub-system of autonomous driving vehicles (adv) for police car patrol | |
EP3378707B1 (en) | Collision prediction and forward airbag deployment system for autonomous driving vehicles | |
US20190009713A1 (en) | System and method for generating a parking alert | |
US10507813B2 (en) | Method and system for automated vehicle emergency light control of an autonomous driving vehicle | |
CN111133448A (en) | Controlling autonomous vehicles using safe arrival times | |
KR102613792B1 (en) | Imaging device, image processing device, and image processing method | |
CN113561963B (en) | Parking method and device and vehicle | |
CN109085818B (en) | Method and system for controlling door lock of autonomous vehicle based on lane information | |
US11107227B1 (en) | Object detection based on three-dimensional distance measurement sensor point cloud data | |
US20220383749A1 (en) | Signal processing device, signal processing method, program, and mobile device | |
EP4264567A1 (en) | Available parking space identification device, available parking space identification method, and program | |
EP3700796B1 (en) | Methods for obstacle filtering for non-nudge planning system in autonomous driving vehicle | |
KR102094405B1 (en) | Method and apparatus for determining an accident using an image | |
KR102614325B1 (en) | Electronic device for analyzing an accident event of vehicle and operating method thereof | |
KR101875517B1 (en) | Method and apparatus for processing a image | |
US20210341926A1 (en) | Dynamic tire rotation during collision | |
CN114511834A (en) | Method and device for determining prompt information, electronic equipment and storage medium | |
KR20240049782A (en) | System for detecting vehicle object collision risk based on aritificial intelligence | |
CN114841336A (en) | Patching a deployed deep neural network for autonomous machine applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |