KR20220059923A - Electronic device and method for processing data received from in vehicle electronic device - Google Patents

Electronic device and method for processing data received from in vehicle electronic device Download PDF

Info

Publication number
KR20220059923A
KR20220059923A KR1020210148755A KR20210148755A KR20220059923A KR 20220059923 A KR20220059923 A KR 20220059923A KR 1020210148755 A KR1020210148755 A KR 1020210148755A KR 20210148755 A KR20210148755 A KR 20210148755A KR 20220059923 A KR20220059923 A KR 20220059923A
Authority
KR
South Korea
Prior art keywords
electronic device
vehicle
external electronic
information
video
Prior art date
Application number
KR1020210148755A
Other languages
Korean (ko)
Inventor
김대원
강정규
한태규
Original Assignee
팅크웨어(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 팅크웨어(주) filed Critical 팅크웨어(주)
Priority to US17/517,806 priority Critical patent/US20220141426A1/en
Publication of KR20220059923A publication Critical patent/KR20220059923A/en

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41422Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance located in transportation means, e.g. personal vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Abstract

The present invention relates to an electronic device and method for processing data received from an electronic device in a vehicle. According to various embodiments of the present invention, the electronic device is able to process a video streamed on a first external electronic device such as an image acquisition device for a vehicle, based on a designated status (e.g., traffic accident) identified from the first external electronic device. For instance, when a notification related to a designated status is received from the first external electronic device, the electronic device is able to acquire the information related to the designated status and broadcast the acquired information to one or more terminals (e.g., the terminal in Fig. 5 (130)) through a second external electronic device such as a navigation server. The terminals can respond to the broadcast and provide information related to the designated status to a user of the terminals. The information can be used for changing a navigation path provided by the terminals. The electronic device and method for processing data received from an electronic device in a vehicle are capable of rapidly recognizing an event occurring in the vehicle.

Description

차량 내 전자 장치로부터 수신되는 데이터를 처리하기 위한 전자 장치 및 방법{ELECTRONIC DEVICE AND METHOD FOR PROCESSING DATA RECEIVED FROM IN VEHICLE ELECTRONIC DEVICE}ELECTRONIC DEVICE AND METHOD FOR PROCESSING DATA RECEIVED FROM IN VEHICLE ELECTRONIC DEVICE

본 문서에 개시되는 다양한 실시예들은 차량용 전자 장치에 의해 획득되어 수신되는 데이터를 처리하기 위한 전자 장치 및 방법에 관련된다.Various embodiments disclosed in this document relate to an electronic device and method for processing data obtained and received by an electronic device for a vehicle.

차량 내에 소위 차량용 대쉬 캠(Car Dashboard Camera)라고 불리는 차량용 영상 획득 장치가 배치될 수 있다. 차량을 주행하는 상태에서, 차량용 영상 획득 장치는 차량의 지정된 상태(예를 들어, 급제동 및/또는 충돌(collision))를 탐지하고 그에 기반하는 비디오를 저장할 수 있다. A vehicle image acquisition device called a so-called vehicle dash cam (Car Dashboard Camera) may be disposed in the vehicle. In a state of driving the vehicle, the vehicle image acquisition device may detect a specified state (eg, sudden braking and/or collision) of the vehicle and store a video based thereon.

통신 기술의 발전에 따라, 차량용 데이터 획득 장치에서 캡처되고 있는 데이터 및/또는 차량용 데이터 획득 장치에서 인식되는 지정된 상태 및/또는 이벤트를 신속하게 인식하고, 인식 결과에 기반하여 관련된 기능을 수행하는 방안이 요구될 수 있다.With the development of communication technology, there is a method for quickly recognizing data being captured by the vehicle data acquisition device and/or a specified state and/or event recognized by the vehicle data acquisition device, and performing a related function based on the recognition result. may be requested

다양한 실시예들에 따른 전자 장치(electronic device)는, 통신 회로, 메모리 및 상기 통신 회로 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함하고, 상기 메모리는, 복수의 인스트럭션들을 저장하고, 상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가, 상기 통신 회로를 이용하여, 상기 전자 장치와 구별되는 제1 외부 전자 장치로부터 비디오를 수신하고, 상기 비디오를 수신하는 상태에서, 상기 제1 외부 전자 장치로부터 지정된 상태로의 진입을 알리는 제1 신호를 수신하고, 상기 제1 신호의 수신에 응답하여, 상기 수신된 비디오와 관련된 정보를 식별하고, 상기 정보의 식별에 응답하여, 상기 제1 외부 전자 장치와 구별되는 제2 외부 전자 장치로, 상기 정보의 적어도 일부를 포함하는 제2 신호를 송신하도록 제어할 수 있다. An electronic device according to various embodiments includes a communication circuit, a memory, and at least one processor operably coupled to the communication circuit and the memory, wherein the memory includes a plurality of store instructions, wherein, when the plurality of instructions are executed by the at least one processor, the at least one processor receives, using the communication circuit, a video from a first external electronic device that is distinct from the electronic device and, in a state of receiving the video, receives a first signal indicating entry into a specified state from the first external electronic device, and in response to the reception of the first signal, identifies information related to the received video and, in response to the identification of the information, control to transmit a second signal including at least a portion of the information to a second external electronic device distinct from the first external electronic device.

다양한 실시예들에 따른 단말은, 내장 디스플레이, 통신 회로, 메모리 및 상기 디스플레이, 통신 회로 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함하고, 상기 메모리는, 복수의 인스트럭션들을 저장하고, 상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가, 지정된 어플리케이션에 기반하여, 제1 외부 전자 장치와 통신하고, 상기 제1 외부 전자 장치로부터, 상기 제1 외부 전자 장치와 구별되는 제2 외부 전자 장치와 관련된 정보를 수신하고, 상기 정보의 수신에 응답하여, 상기 내장 디스플레이와 구별되는 외부 디스플레이를 식별하고, 상기 외부 디스플레이가 상기 단말과 연결된 제1 상태에서, 상기 외부 디스플레이 상에 상기 정보와 관련된 제1 시각 요소를 표시하고, 상기 제1 상태와 구별되는 제2 상태에서, 상기 내장 디스플레이 상에 상기 제1 시각 요소를 표시하고, 상기 제1 시각 요소를 표시한 상태에서, 상기 제1 시각 요소와 관련된 사용자 입력의 식별에 응답하여, 상기 제1 시각 요소와 관련되고, 상기 정보의 적어도 일부를 포함하는 제2 시각 요소를 표시하도록 제어하고, 상기 제2 시각 요소는, 상기 제1 상태에서 상기 내장 디스플레이 상에 표시되고, 상기 제2 상태에서 상기 외부 디스플레이에 표시될 수 있다.A terminal according to various embodiments includes a built-in display, a communication circuit, a memory and at least one processor operably coupled to the display, the communication circuit, and the memory, wherein the memory includes a plurality of store instructions, wherein, when the plurality of instructions are executed by the at least one processor, the at least one processor communicates with a first external electronic device based on a designated application, and receives the instructions from the first external electronic device. , receive information related to a second external electronic device that is distinguished from the first external electronic device, and in response to receiving the information, identify an external display that is distinct from the built-in display, and the external display is connected to the terminal In a first state, display a first visual element related to the information on the external display, and in a second state distinct from the first state, display the first visual element on the built-in display, and in a state in which the first visual element is displayed, in response to identification of a user input associated with the first visual element, control to display a second visual element associated with the first visual element and comprising at least a portion of the information; , the second visual element may be displayed on the built-in display in the first state and displayed on the external display in the second state.

다양한 실시예들에 따른 전자 장치는 차량용 데이터 획득 장치에서 캡처되고 있는 데이터 및/또는 차량용 데이터 획득 장치가 배치된 차량에서 발생되고 있는 이벤트를 신속하게 인식하고, 인식 결과에 기반하여 관련된 기능을 수행할 수 있다.The electronic device according to various embodiments of the present disclosure may quickly recognize data being captured by the in-vehicle data acquisition device and/or an event occurring in a vehicle in which the in-vehicle data acquisition device is disposed, and perform a related function based on the recognition result. can

도 1은 네트워크를 통해 연결된 전자 장치의 일 실시예와 관련된 블록도이다.
도 2는 다양한 실시예들에 따른 전자 장치의 동작을 설명하기 위한 신호 흐름도이다.
도 3은 일 실시예에 따른 전자 장치의 흐름도이다.
도 4는 일 실시예에 따른 전자 장치로부터 제공되는 정보를 처리하는 단말의 흐름도이다.
도 5는 일 실시예에 따른 전자 장치로부터 제공되는 정보에 응답하여, 단말이 출력하는 UI의 일 예를 도시한 도면이다.
도 6은 다양한 실시예들에 따른 차량용 영상 획득 장치(601)의 블록도이다.
도 7은 일 실시예에 따른 전자 장치가 생성하는 최소사고정보(MSD)의 데이터 구조를 도시한 도면이다.
도 8은, 도 7의 순번 4로 참조되는 정보(VehicleIdentificationNumber)의 데이터 타입, 제약 및 정의를 도시한 도면이다.
도 9는 일 실시예에 따른, 차량의 자율 주행 시스템을 도시한 블록도이다.
도 10은 일 실시 예에 따른 전자 장치의 블록도이다.
도 11은 일 실시 예에 따른 서버의 블록도이다.
도 12는 다양한 실시 예들에 따른 전자 장치의 동작을 설명하기 위한 신호 흐름도이다.
도 13은 다양한 실시 예들에 따른 서버의 동작을 설명하기 위한 신호 흐름도이다.
1 is a block diagram related to an embodiment of an electronic device connected through a network.
2 is a signal flow diagram illustrating an operation of an electronic device according to various embodiments of the present disclosure;
3 is a flowchart of an electronic device according to an exemplary embodiment.
4 is a flowchart of a terminal processing information provided from an electronic device according to an exemplary embodiment.
5 is a diagram illustrating an example of a UI output by a terminal in response to information provided from an electronic device according to an embodiment.
6 is a block diagram of an image acquisition apparatus 601 for a vehicle according to various embodiments.
7 is a diagram illustrating a data structure of minimum accident information (MSD) generated by an electronic device according to an exemplary embodiment.
FIG. 8 is a diagram illustrating data types, restrictions, and definitions of information (VehicleIdentificationNumber) referenced in sequence number 4 of FIG. 7 .
9 is a block diagram illustrating an autonomous driving system of a vehicle, according to an exemplary embodiment.
10 is a block diagram of an electronic device according to an embodiment.
11 is a block diagram of a server according to an embodiment.
12 is a signal flow diagram illustrating an operation of an electronic device according to various embodiments of the present disclosure;
13 is a signal flow diagram illustrating an operation of a server according to various embodiments of the present disclosure.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed herein are only exemplified for the purpose of explaining the embodiments according to the concept of the present invention, and the embodiment according to the concept of the present invention These may be embodied in various forms and are not limited to the embodiments described herein.

본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Since the embodiments according to the concept of the present invention may have various changes and may have various forms, the embodiments will be illustrated in the drawings and described in detail herein. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosed forms, and includes changes, equivalents, or substitutes included in the spirit and scope of the present invention.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from other components, for example, without departing from the scope of rights according to the concept of the present invention, a first component may be named a second component, Similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 “~사이에”와 “바로~사이에” 또는 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.When a component is referred to as being “connected” or “connected” to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle. Expressions describing the relationship between elements, for example, “between” and “between” or “directly adjacent to”, etc., should be interpreted similarly.

본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, “포함하다” 또는 “가지다” 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is used only to describe specific embodiments, and is not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as “comprise” or “have” are intended to designate that the described feature, number, step, operation, component, part, or combination thereof exists, and includes one or more other features or numbers, It should be understood that the possibility of the presence or addition of steps, operations, components, parts or combinations thereof is not precluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present specification. does not

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. Like reference numerals in each figure indicate like elements.

도 1은 네트워크를 통해 연결된 전자 장치(101)의 일 실시예와 관련된 블록도이다. 도 1을 참고하면, 전자 장치(101)는 제1 외부 전자 장치(110), 제2 외부 전자 장치(120)와 유선 네트워크 및/또는 무선 네트워크에 기반하여 연결될 수 있다. 제2 외부 전자 장치(120)는 유선 네트워크 및/또는 무선 네트워크를 통해 하나 이상의 단말(130)과 연결될 수 있다. 일 실시예에서, 제1 외부 전자 장치(110)는 차량 내에 배치된 적어도 하나의 차량용 영상 획득 장치를 포함할 수 있다. 일 실시예에서 차량용 영상 획득 장치는 차량용 비디오 레코더(Car Video Recorder), Car Dashboard Camera 등과 같이 이미지 센서에 의해 피사체로부터 반사되는 광(光) 신호를 입력받아 전기적인 영상 신호로 변환할 수 있는 장치를 포함할 수 있다. 1 is a block diagram related to an embodiment of an electronic device 101 connected through a network. Referring to FIG. 1 , the electronic device 101 may be connected to the first external electronic device 110 and the second external electronic device 120 based on a wired network and/or a wireless network. The second external electronic device 120 may be connected to one or more terminals 130 through a wired network and/or a wireless network. In an embodiment, the first external electronic device 110 may include at least one vehicle image acquisition device disposed in a vehicle. In an embodiment, the vehicle image acquisition device includes a device capable of receiving a light signal reflected from a subject by an image sensor, such as a car video recorder, a car dashboard camera, and the like and converting it into an electrical image signal. may include

일 실시예에서, 제2 외부 전자 장치(120)는 하나 이상의 단말(130)로 차량의 이동을 안내하기 위한 정보(예를 들어, 네비게이션 정보)를 제공할 수 있다. 일 실시예에서, 제2 외부 전자 장치(120)는 네비게이션 정보를 제공하기 위한 네비게이션 서비스의 서비스 제공자의 서버(예를 들어, 네비게이션 서버)에 대응할 수 있다. 일 실시예에서, 제2 외부 전자 장치(120)는 차량의 자율 주행 기능(autonomous driving function)을 지원하기 위한 자율 주행 알고리즘을 생성하는 자율 주행 서버(autonomous driving server)에 대응할 수 있다. 예를 들어, 제2 외부 전자 장치(120)는 제1 외부 전자 장치(110)에 의해 획득된 비디오 스트리밍을 네트워크와 연결된 전자 장치(101)를 통해 수신하고, 기계 학습 기반의 자율 주행 알고리즘에 따라 전자 장치(101)가 장착된 차량의 자율 주행을 위한 알고리즘이나 인공신경망을 생성한 후, 생성된 자율 주행을 위한 경로 정보를 전자 장치(101)로 송신함으로써, 차량의 자율 주행 기능을 지원(assist)하는 자율 주행 서버에 대응할 수 있다. 일 실시예에서, 전자 장치(101)의 프로세서(103)는 차량의 자율 주행을 제어하기 위한 제어 명령(control command)를 생성할 수 있다. 상기 차량의 자율 주행을 제어하기 위한 상기 제어 명령은 가속 명령, 감속 명령, 스티어링 휠 각도 조절 명령, 방향 지시등 제어 명령, 와이퍼 조절 명령 등을 포함할 수 있다. 일 실시예에서, 차량의 자율 주행을 위한 제어 명령을 생성하는 자율 주행 제어 시스템의 프로세서가 별도로 존재하는 경우, 상기 전자 장치(101)의 프로세서(103)는 상기 자율 주행 제어 시스템의 프로세서로 상기 제어 명령을 출력할 수 있다. In an embodiment, the second external electronic device 120 may provide information (eg, navigation information) for guiding the movement of a vehicle to one or more terminals 130 . In an embodiment, the second external electronic device 120 may correspond to a server (eg, a navigation server) of a service provider of a navigation service for providing navigation information. In an embodiment, the second external electronic device 120 may correspond to an autonomous driving server that generates an autonomous driving algorithm for supporting an autonomous driving function of a vehicle. For example, the second external electronic device 120 receives the video streaming obtained by the first external electronic device 110 through the electronic device 101 connected to the network, and according to the machine learning-based autonomous driving algorithm After generating an algorithm or artificial neural network for autonomous driving of a vehicle equipped with the electronic device 101, the generated path information for autonomous driving is transmitted to the electronic device 101 to assist the autonomous driving function of the vehicle. ) can respond to autonomous driving servers. In an embodiment, the processor 103 of the electronic device 101 may generate a control command for controlling autonomous driving of the vehicle. The control command for controlling the autonomous driving of the vehicle may include an acceleration command, a deceleration command, a steering wheel angle control command, a turn indicator light control command, a wiper control command, and the like. In an embodiment, when a separate processor of the autonomous driving control system that generates a control command for autonomous driving of the vehicle exists, the processor 103 of the electronic device 101 controls the autonomous driving control system using the processor of the autonomous driving control system. command can be printed.

하나의 제1 외부 전자 장치(110) 및 하나의 제2 외부 전자 장치(120)만 도시되었으나, 전자 장치(101)가 동시에 통신 가능한 제1 외부 전자 장치(110)의 개수 및 제2 외부 전자 장치(120)의 개수는 하나 이상일 수 있다. 상기 유선 네트워크는, 인터넷, LAN(Local Area Network), WAN(Wide Area Network), 이더넷 또는 이들의 조합과 같은 네트워크를 포함할 수 있다. 상기 무선 네트워크는, LTE(Long Term Evolution), 5g NR(New Radio), WiFi(Wireless Fidelity), Zigbee, NFC(Near Field Communication), Bluetooth, BLE(Bluetooth Low-Energy) 또는 이들의 조합과 같은 네트워크를 포함할 수 있다. 비록 전자 장치(101), 제1 외부 전자 장치(110) 및 제2 외부 전자 장치(120)가 직접적으로 연결된(directly connected) 것으로 도시되었으나, 전자 장치(101), 제1 외부 전자 장치(110) 및 제2 외부 전자 장치(120)는 하나 이상의 라우터 및/또는 AP(Access Point)를 통해 간접적으로 연결될 수 있다.Although only one first external electronic device 110 and one second external electronic device 120 are illustrated, the number of first external electronic devices 110 with which the electronic device 101 can communicate simultaneously and the second external electronic device The number of 120 may be one or more. The wired network may include a network such as the Internet, a local area network (LAN), a wide area network (WAN), Ethernet, or a combination thereof. The wireless network is a network such as Long Term Evolution (LTE), 5g New Radio (NR), Wireless Fidelity (WiFi), Zigbee, Near Field Communication (NFC), Bluetooth, Bluetooth Low-Energy (BLE), or a combination thereof. may include Although the electronic device 101 , the first external electronic device 110 , and the second external electronic device 120 are illustrated as being directly connected, the electronic device 101 and the first external electronic device 110 . and the second external electronic device 120 may be indirectly connected through one or more routers and/or access points (APs).

도 1을 참고하면, 일 실시예에 따른 전자 장치(101)는 프로세서(103), 메모리(105) 또는 통신 회로(107) 중 적어도 하나를 포함할 수 있다. 프로세서(103), 메모리(105) 및 통신 회로(107)는 통신 버스(a communication bus)와 같은 전자 소자(electronical component)에 의해 서로 전기적으로 및/또는 작동적으로 연결될 수 있다(electronically and/or operably coupled with each other). 전자 장치(101)에 포함된 하드웨어 컴포넌트의 타입 및/또는 개수는 도 1에 도시된 바에 제한되지 않는다. 예를 들어, 전자 장치(101)는 도 1에 도시된 하드웨어 컴포넌트 중 일부만 포함할 수 있다.Referring to FIG. 1 , an electronic device 101 according to an embodiment may include at least one of a processor 103 , a memory 105 , and a communication circuit 107 . The processor 103 , the memory 105 , and the communication circuit 107 may be electrically and/or operatively coupled to each other by an electronic component, such as a communication bus. operably coupled with each other). The type and/or number of hardware components included in the electronic device 101 is not limited to that illustrated in FIG. 1 . For example, the electronic device 101 may include only some of the hardware components illustrated in FIG. 1 .

일 실시예에 따른 전자 장치(101)의 프로세서(103)는 하나 이상의 인스트럭션에 기반하여 데이터를 처리하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 데이터를 처리하기 위한 하드웨어 컴포넌트는, 예를 들어, ALU(Arithmetic and Logic Unit), FPGA(Field Programmable Gate Array) 및/또는 CPU(Central Processing Unit)를 포함할 수 있다. 프로세서(103)의 개수는 하나 이상일 수 있다. 예를 들어, 프로세서(103)는 듀얼 코어(dual core), 쿼드 코어(quad core) 또는 헥사 코어(hexa core)와 같은 멀티-코어 프로세서의 구조를 가질 수 있다.The processor 103 of the electronic device 101 according to an embodiment may include a hardware component for processing data based on one or more instructions. Hardware components for processing data may include, for example, an Arithmetic and Logic Unit (ALU), a Field Programmable Gate Array (FPGA), and/or a Central Processing Unit (CPU). The number of processors 103 may be one or more. For example, the processor 103 may have a structure of a multi-core processor such as a dual core, a quad core, or a hexa core.

일 실시예에 따른 전자 장치(101)의 메모리(105)는 프로세서(103)에 입력 및/또는 출력되는 데이터 및/또는 인스트럭션을 저장하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 메모리(105)는, 예를 들어, RAM(Random-Access Memory)와 같은 휘발성 메모리(Volatile Memory) 및/또는 ROM(Read-Only Memory)와 같은 비휘발성 메모리(Non-Volatile Memory)를 포함할 수 있다. 휘발성 메모리는, 예를 들어, DRAM(Dynamic RAM), SRAM(Static RAM), Cache RAM, PSRAM (Pseudo SRAM) 중 적어도 하나를 포함할 수 있다. 비휘발성 메모리는, 예를 들어, PROM(Programmable ROM), EPROM (Erasable PROM), EEPROM (Electrically Erasable PROM), 플래시 메모리, 하드디스크, 컴팩트 디스크, eMMC(Embedded Multi Media Card) 중 적어도 하나를 포함할 수 있다.The memory 105 of the electronic device 101 according to an embodiment may include a hardware component for storing data and/or instructions input and/or output to the processor 103 . The memory 105 may include, for example, volatile memory such as random-access memory (RAM) and/or non-volatile memory such as read-only memory (ROM). there is. The volatile memory may include, for example, at least one of a dynamic RAM (DRAM), a static RAM (SRAM), a cache RAM, and a pseudo SRAM (PSRAM). The non-volatile memory may include, for example, at least one of a programmable ROM (PROM), an erasable PROM (EPROM), an electrically erasable PROM (EEPROM), a flash memory, a hard disk, a compact disk, and an embedded multi media card (eMMC). can

메모리(105) 내에서, 프로세서(103)가 데이터에 수행할 동작을 나타내는 인스트럭션이 하나 이상 저장될 수 있다. 인스트럭션의 집합은, 펌웨어, 운영 체제, 프로세스, 루틴, 서브-루틴 및/또는 어플리케이션으로 참조될 수 있다. 예를 들어, 전자 장치(101) 및/또는 전자 장치(101)의 프로세서(103)는 어플리케이션 형태로 배포된 복수의 인스트럭션의 집합(set of a plurality of instructions)을 실행하여, 도 2 내지 도 3의 동작들 중 적어도 하나를 수행할 수 있다.In the memory 105 , one or more instructions indicating an operation to be performed by the processor 103 on data may be stored. A set of instructions may be referred to as firmware, an operating system, a process, a routine, a sub-routine, and/or an application. For example, the electronic device 101 and/or the processor 103 of the electronic device 101 executes a set of a plurality of instructions distributed in the form of an application, so that FIGS. 2 to 3 . at least one of the operations of

일 실시예에 따른 전자 장치(101)의 통신 회로(107)는 전자 장치(101) 및 전자 장치(101)와 구별되는 다른 전자 장치(예를 들어, 제1 외부 전자 장치(110) 및/또는 제2 외부 전자 장치(120)) 사이의 전기 신호의 송신 및/또는 수신을 지원하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 통신 회로(107)는, 예를 들어, 모뎀(MODEM), 안테나, O/E(Optic/Electronic) 변환기 중 적어도 하나를 포함할 수 있다. 통신 회로(107)는, 이더넷(ethernet), LAN(Local Area Network), WAN(Wide Area Network), WiFi(Wireless Fidelity), Bluetooth, BLE(Bluetooth Low Energy), ZigBee, LTE(Long Term Evolution), 5G NR(New Radio)와 같은 다양한 타입의 프로토콜에 기반하여 전기 신호의 송신 및/또는 수신을 지원할 수 있다.The communication circuit 107 of the electronic device 101 according to an embodiment includes the electronic device 101 and another electronic device distinct from the electronic device 101 (eg, the first external electronic device 110 and/or A hardware component for supporting transmission and/or reception of an electrical signal between the second external electronic device 120 may be included. The communication circuit 107 may include, for example, at least one of a modem (MODEM), an antenna, and an O/E (Optic/Electronic) converter. Communication circuit 107, Ethernet (ethernet), LAN (Local Area Network), WAN (Wide Area Network), WiFi (Wireless Fidelity), Bluetooth, BLE (Bluetooth Low Energy), ZigBee, LTE (Long Term Evolution), Transmission and/or reception of electrical signals may be supported based on various types of protocols such as 5G New Radio (NR).

다양한 실시예들에 따른 전자 장치(101)는 제1 외부 전자 장치(110)에서 캡처되고 있는 비디오를 수신할 수 있다. 상기 비디오를 수신하는 상태에서, 전자 장치(101)는 제1 외부 전자 장치(110)에서 송신되는 지정된 상태와 관련된 알림을 수신할 수 있다. 상기 지정된 상태는, 예를 들어, 제1 외부 전자 장치(110) 및/또는 제1 외부 전자 장치(110)가 배치된 차량에 지정된 임계치를 초과하는 충격량이 가해진 상태를 포함할 수 있다. 상기 충격량은, 예를 들어, 제1 외부 전자 장치(110)에 포함된 가속도 센서 및/또는 자이로 센서에 의해 식별될 수 있다. 상기 충격량은, 예를 들어, 제1 외부 전자 장치(110)가 배치된 차량에서 발생된 충돌 및/또는 사고와 관련될 수 있다.The electronic device 101 according to various embodiments may receive a video being captured by the first external electronic device 110 . In the state of receiving the video, the electronic device 101 may receive a notification related to a specified state transmitted from the first external electronic device 110 . The specified state may include, for example, a state in which an impact amount exceeding a specified threshold is applied to the first external electronic device 110 and/or the vehicle in which the first external electronic device 110 is disposed. The amount of impact may be identified by, for example, an acceleration sensor and/or a gyro sensor included in the first external electronic device 110 . The amount of impact may be related to, for example, a collision and/or an accident occurring in a vehicle in which the first external electronic device 110 is disposed.

지정된 상태와 관련된 알림을 수신하는 것에 응답하여, 전자 장치(101)는 제1 외부 전자 장치(110)로부터 수신되는 비디오를 저장할 수 있다. 전자 장치(101)는 저장된 비디오와 관련된 정보를 획득할 수 있다. 상기 정보는, 예를 들어, 제1 외부 전자 장치(110)의 위치 및/또는 제1 외부 전자 장치(110)에서 식별된 충격량과 관련된 정보를 포함할 수 있다. 전자 장치(101)는 획득된 정보를, 제2 외부 전자 장치(120)로 송신할 수 있다. 제2 외부 전자 장치(120)는 전자 장치(101)로부터 수신한 정보를, 제1 외부 전자 장치(110)의 위치와 관련된 적어도 하나의 단말(130)로 송신할 수 있다.In response to receiving the notification related to the specified state, the electronic device 101 may store the video received from the first external electronic device 110 . The electronic device 101 may obtain information related to the stored video. The information may include, for example, information related to the location of the first external electronic device 110 and/or the amount of impact identified in the first external electronic device 110 . The electronic device 101 may transmit the obtained information to the second external electronic device 120 . The second external electronic device 120 may transmit information received from the electronic device 101 to the at least one terminal 130 related to the location of the first external electronic device 110 .

상술한 일 실시 예에서는 제1 외부 전자 장치(110)가 비디오를 획득하여 저장하는 것을 설명하였지만, 이에 제한되는 것은 아니다. 예를 들어, 제1 외부 전자 장치(110)가 LiDAR(Light Detection And Ranging) 센서 및/또는 RADAR(RAdio Detection and Ranging) 센서를 포함하고 있다면, LiDAR 센서 및/또는 RADAR 센서에서 획득된 센서 정보나, 이를 카메라를 이용하여 재구축한 정보와 결합한 정보를 제2 외부 전자 장치(120)로 송신할 수 있다. Although it has been described that the first external electronic device 110 acquires and stores the video in the above-described exemplary embodiment, the present invention is not limited thereto. For example, if the first external electronic device 110 includes a Light Detection and Ranging (LiDAR) sensor and/or a RAdio Detection and Ranging (RADAR) sensor, sensor information obtained from the LiDAR sensor and/or RADAR sensor or , information combined with information reconstructed using the camera may be transmitted to the second external electronic device 120 .

도 1을 참고하면, 단말(130)은 프로세서(131), 메모리(132), 통신 회로(133), 디스플레이(134) 또는 센서(135) 중 적어도 하나를 포함할 수 있다. 프로세서(131), 메모리(132), 통신 회로(133), 디스플레이(134) 및/또는 센서(135)는 통신 버스에 의해 전기적으로 연결될 수 있다. 프로세서(131), 메모리(132), 통신 회로(133) 각각은, 프로세서(103), 메모리(105), 통신 회로(107)와 적어도 일부 유사하게 동작할 수 있다.Referring to FIG. 1 , the terminal 130 may include at least one of a processor 131 , a memory 132 , a communication circuit 133 , a display 134 , and a sensor 135 . The processor 131 , the memory 132 , the communication circuit 133 , the display 134 , and/or the sensor 135 may be electrically connected by a communication bus. Each of the processor 131 , the memory 132 , and the communication circuit 133 may operate at least partially similarly to the processor 103 , the memory 105 , and the communication circuit 107 .

단말(130)은 디스플레이(134) 상에, 제2 외부 전자 장치(120)로부터 수신한 정보에 기반하는 UI(User Interface)를 표시할 수 있다. 단말(130)이 제2 외부 전자 장치(120)로부터 수신되는 정보에 기반하여 UI를 표시하는 동작은, 도 4 내지 도 5를 참고하여 상세히 설명한다.The terminal 130 may display a user interface (UI) based on information received from the second external electronic device 120 on the display 134 . An operation in which the terminal 130 displays the UI based on information received from the second external electronic device 120 will be described in detail with reference to FIGS. 4 to 5 .

도 2는 다양한 실시예들에 따른 전자 장치(101)의 동작을 설명하기 위한 신호 흐름도이다. 도 2의 전자 장치(101), 제1 외부 전자 장치(110), 제2 외부 전자 장치(120), 단말(130) 각각은 도 1의 전자 장치(101), 제1 외부 전자 장치(110), 제2 외부 전자 장치(120), 단말(130)을 포함할 수 있다. 예를 들어, 도 2에 도시된 전자 장치(101)의 동작들 중 적어도 하나는 도 1의 전자 장치(101) 및/또는 프로세서(103)에 의해 수행될 수 있다. 2 is a signal flow diagram for explaining an operation of the electronic device 101 according to various embodiments of the present disclosure. The electronic device 101 , the first external electronic device 110 , the second external electronic device 120 , and the terminal 130 of FIG. 2 are the electronic device 101 and the first external electronic device 110 of FIG. 1 , respectively. , the second external electronic device 120 and the terminal 130 may be included. For example, at least one of the operations of the electronic device 101 illustrated in FIG. 2 may be performed by the electronic device 101 and/or the processor 103 of FIG. 1 .

도 2를 참고하면, 동작(205)에서, 일 실시예에 따른 전자 장치(101)는 제1 외부 전자 장치(110)로부터 캡처되고 있는 비디오를 수신할 수 있다. 상기 비디오는 실시간 비디오 송신 프로토콜(real time video transferring protocol)에 기반하여 스트리밍될 수 있다. Referring to FIG. 2 , in operation 205 , the electronic device 101 according to an embodiment may receive a video being captured from the first external electronic device 110 . The video may be streamed based on a real time video transferring protocol.

일 실시예에서, 상기 비디오의 스트리밍은, 지정된 기준을 만족하는 조건 상에서(on a condition that), 실행될 수 있다. 예를 들면, 제1 외부 전자 장치(110)는, 제1 외부 전자 장치(110)와 관련된 전자 장치(예: 단말(130)) 내에 미리 저장된 전자 지도와, 제1 외부 전자 장치(110)를 통해 획득되는 이미지(또는 비디오)가 서로 다를 시, 상기 비디오의 스트리밍을 실행할 수 있다. 다른 예를 들면, 제1 외부 전자 장치(110)는, 제1 외부 전자 장치(110)를 포함하는 차량의 모드가 자율 주행 모드로부터 수동 주행 모드로 변경됨을 식별하는 것에 기반하여, 상기 비디오의 스트리밍을 실행할 수 있다. 하지만, 이에 제한되지 않는다. 또 다른 예를 들면, 제1 외부 전자 장치(110)는, 제1 외부 전자 장치(110)와 관련된 전자 장치(예: 단말(130)) 내에 미리 저장된 도로 상에 위치한 객체들의 정보(위치, 형태)와, 제1 외부 전자 장치(110)를 통해 획득되는 비디오 내에 존재하는 객체들의 정보(위치, 형태)가 서로 다를 시, 상기 비디오의 스트리밍을 실행할 수 있다. 여기서 상기 객체들은 신호등, 횡단보도, 경계석, 나무, 과속 방지 턱, 가로등, 중앙 분리대, 차로(Lane), Toll gate, 도로 표지판(Road sign), 도로 마크(road mark) 등이 포함될 수 있다. 일 실시예에서, 상기 비디오의 스트리밍은, 상기 지정된 기준을 검출한 타이밍으로부터 지정된 시간 동안 실행될 수도 있다. 하지만, 이에 제한되지 않는다. In an embodiment, the streaming of the video may be performed on a condition that satisfies a specified criterion. For example, the first external electronic device 110 uses an electronic map stored in advance in an electronic device (eg, the terminal 130 ) related to the first external electronic device 110 and the first external electronic device 110 . When the images (or videos) obtained through the process are different from each other, streaming of the video may be performed. As another example, the first external electronic device 110 may stream the video based on identifying that the mode of the vehicle including the first external electronic device 110 is changed from the autonomous driving mode to the manual driving mode. can run However, it is not limited thereto. As another example, the first external electronic device 110 includes information (position, shape) of objects located on a road that is stored in advance in an electronic device (eg, the terminal 130 ) related to the first external electronic device 110 . ) and information (position, shape) of objects existing in the video acquired through the first external electronic device 110 are different from each other, streaming of the video may be performed. Here, the objects may include a traffic light, a crosswalk, a boundary stone, a tree, a speed bump, a street lamp, a median, a lane, a toll gate, a road sign, a road mark, and the like. In an embodiment, the streaming of the video may be performed for a specified time from the timing of detecting the specified reference. However, it is not limited thereto.

전자 장치(101) 및 제1 외부 전자 장치(110)에서 동작(205)에 기반하는 스트리밍이 수행되고 있는 상태에서, 제1 외부 전자 장치(110)는 제1 외부 전자 장치(110) 및/또는 차량(예, 제1 외부 전자 장치(110)가 배치된 차량)에 가해지는 임계치를 초과하는 충격량을 식별할 수 있다. 상기 충격량의 식별에 응답하여, 제1 외부 전자 장치(110)는 전자 장치(101)로 상기 충격량과 관련된 지정된 상태로의 진입을 알리는 신호(210)를 송신할 수 있다. 상기 신호(210)는 제1 외부 전자 장치(110)의 GPS 좌표, 제1 외부 전자 장치(110)에서 식별된 충격량, 충격량이 식별된 순간에 제1 외부 전자 장치(110)에서 캡처된 비디오 프레임, 오디오 프레임 중 적어도 하나를 포함할 수 있다. In a state in which streaming based on operation 205 is being performed in the electronic device 101 and the first external electronic device 110 , the first external electronic device 110 may An amount of impact exceeding a threshold applied to a vehicle (eg, a vehicle in which the first external electronic device 110 is disposed) may be identified. In response to the identification of the impact amount, the first external electronic device 110 may transmit a signal 210 informing the electronic device 101 of entering a specified state related to the impact amount. The signal 210 includes the GPS coordinates of the first external electronic device 110 , the amount of impact identified in the first external electronic device 110 , and a video frame captured by the first external electronic device 110 at the moment when the amount of impact is identified. , may include at least one of audio frames.

신호(210)의 수신에 응답하여, 동작(215)에서, 일 실시예에 따른 전자 장치(101)는 스트리밍 중인 비디오를 저장할 수 있다. 전자 장치(101)가 비디오를 저장하는 것은, 비디오의 메타 데이터에 신호(210)에 포함된 정보의 적어도 일부를 저장하는 동작을 포함할 수 있다. 일 실시예에서, 상기 비디오를 저장한다는 것은, 동작 205를 통해 스트리밍되는 상기 비디오를 추가적으로 처리할 수 있도록, 상기 비디오의 스트리밍을 위해 이용되는 버퍼와 구별되는 다른 저장 장치 내에 상기 비디오를 저장하는 것을 의미할 수 있다. 일 실시예에서, 상기 비디오를 저장한다는 것은, 상기 비디오에 대한 인식(recognition)을 실행할 수 있도록, 상기 비디오를 전자 장치(101)와 구별되고, 상기 인식을 실행하는, 다른 전자 장치의 저장 장치 내에 저장하는 것을 포함할 수 있다. 하지만, 이에 제한되지 않는다. 일 실시예에서, 상기 저장을 유지하는 시간 구간의 길이는, 동작 210의 상기 신호의 유형에 따라 변경될 수 있다. 하지만, 이에 제한되지 않는다. In response to the reception of the signal 210 , in operation 215 , the electronic device 101 according to an embodiment may store the video being streamed. Storing the video by the electronic device 101 may include storing at least a portion of information included in the signal 210 in metadata of the video. In one embodiment, storing the video means storing the video in a different storage device different from a buffer used for streaming the video so that the video streamed through operation 205 can be further processed. can do. In one embodiment, storing the video means distinguishing the video from the electronic device 101 and executing the recognition in a storage device of another electronic device so as to perform recognition of the video. This may include storing However, it is not limited thereto. In an embodiment, the length of the time interval for maintaining the storage may be changed according to the type of the signal in operation 210 . However, it is not limited thereto.

일 실시예에서, 상기 비디오는, 상기 신호가 수신되지 않을 시, 지정된 시간이 경과된 후 폐기될 수 있다. 예를 들면, 상기 지정된 시간은, 상기 비디오를 일시적으로 저장하도록 구성된 버퍼의 크기에 기반하여, 결정될 수 있다. 하지만, 이에 제한되지 않는다. In an embodiment, the video may be discarded after a specified time elapses when the signal is not received. For example, the designated time may be determined based on a size of a buffer configured to temporarily store the video. However, it is not limited thereto.

도 2를 참고하면, 동작(220)에서, 일 실시예에 따른 전자 장치(101)는 저장된 비디오와 관련된 정보를 획득할 수 있다. 상기 정보는, 신호(210)에 포함된 지정된 상태와 관련된 정보 및/또는 스트리밍되고 있는 비디오를 인식한 결과 중 적어도 일부를 포함할 수 있다. 예를 들어, 전자 장치(101)는 뉴럴 네트워크를 이용하여 비디오를 인식하여, 비디오로부터 지정된 상태와 관련된 정보(예, 식별된 충격량과 관련된 외부 차량 및/또는 보행자)를 식별할 수 있다. Referring to FIG. 2 , in operation 220 , the electronic device 101 according to an embodiment may acquire information related to a stored video. The information may include at least a part of information related to a specified state included in the signal 210 and/or a result of recognizing the video being streamed. For example, the electronic device 101 may recognize a video using a neural network, and identify information related to a specified state (eg, an external vehicle and/or a pedestrian related to the identified impact amount) from the video.

정보의 획득에 응답하여, 전자 장치(101)는 제1 외부 전자 장치(110)와 구별되는 제2 외부 전자 장치(120)로, 획득된 정보의 적어도 일부를 포함하는 신호(225)를 송신할 수 있다. 상기 신호(225)는 동작(220)에서 획득된 정보 및/또는 신호(210)에 포함된 정보 중 적어도 일부를 포함할 수 있다. In response to the acquisition of the information, the electronic device 101 transmits a signal 225 including at least a portion of the acquired information to the second external electronic device 120 distinct from the first external electronic device 110 . can The signal 225 may include at least a portion of information obtained in operation 220 and/or information included in signal 210 .

신호(225)의 수신에 응답하여, 동작(230)에서, 제2 외부 전자 장치(120)는 신호에 포함된 정보와 관련된 하나 이상의 단말을 식별할 수 있다. 예를 들어, 신호(210)에 포함된 제1 외부 전자 장치(110)의 위치에 기반하여, 제2 외부 전자 장치(120)는 제1 외부 전자 장치(110)의 위치와 관련된 하나 이상의 단말을 식별할 수 있다. 예를 들어, 제2 외부 전자 장치(120)는 제1 외부 전자 장치(110)의 위치를 중심으로 지정된 거리 이내에 존재하는 하나 이상의 단말을 식별할 수 있다. 예를 들어, 제2 외부 전자 장치(120)는 제1 외부 전자 장치(110)의 위치와 적어도 일부 중첩되는 경로에 기반하여 이동 중인 하나 이상의 단말을 식별할 수 있다. 도 2와 같이, 제2 외부 전자 장치(120)가 단말(130)을 포함하는 하나 이상의 단말을 식별한 것으로 가정한다. In response to the reception of the signal 225 , in operation 230 , the second external electronic device 120 may identify one or more terminals related to information included in the signal. For example, based on the location of the first external electronic device 110 included in the signal 210 , the second external electronic device 120 selects one or more terminals related to the location of the first external electronic device 110 . can be identified. For example, the second external electronic device 120 may identify one or more terminals existing within a specified distance based on the location of the first external electronic device 110 . For example, the second external electronic device 120 may identify one or more moving terminals based on a path that at least partially overlaps with the location of the first external electronic device 110 . As shown in FIG. 2 , it is assumed that the second external electronic device 120 identifies one or more terminals including the terminal 130 .

제2 외부 전자 장치(120)는 단말(130)을 포함하는 제1 외부 전자 장치(110)의 위치와 관련된 하나 이상의 단말로, 제1 외부 전자 장치(110)의 지정된 상태와 관련된 정보를 포함하는 신호(235)를 송신할 수 있다. 단말(130)은, 상기 정보를 포함하는 상기 신호를 수신할 수 있다. 일 실시예에서, 단말(130)은, 상기 신호를 수신하는 것에 기반하여, 제2 외부 전자 장치(120)로부터 제공되는 네비게이션 서비스의 적어도 일부를 변경할 수 있다. 예를 들면, 단말(130)은, 단말(130)을 포함하는 차량의 이동을 위해 상기 차량 내에서 안내되고 있는 경로를 변경할 수 있다. 예를 들어, 상기 정보가 전자 지도 내에 포함되지 않은 포트 홀, 과속 방지턱 등의 외부 객체가 존재함을 지시하는(indicate) 경우, 단말(130)은 상기 외부 객체의 위치를 우회하도록, 상기 네비게이션 서비스를 위해 단말(130)의 디스플레이 상에서 표시되는 경로를 변경할 수 있다. 하지만, 이에 제한되지 않는다. 일 실시예에서, 단말(130)은, 상기 신호를 수신하는 것에 기반하여, 제2 외부 전자 장치(120)로부터 제공되는 자율 주행 알고리즘이나 인공신경망에 따른 자율 주행 기능의 적어도 일부를 변경할 수 있다. 예를 들면, 단말(130)은, 단말(130)을 포함하는 차량의 이동을 위해 상기 차량의 자율 주행 경로를 변경할 수 있다. 예를 들어, 상기 정보가 기 저장된 자율 주행을 위한 전자 지도 내에 포함되지 않는 외부 객체가 존재함을 지시하는(indicate) 경우, 단말(130)은 상기 외부 객체와의 충돌을 피하도록 또는 상기 외부 객체를 우회하도록, 상기 자율 주행 경로를 변경하기 위한 제어 명령을 생성할 수 있다. 하지만, 이에 제한되지 않는다. The second external electronic device 120 is one or more terminals related to the location of the first external electronic device 110 including the terminal 130 , and includes information related to a specified state of the first external electronic device 110 . Signal 235 may be transmitted. The terminal 130 may receive the signal including the information. In an embodiment, the terminal 130 may change at least a part of the navigation service provided from the second external electronic device 120 based on the reception of the signal. For example, the terminal 130 may change the route being guided in the vehicle for the movement of the vehicle including the terminal 130 . For example, when the information indicates that an external object such as a port hole or a speed bump not included in the electronic map exists, the terminal 130 bypasses the location of the external object, the navigation service For this purpose, the path displayed on the display of the terminal 130 may be changed. However, it is not limited thereto. In an embodiment, the terminal 130 may change at least a part of an autonomous driving algorithm provided from the second external electronic device 120 or an autonomous driving function according to an artificial neural network based on the reception of the signal. For example, the terminal 130 may change the autonomous driving path of the vehicle to move the vehicle including the terminal 130 . For example, when the information indicates that there is an external object that is not included in the pre-stored electronic map for autonomous driving, the terminal 130 is configured to avoid a collision with the external object or to avoid a collision with the external object. A control command for changing the autonomous driving path may be generated to bypass the . However, it is not limited thereto.

그리고, 상술한 일 실시예에서는 제1 외부 전자 장치(110)가 전자 장치(101)로 비디오의 스트리밍을 실행하는 것을 설명하였지만, 이에 제한되지 않는다. 예컨대, 제1 외부 전자 장치(110)가 이미지 센서와 같은 시각적 센서들(visual sensors) 외에도 Lidar 및 RADAR와 같은 비-시각적 센서들(non-visual sensors)을 더 포함한다면, 비디오 스트리밍 외에 Lidar 및 RADAR에 의해 획득된 센서 정보를 포함하여 전자 장치(101)로 스트리밍할 수 있다. 추가적으로, 제1 외부 전자 장치(110)가 전자 장치(101)로 상기 비디오 및 상기 센서 정보의 스트리밍을 실행할 때, 상기 비디오 및 상기 센서 정보를 획득한 위치 정보가 포함될 수 있다. 일 실시예에서, 단말(130)은, 상기 신호를 수신하는 것에 기반하여, 교통 인프라스트럭쳐의 보안이 필요함을 식별하고, 상기 식별에 기반하여 적어도 하나의 동작을 실행할 수 있다. 예를 들어, 단말(130)이 교통 인프라스트럭쳐를 보수하는 차량 내에 포함된 장치인 경우, 단말(130)은, 보수가 요구되는 교통 인프라스트Ž쳐가 어디에 위치되는지를 나타내는 알림을 단말(130)의 디스플레이를 통해 표시할 수 있다. 하지만, 이에 제한되지 않는다. Also, although it has been described that the first external electronic device 110 performs video streaming to the electronic device 101 in the above-described exemplary embodiment, the present invention is not limited thereto. For example, if the first external electronic device 110 further includes non-visual sensors such as Lidar and RADAR in addition to visual sensors such as an image sensor, Lidar and RADAR in addition to video streaming It may stream to the electronic device 101 including the sensor information obtained by . Additionally, when the first external electronic device 110 streams the video and the sensor information to the electronic device 101 , location information obtained by acquiring the video and the sensor information may be included. In an embodiment, the terminal 130 may identify that security of the traffic infrastructure is necessary based on receiving the signal, and execute at least one operation based on the identification. For example, when the terminal 130 is a device included in a vehicle for repairing traffic infrastructure, the terminal 130 sends a notification indicating where the traffic infrastructure requiring repair is located to the terminal 130 ) can be displayed through the display. However, it is not limited thereto.

일 실시예에서, 상기 신호(235)는 단말(130)에 표시되는 UI를 변경하기 위한 정보를 포함할 수 있다. 단말(130)이 신호(235)의 수신에 응답하여, 표시하는 UI의 일 예는 도 5를 참고하여 상세히 설명한다. In an embodiment, the signal 235 may include information for changing the UI displayed on the terminal 130 . An example of the UI displayed by the terminal 130 in response to the reception of the signal 235 will be described in detail with reference to FIG. 5 .

도 3은 일 실시예에 따른 전자 장치의 흐름도이다. 도 3의 전자 장치는 도 1 내지 도 2의 전자 장치(101)를 포함할 수 있다. 도 3의 동작들 중 적어도 하나는 도 1의 전자 장치(101) 및/또는 프로세서(103)에 의해 수행될 수 있다. 3 is a flowchart of an electronic device according to an exemplary embodiment. The electronic device of FIG. 3 may include the electronic device 101 of FIGS. 1 to 2 . At least one of the operations of FIG. 3 may be performed by the electronic device 101 and/or the processor 103 of FIG. 1 .

도 3을 참고하면, 동작(310)에서, 일 실시예에 따른 전자 장치는 제1 외부 전자 장치(예, 도 1 내지 도 2의 제1 외부 전자 장치(110))로부터 비디오를 수신할 수 있다. 동작(310)은 도 2의 동작(205)와 유사하게 수행될 수 있다. Referring to FIG. 3 , in operation 310 , the electronic device according to an embodiment may receive a video from the first external electronic device (eg, the first external electronic device 110 of FIGS. 1 to 2 ). . Operation 310 may be performed similarly to operation 205 of FIG. 2 .

도 3을 참고하면, 동작(320)에서, 일 실시예에 따른 전자 장치는 제1 외부 전자 장치로부터 지정된 상태로의 진입을 알리는 신호를 수신하였는지 여부를 판단할 수 있다. 상기 신호는, 예를 들어, 도 2의 신호(210)를 포함할 수 있다. 예를 들어, 상기 신호는 제1 외부 전자 장치에서 식별된 사고와 관련된 정보를 포함할 수 있다.Referring to FIG. 3 , in operation 320 , the electronic device according to an embodiment may determine whether or not a signal notifying entry into a specified state is received from the first external electronic device. The signal may include, for example, the signal 210 of FIG. 2 . For example, the signal may include information related to an accident identified in the first external electronic device.

제1 외부 전자 장치로부터 지정된 상태로의 진입을 알리는 신호를 수신하지 않은 경우(320-아니오), 전자 장치는 동작(310)에 기반하여 비디오를 수신하는 상태를 유지할 수 있다(may maintain). 제1 외부 전자 장치로부터 지정된 상태로의 진입을 알리는 신호를 수신한 경우(320-예), 동작(330)에서, 전자 장치는 수신된 비디오를 저장할 수 있다. 동작(330)은 도 2의 동작(215)와 유사하게 수행될 수 있다. If a signal for notifying entry into the specified state is not received from the first external electronic device (320 - NO), the electronic device may maintain a state of receiving a video based on operation 310 . When a signal for notifying the entry to the specified state is received from the first external electronic device ( 320 - Yes), in operation 330 , the electronic device may store the received video. Operation 330 may be performed similarly to operation 215 of FIG. 2 .

도 3을 참고하면, 동작(340)에서, 일 실시예에 따른 전자 장치는 저장된 비디오와 관련된 정보를 식별할 수 있다. 동작(340)은 도 2의 동작(220)과 유사하게 수행될 수 있다.Referring to FIG. 3 , in operation 340 , the electronic device according to an embodiment may identify information related to a stored video. Operation 340 may be performed similarly to operation 220 of FIG. 2 .

비디오와 관련된 정보의 식별에 응답하여, 동작(350)에서, 일 실시예에 따른 전자 장치는 제2 외부 전자 장치(예, 도 1 내지 도 2의 제2 외부 전자 장치(120))로, 식별된 정보의 적어도 일부를 송신할 수 있다. 전자 장치가 제2 외부 전자 장치(120)로 송신하는 정보는, 예를 들어, 도 2의 신호(225)에 포함된 정보에 대응할 수 있다. 동작(350)의 정보를 수신한 제2 외부 전자 장치는, 하나 이상의 단말로 제1 외부 전자 장치의 지정된 상태로의 진입과 관련된 정보를 브로드캐스팅할 수 있다.In response to the identification of the video-related information, in operation 350 , the electronic device according to an embodiment is identified as a second external electronic device (eg, the second external electronic device 120 of FIGS. 1 to 2 ). It is possible to transmit at least a portion of the received information. Information transmitted from the electronic device to the second external electronic device 120 may correspond to, for example, information included in the signal 225 of FIG. 2 . Upon receiving the information in operation 350 , the second external electronic device may broadcast information related to the entry into the specified state of the first external electronic device to one or more terminals.

도 4는 일 실시예에 따른 전자 장치로부터 제공되는 정보를 처리하는 단말의 흐름도이다. 상기 정보는, 도 1 내지 도 2의 전자 장치(101) 및 제2 외부 전자 장치(120)를 거쳐 단말(130)로 제공될 수 있다. 도 4의 단말은 도 1 내지 도 2의 단말(130)을 포함할 수 있다. 도 4의 동작은, 도 1 내지 도 2의 단말(130) 및/또는 프로세서(131)에 의해 수행될 수 있다.4 is a flowchart of a terminal processing information provided from an electronic device according to an exemplary embodiment. The information may be provided to the terminal 130 through the electronic device 101 and the second external electronic device 120 of FIGS. 1 to 2 . The terminal of FIG. 4 may include the terminal 130 of FIGS. 1 to 2 . The operation of FIG. 4 may be performed by the terminal 130 and/or the processor 131 of FIGS. 1 to 2 .

도 4를 참고하면, 동작(410)에서, 일 실시예에 따른 단말은 지정된 어플리케이션에 기반하여, 적어도 하나의 디스플레이를 제어할 수 있다. 상기 지정된 어플리케이션은, 예를 들어, 네비게이션 어플리케이션을 포함할 수 있다. 상기 적어도 하나의 디스플레이는, 단말에 포함된 내장 디스플레이(예, 터치 스크린)를 포함할 수 있다. 상기 적어도 하나의 디스플레이는, HDMI, USB-C, D-SUB 및/또는 WIDI와 같은 인터페이스에 기반하여 단말과 연결된 외부 디스플레이를 포함할 수 있다. 동작(410)은, 예를 들어, 네비게이션 어플리케이션에 기반하여 경로를 안내하는 상태에서 수행될 수 있다.Referring to FIG. 4 , in operation 410 , the terminal according to an embodiment may control at least one display based on a specified application. The designated application may include, for example, a navigation application. The at least one display may include a built-in display (eg, a touch screen) included in the terminal. The at least one display may include an external display connected to the terminal based on an interface such as HDMI, USB-C, D-SUB and/or WIDI. Operation 410 may be performed, for example, in a state of guiding a route based on a navigation application.

동작(410)에 기반하여 적어도 하나의 디스플레이를 제어하는 상태에서, 동작(420)에서, 일 실시예에 따른 단말은 제2 외부 전자 장치(예, 도 1 내지 도 2의 제2 외부 전자 장치(120))로부터 제1 외부 전자 장치(예, 도 1 내지 도 2의 제1 외부 전자 장치(110))와 관련된 정보를 수신하였는지 여부를 판단할 수 있다. 상기 정보는, 예를 들어, 도 2의 신호(235)에 포함된 신호로, 제1 외부 전자 장치에서 식별된 사고와 관련된 정보를 포함할 수 있다.In a state of controlling at least one display based on operation 410 , in operation 420 , the terminal according to an embodiment performs the second external electronic device (eg, the second external electronic device (eg, the second external electronic device of FIGS. 1 to 2 ) 120)), it may be determined whether information related to the first external electronic device (eg, the first external electronic device 110 of FIGS. 1 to 2 ) has been received. The information is, for example, a signal included in the signal 235 of FIG. 2 and may include information related to an accident identified in the first external electronic device.

제1 외부 전자 장치와 관련된 정보를 수신하지 않은 상태에서(420-아니오), 단말은 동작(410)에 기반하여 적어도 하나의 디스플레이를 제어하는 것을 유지할 수 있다. 제1 외부 전자 장치와 관련된 정보를 수신하는 것에 응답하여(420-예), 동작(430)에서, 일 실시예에 따른 단말은 외부 디스플레이가 단말에 연결되었는지 여부를 식별할 수 있다.In a state in which information related to the first external electronic device is not received ( 420 - No), the terminal may maintain control of at least one display based on operation 410 . In response to receiving the information related to the first external electronic device (420 - Yes), in operation 430 , the terminal according to an embodiment may identify whether an external display is connected to the terminal.

외부 디스플레이가 단말에 연결되지 않은 상태에서(430-아니오), 동작(440)에서, 단말은 내장 디스플레이에 제1 외부 전자 장치와 관련된 제1 시각 요소를 표시할 수 있다. 상기 제1 시각 요소는 제1 외부 전자 장치에서 식별된 사고를 알리기 위한 텍스트, 아이콘, 이미지 또는 애니메이션 중 적어도 하나를 포함할 수 있다. 외부 디스플레이가 단말에 연결된 상태에서(430-예), 동작(450)에서, 단말은 외부 디스플레이에 제1 외부 전자 장치와 관련된 상기 제1 시각 요소를 표시할 수 있다.In a state in which the external display is not connected to the terminal ( 430 - NO), in operation 440 , the terminal may display a first visual element related to the first external electronic device on the built-in display. The first visual element may include at least one of a text, an icon, an image, and an animation for notifying an accident identified by the first external electronic device. In a state in which the external display is connected to the terminal (430 - Yes), in operation 450, the terminal may display the first visual element related to the first external electronic device on the external display.

동작(440)에 기반하여 제1 시각 요소를 표시한 상태에서, 동작(470)에서, 일 실시예에 따른 단말은 사용자로부터 제1 시각 요소와 관련된 사용자 입력을 식별할 수 있다. 상기 사용자 입력은 제1 시각 요소를 터치 및/또는 클릭하는 사용자의 제스쳐를 포함할 수 있다. 제1 시각 요소와 관련된 사용자 입력을 식별하는 것에 응답하여(470-예), 동작(460)에서, 단말은 적어도 하나의 디스플레이에 제1 시각 요소와 관련된 제2 시각 요소를 표시할 수 있다. 제2 시각 요소는 제1 외부 전자 장치에서 식별된 사고와 관련된 정보를 포함할 수 있다.In a state in which the first visual element is displayed based on operation 440 , in operation 470 , the terminal according to an embodiment may identify a user input related to the first visual element from the user. The user input may include a user's gesture of touching and/or clicking the first visual element. In response to identifying the user input associated with the first visual element (470-Yes), in operation 460 , the terminal may display the second visual element associated with the first visual element on the at least one display. The second visual element may include information related to an accident identified in the first external electronic device.

도 4를 참고하면, 동작(460)에 기반하여 상기 제2 시각 요소를 표시하는 것은, 외부 디스플레이의 연결 여부에 따라 다르게 수행될 수 있다. 예를 들어, 외부 디스플레이가 단말에 연결된 경우, 단말은 동작(450)에 기반하여, 외부 디스플레이에 제1 시각 요소를 표시한 상태에서, 동작(460)에 기반하여 외부 디스플레이 및/또는 내장 디스플레이 중 적어도 하나에 제2 시각 요소를 표시할 수 있다. 예를 들어, 외부 디스플레이가 단말에 연결되지 않은 경우, 단말은 동작들(440, 470)에 기반하여, 사용자 입력이 수행된 상태에서 제2 시각 요소를, 내장 디스플레이 내에 표시할 수 있다.Referring to FIG. 4 , displaying the second visual element based on operation 460 may be performed differently depending on whether an external display is connected. For example, when an external display is connected to the terminal, the terminal displays the first visual element on the external display based on the operation 450 , and based on the operation 460 , an external display and/or a built-in display At least one of the second visual elements may be displayed. For example, when the external display is not connected to the terminal, the terminal may display the second visual element in the built-in display while the user input is performed based on the operations 440 and 470 .

도 5는 일 실시예에 따른 전자 장치로부터 제공되는 정보에 응답하여, 단말(130)이 출력하는 UI의 일 예를 도시한 도면이다. 상기 전자 장치는 도 1 내지 도 2의 전자 장치(101)를 포함할 수 있다. 상기 단말은 도 1 내지 도 2의 단말(130)을 포함할 수 있다. 도 5의 UI는, 도 4의 동작들 중 적어도 하나에 기반하여 표시될 수 있다. 5 is a diagram illustrating an example of a UI output by the terminal 130 in response to information provided from an electronic device according to an embodiment. The electronic device may include the electronic device 101 of FIGS. 1 to 2 . The terminal may include the terminal 130 of FIGS. 1 to 2 . The UI of FIG. 5 may be displayed based on at least one of the operations of FIG. 4 .

도 5를 참고하면, 단말(130)과 연결 가능한 외부 디스플레이(510)가 도시된다. 외부 디스플레이(510)는, 예를 들어, 차량 내에 배치된 디스플레이를 포함할 수 있다. 상기 외부 디스플레이(510)는 도 4의 외부 디스플레이에 대응할 수 있다.Referring to FIG. 5 , an external display 510 connectable to the terminal 130 is illustrated. The external display 510 may include, for example, a display disposed in a vehicle. The external display 510 may correspond to the external display of FIG. 4 .

도 5를 참고하면, 단말(130)은 네비게이션 어플리케이션과 같은 지정된 어플리케이션에 기반하는 화면(520)을, 단말(130)의 내장 디스플레이 및/또는 외부 디스플레이(510)에 표시할 수 있다. 예를 들어, 단말(130) 및 외부 디스플레이(510)가 유선 네트워크 및/또는 무선 네트워크를 통해 연결된 상태에서, 단말(130)은 외부 디스플레이(510) 상에 화면(520)을 표시할 수 있다. 다른 예를 들어, 단말(130) 및 외부 디스플레이(510)가 연결되지 않은 상태에서, 단말(130)은 내장 디스플레이 내에 화면(520)을 표시할 수 있다.Referring to FIG. 5 , the terminal 130 may display a screen 520 based on a designated application, such as a navigation application, on the built-in display and/or the external display 510 of the terminal 130 . For example, in a state in which the terminal 130 and the external display 510 are connected through a wired network and/or a wireless network, the terminal 130 may display the screen 520 on the external display 510 . For another example, in a state in which the terminal 130 and the external display 510 are not connected, the terminal 130 may display the screen 520 in the built-in display.

단말(130) 및/또는 외부 디스플레이(510)와 구별되는 차량에서 발생된 사고에 응답하여, 도 1 내지 도 4에서 설명한 바와 같이, 상기 사고와 관련된 정보가 단말(130)로 제공될 수 있다. 예를 들어, 사고가 발생된 차량에 배치된 차량용 영상 획득 장치와 같은 제1 외부 전자 장치가 일 실시예에 따른 전자 장치로 상기 사고의 발생을 알리고, 전자 장치가 발생된 사고와 관련된 정보를 네비게이션 서버에 대응하는 제2 외부 전자 장치로 송신할 수 있다. 제2 외부 전자 장치는 상기 사고가 발생된 위치에 인접하거나, 및/또는 상기 위치에 중첩되는 경로를 따라 이동 중인 단말(130)로, 사고와 관련된 정보를 송신할 수 있다. In response to an accident occurring in a vehicle that is distinct from the terminal 130 and/or the external display 510 , as described with reference to FIGS. 1 to 4 , information related to the accident may be provided to the terminal 130 . For example, a first external electronic device, such as an image acquisition device for a vehicle disposed in a vehicle in which an accident has occurred, notifies the occurrence of the accident to the electronic device according to an embodiment, and the electronic device navigates information related to the accident. The data may be transmitted to the second external electronic device corresponding to the server. The second external electronic device may transmit information related to the accident to the terminal 130 moving along a path adjacent to and/or overlapping the location where the accident occurred.

상기 정보의 수신에 응답하여, 단말(130)은 화면(520) 내에 사고와 관련된 정보를 표시할 수 있다. 예를 들어, 단말(130)은 사고를 알리는 제1 시각 요소(522)를 표시할 수 있다. 상기 제1 시각 요소(522)는, 도 4의 동작들(440, 450)의 제1 시각 요소에 대응할 수 있다. 도 5를 참고하면, 제1 시각 요소(522)는 화면(520) 상의 지도 이미지 내에서, 사고가 발생된 위치에 대응하는 좌표를 가질 수 있고, 사고와 관련된 정보(예를 들어, 사고가 발생된 시간)를 포함할 수 있다. 단말(130)은 화면(520) 내에, 사고의 발생에 따른 경로의 변경을 알리는 메시지(524)를 더 표시할 수 있다. In response to the reception of the information, the terminal 130 may display information related to the accident in the screen 520 . For example, the terminal 130 may display the first visual element 522 notifying the accident. The first visual element 522 may correspond to the first visual element of operations 440 and 450 of FIG. 4 . Referring to FIG. 5 , the first visual element 522 may have coordinates corresponding to the location where the accident occurred in the map image on the screen 520 , and information related to the accident (eg, the accident occurred) time) may be included. The terminal 130 may further display, on the screen 520 , a message 524 notifying the change of the route according to the occurrence of an accident.

사용자가 제1 시각 요소(522)를 터치 및/또는 클릭하는 경우, 단말(130)은 사고와 관련된 상세한 정보를 포함하는 화면(530)을 더 표시할 수 있다. 화면(530)을 참고하면, 단말(130)은 사고의 타입, 사고에 의해 폐쇄되는 차로, 사고와 관련된 CCTV 화면 및/또는 다른 사용자가 제보한 비디오와 관련된 시각 요소를 더 표시할 수 있다. 비록 단말(130)이 내장 디스플레이 상에 화면(530)을 표시하는 일 실시예가 도시되었으나, 단말(130)은 화면(530)을 외부 디스플레이(510)의 적어도 일부분에 표시할 수 있다. When the user touches and/or clicks the first visual element 522 , the terminal 130 may further display a screen 530 including detailed information related to the accident. Referring to the screen 530 , the terminal 130 may further display the type of accident, the lane closed by the accident, a CCTV screen related to the accident, and/or a visual element related to a video reported by another user. Although an embodiment in which the terminal 130 displays the screen 530 on the built-in display is illustrated, the terminal 130 may display the screen 530 on at least a portion of the external display 510 .

다양한 실시예들에 따른 전자 장치는 차량용 영상 획득 장치와 같은 제1 외부 전자 장치로부터 스트리밍 되고 있는 비디오를, 제1 외부 전자 장치에서 식별된 지정된 상태(예, 교통 사고)에 기반하여 처리할 수 있다. 예를 들어, 제1 외부 전자 장치로부터 지정된 상태와 관련된 알림을 수신하는 경우, 전자 장치는 지정된 상태와 관련된 정보를 획득한 다음, 획득된 정보를 네비게이션 서버 또는 자율 주행 서버와 같은 제2 외부 전자 장치를 통해 하나 이상의 단말(예, 도 5의 단말(130))로 브로드캐스팅할 수 있다. 단말은 상기 브로드캐스팅에 응답하여, 상기 단말의 사용자에게 상기 지정된 상태와 관련된 정보를 제공할 수 있다. 상기 정보는 단말에 의해 제공되고 있는 네비게이션 경로의 변경 또는 자율 주행 경로의 변경에 이용될 수 있다.The electronic device according to various embodiments may process a video being streamed from a first external electronic device, such as an image acquisition device for a vehicle, based on a specified state (eg, a traffic accident) identified in the first external electronic device. . For example, when receiving a notification related to a specified state from the first external electronic device, the electronic device obtains information related to the specified state, and then transmits the obtained information to a second external electronic device such as a navigation server or an autonomous driving server. It can be broadcast to one or more terminals (eg, the terminal 130 of FIG. 5 ) through . The terminal may provide information related to the designated state to the user of the terminal in response to the broadcasting. The information may be used to change the navigation route being provided by the terminal or change the autonomous driving route.

상술한 바와 같은, 다양한 실시예들에 따른 전자 장치(electronic device)는, 통신 회로, 메모리 및 상기 통신 회로 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함하고, 상기 메모리는, 복수의 인스트럭션들을 저장하고, 상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가, 상기 통신 회로를 이용하여, 상기 전자 장치와 구별되는 제1 외부 전자 장치로부터 비디오를 수신하고, 상기 비디오를 수신하는 상태에서, 상기 제1 외부 전자 장치로부터 지정된 상태로의 진입을 알리는 제1 신호를 수신하고, 상기 제1 신호의 수신에 응답하여, 상기 수신된 비디오와 관련된 정보를 식별하고, 상기 정보의 식별에 응답하여, 상기 제1 외부 전자 장치와 구별되는 제2 외부 전자 장치로, 상기 정보의 적어도 일부를 포함하는 제2 신호를 송신하도록 제어할 수 있다. As described above, an electronic device according to various embodiments includes a communication circuit, a memory, and at least one processor operably coupled to the communication circuit and the memory, wherein the The memory stores a plurality of instructions, and when the plurality of instructions are executed by the at least one processor, the at least one processor uses the communication circuit to cause a first external electronic device to be distinguished from the electronic device. Receive a video from a device, and in a state of receiving the video, receive a first signal for notifying entry to a specified state from the first external electronic device, and in response to receiving the first signal, the received video and control to transmit a second signal including at least a portion of the information to a second external electronic device distinguished from the first external electronic device in response to the identification of the information.

일 실시예에서, 상기 비디오는, 상기 제2 외부 전자 장치와 연계되고, 상기 제1 외부 전자 장치를 포함하는 차량 내에 위치된 제3 외부 전자 장치 상에 표시된 전자 지도가 상기 제1 외부 전자 장치에 의해 획득된 비디오에 대응하지 않음을 상기 제3 외부 전자 장치가 식별하는 것에 기반하여, 상기 제1 외부 전자 장치로부터 상기 전자 장치에게 송신될 수 있다. In an embodiment, the video is associated with the second external electronic device, and an electronic map displayed on a third external electronic device located in a vehicle including the first external electronic device is displayed on the first external electronic device. It may be transmitted from the first external electronic device to the electronic device based on the third external electronic device identifying that it does not correspond to the video acquired by the .

일 실시예에서, 상기 비디오는, 상기 제2 외부 전자 장치와 연계되고, 상기 제1 외부 전자 장치를 포함하는 차량 내에 위치된 제3 외부 전자 장치가 인식한 객체가 상기 제1 외부 전자 장치에 의해 획득된 비디오로부터 검출된 객체에 대응하지 않음을 상기 제3 외부 전자 장치가 식별하는 것에 기반하여, 상기 제1 외부 전자 장치로부터 상기 전자 장치에게 송신될 수 있다. In an embodiment, in the video, an object recognized by a third external electronic device connected to the second external electronic device and located in a vehicle including the first external electronic device is displayed by the first external electronic device. The data may be transmitted from the first external electronic device to the electronic device based on the third external electronic device identifying that it does not correspond to the object detected from the acquired video.

일 실시예에서, 상기 비디오는, 상기 전자 장치를 포함하는 차량의 주행 모드가 자율 주행 모드로부터 수동 주행 모드로 변경되는 조건 상에서, 상기 제1 외부 전자 장치로부터 상기 전자 장치에게 송신될 수 있다. In an embodiment, the video may be transmitted from the first external electronic device to the electronic device under a condition that a driving mode of a vehicle including the electronic device is changed from an autonomous driving mode to a manual driving mode.

일 실시예에서, 상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가, 상기 제1 신호의 수신에 기반하여, 상기 비디오를 저장하고, 상기 제1 신호의 미수신에 기반하여, 상기 비디오를 지정된 시간이 경과된 후 폐기하도록, 제어할 수 있다. 일 실시예에서, 상기 비디오를 저장하는 것을 유지하는 시간 구간의 길이는, 상기 제1 신호의 유형에 기반하여, 변경될 수 있다. In an embodiment, the plurality of instructions, when executed by the at least one processor, cause the at least one processor to store the video based on reception of the first signal, and not receive the first signal. Based on , it is possible to control the video to be discarded after a specified time has elapsed. In an embodiment, the length of the time interval for maintaining storing the video may be changed based on the type of the first signal.

일 실시예에서, 상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가, 상기 제1 신호에 기반하여, 뉴럴 네트워크를 이용하여 상기 비디오를 인식함으로써, 상기 비디오와 관련된 상기 정보를 식별하도록, 제어할 수 있다. In an embodiment, the plurality of instructions, when executed by the at least one processor, the at least one processor recognizes the video using a neural network based on the first signal, thereby It can be controlled to identify the relevant information.

일 실시예에서, 상기 제2 신호는, 상기 정보의 적어도 일부와 관련된 하나 이상의 단말을 식별하도록, 상기 제2 외부 전자 장치를 야기할 수 있다. In an embodiment, the second signal may cause the second external electronic device to identify one or more terminals related to at least a part of the information.

상술한 바와 같은, 다양한 실시예들에 따른 단말은, 내장 디스플레이, 통신 회로, 메모리 및 상기 디스플레이, 통신 회로 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함하고, 상기 메모리는, 복수의 인스트럭션들을 저장하고, 상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가, 지정된 어플리케이션에 기반하여, 제1 외부 전자 장치와 통신하고, 상기 제1 외부 전자 장치로부터, 상기 제1 외부 전자 장치와 구별되는 제2 외부 전자 장치와 관련된 정보를 수신하고, 상기 정보의 수신에 응답하여, 상기 내장 디스플레이와 구별되는 외부 디스플레이를 식별하고, 상기 외부 디스플레이가 상기 단말과 연결된 제1 상태에서, 상기 외부 디스플레이 상에 상기 정보와 관련된 제1 시각 요소를 표시하고, 상기 제1 상태와 구별되는 제2 상태에서, 상기 내장 디스플레이 상에 상기 제1 시각 요소를 표시하고, 상기 제1 시각 요소를 표시한 상태에서, 상기 제1 시각 요소와 관련된 사용자 입력의 식별에 응답하여, 상기 제1 시각 요소와 관련되고, 상기 정보의 적어도 일부를 포함하는 제2 시각 요소를 표시하도록 제어하고, 상기 제2 시각 요소는, 상기 제1 상태에서 상기 내장 디스플레이 상에 표시되고, 상기 제2 상태에서 상기 외부 디스플레이에 표시될 수 있다. As described above, the terminal according to various embodiments includes a built-in display, a communication circuit, a memory and at least one processor operably coupled to the display, the communication circuit and the memory, and the The memory stores a plurality of instructions, and when the plurality of instructions are executed by the at least one processor, the at least one processor communicates with a first external electronic device based on a specified application, and 1 Receive, from an external electronic device, information related to a second external electronic device that is distinguished from the first external electronic device, and in response to receiving the information, identify an external display that is distinct from the built-in display; displays a first visual element related to the information on the external display in a first state connected to the terminal, and displays the first visual element on the built-in display in a second state distinct from the first state a second visual element associated with the first visual element and including at least a portion of the information, in response to identification of a user input associated with the first visual element, in the displayed state of the first visual element control to be displayed, and the second visual element may be displayed on the built-in display in the first state and displayed on the external display in the second state.

일 실시예에서, 상기 제1 시각 요소는, 사고와 관련된 정보를 제공하기 위해 표시될 수 있고, 상기 지정된 어플리케이션을 통해 제공되는, 전자 지도 상에 중첩으로, 표시될 수 있다. 일 실시예에서, 상기 제1 시각 요소는, 상기 사고를 알리기 위한 메시지와 함께, 표시될 수 있다. In an embodiment, the first visual element may be displayed to provide information related to an accident, and may be displayed as an overlap on an electronic map provided through the designated application. In an embodiment, the first visual element may be displayed together with a message for notifying the accident.

일 실시예에서, 상기 제2 시각 요소는, 상기 제1 시각 요소에 의해 지시되는 상기 사고에 대한 상세 정보를 포함할 수 있다. 일 실시예에서, 상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가, 상기 사용자 입력의 식별에 응답하여, 상기 전자 지도 상에 중첩된 상기 제1 시각 요소를 표시하는 것을 중단하고, 상기 제2 시각 요소를 표시하도록, 제어할 수 있다. In an embodiment, the second visual element may include detailed information about the accident indicated by the first visual element. In an embodiment, the plurality of instructions, when executed by the at least one processor, cause the at least one processor to display the first visual element superimposed on the electronic map in response to the identification of the user input. Stop displaying and display the second visual element, it is possible to control.

일 실시예에서. 상기 시각 요소는, 상기 사고의 발생 시각에 대한 정보와 연계로 표시될 수 있다. In one embodiment. The visual element may be displayed in association with information on the time of occurrence of the accident.

도 6은 다양한 실시예들에 따른 차량용 영상 획득 장치(601)의 블록도이다. 차량용 영상 획득 장치(601)는, 프로세서(602), 메모리(603), 통신 회로(604), 센서(605) 또는 배터리(606) 중 적어도 하나를 포함할 수 있다. 차량용 영상 획득 장치(601)는 차량(610) 또는 단말(620) 중 적어도 하나와 유선 네트워크 및/또는 무선 네트워크를 통해 서로 연결될 수 있다. 실시예들에 따라, 차량용 영상 획득 장치(601)와 단말(620)는 일체로 구현될 수 있다. 실시예들에 따라, 차량용 영상 획득 장치(601)와 차량(610)은 일체로 구현될 수 있다. 실시예들에 따라, 차량용 영상 획득 장치(601), 차량(610), 및 단말(620)은 일체로 구현될 수 있다. 6 is a block diagram of an image acquisition apparatus 601 for a vehicle according to various embodiments of the present disclosure. The vehicle image acquisition device 601 may include at least one of a processor 602 , a memory 603 , a communication circuit 604 , a sensor 605 , and a battery 606 . The vehicle image acquisition device 601 may be connected to at least one of the vehicle 610 and the terminal 620 through a wired network and/or a wireless network. According to embodiments, the vehicle image acquisition device 601 and the terminal 620 may be integrally implemented. According to embodiments, the vehicle image acquisition device 601 and the vehicle 610 may be integrally implemented. According to embodiments, the vehicle image acquisition device 601 , the vehicle 610 , and the terminal 620 may be integrally implemented.

이하에서는, 다양한 실시예들에 따른 차량용 영상 획득 장치(601)가 수행하는 기능을 설명한다. Hereinafter, functions performed by the vehicle image acquisition apparatus 601 according to various embodiments will be described.

1. 차량(610) 내의 배터리 방전 경고 1. Battery discharge warning in vehicle 610

차량(610)의 주차 중 동작하는 차량용 영상 획득 장치(601)는, 차량(610)의 엔진이 정지된 상태에서 차량용 영상 획득 장치(601)에게 전력이 제공되기 때문에, 차량(610) 내의 상기 배터리의 평균 수명을 감소시킬 수 있다. 예를 들면, 차량(610)이 주차 중인 경우 부하(load)로 동작하는 차량(610) 내 전자 장치가 거의 없기 때문에, 차량(610) 내의 배터리 관리 시스템은, 차량(610) 내 발전기가 꺼져 있는 차량(610)의 주차 시, 차량(610) 내의 상기 배터리의 의미 있는 방전 특성(예: 시간의 경과에 따른 전압 또는 전류 중 적어도 하나의 변화)에 대한 정보를 획득하기 어려울 수 있다. 다시 말해, 차량(610)의 주차와 관련하여, 차량(610) 내의 상기 배터리 관리 시스템은, 차량(610)의 상기 배터리의 교체가 필요한 시기를 식별하기 어려울 수 있다. 차량용 영상 획득 장치(601)는 차량(610) 내의 발전기가 꺼져 있는 상태(예: 차량(610)의 주차 중)에서 상대적으로 많은 전력을 소비하는 장치이기 때문에, 차량용 영상 획득 장치(601)는, 차량(610)의 상기 배터리의 방전 특성을 모니터링할 수 있다. 차량용 영상 획득 장치(601)는, 상기 모니터링의 결과를 기록함으로써 직접적인 방전 특성(예: 시간의 경과에 따른 전압 또는 전류 중 적어도 하나의 변화) 또는 간접적인 방전 특성(예: 지정된 전압까지 차량(610)의 상기 배터리의 전압이 떨어지는 시간 또는 차량(610)의 주차 중 녹화가 지속되는 시간) 중 적어도 하나에 대한 데이터를 획득할 수 있다. 차량용 영상 획득 장치(601)는, 상기 획득된 데이터에 기반하여, 차량(610)의 상기 배터리의 교체가 요구되는 시기를 결정할 수 있다. 예를 들면, 차량용 영상 획득 장치(601)는, 차량(610)의 주차 중 녹화가 지속되는 시간이 기준 시간 이하인지 여부를 식별하고, 차량(610)의 주차 중 녹화가 지속되는 상기 시간이 상기 기준 시간 이하임을 식별하는 것에 기반하여, 상기 배터리의 교체가 요구되는 시기를 결정할 수 있다. 다른 예를 들면, 차량용 영상 획득 장치(601)는, 차량(610)의 주차 중 녹화가 지속되는 시간의 트랜드를 식별할 수 있다. 예를 들면, 차량용 영상 획득 장치(601)는, 차량(610)의 제1 주차 중 녹화가 지속되는 시간과 차량(610)의 제1 주차 이후의 차량(610)의 제2 주차 중 녹화가 지속되는 시간 사이의 차이가 임계보다 큰 지 여부를 식별하고, 상기 차이가 상기 임계보다 큼을 식별하는 것에 기반하여, 상기 배터리의 교체가 요구되는 시기를 결정할 수 있다. In the vehicle image acquisition device 601 operating while the vehicle 610 is parked, since power is provided to the vehicle image acquisition device 601 in a state where the engine of the vehicle 610 is stopped, the battery in the vehicle 610 is can reduce the average lifespan of For example, when the vehicle 610 is parked, since there are few electronic devices in the vehicle 610 that operate as a load, the battery management system in the vehicle 610 is When the vehicle 610 is parked, it may be difficult to obtain information on a meaningful discharge characteristic of the battery in the vehicle 610 (eg, a change in at least one of a voltage or a current over time). In other words, with respect to the parking of the vehicle 610 , it may be difficult for the battery management system in the vehicle 610 to identify when the battery of the vehicle 610 needs to be replaced. Since the vehicle image acquisition device 601 is a device that consumes a relatively large amount of power in a state in which the generator in the vehicle 610 is off (eg, while the vehicle 610 is parked), the vehicle image acquisition device 601 is, A discharge characteristic of the battery of the vehicle 610 may be monitored. The vehicle image acquisition device 601 records the result of the monitoring, so that direct discharge characteristics (eg, changes in at least one of voltage or current over time) or indirect discharge characteristics (eg, the vehicle 610 up to a specified voltage) ) of the time when the voltage of the battery drops or the time during which recording is continued while the vehicle 610 is parked) may be acquired. The vehicle image acquisition apparatus 601 may determine when replacement of the battery of the vehicle 610 is required based on the acquired data. For example, the vehicle image acquisition device 601 identifies whether the recording duration while the vehicle 610 is parked is less than or equal to a reference time, and the duration of the recording duration while the vehicle 610 is parked is the Based on the identification that is less than a reference time, it is possible to determine when replacement of the battery is required. As another example, the vehicle image acquisition device 601 may identify a trend of a recording duration while the vehicle 610 is parked. For example, in the vehicle image acquisition device 601 , the recording continues during the first parking time of the vehicle 610 and the recording continues during the second parking of the vehicle 610 after the first parking of the vehicle 610 . It is possible to determine when a replacement of the battery is required based on identifying whether a difference between the times when the battery needs to be replaced is greater than a threshold, and based on identifying whether the difference is greater than the threshold.

일 실시예에서, 차량(610)의 주차 중 녹화가 지속되는 시간을 식별하기 위해, 주차 중 차량용 영상 획득 장치(601)를 통해 이미지를 획득하는 것을 개시하는 타이밍은, 상기 배터리로부터 제공되는 전압이 지정된 전압에 도달하는 타이밍일 수 있다. 일 실시예에서, 상기 지정된 전압은, 상기 배터리의 충전 상태에 따라 변경될 수 있다. 예를 들어, 상기 배터리가 완전히 충전되는 조건 상에서 상기 지정된 전압은 12 (V)이고 상기 배터리가 완전히 충전되지 않은 조건 상에서 상기 지정된 전압은 11.5 (V)일 수 있다. 하지만, 이에 제한되지 않는다. In one embodiment, in order to identify the time for which recording is continued while the vehicle 610 is parked, the timing of starting to acquire an image through the vehicle image acquisition device 601 while parking is that the voltage provided from the battery It may be the timing of reaching a specified voltage. In an embodiment, the specified voltage may be changed according to a state of charge of the battery. For example, the specified voltage may be 12 (V) under the condition that the battery is fully charged and the specified voltage may be 11.5 (V) under the condition that the battery is not fully charged. However, it is not limited thereto.

일 실시예에 따른 차량용 영상 획득 장치(601)는 차량(610)의 주차 중 녹화 시간의 이동 평균을 모니터링 하여, 녹화 시간이 감소하는 기울기가 일정 역치를 넘으면, 차량(610)의 상기 배터리의 수명(SoH, State of Health)이 만료되었다고 경고할 수 있다. 예를 들면, 차량(610)의 상기 배터리의 성능의 열화(예: 차량(610)의 상기 배터리의 수명의 만료)는 차량(610)의 상기 배터리의 용량의 감소를 야기하고, 차량(610)의 주차 중 차량용 영상 획득 장치(601)의 녹화 시간을 줄일 수 있다. 일 실시예에서, 상기 일정 역치는, 상기 지정된 전압에 따라 변경될 수 있다. 예를 들면, 상기 지정된 전압이 12 (V)일 시의 상기 일정 역치는, 상기 지정된 전압이 11.5 (V)일 시의 상기 일정 역치와 다를 수 있다. 하지만, 이에 제한되지 않는다. The vehicle image acquisition device 601 according to an embodiment monitors a moving average of the recording time while the vehicle 610 is parked, and when the slope at which the recording time decreases exceeds a certain threshold, the life of the battery of the vehicle 610 is exceeded. You can warn that your State of Health (SoH) has expired. For example, deterioration of the performance of the battery of the vehicle 610 (eg, expiration of the life of the battery of the vehicle 610 ) causes a decrease in the capacity of the battery of the vehicle 610 , It is possible to reduce the recording time of the vehicle image acquisition device 601 during parking. In an embodiment, the predetermined threshold may be changed according to the specified voltage. For example, the predetermined threshold when the specified voltage is 12 (V) may be different from the predetermined threshold when the specified voltage is 11.5 (V). However, it is not limited thereto.

일 실시예에서, (601)를 이용하여 녹화 시간의 이동평균을 모니터링하는 경우, 차량(610)의 가장 최근의 주차 중 차량용 영상 획득 장치(601)를 통해 수행된 녹화의 이동평균은, 차량(610)의 다음 주차 시 차량용 영상 획득 장치(601)를 통해 수행될 녹화가 얼마나 오랫동안 지속될 지를 추정하기 위한 데이터로 활용될 수 있다. 차량용 영상 획득 장치(601)는, 상기 데이터에 기반하여, 차량(610) 내의 디스플레이, 단말(620)의 디스플레이, 또는 차량용 영상 획득 장치(601)의 디스플레이 중 적어도 하나를 통해, 차량(610)의 다음 주차 시 차량용 영상 획득 장치(601)를 통해 수행될 녹화의 지속 시간의 예상치를 표시할 수 있다. 상기 녹화의 지속 시간의 예상치를 차량(610) 내의 디스플레이 또는 단말(620)의 디스플레이를 통해 표시하는 경우, 차량용 영상 획득 장치 (601)는 통신 회로(604)를 통해 상기 녹화의 지속 시간의 예상치를 표시하기 위한 정보를 송신할 수 있다. 예를 들면, 상기 정보는, 차량(610)의 엔진이 구동하는 것을 검출하는 것에 응답하여, 차량용 영상 획득 장치 (601)로부터 차량(610) 또는 단말(620)에게 송신될 수 있다. 하지만, 이에 제한되지 않는다. In an embodiment, when monitoring the moving average of the recording time using 601, the moving average of the recording performed through the vehicle image acquisition device 601 during the most recent parking of the vehicle 610 is the vehicle ( 610) may be used as data for estimating how long the recording to be performed through the vehicle image acquisition device 601 will last during the next parking. The vehicle image acquisition device 601 may be configured to display the vehicle 610 through at least one of a display in the vehicle 610 , a display of the terminal 620 , or a display of the vehicle image acquisition device 601 based on the data. An estimate of the duration of recording to be performed through the vehicle image acquisition device 601 may be displayed at the next parking time. When the estimated duration of the recording is displayed through the display in the vehicle 610 or the display of the terminal 620 , the vehicle image acquisition device 601 receives the estimated duration of the recording through the communication circuit 604 . Information for display can be transmitted. For example, the information may be transmitted from the vehicle image acquisition device 601 to the vehicle 610 or the terminal 620 in response to detecting that the engine of the vehicle 610 is driven. However, it is not limited thereto.

한편, 차량용 영상 획득 장치(601)는, 상기 녹화의 지속 시간의 예상치가 기준치 미만인지 여부를 식별할 수 있다. 상기 녹화의 지속 시간의 예상치가 상기 기준치 미만임을 식별하는 것에 기반하여, 차량용 영상 획득 장치(601)는, 차량(610)의 상기 배터리의 교체 시기가 도래함을 나타내는 알림을 제공하기 위한 동작을 실행할 수 있다. 예를 들면, 차량용 영상 획득 장치(601)는, 상기 알림을 차량용 영상 획득 장치(601)의 스피커를 통해 출력하거나, 상기 알림을 차량용 영상 획득 장치(601)의 디스플레이를 통해 표시할 수 있다. 다른 예를 들면, 차량용 영상 획득 장치(601)는, 상기 알림을 표시하기 위한 정보 또는 상기 알림을 음성 신호로 출력하기 위한 정보를 차량(610) 또는 단말(620) 중 적어도 하나에게 송신할 수 있다. 차량(610) 또는 단말(620) 중 적어도 하나는 차량용 영상 획득 장치(601)로부터 수신된 상기 정보에 기반하여, 상기 알림을 표시하거나 출력할 수 있다. Meanwhile, the vehicle image acquisition device 601 may identify whether the estimated duration of the recording is less than a reference value. Based on identifying that the estimated duration of the recording is less than the reference value, the vehicle image acquisition device 601 executes an operation for providing a notification indicating that the battery replacement time of the vehicle 610 is coming. can For example, the vehicle image acquisition device 601 may output the notification through a speaker of the vehicle image acquisition device 601 or display the notification through the display of the vehicle image acquisition device 601 . As another example, the vehicle image acquisition device 601 may transmit information for displaying the notification or information for outputting the notification as an audio signal to at least one of the vehicle 610 and the terminal 620 . . At least one of the vehicle 610 and the terminal 620 may display or output the notification based on the information received from the vehicle image acquisition device 601 .

일 실시예에서, 차량용 영상 획득 장치(601)는 차량(610) 내의 상기 배터리의 저전압으로 차량(610)의 주차 중 차량용 영상 획득 장치(601)의 녹화가 중단되기까지의 상기 녹화의 지속 시간을 기록 하거나, 상기 녹화가 시작된 후부터 상기 녹화가 종료 될 때까지 차량(610) 내의 상기 배터리의 전압의 변화 트랜드를 기록할 수 있다. 예를 들면, 차량(610) 내의 상기 배터리의 성능과 관련된 기록의 정확도의 향상을 위해, 차량용 영상 획득 장치(601)는 직전 충전 시간(차량의 엔진이 켜진 시간)이나, 차량(610) 주차의 녹화가 시작된 시점의 전압을 저장할 수 있다. 차량용 영상 획득 장치(601)는 상기 저장된 기록을 가공하여, 상기 녹화와 관련된 시간 구간(예: 차량(610)의 주차 중 녹화 시간 또는 차량(610)의 주차 중 차량(610)의 상기 배터리의 전압이 지정된 전압 이하로 떨어질 때까지 경과된 시간)에 대한 차량(610) 내의 상기 배터리의 상태를 추출할 수 있다. 차량용 영상 획득 장치(601)는 가장 최근의 차량(610)의 주차 중 획득된 추출 값(예: 단 기간 추출 값)과, 가장 최근의 차량(610)의 주차 중 녹화 시간 보다 긴 지정된 기간 동안의 추출값(예: 장 기간 추출 값)의 비율(예: 장 기간 추출 값/ 단 기간 추출 값)을 비교하여, 비율이 기준치를 넘으면, 차량(610)의 상기 배터리의 성능이 열화된 것으로 결정하거나 인식할 수 있다. 상기 비율이 상기 기준치 이하로 떨어지고, 상기 비율이 상기 기준치 이하로 떨어진 후 추출된 값이 크게 증가한 경우, 차량용 영상 획득 장치(601)는 차량(610)의 상기 배터리가 교체된 것으로 판단할 수 있다. In one embodiment, the vehicle image acquisition device 601 determines the duration of the recording until the recording of the vehicle image acquisition device 601 is stopped while the vehicle 610 is parked due to the low voltage of the battery in the vehicle 610 . Alternatively, a change trend in the voltage of the battery in the vehicle 610 may be recorded from when the recording is started to when the recording is finished. For example, in order to improve the accuracy of the recording related to the performance of the battery in the vehicle 610 , the vehicle image acquisition device 601 may determine the previous charging time (the time the vehicle's engine is turned on) or the parking time of the vehicle 610 . It is possible to store the voltage at the time the recording started. The vehicle image acquisition device 601 processes the stored record, and a time period related to the recording (eg, a recording time while the vehicle 610 is parked or the voltage of the battery of the vehicle 610 while the vehicle 610 is parked) It is possible to extract the state of the battery in the vehicle 610 for the time elapsed until the voltage falls below the specified voltage). The vehicle image acquisition device 601 includes an extraction value (eg, a short-term extraction value) obtained during parking of the most recent vehicle 610 and a recording time during parking of the most recent vehicle 610 for a specified period of time. By comparing the ratios (eg, long-term extraction values/short-term extraction values) of the extracted values (eg, long-term extraction values), if the ratio exceeds a reference value, it is determined that the performance of the battery of the vehicle 610 is deteriorated, or can recognize When the ratio falls below the reference value and the extracted value increases significantly after the ratio falls below the reference value, the vehicle image acquisition apparatus 601 may determine that the battery of the vehicle 610 has been replaced.

일 실시예에서, 차량용 영상 획득 장치(601)는 통신 회로(604)를 이용하여, 직접 서버에게 또는 차량(610) 또는 단말(620)을 통해 상기 서버에게, 장 기간 추출 값 또는 단 기간 추출 값, 또는 차량(610) 내의 상기 배터리의 교체가 요구되는지 여부를 나타내는 값을 송신할 수 있다. In an embodiment, the vehicle image acquisition device 601 uses the communication circuit 604 to provide a long-term extracted value or a short-term extracted value to the server directly or to the server through the vehicle 610 or the terminal 620 . , or a value indicating whether replacement of the battery in the vehicle 610 is required may be transmitted.

본 실시예에 대하여 기술된 차량용 영상 획득 장치(601)의 동작들 중 적어도 일부는, 차량용 영상 획득 장치(601)가 아닌 단말(620), 차량(610), 또는 외부 서버에 의해 실행될 수도 있다. At least some of the operations of the vehicle image acquisition device 601 described with respect to the present embodiment may be executed by the terminal 620 , the vehicle 610 , or an external server rather than the vehicle image acquisition device 601 .

일 실시예에서, 차량용 영상 획득 장치(601)는, 상기 변화 트랜드에 기반하여, 상기 배터리가 교체되는지 여부를 식별할 수 있다. 예를 들어, 주차 중 차량용 영상 획득 장치(601)를 이용하여 이미지를 획득하는 것을 지속하는 시간이 길어지는 경우, 차량용 영상 획득 장치(601)는, 상기 배터리가 교체됨을 식별할 수 있다. 하지만, 이에 제한되지 않는다. In an embodiment, the vehicle image acquisition apparatus 601 may identify whether the battery is to be replaced based on the change trend. For example, when the duration of acquiring an image by using the vehicle image acquisition device 601 while parking is increased, the vehicle image acquisition device 601 may identify that the battery is to be replaced. However, it is not limited thereto.

2.상시녹화 금지 모드(Incognito Mode) 2. Continuous recording prohibited mode (Incognito Mode)

아래에 기술되는 상시 녹화 금지 모드는, 차량(610)의 운행 중 사고와 관련된 것으로 인식된 충격이 검출된 타이밍 주변의 지정된 시간 구간, 차량(610)의 급가속 이벤트가 검출된 타이밍 주변의 지정된 시간 구간, 또는 차량(610)의 급감속 이벤트가 검출된 타이밍 주변의 지정된 시간 구간 중 적어도 하나에 대한 부분 영상만을 보관하고, 차량(610)의 운행 중 녹화된 영상 중 상기 부분 영상을 제외한 남은 부분 영상을 폐기하는 모드를 의미할 수 있다. 차량용 영상 획득 장치(601)는, 차량(610)이 위치된 장소가 변경된 경우(예: 국가 간 이동이 발생한 경우), 상기 상시 녹화 금지 모드의 활성화 여부를 사용자 입력 없이 문의할 수 있다. In the continuous recording prohibition mode described below, a designated time section around the timing at which an impact recognized as being related to an accident while driving the vehicle 610 is detected, and a designated time around the timing at which the sudden acceleration event of the vehicle 610 is detected Only partial images for at least one section or a designated time section around the timing at which the rapid deceleration event of the vehicle 610 is detected are stored, and the remaining partial images except for the partial images among the images recorded while the vehicle 610 is driving It may mean a mode for discarding . When the location in which the vehicle 610 is located is changed (eg, when movement between countries occurs), the vehicle image acquisition device 601 may inquire whether or not to activate the always-on recording prohibition mode without a user input.

일 실시예에 따른 차량용 영상 획득 장치(601)는, 차량(610)의 운행을 마치면, 차량(610)의 운행 중 (상시) 녹화 영상을 보관할지 또는 삭제할지를 사용자에게 물을 수 있다. 예를 들면, 차량용 영상 획득 장치(601)는, 차량(610)의 운행 중 녹화 영상을 보관할지 또는 삭제할지 여부를 문의하기 위한 메시지를 표시하거나 상기 메시지를 음성 신호로 출력할 수 있다. 또는, 차량용 영상 획득 장치(601)는 이벤트 영상만 보관하고 상시 녹화 영상은 저장하지 않을 수 있다. 차량용 영상 획득 장치(601)는 개인 프라이버시 보호를 보호하고 Storage 메모리 수명 향상 및 특정 국가 프라이버시 규제 회피를 위하여, 상시 녹화 영상을 저장하지 않고 폐기하거나 상시 녹화 영상의 보관 여부를 문의할 수 있다. When the vehicle 610 is driven, the vehicle image acquisition apparatus 601 according to an embodiment may ask the user whether to store or delete the (always) recorded image while the vehicle 610 is operating. For example, the vehicle image acquisition device 601 may display a message for inquiring whether to store or delete a recorded image while the vehicle 610 is driving, or output the message as a voice signal. Alternatively, the vehicle image acquisition device 601 may store only the event image and not the normally recorded image. In order to protect personal privacy, improve storage memory lifespan, and avoid specific national privacy regulations, the vehicle image acquisition device 601 may discard the always-recorded image without storing it or inquire whether to store the always-recorded image.

차량용 영상 획득 장치(601)는 영상과 음성 코덱에서 출력된 데이터 프레임을, 일정시간동안 메모리(603)에 저장할 수 있다. 메모리(603) 내에서, 오래된 데이터 프레임부터 빼내고 최근것을 저장하는 FIFO(first input first output) 구조에 기반하여 차량용 영상 획득 장치(601)를 통해 획득된 영상이 저장될 수 있다. 차량용 영상 획득 장치(601)는 버퍼에서 영상과 음성 코덱에서 출력된 데이터 프레임을 얻어와 필요시 먹싱하여 파일에 저장할 수 있다. 이벤트 종류 별로 다른 파일은 메모리(603) 내 다른 부분에 저장될 수 있다. 차량용 영상 획득 장치(601)는 상시 녹화 금지 모드가 활성화된 상태에서, 상시 녹화에 대한 파일의 생성이 이루어지는 기록부를 우회하도록 제어하거나, 또는 녹화 후 삭제 모드에서 사용자 입력에 의해 상기 상시 녹화에 대한 파일의 삭제가 선택되는 경우 상기 파일을 SDCard에서 찾아 상기 파일을 삭제할 수 있다. 차량용 영상 획득 장치(601)는 상시 녹화 금지모드 사용 여부를 출력할 수 있다. 차량용 영상 획득 장치(601)는 사용자에게 상시녹화 금지모드의 사용 여부를 입력 받는 입력 장치를 더 포함할 수 있다. 상기 상시 녹화 금지 모드를 사용할 것인지 여부를 문의하는 입력은, 차량용 영상 획득 장치(601)를 통해 입력될 수도 있고, 차량(610)을 통해 입력될 수도 있으며, 단말(620)을 통해 입력될 수도 있다. The vehicle image acquisition apparatus 601 may store the data frames output from the image and audio codecs in the memory 603 for a predetermined period of time. In the memory 603 , an image acquired through the vehicle image acquisition device 601 may be stored based on a FIFO (first input first output) structure that extracts old data frames and stores the latest ones. The vehicle image acquisition device 601 may obtain data frames output from the video and audio codecs from the buffer, mux them if necessary, and store the data frames in a file. Different files for each event type may be stored in different parts of the memory 603 . The in-vehicle image acquisition device 601 controls to bypass the recording unit in which the file for constant recording is generated while the regular recording prohibition mode is activated, or the file for the constant recording by a user input in the deletion mode after recording. If deletion of is selected, the file can be found on the SDCard and the file can be deleted. The vehicle image acquisition device 601 may output whether the constant recording prohibition mode is used. The in-vehicle image acquisition device 601 may further include an input device that receives an input from the user whether to use the continuous recording prohibition mode. The input for inquiring whether to use the regular recording prohibition mode may be input through the vehicle image acquisition device 601 , the vehicle 610 , or the terminal 620 . .

본 실시예에 대하여 기술된 차량용 영상 획득 장치(601)의 동작들 중 적어도 일부는, 차량용 영상 획득 장치(601)가 아닌 단말(620), 차량(610), 또는 외부 서버에 의해 실행될 수도 있다. At least some of the operations of the vehicle image acquisition device 601 described with respect to the present embodiment may be executed by the terminal 620 , the vehicle 610 , or an external server rather than the vehicle image acquisition device 601 .

3.불필요한 카메라 끔으로 인한 저전력 주차 녹화 구현 3. Implementation of low-power parking recording by turning off unnecessary cameras

차량용 영상 획득 장치(601)에 포함된 하나 이상의 카메라 중에서, 벽에 인접한 카메라를 주차 녹화에서 끔으로서 소모 전류를 줄일 수 있다. 벽에 인접한 카메라는 차량(610)(혹은 카메라에 내장된) 센서(레이더, 초음파)를 사용하거나 카메라 이미지 인식을 통해 식별될 수 있다. 예를 들어, 주차모드로 들어가기 이전 영상으로부터, 차량용 영상 획득 장치(601)는 벽을 구분할 수 있다. 전방 후방 카메라가 있는 2ch 차량용 영상 획득 장치(601)에서, 카메라 1개를 끔으로써 30-40%의 소모 전류를 절약 할수 있고, 이로 인해 주차녹화 시간을 길게 가져 갈수 있다. It is possible to reduce current consumption by turning off a camera adjacent to a wall in parking recording among one or more cameras included in the vehicle image acquisition device 601 . A camera adjacent to the wall may be identified using a sensor (radar, ultrasound) of the vehicle 610 (or built into the camera) or through camera image recognition. For example, from the image before entering the parking mode, the vehicle image acquisition device 601 may distinguish a wall. In the 2ch vehicle image acquisition device 601 with a front and rear camera, 30-40% of current consumption can be saved by turning off one camera, which can take a long time for parking recording.

차량용 영상 획득 장치(601)는 주차 직전 차량 진행 방향으로 찍은 영상(사진)을 인식하여 또는 차량(610) 내의 초음파 센서 또는 레이더 센서로부터 획득된 데이터를 이용하여, 차량의 외장으로부터 지정된 거리 이내에 벽이 있는지를 판정할 수 있다. 차량용 영상 획득 장치(601)는 (차량의) 초음파 센서나 레이더 센서를 사용 주차 직전 차량 진행 방향으로, 일정 정도 이상 가까운 평탄한 장애물이 있는지 인식할 수 있다. 차량용 영상 획득 장치(601)는 주차모드에서 인식부에서 벽이 있다고 판정된 쪽의 카메라 전원을 차단하고, 해당 카메라의 영상을 저장하지 않도록 제어할 수 있다. The vehicle image acquisition device 601 recognizes an image (photo) taken in the vehicle traveling direction just before parking or using data acquired from an ultrasonic sensor or a radar sensor in the vehicle 610, the wall is located within a specified distance from the exterior of the vehicle. It can be determined whether The vehicle image acquisition device 601 may recognize whether there is a flat obstacle close to a predetermined level or more in the vehicle traveling direction immediately before parking using an ultrasonic sensor or a radar sensor (of the vehicle). The vehicle image acquisition device 601 may control to cut off the power of the camera on the side determined that there is a wall in the recognition unit in the parking mode and not store the image of the corresponding camera.

일 실시예에서, 차량(610) 내의 초음파 센서는 차량용 영상 획득 장치(601)와 차량(610) 내 통신(예: CAN 통신, LIN 통신 등)을 통해 연결될 수 있다. 차량용 영상 획득 장치(601)는, 차량(610)의 주차 중 활성화된 상기 초음파 센서로부터 외부 객체가 차량(610)으로 접근함을 지시하기 위한 신호를 수신하고, 상기 신호의 수신에 기반하여 차량(610)의 주차 중 전원이 차단된 차량용 영상 획득 장치(601)의 카메라를 구동할 수 있다. 이러한 상기 카메라의 구동을 통해, 차량용 영상 획득 장치(601)는, 상기 카메라에게 제공되는 전력을 차단하는 동안 야기되는 사고에 대한 영상을 획득할 수 있다. 한편, 상기 초음파 센서는, 차량(610)의 보조 프로세서와 작동적으로 결합될 수 있다. 차량(610)의 발전기가 꺼지는 경우, 상기 보조 프로세서는, 차량(610)의 배터리로부터 제공되는 전력이 차단된 차량(610) 내의 메인 프로세서와 달리, 차량(610)의 배터리로부터 저 전력을 획득할 수 있다. 상기 보조 프로세서의 사용으로 인하여, 차량(610)의 발전기가 꺼지는 동안, 차량(610)의 배터리의 전력이 소비되는 양을 감소시킬 수 있다. 실시예들에 따라, 상기 보조 프로세서와 연결된 복수의 초음파 센서들이 있는 경우, 상기 보조 프로세서는, 차량용 영상 획득 장치(601)로부터 전력이 차단된 카메라에 대한 정보를 획득하고, 상기 정보에 기반하여, 상기 복수의 초음파 센서들 중 상기 전력이 차단된 카메라의 FOV(field of view)와 관련된 적어도 하나의 초음파 센서를 식별하고, 상기 식별된 적어도 하나의 초음파 센서만을 활성화할 수도 있다. In an embodiment, the ultrasonic sensor in the vehicle 610 may be connected to the vehicle image acquisition device 601 through intra-vehicle communication (eg, CAN communication, LIN communication, etc.). The vehicle image acquisition device 601 receives a signal for instructing that an external object approaches the vehicle 610 from the ultrasonic sensor activated while the vehicle 610 is parked, and based on the reception of the signal, the vehicle ( The camera of the image acquisition device 601 for a vehicle in which the power is cut off during parking of the 610 may be driven. Through such driving of the camera, the vehicle image acquisition device 601 may acquire an image of an accident caused while the power provided to the camera is cut off. Meanwhile, the ultrasonic sensor may be operatively coupled to an auxiliary processor of the vehicle 610 . When the generator of the vehicle 610 is turned off, the auxiliary processor obtains low power from the battery of the vehicle 610 unlike the main processor in the vehicle 610 in which power provided from the battery of the vehicle 610 is cut off. can Due to the use of the auxiliary processor, the amount of power consumed by the battery of the vehicle 610 may be reduced while the generator of the vehicle 610 is turned off. According to embodiments, when there are a plurality of ultrasonic sensors connected to the auxiliary processor, the auxiliary processor obtains information about a camera whose power is cut off from the vehicle image acquisition device 601, and based on the information, At least one ultrasonic sensor related to a field of view (FOV) of the camera whose power is cut off may be identified among the plurality of ultrasonic sensors, and only the identified at least one ultrasonic sensor may be activated.

본 실시예에 대하여 기술된 차량용 영상 획득 장치(601)의 동작들 중 적어도 일부는, 차량용 영상 획득 장치(601)가 아닌 단말(620), 차량(610), 또는 외부 서버에 의해 실행될 수도 있다. At least some of the operations of the vehicle image acquisition device 601 described with respect to the present embodiment may be executed by the terminal 620 , the vehicle 610 , or an external server rather than the vehicle image acquisition device 601 .

4. 차량용 영상 획득 장치(601)의 언어, 사용자 국가, 로컬타임, 섬머타임 스마트폰과 동기화4. The language of the vehicle image acquisition device 601, the user's country, local time, and summer time synchronization with the smartphone

차량용 영상 획득 장치(601)는 테더링이나, BT로 연결된 단말(620)로부터 받은 정보를 통해, 차량용 영상 획득 장치에서 사고 시간을 정확하게 조정할 수 있다. 예를 들어, 차량용 영상 획득 장치(601)는 GPS로 받은 시간과 다르게, 해당 국가나 지역의 섬머 타임 유무까지 식별할 수 있다. The vehicle image acquisition device 601 may accurately adjust the accident time in the vehicle image acquisition device through tethering or information received from the terminal 620 connected through BT. For example, the vehicle image acquisition device 601 may identify the presence or absence of summer time in a corresponding country or region, different from the time received through GPS.

예를 들면, 차량용 영상 획득 장치(601)는, 단말(620)로부터, 현재 단말(620)이 위치된 국가, 상기 국가의 언어, 상기 국가의 로컬 타임(서머 타임이 적용된), 단말(620)의 위치, 단말(620) (또는 차량용 영상 획득 장치(601), 차량(610))의 이동 속도, 또는 단말(620)(또는 차량용 영상 획득 장치(601), 차량(610))의 이동 방향(또는 heading) 중 적어도 하나에 대한 데이터를 수신할 수 있다. 차량용 영상 획득 장치(601)는, 상기 데이터에 기반하여, 차량용 영상 획득 장치(601)를 통해 획득된 영상의 헤더 정보를 구성하거나, 차량용 영상 획득 장치(601) 내에서 이용되는 정보를 변경할 수 있다. 한편, 단말(620)의 상기 데이터의 차량용 영상 획득 장치(601)로의 송신을 위해, 하나 이상의 어플리케이션 프로그램들을 저장할 수 있다. For example, the vehicle image acquisition device 601, from the terminal 620, the country in which the terminal 620 is currently located, the language of the country, the local time of the country (summer time is applied), the terminal 620 position of the terminal 620 (or the vehicle image acquisition device 601, the vehicle 610) moving speed, or the moving direction of the terminal 620 (or the vehicle image acquisition device 601, the vehicle 610) ( or heading) may be received. The vehicle image acquisition device 601 may configure header information of an image acquired through the vehicle image acquisition device 601 or change information used in the vehicle image acquisition device 601 based on the data. . Meanwhile, one or more application programs may be stored in order for the terminal 620 to transmit the data to the vehicle image acquisition device 601 .

이는, 차량용 영상 획득 장치(601)가 사고에서의 증거 자료로 활용됨에도 불구하고, 현재의 차량용 영상 획득 장치는 GPS의 측정에 따른 경위도와 GMT 기간을 획득할 뿐 차량용 영상 획득 장치(601)가 위치된 장소의 로컬 타임을 계산하기 위한 데이터를 획득하지 않기 때문일 수 있다. 한편, 단말(620)의 이동 속도 및/또는 단말(620)의 이동 방향(또는 heading)에 대한 데이터가 획득되는 경우, 차량용 영상 획득 장치(601)는 GPS를 내장하거나 단말(620) 또는 차량(610)과 연결될 수 있다. This is, despite the fact that the vehicle image acquisition device 601 is used as evidence in an accident, the current vehicle image acquisition device only acquires the longitude and latitude and the GMT period according to the GPS measurement. This may be because the data for calculating the local time of the designated place is not obtained. On the other hand, when data on the moving speed of the terminal 620 and/or the moving direction (or heading) of the terminal 620 is acquired, the vehicle image acquisition device 601 has a built-in GPS or the terminal 620 or the vehicle ( 610) may be connected.

본 실시예에 대하여 기술된 차량용 영상 획득 장치(601)의 동작들 중 적어도 일부는, 차량용 영상 획득 장치(601)가 아닌 단말(620), 차량(610), 또는 외부 서버에 의해 실행될 수도 있다. At least some of the operations of the vehicle image acquisition device 601 described with respect to the present embodiment may be executed by the terminal 620 , the vehicle 610 , or an external server rather than the vehicle image acquisition device 601 .

5.중요한 주차 충격 알림(IMU관련)5. Important parking shock notification (IMU related)

차량용 영상 획득 장치(601)는 주차 모드 들어가기 전후와, 승차후 엔진 시동으로 상시 모드로 변경되는 시점 전후의 승하차 충격(종방향으로 발생) 감지 하여 주차 경고 알림에서 승하차 충격에 의한 부분을 제외 시켜, 실제 차량에 손상을 줄 가능성이 높은 주차 충격만 사용자에게 알릴 수 있다. The vehicle image acquisition device 601 detects the impact of getting on and off (occurring in the longitudinal direction) before and after entering the parking mode and before and after the time when the engine is started to change to the regular mode after riding. Only parking shocks that are likely to damage the actual vehicle can be notified to the user.

예를 들면, 일반적인 차량용 영상 획득 장치는, 주차된 차량(610)의 엔진을 구동하는 경우, 승하차의 충격에 따라 획득된 1개 내지 3개 영상을 제공할 수 있다. 이러한 영상은 주차 중 녹화된 복수의 영상들 중 차량에 손상을 야기한 장면(scene)이 포함된 적어도 하나의 영상을 검색하기 위한 시간을 길게 할 수 있다. 차량용 영상 획득 장치(601)는, 사용자의 승하차 시의 충격에 따라 획득된 영상을, 이미지 분석을 통해 삭제하거나, 차량(610)의 정지된 타이밍 전후(또는 시동이 꺼진 타이밍 전후)의 지정된 시간 구간에서 획득된 영상 또는 차량(610)의 주행 시작 타이밍 전후)(또는 시동이 켜진 타이밍 전후)의 지정된 시간 구간에서 획득된 영상 중 적어도 하나를 삭제할 수 있다. 차량용 영상 획득 장치(601)는 이러한 삭제를 통해 불필요한 영상이 되는 것을 방지하고 유의미한 영상의 탐색 시간을 감소시킬 수 있다. For example, when the engine of the parked vehicle 610 is driven, a general vehicle image acquisition apparatus may provide one to three images acquired according to the impact of getting on and off. Such an image may lengthen a time for searching for at least one image including a scene causing damage to a vehicle among a plurality of images recorded while parking. The vehicle image acquisition device 601 deletes an image acquired according to the user's impact when getting on and off, through image analysis, or a designated time period before and after the stopped timing of the vehicle 610 (or before and after the ignition is turned off) At least one of the images acquired in , or images acquired in a specified time period before and after the driving start timing of the vehicle 610 (or before and after the ignition is turned on) may be deleted. The vehicle image acquisition apparatus 601 may prevent an unnecessary image from becoming an unnecessary image through such deletion and may reduce a search time for a meaningful image.

일 실시예에서, 차량용 영상 획득 장치(601)는 주차 모드에 진입하기 직전에 차량(610), 단말(620), 또는 차량용 영상 획득 장치(601)의 가속도 센서를 통해 획득되는 중력 방향 벡터를 지시하는 데이터를 통해, 차량(610)이 주차된 지면에 수직인 Norm 벡터에 대한 데이터를 획득할 수 있다. In one embodiment, the vehicle image acquisition device 601 indicates the direction of gravity vector obtained through the acceleration sensor of the vehicle 610, the terminal 620, or the vehicle image acquisition device 601 just before entering the parking mode. Through this data, data for a Norm vector perpendicular to the ground on which the vehicle 610 is parked may be acquired.

한편, 차량용 영상 획득 장치(601)는, 차량(610), 단말(620), 또는 차량용 영상 획득 장치(601)의 마이크로폰을 통해 획득된 차량(610)과 관련된 소리 신호들 적어도 일부가 차량(610)의 도어의 충격음과 관련되는지 여부를 식별할 수 있다. On the other hand, in the vehicle image acquisition device 601 , at least some of the sound signals related to the vehicle 610 acquired through the vehicle 610 , the terminal 620 , or the microphone of the vehicle image acquisition device 601 are included in the vehicle 610 . ) can be identified whether it is related to the impact sound of the door.

예를 들면, 차량용 영상 획득 장치(601)는, 상기 Norm 벡터에 대한 데이터, 상기 소리 신호들 중 적어도 일부가 차량(610)의 도어의 충격음과 관련됨을 지시하는 식별 데이터, 상기 Norm 벡터에 대한 데이터가 획득된 시각, 차량(610)의 상태, 차량(610)의 전원의 상태, 또는 차량용 영상 획득 장치(601)의 전원의 상태 중 적어도 하나에 기반하여, 주차 중인 차량(610) 내에서 야기된 충격이 주차된 차량(610)의 승하차 시 발생한 충격인지 여부를 식별할 수 있다. 또한, 차량용 영상 획득 장치(601)는, 주차 중인 차량(610) 내에서 야기된 충격이 주차된 차량(610)의 승하차 시 발생한 충격인지 여부를 식별의 성능 향상을 위해, 상기 식별을 위해 이용된 데이터(상기 Norm 벡터에 대한 데이터, 상기 식별 데이터 등)와 상기 식별의 결과에 대한 정보를 신경망에게 제공할 수 있다. 상기 신경망은, 상기 식별을 위해 이용된 데이터 및 상기 식별의 결과에 대한 정보를 이용하여, 학습될 수 있다. 이러한 학습을 통해, 차량용 영상 획득 장치(601)는, 상기 식별의 성능을 향상시킬 수 있다. For example, the vehicle image acquisition device 601 may include data for the Norm vector, identification data indicating that at least some of the sound signals are related to the impact sound of a door of the vehicle 610, and data for the Norm vector Based on at least one of the acquired time, the state of the vehicle 610 , the state of the power supply of the vehicle 610 , or the state of the power supply of the vehicle image acquisition device 601 , It can be identified whether the impact is an impact generated when the parked vehicle 610 gets on and off. In addition, the vehicle image acquisition device 601 is used for the identification in order to improve the performance of identifying whether the impact caused in the parked vehicle 610 is an impact generated when the parked vehicle 610 gets on and off. Data (data about the Norm vector, the identification data, etc.) and information about a result of the identification may be provided to the neural network. The neural network may be trained using data used for the identification and information about a result of the identification. Through this learning, the vehicle image acquisition device 601 may improve the identification performance.

한편, 차량용 영상 획득 장치(601)는, 차량(610)의 주차 중 획득된 영상들 중 적어도 일부가 사재생을 위한 사용자 입력에 의해 선택되는지 여부를 모니터링할 수 있다. 예를 들면, 상기 모니터링을 위해, 차량용 영상 획득 장치(601)는, 상기 영상들 중 적어도 일부의 재생 횟수, 상기 영상들 중 적어도 일부가 다운로드되는지 여부, 상기 영상들 중 적어도 일부가 보관함으로 복사되는지 여부, 또는 상기 영상들 중 적어도 일부의 유효성에 대한 응답 결과 값의 획득 중 적어도 하나를 실행할 수 있다. 차량용 영상 획득 장치(601)는, 상기 모니터링의 실행에 기반하여 획득된 데이터를, 주차 중인 차량(610) 내에서 야기된 충격이 주차된 차량(610)의 승하차 시 발생한 충격인지 여부를 식별에 대한 결과 데이터에, 레이블로 추가할 수 있다. 상기 레이블은, 주차 중인 차량(610) 내에서 야기된 충격이 주차된 차량(610)의 승하차 시 발생한 충격인지 여부를 식별하는 것의 성능을 향상하기 위해, 이용될 수 있다. 예를 들면, 상기 레이블은, 상기 신경망에 의해 참조될 수 있다. Meanwhile, the vehicle image acquisition device 601 may monitor whether at least some of the images acquired while the vehicle 610 is parked are selected by a user input for private playback. For example, for the monitoring, the vehicle image acquisition device 601 determines whether at least some of the images are reproduced, whether at least some of the images are downloaded, and whether at least some of the images are copied to the library. At least one of whether or not or obtaining a response result value for the validity of at least some of the images may be performed. The vehicle image acquisition device 601 uses the data obtained based on the execution of the monitoring to identify whether the impact caused in the parked vehicle 610 is an impact generated when the parked vehicle 610 gets on and off. In the resulting data, it can be added as a label. The label may be used to improve the performance of identifying whether an impact caused in the parked vehicle 610 is an impact generated when the parked vehicle 610 gets on and off. For example, the label may be referenced by the neural network.

본 실시예에 대하여 기술된 차량용 영상 획득 장치(601)의 동작들 중 적어도 일부는, 차량용 영상 획득 장치(601)가 아닌 단말(620), 차량(610), 또는 외부 서버에 의해 실행될 수도 있다. At least some of the operations of the vehicle image acquisition device 601 described with respect to the present embodiment may be executed by the terminal 620 , the vehicle 610 , or an external server rather than the vehicle image acquisition device 601 .

6.주차 충격 방향 알림(IMU관련)6. Parking impact direction notification (IMU related)

차량용 영상 획득 장치(601)는 차량용 영상 획득 장치(601)의 전면(윈드실드)방향에 LED로 주차 충격 중 가장 큰 충격 방향을 표시할 수 있다. 또는, 차량용 영상 획득 장치(601)는 단말(620)을 이용하여 주차 충격 방향과 강도를 출력할 수 있다. 예를 들어, 차량용 영상 획득 장치(601)는 센서(605)(예, IMU 센서)를 1000Hz이상으로 동작 시킬 수 있다. 예를 들어, 차량용 영상 획득 장치(601)는 센서(605)가 작동하는 주파수를, 10~50Hz의 범위에서 작동하는 제1 상태 및 1000Hz이상으로 작동하는 제2 상태 사이에서 스위칭할 수 있다. 차량용 영상 획득 장치(601)가 충격 방향을 차량에 탑승 하기 전에 사용자에게 알려주는 경우, 사용자는 차량 손상 부분을 탑승 전에 빠르게 확인 할 수 있다. The vehicle image acquisition device 601 may display the largest impact direction among the parking impacts with an LED in the front (windshield) direction of the vehicle image acquisition device 601 . Alternatively, the vehicle image acquisition device 601 may output the parking impact direction and intensity by using the terminal 620 . For example, the vehicle image acquisition device 601 may operate the sensor 605 (eg, an IMU sensor) at 1000 Hz or more. For example, the vehicle image acquisition device 601 may switch the frequency at which the sensor 605 operates between a first state operating in a range of 10 to 50 Hz and a second state operating at 1000 Hz or higher. When the vehicle image acquisition device 601 informs the user of the impact direction before boarding the vehicle, the user can quickly check the damaged part of the vehicle before boarding.

일 실시예에서, 차량용 영상 획득 장치(601)는 목차 "5. 중요한 주차 충격 알림(IMU관련)"에서 기술된 방식과 동일하거나 유사한 방식으로 상기 Norm 벡터에 대한 데이터를 획득할 수 있다. 차량용 영상 획득 장치(601)는, 차량용 영상 획득 장치(601)의 전방 카메라가 차량(610)의 정면에 근사된 방향을 보고 있다는 가정을 바탕으로, 상기 Norm 벡터에 대한 데이터 및 가속도 센서(차량용 영상 획득 장치(601), 차량(610), 또는 단말(620))의 좌표계를 이용하여, 차량(610)가 주차된 지면에 대하여 평행하고 단위 길이인 차량(610) 정면 방향에 대한 단위 벡터에 대한 데이터를 산출할 수 있다. In one embodiment, the vehicle image acquisition device 601 may acquire the data for the Norm vector in the same or similar manner as described in the table of contents “5. Important Parking Impact Notification (IMU Related)”. The vehicle image acquisition device 601 provides data for the Norm vector and an acceleration sensor (vehicle image) based on the assumption that the front camera of the vehicle image acquisition device 601 is looking in a direction approximate to the front of the vehicle 610 . Using the coordinate system of the acquisition device 601, the vehicle 610, or the terminal 620), the unit vector for the front direction of the vehicle 610 that is parallel to the ground on which the vehicle 610 is parked and has a unit length data can be calculated.

차량용 영상 획득 장치(601)는, 상기 Norm 벡터에 대한 데이터 및 차량(610) 정면 방향에 대한 상기 단위 벡터에 대한 데이터에 기반하여 차량(610)의 주차 시 차량(610) 기준의 좌표계를 결정하고, 상기 결정된 좌표계에 기반하여 차량(610)의 주차 중 상기 가속도 센서를 통해 획득되는 적어도 하나의 값 및 상기 적어도 하나의 값이 획득된 시간을 처리하여, 주차 중 차량(610)의 충격 초기 방향이 어떤 방향인지를 판정할 수 있다. 차량용 영상 획득 장치(601)는, 상기 판정의 결과 데이터를 차량(610)의 주차 동안 기록하고, 상기 결과 데이터에 기반하여, 차량(610)의 주차 동안 야기된 복수의 충격들 중 가장 큰 충격의 방향이 어떤 방향인지를 결정할 수 있다. The vehicle image acquisition device 601 determines a coordinate system based on the vehicle 610 when the vehicle 610 is parked based on the data on the Norm vector and the data on the unit vector for the front direction of the vehicle 610, , by processing the at least one value obtained through the acceleration sensor during parking of the vehicle 610 and the time at which the at least one value is obtained based on the determined coordinate system, the initial direction of the impact of the vehicle 610 during parking is determined You can decide which direction to take. The vehicle image acquisition device 601 records the result data of the determination during the parking of the vehicle 610 , and based on the result data, the largest impact among the plurality of impacts caused during the parking of the vehicle 610 , based on the result data. You can decide which direction to take.

차량용 영상 획득 장치(601)는, 상기 가장 큰 충격의 방향에 대한 정보를 제공할 수 있다. 예를 들면, 차량용 영상 획득 장치(601)는, 상기 정보를 차량용 영상 획득 장치(601)와 관련된 디스플레이(차량(610)의 디스플레이, 차량용 영상 획득 장치(601)의 디스플레이, 또는 단말(620)의 디스플레이) 상에 표시할 수 있다. 다른 예를 들면, 차량용 영상 획득 장치(601)는, 상기 정보를 차량용 영상 획득 장치(601)와 관련된 스피커를 통해 음성 신호로 출력할 수도 있다. 하지만, 이에 제한되지 않는다. The vehicle image acquisition device 601 may provide information on the direction of the greatest impact. For example, the vehicle image acquisition device 601 may transmit the information to a display related to the vehicle image acquisition device 601 (a display of the vehicle 610 , a display of the vehicle image acquisition device 601 , or a terminal 620 ). can be displayed on the display). As another example, the vehicle image acquisition device 601 may output the information as an audio signal through a speaker associated with the vehicle image acquisition device 601 . However, it is not limited thereto.

본 실시예에 대하여 기술된 차량용 영상 획득 장치(601)의 동작들 중 일부는, 차량용 영상 획득 장치(601)가 아닌 단말(620), 차량(610), 또는 외부 서버에 의해 실행될 수도 있다. Some of the operations of the vehicle image obtaining apparatus 601 described with respect to the present embodiment may be executed by the terminal 620 , the vehicle 610 , or an external server instead of the vehicle image obtaining apparatus 601 .

7.견인 알림(IMU관련)7.Towing notification (IMU related)

차량용 영상 획득 장치(601)는 단순 충격과 다르게 견인은 주차된 차량의 각도가 최초 견인을 시작 할때 부터 변하기 때문에 이를 감지 하여 알릴 수 있다. 예를 들면, 차량용 영상 획득 장치(601)는, 목차 "6.주차 충격 방향 알림(IMU관련)"의 설명에 기술된 방법과 동일하거나 유사한 방법으로, 실행될 수 있다. 차량용 영상 획득 장치(601)는, 이러한 실행을 통해, 일반적인 차량용 영상 획득 장치와 달리, 차량(610)의 주차 중 충격 이벤트와 차량(610)의 견인 이벤트를 구분할 수 있다. Unlike a simple shock, the vehicle image acquisition device 601 can detect and notify the towing because the angle of the parked vehicle changes from when the first towing is started. For example, the vehicle image acquisition device 601 may be implemented in the same or similar manner to the method described in the description of the table of contents "6. Parking impact direction notification (IMU-related)". Through this execution, the vehicle image acquisition device 601 may distinguish an impact event while the vehicle 610 is parked and a traction event of the vehicle 610 unlike a general vehicle image acquisition device.

본 실시예에 대하여 기술된 차량용 영상 획득 장치(601)의 동작들 중 적어도 일부는, 차량용 영상 획득 장치(601)가 아닌 단말(620), 차량(610), 또는 외부 서버에 의해 실행될 수도 있다. At least some of the operations of the vehicle image acquisition device 601 described with respect to the present embodiment may be executed by the terminal 620 , the vehicle 610 , or an external server rather than the vehicle image acquisition device 601 .

8.남은승객알림: 8. Remaining passengers notification:

차량용 영상 획득 장치(601)는 실내 카메라를 포함하는 경우, 주차 중에 실내에 움직임이 있는 경우 이를 감지하여 차주에게 알릴 수 있다. 예를 들어, 아동, 반려동물에 의한 실내의 움직임을 탐지할 수 있다. 실내에 움직임이 있는지 확인하는 방법은, 예를 들어, 차내에 모션 백터가 있는지 확인 하는 방법, 및/또는 인식을 통해 확인 하는 방법을 포함할 수 있다. 이 경우, 초음파, 레이더, UWB(보통 밀리미터파)를 이용하는 것보다 비용측면에서 효율적일 수 있다. 차량용 영상 획득 장치(601)는 통신 회로(604)에 기반하는 커넥티드 서비스를 이용하여 실내의 움직임과 관련된 사진을 전송할 수 있다. When the vehicle image acquisition device 601 includes an indoor camera, when there is a movement indoors while parking, the vehicle image acquisition device 601 may detect and notify the vehicle owner. For example, it is possible to detect movement in the room by children or companion animals. The method of determining whether there is a movement in the interior may include, for example, a method of confirming whether there is a motion vector in the vehicle, and/or a method of confirming through recognition. In this case, it may be more cost effective than using ultrasound, radar, or UWB (usually millimeter wave). The vehicle image acquisition device 601 may transmit a picture related to indoor movement using a connected service based on the communication circuit 604 .

일 실시예에서, 차량용 영상 획득 장치(601)는, 차량용 영상 획득 장치(601)와 관련된 차량(610)의 실내 카메라(차량용 영상 획득 장치(601)의 카메라, 차량(610)의 카메라, 및/또는 단말(620)의 카메라)를 이용하여 차량(610) 내부의 이미지를 획득할 수 있다. 차량용 영상 획득 장치(601)는, 상기 이미지를 분석할 수 있다. 차량용 영상 획득 장치(601)는, 상기 획득된 이미지 내에서 모션을 검출할 수 있다. 차량용 영상 획득 장치(601)는, 상기 검출된 모션이 그림자에 의한 것인지 판정할 수 있다. 차량용 영상 획득 장치(601)는, 상기 획득된 이미지로부터 차량(610)의 창문이 있는 영역에 해당하는 부분 이미지를 제외할 수 있다. In an embodiment, the vehicle image acquisition device 601 includes an indoor camera (a vehicle image acquisition device 601 camera, a vehicle 610 camera, and/or a vehicle 610 related to the vehicle image acquisition device 601 ). Alternatively, an image inside the vehicle 610 may be acquired using the camera of the terminal 620). The vehicle image acquisition device 601 may analyze the image. The vehicle image acquisition device 601 may detect a motion in the acquired image. The vehicle image acquisition device 601 may determine whether the detected motion is caused by a shadow. The vehicle image acquisition apparatus 601 may exclude a partial image corresponding to a window area of the vehicle 610 from the acquired image.

차량용 영상 획득 장치(601)는, 상기 이미지를 획득하는 동안, 차량용 영상 획득 장치(601)와 관련된 마이크로폰을 통해 차량(610) 내의 음향 신호를 획득할 수 있다. 차량용 영상 획득 장치(601)는, 상기 음향 신호의 발생 시각, 상기 음향 신호의 세기, 상기 음향 신호의 종류를 분석할 수 있다. The vehicle image acquisition device 601 may acquire an acoustic signal within the vehicle 610 through a microphone associated with the vehicle image acquisition device 601 while acquiring the image. The vehicle image acquisition apparatus 601 may analyze the generation time of the sound signal, the intensity of the sound signal, and the type of the sound signal.

차량용 영상 획득 장치(601)는, 상기 부분 이미지를 제외한 주차 중 획득된 상기 이미지, 상기 검출된 모션에 대한 데이터, 상기 이미지의 분석의 결과 데이터, 또는 상기 음향 신호에 대한 데이터 중 적어도 하나에 기반하여, 차량(610)의 주차 중 실내에 움직이는 객체가 있는지 여부를 결정할 수 있다. 차량용 영상 획득 장치(601)는, 필요에 따라, 상기 결정의 결과에 대한 정보를 차량용 영상 획득 장치(601)와 관련된 전자 장치(예: 차량(610), 단말(620), 또는 외부 서버)에게 송신할 수 있다. The vehicle image acquisition device 601 is based on at least one of the image acquired during parking except for the partial image, data on the detected motion, data as a result of analysis of the image, or data on the sound signal. , it is possible to determine whether there is an object moving indoors while the vehicle 610 is parked. The vehicle image acquisition device 601 may, if necessary, provide information on the result of the determination to an electronic device related to the vehicle image acquisition device 601 (eg, the vehicle 610 , the terminal 620 , or an external server). can send

상술한 바와 같이, 차량용 영상 획득 장치(601)는, 모션 벡터와 영상 분석을 이용하여 차량(610)의 실내의 움직임을 그림자나 불빛과 구분하여 결정할 수 있다. 또한, 차량용 영상 획득 장치(601)는, 획득된 음향 신호를 더 이용하여, 상기 결정의 정확성을 향상시킬 수 있다. As described above, the vehicle image acquisition apparatus 601 may determine the indoor movement of the vehicle 610 by using a motion vector and image analysis to distinguish it from a shadow or a light. Also, the vehicle image acquisition apparatus 601 may further use the acquired sound signal to improve the accuracy of the determination.

본 실시예에 대하여 기술된 차량용 영상 획득 장치(601)의 동작들 중 적어도 일부는, 차량용 영상 획득 장치(601)가 아닌 단말(620), 차량(610), 또는 외부 서버에 의해 실행될 수도 있다. At least some of the operations of the vehicle image acquisition device 601 described with respect to the present embodiment may be executed by the terminal 620 , the vehicle 610 , or an external server rather than the vehicle image acquisition device 601 .

9.저전압 자동시동 충전9. Low voltage auto start charging

차량용 영상 획득 장치(601)는 차량(610)의 배터리의 전압이 일정 값 이하로 떨어지면, 연료 게이지를 참고하여 차량(610)의 시동을 거거나, 지정된 회수 만큼만 차량(610)의 시동을 걸 수 있다. 차량용 영상 획득 장치(601)는 지정된 시간(예, 30분 내지 1시간) 동안 차량(610)의 상기 배터리를 충전한 다음, 주차 녹화 주기를 길게 하고, 차량(610)의 상기 배터리의 방전을 막을 수 있다. When the voltage of the battery of the vehicle 610 falls below a predetermined value, the vehicle image acquisition device 601 may start the vehicle 610 with reference to the fuel gauge or start the vehicle 610 only a specified number of times. there is. The vehicle image acquisition device 601 charges the battery of the vehicle 610 for a specified time (eg, 30 minutes to 1 hour), then lengthens the parking recording period and prevents the battery of the vehicle 610 from being discharged. can

이하에서는, 일 실시예에 따른 차량용 영상 획득 장치(601)가 차량(610) 및/또는 단말(620)과 통신하여 수행하는 하나 이상의 기능을 설명한다.Hereinafter, one or more functions performed by the vehicle image acquisition apparatus 601 according to an embodiment by communicating with the vehicle 610 and/or the terminal 620 will be described.

1.사진 정보를 활용한 교통 정보 업데이트1. Update traffic information using photo information

차량용 영상 획득 장치(601)는 자차 평균 속력(gps 혹은 차량 속도)과 수신한 실시간 교통 정보상의 현재 도로 평균 속력의 비율이 1에서 일정 범위를 넘어 벗어 나면, (식: I1-자차평균속력 / 실시간 교통정보 속력 I > 스레스홀드) 현재 카메라의 1개 혹은 여러개 (일정 시간간격으로 찍힌) 사진을 서버에 보내 도로 상황이 사고, 정체, 유고(공사용 콘), 등이 있는지 판단하여 서버의 교통 정보나 지도를 업데이트할 수 있다.When the ratio of the vehicle average speed (gps or vehicle speed) and the current road average speed on the received real-time traffic information exceeds a certain range from 1, the Traffic information Speed I > Threshold) Send one or several (taken at regular time intervals) photos of the current camera to the server to determine if the road condition is an accident, congestion, or leak (construction cone), etc. I can update the map.

2.. 차량용 영상 획득 장치(601)는 IMU센서 데이터를 차속(혹은 gps속도)에 기반하여 처리하여(켈리브레이션을 통해, 센서 좌표게를 차량 좌표계로 변환 하여 차량의 linear acceleration(중력을 제외한 가속도), 중력이 작용하는 방향을 얻을 수 있다. 차량용 영상 획득 장치(601)는 중력의 방향, 차량의 차속의 2차 변화율로 얻은 진행 방향 가속도 값에 기반하여, 도로의 경사율, 포트홀, 과속방지턱, 좌우 횡축 가속도양, 노면의 고른 정도를 파악할 수 있다. 이는 GPS에서 알 수 없는 정보일 수 있다. 차량용 영상 획득 장치(601)는 급제동(예:0.3g 이상), 시간당 FCW, LDW 비율, 앞차와 안전거리 감지할 수 있다. 차량용 영상 획득 장치(601)는 노면 파악, 분기점이나 ramp진입 여부를 알아 탐색과 안내를 정확 하게 할 수 있다. 차량용 영상 획득 장치(601)는 지도 업데이트도 할 수 있다.2.. Vehicle image acquisition device 601 processes IMU sensor data based on vehicle speed (or gps speed) , it is possible to obtain the direction in which gravity acts.The vehicle image acquisition device 601 is based on the acceleration value in the direction of gravity obtained from the direction of gravity and the secondary rate of change of the vehicle speed, the inclination rate of the road, the pothole, the speed bump, It is possible to determine the amount of horizontal acceleration on the left and right and the evenness of the road surface, which may be information that cannot be known from GPS. It is possible to detect a safe distance The vehicle image acquisition device 601 can accurately search and guide by identifying the road surface, knowing whether a junction or a ramp has entered. The vehicle image acquisition device 601 can also update a map.

3.어린이보호구역 보행자 주의 경고3. Pedestrian caution warning in child protection area

차량용 영상 획득 장치(601)는 운전자시점 보다 전방에 설치된 (라디에터그릴이나 전면 범퍼, 후드 앞쪽) 카메라를 통해 가려진 사물(정차된 차량등)뒤에 보행자를 인식 주의 경고를 출력할 수 있다. 차량용 영상 획득 장치(601)는, 예를 들어, 얼굴 인식에 기반하여, 보행자와 어린이 효과적으로 인식할 수 있다. 차량용 영상 획득 장치(601)는 얼굴 크기(횡방향 pixel 길이나 종방향 pixel 길이)의 시간에 따른 변화율을 계산하여 차량 및 보행자 사이의 거리를 식별할 수 있다. 예를 들어, 일정 pixel 이상의 크기를 가지는 얼굴을 식별한 경우, 차량용 영상 획득 장치(601)는 교통 사고 위험을 운전자에게 알릴 수 있다.The vehicle image acquisition device 601 may output a caution warning to recognize a pedestrian behind an object (a stopped vehicle, etc.) that is obscured through a camera (radiator grill, front bumper, front hood) installed in front of the driver's point of view. The vehicle image acquisition device 601 may effectively recognize a pedestrian and a child based on, for example, face recognition. The vehicle image acquisition device 601 may identify a distance between a vehicle and a pedestrian by calculating a change rate with time of a face size (a horizontal pixel length or a vertical pixel length). For example, when a face having a size greater than or equal to a predetermined pixel is identified, the vehicle image acquisition device 601 may notify the driver of the risk of a traffic accident.

교통사고 긴급통보체계(NG e-Call, Next Generation e-Call)는 LTE/5G 등과 같은 텔레커뮤니케이션 기반의 IP 네트워크 환경을 이용하여 양방향 VoIP 음성 통화, 200바이트 이상의 양방향 데이터 전송 등이 가능하여, 자동차 충돌과 같은 교통사고 발생시 긴급 통보를 통한 운전자 구조 체계를 의미할 수 있다. Traffic accident emergency notification system (NG e-Call, Next Generation e-Call) enables two-way VoIP voice calls and two-way data transmission of 200 bytes or more using a telecommunication-based IP network environment such as LTE/5G. It may refer to a driver rescue system through emergency notification in the event of a traffic accident such as a collision.

교통사고 긴급통보체계 단말(NG e-Call IVS, NG e-Call In-Vehicle System)은 완성차 제작 단계에서 차량 내부에 직접 장착되어 차량 또는 단말의 센서들로부터 사고 분석에 필요한 다양한 정보를 수신하여 자체 알고리즘에 의하여 자동으로 사고를 판단 하거나 또는 수동 트리거 발생으로 최소사고정보 및 확장사고정보 데이터를 송신하고, 긴급구난센터와 음성 통신이 가능한 장치를 의미할 수 있다.The traffic accident emergency notification system terminal (NG e-Call IVS, NG e-Call In-Vehicle System) is installed directly inside the vehicle during the manufacturing stage of the finished vehicle and receives various information necessary for accident analysis from the sensors of the vehicle or terminal. It may refer to a device capable of automatically determining an accident by an algorithm or transmitting minimum accident information and extended accident information data by generating a manual trigger, and capable of voice communication with an emergency rescue center.

교통사고 긴급통보 접수센터(e-Call Center)는 교통사고 긴급통보체계 단말로부터 최소사고정보, 확장정보정보, 스틸 이미지 정보를 수신하여 사고 발생 여부를 최종적으로 판단하고 소방서, 경찰, 병원, 교통관제센터 등 2차 연계기관에 구조 요청 및 상해 심각도 등의 부가 정보를 전달하는 역할을 수행하는 센터를 의미할 수 있다. The traffic accident emergency notification reception center (e-Call Center) receives the minimum accident information, extended information information, and still image information from the terminal of the emergency notification system for traffic accidents, determines whether an accident has occurred, It may refer to a center that plays a role in delivering additional information such as a rescue request and injury severity to secondary related organizations such as the center.

최소사고정보(MSD, Minimum Set of Data)는 사고 발생시 교통사고 긴급통보체계 단말이 교통사고 긴급통보 접수센터로 전송하는 기본적인 사고 정보를 포함하는 최소 정보를 의미할 수 있다.Minimum set of data (MSD) may mean minimum information including basic accident information transmitted by the terminal of the emergency notification system for traffic accidents to the traffic accident emergency notification reception center when an accident occurs.

확장사고정보(ESD, Extended Set of Data)는 정확한 사고 판단과 상해 심각도 분석을 위해서 교통사고 긴급통보체계 단말이 교통사고 긴급통보 접수센터로 전송하는 30포인트(사고전 20포인트 및 사고후 10포인트, 예: 초단위 기록 기준 사고전 20초 및 사고 후 10초)의 정보를 가리키며 사고와 직접적으로 관련된 정보 및 부가적인 정보를 포함할 수 있다. Extended Set of Data (ESD) is 30 points (20 points before the accident and 10 points after the accident, 10 points after the accident, 20 points before the accident and 10 points after the accident) Example: It refers to the information of 20 seconds before the accident and 10 seconds after the accident) based on the record in seconds, and may include information directly related to the accident and additional information.

도 7은 일 실시예에 따른 전자 장치가 생성하는 최소사고정보(MSD)의 데이터 구조를 도시한 도면이다.7 is a diagram illustrating a data structure of minimum accident information (MSD) generated by an electronic device according to an exemplary embodiment.

최소사고정보(MSD, Minimum Set of Data)는 차량 사고 및 긴급 상황 발생시 자동 트리거 또는 운전자의 SOS 버튼 수동 조작으로 교통사고 긴급통보체계 단말에서 교통사고 긴급통보 수집센터로 가장 먼저 전송되는 정보일 수 있다. 최소사고정보는 사고 발생 사실 전달 및 사고 위치 정보 등을 포함하는 메시지로서, 정보의 중요도에 따라 필수 정보와 선택 정보로 구분된다.Minimum set of data (MSD) may be the first information transmitted from the terminal of the traffic accident emergency notification system to the traffic accident emergency notification collection center by an automatic trigger or manual operation of the driver's SOS button when a vehicle accident or emergency occurs. . The minimum accident information is a message that includes the transmission of the accident occurrence and accident location information, and is divided into essential information and optional information according to the importance of the information.

최소사고정보는 기본적인 사고 정보를 교통사고 긴급통보 수집센터로 신속하게 전송하여 빠른 사고 발생 사실 통보 및 긴급 구난 대응이 이루어질 수 있도록 하는 데이터 메시지로서, 최소사고정보 중 필수 정보는 반드시 최소사고정보에 포함되어 전송되어야 하는 사고 발생 시각, 사고 차량의 위치 등의 정보를 의미한다. 선택 정보는 교통사고 긴급통보체계 단말에서 수집이 가능한 경우에 선택적으로 전송되는 기타 정보를 말한다. The minimum accident information is a data message that promptly transmits basic accident information to the traffic accident emergency notification collection center so that the accident can be notified quickly and an emergency rescue response can be made. It means information such as the time of occurrence of an accident and the location of the accident vehicle that should be transmitted. Optional information refers to other information that is selectively transmitted when it is possible to collect from the terminal of the emergency notification system for traffic accidents.

최소사고정보(MSD)의 데이터 배열 순서는 유럽 표준(European Standard)과의 데이터 호환성 유지를 위하여 EU 15722:2015 표준에서 정한 최소사고정보(MSD)의 데이터 구조에 기반할 수 있다. 최소사고정보(MSD)의 인코딩 부호화는 ASN.1 UPER 방식에 기반할 수 있다.The data arrangement order of the minimum accident information (MSD) may be based on the data structure of the minimum accident information (MSD) defined in the EU 15722:2015 standard to maintain data compatibility with the European Standard. Encoding and encoding of the minimum accident information (MSD) can be based on the ASN.1 UPER method.

도 7을 참고하면, 순번 9 내지 10으로 참조되는 recentVehicleLocationN1 및 recentVehicleLocationN2은 필수(M)로 기록되는 정보일 수 있다. 상기 정보는 사고가 발생된 위치를 표시하기 위한 정보로써, GPS 난청 지역에도 불구하고, 사고 위치를 추정하기 위하여 필수적으로 기록될 수 있다.Referring to FIG. 7 , recentVehicleLocationN1 and recentVehicleLocationN2 referenced in sequence numbers 9 to 10 may be information recorded as mandatory (M). The information is information for indicating the location where the accident occurred, and may be essentially recorded in order to estimate the location of the accident despite the GPS hearing loss area.

일 실시예에서, 최소사고정보는, 순번 7의 vehicleLocation을 측정한 타이밍에 대한 데이터 및 순번 8의 vehicleDirection을 측정한 타이밍에 대한 데이터를 더 포함할 수 있다. 일 실시예에서, 순번 7의 vehicleLocation을 측정한 타이밍에 대한 상기 데이터는 순번 6의 timeStamp에 의해 지시되는 타이밍과 순번 7의 vehicleLocation을 측정한 타이밍 사이의 차이를 지시할 수 있다. 일 실시예에서, 순번 8의 vehicleDirection을 측정한 타이밍에 대한 상기 데이터는 순번 6의 timeStamp에 의해 지시되는 타이밍과 순번 8의 vehicleDirection을 측정한 타이밍 사이의 차이를 지시할 수 있다. 일 실시예에서, 최소사고정보는, 순번 9 및 10의 recentvehicleLocationN1 및 recentvehicleLocationN2를 측정한 타이밍에 대한 데이터를 더 포함할 수도 있다. 상기 데이터는, 순번 6의 timeStamp와 구별되는 데이터일 수 있다. 상기 데이터는, 최소사고정보 내의 별도의 필드 내에 기록될 수도 있고, 순번 12의 additionalData를 위한 필드 내에 기록될 수도 있다. In an embodiment, the minimum accident information may further include data on the timing of measuring the vehicleLocation of the turn 7 and data on the timing of measuring the vehicleDirection of the turn 8. In an embodiment, the data for the timing at which the vehicleLocation of the turn 7 is measured may indicate a difference between the timing indicated by the timeStamp of the turn 6 and the timing at which the vehicleLocation of the turn 7 is measured. In an embodiment, the data for the timing at which the vehicleDirection of the turn 8 is measured may indicate a difference between the timing indicated by the timeStamp of the turn 6 and the timing at which the vehicleDirection of the turn 8 is measured. In an embodiment, the minimum accident information may further include data about the timing of measuring the recentvehicleLocationN1 and recentvehicleLocationN2 of sequence numbers 9 and 10. The data may be data distinguished from the timeStamp of sequence number 6 . The data may be recorded in a separate field in the minimum accident information, or may be recorded in a field for additionalData of sequence number 12.

도 8은, 도 7의 순번 4로 참조되는 정보(VehicleIdentificationNumber)의 데이터 타입, 제약 및 정의를 도시한 도면이다. 상기 정보는, ISO 3779:2009 Road vehicles로 정의된 차량의 고유 식별자뿐 아니라, 차량과 관련된 국가의 법령으로 정한 자동차 등록 번호판의 번호가 포함될 수 있다. 예를 들어, 대한민국의 경우, 자동차 등록번호판 등의 기준에 관한 고시에 기반하는 차량 번호가 상기 정보 내에 포함될 수 있다.FIG. 8 is a diagram illustrating data types, restrictions, and definitions of information (VehicleIdentificationNumber) referenced in sequence number 4 of FIG. 7 . The information may include not only the vehicle's unique identifier defined as ISO 3779:2009 Road vehicles, but also the vehicle registration number plate number determined by the laws of the country related to the vehicle. For example, in the case of the Republic of Korea, a vehicle number based on a notice on standards such as a vehicle registration number plate may be included in the information.

법령에 기반하는 차량 식별자가 더 포함됨에 따라, 최소사고정보가 AM용 제품과 관련될 수 있다. 최소사고정보가 AM용 제품과 관련됨에 따라, 최소사고정보가 적용 가능한 차량의 개수가 증가될 수 있고, 최소사고정보가 폭넓게 구난/구조에 활용될 수 있다. 일 실시예에 따른 전자 장치가 생성하는 최소사고정보는 ITU NG eCall과의 호환될 수 있다. As the vehicle identifier based on the statute is further included, the minimum accident information can be related to the product for AM. As the minimum accident information is related to AM products, the number of vehicles to which the minimum accident information is applicable can be increased, and the minimum accident information can be widely used for rescue/rescue. The minimum accident information generated by the electronic device according to an embodiment may be compatible with the ITU NG eCall.

도 7 또는 도 8의 설명을 통해 정의된 최소사고정보(이하, MSD)는 다음과 같이 활용될 수 있다. 예를 들면, 차량 내에 포함된 전자 장치는, 상기 차량의 사고가 발생함을 검출할 수 있다. 예를 들면, 상기 전자 장치는, 상기 차량 내에 임베디드된 장치일 수 있다. 다른 예를 들면, 상기 전자 장치는, 상기 차량에 탈부착가능하게 부착된 장치일 수 있다. 하지만, 이에 제한되지 않는다. The minimum accident information (hereinafter, MSD) defined through the description of FIG. 7 or FIG. 8 may be utilized as follows. For example, the electronic device included in the vehicle may detect that an accident of the vehicle occurs. For example, the electronic device may be a device embedded in the vehicle. As another example, the electronic device may be a device detachably attached to the vehicle. However, it is not limited thereto.

일 실시예에서, 상기 차량의 사고의 발생의 검출은, 상기 차량 내의 적어도 하나의 센서로부터 수신된 값들에 대한 정보에 기반하여 실행될 수 있다. 예를 들면, 상기 전자 장치는 상기 정보에 기반하여 상기 차량의 사고의 발생을 식별함으로써 상기 차량의 사고의 발생을 검출할 수 있다. 다른 실시예에서, 상기 차량의 사고의 발생의 검출은, 상기 차량 내에 임베디드된 다른 전자 장치로부터 상기 차량의 사고의 발생을 식별함을 지시하기 위한 메시지에 기반하여 실행될 수 있다. 하지만, 이에 제한되지 않는다. In an embodiment, the detection of the occurrence of an accident in the vehicle may be performed based on information about values received from at least one sensor in the vehicle. For example, the electronic device may detect the occurrence of the vehicle accident by identifying the occurrence of the vehicle accident based on the information. In another embodiment, the detection of the occurrence of the accident in the vehicle may be performed based on a message for instructing to identify the occurrence of the accident in the vehicle from another electronic device embedded in the vehicle. However, it is not limited thereto.

상기 전자 장치는, 상기 검출에 응답하여 또는 기반하여, 상기 MSD를 자동차 응급 서비스(automotive emergency service)와 관련된 서버에게 송신할 수 있다. 상기 서버는, 상기 MSD를 상기 전자 장치로부터 수신할 수 있다. 상기 서버는, 상기 MSD의 수신에 응답하여, 상기 MSD가 상기 차량의 사고와 관련됨을 식별하고, 상기 MSD가 상기 차량의 사고와 관련됨을 확정하기(confirm) 위한 타이머를 구동할 수 있다. 또한, 상기 서버는, 상기 MSD의 상기 수신에 응답하여, 상기 MSD가 수신됨을 지시하기 위한 Ack(acknowledgement) 메시지를 상기 전자 장치에게 송신할 수 있다. The electronic device may transmit the MSD to a server related to an automotive emergency service in response to or based on the detection. The server may receive the MSD from the electronic device. The server may, in response to receiving the MSD, identify that the MSD is related to the accident of the vehicle, and start a timer for confirming that the MSD is related to the accident of the vehicle. Also, in response to the reception of the MSD, the server may transmit an acknowledgment (acknowledgement) message for indicating that the MSD is received to the electronic device.

상기 전자 장치는, 상기 Ack 메시지의 수신에 응답하여, 상기 MSD가 상기 차량의 사고와 괸련됨을 확정하기 위한 타이머를 구동할 수 있다. 상기 전자 장치는, 상기 타이머를 구동하는 동안, 상기 차량의 사고와 관련됨을 확정하기 위해, 가이드 음성을 출력하거나 시각적 가이드를 표시할 수 있다. 상기 전자 장치는, 상기 타이머의 구동이 만료할 때까지 사용자로부터 상기 가이드 음성 또는 상기 시각적 가이드에 대한 응답을 수신하지 못하는 경우, 상기 서버에게 상기 차량의 사고와 관련됨을 확정함을 지시하기 위한 메시지를 송신할 수 있다. The electronic device may drive a timer for determining that the MSD is related to the accident of the vehicle in response to the reception of the Ack message. While driving the timer, the electronic device may output a guide voice or display a visual guide in order to determine related to the accident of the vehicle. When the electronic device does not receive a response to the guide voice or the visual guide from the user until the driving of the timer expires, the electronic device sends a message for instructing the server to determine that it is related to the accident of the vehicle. can send

한편, 상기 서버는 상기 서버의 상기 타이머의 구동이 만료할 때까지 상기 메시지의 수신되는지 여부를 식별하고, 상기 서버의 상기 타이머의 구동이 만료할 때까지 상기 메시지를 수신하지 못하는 것을 식별하는 것에 기반하여, 상기 서버와 연결된 다른 서버에게 상기 MSD를 송신할 수 있다. 상기 서버로부터 상기 다른 서버에게 송신되는 상기 MSD는, 상기 차량의 상기 사고의 발생에 대한 구난 서비스를 제공하기 위해 이용될 수 있다. 예를 들면, 상기 MSD를 수신한 상기 다른 서버는, 상기 MSD를 이용하여, 공공 안전 에이전트에게 콜을 발신하거나 메시지를 송신할 수 있다. 하지만, 이에 제한되지 않는다. On the other hand, the server identifies whether the message is received until the running of the timer of the server expires, and based on identifying that the message is not received until the running of the timer of the server expires Thus, the MSD can be transmitted to another server connected to the server. The MSD transmitted from the server to the other server may be used to provide a rescue service for the occurrence of the accident of the vehicle. For example, the other server receiving the MSD may use the MSD to make a call or send a message to a public safety agent. However, it is not limited thereto.

도 9는 일실시 예에 따른, 차량의 자율 주행 시스템(900)을 도시한 블록도이다. 9 is a block diagram illustrating an autonomous driving system 900 for a vehicle, according to an exemplary embodiment.

도 9에 따른 차량의 자율 주행 시스템(900)은 센서들(903), 이미지 전처리기(905), 딥 러닝 네트워크(907), 인공 지능(AI) 프로세서(909), 차량 제어 모듈(911), 네트워크 인터페이스(913), 및 통신부(915)를 포함하는 딥러닝 네트워크일 수 있다. 다양한 실시 예에서, 각 요소들은 다양한 인터페이스를 통해 연결될 수 있다. 예를 들어, 센서들(903)에 의해 센싱되어 출력되는 센서 데이터는 이미지 전처리기(905)로 피드(feed)될 수 있다. 이미지 전처리기(905)에 의해 처리된 센서 데이터는 AI 프로세서(909)에서 실행(run)하는 딥러닝 네트워크(907)에 피드될 수 있다. AI 프로세서(909)에 의해 실행(run)하는 딥러닝 네트워크(907)의 출력은 차량 제어 모듈(911)에 피드될 수 있다. AI 프로세서(907)에서 실행(run)되는 딥러닝 네트워크(907)의 중간 결과들은 AI 프로세서(909)로 피드될 수 있다. 다양한 실시 예에서, 네트워크 인터페이스(913)는 전자 장치(101)와 통신을 수행함으로써, 차량의 자율 주행을 위한 자율 주행 경로 정보 및/또는 자율 주행 제어 명령들을 내부 블록 구성들로 전달한다. 일 실시예에서, 네트워크 인터페이스(913)는 센서(들)(903)를 통해 획득된 센서 데이터를 제2 외부 전자 장치(120)로 전송하기 위해 이용될 수 있다. 일부 실시 예에서, 자율 주행 제어 시스템(900)은 적절하게(as appropriate) 추가적인 또는 보다 더 적은 구성 요소들을 포함할 수 있다. 예를 들어, 일부 실시 예에서, 이미지 전처리기(905)는 선택적인(optional) 구성요소일 수 있다. 다른 예를 들면, 후처리 구성 요소(도 9 내에서 미도시)는 출력이 차량 제어 모듈(911)로 제공되기 전에 딥러닝 네트워크(907)의 출력에서 후처리를 수행하기 위해 자율 주행 제어 시스템(900) 내에 포함될 수 있다.The autonomous driving system 900 of the vehicle according to FIG. 9 includes sensors 903 , an image preprocessor 905 , a deep learning network 907 , an artificial intelligence (AI) processor 909 , a vehicle control module 911 , It may be a deep learning network including a network interface 913 and a communication unit 915 . In various embodiments, each element may be connected through various interfaces. For example, sensor data sensed and output by the sensors 903 may be fed to the image preprocessor 905 . The sensor data processed by the image preprocessor 905 may be fed to a deep learning network 907 that runs on the AI processor 909 . The output of the deep learning network 907 run by the AI processor 909 may be fed to the vehicle control module 911 . Intermediate results of the deep learning network 907 running on the AI processor 907 may be fed to the AI processor 909 . In various embodiments, the network interface 913 communicates with the electronic device 101 to transmit autonomous driving path information and/or autonomous driving control commands for autonomous driving of the vehicle to internal block components. In an embodiment, the network interface 913 may be used to transmit sensor data acquired through the sensor(s) 903 to the second external electronic device 120 . In some embodiments, autonomous driving control system 900 may include additional or fewer components as appropriate. For example, in some embodiments, image preprocessor 905 may be an optional component. For another example, a post-processing component (not shown in FIG. 9 ) may be configured to perform post-processing on the output of the deep learning network 907 before the output is provided to the vehicle control module 911 in the autonomous driving control system ( 900) may be included.

일부 실시 예에서, 센서들(903)은 하나 이상의 센서들을 포함할 수 있다. 다양한 실시 예에서, 센서들(903)은 차량의 상이한 위치들에 부착될 수 있다. 센서들(903)은 하나 이상의 상이한 방향들을 향할 수 있다. 예를 들어, 센서들(903)은 전면(forward-facing), 후면(rear-facing), 측면(side-facing) 등 방향들을 향하도록 차량의 앞(front), 옆(sides), 뒤(rear), 및/또는 루프(roof)에 부착될 수 있다. 일부 실시 예에서, 센서들(903)은 높은 동적 범위 카메라들(high dynamic range cameras)과 같은 이미지 센서들일 수 있다. 일부 실시 예에서, 센서들(903)은 비-시각적 센서들(non-visual sensors)을 포함한다. 일부 실시 예에서, 센서들(903)은 이미지 센서 외에도 레이더(RADAR), LiDAR(Light Detection And Ranging), 및/또는 초음파 센서들을 포함한다. 일부 실시 예에서, 센서들(903)은 차량 제어 모듈(911)을 갖는 차량에 장착(mounted)되지 않는다. 예를 들어, 센서들(903)은 센서 데이터를 캡쳐하기 위한 딥러닝 시스템의 부분으로서 포함되고 환경 또는 도로에 부착 및/또는 주변의 차량들에 장착될 수 있다.In some embodiments, sensors 903 may include one or more sensors. In various embodiments, the sensors 903 may be attached to different locations on the vehicle. The sensors 903 may face one or more different directions. For example, the sensors 903 may be directed toward the front, sides, rear, etc. of the vehicle in forward-facing, rear-facing, side-facing, etc. directions. ), and/or to a loop. In some embodiments, the sensors 903 may be image sensors, such as high dynamic range cameras. In some embodiments, sensors 903 include non-visual sensors. In some embodiments, the sensors 903 include radar (RADAR), Light Detection And Ranging (LiDAR), and/or ultrasonic sensors in addition to an image sensor. In some embodiments, the sensors 903 are not mounted on a vehicle having the vehicle control module 911 . For example, sensors 903 may be included as part of a deep learning system for capturing sensor data and attached to an environment or roadway and/or mounted to surrounding vehicles.

일부 실시 예에서, 이미지 전처리기(Image pre-processor)(905)는 센서들(903)의 센서 데이터를 전처리하기 위해 사용될 수 있다. 예를 들어, 이미지 전처리기(905)는 센서 데이터를 전처리하기 위해, 하나 이상의 구성 요소들로 센서 데이터를 스플릿(split)하기 위해, 및/또는 하나 이상의 구성 요소들을 후처리 하기 위해 사용될 수 있다. 일부 실시 예에서, 이미지 전처리기(905)는 그래픽 처리 장치(graphics processing unit; GPU), 중앙 처리 장치(central processing unit; CPU), 이미지 신호 프로세서, 또는 전문화된 이미지 프로세서(specialized image processor)일 수 있다. 다양한 실시 예에서, 이미지 전처리기(905)는 높은 동적 범위 데이터(high dynamic range data)를 처리하기 위한 톤-맵퍼(tone-mapper) 프로세서일 수 있다. 일부 실시 예에서, 이미지 전처리기(1505)는 AI 프로세서(909)의 구성 요소일 수 있다.In some embodiments, an image pre-processor 905 may be used to pre-process the sensor data of the sensors 903 . For example, image preprocessor 905 may be used to preprocess sensor data, split sensor data into one or more components, and/or post-process one or more components. In some embodiments, image preprocessor 905 may be a graphics processing unit (GPU), central processing unit (CPU), image signal processor, or specialized image processor. there is. In various embodiments, the image preprocessor 905 may be a tone-mapper processor for processing high dynamic range data. In some embodiments, image preprocessor 1505 may be a component of AI processor 909 .

일부 실시 예에서, 딥 러닝 네트워크(Deep learning network)(907)는 자율 차량을 제어하기 위한 제어 명령들을 구현하기 위한 딥 러닝 네트워크일 수 있다. 예를 들어, 딥 러닝 네트워크(907)는 센서 데이터를 사용하여 트레이닝된 컨볼루션 뉴럴 네트워크(CNN)와 같은 인공 뉴럴 네트워크일 수 있고, 딥 러닝 네트워크(907)의 출력은 차량 제어 모듈(911)로 제공된다. In some embodiments, the deep learning network 907 may be a deep learning network for implementing control instructions for controlling an autonomous vehicle. For example, the deep learning network 907 may be an artificial neural network such as a convolutional neural network (CNN) trained using sensor data, and the output of the deep learning network 907 is sent to the vehicle control module 911 provided

일부 실시 예에서, 인공 지능(AI) 프로세서(909)는 딥 러닝 네트워크(907)를 실행(run)하기 위한 하드웨어 프로세서일 수 있다. 일부 실시 예에서, AI 프로세서(909)는 센서 데이터에 대하여 컨볼루션 뉴럴 네트워크(CNN)를 통한 추론을 수행하기 위한 전문화된 AI 프로세서이다. 일부 실시 예에서, AI 프로세서(909)는 센서 데이터의 비트 깊이(bit depth)를 위해 최적화될 수 있다. 일부 실시 예에서, AI 프로세서(909)는 컨볼루션, 내적, 벡터 및/또는 행렬 연산들을 포함하는 뉴럴 네트워크의 연산들과 같은 딥 러닝 연산들을 위해 최적화될 수 있다. 일부 실시 예에서, AI 프로세서(909)는 병렬 처리를 효과적으로 수행할 수 있는 복수의 그래픽 처리 장치(GPU)들을 통해 구현될 수 있다.In some embodiments, the artificial intelligence (AI) processor 909 may be a hardware processor for running the deep learning network 907 . In some embodiments, the AI processor 909 is a specialized AI processor for performing inference through a convolutional neural network (CNN) on sensor data. In some embodiments, AI processor 909 may be optimized for bit depth of sensor data. In some embodiments, AI processor 909 may be optimized for deep learning operations, such as operations of a neural network including convolution, dot product, vector and/or matrix operations. In some embodiments, the AI processor 909 may be implemented through a plurality of graphic processing units (GPUs) that can effectively perform parallel processing.

다양한 실시 예에서, AI 프로세서(909)는 AI 프로세서(909)가 실행되는 동안 센서(들)(903)로부터 수신된 센서 데이터에 딥러닝 분석을 수행하고, 차량을 적어도 부분적으로 자율적으로 작동하는 데 사용된 머신 러닝 결과를 결정하도록 유발하는 명령어들을 갖는 AI 프로세서를 제공하도록 구성된 메모리에 입출력 인터페이스를 통해 커플링될 수 있다. 일부 실시 예에서, 차량 제어 모듈(Vehicle Control Module)(911)은 인공 지능(AI) 프로세서(1509)로부터 출력된 차량 제어를 위한 명령들을 처리하고, 차량의 각종 모듈을 제어하기 위해 AI 프로세서(909)의 출력을 각 차량의 모듈을 제어하기 위한 명령어들로 트랜슬레이트(translate)하기 위해 이용될 수 있다. 일부 실시 예에서, 차량 제어 모듈(911)은 자율 주행을 위한 차량을 제어하기 위해 이용된다. 일부 실시 예에서, 차량 제어 모듈(911)은 차량의 스티어링 및/또는 속력을 조정할 수 있다. 예를 들어, 차량 제어 모듈(911)은 감속, 가속, 스티어링, 차선 변경, 차선 유지 등의 차량의 주행을 제어하기 위해 사용될 수 있다. 일부 실시 예에서, 차량 제어 모듈(911)은 브레이크 등들(brake lights), 방향 지시등들(turns signals), 헤드라이트(headlights) 등과 같은 차량 조명(vehicle lighting)을 제어하기 위한 제어 신호들을 생성할 수 있다. 일부 실시 예에서, 차량 제어 모듈(911)은 차량의 사운드 시스템(vehicle's sound system), 차량의 오디오 경고들(vehicle's audio warnings), 차량의 마이크 시스템(vehicle's microphone system), 차량의 경적 시스템(vehicle's horn system) 등과 같은 차량 오디오 관련 시스템들을 제어하기 위해 사용될 수 있다. In various embodiments, the AI processor 909 is configured to perform deep learning analysis on sensor data received from the sensor(s) 903 while the AI processor 909 is running, and to operate the vehicle at least partially autonomously. may be coupled via an input/output interface to a memory configured to provide an AI processor having instructions that cause the used machine learning result to be determined. In some embodiments, the vehicle control module (Vehicle Control Module) 911 processes commands for vehicle control output from the artificial intelligence (AI) processor 1509, and the AI processor 909 to control various modules of the vehicle. ) can be used to translate the output of each vehicle into commands for controlling the module of each vehicle. In some embodiments, the vehicle control module 911 is used to control a vehicle for autonomous driving. In some embodiments, the vehicle control module 911 may adjust the steering and/or speed of the vehicle. For example, the vehicle control module 911 may be used to control driving of the vehicle, such as deceleration, acceleration, steering, lane change, and lane maintenance. In some embodiments, the vehicle control module 911 may generate control signals for controlling vehicle lighting such as brake lights, turns signals, headlights, etc. can In some embodiments, the vehicle control module 911 may include a vehicle's sound system, a vehicle's audio warnings, a vehicle's microphone system, and a vehicle's horn system. system) may be used to control vehicle audio-related systems, such as.

일부 실시 예에서, 차량 제어 모듈(911)은 의도된 목적지의 접근 또는 잠재적인 충돌(potential collision)과 같은 주행 이벤트들의 승객들 및/또는 운전자를 알리기 위한 경고 시스템들을 포함하는 통지 시스템들(notification systems)을 제어하기 위해 사용될 수 있다. 일부 실시 예에서, 차량 제어 모듈(911)은 차량의 센서들(903)과 같은 센서들을 조정하기 위해 사용될 수 있다. 예를 들어, 차량 제어 모듈(911)은 센서들(903)의 지향 방향을 수정(modifying the orientation), 센서들(903)의 출력 해상도 및/또는 포맷 유형을 변화, 캡쳐 비율(capture rate)을 증가 또는 감소, 동적 범위(dynamic range)를 조정, 카메라의 초점을 조정할 수 있다. 또한, 차량 제어 모듈(911)은 센서들의 동작을 개별적으로 또는 집단적으로 온/오프 시킬 수 있다. In some embodiments, vehicle control module 911 provides notification systems, including warning systems, to notify passengers and/or driver of driving events, such as a potential collision or approach of an intended destination. ) can be used to control In some embodiments, vehicle control module 911 may be used to calibrate sensors, such as sensors 903 of a vehicle. For example, the vehicle control module 911 may modify the orientation of the sensors 903 , change the output resolution and/or format type of the sensors 903 , and set the capture rate You can increase or decrease it, adjust the dynamic range, and adjust the focus of the camera. Also, the vehicle control module 911 may individually or collectively turn on/off the operations of the sensors.

일부 실시 예에서, 차량 제어 모듈(911)은 필터들의 주파수 범위를 수정하거나, 특징들(features) 및/또는 객체 검출을 위한 엣지 검출 파라미터들(edge detection parameter)을 조정하거나, 비트 깊이 및 채널들을 조정(adjusting channels and bit depth)하는 등과 같은 방식으로 이미지 전처리기(905)의 파라미터들을 변화하기 위해 사용될 수 있다. 다양한 실시 예에서, 차량 제어 모듈(911)은 차량의 자율 주행 및/또는 차량의 운전자-보조(Driver assistance) 기능을 제어하기 사용될 수 있다.In some embodiments, the vehicle control module 911 modifies the frequency range of filters, adjusts features and/or edge detection parameters for object detection, or sets bit depth and channels may be used to vary parameters of the image preprocessor 905 in a manner such as adjusting channels and bit depth. In various embodiments, the vehicle control module 911 may be used to control autonomous driving of a vehicle and/or a driver assistance function of the vehicle.

일부 실시 예에서, 네트워크 인터페이스(913)는 자율 주행 제어 시스템(900)의 블록 구성들과 통신부(915)간의 내부 인터페이스를 담당할 수 있다. 구체적으로, 네트워크 인터페이스(913)는 음성 데이터를 포함하는 데이터를 수신 및/또는 발신하기 위한 의사 소통 인터페이스일 수 있다. 다양한 실시 예에서, 네트워크 인터페이스(913)는 통신부(915)를 통해 음성 통화들을 연결하거나 문자 메시지들을 수신 및/또는 발신하거나, 센서 데이터를 전송하거나, 자율 주행 시스템으로 차량의 소프트웨어를 업데이트하거나, 차량의 자율 주행 시스템의 소프트웨어를 업데이트하기 위하여 외부의 서버들과 연결될 수 있다. In some embodiments, the network interface 913 may be in charge of an internal interface between the block components of the autonomous driving control system 900 and the communication unit 915 . Specifically, the network interface 913 may be a communication interface for receiving and/or transmitting data including voice data. In various embodiments, the network interface 913 connects voice calls or receives and/or sends text messages via the communication unit 915 , transmits sensor data, updates the vehicle's software with an autonomous driving system, or the vehicle It can be connected to external servers to update the software of the autonomous driving system.

다양한 실시 예에서, 통신부(915)는 셀룰러 또는 WiFi 방식의 다양한 무선 인터페이스를 포함할 수 있다. 예를 들어, 네트워크 인터페이스(913)는 통신부(915)를 통해 접속된 제2 외부 전자 장치(120)로부터 센서들(903), 이미지 전처리기(905), 딥 러닝 네트워크(907), AI 프로세서(909), 차량 제어 모듈(911)을 위한 작동 파라미터들 및/또는 명령어들에 대한 업데이트를 수신하기 위해 사용될 수 있다. 예를 들어, 딥 러닝 네트워크(907)의 머신 러닝 모델은 통신부(915)를 사용하여 업데이트될 수 있다. 또 다른 예시에 따르면, 통신부(915)는 이미지 프로세싱 파라미터들과 같은 이미지 전처리기(905)의 작동 파라미터들 및/또는 센서들(903)의 펌웨어를 업데이트하기 위해 이용될 수 있다.In various embodiments, the communication unit 915 may include various wireless interfaces of a cellular or WiFi method. For example, the network interface 913 includes the sensors 903, the image preprocessor 905, the deep learning network 907, and the AI processor from the second external electronic device 120 connected through the communication unit 915. 909 ), to receive updates to operating parameters and/or commands for the vehicle control module 911 . For example, the machine learning model of the deep learning network 907 may be updated using the communication unit 915 . According to another example, the communication unit 915 may be used to update operating parameters of the image preprocessor 905 such as image processing parameters and/or firmware of the sensors 903 .

다른 실시 예에서, 통신부(915)는 사고 또는 사고가 발생할 뻔한(near-accident) 이벤트에서 긴급 서비스들(emergency services)과 긴급 연락(emergency contact)을 위한 통신을 활성화시키기 위해 사용될 수 있다. 예를 들어, 충돌 이벤트에서, 통신부(915)는 도움을 위한 긴급 서비스들을 호출하기 위해 사용될 수 있고, 충돌 세부사항들 및 차량의 위치의 긴급 서비스들을 외부로 알리기 위해 사용될 수 있다. 다양한 실시 예에서, 통신부(915)는 예상된 도착 시간 및/또는 목적지 위치를 업데이트 하거나 획득할 수 있다.In another embodiment, the communication unit 915 may be used to activate communication for emergency services and emergency contact in an accident or near-accident event. For example, in a crash event, the communication unit 915 may be used to call emergency services for assistance, and may be used to inform the outside of emergency services of the vehicle's location and crash details. In various embodiments, the communication unit 915 may update or obtain the expected arrival time and/or destination location.

일 실시 예에 따르면, 도 9에 도시된 자율 주행 시스템(900)은 차량의 전자 장치로 구성될 수도 있다. 일 실시 예에 따르면, 자율 주행 시스템(900)의 AI 프로세서(909)는 차량의 자율 주행 시에 사용자로부터 자율 주행 해제 이벤트가 발생하면, 자율 주행 해제 이벤트 관련 정보를 딥 러닝 네트워크의 트레이닝 셋 데이터로 입력하도록 제어함으로써 차량의 자율 주행 소프트웨어를 학습 시키도록 제어할 수 있다. According to an embodiment, the autonomous driving system 900 illustrated in FIG. 9 may be configured as an electronic device of a vehicle. According to an embodiment, when an autonomous driving cancellation event occurs from a user during autonomous driving of the vehicle, the AI processor 909 of the autonomous driving system 900 converts the autonomous driving cancellation event related information into training set data of the deep learning network. By controlling the input, it is possible to control the vehicle's autonomous driving software to learn.

도 10은 일 실시 예에 따른 전자 장치(1000)의 블록도이다. 10 is a block diagram of an electronic device 1000 according to an embodiment.

도 10을 참고하면, 일 실시 예에 따른 전자 장치(1000)는 센서들(1003), 위치 측위부(1005), 메모리(1007), 프로세서(1009), 운전자 제스쳐 획득부(1011), 통신 회로(1013), 디스플레이부(1015) 및 자율 주행 시스템(1017) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에서, 각 요소들은 다양한 인터페이스를 통해 연결될 수 있다. 일부 실시 예에서, 전자 장치(1000)는 적절하게(as appropriate) 추가적인 또는 보다 더 적은 구성 요소들을 포함할 수 있다. 예를 들어, 센서(들)(1003)은 전자 장치(1000)와는 별도의 외부 장치의 구성요소일 수 있다. 일부 실시 예에서, 센서들(903)은 이미지 센서 외에도 레이더(RADAR), LiDAR(Light Detection And Ranging), 및/또는 초음파 센서들을 포함한다.Referring to FIG. 10 , the electronic device 1000 according to an embodiment includes sensors 1003 , a positioning unit 1005 , a memory 1007 , a processor 1009 , a driver gesture acquiring unit 1011 , and a communication circuit. At least one of a 1013 , a display unit 1015 , and an autonomous driving system 1017 may be included. In various embodiments, each element may be connected through various interfaces. In some embodiments, the electronic device 1000 may include additional or fewer components as appropriate. For example, the sensor(s) 1003 may be a component of an external device separate from the electronic device 1000 . In some embodiments, the sensors 903 include radar (RADAR), Light Detection And Ranging (LiDAR), and/or ultrasonic sensors in addition to an image sensor.

위치 측위부(1005)는 GPS(Global Positioning System), GLONASS와 같은 범지구 위성 항법 시스템(Global Navigation Satellite System)(GNSS) 또는 셀룰러 네트워크의 기지국과의 통신을 통해 차량의 위치를 실시간으로 측위하고, 측위된 위치를 프로세서(1009)로 제공할 수 있다. The positioning unit 1005 positions the vehicle's position in real time through communication with a global positioning system (GPS), a global navigation satellite system (GNSS) such as GLONASS, or a base station of a cellular network, The positioned location may be provided to the processor 1009 .

메모리(1007)은 차량 운행을 위한 각종 제어 정보, 차량의 운행에 따라 생성된 운행 정보, 차량의 운영 체제 소프트웨어 및 차량의 운행을 위한 전자 지도 데이터 중 적어도 하나를 저장할 수 있다. The memory 1007 may store at least one of various control information for driving a vehicle, driving information generated according to driving of the vehicle, operating system software of the vehicle, and electronic map data for driving the vehicle.

프로세서(1009)는 하나 이상의 인스트럭션에 기반하여 데이터를 처리하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 일 실시 예에서, 프로세서(1009)는 지정된 기준을 만족하는 조건 상에서(on a condition that), 자율 주행 해제 이벤트 관련 정보(autonomous driving disengagement event associated information)를 통신 회로(1013)를 통해 서버로 송신할 수 있다. The processor 1009 may include hardware components for processing data based on one or more instructions. In an embodiment, the processor 1009 transmits autonomous driving disengagement event associated information to the server through the communication circuit 1013 on a condition that satisfies a specified criterion. can

일 실시 예에서 프로세서(1009)는 차량의 자율 주행 중 센서(들)(1003)에 의해 획득된 센서 데이터와 위치 정보를 메모리(1007)에 저장할 수도 있다. In an embodiment, the processor 1009 may store sensor data and location information acquired by the sensor(s) 1003 during autonomous driving of the vehicle in the memory 1007 .

일 실시 예에서 상기 자율 주행 해제 이벤트 관련 정보(autonomous driving disengagement event associated information)는 자율 주행 해제 이벤트가 발생한 시점에서 획득된 센서(들)(1003)에 의해 획득된 센서 데이터들과 센서 데이터가 획득된 위치 정보, 운전자 운행 정보 중 적어도 하나를 포함한다. 일 실시 예에서 상기 센서 데이터들은 이미지 센서, 레이더, LiDAR, 및 초음파 센서들에 의해 획득된 데이터 중 적어도 하나를 포함할 수 있다. 일 실시 예에서 자율 주행 해제 이벤트 관련 정보(autonomous driving disengagement event associated information)는, 운전자의 프라이버시 보호를 위해, 운전자를 식별할 수 있는 운전자 식별 정보(User ID, Driver license 정보, 운전자 이름 등) 및/또는 차량 식별 정보(차량 번호판 정보(License plate information), 차량 식별 정보(Vehicle Identification Number) 등과 관계 없도록 처리될 수 있다. In an embodiment, the autonomous driving disengagement event associated information includes sensor data acquired by the sensor(s) 1003 acquired at the time when the autonomous driving disengagement event occurs, and sensor data acquired It includes at least one of location information and driver driving information. In an embodiment, the sensor data may include at least one of data acquired by an image sensor, radar, LiDAR, and ultrasonic sensors. In an embodiment, autonomous driving disengagement event associated information includes driver identification information (User ID, Driver license information, driver name, etc.) capable of identifying the driver in order to protect the driver's privacy and/or Alternatively, it may be processed so as to be independent of vehicle identification information (License plate information, Vehicle Identification Number), and the like.

일 실시 예에서 상기 지정된 기준은, 자율 주행 해제 이벤트(autonomous driving disengagement event)가 발생한 시점일 수 있다. 예를 들어, 차량이 자율 주행 모드로 주행하는 도중에 운전자의 개입(driver intervention)이 발생하거나, 자율 주행 모드에서 수행 주행 모드로 주행 모드를 변경할 것을 요구하는 운전자 제스쳐(driver gesture)가 발생한 시점일 수 있다. 일 실시 예에서, 운전자 제스쳐 획득부(1011)가 운전자가 차량의 스티어링 휠을 조작하거나 차량의 가속 페달/감속 페달을 조작하거나, 차량의 기어를 조작하는 것을 운전자 제스쳐 획득부(1011)가 식별하는 것에 기반하여 운전자의 개입을 판단할 수 있다. 일 실시 예에서 운전자 제스쳐 획득부(1011)가 자율 주행 모드에서 수동 주행 모드로의 주행 모드 변환을 나타내는 운전자의 손 동작 또는 몸 동작을 식별하는 것에 기반하여 운전자의 개입을 판단할 수 있다. 일 실시 예에서, 자율 주행 해제 이벤트는, 차량의 자율 주행 시스템(1017)이 미리 학습된 자율 주행 알고리즘에 의해 원활한 자율 주행을 수행하지 못하는 지점에서 발생할 수 있다. 예컨대, 자율 주행 모드에 따라 정해진 주행 경로 상을 주행하던 차량이 신호등이 없는 회전 교차로(round about)에 진입하는 상황에서 해당 회전 교차로를 진입하는 타 차량의 존재를 검출하고, 상기 타 차량이 예측된 방향과 속도로 진행하지 않는 것을 프로세서(1009)가 식별하는 것에 기반하여, 운전자 제스쳐 획득부(1011)는 상기 프로세서(1009)가 식별한 시점에 발생한 운전자 제스쳐에 의해 자율 주행 해제 모드로의 모드 변경을 위한 운전자 개입을 판단할 수 있다. 또 다른 예에서, 자율 주행 모드에 따라 정해진 주행 경로 상을 주행하던 차량이 주행 경로 상에 예측하지 못한 도로 상황(도로 공사 중), 교통 상황, 도로 상 사고 발생, 차량의 장애 알림 등이 발생한 것을 프로세서(1009)가 식별하는 것에 기반하여, 운전자 제스쳐 획득부(1011)는 상기 프로세서(1009)가 식별한 시점에 발생한 운전자 제스쳐에 의해 자율 주행 해제 모드로의 모드 변경을 위한 운전자 개입을 판단할 수 있다.In an embodiment, the specified criterion may be a time point at which an autonomous driving disengagement event occurs. For example, it may be a time when a driver intervention occurs while the vehicle is driving in the autonomous driving mode, or a driver gesture requesting to change the driving mode from the autonomous driving mode to the performing driving mode occurs. there is. In one embodiment, the driver gesture acquisition unit 1011 identifies that the driver gesture acquisition unit 1011 operates the steering wheel of the vehicle, operates the accelerator pedal/decelerator pedal of the vehicle, or operates the gear of the vehicle. Based on this, it is possible to determine the driver's intervention. In an embodiment, the driver's gesture acquisition unit 1011 may determine the driver's intervention based on identifying the hand gesture or body gesture of the driver indicating the driving mode conversion from the autonomous driving mode to the manual driving mode. According to an embodiment, the autonomous driving cancellation event may occur at a point where the autonomous driving system 1017 of the vehicle fails to smoothly autonomously drive according to a pre-learned autonomous driving algorithm. For example, in a situation in which a vehicle traveling on a driving route determined according to the autonomous driving mode enters a round about without a traffic light, the presence of another vehicle entering the roundabout is detected, and the other vehicle is predicted Based on the processor 1009 identifying that the vehicle does not proceed in the direction and speed, the driver gesture acquisition unit 1011 changes the mode to the autonomous driving release mode by the driver gesture generated at the time point identified by the processor 1009 can determine driver intervention for In another example, the vehicle traveling on the driving route determined according to the autonomous driving mode is notified of unexpected road conditions (during road construction), traffic conditions, road accidents, vehicle failure notifications, etc. Based on the identification by the processor 1009, the driver gesture acquisition unit 1011 may determine the driver intervention for mode change to the autonomous driving release mode by the driver gesture generated at the time point identified by the processor 1009. there is.

일 실시 예에서, 운전자 제스쳐 획득부(1011)은 차량 실내에 장착된 가시 광 카메라 및/또는 적외선 카메라를 통해 인식된 사용자 제스쳐가 미리 지정된 자율 주행 모드 해제에 해당하는 제스쳐인지 여부를 판단할 수 있다. 또한, 일 실시 예에서, 운전자 제스쳐 획득부(1011)는 디스플레이(1013) 상에 표시된 UX(User eXperience)를 통해 선택된 사용자 입력에 의해 자율 주행 해제 이벤트 발생을 식별할 수 있다. In an embodiment, the driver gesture acquisition unit 1011 may determine whether a user gesture recognized through a visible light camera and/or an infrared camera mounted inside the vehicle is a gesture corresponding to canceling a predetermined autonomous driving mode. . Also, according to an embodiment, the driver gesture acquirer 1011 may identify occurrence of an autonomous driving cancellation event according to a user input selected through a user eXperience (UX) displayed on the display 1013 .

일 실시 예에서, 프로세서(1009)는 지정된 기준을 만족하는 조건 상에서(on a condition that), 운전자 운행 정보를 획득하고, 획득된 운행 정보와 상기 운행 정보가 획득된 위치 정보를 통신 회로(1013)를 통해 서버(1100)로 송신할 수 있다. 이때 상기 운전자 운행 정보는, 상기 자율 주행 해제 이벤트가 발생한 시점에서 운전자에 의해 조작된 스티어링 휠 조작 각도, 가속 페달 조작 정보, 감속 페달 조작 정보, 기어 정보 중 적어도 하나를 포함할 수 있다. In an embodiment, the processor 1009 acquires driver driving information on a condition that satisfies a specified criterion, and communicates the acquired driving information and the location information from which the driving information is obtained to the communication circuit 1013 . may be transmitted to the server 1100 through In this case, the driver driving information may include at least one of a steering wheel manipulation angle, accelerator pedal manipulation information, deceleration pedal manipulation information, and gear information manipulated by the driver at the time when the autonomous driving cancellation event occurs.

일 실시 예에서, 프로세서(1009)는 역방향 트래픽(reverse traffic)의 혼잡(congestion)을 감소시키기 위해 상기 자율 주행 해제 이벤트가 발생한 시점에 획득된 자율 주행 해제 이벤트 관련 정보(autonomous driving disengagement event associated information)를 서버로 송신할 때, 상기 센서(들)(1003)에 의해 획득된 데이터 중 일부 데이터만을 자율 주행 해제 이벤트 관련 정보로 송신할 수 있다. In an embodiment, the processor 1009 is configured to provide autonomous driving disengagement event associated information obtained at the time when the autonomous driving disengagement event occurs to reduce congestion of reverse traffic. When transmitting to the server, only some of the data acquired by the sensor(s) 1003 may be transmitted as autonomous driving cancellation event related information.

예컨대, 차량에 총 10개의 센서들이 장착되어 있고, 각 센서들이 초당 30프레임(30fps)으로 센서 데이터를 취득할 경우, 프로세서(1009)는 상기 10개의 센서들로부터 취득된 센서 데이터 중 상기 자율 주행 해제 이벤트가 발생한 시점을 기준으로 일정 시간 동안(예컨대 10초) 발생된 총 300개의 프레임들(10초 X 30 프레임) 중 일부 프레임들(100개의 프레임들)(10초 X 10 프레임)만을 서버로 송신할 수 있다. For example, when a total of 10 sensors are installed in the vehicle and each sensor acquires sensor data at 30 frames per second (30 fps), the processor 1009 cancels the autonomous driving among the sensor data acquired from the 10 sensors. Only some frames (100 frames) (10 seconds X 10 frames) out of a total of 300 frames (10 seconds X 30 frames) generated for a certain period of time (eg 10 seconds) based on the time when the event occurred are transmitted to the server can do.

다른 실시 예에서, 프로세서(1009)는 상기 자율 주행 해제 이벤트가 발생한 시점에 획득된 자율 주행 해제 이벤트 관련 정보(autonomous driving disengagement event associated information)를 서버로 송신할 때, 상기 센서(들)(1003)에 의해 획득된 데이터의 전체 데이터(full data)를 자율 주행 해제 이벤트 관련 정보로 송신할 수 있다. 예컨대, 차량에 총 10개의 센서들이 장착되어 있고, 각 센서들이 초당 30프레임(30fps)으로 센서 데이터를 취득할 경우, 프로세서(1009)는 상기 10개의 센서들로부터 취득된 센서 데이터 중 일부 데이터만(예를 들어, 초당 10 프레임)을 메모리(1007)에 저장하고, 상기 자율 주행 해제 이벤트가 발생한 시점을 기준으로 일정 시간 동안(예컨대 10초) 발생된 총 300개의 프레임들(10초 X 30 프레임) 전체를 서버로 송신할 수 있다. In another embodiment, when the processor 1009 transmits the autonomous driving disengagement event associated information acquired at the time when the autonomous driving disengagement event occurs to the server, the sensor(s) 1003 Full data of the data acquired by the . For example, when a total of 10 sensors are installed in the vehicle, and each sensor acquires sensor data at 30 frames per second (30 fps), the processor 1009 only partially data ( For example, 10 frames per second) are stored in the memory 1007, and a total of 300 frames (10 seconds X 30 frames) generated for a predetermined time (eg, 10 seconds) based on the time when the autonomous driving cancellation event occurs. The whole can be sent to the server.

물론, 프로세서(1009)는 각 센서들(1003)로부터 획득된 센서 데이터의 시간 동기를 일치시켜야 함은 당연하다. 자율 주행 시스템(1017)은 일 실시 예에 따라 센서(들)에 의해 취득된 센서 데이터를 이용하여 학습된 신경 망을 이용하여 차량에 자율 주행 기능을 제공하며, 통신 회로(1013)를 통해 OTA(Over The Air) 방식으로 자율 주행 소프트웨어를 갱신하거나, 다운로드 받을 수 있다. Of course, it goes without saying that the processor 1009 must match the time synchronization of the sensor data obtained from each of the sensors 1003 . According to an embodiment, the autonomous driving system 1017 provides an autonomous driving function to a vehicle using a neural network learned using sensor data acquired by the sensor(s), and through the communication circuit 1013, OTA ( You can update or download the autonomous driving software using the Over The Air) method.

도 11은 일 실시 예에 따른 서버(1100)의 블록도이다.11 is a block diagram of a server 1100 according to an embodiment.

도 11을 참고하면, 일 실시 예에 따른 서버(1100)는 프로세서(1103), 메모리(1105), 트레이닝 셋 생성부(1107), 딥 러닝 처리부(1109) 및 통신 회로(1111) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에서, 각 요소들은 다양한 인터페이스를 통해 연결될 수 있다. 일부 실시 예에서, 서버(1100)는 적절하게(as appropriate) 추가적인 또는 보다 더 적은 구성 요소들을 포함할 수 있다.Referring to FIG. 11 , the server 1100 according to an embodiment includes at least one of a processor 1103 , a memory 1105 , a training set generation unit 1107 , a deep learning processing unit 1109 , and a communication circuit 1111 . may include In various embodiments, each element may be connected through various interfaces. In some embodiments, server 1100 may include additional or fewer components as appropriate.

일 실시 예에서, 프로세서(1103)는 통신 회로(1111)를 통해 OTA 방식으로 전자 장치(1000)로 딥 러닝 처리부(1109)에서 학습된 자율 주행을 위한 소프트웨어(알고리즘)을 배포한다. 일 실시 예에서, 프로세서(1103)는 전자 장치(1000)로부터 수신된 자율 주행 해제 이벤트 관련 정보를 트레이닝 셋(training set) 생성부(1107)로 전달하여 딥 러닝 처리부(1109)의 학습을 위한 트레이닝 데이터를 생성하도록 제어한다. In an embodiment, the processor 1103 distributes the software (algorithm) for autonomous driving learned by the deep learning processing unit 1109 to the electronic device 1000 in an OTA method through the communication circuit 1111 . In an embodiment, the processor 1103 transmits the autonomous driving cancellation event related information received from the electronic device 1000 to the training set generation unit 1107 to train the deep learning processing unit 1109 for learning. control to generate data.

일 실시 예에서, 메모리(1105)는 차량의 자율 주행에 필요한 전자 지도 데이터와 네트워크에 접속되어 자율 주행을 수행 중인 차량들로부터 획득된 센서 데이터와 그 위치 정보들을 사용자 및/또는 차량의 식별 정보와 관계 없이 저장한다. In an embodiment, the memory 1105 stores electronic map data required for autonomous driving of a vehicle, sensor data obtained from vehicles that are connected to a network and performing autonomous driving, and location information thereof, with identification information of a user and/or vehicle and Save regardless.

일 실시 예에서, 메모리(1105)는 차량의 자율 주행 중에 자율 주행 해제 이벤트 발생 시점에서 생성된 센서 데이터와 그 위치 정보만을 저장할 수도 있다. According to an embodiment, the memory 1105 may store only sensor data and location information generated at the time when the autonomous driving cancel event occurs during autonomous driving of the vehicle.

일 실시 예에서, 딥 러닝 처리부(1109)는 상기 트레이닝 셋 생성부(1107)에서 생성된 트레이닝 데이터를 사용하여 자율 주행의 딥 러닝 알고리즘 학습을 수행하고, 수행된 학습 결과를 이용하여 자율 주행 알고리즘을 갱신한다. In an embodiment, the deep learning processing unit 1109 performs learning of the deep learning algorithm of autonomous driving using the training data generated by the training set generating unit 1107, and the autonomous driving algorithm using the performed learning result. update

일 실시 예에서, 프로세서(1103)는 상기 딥 러닝 처리부(1109)에서 갱신된 자율 주행 알고리즘을 네트워크에 연결된 전자 장치(1000)로 OTA 방식을 통해 배포할 수 있다. In an embodiment, the processor 1103 may distribute the autonomous driving algorithm updated by the deep learning processing unit 1109 to the electronic device 1000 connected to the network through an OTA method.

일 실시 예에서, 프로세서(1103)는 통신 회로(1111)를 통해 차량 A로부터 수신된 자율 주행 해제 이벤트 관련 정보가 생성된 위치를 경유하는 차량 B의 자율 주행 제어 시스템으로, 자율 주행 소프트웨어를 갱신할 것을 요구하고, 차량 B는 갱신된 자율 주행 소프트웨어를 다운로드 받을 수 있다. In an embodiment, the processor 1103 is the autonomous driving control system of the vehicle B via the location where the autonomous driving release event related information received from the vehicle A through the communication circuit 1111 is generated, and is configured to update the autonomous driving software. request, vehicle B can download the updated autonomous driving software.

도 12는 다양한 실시예들에 따른 전자 장치의 동작을 설명하기 위한 신호 흐름도이다.12 is a signal flow diagram for explaining an operation of an electronic device according to various embodiments of the present disclosure;

도 12을 참고하면, 동작(1200)에서, 일 실시 예에 따른 전자 장치(1000)는 자율 주행 모드로 동작하고, 동작(1202)에서 센서(들)에 의해 센서 데이터를 획득한다. 동작(1204)에서, 일 실시 예에 따른 전자 장치(1000)는 자율 주행 해제 이벤트가 발생하면, 수동 주행 모드로 변환하고, 사용자의 수동 조작에 따라 발생한 제어 명령에 따라 주행을 수행한다. Referring to FIG. 12 , in operation 1200 , the electronic device 1000 according to an embodiment operates in an autonomous driving mode, and in operation 1202 , acquires sensor data by sensor(s). In operation 1204, when an autonomous driving cancellation event occurs, the electronic device 1000 according to an embodiment converts to a manual driving mode and drives according to a control command generated according to a user's manual operation.

동작(1206)에서, 일 실시 예에 따른 전자 장치(1000)는 자율 주행 해제 이벤트 관련 정보를 생성하고, 동작(1210)에서 서버(1100)로 자율 주행 해제 이벤트 발생 알림 메시지를 전송한다. In operation 1206 , the electronic device 1000 according to an embodiment generates information related to the autonomous driving cancellation event and transmits an autonomous driving cancellation event generation notification message to the server 1100 in operation 1210 .

상기 자율 주행 해제 이벤트 발생 알림 메시지의 획득에 응답하여, 동작(1212)에서, 서버(1100)는 전자 장치(1000)로 자율 주행 해제 이벤트 관련 정보 전송 요청 메시지를 전송한다. In response to obtaining the autonomous driving cancellation event occurrence notification message, in operation 1212 , the server 1100 transmits a request message for information transmission related to the autonomous driving cancellation event to the electronic device 1000 .

상기 자율 주행 해제 이벤트 관련 정보 전송 요청 메시지의 획득에 응답하며, 동작(1214)에서 전자 장치(1000)는 자율 주행 해제 이벤트 관련 정보를 서버(1100)로 전송한다. In response to the acquisition of the autonomous driving cancellation event related information transmission request message, in operation 1214 , the electronic device 1000 transmits the autonomous driving canceling event related information to the server 1100 .

상기 자율 주행 해제 이벤트 관련 정보의 획득에 응답하여, 동작(1216)에서 서버(1100)는, 상기 자율 주행 해제 이벤트 관련 정보를 이용하여 딥 러닝을 위한 트레이닝 셋 데이터(training set data)로 생성한다. In response to the acquisition of the autonomous driving cancellation event related information, in operation 1216, the server 1100 generates training set data for deep learning by using the autonomous driving cancellation event related information.

동작(1218)에서 서버(1100)는 상기 트레이닝 셋 데이터를 이용하여 딥 러닝을 수행하고, 동작(1220)에서 서버(1100)는 자율 주행 알고리즘을 갱신한다. In operation 1218, the server 1100 performs deep learning using the training set data, and in operation 1220, the server 1100 updates the autonomous driving algorithm.

동작(1222)에서, 전자 장치(1000)는, 사용자에 의해 자율 주행 모드로 전환 되었다면, 동작(1224)에서 자율 주행 모드로 주행한다. 그리고, 동작(1226)에서의 서버(1100)로부터의 새로운 버전의 자율 주행 소프트웨어 수신에 응답하여, 전자 장치(1000)는 새로운 버전의 자율 주행 소프트웨어를 이용하여 자율 주행을 수행한다. In operation 1222 , if the electronic device 1000 is switched to the autonomous driving mode by the user, in operation 1224 , the electronic device 1000 drives in the autonomous driving mode. In response to receiving the new version of the autonomous driving software from the server 1100 in operation 1226 , the electronic device 1000 performs autonomous driving using the new version of the autonomous driving software.

도 13은 다양한 실시예들에 따른 서버의 동작을 설명하기 위한 신호 흐름도이다.13 is a signal flow diagram illustrating an operation of a server according to various embodiments of the present disclosure;

동작(1300)에서 서버(1100)는 차량 A로부터 자율 주행 해제 이벤트 발생이 확인되면, 동작(1302)에서 차량 A로부터 자율 주행 해제 이벤트 관련 정보를 획득한다. When it is confirmed that the autonomous driving release event occurs from vehicle A in operation 1300 , in operation 1302 , the server 1100 acquires autonomous driving cancellation event related information from vehicle A in operation 1302 .

상기 자율 주행 해제 이벤트 관련 정보가 획득되면, 서버(1100)는 동작(1304)에서 상기 자율 주행 해제 이벤트 관련 정보를 딥 러닝을 위한 트레이닝 셋 데이터로 생성하고, 동작(1306)에서 생성된 트레이닝 셋 데이터로 딥 러닝을 수행하고, 동작(1308)에서 상기 수행된 딥 러닝 결과를 통해 자율 주행 소프트웨어를 갱신한다. When the autonomous driving cancellation event-related information is obtained, the server 1100 generates the autonomous driving cancellation event-related information as training set data for deep learning in operation 1304, and the training set data generated in operation 1306 to perform deep learning, and in operation 1308 , the autonomous driving software is updated based on the result of the deep learning performed.

동작(1310)에서 서버(1100)에서 차량 B가 상기 차량 A에서 자율 주행 해제 이벤트가 발생한 지점을 통과할 예정임이 확인되면(1310-예), 서버(1100)는 동작(1312)에서 차량 B로 자율 주행 소프트웨어 갱신을 요구하고, 동작(1314)에서 자량 B로 자율 주행 소프트웨어를 전송하여 차량 B가 차량 A에서 발생한 것과 유사한 자율 주행 해제 이벤트의 발생을 방지할 수 있다. 상기 동작(1310)에서 서버(1100)는, 일 실시 예에 따라 자율 주행 중인 차량들과 네트워크를 통해 연결되고, 각 자율 주행 중인 차량의 경로 및 위치를 실시간으로 확인할 수 있으므로, 특정 차량이 자율 주행 해제 이벤트가 발생한 지점을 그 후행 차량이 진입/경유할 것인지 여부를 확인할 수 있다. 물론, 서버(1100)는 운전자의 개인 정보 보호를 위해, 각 차량으로부터 획득되는 위치 정보는 운전자 및/또는 차량의 식별 정보와 무관하게 획득될 수 있다. In operation 1310 , if it is confirmed in the server 1100 that the vehicle B is going to pass the point where the autonomous driving release event occurs in the vehicle A ( 1310 - Yes), the server 1100 switches to the vehicle B in operation 1312 . By requesting an autonomous driving software update, and by sending the autonomous driving software to vehicle B in operation 1314 , vehicle B may prevent occurrence of an autonomous driving unlock event similar to that occurring in vehicle A. In operation 1310, the server 1100 is connected to autonomously driving vehicles through a network and can check the route and location of each autonomously driving vehicle in real time, so that a specific vehicle autonomously drives. It can be checked whether the following vehicle will enter/pass through the point where the release event occurs. Of course, for the server 1100 to protect the driver's personal information, location information obtained from each vehicle may be obtained regardless of driver and/or vehicle identification information.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다. Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (20)

전자 장치(electronic device)에 있어서,
통신 회로;
메모리; 및
상기 통신 회로 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함하고,
상기 메모리는, 복수의 인스트럭션들을 저장하고,
상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가,
상기 통신 회로를 이용하여, 상기 전자 장치와 구별되는 제1 외부 전자 장치로부터 비디오를 수신하고;
상기 비디오를 수신하는 상태에서, 상기 제1 외부 전자 장치로부터 지정된 상태로의 진입을 알리는 제1 신호를 수신하고;
상기 제1 신호의 수신에 응답하여, 상기 수신된 비디오와 관련된 정보를 식별하고;
상기 정보의 식별에 응답하여, 상기 제1 외부 전자 장치와 구별되는 제2 외부 전자 장치로, 상기 정보의 적어도 일부를 포함하는 제2 신호를 송신하도록 제어하는 전자 장치.
In an electronic device,
communication circuit;
Memory; and
at least one processor operably coupled to the communication circuitry and the memory;
The memory stores a plurality of instructions,
The plurality of instructions, when executed by the at least one processor, cause the at least one processor to:
receive a video from a first external electronic device distinct from the electronic device by using the communication circuit;
receiving a first signal informing of entering a specified state from the first external electronic device in the state of receiving the video;
in response to receiving the first signal, identify information related to the received video;
In response to the identification of the information, the electronic device controls to transmit a second signal including at least a portion of the information to a second external electronic device that is distinct from the first external electronic device.
청구항 1에 있어서, 상기 비디오는,
상기 제2 외부 전자 장치와 연계되고, 상기 제1 외부 전자 장치를 포함하는 차량 내에 위치된 제3 외부 전자 장치 상에 표시된 전자 지도가 상기 제1 외부 전자 장치에 의해 획득된 비디오에 대응하지 않음을 상기 제3 외부 전자 장치가 식별하는 것에 기반하여, 상기 제1 외부 전자 장치로부터 상기 전자 장치에게 송신되는,
전자 장치.
The method according to claim 1, wherein the video,
that the electronic map displayed on a third external electronic device linked to the second external electronic device and located in a vehicle including the first external electronic device does not correspond to the video acquired by the first external electronic device transmitted from the first external electronic device to the electronic device based on the identification of the third external electronic device;
electronic device.
청구항 1에 있어서, 상기 비디오는,
상기 전자 장치를 포함하는 차량의 주행 모드가 자율 주행 모드로부터 수동 주행 모드로 변경되는 조건 상에서, 상기 제1 외부 전자 장치로부터 상기 전자 장치에게 송신되는,
전자 장치.
The method according to claim 1, wherein the video,
transmitted from the first external electronic device to the electronic device under a condition that a driving mode of a vehicle including the electronic device is changed from an autonomous driving mode to a manual driving mode;
electronic device.
청구항 1에 있어서, 상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가,
상기 제1 신호의 수신에 기반하여, 상기 비디오를 저장하고,
상기 제1 신호의 미수신에 기반하여, 상기 비디오를 지정된 시간이 경과된 후 폐기하도록, 제어하는,
전자 장치.
The method according to claim 1, The plurality of instructions, when executed by the at least one processor, the at least one processor,
store the video based on the reception of the first signal;
Based on the non-receipt of the first signal, controlling to discard the video after a specified time has elapsed,
electronic device.
청구항 4에 있어서, 상기 비디오를 저장하는 것을 유지하는 시간 구간의 길이는,
상기 제1 신호의 유형에 기반하여, 변경되는,
전자 장치.
5. The method of claim 4, wherein the length of the time interval for maintaining the storage of the video is:
changed based on the type of the first signal,
electronic device.
청구항 1에 있어서, 상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가,
상기 제1 신호에 기반하여, 뉴럴 네트워크를 이용하여 상기 비디오를 인식함으로써, 상기 비디오와 관련된 상기 정보를 식별하도록, 제어하는,
전자 장치.
The method according to claim 1, The plurality of instructions, when executed by the at least one processor, the at least one processor,
controlling to identify the information related to the video by recognizing the video using a neural network based on the first signal;
electronic device.
청구항 1에 있어서, 상기 제2 신호는,
상기 정보의 적어도 일부와 관련된 하나 이상의 단말을 식별하도록, 상기 제2 외부 전자 장치를 야기하는,
전자 장치.
The method according to claim 1, The second signal,
causing the second external electronic device to identify one or more terminals associated with at least a portion of the information;
electronic device.
단말에 있어서,
내장 디스플레이;
통신 회로;
메모리; 및
상기 디스플레이, 통신 회로 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함하고,
상기 메모리는, 복수의 인스트럭션들을 저장하고,
상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가,
지정된 어플리케이션에 기반하여, 제1 외부 전자 장치와 통신하고;
상기 제1 외부 전자 장치로부터, 상기 제1 외부 전자 장치와 구별되는 제2 외부 전자 장치와 관련된 정보를 수신하고;
상기 정보의 수신에 응답하여, 상기 내장 디스플레이와 구별되는 외부 디스플레이를 식별하고;
상기 외부 디스플레이가 상기 단말과 연결된 제1 상태에서, 상기 외부 디스플레이 상에 상기 정보와 관련된 제1 시각 요소를 표시하고;
상기 제1 상태와 구별되는 제2 상태에서, 상기 내장 디스플레이 상에 상기 제1 시각 요소를 표시하고;
상기 제1 시각 요소를 표시한 상태에서, 상기 제1 시각 요소와 관련된 사용자 입력의 식별에 응답하여,
상기 제1 시각 요소와 관련되고, 상기 정보의 적어도 일부를 포함하는 제2 시각 요소를 표시하도록 제어하고;
상기 제2 시각 요소는, 상기 제1 상태에서 상기 내장 디스플레이 상에 표시되고, 상기 제2 상태에서 상기 외부 디스플레이에 표시되는 것을 특징으로 하는 단말.
In the terminal,
built-in display;
communication circuit;
Memory; and
at least one processor operably coupled to the display, the communication circuitry and the memory;
The memory stores a plurality of instructions,
The plurality of instructions, when executed by the at least one processor, cause the at least one processor to:
based on the specified application, communicate with the first external electronic device;
receive, from the first external electronic device, information related to a second external electronic device distinguished from the first external electronic device;
in response to receiving the information, identify an external display distinct from the embedded display;
displaying a first visual element related to the information on the external display in a first state in which the external display is connected to the terminal;
display the first visual element on the built-in display in a second state distinct from the first state;
In the displayed state of the first visual element, in response to identification of a user input associated with the first visual element,
control to display a second visual element associated with the first visual element and comprising at least a portion of the information;
The second visual element is displayed on the built-in display in the first state and is displayed on the external display in the second state.
청구항 8에 있어서, 상기 제1 시각 요소는,
사고와 관련된 정보를 제공하기 위해 표시되고,
상기 지정된 어플리케이션을 통해 제공되는, 전자 지도 상에 중첩으로, 표시되는,
단말.
The method according to claim 8, wherein the first visual element,
Displayed to provide information related to the accident;
Displayed as superimposed on the electronic map, provided through the specified application,
terminal.
청구항 9에 있어서, 상기 제1 시각 요소는,
상기 사고를 알리기 위한 메시지와 함께, 표시되는,
단말.
The method according to claim 9, wherein the first visual element,
Displayed along with a message to inform the accident,
terminal.
청구항 9에 있어서, 상기 제2 시각 요소는,
상기 제1 시각 요소에 의해 지시되는 상기 사고에 대한 상세 정보를 포함하는,
단말.
The method according to claim 9, wherein the second visual element,
including detailed information about the accident indicated by the first visual element;
terminal.
청구항 11에 있어서, 상기 복수의 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 때에, 상기 적어도 하나의 프로세서가,
상기 사용자 입력의 식별에 응답하여, 상기 전자 지도 상에 중첩된 상기 제1 시각 요소를 표시하는 것을 중단하고,
상기 제2 시각 요소를 표시하도록, 제어하는,
단말.
The method of claim 11 , wherein the plurality of instructions, when executed by the at least one processor, cause the at least one processor to:
in response to identifying the user input, ceasing to display the first visual element superimposed on the electronic map;
controlling to display the second visual element;
terminal.
청구항 9에 있어서, 상기 시각 요소는,
상기 사고의 발생 시각에 대한 정보와 연계로 표시되는,
단말.
The method according to claim 9, wherein the visual element,
Displayed in connection with information about the time of occurrence of the accident,
terminal.
전자 장치를 동작하기 위한 방법에 있어서,
상기 통신 회로를 이용하여, 상기 전자 장치와 구별되는 제1 외부 전자 장치로부터 비디오를 수신하는 동작과,
상기 비디오를 수신하는 상태에서, 상기 제1 외부 전자 장치로부터 지정된 상태로의 진입을 알리는 제1 신호를 수신하는 동작과,
상기 제1 신호의 수신에 응답하여, 상기 수신된 비디오와 관련된 정보를 식별하는 동작과,
상기 정보의 식별에 응답하여, 상기 제1 외부 전자 장치와 구별되는 제2 외부 전자 장치로, 상기 정보의 적어도 일부를 포함하는 제2 신호를 송신하는 동작을 포함하는 방법.
A method for operating an electronic device, comprising:
receiving a video from a first external electronic device distinguished from the electronic device by using the communication circuit;
receiving a first signal informing of entering a specified state from the first external electronic device in the state of receiving the video;
in response to receiving the first signal, identifying information related to the received video;
and in response to the identification of the information, transmitting a second signal including at least a portion of the information to a second external electronic device that is distinct from the first external electronic device.
청구항 14에 있어서, 상기 비디오는,
상기 제2 외부 전자 장치와 연계되고, 상기 제1 외부 전자 장치를 포함하는 차량 내에 위치된 제3 외부 전자 장치 상에 표시된 전자 지도가 상기 제1 외부 전자 장치에 의해 획득된 비디오에 대응하지 않음을 상기 제3 외부 전자 장치가 식별하는 것에 기반하여, 상기 제1 외부 전자 장치로부터 상기 전자 장치에게 송신되는,
방법.
The method according to claim 14, wherein the video,
that the electronic map displayed on a third external electronic device linked to the second external electronic device and located in a vehicle including the first external electronic device does not correspond to the video acquired by the first external electronic device transmitted from the first external electronic device to the electronic device based on the identification of the third external electronic device;
Way.
청구항 14에 있어서, 상기 비디오는,
상기 전자 장치를 포함하는 차량의 주행 모드가 자율 주행 모드로부터 수동 주행 모드로 변경되는 조건 상에서, 상기 제1 외부 전자 장치로부터 상기 전자 장치에게 송신되는,
방법.
The method according to claim 14, wherein the video,
transmitted from the first external electronic device to the electronic device under a condition that a driving mode of a vehicle including the electronic device is changed from an autonomous driving mode to a manual driving mode;
Way.
청구항 14에 있어서,
상기 제1 신호의 수신에 기반하여, 상기 비디오를 저장하는 동작과,
상기 제1 신호의 미수신에 기반하여, 상기 비디오를 지정된 시간이 경과된 후 폐기하는 동작을 더 포함하는,
방법.
15. The method of claim 14,
storing the video based on the reception of the first signal;
Based on the non-receipt of the first signal, the method further comprising: discarding the video after a specified time elapses,
Way.
청구항 17에 있어서, 상기 비디오를 저장하는 것을 유지하는 시간 구간의 길이는,
상기 제1 신호의 유형에 기반하여, 변경되는,
방법.
18. The method of claim 17, wherein the length of the time interval maintaining storing the video is:
changed based on the type of the first signal,
Way.
청구항 14에 있어서, 상기 정보를 식별하는 동작은,
상기 제1 신호에 기반하여, 뉴럴 네트워크를 이용하여 상기 비디오를 인식함으로써, 상기 비디오와 관련된 상기 정보를 식별하는 동작을 포함하는 방법.
The method according to claim 14, wherein the identifying the information comprises:
and identifying the information related to the video by recognizing the video using a neural network based on the first signal.
청구항 14에 있어서, 상기 제2 신호는,
상기 정보의 적어도 일부와 관련된 하나 이상의 단말을 식별하도록, 상기 제2 외부 전자 장치를 야기하는,
방법.
The method according to claim 14, wherein the second signal,
causing the second external electronic device to identify one or more terminals associated with at least a portion of the information;
Way.
KR1020210148755A 2020-11-03 2021-11-02 Electronic device and method for processing data received from in vehicle electronic device KR20220059923A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/517,806 US20220141426A1 (en) 2020-11-03 2021-11-03 Electronic device and method for processing data received from in-vehicle electronic device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20200145604 2020-11-03
KR1020200145604 2020-11-03
KR1020200145854 2020-11-04
KR20200145854 2020-11-04

Publications (1)

Publication Number Publication Date
KR20220059923A true KR20220059923A (en) 2022-05-10

Family

ID=81591814

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210148755A KR20220059923A (en) 2020-11-03 2021-11-02 Electronic device and method for processing data received from in vehicle electronic device

Country Status (1)

Country Link
KR (1) KR20220059923A (en)

Similar Documents

Publication Publication Date Title
US20220141426A1 (en) Electronic device and method for processing data received from in-vehicle electronic device
US11705005B2 (en) Method, apparatus and device for illegal vehicle warning
US20180357484A1 (en) Video processing device and video processing method
KR102613792B1 (en) Imaging device, image processing device, and image processing method
US20180178766A1 (en) Vehicle control device, vehicle control method, and program
JP2019069774A (en) Automatic driving control device
US10089869B1 (en) Tracking hit and run perpetrators using V2X communication
JP5585194B2 (en) Accident situation recording system
US11873007B2 (en) Information processing apparatus, information processing method, and program
JP2020087217A (en) Information providing system, server, onboard device, vehicle, program and information providing method
US11815887B2 (en) Vehicle control device, vehicle control method, vehicle, information processing device, information processing method, and program
JP2020107212A (en) Vehicle control system, vehicle control method, and program
CN114041176A (en) Security performance evaluation device, security performance evaluation method, information processing device, and information processing method
KR20220077125A (en) Information processing apparatus, information processing system, and information processing method
US10789849B2 (en) System and method for providing road condition information
KR20220059923A (en) Electronic device and method for processing data received from in vehicle electronic device
US10471968B2 (en) Methods and apparatus to facilitate safety checks for high-performance vehicle features
US20230150512A1 (en) Methods and systems for providing escalation based responses
EP3963550B1 (en) Vehicle recording system utilizing event detection
JP7327963B2 (en) Processing device, photographing device and information processing device
CN115131749A (en) Image processing apparatus, image processing method, and computer-readable storage medium
JP2019008587A (en) Automatic cooperation system
US11893889B2 (en) Travel assistance system, travel assistance method, and non-transitory computer-readable storage medium that stores program
EP3863282B1 (en) Image processing device, and image processing method and program
EP3998769A1 (en) Abnormality detection device, abnormality detection method, program, and information processing system