KR102443843B1 - Vehicle and method for controlling the vehicle - Google Patents

Vehicle and method for controlling the vehicle Download PDF

Info

Publication number
KR102443843B1
KR102443843B1 KR1020170171794A KR20170171794A KR102443843B1 KR 102443843 B1 KR102443843 B1 KR 102443843B1 KR 1020170171794 A KR1020170171794 A KR 1020170171794A KR 20170171794 A KR20170171794 A KR 20170171794A KR 102443843 B1 KR102443843 B1 KR 102443843B1
Authority
KR
South Korea
Prior art keywords
image
vehicle
information
acquisition unit
acquired
Prior art date
Application number
KR1020170171794A
Other languages
Korean (ko)
Other versions
KR20190071067A (en
Inventor
김선아
이정엄
신동수
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020170171794A priority Critical patent/KR102443843B1/en
Publication of KR20190071067A publication Critical patent/KR20190071067A/en
Application granted granted Critical
Publication of KR102443843B1 publication Critical patent/KR102443843B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • H04N5/23219
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way

Abstract

본 발명의 차량은 주행 속도를 검출하는 속도 검출부; 외부의 영상을 획득하는 제1영상 획득부; 내부의 영상을 획득하는 제2영상 획득부; 제2영상 획득부에서 획득된 영상에 기초하여 운전자 및 동승자의 행동을 인식하고, 인식된 행동의 행동 정보와 검출된 주행 속도의 변화 정보 중 적어도 하나에 기초하여 획득된 외부의 영상을 캡쳐하고, 주행이 종료되면 캡쳐된 외부의 영상을 연결하여 드라이브 비디오를 생성하는 제어부; 및 생성된 드라이브 비디오를 저장하는 저장부를 포함한다. The vehicle of the present invention includes a speed detection unit for detecting a traveling speed; a first image acquisition unit for acquiring an external image; a second image acquisition unit for acquiring an image of the interior; Recognizing the behavior of the driver and the passenger based on the image acquired by the second image acquisition unit, capturing an external image acquired based on at least one of behavior information of the recognized behavior and information on the detected driving speed change, a control unit that generates a drive video by connecting the captured external image when driving is finished; and a storage unit for storing the generated drive video.

Description

차량 및 그 제어 방법 {Vehicle and method for controlling the vehicle} Vehicle and method for controlling the vehicle}

본 발명은 외부의 영상을 획득하고 획득된 영상을 저장하기 위한 차량 및 그 제어 방법에 관한 것이다.The present invention relates to a vehicle for acquiring an external image and storing the acquired image, and a control method therefor.

차량은 사람 또는 화물을 운송할 목적으로 차륜을 구동시켜 주행하는 기계로, 도로 위를 이동한다.A vehicle is a machine driven by wheels for the purpose of transporting people or cargo, and it moves on the road.

이러한 차량은 기본적인 주행 기능 외에도 라디오 기능, 오디오 기능, 비디오 기능, 길 안내 기능(내비게이션 기능), 공조 기능, 시트 열선 기능, 외부 촬영 기능(블랙박스 기능) 외부의 사용자용 단말기와의 통신 기능 등 사용자 편의를 위한 부가적인 기능을 더 수행한다.In addition to basic driving functions, these vehicles include radio functions, audio functions, video functions, road guidance functions (navigation functions), air conditioning functions, seat heating functions, external shooting functions (black box functions), communication functions with external user terminals, etc. Additional functions for convenience are further performed.

여기서 라디오 기능은 방송국에서 송신되는 교통 정보, 뉴스 등의 각종 정보나 음악 등을 출력하는 기능이다.Here, the radio function is a function of outputting various information such as traffic information and news transmitted from a broadcasting station, or music.

오디오 기능은 차량에 마련된 카세트 테이프 레코더, CD플레이어 또는 저장매체나 사용자용 단말기와 통신을 수행하는 통신 모듈을 이용하여 카세트 테이프나 CD플레이어에 의해 저장된 오디오 파일을 로딩하여 재생하거나, 저장매체나 사용자용 단말기에 저장된 음악 파일을 로딩하여 재생하는 기능이다.The audio function uses a cassette tape recorder, CD player or a communication module that communicates with a storage medium or user terminal provided in the vehicle to load and play an audio file stored by a cassette tape or CD player, or It is a function to load and play music files stored in the terminal.

또한 차량은 외부와의 통신을 통해 컨텐츠 재생 기능, 인터넷 검색 기능, 통화 기능, 및 위치 검색 기능 등을 수행한다.In addition, the vehicle performs a content reproduction function, an Internet search function, a call function, and a location search function through communication with the outside.

일 측면은 사용자의 행동 정보와 차량의 주행 정보 중 적어도 하나에 기초하여 획득 중인 외부의 영상을 캡쳐하고, 캡쳐된 영상들을 연결하여 드라이브 비디오를 생성 및 출력하는 차량 및 그 제어 방법을 제공한다.One aspect provides a vehicle and a control method thereof for capturing an external image being acquired based on at least one of user behavior information and vehicle driving information, and generating and outputting a drive video by connecting the captured images.

다른 측면은 외부의 영상 캡쳐 시의 사용자의 행동 정보, 위치 정보 및 관심 지역 정보를 태그 정보로 저장하고, 태그 정보를 가진 드라이브 비디오를 생성 및 출력하는 차량 및 그 제어 방법을 제공한다.Another aspect provides a vehicle for storing user behavior information, location information, and area of interest information when capturing an external image as tag information, and generating and outputting a drive video having the tag information, and a control method thereof.

일 측면에 따른 차량은 주행 속도를 검출하는 속도 검출부; 외부의 영상을 획득하는 제1영상 획득부; 검출된 주행 속도의 변화 정보에 기초하여 획득된 외부의 영상을 캡쳐하고, 주행이 종료되면 캡쳐된 외부의 영상을 연결하여 드라이브 비디오를 생성하는 제어부; 및 생성된 드라이브 비디오를 저장하는 저장부를 포함한다.A vehicle according to an aspect includes a speed detector configured to detect a traveling speed; a first image acquisition unit for acquiring an external image; a control unit that captures an external image obtained based on the detected driving speed change information, and generates a drive video by connecting the captured external image when driving is finished; and a storage unit for storing the generated drive video.

일 측면에 따른 차량은 현재 위치에 대응하는 위치 정보를 수신하는 위치 수신부; 목적지 정보를 입력받는 입력부를 더 포함하고, 제어부는, 위치 정보와 목적지 정보에 기초하여 현재 위치가 목적지인지 판단하고 출발지부터 목적지까지 드라이브 비디오를 생성하는 것을 포함한다.According to one aspect, a vehicle includes: a location receiver configured to receive location information corresponding to a current location; The method further includes an input unit for receiving destination information, wherein the controller determines whether the current location is a destination based on the location information and the destination information, and generates a drive video from the source to the destination.

일 측면에 따른 차량의 제어부는, 외부의 영상 캡쳐 시, 캡쳐 시점의 차량의 위치 정보를 확인하고 확인된 위치 정보를 캡쳐된 영상과 결합하여 저장하는 것을 더 포함한다.The control unit of the vehicle according to one aspect further includes, when capturing an external image, confirming the location information of the vehicle at the time of capture, and combining the identified location information with the captured image and storing it.

일 측면에 따른 차량은 현재 위치에 대응하는 위치 정보를 수신하는 위치 수신부를 더 포함하고, 제어부는 주행 속도의 변화가 속도 감소이면 제1영상 획득부에서 획득된 영상을 캡쳐하고 획득된 영상의 캡쳐 시점의 차량의 위치 정보를 확인하고 확인된 위치 정보를 캡쳐된 영상과 결합하여 저장하는 것을 더 포함한다.The vehicle according to one aspect further includes a location receiver configured to receive location information corresponding to a current location, wherein the controller captures the image acquired by the first image acquisition unit when the change in driving speed is a decrease in speed, and captures the acquired image The method further includes confirming the location information of the vehicle at the point of view and combining the identified location information with the captured image and storing.

일 측면에 따른 차량은 제어부는, 변속 레버의 위치 정보를 확인하고, 변속 레버의 위치가 파킹 단이면 제1영상 획득부에서 획득된 영상을 캡쳐하고 획득된 영상의 캡쳐 시점의 차량의 위치 정보를 확인하고 확인된 위치 정보를 캡쳐된 영상과 결합하여 저장하는 것을 더 포함한다.In the vehicle according to one aspect, the control unit checks the position information of the shift lever, and if the position of the shift lever is at the parking stage, captures the image acquired from the first image acquisition unit, and captures the position information of the vehicle at the time of capturing the acquired image. It further includes confirming and storing the confirmed location information in combination with the captured image.

일 측면에 따른 차량의 제어부는 제1영상 획득부에서 획득된 외부의 영상을 영상처리하고, 영상 처리된 영상에서 타 차량을 인식하고 인식된 타 차량과의 거리가 기준 거리 이상이고, 주행 속도의 변화가 속도 감소이면 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함한다.The control unit of the vehicle according to one aspect image-processes the external image acquired by the first image acquisition unit, recognizes another vehicle in the image-processed image, and the recognized distance to the other vehicle is greater than or equal to the reference distance, and If the change is a decrease in speed, the method further includes capturing the image acquired by the first image acquisition unit.

일 측면에 따른 차량은 타 차량과의 거리를 검출하는 거리 검출부를 더 포함하고, 제어부는 검출된 타 차량과의 거리가 기준 거리 이상이고, 주행 속도의 변화가 속도 감소이면 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함한다.The vehicle according to one aspect further includes a distance detection unit for detecting a distance to another vehicle, and the control unit is configured to use the first image acquisition unit when the detected distance to the other vehicle is equal to or greater than a reference distance and the change in driving speed is a decrease in speed. The method further includes capturing the acquired image.

일 측면에 따른 차량은 내부의 영상을 획득하는 제2영상 획득부;를 더 포함하고, 제어부는, 제2영상 획득부에서 획득된 영상에 기초하여 운전자 및 동승자의 행동을 인식하고, 인식된 행동의 행동 정보에 기초하여 획득된 외부의 영상을 캡쳐하고, 캡쳐된 외부의 영상을 연결하여 드라이브 비디오를 생성하는 것을 더 포함한다.The vehicle according to one aspect further includes a second image acquisition unit configured to acquire an image of the interior, wherein the control unit recognizes the behavior of the driver and the passenger based on the image acquired by the second image acquisition unit, and recognizes the behavior The method further includes capturing an external image obtained based on the behavior information of the , and generating a drive video by connecting the captured external image.

일 측면에 따른 차량은 현재 위치에 대응하는 위치 정보를 수신하는 위치 수신부를 더 포함하고, 제어부는 획득된 내부의 영상을 영상처리하고, 영상 처리된 영상에서 운전자의 시선을 인식하고, 운전자의 시선이 외부 주시 영역에 기준 시간 위치하면 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함한다.The vehicle according to one aspect further includes a location receiver configured to receive location information corresponding to a current location, and the controller image-processes the acquired internal image, recognizes the driver's gaze from the image-processed image, and the driver's gaze The method further includes capturing the image acquired by the first image acquisition unit when the reference time is located in the external gaze region.

일 측면에 따른 차량의 제어부는, 운전자 및 동승자 중 적어도 하나의 탑승자가 내부와 외부를 교대로 주시하는 반복 횟수를 확인하고 확인된 반복 횟수가 기준 횟수 이상이면 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함한다.The control unit of the vehicle according to one aspect checks the number of repetitions in which at least one occupant of the driver and the passenger alternately gazes at the inside and the outside, and if the number of repetitions is greater than or equal to the reference number, the image acquired by the first image acquisition unit It further includes capturing.

일 측면에 따른 차량의 제어부는, 영상 처리된 영상에서 동승자의 시선을 인식하고, 동승자의 시선이 기준 시간 이상 고정 위치이면 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함한다.The control unit of the vehicle according to one aspect further includes: recognizing the gaze of the passenger in the image-processed image, and capturing the image obtained by the first image acquisition unit when the gaze of the passenger is at a fixed position for more than a reference time.

일 측면에 따른 차량의 제어부는, 동승자의 모션을 확인하고 확인된 동승자의 모션이 단말기를 이용한 외부 촬영 모션이면 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함한다.The control unit of the vehicle according to one aspect further includes: checking the motion of the passenger and capturing the image obtained by the first image acquisition unit when the confirmed motion of the passenger is an external shooting motion using the terminal.

일 측면에 따른 차량의 제어부는, 획득된 외부의 영상을 영상 처리하고 영상 처리된 영상에서 표지판을 인식하고, 인식된 표지판의 영상을 저장하는 것을 더 포함한다.The control unit of the vehicle according to one aspect further includes image processing the acquired external image, recognizing a sign from the image-processed image, and storing the image of the recognized sign.

일 측면에 따른 차량은 현재 위치에 대응하는 위치 정보를 수신하는 위치 수신부; 목적지 정보를 입력받는 입력부를 더 포함하고, 제어부는 위치 정보와 목적지 정보에 기초하여 출발지부터 목적지까지 내비게이션 정보를 생성하고 생성된 내비게이션 정보와 현재 위치의 위치 정보에 기초하여 현재 위치가 관심 지역이라고 판단되면 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함한다.According to one aspect, a vehicle includes: a location receiver configured to receive location information corresponding to a current location; Further comprising an input unit for receiving destination information, the control unit generates navigation information from the origin to the destination based on the location information and the destination information, and determines that the current location is an area of interest based on the generated navigation information and the location information of the current location The method further includes capturing the image acquired by the first image acquisition unit.

일 측면에 따른 차량의 제어부는 시동이 오프되면 현재 위치가 목적지인지 판단하고, 현재 위치가 목적지가 아니라고 판단되면 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함한다.The control unit of the vehicle according to one aspect further includes: when the engine is turned off, determining whether the current location is the destination;

다른 측면에 따른 차량의 제어 방법은, 차량의 주행 속도를 검출하고,검출된 주행 속도를 실시간으로 확인하고, 주행 속도가 감소되면 제1영상 획득부를 통해 획득된 외부의 영상을 캡쳐하고, 외부의 영상 캡쳐 시 차량의 위치를 확인하고, 캡쳐된 영상과 차량의 위치를 결합하여 드라이브 영상을 생성하고, 주행이 종료되면 생성된 드라이브 영상을 연결하여 드라이브 비디오를 생성하고, 생성된 드라이브 비디오를 출력한다.A vehicle control method according to another aspect includes detecting a driving speed of a vehicle, checking the detected driving speed in real time, and capturing an external image acquired through a first image acquisition unit when the driving speed is reduced, and When capturing an image, the location of the vehicle is checked, the captured image is combined with the location of the vehicle to create a drive image, and when driving is finished, the generated drive image is connected to generate a drive video, and the generated drive video is output. .

드라이브 영상을 생성하는 것은, 제2영상 획득부에서 획득된 내부의 영상에 기초하여 운전자 및 동승자의 행동 정보를 인식하고, 인식된 행동 정보에 기초하여 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하고, 외부의 영상 캡쳐 시 차량의 위치를 확인하고, 캡쳐된 영상과 차량의 위치를 결합하여 드라이브 영상을 생성하는 것을 포함한다.Generating the drive image may include recognizing the behavior information of the driver and passenger based on the internal image acquired by the second image acquiring unit, and using the external image acquired by the first image acquiring unit based on the recognized behavior information. capturing, confirming the location of the vehicle when capturing an external image, and generating a drive image by combining the captured image and the location of the vehicle.

주행이 종료되었는지 판단하는 것은, 위치 수신부에 수신된 위치 정보를 확인하고, 확인된 위치 정보와 목적지 정보에 기초하여 현재 위치가 목적지인지 판단하고, 현재 위치가 목적지이면 주행이 종료되었다고 판단하는 것을 포함한다.Determining whether the driving is finished includes checking the location information received from the location receiving unit, determining whether the current location is a destination based on the confirmed location information and the destination information, and determining whether the current location is the destination, determining that the driving is finished do.

차량의 제어 방법은 목적지 정보가 수신되면 위치 수신부에 수신된 위치 정보를 확인하고, 확인된 위치 정보와 목적지 정보에 기초하여 출발지부터 목적지까지 내비게이션 정보를 생성하고, 내비게이션 정보에 기초하여 캡쳐 시점인지를 판단하고, 현재가 캡쳐 시점이라고 판단되면 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하는 것을 포함한다.When the destination information is received, the vehicle control method checks the received location information in the location receiving unit, generates navigation information from the source to the destination based on the confirmed location information and the destination information, and determines whether it is a capture point based on the navigation information. and when it is determined that the present is the capture time, capturing an external image acquired by the first image acquisition unit.

제1영상 획득부에서 획득된 외부의 영상을 캡쳐하는 것은, 타 차량과의 거리를 확인하고, 확인된 거리가 기준 거리 이상이고, 주행 속도의 변화가 속도 감소이면 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하는 것을 포함한다.Capturing the external image acquired by the first image acquisition unit is to check the distance to another vehicle, and if the confirmed distance is equal to or greater than the reference distance, and the change in driving speed is a decrease in speed, the This includes capturing an external image.

차량의 제어 방법은 속도 감소에 대응하는 태그를 생성하고, 생성된 태그를 캡쳐된 외부의 영상과 결합하여 저장하는 것을 더 포함한다.The control method of the vehicle further includes generating a tag corresponding to the speed reduction, combining the generated tag with a captured external image and storing the generated tag.

차량의 제어 방법은, 제2영상획득부에서 획득된 차량의 내부 영상을 영상 처리하고, 영상 처리된 영상에서 사용자의 시선을 인식하고, 인식된 시선에 기초하여 캡쳐 시점인지를 판단하고, 캡쳐 시점이라고 판단되면 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하고, 시선 인식에 대응하는 태그를 생성하고, 생성된 태그와 캡쳐된 영상을 결합하여 저장하는 것을 더 포함한다.The control method of the vehicle image-processes the internal image of the vehicle acquired by the second image acquisition unit, recognizes the user's gaze from the image-processed image, determines whether it is a capture point based on the recognized gaze, and captures the time of capture. When it is determined that , the method further includes capturing an external image acquired by the first image acquisition unit, generating a tag corresponding to gaze recognition, and combining the generated tag with the captured image and storing the captured image.

차량의 제어 방법은 제2영상획득부에서 획득된 차량의 내부 영상을 영상 처리하고, 영상 처리된 영상에서 사용자의 모션을 인식하고, 인식된 사용자의 모션이 단말기를 이용한 외부 촬영 모션이면 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하고,션 인식에 대응하는 태그를 생성하고, 생성된 태그와 캡쳐된 영상을 결합하여 저장하는 것을 더 포함한다.The vehicle control method image-processes the internal image of the vehicle acquired by the second image acquisition unit, recognizes the user's motion in the image-processed image, and if the recognized user's motion is an external shooting motion using the terminal, the first image The method further includes capturing the external image acquired by the acquisition unit, generating a tag corresponding to the recognition of the caption, and combining the generated tag with the captured image and storing the captured image.

차량의 제어 방법은 변속 레버의 위치 정보를 확인하고, 변속 레버의 위치가 파킹 단이면 제1영상 획득부에서 획득된 영상을 캡쳐하고, 획득된 영상의 캡쳐 시점의 차량의 위치 정보를 확인하고, 확인된 위치 정보를 캡쳐된 영상과 결합하여 저장하는 것을 더 포함한다.The control method of the vehicle checks the position information of the shift lever, captures the image obtained from the first image acquisition unit when the position of the shift lever is the parking stage, checks the position information of the vehicle at the time of capturing the acquired image, The method further includes storing the identified location information in combination with the captured image.

또 다른 측면에 따른 차량은 주행 속도를 검출하는 속도 검출부; 내비게이션 모드 및 목적지를 입력받는 입력부; 현재의 위치 정보를 수신하는 위치 수신부; 외부의 영상을 획득하는 영상 획득부; 수신된 위치 정보와 목적지 정보에 기초하여 내비게이션 정보를 생성하고 생기 생성된 내비게이션 정보와 검출된 주행 속도의 변화 정보 중 적어도 하나에 기초하여 획득된 외부의 영상을 캡쳐하고, 현재 위치가 목적지이면 캡쳐된 외부의 영상을 연결하여 드라이브 비디오를 생성하는 제어부; 및 생성된 드라이브 비디오를 저장하는 저장부를 포함한다.A vehicle according to another aspect includes a speed detector configured to detect a traveling speed; an input unit for receiving a navigation mode and a destination; a location receiving unit for receiving current location information; an image acquisition unit for acquiring an external image; The navigation information is generated based on the received location information and the destination information, and an external image obtained based on at least one of the generated navigation information and the detected driving speed change information is captured, and if the current location is the destination, the captured a control unit for generating a drive video by connecting an external image; and a storage unit for storing the generated drive video.

본 발명은 사용자의 행동 정보와 차량의 주행 정보 중 적어도 하나에 기초하여 자동으로 드라이브 비디오를 생성함으로써 편리하고 용이하게 드라이브 비디오를 생성할 수 있다. The present invention can conveniently and easily create a drive video by automatically generating a drive video based on at least one of user behavior information and vehicle driving information.

또한 본 발명은 외부의 영상과 태그를 조합하여 드라이브 비디오를 생성하기 때문에 드라이브 비디오 재생 시, 각 영상의 위치 및 각 영상의 캡쳐 이유를 사용자가 용이하게 인식할 수 있다.In addition, since the present invention creates a drive video by combining an external image and a tag, the user can easily recognize the location of each image and the reason for capturing each image when playing the drive video.

또한 본 발명은 저장된 드라이브 비디오에서 어느 하나의 영상을 검색할 때 태그를 이용할 수 있기 때문에 검색하고자 하는 영상을 신속하고, 편리하고 정확하게 검색할 수 있다.In addition, since the present invention can use a tag when searching for any one image from the stored drive video, it is possible to quickly, conveniently and accurately search for an image to be searched.

본 발명은 의식 및 무의식적으로 운전자가 바라 본 장면에 대한 영상을 이용하여 드라이브(여행) 비디오를 만들기 때문에 운전자가 교감하는 드라이브 비디오를 만들 수 있고, 운전자의 추억이 깃든 드라이브 비디오를 만들 수 있으며, 추후 운전자가 드라이브 히스토리를 용이하게 알도록 할 수 있다. Since the present invention creates a drive (travel) video using the image of the scene seen by the driver consciously and unconsciously, it is possible to create a drive video that the driver can interact with, and it is possible to create a drive video with the driver's memories, and later It can make it easy for the driver to know the drive history.

본 발명은 차량을 이용하여 여행하는 경우, 여행 이후에 여행 비디오를 자동으로 만들 수 있어 사용자의 편의성을 향상시킬 수 있고, 남기고 싶거나 알리고 싶은 장소들의 영상을 캡쳐하여 위치 정보와 함께 저장함으로써 영상 검색이 용이하고, 영상 편집에 소요되는 시간을 줄일 수 있다.According to the present invention, when traveling using a vehicle, it is possible to automatically create a travel video after the trip, thereby improving user convenience, and capturing images of places that you want to leave or inform and store them together with location information to search for images. This is easy, and the time required for video editing can be reduced.

본 발명은 영상을 캡쳐하고자 할 때 의도적으로 주행 속도를 줄임으로써 영상의 캡쳐 시점을 조정할 수 있고 이로 인해 개인화된 서비스를 제공할 수 도 있다. 이는 소셜미디어의 발달에 따라 운전자에게 큰 편의를 제공할 수 있으며, 차량의 상품성을 향상시킬 수 있고, 나아가 사용자의 만족도를 높일 수 있으며 사용자의 편리성, 신뢰성을 향상시킬 수 있고 제품의 경쟁력을 확보할 수 있다.The present invention can adjust the capture time of the image by intentionally reducing the driving speed when capturing the image, thereby providing a personalized service. This can provide great convenience to the driver according to the development of social media, improve the marketability of the vehicle, and further increase user satisfaction, improve user convenience and reliability, and secure product competitiveness. can do.

도 1은 실시 예에 따른 차량의 외장 예시도이다.
도 2는 도 1에 도시된 차량의 내장 예시도이다.
도 3은 실시 예에 따른 차량의 제어 구성도이다.
도 4는 실시 예에 따른 차량에 마련된 제어부의 상세 구성도이다.
도 5는 실시 예에 따른 차량의 제어 순서도이다.
도 6 및 도 7은 실시 예에 따른 차량의 영상 캡쳐 예시도이다.
도 8 내지 도 10은 실시 예에 따른 차량의 드라이브 비디오의 생성 예시도이다.
1 is an exemplary view of the exterior of a vehicle according to an embodiment.
FIG. 2 is an exemplary view showing the interior of the vehicle shown in FIG. 1 .
3 is a control configuration diagram of a vehicle according to an embodiment.
4 is a detailed configuration diagram of a control unit provided in a vehicle according to an embodiment.
5 is a control flowchart of a vehicle according to an exemplary embodiment.
6 and 7 are diagrams illustrating image capture of a vehicle according to an embodiment.
8 to 10 are diagrams illustrating generation of a drive video of a vehicle according to an embodiment.

이하, 첨부된 도면을 참조하여 본 발명에 대해 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

차량(100)은 외장(110)과 내장(120)을 갖는 차체(Body)와, 차체를 제외한 나머지 부분으로 주행에 필요한 기계 장치가 설치되는 차대(Chassis)를 포함한다.The vehicle 100 includes a body having an exterior 110 and an interior 120 , and a chassis in which mechanical devices necessary for driving are installed as the remaining parts except for the vehicle body.

도 1 에 도시된 바와 같이 차체의 외장(110)은 프론트 패널(111), 본네트(112), 루프 패널(113), 리어 패널(114), 전후좌우의 도어(115), 전후좌우의 도어(115)에 개폐 가능하게 마련되고, 차량의 정면과 후면에 고정 설치된 창문(116)을 포함한다. 1, the exterior 110 of the vehicle body includes a front panel 111, a bonnet 112, a roof panel 113, a rear panel 114, front and rear left and right doors 115, and front and rear left and right doors ( 115) is provided so as to be able to open and close, and includes a window 116 fixedly installed on the front and rear of the vehicle.

창문(116)는 운전석의 도어에 마련된 운전석 측 창문(116a)과, 동승석의 도어에 마련된 동승석 측 창문(116b)과, 대시보드와 본네트에 마련된 정면 창문(116c)을 포함할 수 있다.The window 116 may include a driver's side window 116a provided on the driver's door, a passenger's side window 116b provided on the passenger's door, and a front window 116c provided on the dashboard and the bonnet.

차체의 외장은 전방시야를 주시하면서 주변의 정보를 쉽게 볼 수 있도록 하고 다른 차량과 보행자에 대한 신호, 커뮤니케이션의 기능을 수행하는 램프(117)와, 전후좌우 도어의 윈도우 글래스 사이의 경계에 마련된 필러와, 운전자에게 차랑(100) 후방의 시야를 제공하는 사이드 미러(118)를 포함한다.The exterior of the car body makes it easy to see information about the surroundings while keeping an eye on the front sight, and a pillar provided at the boundary between the lamp 117, which functions as a signal and communication for other vehicles and pedestrians, and the window glass of the front, rear, left, and right doors and a side mirror 118 that provides a view behind the vehicle 100 to the driver.

사이드 미러(118)는 운전석 측에 마련된 좌측 사이드 미러(118a)와, 동승석 측에 마련된 우측 사이드 미러(118b)를 포함한다.The side mirror 118 includes a left side mirror 118a provided on the driver's seat side and a right side mirror 118b provided on the passenger's seat side.

차체의 외장은 GPS 위성, 방송국 등의 신호를 수신하고, 다른 차량과의 통신(V2V) 및 인프라와의 통신(V2I) 등의 무선 차량 네트워크(V2X: Vehicle to everything)를 수행하기 위한 안테나(119)를 더 포함한다.The exterior of the body receives signals from GPS satellites and broadcasting stations, and an antenna 119 for performing a wireless vehicle network (V2X: Vehicle to everything) such as communication with other vehicles (V2V) and communication with infrastructure (V2I). ) is further included.

도 2에 도시된 바와 같이, 차체의 내장(120)은 탑승자가 앉는 시트(121)와, 대시 보드(122)와, 대시 보드 상에 배치되고 타코미터, 속도계, 냉각수 온도계, 연료계, 방향전환 지시등, 상향등 표시등, 경고등, 안전벨트 경고등, 주행 거리계, 주행 기록계, 변속 레버 표시등, 도어 열림 경고등, 엔진 오일 경고등, 연료부족 경고등이 배치된 계기판(즉 클러스터, 123)과, 공기조화기의 송풍구와 조절판이 배치된 센터 페시아(124)와, 센터 페시아(124)에 마련되고 오디오 기기와 공기 조화기의 동작 명령을 입력받는 헤드유닛(125)과, 센터 페시아(124)에 마련되고 시동 명령을 입력받는 시동버튼과, 센터 페시아(124)에 마련되고 저장 장치(300) 및 단말기가 연결되는 멀티 인터페이스를 포함한다.As shown in FIG. 2 , the interior 120 of the vehicle body includes a seat 121 on which an occupant sits, a dashboard 122, and a dashboard disposed on the dashboard and includes a tachometer, a speedometer, a coolant thermometer, a fuel gauge, and a direction change indicator. , high beam indicator, warning lamp, seat belt warning lamp, odometer, odometer, shift lever indicator, door open warning lamp, engine oil warning lamp, low fuel warning lamp, the instrument panel (ie cluster, 123), and the vent of the air conditioner and the center fascia 124 on which the control plate is disposed, the head unit 125 provided on the center fascia 124 and receiving operation commands of the audio device and the air conditioner, and the center fascia 124 provided with a start command It includes an input start button and a multi-interface provided on the center fascia 124 and connected to the storage device 300 and the terminal.

시트(121)는 운전자가 앉는 운전석 시트(121a)와, 동승자가 앉는 동승자 시트(121b)를 포함할 수 있다.The seat 121 may include a driver's seat 121a on which the driver sits and a passenger seat 121b on which the passenger sits.

차량은 센터페시아(124)에 마련되고 조작 위치를 입력받는 변속 레버(126)와, 변속 레버의 주변 또는 헤드 유닛(125)에 위치하고 전자식 주차 브레이크 장치(미도시)의 동작 명령을 입력받는 주차 버튼(EPB 버튼)을 더 포함한다.The vehicle includes a shift lever 126 provided on the center fascia 124 and receiving an input of an operation position, and a parking button located in the vicinity of the shift lever or in the head unit 125 and receiving an operation command of an electronic parking brake device (not shown). (EPB button) is further included.

차랑(100)은 각종 기능의 동작 명령을 입력받기 위한 입력부(127)를 더 포함할 수 있다.The charang 100 may further include an input unit 127 for receiving operation commands for various functions.

입력부(127)는 헤드 유닛(125) 및 센터페시아(124)에 마련될 수 있고, 각종 기능의 동작 온 오프 버튼, 각종 기능의 설정값을 변경하기 위한 버튼 등과 같은 적어도 하나의 물리적인 버튼을 포함할 수 있다. The input unit 127 may be provided on the head unit 125 and the center fascia 124, and includes at least one physical button such as an operation on/off button for various functions, a button for changing setting values of various functions, and the like. can do.

입력부(127)는 사용자 인터페이스(129)의 표시부에 표시된 커서의 이동 명령 및 선택 명령 등을 입력하기 위한 조그 다이얼(미도시) 또는 터치 패드(미도시)를 더 포함하는 것도 가능하다. The input unit 127 may further include a jog dial (not shown) or a touch pad (not shown) for inputting a cursor movement command and a selection command displayed on the display unit of the user interface 129 .

여기서 조그 다이얼 또는 터치 패드는 센터페시아 등에 마련될 수 있다.Here, the jog dial or the touch pad may be provided on a center fascia or the like.

차랑(100)은 헤드 유닛(125)에 마련되고, 차량에서 수행 중인 기능에 대한 정보 및 사용자에 의해 입력된 정보를 표시하는 표시부(128)를 더 포함할 수 있다.The vehicle 100 may further include a display unit 128 that is provided in the head unit 125 and displays information about a function being performed in the vehicle and information input by a user.

차량은 사용자의 사용 편의를 위한 사용자 인터페이스(129)를 더 포함한다.The vehicle further includes a user interface 129 for user convenience.

사용자 인터페이스(129)는 오디오 기능, 비디오 기능, 내비게이션 기능, 방송 기능(DMB 기능), 라디오 기능, 컨텐츠 재생 기능, 인터넷 검색 기능 중 사용자에 의해 선택된 적어도 하나의 기능에 대한 영상을 표시한다. The user interface 129 displays an image of at least one function selected by the user among an audio function, a video function, a navigation function, a broadcasting function (DMB function), a radio function, a content reproduction function, and an Internet search function.

사용자 인터페이스(129)는 대시 보드 상에 매립식 또는 거치식으로 설치될 수 있다. The user interface 129 may be installed on the dashboard in a buried or mounted manner.

사용자 인터페이스(129)는 표시부로 디스플레이 패널을 포함할 수 있고, 입력부로 터치 패널을 더 포함할 수 있다.The user interface 129 may include a display panel as a display unit and may further include a touch panel as an input unit.

즉 사용자 인터페이스(129)는 디스플레이 패널만을 포함할 수 있고, 디스플레이 패널에 터치 패널이 일체화된 터치 스크린을 포함할 수도 있다.That is, the user interface 129 may include only the display panel or a touch screen in which the touch panel is integrated with the display panel.

사용자 인터페이스(129)는 디스플레이 패널만으로 구현된 경우, 센터페시아에 마련된 입력부(127)를 이용하여 디스플레이 패널에 표시된 버튼을 선택받을 수 있다.When the user interface 129 is implemented with only the display panel, a button displayed on the display panel may be selected using the input unit 127 provided on the center fascia.

사용자 인터페이스(129)는 터치 스크린으로 구현된 경우, 터치 패널을 통해 사용자의 동작 명령을 직접 입력받을 수 있다.When the user interface 129 is implemented as a touch screen, a user's operation command may be directly input through the touch panel.

이와 같이 사용자 인터페이스(129)는 표시부를 포함할 수 있고, 입력부를 더 포함할 수 있다.As such, the user interface 129 may include a display unit and may further include an input unit.

차량의 차대는 차체(110, 120)를 지지하는 틀로, 전후좌우에 각 배치된 차륜(131)과, 전후좌우의 차륜(131)에 구동력을 인가하기 위한 동력 장치, 조향 장치, 전후좌우의 차륜(131)에 제동력을 인가하기 위한 제동 장치 및 차량의 서스펜션을 조절하기 위한 현가 장치가 마련될 수 있다.The chassis of the vehicle is a frame that supports the vehicle body 110 and 120, and includes the wheels 131 disposed on the front, rear, left and right sides, and a power unit for applying driving force to the front, rear, left, and right wheels 131, a steering device, and front and rear left and right wheels A braking device for applying a braking force to 131 and a suspension device for adjusting the suspension of the vehicle may be provided.

차량(100)은 주행 방향을 조절하기 위한 조향 장치의 스티어링 휠(132)과, 사용자의 제동 의지에 따라 사용자에 의해 가압되는 브레이크 페달(133)과, 사용자의 가속 의지에 따라 사용자에 의해 가압되는 엑셀러레이터 페달(134)을 포함할 수 있다(도 2 참조).The vehicle 100 includes a steering wheel 132 of a steering device for adjusting a driving direction, a brake pedal 133 pressed by the user according to the user's will to brake, and a brake pedal 133 pressed by the user according to the user's will to accelerate. It may include an accelerator pedal 134 (see FIG. 2 ).

차량은 외부의 영상으로, 도로의 주변 영상을 획득하기 위한 제1영상 획득부(141)를 더 포함할 수 있다. 여기서 제1영상 획득부(141)는 블랙박스에 마련된 영상 획득부일 수 있고, 자율 주행을 위한 자율 주행 제어 장치의 영상 획득부일 수도 있으며, 장애물 검출을 위한 영상 획득부일 수도 있다.The vehicle may further include a first image acquisition unit 141 for acquiring an image of a surrounding road as an external image. Here, the first image acquisition unit 141 may be an image acquisition unit provided in a black box, an image acquisition unit of an autonomous driving control device for autonomous driving, or an image acquisition unit for obstacle detection.

이러한 제1영상 획득부(141)는 전면의 창문(116c)에 마련되되 차량 내부의 창문에 마련되어 차량의 외부를 향하도록 마련될 수도 있고, 차량 내부의 룸미러에 마련되되 차량의 외부를 향하도록 마련될 수도 있으며, 루프 패널(113)의 마련되되 외부로 노출되도록 마련될 수도 있다(도 1 참조). The first image acquisition unit 141 may be provided on the front window 116c and provided on the window inside the vehicle to face the outside of the vehicle, or provided on the rearview mirror inside the vehicle to face the outside of the vehicle. It may be provided, or it may be provided so as to be provided but exposed to the outside of the roof panel 113 (see FIG. 1 ).

제1영상 획득부(141)는 차량 전방의 영상을 획득하는 전방 카메라뿐만 아니라 차량 좌우 측방의 영상을 획득하는 좌측 카메라와 우측 카메라, 차량 후방의 영상을 획득하는 후방 카메라 중 적어도 하나를 더 포함하는 것도 가능하다. The first image acquisition unit 141 further includes at least one of a left camera and a right camera for acquiring images of the left and right sides of the vehicle as well as a front camera for acquiring an image of the front of the vehicle, and a rear camera for acquiring an image of the rear of the vehicle It is also possible

제1영상 획득부(141)는 카메라로, CCD 또는CMOS 이미지 센서를 포함할 수 있고, KINECT(RGB-D 센서), TOF(Structured Light Sensor), 스테레오 카메라(Stereo Camera) 등과 같은 3차원 공간 인식 센서를 포함할 수도 있다.The first image acquisition unit 141 is a camera, and may include a CCD or CMOS image sensor, and recognizes three-dimensional space such as KINECT (RGB-D sensor), TOF (Structured Light Sensor), and stereo camera. It may include a sensor.

차량(100)은 내부의 각종 전자 장치들 사이의 통신과, 외부 장치와의 통신과, 사용자용 단말기와의 통신 및 저장 매체와의 통신을 위한 통신부(170)를 더 포함할 수 있다(도 3참조).The vehicle 100 may further include a communication unit 170 for communication between various internal electronic devices, communication with an external device, communication with a user terminal, and communication with a storage medium (FIG. 3). Reference).

여기서 외부 장치는, 서버(300), 사용자용 단말기(200), 저장 장치(미도시) 중 적어도 하나를 포함할 수 있다.Here, the external device may include at least one of the server 300 , the user terminal 200 , and a storage device (not shown).

차량은 장애물과의 거리를 검출하기 위한 거리 검출부(144)를 더 포함할 수 있다(도3 참조).The vehicle may further include a distance detection unit 144 for detecting a distance to the obstacle (see FIG. 3 ).

거리 검출부는 차량의 외장의 전후좌우에 각각 마련될 수 있다. The distance detector may be provided on the front, rear, left, and right sides of the exterior of the vehicle, respectively.

이러한 거리 검출부(144)는 라이더 센서를 포함한다.The distance detection unit 144 includes a lidar sensor.

라이다(LiDAR: Light Detection And Ranging)센서는 레이저 레이다(Laser Radar) 원리를 이용한 비접촉식 거리 검출 센서이다.LiDAR (Light Detection And Ranging) sensor is a non-contact distance detection sensor using the principle of laser radar.

거리 검출부(144)는 초음파 센서 또는 레이더 센서를 포함할 수도 있다.The distance detector 144 may include an ultrasonic sensor or a radar sensor.

도 3은 실시 예에 따른 차량의 제어 구성도이고, 도 4는 실시 예에 따른 차량에 마련된 데이터 처리 장치의 제어 구성도이다.3 is a control diagram of a vehicle according to an embodiment, and FIG. 4 is a control diagram of a data processing apparatus provided in a vehicle according to an embodiment.

차량(100)은 입력부(127), 표시부(128), 제1영상획득부(141), 제2영상 획득부(142), 속도 검출부(143), 거리 검출부(144), 시동부(145), 변속 레버 정보 수신부(146), 위치 수신부(147), 사운드 입력부(148), 사운드 출력부(149), 제어부(150), 저장부(160) 및 통신부(170)를 포함한다.The vehicle 100 includes an input unit 127 , a display unit 128 , a first image acquisition unit 141 , a second image acquisition unit 142 , a speed detection unit 143 , a distance detection unit 144 , and a starter unit 145 . , a shift lever information receiving unit 146 , a position receiving unit 147 , a sound input unit 148 , a sound output unit 149 , a control unit 150 , a storage unit 160 , and a communication unit 170 .

입력부(127)는 비디오 생성 모드의 시작 및 종료 명령을 입력받고, 드라이브 비디오의 검색 명령을 입력받는 것도 가능하며, 드라이브 비디오의 편집 명령을 입력받는 것도 가능하다.The input unit 127 may receive commands to start and end the video generation mode, receive a drive video search command, and may receive a drive video edit command.

입력부(127)는 내비게이션 모드의 온 오프 명령을 입력받고, 목적지의 정보를 입력받는 것도 가능하다.The input unit 127 may receive an on/off command of the navigation mode and may also receive information on a destination.

이러한 입력부(127)는 헤드 유닛에 마련된 복수 개의 버튼을 포함할 수 있고, 스티어링 휠에 마련된 복수 개의 버튼을 포함할 수 있으며, 스티어링 휠 주변의 조작 레버(미도시)에 마련된 버튼을 포함할 수 있고, 센터페시아에 마련된 터치 패드 및 조그 다이얼을 포함할 수 있으며, 사용자 인터페이스(129)에 마련된 입력부를 포함할 수 있다.The input unit 127 may include a plurality of buttons provided on the head unit, may include a plurality of buttons provided on the steering wheel, and may include buttons provided on an operation lever (not shown) around the steering wheel, and , may include a touch pad and a jog dial provided on the center fascia, and may include an input unit provided on the user interface 129 .

여기서 사용자 인터페이스(129)에 마련된 입력부는 터치패널일 수 있다.Here, the input unit provided on the user interface 129 may be a touch panel.

표시부(128)는 비디오 생성 모드의 온 오프 상태를 표시할 수 있고, 내비게이션 모드의 온 오프 상태를 표시할 수 있다.The display unit 128 may display an on/off state of the video generation mode and may display an on/off state of the navigation mode.

표시부(128)는 저장부에 저장된 드라이브 비디오를 표시할 수 있고, 검색 결과에 대응하는 영상을 표시할 수 있으며 편집된 영상을 표시할 수 있다.The display unit 128 may display a drive video stored in the storage unit, display an image corresponding to a search result, and display an edited image.

표시부(128)는 저장부에 저장된 드라이브 비디오의 전송 상태(즉, 전송 중, 전송완료 등)를 표시하는 것도 가능하다.The display unit 128 may also display the transmission status (ie, in transmission, transmission completion, etc.) of the drive video stored in the storage unit.

표시부(128)는 사용자 인터페이스(129)에 마련된 표시부일 수 있다.The display unit 128 may be a display unit provided on the user interface 129 .

아울러 사용자 인터페이스의 표시부는 내비게이션 모드가 수행되면 차량의 현재 위치부터 일정 범위 내의 지도 영상을 표시하고, 목적지 정보가 입력되면 현재 위치부터 목적지까지의 경로 정보가 매치된 지도 정보를 표시하고, 길 안내 정보를 표시한다.In addition, the display unit of the user interface displays a map image within a certain range from the current location of the vehicle when the navigation mode is performed, and displays map information that matches route information from the current location to the destination when destination information is input, and route guidance information to display

사용자 인터페이스의 표시부는 맵 표시 모드가 선택되면 차량의 현재 위치부터 일정 범위 내의 지도 영상을 표시한다.The display unit of the user interface displays a map image within a predetermined range from the current location of the vehicle when the map display mode is selected.

제1영상 획득부(141)는 차량 주변의 물체에 대한 형상 정보를 전기적인 영상 신호로 변환하는 것으로, 자 차량의 현재 위치에서 자 차량 외부의 환경, 특히 차량이 주행하는 도로 및 그 주변의 자 차량의 전방, 좌우의 측방의 물체의 형상 정보에 대응하는 영상 신호를 제어부(150)로 전송한다.The first image acquisition unit 141 converts shape information about an object around the vehicle into an electrical image signal, and the environment outside the vehicle at the current location of the vehicle, particularly the road on which the vehicle travels and the people around it An image signal corresponding to shape information of an object in the front, left and right sides of the vehicle is transmitted to the controller 150 .

제1영상획득부(141)는 후방 카메라, 블랙 박스의 카메라일 수 있고, 자율 주행을 위해 마련된 자율 주행 제어 장치의 카메라일 수 있다.The first image acquisition unit 141 may be a rear camera, a camera of a black box, or a camera of an autonomous driving control device provided for autonomous driving.

즉 제1영상 획득부(141)는 차량 외부의 도로 및 도로 주변의 영상을 실시간으로 획득하는 영상 획득 기능을 수행한다.That is, the first image acquisition unit 141 performs an image acquisition function of acquiring an image of a road outside the vehicle and an image around the road in real time.

제1영상 획득부(141)는 동작 오프 상태에서 제어부(150)의 제어 명령에 기초하여 온 동작되어 외부의 영상을 획득하는 것도 가능하다. The first image acquisition unit 141 may be turned on based on a control command of the controller 150 in an operation-off state to acquire an external image.

제2영상 획득부(142)는 차량 내부의 물체의 형상 정보를 전기적인 영상 신호로 변환하는 것으로, 차량 내부의 운전자 및 동승자 등의 탑승자를 검출하고 검출된 탑승자의 형상 정보에 대응하는 영상 신호를 제어부(150)로 전송한다.The second image acquisition unit 142 converts shape information of an object inside the vehicle into an electrical image signal, detects occupants such as a driver and a passenger inside the vehicle, and obtains an image signal corresponding to the detected shape information of the occupant. It is transmitted to the control unit 150 .

제2영상획득부(142)는 차량 내부를 촬영하도록 설치된 내부 카메라일 수 있다.The second image acquisition unit 142 may be an internal camera installed to photograph the inside of the vehicle.

즉 제2영상 획득부(142)는 차량 내부의 영상을 실시간으로 획득하는 영상 획득 기능을 수행한다.That is, the second image acquisition unit 142 performs an image acquisition function of acquiring an image inside the vehicle in real time.

속도 검출부(143)는 차량의 주행 정보를 검출하기 위한 것으로서, 차량의 주행 속도를 검출한다.The speed detection unit 143 is for detecting driving information of the vehicle, and detects the driving speed of the vehicle.

속도 검출부(143)는 차량의 복수 개의 휠에 각각 마련된 복수 개의 휠 속도 센서를 포함할 수 있고, 차량의 가속도를 검출하는 가속도 센서를 포함할 수 있다.The speed detector 143 may include a plurality of wheel speed sensors respectively provided on a plurality of wheels of the vehicle, and may include an acceleration sensor that detects the acceleration of the vehicle.

거리 검출부(144)는 자 차량의 전방에 위치한 전방의 타 차량과의 거리를 검출하고, 자 차량의 후방에 위치한 후방의 타 차랑과의 거리를 검출한다.The distance detection unit 144 detects a distance to another vehicle in the front located in front of the own vehicle, and detects a distance to another vehicle in the rear located in the rear of the own vehicle.

시동부(145)는 차량의 시동 온 신호 및 차량의 시동 오프 신호를 수신하고 수신된 시동 온 신호 및 시동 오프 신호에 대응하는 시동 온오프 정보를 제어부(150)에 전송한다.The starter 145 receives the start-on signal of the vehicle and the start-off signal of the vehicle, and transmits start-on/off information corresponding to the received start-on signal and the start-off signal to the controller 150 .

변속 레버 정보 수신부(146)는 변속 레버의 조작 신호를 수신하고 수신된 조작 신호에 대응하는 변속 레버의 조작 신호에 대응하는 단의 위치 정보를 제어부(150)에 전송한다.The shift lever information receiving unit 146 receives the operation signal of the shift lever and transmits the position information of the stage corresponding to the operation signal of the shift lever corresponding to the received operation signal to the control unit 150 .

변속 레버가 조작될 수 있는 위치는, 파킹 단(P단), 중립 단(N단), 전진 주행 단(D단), 후진 주행 단(R단)을 포함한다. 즉 변속 레버 정보 수신부는, 파킹 단(P단), 중립 단(N단), 전진 주행 단(D단), 후진 주행 단(R단)의 위치 정보를 제어부(150)에 전송한다.Positions at which the shift lever may be operated include a parking stage (P stage), a neutral stage (N stage), a forward driving stage (D stage), and a reverse driving stage (R stage). That is, the shift lever information receiver transmits the position information of the parking stage (P stage), the neutral stage (N stage), the forward driving stage (D stage), and the reverse driving stage (R stage) to the control unit 150 .

위치 수신부(147)는 GPS(Global Positioning System) 수신부와, GPS 수신부에서 획득한 GPS 신호를 신호 처리하는 신호 처리부를 포함한다.The position receiving unit 147 includes a global positioning system (GPS) receiving unit and a signal processing unit processing the GPS signal obtained from the GPS receiving unit.

여기서 GPS(Global Positioning System) 수신부는 복수의 GPS 위성의 신호를 수신하는 안테나 모듈을 포함한다. 이 안테나 모듈은 차량의 외장에 마련된 안테나(119)에 마련될 수 있다.Here, the GPS (Global Positioning System) receiver includes an antenna module for receiving signals from a plurality of GPS satellites. This antenna module may be provided in the antenna 119 provided on the exterior of the vehicle.

신호 처리부는 복수의 GPS위성의 위치 신호에 대응하는 거리 및 시간 정보를 이용하여 현재의 위치를 획득하는 소프트웨어와, 획득된 차량의 위치 데이터를 출력하는 출력부를 포함한다.The signal processing unit includes software for obtaining a current position by using distance and time information corresponding to position signals of a plurality of GPS satellites, and an output unit for outputting the obtained vehicle position data.

위치 수신부(147)는 현재의 위치에 대한 위치 데이터를 제어부(150)에 전송한다. The location receiving unit 147 transmits location data for the current location to the controller 150 .

사운드 입력부(148)는 차량 내부의 사운드를 입력받는다. The sound input unit 148 receives the sound inside the vehicle.

여기서 차량 내부의 사운드는 사용자의 음성일 수 있다. Here, the sound inside the vehicle may be a user's voice.

사운드 입력부(148)는 음파를 전기 신호로 바꾸는 마이크로폰을 포함할 수 있다. 여기서 마이크로 폰은 하나 또는 두 개 이상일 수 있고, 하나의 마이크로 폰은 지향성일 수 있다.The sound input unit 148 may include a microphone that converts sound waves into electrical signals. Here, the number of microphones may be one or two or more, and one microphone may be directional.

그리고 두 개 이상의 마이크로 폰은 마이크로 폰 어레이로 구현될 수 있다.And two or more microphones may be implemented as a microphone array.

사운드 출력부(149)는 드라이브 비디오의 생성 완료 및 전송 완료에 대한 완료 정보를 사운드로 출력한다.The sound output unit 149 outputs information about completion of generation and transmission of drive video as sound.

또한 사운드 출력부(149)는 수행 중인 기능에 대응하는 오디오 데이터를 사운드로 출력한다. 여기서 수행 중인 기능은 라디오 기능, 컨텐츠 재생 및 음악 재생에 대응하는 오디오 기능, 내비게이션 기능일 수 있다.Also, the sound output unit 149 outputs audio data corresponding to the function being performed as sound. The function being performed here may be a radio function, an audio function corresponding to content reproduction and music reproduction, and a navigation function.

이러한 사운드 출력부(149)는 스피커를 포함할 수 있다.The sound output unit 149 may include a speaker.

스피커는 증폭된 저주파의 음성 신호를 오리지널의 음파로 변환시키고 공기에 소밀파를 발생시켜 음파를 복사함으로써 오디오 데이터들을 사용자가 들을 수 있는 사운드로 출력한다.The speaker converts the amplified low-frequency audio signal into an original sound wave, generates a small wave in the air, and copies the sound wave, thereby outputting audio data as sound that the user can hear.

제어부(150)는 내비게이션 모드의 온 명령이 수신되고 목적지 정보가 수신되면 현재 위치를 확인하고, 현재 위치와 목적지 정보에 기초하여 경로 정보를 생성하고, 지도 정보에 생성된 경로 정보를 매칭시키며 매칭된 지도 정보와 경로 정보의 출력을 제어하고 길 안내 정보의 출력을 제어한다.When the on command of the navigation mode is received and the destination information is received, the controller 150 checks the current location, generates route information based on the current location and destination information, matches the route information generated in the map information, and matches the matched route information. It controls the output of map information and route information, and controls the output of road guidance information.

제어부(150)는 경로 정보 생성 시 복수 개의 경로 정보를 생성 및 출력할 수 있고, 복수 개의 경로 정보 중 사용자에 의해 선택된 어느 하나의 경로 정보를 저장하고 저장된 경로 정보에 기초하여 내비게이션 기능을 수행할 수 있다.The controller 150 may generate and output a plurality of route information when generating route information, store any one route information selected by a user among a plurality of route information, and perform a navigation function based on the stored route information. have.

제어부(150)는 비디오 생성 모드의 수행 시작 명령이 수신되면 제1, 2 영상획득부(141, 142)의 동작을 활성화시키고, 제1, 2 영상획득부(141, 142)에서 획득된 영상의 영상 정보와 속도 검출부(143)에서 검출된 주행 속도의 속도 정보에 기초하여 제1영상획득부에서 획득되는 영상 중 일부 영상을 캡쳐하고 캡쳐된 영상들을 연결하여 드라이브 비디오를 생성한다.The controller 150 activates the operations of the first and second image acquisition units 141 and 142 when a command to start performing the video generation mode is received, and displays the images acquired by the first and second image acquisition units 141 and 142 . Based on the image information and the speed information of the driving speed detected by the speed detection unit 143, some images among the images acquired by the first image acquisition unit are captured, and the captured images are connected to generate a drive video.

제어부(150)는 생성된 드라이브 비디오를 저장하고 저장된 드라이브 비디오를 단말기(200) 및 서버(300) 중 적어도 하나에 전송한다.The controller 150 stores the generated drive video and transmits the stored drive video to at least one of the terminal 200 and the server 300 .

이러한 제어부(150)는 제1영상 획득부(141)에서 획득되는 영상의 캡쳐 시점(즉 캡쳐 타이밍)을 획득하기 위해 주행 정보와 사용자의 행동 정보를 분석하는 분석부(151)와, 분석부의 분석 결과에 기초하여 제1영상 획득부(141)에서 획득되는 영상의 일부 영상을 캡쳐하는 캡쳐부(152)와, 캡쳐된 영상의 영상 정보에 태그 정보를 결합시켜 드라이브 비디오를 생성하는 생성부(154)를 포함할 수 있다. The control unit 150 includes an analysis unit 151 that analyzes driving information and user behavior information to obtain a capture time (ie, capture timing) of the image acquired by the first image acquisition unit 141, and the analysis unit Based on the result, the capture unit 152 captures a partial image of the image acquired by the first image acquisition unit 141, and the generation unit 154 combines tag information with the image information of the captured image to generate a drive video. ) may be included.

분석부(151)는 캡쳐 시점을 획득하기 위해 차량의 주행 정보를 분석하는 주행 정보 분석부(151a), 캡쳐 시점을 획득하기 위해 사용자의 행동을 분석하는 행동 정보 분석부(151b)를 포함한다.The analysis unit 151 includes a driving information analysis unit 151a that analyzes driving information of the vehicle to obtain a capture time, and a behavior information analysis unit 151b that analyzes a user's behavior to obtain a capture time.

주행 정보 분석부(151a)는 속도 검출부(143)에서 검출된 주행 속도에 기초하여 캡쳐 시점인지 판단한다.The driving information analyzing unit 151a determines whether it is a capture time based on the driving speed detected by the speed detecting unit 143 .

주행 정보 분석부(151a)는 속도 검출부(143)에서 검출된 주행 속도와 거리 검출부(144)에서 검출된 타 차량과의 거리에 기초하여 캡쳐 시점인지를 판단하는 것도 가능하다.The driving information analyzing unit 151a may determine whether it is a capture time based on the driving speed detected by the speed detecting unit 143 and the distance to another vehicle detected by the distance detecting unit 144 .

주행 정보 분석부(151a)는 시동부(145)에서 전송된 시동 오프 정보와, 변속 레버 정보 수신부(146)에 수시된 파킹 단 정보에 기초하여 캡쳐 시점인지를 판단하는 것도 가능하다.The driving information analyzing unit 151a may determine whether it is a capture time based on the start-off information transmitted from the starter 145 and the parking stage information received from the shift lever information receiving unit 146 .

주행 정보 분석부(151a)는 내비게이션 정보와 현재 위치 정보에 기초하여 현재 위치가 관심 지역인지 판단하고, 현재 위치가 관심 지역이라고 판단되면 캡쳐 시점이라고 판단한다.The driving information analyzer 151a determines whether the current location is an area of interest based on the navigation information and the current location information, and when it is determined that the current location is an area of interest, it is determined that it is a capture point.

여기서 내비게이션 정보는 지도 정보, 경로 정보, 길 안내 정보 등을 포함할 수 있고, 지도 정보는 도로명, 도로 번호, 도로의 위치 정보를 포함할 수 있다.Here, the navigation information may include map information, route information, road guidance information, and the like, and the map information may include a road name, a road number, and location information of a road.

주행 정보 분석부(151a)는 제1영상 획득부(141)에서 획득된 도로의 영상을 영상 처리하고 영상 처리된 영상에서 표지판을 인식하고 인식된 표지판의 문자 및 기호를 인식하며 인식된 문자와 기호에 기초하여 캡쳐 시점인지를 판단한다.The driving information analysis unit 151a image-processes the image of the road acquired by the first image acquisition unit 141, recognizes a sign from the image-processed image, recognizes the characters and symbols of the recognized sign, and recognizes the recognized characters and symbols It is determined whether it is a capture time based on

행동 정보 분석부(151b)는 제2영상 획득부(142)에서 획득된 영상에서 사용자의 시선을 인식하고, 사용자의 모션을 인식한다.The behavior information analysis unit 151b recognizes the user's gaze from the image acquired by the second image acquisition unit 142 and recognizes the user's motion.

행동 정보 분석부(151b)는 인식된 시선이 기준 시간 이상 한 곳을 주시하면 캡쳐 시점이라고 판단하고, 한 곳을 기준 횟수 이상 반복하여 주시하면 캡쳐 시점이라고 판단한다. 여기서 사용자의 시선은 운전자의 시선 및 동승자의 시선 중 적어도 하나일 수 있다.The behavior information analysis unit 151b determines that it is a capture time when the recognized gaze gazes at one place for more than a reference time, and determines that it is a capture time when the recognized gaze gazes at one place repeatedly for a reference number of times or more. Here, the user's gaze may be at least one of the driver's gaze and the passenger's gaze.

행동 정보 분석부(151b)는 운전자의 시선을 인식하고 인식 결과가 운전자가 주행 주시 영역(a1, b1, c1)의 이외의 외부 주시 영역(a2, b2, c2)을 기준 시간 이상 주시한다고 판단되면 캡쳐 시점이라고 판단한다(도 7참조).If the behavior information analysis unit 151b recognizes the driver's gaze and the recognition result determines that the driver gazes at the external gaze areas a2, b2, c2 other than the driving gaze areas a1, b1, c1 for a reference period of time or longer, It is determined that it is a capture time (see FIG. 7).

행동 정보 분석부(151b)는 동승자의 시선을 인식하고 인식 결과가 동승자가 기준 시간 이상 어느 하나의 목표물을 주시한다고 판단되면 캡쳐 시점이라고 판단한다.The behavioral information analysis unit 151b recognizes the gaze of the passenger, and when the recognition result determines that the passenger gazes at any one target for more than a reference time, it is determined that it is a capture time.

행동 정보 분석부(151b)는 운전자의 시선을 인식하고 인식 결과가 운전자가 주행 주시 영역(a1, b1, c1)의 이외의 외부 주시 영역(a2, b2, c2)을 기준 횟수 이상 반복하여 주시한다고 판단되면 캡쳐 시점이라고 판단한다(도 7 참조).The behavior information analysis unit 151b recognizes the driver's gaze, and the recognition result indicates that the driver repeatedly gazes at the external gaze areas a2, b2, c2 other than the driving gaze areas a1, b1, c1 for a reference number of times or more. If it is determined, it is determined that it is a capture time (see FIG. 7 ).

행동 정보 분석부(151b)는 동승자의 시선을 인식하고 인식 결과가 동승자가 기준 횟수 이상 반복하여 어느 하나의 목표물을 주시한다고 판단되면 캡쳐 시점이라고 판단한다.The behavior information analysis unit 151b recognizes the gaze of the passenger, and when it is determined that the passenger gazes at any one target by repeating the recognition result more than a reference number of times, it is determined that it is the capture time.

행동 정보 분석부(151b)는 인식된 사용자의 모션이 단말기를 이용한 외부 촬영 모션이면 캡쳐 시점이라고 판단한다. 여기서 사용자의 모션은 동승자의 모션일 수 있다.The behavior information analysis unit 151b determines that when the recognized user's motion is an external shooting motion using the terminal, it is a capture time. Here, the user's motion may be that of a passenger.

행동 정보 분석부(151b)는 사운드 입력부(148)에서 입력된 사운드의 음성 인식을 수행하고, 인식된 음성의 음성 정보 중 감탄사를 인식하고 감탄사가 인식되면 캡쳐 시점이라고 판단하는 것도 가능하다.The behavior information analysis unit 151b may perform voice recognition of the sound input from the sound input unit 148, recognize an exclamation among voice information of the recognized voice, and determine that it is a capture time when the exclamation is recognized.

캡쳐부(152)는 분석부(151)로부터 캡쳐 시점에 대한 정보가 수신되면 캡쳐 시점에 제1획득부에서 획득되는 영상을 캡쳐한다.When information on a capture time is received from the analysis unit 151, the capture unit 152 captures the image acquired by the first acquisition unit at the capture time.

생성부(153)는 위치 수신부에 수신된 위치 정보에 기초하여 캡쳐 시점의 차량의 위치를 확인하고, 확인된 차량의 위치를 태그로 생성하고, 캡쳐 시점의 분석 정보를 태그로 생성하며, 캡쳐된 영상과 태그를 결합하여 드라이브 영상을 생성하고, 주행이 완료되면 주행이 완료되기 전까지 생성된 드라이브 영상을 시간 순으로 연결하여 드라이브 비디오를 생성한다. The generating unit 153 checks the location of the vehicle at the capture time based on the location information received from the location receiving unit, generates the identified vehicle location as a tag, generates analysis information at the capture time as a tag, and captures the captured location. A drive video is created by combining an image and a tag, and when driving is completed, the drive video is created by linking the generated drive images in chronological order until the driving is completed.

분석 정보는, 분석부에서 분석된 주행 정보와 사용자의 행동 정보의 분석 결과에 대응하는 정보일 수 있다.The analysis information may be information corresponding to an analysis result of the driving information analyzed by the analysis unit and the user's behavior information.

예를 들어, 분석 정보는 속도 감소, 정차, 사용자 주시, 관심 지역, 외부 촬영, 사용자 감탄 등을 포함할 수 있다.For example, the analysis information may include speed reduction, stopping, user attention, area of interest, external shooting, user admiration, and the like.

생성부(153)는 드라이브 비디오를 저장부(160)에 저장하거나, 통신부를 통해 외부 장치(200, 300)에 전송한다.The generation unit 153 stores the drive video in the storage unit 160 or transmits it to the external devices 200 and 300 through the communication unit.

제어부(150)의 분석부, 캡쳐부 및 생성부는 별개의 칩으로 구현될 수도 있고, 단일 칩으로 구현될 수도 있다.The analysis unit, the capture unit, and the generation unit of the control unit 150 may be implemented as separate chips or as a single chip.

분석부, 캡쳐부 및 생성부를 가지는 제어부(150)의 제어 구성을 종합적으로 설명하도록 한다.A control configuration of the control unit 150 having an analysis unit, a capture unit, and a generation unit will be described comprehensively.

제어부(150)는 내비게이션 모드가 수행되면 내비게이션 정보를 생성하고, 생성된 내비게이션 정보에 기초하여 경로가 매칭된 지도 정보 및 길 안내 정보의 출력을 제어하며, 출발지부터 목적지에 도착할 때까지 제1영상획득부에서 획득된 영상 중 일부 영상을 캡쳐하고 캡쳐된 영상들을 연결하여 드라이브 비디오를 생성한다.When the navigation mode is performed, the controller 150 generates navigation information, controls output of map information and route guidance information with a route matched on the basis of the generated navigation information, and acquires a first image from a departure point to a destination A drive video is created by capturing some of the images acquired in the unit and connecting the captured images.

제어부(150)는 하루를 단위로 하여 제1영상획득부에서 획득된 영상 중 일부 영상을 캡쳐하고 캡쳐된 영상들을 연결하여 드라이브 비디오를 생성하는 것도 가능하다.The controller 150 may capture some of the images acquired by the first image acquisition unit on a daily basis and connect the captured images to generate a drive video.

제어부(150)는 시동 온 시점에서 시동 오프 시점 사이에 제1영상획득부에서 획득된 영상 중 일부 영상을 캡쳐하고 캡쳐된 영상들을 연결하여 드라이브 비디오를 생성하는 것도 가능하다.It is also possible for the control unit 150 to generate a drive video by capturing some of the images obtained from the first image acquisition unit between the starting-on time and the starting-off time, and connecting the captured images.

제어부(150)는 차량의 주행 속도를 실시간으로 확인하고 확인된 주행 속도의 변화를 확인하며, 주행 속도가 감속이라고 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. 제어부(150)는 캡쳐 이유인 감속을 태그로 생성하고 생성된 태그와 캡쳐된 영상을 함께 저장하는 것도 가능하다.The control unit 150 checks the driving speed of the vehicle in real time and confirms the confirmed change in the driving speed, and when it is determined that the driving speed is decelerating, captures the image obtained from the first image acquisition unit, and determines the location where the image is captured. It checks, creates the identified location as a tag, and stores the captured image and the tag together. The controller 150 may generate the deceleration, which is the capture reason, as a tag, and store the generated tag and the captured image together.

제어부(150)는 차량의 주행 속도를 실시간으로 확인하고 확인된 주행 속도의 변화를 확인하며, 제1영상 획득부(141)에서 획득된 영상에 기초하여 자 차량의 전후방의 타 차량과의 거리를 확인하고, 전후방의 타 차량과의 거리가 기준 거리 이상이면 타 차량과의 거리가 기준 거리 이상으로 일정 시간 이상 유지되는지 판단하고, 타 차량과의 거리가 기준 거리 이상으로 일정 시간 이상 유지되는 상태에서 주행속도가 감소된다고 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. The control unit 150 checks the driving speed of the vehicle in real time, confirms the confirmed change in the driving speed, and determines the distance between the vehicle's front and rear other vehicles based on the image acquired by the first image acquisition unit 141 If the distance to other vehicles in the front and rear is greater than or equal to the reference distance, it is determined whether the distance to other vehicles is maintained over the reference distance for more than a certain period of time, When it is determined that the driving speed is reduced, the image acquired by the first image acquisition unit is captured, the position where the image is captured is checked, the identified position is generated as a tag, and the captured image and the tag are stored together.

제어부(150)는 거리 검출부(144)에서 검출된 검출 정보에 기초하여 자 차량의 전후방의 타 차량과의 거리를 확인하고, 전후방의 타 차량과의 거리가 기준 거리 이상이면 타 차량과의 거리가 기준 거리 이상으로 일정 시간 이상 유지되는지 판단하고, 타 차량과의 거리가 기준 거리 이상으로 일정 시간 이상 유지되는 상태에서 주행속도가 감소된다고 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장하는 것도 가능하다.The control unit 150 checks the distance from the front and rear other vehicles of the own vehicle based on the detection information detected by the distance detection unit 144, and if the distance from the front and rear other vehicles is equal to or greater than the reference distance, the distance to the other vehicle is It is determined whether the distance is maintained over the reference distance for a certain period of time or more, and when it is determined that the driving speed is reduced while the distance to other vehicles is maintained for a certain period of time or more than the reference distance, the image acquired by the first image acquisition unit is captured, and the image is captured. It is also possible to check the captured location, create the checked location as a tag, and store the captured image and the tag together.

제어부(150)는 내비게이션 정보와 현재 위치의 위치 정보에 기초하여 현재 위치가 관심 지역인지 판단하고 현재 위치가 관심 지역이라고 판단되면 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 확인된 관심 지역의 정보를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. The controller 150 determines whether the current location is an area of interest based on the navigation information and location information of the current location, and when it is determined that the current location is an area of interest, captures an image acquired by the first image acquisition unit, and the confirmed interest Local information is created as a tag, and the captured image and tag are saved together.

제어부(150)는 제1영상 획득부에서 획득된 영상에서 표지판을 인식하고, 인식된 표지판의 문자 및 기호에 기초하여 관심 지역 또는 유명한 지역인지를 판단하고, 표지판이 관심 지역 또는 유명한 지역에 대응하는 표지판이라고 판단되면 표지판의 영상을 캡쳐하고, 표지판의 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하며, 캡쳐된 표지판의 영상과 태그를 함께 저장한다. The control unit 150 recognizes a sign from the image acquired by the first image acquisition unit, determines whether the sign is a region of interest or a famous region based on the characters and symbols of the recognized sign, and determines whether the sign corresponds to the region of interest or famous region. When it is determined that it is a sign, an image of the sign is captured, the location where the image of the sign is captured is checked, the identified location is generated as a tag, and the captured image of the sign and the tag are stored together.

제어부(150)는 시동이 오프되면 내비게이션 정보에 기초하여 현재 위치가 목적지인지 판단하고, 목적지가 아니라고 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. 제어부(150)는 캡쳐 이유인 잠시 정차를 태그로 생성하고 생성된 태그와 캡쳐된 영상을 함께 저장하는 것도 가능하다.When the engine is turned off, the control unit 150 determines whether the current location is the destination based on the navigation information, and if it is determined that the current location is not the destination, captures the image obtained from the first image acquisition unit, checks the location where the image is captured, and confirms Creates the location as a tag, and saves the captured image and tag together. The controller 150 may generate a temporary stop, which is the reason for capturing, as a tag, and store the generated tag and the captured image together.

제어부(150)는 변속 레버의 위치가 파킹 단이라고 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. 제어부(150)는 캡쳐 이유인 잠시 주차를 태그로 생성하고 생성된 태그와 캡쳐된 영상을 함께 저장하는 것도 가능하다.When it is determined that the position of the shift lever is the parking stage, the control unit 150 captures the image obtained from the first image acquisition unit, confirms the position at which the image is captured, generates the identified position as a tag, and the captured image and Save the tags together. It is also possible for the control unit 150 to generate a temporary parking tag, which is the reason for capturing, and to store the generated tag and the captured image together.

제어부(150)는 제2영상획득부에서 획득된 영상을 영상처리하고 영상 처리된 영상에 기초하여 운전자의 시선을 인식하고 운전자의 시선이 주행 주시 영역이 아닌 외부 주시 영역에 기준 시간 이상 머물고 있다고 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. 제어부(150)는 캡쳐 이유인 운전자 외부 주시를 태그로 생성하고 생성된 태그와 캡쳐된 영상을 함께 저장하는 것도 가능하다.The control unit 150 image-processes the image acquired by the second image acquisition unit, recognizes the driver's gaze based on the image-processed image, and determines that the driver's gaze stays in the external gaze area instead of the driving gaze area for a reference time or longer When the image is captured by the first image acquisition unit, the captured position of the image is confirmed, the identified position is generated as a tag, and the captured image and the tag are stored together. The controller 150 may generate the driver's external gaze, which is the capture reason, as a tag, and store the generated tag and the captured image together.

제어부(150)는 제2영상획득부에서 획득된 영상을 영상처리하고 영상 처리된 영상에 기초하여 운전자의 시선을 인식하고 운전자가 주행 주시 영역이 아닌 외부 주시 영역을 기준 횟수 이상 반복하여 주시한다고 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. 제어부(150)는 캡쳐 이유인 운전자 외부 주시를 태그로 생성하고 생성된 태그와 캡쳐된 영상을 함께 저장하는 것도 가능하다.The control unit 150 image-processes the image obtained by the second image acquisition unit, recognizes the driver's gaze based on the image-processed image, and determines that the driver repeatedly gazes at the external gaze area, not the driving gaze area, a reference number of times or more When the image is captured by the first image acquisition unit, the captured position of the image is confirmed, the identified position is generated as a tag, and the captured image and the tag are stored together. The controller 150 may generate the driver's external gaze, which is the capture reason, as a tag, and store the generated tag and the captured image together.

제어부(150)는 제2영상획득부(142)에서 획득된 영상을 영상처리하고 영상 처리된 영상에 기초하여 동승자의 시선을 인식하고 동승자의 시선이 기준 시간 이상 한 곳에 머물러 있다고 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. 제어부(150)는 캡쳐 이유인 동승자 외부 주시를 태그로 생성하고 생성된 태그와 캡쳐된 영상을 함께 저장하는 것도 가능하다.The control unit 150 image-processes the image acquired by the second image acquisition unit 142, recognizes the gaze of the passenger based on the image-processed image, and when it is determined that the gaze of the passenger stays in one place for more than a reference time, the first image The image acquired by the acquisition unit is captured, the position where the image is captured is checked, the identified position is generated as a tag, and the captured image and the tag are stored together. It is also possible for the controller 150 to generate the external gaze of the passenger, which is the capture reason, as a tag, and to store the generated tag and the captured image together.

제어부(150)는 제2영상획득부(142)에서 획득된 영상을 영상처리하고 영상 처리된 영상에 기초하여 동승자의 시선을 인식하고 동승자가 어느 한 곳을 기준 횟수 이상 반복하여 주시한다고 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. 제어부(150)는 캡쳐 이유인 동승자 외부 주시를 태그로 생성하고 생성된 태그와 캡쳐된 영상을 함께 저장하는 것도 가능하다.The control unit 150 image-processes the image acquired by the second image acquisition unit 142, recognizes the passenger's gaze based on the image-processed image, and when it is determined that the passenger repeatedly gazes at any one place more than a reference number of times, 1 Capture the image acquired by the image acquisition unit, confirm the position where the image is captured, create the identified position as a tag, and store the captured image and the tag together. It is also possible for the controller 150 to generate the external gaze of the passenger, which is the capture reason, as a tag, and to store the generated tag and the captured image together.

제어부(150)는 제2영상획득부(142)에서 획득된 영상을 영상처리하고 영상 처리된 영상에 기초하여 동승자의 모션을 인식하고 동승자의 모션이 단말기를 이용한 외부 촬영의 모션이라고 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. 제어부(150)는 캡쳐 이유인 촬영 모션을 태그로 생성하고 생성된 태그와 캡쳐된 영상을 함께 저장하는 것도 가능하다.The control unit 150 image-processes the image acquired by the second image acquisition unit 142, recognizes the motion of the passenger based on the image-processed image, and when it is determined that the motion of the passenger is the motion of external shooting using the terminal, The image acquired by the image acquisition unit is captured, the position where the image is captured is checked, the identified position is generated as a tag, and the captured image and the tag are stored together. The controller 150 may generate a shooting motion, which is the capture reason, as a tag, and store the generated tag and the captured image together.

제어부(150)는 캡쳐된 영상들 중 불필요한 영상을 삭제하는 것도 가능하다.The controller 150 may also delete unnecessary images from among the captured images.

예를 들어, 불필요한 영상은 신호등의 영상, 셀카 촬영의 영상, 도로 번호 및 제한 속도의 표지판의 영상 등을 포함할 수 있다.For example, the unnecessary image may include an image of a traffic light, an image of taking a selfie, an image of a road number and a speed limit sign.

제어부(150)는 내비게이션 정보에 기초하여 주행 중인 도로의 도로 정보를 획득하고 획득된 도로 정보를 태그로 저장하는 것을 더 포함한다.The control unit 150 further includes obtaining road information of a driving road based on the navigation information and storing the obtained road information as a tag.

제어부(150)는 입력부(127)에 검색 명령과 검색어가 입력되면 입력된 검색어에 대응하는 드라이브 영상을 검색하고 검색된 드라이브 영상의 출력을 제어한다.When a search command and a search word are input to the input unit 127 , the controller 150 searches for a drive image corresponding to the input search word and controls the output of the searched drive image.

제어부(150)는 입력부(127)에 편집을 위한 삭제 명령과 어느 하나의 드라이브 영상이 선택되면 드라이브 비디오에서 선택된 드라이브 영상을 삭제한다.The controller 150 deletes the selected drive image from the drive video when a delete command for editing and any one of the drive images are selected from the input unit 127 .

제어부(150)는 차량 내 구성요소들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리(미도시), 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 프로세서(미도시)로 구현될 수 있다. 이때, 메모리와 프로세서는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리와 프로세서는 단일 칩으로 구현될 수도 있다.The controller 150 includes a memory (not shown) that stores data for an algorithm for controlling the operation of components in the vehicle or a program reproducing the algorithm, and a processor (not shown) that performs the above-described operation using the data stored in the memory. not shown) may be implemented. In this case, the memory and the processor may be implemented as separate chips. Alternatively, the memory and the processor may be implemented as a single chip.

저장부(160)는 생성된 드라이브 비디오를 저장한다.The storage unit 160 stores the generated drive video.

저장부(160)는 드라이브 비디오를 전송하기 위한 단말기의 식별 정보를 저장하는 것도 가능하다.The storage unit 160 may also store identification information of the terminal for transmitting the drive video.

저장부(160)는 기준 거리, 기준 시간, 기준 횟수를 저장한다.The storage unit 160 stores the reference distance, the reference time, and the reference number of times.

저장부(160)는 차량의 내부에 고정 장착된 저장부일 수 있고, 차량으로부터 분리 가능하게 마련된 저장부일 수도 있다.The storage unit 160 may be a storage unit fixedly mounted inside the vehicle, or may be a storage unit provided detachably from the vehicle.

저장부(160)는 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(HDD, Hard Disk Drive), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다. The storage unit 160 is a nonvolatile memory device or RAM such as a cache, read only memory (ROM), programmable ROM (PROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), and flash memory. It may be implemented as at least one of a volatile memory device such as (Random Access Memory), a hard disk drive (HDD), or a storage medium such as a CD-ROM, but is not limited thereto.

저장부(160)는 제어부(150)와 관련하여 전술한 프로세서와 별개의 칩으로 구현된 메모리일 수 있고, 프로세서와 단일 칩으로 구현될 수도 있다. The storage unit 160 may be a memory implemented as a chip separate from the processor described above with respect to the controller 150 , or may be implemented as a single chip with the processor.

통신부(170)는 제어부(150)와 외부 장치 사이에서 통신을 수행하고, 제어부(150)의 제어 명령에 따라 드라이브 비디오를 외부 장치인 단말기(200) 또는 서버(300)에 전송한다.The communication unit 170 performs communication between the control unit 150 and an external device, and transmits the drive video to the external device, the terminal 200 or the server 300 according to a control command of the control unit 150 .

통신부(170)는 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.The communication unit 170 may include one or more components that enable communication with an external device, and may include, for example, at least one of a short-range communication module, a wired communication module, and a wireless communication module.

근거리 통신 모듈은 블루투스 모듈, 적외선 통신 모듈, RFID(Radio Frequency Identification) 통신 모듈, WLAN(Wireless Local Access Network) 통신 모듈, NFC 통신 모듈, 직비(Zigbee) 통신 모듈 등 근거리에서 무선 통신망을 이용하여 신호를 송수신하는 다양한 근거리 통신 모듈을 포함할 수 있다.The short-distance communication module transmits a signal using a wireless communication network in a short distance such as a Bluetooth module, an infrared communication module, an RFID (Radio Frequency Identification) communication module, a WLAN (Wireless Local Access Network) communication module, an NFC communication module, and a Zigbee communication module. It may include various short-distance communication modules for transmitting and receiving.

유선 통신 모듈은 캔(Controller Area Network; CAN) 통신 모듈, 지역 통신(Local Area Network; LAN) 모듈, 광역 통신(Wide Area Network; WAN) 모듈 또는 부가가치 통신(Value Added Network; VAN) 모듈 등 다양한 유선 통신 모듈뿐만 아니라, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 다양한 케이블 통신 모듈을 포함할 수 있다. The wired communication module includes a variety of wired communication modules such as a Controller Area Network (CAN) communication module, a Local Area Network (LAN) module, a Wide Area Network (WAN) module, or a Value Added Network (VAN) module. Various cable communication such as USB (Universal Serial Bus), HDMI (High Definition Multimedia Interface), DVI (Digital Visual Interface), RS-232 (recommended standard232), power line communication, or POTS (plain old telephone service) as well as communication module It can contain modules.

무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution) 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.In addition to the Wi-Fi module and the wireless broadband module, the wireless communication module includes a global system for mobile communication (GSM), a code division multiple access (CDMA), a wideband code division multiple access (WCDMA), and a universal mobile telecommunications system (UMTS). ), Time Division Multiple Access (TDMA), Long Term Evolution (LTE), etc. may include a wireless communication module supporting various wireless communication methods.

단말기(200)는 사용자 단말기로, 사용자 단말기(200)는 네트워크를 통해 차량에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다.The terminal 200 may be implemented as a user terminal, and the user terminal 200 may be implemented as a computer or portable terminal capable of accessing a vehicle through a network.

여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 태블릿 PC, 슬레이트 PC 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), WiBro(Wireless Broadband Internet) 단말, 스마트 폰(Smart Phone) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD) 등과 같은 웨어러블 장치를 포함할 수 있다.Here, the computer includes, for example, a laptop equipped with a web browser (WEB Browser), a desktop, a laptop (laptop), a tablet PC, a slate PC, and the like, and the portable terminal has, for example, portability and mobility. As a covered wireless communication device, Personal Communication System (PCS), Global System for Mobile communications (GSM), Personal Digital Cellular (PDC), Personal Handyphone System (PHS), Personal Digital Assistant (PDA), International Mobile Telecommunication (IMT) -2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), WiBro(Wireless Broadband Internet) terminal, all kinds of handheld based such as smart phone wireless communication devices and wearable devices such as watches, rings, bracelets, anklets, necklaces, glasses, contact lenses, or head-mounted-devices (HMDs).

단말기(200)는 드라이브 비디오가 수신되면 수신된 드라이브 비디오를 저장한다.When the drive video is received, the terminal 200 stores the received drive video.

단말기(200)는 사용자에 의해 입력된 날짜 및 파일 명과 함께 드라이브 비디오를 저장할 수 있다.The terminal 200 may store the drive video together with the date and file name input by the user.

단말기(200)는 사용자의 요청에 따라 드라이브 비디오를 재생할 수 있고 사용자의 요청에 따라 다른 외부 장치로 전송할 수 있다.The terminal 200 may play the drive video according to the user's request and transmit it to another external device according to the user's request.

도 3에 도시된 데이터 처리 장치의 구성 요소들의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 상호 위치는 시스템의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.At least one component may be added or deleted according to the performance of the components of the data processing apparatus shown in FIG. 3 . In addition, it will be readily understood by those of ordinary skill in the art that the mutual positions of the components may be changed corresponding to the performance or structure of the system.

도 4는 실시 예에 따른 차량의 제어 순서도로 도 5 내지 도 10을 참조하여 설명한다.4 is a control flowchart of a vehicle according to an embodiment, which will be described with reference to FIGS. 5 to 10 .

차량은 시동이 온되면 입력부(127), 표시부(128), 제1영상획득부(141), 제2영상 획득부(142), 속도 검출부(143), 거리 검출부(144), 시동부(145), 변속 레버 정보 수신부(146), 위치 수신부(147), 사운드 입력부(148), 사운드 출력부(149), 제어부(150), 저장부(160) 및 통신부(170) 등 각종 장치의 동작을 활성화시킨다.When the vehicle is started, the input unit 127, the display unit 128, the first image acquisition unit 141, the second image acquisition unit 142, the speed detection unit 143, the distance detection unit 144, and the starting unit 145 ), the shift lever information receiving unit 146, the position receiving unit 147, the sound input unit 148, the sound output unit 149, the control unit 150, the storage unit 160, and the communication unit 170, such as operation of various devices Activate it.

차량은 내비게이션 모드가 선택되고 목적지의 정보가 입력되면 현재 위치를 확인하고 현재 위치인 출발지부터 목적지까지 경로를 탐색하며 탐색된 경로를 지도 정보에 매칭시켜 내비게이션 정보를 생성하고, 경로가 매칭된 지도 정보를 사용자 인터페이스를 통해 표시하며, 길 안내 정보를 사용자 인터페이스 및 사운드 출력부를 통해 출력한다.When a navigation mode is selected and destination information is input, the vehicle checks the current location, searches for a route from the current location, from the origin to the destination, matches the searched route to the map information to generate navigation information, and maps information with the route matched. is displayed through the user interface, and route guidance information is output through the user interface and the sound output unit.

차량은 시동이 온되면 비디오 생성 모드를 자동으로 수행시키는 것도 가능하다. 또한 차량은 시동이 온되고 입력부(127)를 통해 비디오 생성 모드가 선택되면 비디오 생성 모드를 수행시키는 것도 가능하다.It is also possible that the vehicle automatically performs the video generation mode when the engine is turned on. In addition, when the vehicle is started and the video generation mode is selected through the input unit 127, it is also possible to perform the video generation mode.

차량은 비디오 생성 모드 수행 중 차량의 주행 정보와 사용자의 행동 정보를 확인(180)한다.The vehicle checks ( 180 ) driving information of the vehicle and user behavior information while performing the video generation mode.

여기서 차량의 주행 정보를 확인하는 것은, 차량의 속도를 확인하고, 변속 레버의 위치를 확인하고, 시동 오프 상태를 확인하는 것을 포함한다.Here, checking the driving information of the vehicle includes checking the speed of the vehicle, checking the position of the shift lever, and checking the ignition-off state.

그리고 사용자의 행동 정보를 확인하는 것은, 차량 내부의 영상을 획득하고 획득된 차량의 영상을 영상처리하고 영상 처리된 영상 정보에 기초하여 운전자와 동승자를 인식하고, 인식된 운전자의 행동 정보와 인식된 동승자의 행동 정보를 확인하는 것을 포함한다.And confirming the user's behavior information is to acquire an image inside the vehicle, process the acquired image of the vehicle, recognize the driver and passenger based on the image-processed image information, and recognize the recognized driver's behavior information and the recognized driver's behavior information. This includes checking the behavioral information of the passenger.

여기서 운전자의 행동 정보를 확인하는 것은, 운전자의 시선을 확인하는 것을 포함한다.Here, checking the driver's behavior information includes checking the driver's gaze.

그리고 동승자의 행동 정보를 확인하는 것은, 동승자의 시선과 모션을 확인하는 것을 포함한다.In addition, checking the behavior information of the passenger includes checking the gaze and motion of the passenger.

차량은 확인된 주행 정보를 분석(381)하고, 분석 정보에 기초하여 제1영상 획득부에서 획득 중인 영상의 캡쳐 시점인지를 판단하고, 캡쳐 시점이라고 판단되면 제1영상 획득부에서 획득된 영상을 캡쳐한다.The vehicle analyzes the identified driving information (381), determines whether it is a capture time of the image being acquired by the first image acquisition unit based on the analysis information, and when it is determined that it is the capture time, the image acquired by the first image acquisition unit Capture.

좀 더 구체적으로, 차량은 주행 상태를 확인한다.More specifically, the vehicle checks the driving state.

여기서 주행 상태를 확인하는 것은, 차량의 주행 속도가 감소하는지, 차량이 주행 정지인지 확인하는 것을 포함할 수 있다.Here, the checking of the driving state may include checking whether the traveling speed of the vehicle is reduced or whether the vehicle is stopped.

차량은 속도 검출부에서 검출된 검출 정보에 대응하는 차량의 주행 속도를 실시간으로 확인하고, 실시간으로 확인된 주행 속도에 기초하여 차량의 주행 속도의 변화를 확인하며, 주행 속도의 변화가 속도 감소인지를 판단(382)한다.The vehicle checks the driving speed of the vehicle corresponding to the detection information detected by the speed detector in real time, checks the change in the driving speed of the vehicle based on the driving speed checked in real time, and determines whether the change in the driving speed is a decrease in speed. Make a judgment (382).

차량은 주행 속도가 감소한다고 판단되면 영상의 캡쳐 시점이라고 판단하여 제1영상 획득부에서 획득되는 영상을 캡쳐(188)하고, 영상이 캡쳐된 시점의 차량의 위치를 확인하고, 확인된 차량의 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 결합하여 드라이브 영상을 생성하고 생성된 드라이브 영상을 저장(190)한다.When it is determined that the driving speed decreases, the vehicle determines that it is the capture time of the image, captures the image acquired by the first image acquisition unit (188), checks the location of the vehicle at the time the image is captured, and confirms the location of the vehicle is created as a tag, a drive image is created by combining the captured image and the tag, and the generated drive image is stored (190).

아울러 차량은 캡쳐 이유인 감속을 태그로 생성하고 생성된 감속 태그와, 위치 태그, 캡쳐된 영상을 결합하여 함께 저장하는 것도 가능하다.In addition, it is also possible for the vehicle to generate the deceleration, which is the reason for capturing, as a tag, combine the deceleration tag, the location tag, and the captured image and store it together.

차량은 제1영상획득부에서 획득된 영상에 기초하여 전방의 타 차량과의 거리를 확인하고 확인된 거리가 기준 거리 이상으로 유지됨에도 불구하고 차량의 주행 속도가 감소하고 있다고 판단되면 영상의 캡쳐 시점이라고 판단하여 제1영상 획득부에서 획득되는 영상을 캡쳐(188)하는 것도 가능하다.The vehicle checks the distance to another vehicle in front based on the image acquired by the first image acquisition unit, and when it is determined that the driving speed of the vehicle is decreasing despite the confirmed distance being maintained over the reference distance, the image capture time It is also possible to capture (188) the image acquired by the first image acquisition unit by determining that .

도 6에 도시된 바와 같이, 차량은 거리 검출부에서 검출된 검출 정보에 기초하여 전방의 타 차량(100a)과의 거리(d1)와 후방의 타 차량(100b)과의 거리(d2)를 확인하고 전방의 타 차량과의 거리가 기준 거리(dr) 이상이고, 후방의 타 차량과의 거리(d2)가 기준 거리(dr) 이상으로 유지됨에도 불구하고 차량의 주행 속도가 감소(60km/h -> 40km/h)하고 있다고 판단되면 영상의 캡쳐 시점이라고 판단하여 제1영상 획득부에서 획득되는 영상을 캡쳐(188)하는 것도 가능하다.As shown in FIG. 6 , the vehicle checks the distance d1 from the other vehicle 100a in the front and the distance d2 to the other vehicle 100b in the rear based on the detection information detected by the distance detector. Although the distance to other vehicles in the front is greater than the reference distance (dr) and the distance (d2) to other vehicles in the rear is maintained to be greater than or equal to the reference distance (dr), the driving speed of the vehicle is reduced (60km/h -> 40 km/h), it is also possible to capture (188) the image acquired by the first image acquisition unit by determining that it is the time of capturing the image.

차량은 주행을 정지하였다고 판단(183)되면 영상의 캡쳐 시점이라고 판단하여 제1영상 획득부에서 획득되는 영상을 캡쳐(188)하고, 영상이 캡쳐된 시점의 차량의 위치를 확인하고, 확인된 차량의 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 결합하여 드라이브 영상을 생성하고 생성된 드라이브 영상을 저장(190)한다.When it is determined that the vehicle has stopped driving (183), it is determined that it is the capture time of the image, and the image acquired by the first image acquisition unit is captured (188), the location of the vehicle at the time the image is captured, is confirmed, and the vehicle is confirmed The location of the tag is created, the captured image and the tag are combined to create a drive image, and the generated drive image is stored (190).

여기서 주행을 정지하였다고 판단하는 것은, 주행 속도가 영이면 주행 정지로 판단하는 것을 포함하고, 변속 레버의 위치가 파킹 단이면 차량이 정지하였다고 판단하는 것을 포함하며, 시동이 오프 상태이면 차량이 정지하였다고 판단하는 것을 포함한다.Determining that the vehicle has stopped driving includes determining that the vehicle is stopped when the traveling speed is zero, determining that the vehicle is stopped when the shift lever is in the parking position, and determining that the vehicle is stopped when the engine is in the OFF state includes judging.

아울러 차량은 시동이 오프 상태이면 내비게이션 정보에 기초하여 현재 위치가 목적지인지 판단하고, 목적지가 아니라고 판단되면 영상의 캡쳐 시점이라고 판단하여 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. 이때 차량은 캡쳐 이유인 잠시 정차를 태그로 생성하고 생성된 태그와 캡쳐된 영상을 함께 저장하는 것도 가능하다.In addition, the vehicle determines whether the current location is the destination based on the navigation information when the engine is in the off state, and when it is determined that the current location is not the destination, it is determined that the image is captured at the time of capturing the image, and the image acquired by the first image acquisition unit is captured, and the image is captured. Check the location, create the checked location as a tag, and save the captured image and tag together. At this time, it is also possible for the vehicle to generate a temporary stop, which is the reason for capturing, as a tag, and to store the generated tag and the captured image together.

차량은 확인된 사용자의 행동 정보를 분석(384)하고, 분석 정보에 기초하여 제1영상 획득부에서 획득 중인 영상의 캡쳐 시점인지를 판단하고, 캡쳐 시점이라고 판단되면 제1영상 획득부에서 획득된 영상을 캡쳐한다.The vehicle analyzes (384) the identified user's behavior information, determines whether it is a capture time of the image being acquired by the first image acquisition unit based on the analysis information, and when it is determined that it is the capture time, the first image acquisition unit acquired Capture the video.

좀 더 구체적으로, 차량은 제2영상획득부에서 획득된 영상을 영상 처리하고 영상 처리된 영상에 기초하여 사용자의 시선을 인식하고 시선의 인식 결과에 기초하여 사용자가 기준 시간 이상 한 곳을 주시하고 있는지 판단(185)하고, 사용자가 기준 시간 이상 한 곳을 주시하고 있다고 판단되면 영상의 캡쳐 시점이라고 판단하여 제1영상 획득부에서 획득되는 영상을 캡쳐(188)하고, 영상이 캡쳐된 시점의 차량의 위치를 확인(189)하고, 확인된 차량의 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 결합하여 드라이브 영상을 생성하고 생성된 드라이브 영상을 저장(190)한다. 이때 차량은 캡쳐 이유인 사용자 외부 주시를 태그로 생성하고 생성된 외부 주시 태그와, 위치 태그와, 캡쳐된 영상을 함께 저장하는 것도 가능하다.More specifically, the vehicle image-processes the image acquired by the second image acquisition unit, recognizes the user's gaze based on the image-processed image, and the user gazes at one place for more than a reference time based on the recognition result of the gaze. It is determined whether there is (185), and if it is determined that the user is looking at one place for more than a reference time, it is determined that it is the capture time of the image, and the image acquired by the first image acquisition unit is captured (188), and the vehicle at the time the image is captured confirms the location of (189), creates the identified vehicle location as a tag, combines the captured image and the tag to generate a drive image, and stores (190) the generated drive image. In this case, the vehicle may generate the user's external gaze, which is the capture reason, as a tag, and store the generated external gaze tag, the location tag, and the captured image together.

여기서 사용자의 시선을 인식하여 캡쳐 시점인지를 판단하는 구성을 도 7을 참조하여 설명한다.Here, a configuration for determining whether it is a capture point by recognizing a user's gaze will be described with reference to FIG. 7 .

차량의 운전석 측 창문(116a)은 주행을 위해 운전자가 주시해야 하는 주행 주시 영역(a1)과 운전자가 외부 환경을 보거나 주행의 보조 정보를 획득하기 위해 주시하는 외부 주시 영역(a2)을 포함한다.The window 116a on the driver's seat side of the vehicle includes a driving gaze area a1 that the driver should focus on for driving and an external gaze area a2 that the driver gazes at to view the external environment or obtain assistance information for driving.

차량의 동승석 측 창문(116b)은 주행을 위해 운전자가 주시해야 하는 주행 주시 영역(b1)과 운전자가 외부 환경을 보거나 주행의 보조 정보를 획득하기 위해 주시하는 외부 주시 영역(b2)을 포함한다.The window 116b on the passenger's side of the vehicle includes a driving gaze area b1 that the driver should focus on for driving and an external gaze area b2 that the driver gazes at to view the external environment or obtain driving assistance information. .

차량의 전면 창문(116c)은 주행을 위해 운전자가 주시해야 하는 주행 주시 영역(c1)과 운전자가 외부 환경을 보거나 주행의 보조 정보를 획득하기 위해 주시하는 외부 주시 영역(c2)을 포함한다.The front window 116c of the vehicle includes a driving gaze region c1 to which the driver should gaze for driving and an external gaze region c2 to which the driver gazes to view an external environment or obtain driving assistance information.

즉 차량은 제2영상 획득부에 의해 획득된 영상에서 운전석(121a)에 위치한 운전자의 영상을 획득하고, 획득된 영상에서 운전자의 시선을 인식하며 인식된 시선이 어느 영역을 향하고 있는지를 판단한다.That is, the vehicle acquires an image of the driver located in the driver's seat 121a from the image acquired by the second image acquisition unit, recognizes the driver's gaze from the acquired image, and determines which area the recognized gaze is directed to.

차량은 운전자의 시선의 인식 결과에 기초하여 운전자가 주행 주시 영역이 아닌 외부 주시 영역(ab, b2, c2)을 기준 시간 이상 주시하고 있다고 판단되면 영상의 캡쳐 시간이라고 판단하고, 제1영상 획득부에서 획득된 영상을 캡쳐하되 운전자의 시선의 방향에 대응하는 위치의 영상을 캡쳐할 수 있다. 이때 차량은 캡쳐 이유인 운전자 외부 주시를 태그로 생성하고 생성된 운전자의 외부 주시 태그와, 위치 태그와, 캡쳐된 영상을 함께 저장하는 것도 가능하다.When the vehicle determines that the driver is looking at the external gaze areas ab, b2, and c2 instead of the driving gaze area for a reference time or longer based on the recognition result of the driver's gaze, it is determined that it is the image capture time, and the first image acquisition unit It is possible to capture an image obtained from the , but capture an image of a position corresponding to the direction of the driver's gaze. In this case, the vehicle may generate the driver's external gaze, which is the capture reason, as a tag, and store the generated external gaze tag of the driver, the location tag, and the captured image together.

차량은 제2영상 획득부에 의해 획득된 영상에서 동승석(121b)에 위치한 동승자의 영상을 획득하고, 획득된 영상에서 동승자의 시선을 인식하며, 시선의 인식 결과에 기초하여 동승자가 어느 한 곳을 기준 시간 이상 주시하고 있는지 판단하고, 동승하자 기준 시간 이상 어느 한 곳을 주시하고 있다고 판단되면 영상의 캡쳐 시간이라고 판단하고, 제1영상 획득부에서 획득된 영상을 캡쳐하되 동승자의 시선의 방향에 대응하는 위치의 영상을 캡쳐할 수 있다. The vehicle acquires the image of the passenger located on the passenger seat 121b from the image acquired by the second image acquisition unit, recognizes the gaze of the passenger from the acquired image, and based on the recognition result of the gaze, Determines whether you are watching for more than a reference time, and if it is determined that you are looking at any one place for more than the reference time when riding, it is determined that it is the capture time of the image, and captures the image acquired by the first image acquisition unit, but in the direction of the passenger's gaze. It is possible to capture an image of the corresponding position.

이때 차량은 캡쳐 이유인 동승자 외부 주시를 태그로 생성하고 생성된 동승자의 외부 주시 태그와, 위치 태그와, 캡쳐된 영상을 함께 저장하는 것도 가능하다.In this case, the vehicle may generate the passenger's external gaze tag, which is the reason for capturing, as a tag, and store the generated external gaze tag of the passenger, the location tag, and the captured image together.

차량은 사용자가 어느 한 곳을 반복 주시하는지 판단(186)하고, 사용자가 어느 한곳을 반복적으로 주시하고 있다고 판단되면 캡쳐 시점이라고 판단하여 제1영상 획득부에서 획득된 영상을 캡쳐한다. 이때 차량은 캡쳐 이유인 사용자 외부 반복 주시를 태그로 생성하고 생성된 외부 반복 주시 태그와, 위치 태그와, 캡쳐된 영상을 함께 저장하는 것도 가능하다.The vehicle determines ( 186 ) whether the user repeatedly gazes at any one location, and when it is determined that the user repeatedly gazes at any one location, the vehicle determines that it is a capture point and captures the image acquired by the first image acquisition unit. In this case, it is also possible for the vehicle to generate the user's external repeated gaze, which is the capture reason, as a tag, and store the generated external repeated gaze tag, the location tag, and the captured image together.

좀 더 구체적으로, 차량은 제2영상 획득부에 의해 획득된 영상에서 운전석(121a)에 위치한 운전자의 영상을 획득하고, 획득된 영상에서 운전자의 시선을 인식하며 인식된 시선이 어느 영역을 향하고 있는지를 판단한다.More specifically, the vehicle acquires the image of the driver located in the driver's seat 121a from the image acquired by the second image acquisition unit, recognizes the driver's gaze from the acquired image, and determines which area the recognized gaze is directed to. to judge

차량은 운전자의 시선의 인식 결과에 기초하여 운전자가 주행 주시 영역이 아닌 외부 주시 영역(ab, b2, c2)을 기준 시간 이상 주시하고 있다고 판단되면 운전자가 외부 주시 영역을 반복적으로 주시하는지 판단한다.When it is determined that the driver is looking at the external gaze areas ab, b2, and c2 instead of the driving gaze area for a reference time or longer based on the recognition result of the driver's gaze, the vehicle determines whether the driver repeatedly gazes at the external gaze area.

운전자가 외부 주시 영역을 반복적으로 주시하는지 판단하는 것은, 운전자가 외부 주시 영역과 주행 주시 영역을 교대로 주시하는 횟수가 기준 횟수 이상 반복적으로 주시하는지 판단하는 것을 포함한다.Determining whether the driver repeatedly gazes at the external gaze region includes determining whether the number of times the driver alternately gazes at the external gaze region and the driving gaze region is more than a reference number of times.

운전자가 외부 주시 영역을 반복적으로 주시하는지 판단하는 것은, 운전자가 외부 주시 영역과 차량 내부를 교대로 주시하는 횟수가 기준 횟수 이상 반복적으로 주시하는지 판단하는 것을 포함한다.Determining whether the driver repeatedly gazes at the exterior gaze area includes determining whether the number of times the driver alternately gazes at the exterior gaze area and the interior of the vehicle is more than a reference number of times.

차량은 운전자가 어느 한 영역을 반복적으로 주시한다고 판단되면 영상의 캡쳐 시간이라고 판단하고, 제1영상 획득부에서 획득된 영상을 캡쳐하되 동승자의 시선의 방향에 대응하는 위치의 영상을 캡쳐할 수 있다. 이때 차량은 캡쳐 이유인 운전자 외부 반복 주시를 태그로 생성하고 생성된 운전자의 외부 반복 주시 태그와, 위치 태그와, 캡쳐된 영상을 함께 저장하는 것도 가능하다.When it is determined that the driver repeatedly gazes at a certain area, the vehicle determines that it is the image capture time, and captures the image acquired by the first image acquisition unit, but captures an image of a position corresponding to the direction of the passenger's gaze. . In this case, the vehicle may generate the driver's external repeated gaze tag, which is the reason for capturing, as a tag, and store the generated driver's external repeated gaze tag, the location tag, and the captured image together.

차량은 제2영상 획득부에 의해 획득된 영상에서 동승석(121b)에 위치한 동승자의 영상을 획득하고, 획득된 영상에서 동승자의 시선을 인식하며 인식된 동승자의 시선이 어느 영역을 향하고 있는지를 판단한다.The vehicle acquires the image of the passenger located in the passenger seat 121b from the image acquired by the second image acquisition unit, recognizes the gaze of the passenger from the acquired image, and determines which area the recognized gaze of the passenger is facing do.

차량은 동승자의 시선의 인식 결과에 기초하여 동승자가 어느 한 곳을 반복적으로 주시하고 있다고 판단되면 영상의 캡쳐 시점이라고 판단하여 영상의 캡쳐 시간이라고 판단하고, 제1영상 획득부에서 획득된 영상을 캡쳐하되 동승자의 시선의 방향에 대응하는 위치의 영상을 캡쳐할 수 있다. 이때 차량은 캡쳐 이유인 동승자 외부 반복 주시를 태그로 생성하고 생성된 동승자의 외부 반복 주시 태그와, 위치 태그와, 캡쳐된 영상을 함께 저장하는 것도 가능하다.When it is determined that the passenger is repeatedly looking at any one place based on the recognition result of the passenger's gaze, the vehicle determines that it is the capture time of the image, determines that it is the capture time of the image, and captures the image acquired by the first image acquisition unit However, it is possible to capture an image of a position corresponding to the direction of the passenger's gaze. In this case, the vehicle may generate the repeated external gaze of the passenger as the reason for capturing as a tag, and store the generated repeated external gaze tag of the passenger, the location tag, and the captured image together.

동승자가 외부 주시 영역을 반복적으로 주시하는지 판단하는 것은, 동승자가 외부의 어느 한 곳과 다른 곳을 교대로 주시하는 반복 횟수가 기준 횟수 이상 반복적으로 주시하는지 판단하는 것을 포함한다. 여기서 다른 곳은 차량의 내부를 포함할 수 있다.Determining whether the passenger repeatedly gazes at the external gaze area includes determining whether the number of repetitions in which the passenger alternately gazes at an external location and another location is more than a reference number of repetitions. Other places here may include the interior of the vehicle.

차량은 제2영상획득부(142)에서 획득된 영상을 영상처리하고 영상 처리된 영상에 기초하여 동승자의 모션을 인식하고 동승자의 모션이 단말기(200a, 도 6참조)를 이용한 외부 촬영의 모션이라고 판단(187)되면 제1영상 획득부에서 획득되는 영상을 캡쳐(188)하고, 영상이 캡쳐된 시점의 차량의 위치를 확인(189)하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 결합하여 드라이브 영상을 생성하고 생성된 드라이브 영상을 저장(190)한다. 이때 차량은 캡쳐 이유인 촬영 모션을 태그로 생성하고 생성된 태그와 캡쳐된 영상을 함께 저장하는 것도 가능하다.The vehicle image-processes the image acquired by the second image acquisition unit 142 and recognizes the motion of the passenger based on the image-processed image, and the motion of the passenger is the motion of external shooting using the terminal 200a (refer to FIG. 6). If it is determined (187), the image acquired by the first image acquisition unit is captured (188), the location of the vehicle at the time the image is captured is checked (189), the identified location is generated as a tag, and the captured image and the A drive image is created by combining the tags, and the generated drive image is stored (190). In this case, it is also possible for the vehicle to generate a shooting motion, which is the reason for capturing, as a tag, and to store the generated tag and the captured image together.

부가적으로 차량은 내비게이션 정보와 현재 위치의 위치 정보에 기초하여 현재 위치가 관심 지역인지 판단하고 현재 위치가 관심 지역이라고 판단되면 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 확인된 관심 지역의 정보를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장하는 것도 가능하다.Additionally, the vehicle determines whether the current location is an area of interest based on the navigation information and location information of the current location, and when it is determined that the current location is an area of interest, captures an image obtained from the first image acquisition unit, and the confirmed interest It is also possible to create local information as a tag, and to store the captured image and tag together.

또한 제어부(150)는 제1영상 획득부에서 획득된 영상에서 표지판을 인식하고, 인식된 표지판의 문자 및 기호에 기초하여 관심 지역 또는 유명한 지역인지를 판단하고, 표지판이 관심 지역 또는 유명한 지역에 대응하는 표지판이라고 판단되면 표지판의 영상을 캡쳐하고, 표지판의 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하며, 캡쳐된 표지판의 영상과 태그를 함께 저장하는 것도 가능하다. In addition, the control unit 150 recognizes a sign from the image acquired by the first image acquisition unit, determines whether the sign is a region of interest or a famous region based on the characters and symbols of the recognized sign, and the sign corresponds to the region of interest or famous region If it is determined that it is a sign, it is possible to capture an image of the sign, check the location where the image of the sign is captured, generate the identified location as a tag, and store the captured image of the sign and the tag together.

차량은 주행이 종료되었는지 판단(191)하고 주행이 종료되었다고 판단되면 주행 중 캡쳐된 드라이브 영상을 시간 순서로 연결하여 드라이브 비디오를 생성하고 생성된 드라이브 비디오를 저장(192)한다. The vehicle determines whether the driving is finished ( 191 ), and when it is determined that the driving is finished, the drive images captured during driving are connected in chronological order to generate a drive video and store the generated drive video ( 192 ).

여기서 주행이 종료되었는지 판단하는 것은, 시동 오프 상태인지 판단하는 것을 포함하고, 현재 위치가 목적지인지 판단하는 것을 포함한다.Here, determining whether the driving has ended includes determining whether the vehicle is in an off state, and determining whether the current location is a destination.

아울러 차량은 드라이브 비디오 저장 시, 생성 날짜를 함께 저장할 수 있고, 출발지와 목적지의 정보도 함께 저장할 수 있다.In addition, when the vehicle saves the drive video, the creation date can be saved together, and information of the origin and destination can be saved together.

도 8에 도시된 바와 같이, 차량은 차량은 출발지에서 출발 후부터 목적지에 도착하기 전까지 캡쳐된 드라이브 영상을 시간 순으로 연결하여 드라이브 비디오를 생성할 수 있다.As shown in FIG. 8 , the vehicle may generate a drive video by connecting the captured drive images in chronological order from the time the vehicle departs from the origin until the time it arrives at the destination.

차량은 출발 후 신호 대기에 의해 정차한다. 이때 차량은 주행 속도가 영으로 차량이 정차 상태라고 판단되면 캡쳐 시점이라고 판단하고 제1영상 획득부에서 획득된 영상을 캡쳐(M1)한다.The vehicle stops by waiting for a signal after departure. At this time, when the driving speed is zero and it is determined that the vehicle is in a stopped state, it is determined that it is a capture time and the image acquired by the first image acquisition unit is captured (M1).

사용자가 관광지를 보기 위해 서행하면, 차량은 주행 속도의 감소를 판단하고 캡쳐 시점이라고 판단하여 제1영상 획득부에서 획득된 영상을 캡쳐(M2)한다.When the user drives slowly to see the tourist destination, the vehicle determines the reduction in driving speed and determines that it is a capture time, and captures (M2) the image acquired by the first image acquisition unit.

사용자가 무지개를 보기 위해 '우와'라는 감탄사를 발화하면, 차량은 음성 인식을 통해 캡쳐 시점이라고 판단하고 제1영상 획득부에서 획득된 영상을 캡쳐(M3)한다.When the user utters an exclamation of 'wow' to see the rainbow, the vehicle determines the capture point through voice recognition and captures (M3) the image acquired by the first image acquisition unit.

사용자가 식사를 위해 정차를 하면, 차량은 현재 위치가 목적지 인지 판단하고 현재 위치가 목적지가 아니라고 판단되면 잠시 정차라고 판단하고, 제1영상 획득부에서 획득된 영상을 캡쳐(M4)한다.When the user stops for a meal, the vehicle determines whether the current location is the destination, and if it is determined that the current location is not the destination, determines that the vehicle is temporarily stopped, and captures the image acquired by the first image acquisition unit (M4).

차량은 주행 중 제1영상 획득부에서 획득된 영상 내 표지판을 인식하고 인식된 표지판의 정보가 관심 지역 정보라고 판단되면 캡쳐 시점이라고 판단하고 제1영상 획득부에서 획득된 표지판의 영상을 캡쳐(M5)하고, 내비게이션 정보에 기초하여 표지판의 정보에 대응하는 위치에 도달하면 제1영상 획득부의 영상을 캡쳐(M6)한다.The vehicle recognizes the sign in the image acquired by the first image acquiring unit while driving, and when it is determined that the information of the recognized sign is information on the area of interest, it is determined that it is a capture point, and the image of the sign acquired by the first image acquiring unit is captured (M5). ) and, based on the navigation information, when a position corresponding to the information on the sign is reached, the image of the first image acquisition unit is captured (M6).

도 9에 도시된 바와 같이, 차량은 캡쳐된 드라이브 영상들(M1-M6) 중 불필요한 드라이브 영상(M1)을 확인하고 확인된 드라이브 영상을 삭제하며, 삭제된 드라이브 영상을 제외한 나머지 드라이브 영상들(M2-M6)을 시간 순으로 연결하여 드라이브 영상을 생성한다.As shown in FIG. 9 , the vehicle checks the unnecessary drive image M1 among the captured drive images M1-M6 and deletes the checked drive image, and the remaining drive images M2 except for the deleted drive image. -M6) is connected in chronological order to create a drive image.

예를 들어, 불필요한 영상은 신호등의 영상, 셀카 촬영의 영상, 도로 번호 및 제한 속도의 표지판의 영상 등을 포함할 수 있다.For example, the unnecessary image may include an image of a traffic light, an image of taking a selfie, an image of a road number and a speed limit sign.

도 10에 도시된 바와 같이, 차량은 캡쳐된 영상들 중 표지판의 영상(M5)을 확인하고, 확인된 표지판의 영상의 문자 및 기호를 인식하며, 인식된 문자 및 기호를 태그로 생성하고, 표지판의 영상에 대응하는 외부 영상(M6)을 확인하며, 확인된 외부 영상에 표지판의 문자 및 기호를 태그로 결합하여 하나의 드라이브 영상으로 생성하는 것도 가능하다.As shown in FIG. 10 , the vehicle confirms the image M5 of the sign among the captured images, recognizes the characters and symbols of the image of the identified sign, generates the recognized characters and symbols as tags, and the sign It is also possible to check the external image M6 corresponding to the image of , and create one drive image by combining the characters and symbols of the sign with the tag to the confirmed external image.

즉 차량은 출발지에서 출발 후부터 목적지에 도착하기 전까지 캡쳐된 드라이브 영상(M1-M4, M6)을 시간 순으로 연결하여 드라이브 비디오를 생성할 수 있다.That is, the vehicle may generate a drive video by connecting the captured drive images M1-M4 and M6 in chronological order from the time of departure to the time of arrival at the destination.

한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium storing instructions executable by a computer. Instructions may be stored in the form of program code, and when executed by a processor, may generate program modules to perform operations of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.

컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. The computer-readable recording medium includes any type of recording medium in which instructions readable by the computer are stored. For example, there may be a read only memory (ROM), a random access memory (RAM), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device, and the like.

100: 차량 200: 단말기
141: 제1영상 획득부 142: 제2영상 획득부
143: 속도 검출부 144: 거리 검출부
145: 시동부 146: 변속 레버 정보 수신부
147: 위치 수신부
100: vehicle 200: terminal
141: first image acquisition unit 142: second image acquisition unit
143: speed detection unit 144: distance detection unit
145: start unit 146: shift lever information receiving unit
147: location receiver

Claims (25)

주행 속도를 검출하는 속도 검출부;
외부의 영상을 획득하는 제1영상 획득부;
상기 검출된 주행 속도의 변화 정보에 기초하여 상기 획득된 외부의 영상을 캡쳐하고, 주행이 종료되면 상기 캡쳐된 외부의 영상을 연결하여 드라이브 비디오를 생성하는 제어부;
상기 생성된 드라이브 비디오를 저장하는 저장부; 및
현재 위치에 대응하는 위치 정보를 수신하는 위치 수신부;를 포함하고,
상기 제어부는,
상기 주행 속도의 변화가 속도 감소이면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하고 상기 획득된 영상의 캡쳐 시점의 차량의 위치 정보를 확인하고 확인된 위치 정보를 캡쳐된 영상과 결합하여 저장하고,
상기 제1영상 획득부에서 획득된 외부의 영상을 영상처리하고, 영상 처리된 영상에서 타 차량을 인식하고 인식된 타 차량과의 거리가 기준 거리 이상이고, 상기 주행 속도의 변화가 속도 감소이면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하는 차량.
a speed detection unit for detecting the traveling speed;
a first image acquisition unit for acquiring an external image;
a control unit that captures the acquired external image based on the detected driving speed change information, and generates a drive video by connecting the captured external image when driving is finished;
a storage unit for storing the generated drive video; and
Including; a location receiving unit for receiving location information corresponding to the current location;
The control unit is
If the change in the driving speed is a decrease in speed, capture the image acquired by the first image acquisition unit, check the position information of the vehicle at the time of capturing the acquired image, combine the identified position information with the captured image, and store ,
If the external image acquired by the first image acquisition unit is image-processed, and another vehicle is recognized from the image-processed image, and the recognized distance to another vehicle is greater than or equal to the reference distance, and the change in the driving speed is a decrease in speed, the A vehicle that captures the image acquired by the first image acquisition unit.
제1항에 있어서,
현재 위치에 대응하는 위치 정보를 수신하는 위치 수신부;
목적지 정보를 입력받는 입력부를 더 포함하고,
상기 제어부는, 상기 위치 정보와 상기 목적지 정보에 기초하여 현재 위치가 목적지인지 판단하고 출발지부터 목적지까지 드라이브 비디오를 생성하는 것을 포함하는 차량.
According to claim 1,
a location receiver configured to receive location information corresponding to the current location;
Further comprising an input unit for receiving destination information,
and the controller determines whether a current location is a destination based on the location information and the destination information, and generates a drive video from a departure point to a destination.
제1항에 있어서, 상기 제어부는,
상기 외부의 영상 캡쳐 시, 캡쳐 시점의 차량의 위치 정보를 확인하고 확인된 위치 정보를 캡쳐된 영상과 결합하여 저장하는 것을 더 포함하는 차량.
According to claim 1, wherein the control unit,
When capturing the external image, the vehicle further comprising: checking the location information of the vehicle at the time of capture, combining the identified location information with the captured image and storing the captured image.
삭제delete 제 1항에 있어서, 상기 제어부는,
변속 레버의 위치 정보를 확인하고, 상기 변속 레버의 위치가 파킹 단이면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하고 상기 획득된 영상의 캡쳐 시점의 차량의 위치 정보를 확인하고 확인된 위치 정보를 캡쳐된 영상과 결합하여 저장하는 것을 더 포함하는 차량.
According to claim 1, wherein the control unit,
The position information of the shift lever is checked, and if the position of the shift lever is at the parking stage, the image acquired by the first image acquisition unit is captured, the position information of the vehicle at the time of capturing the acquired image is confirmed, and the confirmed position information The vehicle further comprising combining and storing the captured image.
삭제delete 제 1항에 있어서,
타 차량과의 거리를 검출하는 거리 검출부를 더 포함하고,
상기 제어부는, 상기 검출된 타 차량과의 거리가 기준 거리 이상이고, 상기 주행 속도의 변화가 속도 감소이면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함하는 차량.
The method of claim 1,
Further comprising a distance detection unit for detecting the distance to the other vehicle,
The controller may further include capturing the image acquired by the first image acquisition unit when the detected distance to the other vehicle is equal to or greater than a reference distance and the change in the driving speed is a decrease in speed.
제1항에 있어서,
내부의 영상을 획득하는 제2영상 획득부;를 더 포함하고,
상기 제어부는, 상기 제2영상 획득부에서 획득된 영상에 기초하여 운전자 및 동승자의 행동을 인식하고, 상기 인식된 행동의 행동 정보에 기초하여 상기 획득된 외부의 영상을 캡쳐하고, 상기 캡쳐된 외부의 영상을 연결하여 드라이브 비디오를 생성하는 것을 더 포함하는 차량.
According to claim 1,
A second image acquisition unit for acquiring an image of the interior; further comprising,
The control unit recognizes the behavior of the driver and the passenger based on the image acquired by the second image acquisition unit, captures the acquired external image based on the behavior information of the recognized behavior, and the captured external Concatenating the video of the vehicle further comprising generating a drive video.
제 8항에 있어서,
현재 위치에 대응하는 위치 정보를 수신하는 위치 수신부를 더 포함하고,
상기 제어부는, 상기 획득된 내부의 영상을 영상처리하고, 영상 처리된 영상에서 운전자의 시선을 인식하고, 상기 운전자의 시선이 외부 주시 영역에 기준 시간 위치하면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함하는 차량.
9. The method of claim 8,
Further comprising a location receiving unit for receiving location information corresponding to the current location,
The control unit image-processes the obtained internal image, recognizes the driver's gaze from the image-processed image, and when the driver's gaze is located in the external gaze region for a reference time, the image acquired by the first image acquisition unit The vehicle further comprising capturing
제 9항에 있어서, 상기 제어부는,
상기 운전자 및 상기 동승자 중 적어도 하나의 탑승자가 내부와 외부를 교대로 주시하는 반복 횟수를 확인하고 상기 확인된 반복 횟수가 기준 횟수 이상이면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함하는 차량.
10. The method of claim 9, wherein the control unit,
Checking the number of repetitions in which at least one occupant of the driver and the passenger alternately gazes inside and outside, and capturing the image acquired by the first image acquisition unit if the number of repetitions is greater than or equal to a reference number vehicle that does.
제9항에 있어서, 상기 제어부는,
상기 영상 처리된 영상에서 동승자의 시선을 인식하고, 상기 동승자의 시선이 기준 시간 이상 고정 위치이면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함하는 차량.
The method of claim 9, wherein the control unit,
Recognizing the gaze of a passenger in the image-processed image, and capturing the image acquired by the first image acquisition unit when the gaze of the passenger is at a fixed position for more than a reference time.
제11항에 있어서, 상기 제어부는,
상기 동승자의 모션을 확인하고 상기 확인된 동승자의 모션이 단말기를 이용한 외부 촬영 모션이면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함하는 차량.
The method of claim 11, wherein the control unit,
The vehicle further comprising: checking the motion of the passenger, and capturing the image obtained by the first image acquisition unit if the confirmed motion of the passenger is an external shooting motion using a terminal.
제1항에 있어서, 상기 제어부는,
상기 획득된 외부의 영상을 영상 처리하고 영상 처리된 영상에서 표지판을 인식하고, 상기 인식된 표지판의 영상을 저장하는 것을 더 포함하는 차량.
According to claim 1, wherein the control unit,
The vehicle further comprising image processing the acquired external image, recognizing a sign from the image-processed image, and storing the image of the recognized sign.
제1항에 있어서,
현재 위치에 대응하는 위치 정보를 수신하는 위치 수신부;
목적지 정보를 입력받는 입력부를 더 포함하고,
상기 제어부는, 상기 위치 정보와 목적지 정보에 기초하여 출발지부터 목적지까지 내비게이션 정보를 생성하고 상기 생성된 내비게이션 정보와 현재 위치의 위치 정보에 기초하여 상기 현재 위치가 관심 지역이라고 판단되면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함하는 차량.
According to claim 1,
a location receiver configured to receive location information corresponding to the current location;
Further comprising an input unit for receiving destination information,
The controller generates navigation information from a source to a destination based on the location information and the destination information, and acquires the first image when it is determined that the current location is a region of interest based on the generated navigation information and location information of the current location The vehicle further comprising capturing an image obtained from the unit.
제14항에 있어서, 상기 제어부는,
시동이 오프되면 현재 위치가 목적지인지 판단하고, 상기 현재 위치가 목적지가 아니라고 판단되면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함하는 차량.
15. The method of claim 14, wherein the control unit,
The vehicle further comprising: determining whether the current location is a destination when the engine is turned off; and capturing the image acquired by the first image acquisition unit when it is determined that the current location is not the destination.
차량의 주행 속도를 검출하고,
상기 검출된 주행 속도를 실시간으로 확인하고,
상기 주행 속도가 감소되면 제1영상 획득부를 통해 획득된 외부의 영상을 캡쳐하고,
상기 외부의 영상 캡쳐 시 차량의 위치를 확인하고,
상기 캡쳐된 영상과 상기 차량의 위치를 결합하여 드라이브 영상을 생성하고,
주행이 종료되면 생성된 드라이브 영상을 연결하여 드라이브 비디오를 생성하고,
상기 생성된 드라이브 비디오를 출력하고,
상기 드라이브 영상을 생성하는 것은,
제2영상 획득부에서 획득된 내부의 영상에 기초하여 운전자 및 동승자의 행동 정보를 인식하고,
상기 인식된 행동 정보에 기초하여 상기 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하고,
상기 외부의 영상 캡쳐 시 차량의 위치를 확인하고,
상기 캡쳐된 영상과 상기 차량의 위치를 결합하여 드라이브 영상을 생성하는 것을 포함하고,
상기 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하는 것은,
타 차량과의 거리를 확인하고
상기 확인된 거리가 기준 거리 이상이고,
상기 주행 속도의 변화가 속도 감소이면 상기 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하는 것을 포함하는 차량의 제어 방법.
to detect the vehicle's driving speed,
Check the detected driving speed in real time,
When the driving speed is reduced, an external image acquired through the first image acquisition unit is captured,
Check the location of the vehicle when capturing the external image,
Combining the captured image and the location of the vehicle to generate a drive image,
When driving is finished, the created drive video is linked to create a drive video,
output the generated drive video;
To create the drive image,
Recognizing the behavior information of the driver and passengers based on the internal image acquired by the second image acquisition unit,
Capturing the external image acquired by the first image acquisition unit based on the recognized behavior information,
Check the location of the vehicle when capturing the external image,
Combining the captured image and the location of the vehicle to generate a drive image,
Capturing the external image acquired in the first image acquisition unit,
Check the distance to other vehicles
The identified distance is greater than or equal to the reference distance,
and capturing an external image acquired by the first image acquisition unit when the change in the driving speed is a decrease in speed.
삭제delete 제 16항에 있어서, 상기 주행이 종료되었는지 판단하는 것은,
위치 수신부에 수신된 위치 정보를 확인하고,
상기 확인된 위치 정보와 목적지 정보에 기초하여 현재 위치가 목적지인지 판단하고,
상기 현재 위치가 목적지이면 주행이 종료되었다고 판단하는 것을 포함하는 차량의 제어 방법.
The method of claim 16, wherein the determining whether the driving is finished comprises:
Check the location information received by the location receiver,
Determining whether the current location is a destination based on the identified location information and destination information,
and determining that driving has ended when the current location is the destination.
제 16항에 있어서,
목적지 정보가 수신되면 위치 수신부에 수신된 위치 정보를 확인하고,
상기 확인된 위치 정보와 목적지 정보에 기초하여 출발지부터 목적지까지 내비게이션 정보를 생성하고,
상기 내비게이션 정보에 기초하여 캡쳐 시점인지를 판단하고,
현재가 캡쳐 시점이라고 판단되면 상기 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하는 것을 포함하는 차량의 제어 방법.
17. The method of claim 16,
When the destination information is received, the received location information is checked in the location receiving unit,
generating navigation information from a departure point to a destination based on the identified location information and destination information;
It is determined whether it is a capture point based on the navigation information,
When it is determined that the present is a capture time, the method of controlling a vehicle comprising capturing an external image acquired by the first image acquisition unit.
삭제delete 제16항에 있어서,
상기 속도 감소에 대응하는 태그를 생성하고,
상기 생성된 태그를 상기 캡쳐된 외부의 영상과 결합하여 저장하는 것을 더 포함하는 차량의 제어 방법.
17. The method of claim 16,
generating a tag corresponding to the speed reduction;
The method of controlling a vehicle further comprising storing the generated tag in combination with the captured external image.
제 16항에 있어서,
제2영상획득부에서 획득된 차량의 내부 영상을 영상 처리하고,
상기 영상 처리된 영상에서 사용자의 시선을 인식하고,
상기 인식된 시선에 기초하여 캡쳐 시점인지를 판단하고,
상기 캡쳐 시점이라고 판단되면 상기 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하고,
상기 시선 인식에 대응하는 태그를 생성하고,
상기 생성된 태그와 상기 캡쳐된 영상을 결합하여 저장하는 것을 더 포함하는 차량의 제어 방법.
17. The method of claim 16,
Image processing the internal image of the vehicle acquired in the second image acquisition unit,
Recognizing the user's gaze in the image-processed image,
Determining whether it is a capture point based on the recognized gaze,
When it is determined that it is the capture time, the external image acquired by the first image acquisition unit is captured,
generating a tag corresponding to the gaze recognition;
The method of controlling a vehicle further comprising combining and storing the generated tag and the captured image.
제 16항에 있어서,
제2영상획득부에서 획득된 차량의 내부 영상을 영상 처리하고,
상기 영상 처리된 영상에서 사용자의 모션을 인식하고,
상기 인식된 사용자의 모션이 단말기를 이용한 외부 촬영 모션이면 상기 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하고,
상기 모션 인식에 대응하는 태그를 생성하고,
상기 생성된 태그와 상기 캡쳐된 영상을 결합하여 저장하는 것을 더 포함하는 차량의 제어 방법.
17. The method of claim 16,
Image processing the internal image of the vehicle acquired in the second image acquisition unit,
Recognizing the user's motion in the image-processed image,
If the recognized user's motion is an external shooting motion using a terminal, capture the external image acquired by the first image acquisition unit,
generating a tag corresponding to the motion recognition;
The method of controlling a vehicle further comprising combining and storing the generated tag and the captured image.
제 16항에 있어서,
변속 레버의 위치 정보를 확인하고,
상기 변속 레버의 위치가 파킹 단이면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하고,
상기 획득된 영상의 캡쳐 시점의 차량의 위치 정보를 확인하고,
상기 확인된 위치 정보를 캡쳐된 영상과 결합하여 저장하는 것을 더 포함하는 차량의 제어 방법.
17. The method of claim 16,
Check the position information of the shift lever,
If the position of the shift lever is the parking stage, the image acquired by the first image acquisition unit is captured,
Check the location information of the vehicle at the time of capturing the obtained image,
The method of controlling a vehicle further comprising storing the identified location information in combination with a captured image.
주행 속도를 검출하는 속도 검출부;
내비게이션 모드 및 목적지를 입력받는 입력부;
현재의 위치 정보를 수신하는 위치 수신부;
외부의 영상을 획득하는 영상 획득부;
상기 수신된 위치 정보와 목적지 정보에 기초하여 내비게이션 정보를 생성하고 생기 생성된 내비게이션 정보와 상기 검출된 주행 속도의 변화 정보 중 적어도 하나에 기초하여 상기 획득된 외부의 영상을 캡쳐하고, 현재 위치가 목적지이면 상기 캡쳐된 외부의 영상을 연결하여 드라이브 비디오를 생성하는 제어부;
상기 생성된 드라이브 비디오를 저장하는 저장부; 및
현재 위치에 대응하는 위치 정보를 수신하는 위치 수신부;를 포함하고,
상기 제어부는,
상기 주행 속도의 변화가 속도 감소이면 제1영상 획득부에서 획득된 영상을 캡쳐하고 상기 획득된 영상의 캡쳐 시점의 차량의 위치 정보를 확인하고 확인된 위치 정보를 캡쳐된 영상과 결합하여 저장하고,
상기 제1영상 획득부에서 획득된 외부의 영상을 영상처리하고, 영상 처리된 영상에서 타 차량을 인식하고 인식된 타 차량과의 거리가 기준 거리 이상이고, 상기 주행 속도의 변화가 속도 감소이면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하는 차량.
a speed detection unit for detecting the traveling speed;
an input unit for receiving a navigation mode and a destination;
a location receiving unit for receiving current location information;
an image acquisition unit for acquiring an external image;
The navigation information is generated based on the received location information and the destination information, and the acquired external image is captured based on at least one of the generated navigation information and the detected driving speed change information, and the current location is the destination. a control unit for generating a drive video by connecting the captured external image;
a storage unit for storing the generated drive video; and
Including; a location receiving unit for receiving location information corresponding to the current location;
The control unit is
If the change in the driving speed is a decrease in speed, capture the image acquired by the first image acquisition unit, check the position information of the vehicle at the time of capturing the acquired image, combine the identified position information with the captured image and store,
If the external image acquired by the first image acquisition unit is image-processed, and another vehicle is recognized from the image-processed image, and the recognized distance to another vehicle is greater than or equal to the reference distance, and the change in the driving speed is a decrease in speed, the A vehicle that captures the image acquired by the first image acquisition unit.
KR1020170171794A 2017-12-14 2017-12-14 Vehicle and method for controlling the vehicle KR102443843B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170171794A KR102443843B1 (en) 2017-12-14 2017-12-14 Vehicle and method for controlling the vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170171794A KR102443843B1 (en) 2017-12-14 2017-12-14 Vehicle and method for controlling the vehicle

Publications (2)

Publication Number Publication Date
KR20190071067A KR20190071067A (en) 2019-06-24
KR102443843B1 true KR102443843B1 (en) 2022-09-16

Family

ID=67055874

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170171794A KR102443843B1 (en) 2017-12-14 2017-12-14 Vehicle and method for controlling the vehicle

Country Status (1)

Country Link
KR (1) KR102443843B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008165433A (en) * 2006-12-27 2008-07-17 Fujitsu Ten Ltd Information recording device
JP2009246503A (en) * 2008-03-28 2009-10-22 Denso It Laboratory Inc Drive video image summary apparatus
JP2011028651A (en) * 2009-07-28 2011-02-10 Yupiteru Corp Image recording device for vehicle
JP2015230519A (en) * 2014-06-03 2015-12-21 株式会社デンソー Vehicle memory sharing system, on-vehicle device, and memory sharing program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101430407B1 (en) * 2012-09-20 2014-08-20 주식회사 에이엠아이 Navigation device and method performing route guide by using image informaition of road signs and communication device capable of communicating with the navigation device
KR101495319B1 (en) * 2013-01-10 2015-03-04 주식회사 마루테크 Intelligent video monitoring system and method
KR101561535B1 (en) * 2013-12-24 2015-10-20 전자부품연구원 Black Box Synchronized to Driver's view and Control Method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008165433A (en) * 2006-12-27 2008-07-17 Fujitsu Ten Ltd Information recording device
JP2009246503A (en) * 2008-03-28 2009-10-22 Denso It Laboratory Inc Drive video image summary apparatus
JP2011028651A (en) * 2009-07-28 2011-02-10 Yupiteru Corp Image recording device for vehicle
JP2015230519A (en) * 2014-06-03 2015-12-21 株式会社デンソー Vehicle memory sharing system, on-vehicle device, and memory sharing program

Also Published As

Publication number Publication date
KR20190071067A (en) 2019-06-24

Similar Documents

Publication Publication Date Title
CN106364430B (en) Vehicle control device and vehicle control method
KR102027646B1 (en) System and method for processing traffic sound data to provide driver assistance
CN106027749B (en) Vehicle, mobile terminal and control method thereof
US9959763B2 (en) System and method for coordinating V2X and standard vehicles
CN107315988B (en) System and method for presenting media content in an unmanned vehicle
CN106470274B (en) Apparatus and method for controlling portable device in vehicle
EP3070700B1 (en) Systems and methods for prioritized driver alerts
US20170101054A1 (en) Inter-vehicle communication for roadside assistance
US20180226077A1 (en) Vehicle driving assist and vehicle having same
KR102659059B1 (en) In-vehicle avatar processing apparatus and method of controlling the same
WO2018180756A1 (en) Drive assistance system
KR20160114486A (en) Mobile terminal and method for controlling the same
CN114935334A (en) Method and device for constructing topological relation of lanes, vehicle, medium and chip
KR20210084243A (en) Antenna system for a vehicle telematics unit
KR102443843B1 (en) Vehicle and method for controlling the vehicle
US11050981B2 (en) Vehicle and method of controlling the same
WO2022024602A1 (en) Information processing device, information processing method and program
JP6435798B2 (en) Vehicle information guidance system, vehicle information guidance method, and computer program
KR102531869B1 (en) Data processing device, vehicle having the data processing device, and method for controlling the vehicle
KR102089955B1 (en) Robot for vehicle mounted on the vehcile and method for controlling the robot for vehicle
KR20200027235A (en) Video processor, Vehicle having the video processor and method for controlling the vehicle
CN114842454B (en) Obstacle detection method, device, equipment, storage medium, chip and vehicle
EP4296132A1 (en) Vehicle control method and apparatus, vehicle, non-transitory storage medium and chip
US11438720B2 (en) Three-dimensional (3D) audio interaction for vehicles
CN115297434B (en) Service calling method and device, vehicle, readable storage medium and chip

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant