KR102443843B1 - Vehicle and method for controlling the vehicle - Google Patents
Vehicle and method for controlling the vehicle Download PDFInfo
- Publication number
- KR102443843B1 KR102443843B1 KR1020170171794A KR20170171794A KR102443843B1 KR 102443843 B1 KR102443843 B1 KR 102443843B1 KR 1020170171794 A KR1020170171794 A KR 1020170171794A KR 20170171794 A KR20170171794 A KR 20170171794A KR 102443843 B1 KR102443843 B1 KR 102443843B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- vehicle
- information
- acquisition unit
- acquired
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 52
- 238000001514 detection method Methods 0.000 claims abstract description 23
- 230000033001 locomotion Effects 0.000 claims description 27
- 230000007423 decrease Effects 0.000 claims description 12
- 230000006870 function Effects 0.000 description 42
- 238000004891 communication Methods 0.000 description 41
- 230000006399 behavior Effects 0.000 description 26
- 230000015654 memory Effects 0.000 description 10
- 210000003195 fascia Anatomy 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 239000007858 starting material Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 239000000725 suspension Substances 0.000 description 2
- 238000004378 air conditioning Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000002826 coolant Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000005357 flat glass Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 239000010705 motor oil Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H04N5/23219—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/92—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N5/9201—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/42—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/801—Lateral distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/60—Traffic rules, e.g. speed limits or right of way
Abstract
본 발명의 차량은 주행 속도를 검출하는 속도 검출부; 외부의 영상을 획득하는 제1영상 획득부; 내부의 영상을 획득하는 제2영상 획득부; 제2영상 획득부에서 획득된 영상에 기초하여 운전자 및 동승자의 행동을 인식하고, 인식된 행동의 행동 정보와 검출된 주행 속도의 변화 정보 중 적어도 하나에 기초하여 획득된 외부의 영상을 캡쳐하고, 주행이 종료되면 캡쳐된 외부의 영상을 연결하여 드라이브 비디오를 생성하는 제어부; 및 생성된 드라이브 비디오를 저장하는 저장부를 포함한다. The vehicle of the present invention includes a speed detection unit for detecting a traveling speed; a first image acquisition unit for acquiring an external image; a second image acquisition unit for acquiring an image of the interior; Recognizing the behavior of the driver and the passenger based on the image acquired by the second image acquisition unit, capturing an external image acquired based on at least one of behavior information of the recognized behavior and information on the detected driving speed change, a control unit that generates a drive video by connecting the captured external image when driving is finished; and a storage unit for storing the generated drive video.
Description
본 발명은 외부의 영상을 획득하고 획득된 영상을 저장하기 위한 차량 및 그 제어 방법에 관한 것이다.The present invention relates to a vehicle for acquiring an external image and storing the acquired image, and a control method therefor.
차량은 사람 또는 화물을 운송할 목적으로 차륜을 구동시켜 주행하는 기계로, 도로 위를 이동한다.A vehicle is a machine driven by wheels for the purpose of transporting people or cargo, and it moves on the road.
이러한 차량은 기본적인 주행 기능 외에도 라디오 기능, 오디오 기능, 비디오 기능, 길 안내 기능(내비게이션 기능), 공조 기능, 시트 열선 기능, 외부 촬영 기능(블랙박스 기능) 외부의 사용자용 단말기와의 통신 기능 등 사용자 편의를 위한 부가적인 기능을 더 수행한다.In addition to basic driving functions, these vehicles include radio functions, audio functions, video functions, road guidance functions (navigation functions), air conditioning functions, seat heating functions, external shooting functions (black box functions), communication functions with external user terminals, etc. Additional functions for convenience are further performed.
여기서 라디오 기능은 방송국에서 송신되는 교통 정보, 뉴스 등의 각종 정보나 음악 등을 출력하는 기능이다.Here, the radio function is a function of outputting various information such as traffic information and news transmitted from a broadcasting station, or music.
오디오 기능은 차량에 마련된 카세트 테이프 레코더, CD플레이어 또는 저장매체나 사용자용 단말기와 통신을 수행하는 통신 모듈을 이용하여 카세트 테이프나 CD플레이어에 의해 저장된 오디오 파일을 로딩하여 재생하거나, 저장매체나 사용자용 단말기에 저장된 음악 파일을 로딩하여 재생하는 기능이다.The audio function uses a cassette tape recorder, CD player or a communication module that communicates with a storage medium or user terminal provided in the vehicle to load and play an audio file stored by a cassette tape or CD player, or It is a function to load and play music files stored in the terminal.
또한 차량은 외부와의 통신을 통해 컨텐츠 재생 기능, 인터넷 검색 기능, 통화 기능, 및 위치 검색 기능 등을 수행한다.In addition, the vehicle performs a content reproduction function, an Internet search function, a call function, and a location search function through communication with the outside.
일 측면은 사용자의 행동 정보와 차량의 주행 정보 중 적어도 하나에 기초하여 획득 중인 외부의 영상을 캡쳐하고, 캡쳐된 영상들을 연결하여 드라이브 비디오를 생성 및 출력하는 차량 및 그 제어 방법을 제공한다.One aspect provides a vehicle and a control method thereof for capturing an external image being acquired based on at least one of user behavior information and vehicle driving information, and generating and outputting a drive video by connecting the captured images.
다른 측면은 외부의 영상 캡쳐 시의 사용자의 행동 정보, 위치 정보 및 관심 지역 정보를 태그 정보로 저장하고, 태그 정보를 가진 드라이브 비디오를 생성 및 출력하는 차량 및 그 제어 방법을 제공한다.Another aspect provides a vehicle for storing user behavior information, location information, and area of interest information when capturing an external image as tag information, and generating and outputting a drive video having the tag information, and a control method thereof.
일 측면에 따른 차량은 주행 속도를 검출하는 속도 검출부; 외부의 영상을 획득하는 제1영상 획득부; 검출된 주행 속도의 변화 정보에 기초하여 획득된 외부의 영상을 캡쳐하고, 주행이 종료되면 캡쳐된 외부의 영상을 연결하여 드라이브 비디오를 생성하는 제어부; 및 생성된 드라이브 비디오를 저장하는 저장부를 포함한다.A vehicle according to an aspect includes a speed detector configured to detect a traveling speed; a first image acquisition unit for acquiring an external image; a control unit that captures an external image obtained based on the detected driving speed change information, and generates a drive video by connecting the captured external image when driving is finished; and a storage unit for storing the generated drive video.
일 측면에 따른 차량은 현재 위치에 대응하는 위치 정보를 수신하는 위치 수신부; 목적지 정보를 입력받는 입력부를 더 포함하고, 제어부는, 위치 정보와 목적지 정보에 기초하여 현재 위치가 목적지인지 판단하고 출발지부터 목적지까지 드라이브 비디오를 생성하는 것을 포함한다.According to one aspect, a vehicle includes: a location receiver configured to receive location information corresponding to a current location; The method further includes an input unit for receiving destination information, wherein the controller determines whether the current location is a destination based on the location information and the destination information, and generates a drive video from the source to the destination.
일 측면에 따른 차량의 제어부는, 외부의 영상 캡쳐 시, 캡쳐 시점의 차량의 위치 정보를 확인하고 확인된 위치 정보를 캡쳐된 영상과 결합하여 저장하는 것을 더 포함한다.The control unit of the vehicle according to one aspect further includes, when capturing an external image, confirming the location information of the vehicle at the time of capture, and combining the identified location information with the captured image and storing it.
일 측면에 따른 차량은 현재 위치에 대응하는 위치 정보를 수신하는 위치 수신부를 더 포함하고, 제어부는 주행 속도의 변화가 속도 감소이면 제1영상 획득부에서 획득된 영상을 캡쳐하고 획득된 영상의 캡쳐 시점의 차량의 위치 정보를 확인하고 확인된 위치 정보를 캡쳐된 영상과 결합하여 저장하는 것을 더 포함한다.The vehicle according to one aspect further includes a location receiver configured to receive location information corresponding to a current location, wherein the controller captures the image acquired by the first image acquisition unit when the change in driving speed is a decrease in speed, and captures the acquired image The method further includes confirming the location information of the vehicle at the point of view and combining the identified location information with the captured image and storing.
일 측면에 따른 차량은 제어부는, 변속 레버의 위치 정보를 확인하고, 변속 레버의 위치가 파킹 단이면 제1영상 획득부에서 획득된 영상을 캡쳐하고 획득된 영상의 캡쳐 시점의 차량의 위치 정보를 확인하고 확인된 위치 정보를 캡쳐된 영상과 결합하여 저장하는 것을 더 포함한다.In the vehicle according to one aspect, the control unit checks the position information of the shift lever, and if the position of the shift lever is at the parking stage, captures the image acquired from the first image acquisition unit, and captures the position information of the vehicle at the time of capturing the acquired image. It further includes confirming and storing the confirmed location information in combination with the captured image.
일 측면에 따른 차량의 제어부는 제1영상 획득부에서 획득된 외부의 영상을 영상처리하고, 영상 처리된 영상에서 타 차량을 인식하고 인식된 타 차량과의 거리가 기준 거리 이상이고, 주행 속도의 변화가 속도 감소이면 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함한다.The control unit of the vehicle according to one aspect image-processes the external image acquired by the first image acquisition unit, recognizes another vehicle in the image-processed image, and the recognized distance to the other vehicle is greater than or equal to the reference distance, and If the change is a decrease in speed, the method further includes capturing the image acquired by the first image acquisition unit.
일 측면에 따른 차량은 타 차량과의 거리를 검출하는 거리 검출부를 더 포함하고, 제어부는 검출된 타 차량과의 거리가 기준 거리 이상이고, 주행 속도의 변화가 속도 감소이면 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함한다.The vehicle according to one aspect further includes a distance detection unit for detecting a distance to another vehicle, and the control unit is configured to use the first image acquisition unit when the detected distance to the other vehicle is equal to or greater than a reference distance and the change in driving speed is a decrease in speed. The method further includes capturing the acquired image.
일 측면에 따른 차량은 내부의 영상을 획득하는 제2영상 획득부;를 더 포함하고, 제어부는, 제2영상 획득부에서 획득된 영상에 기초하여 운전자 및 동승자의 행동을 인식하고, 인식된 행동의 행동 정보에 기초하여 획득된 외부의 영상을 캡쳐하고, 캡쳐된 외부의 영상을 연결하여 드라이브 비디오를 생성하는 것을 더 포함한다.The vehicle according to one aspect further includes a second image acquisition unit configured to acquire an image of the interior, wherein the control unit recognizes the behavior of the driver and the passenger based on the image acquired by the second image acquisition unit, and recognizes the behavior The method further includes capturing an external image obtained based on the behavior information of the , and generating a drive video by connecting the captured external image.
일 측면에 따른 차량은 현재 위치에 대응하는 위치 정보를 수신하는 위치 수신부를 더 포함하고, 제어부는 획득된 내부의 영상을 영상처리하고, 영상 처리된 영상에서 운전자의 시선을 인식하고, 운전자의 시선이 외부 주시 영역에 기준 시간 위치하면 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함한다.The vehicle according to one aspect further includes a location receiver configured to receive location information corresponding to a current location, and the controller image-processes the acquired internal image, recognizes the driver's gaze from the image-processed image, and the driver's gaze The method further includes capturing the image acquired by the first image acquisition unit when the reference time is located in the external gaze region.
일 측면에 따른 차량의 제어부는, 운전자 및 동승자 중 적어도 하나의 탑승자가 내부와 외부를 교대로 주시하는 반복 횟수를 확인하고 확인된 반복 횟수가 기준 횟수 이상이면 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함한다.The control unit of the vehicle according to one aspect checks the number of repetitions in which at least one occupant of the driver and the passenger alternately gazes at the inside and the outside, and if the number of repetitions is greater than or equal to the reference number, the image acquired by the first image acquisition unit It further includes capturing.
일 측면에 따른 차량의 제어부는, 영상 처리된 영상에서 동승자의 시선을 인식하고, 동승자의 시선이 기준 시간 이상 고정 위치이면 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함한다.The control unit of the vehicle according to one aspect further includes: recognizing the gaze of the passenger in the image-processed image, and capturing the image obtained by the first image acquisition unit when the gaze of the passenger is at a fixed position for more than a reference time.
일 측면에 따른 차량의 제어부는, 동승자의 모션을 확인하고 확인된 동승자의 모션이 단말기를 이용한 외부 촬영 모션이면 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함한다.The control unit of the vehicle according to one aspect further includes: checking the motion of the passenger and capturing the image obtained by the first image acquisition unit when the confirmed motion of the passenger is an external shooting motion using the terminal.
일 측면에 따른 차량의 제어부는, 획득된 외부의 영상을 영상 처리하고 영상 처리된 영상에서 표지판을 인식하고, 인식된 표지판의 영상을 저장하는 것을 더 포함한다.The control unit of the vehicle according to one aspect further includes image processing the acquired external image, recognizing a sign from the image-processed image, and storing the image of the recognized sign.
일 측면에 따른 차량은 현재 위치에 대응하는 위치 정보를 수신하는 위치 수신부; 목적지 정보를 입력받는 입력부를 더 포함하고, 제어부는 위치 정보와 목적지 정보에 기초하여 출발지부터 목적지까지 내비게이션 정보를 생성하고 생성된 내비게이션 정보와 현재 위치의 위치 정보에 기초하여 현재 위치가 관심 지역이라고 판단되면 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함한다.According to one aspect, a vehicle includes: a location receiver configured to receive location information corresponding to a current location; Further comprising an input unit for receiving destination information, the control unit generates navigation information from the origin to the destination based on the location information and the destination information, and determines that the current location is an area of interest based on the generated navigation information and the location information of the current location The method further includes capturing the image acquired by the first image acquisition unit.
일 측면에 따른 차량의 제어부는 시동이 오프되면 현재 위치가 목적지인지 판단하고, 현재 위치가 목적지가 아니라고 판단되면 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함한다.The control unit of the vehicle according to one aspect further includes: when the engine is turned off, determining whether the current location is the destination;
다른 측면에 따른 차량의 제어 방법은, 차량의 주행 속도를 검출하고,검출된 주행 속도를 실시간으로 확인하고, 주행 속도가 감소되면 제1영상 획득부를 통해 획득된 외부의 영상을 캡쳐하고, 외부의 영상 캡쳐 시 차량의 위치를 확인하고, 캡쳐된 영상과 차량의 위치를 결합하여 드라이브 영상을 생성하고, 주행이 종료되면 생성된 드라이브 영상을 연결하여 드라이브 비디오를 생성하고, 생성된 드라이브 비디오를 출력한다.A vehicle control method according to another aspect includes detecting a driving speed of a vehicle, checking the detected driving speed in real time, and capturing an external image acquired through a first image acquisition unit when the driving speed is reduced, and When capturing an image, the location of the vehicle is checked, the captured image is combined with the location of the vehicle to create a drive image, and when driving is finished, the generated drive image is connected to generate a drive video, and the generated drive video is output. .
드라이브 영상을 생성하는 것은, 제2영상 획득부에서 획득된 내부의 영상에 기초하여 운전자 및 동승자의 행동 정보를 인식하고, 인식된 행동 정보에 기초하여 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하고, 외부의 영상 캡쳐 시 차량의 위치를 확인하고, 캡쳐된 영상과 차량의 위치를 결합하여 드라이브 영상을 생성하는 것을 포함한다.Generating the drive image may include recognizing the behavior information of the driver and passenger based on the internal image acquired by the second image acquiring unit, and using the external image acquired by the first image acquiring unit based on the recognized behavior information. capturing, confirming the location of the vehicle when capturing an external image, and generating a drive image by combining the captured image and the location of the vehicle.
주행이 종료되었는지 판단하는 것은, 위치 수신부에 수신된 위치 정보를 확인하고, 확인된 위치 정보와 목적지 정보에 기초하여 현재 위치가 목적지인지 판단하고, 현재 위치가 목적지이면 주행이 종료되었다고 판단하는 것을 포함한다.Determining whether the driving is finished includes checking the location information received from the location receiving unit, determining whether the current location is a destination based on the confirmed location information and the destination information, and determining whether the current location is the destination, determining that the driving is finished do.
차량의 제어 방법은 목적지 정보가 수신되면 위치 수신부에 수신된 위치 정보를 확인하고, 확인된 위치 정보와 목적지 정보에 기초하여 출발지부터 목적지까지 내비게이션 정보를 생성하고, 내비게이션 정보에 기초하여 캡쳐 시점인지를 판단하고, 현재가 캡쳐 시점이라고 판단되면 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하는 것을 포함한다.When the destination information is received, the vehicle control method checks the received location information in the location receiving unit, generates navigation information from the source to the destination based on the confirmed location information and the destination information, and determines whether it is a capture point based on the navigation information. and when it is determined that the present is the capture time, capturing an external image acquired by the first image acquisition unit.
제1영상 획득부에서 획득된 외부의 영상을 캡쳐하는 것은, 타 차량과의 거리를 확인하고, 확인된 거리가 기준 거리 이상이고, 주행 속도의 변화가 속도 감소이면 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하는 것을 포함한다.Capturing the external image acquired by the first image acquisition unit is to check the distance to another vehicle, and if the confirmed distance is equal to or greater than the reference distance, and the change in driving speed is a decrease in speed, the This includes capturing an external image.
차량의 제어 방법은 속도 감소에 대응하는 태그를 생성하고, 생성된 태그를 캡쳐된 외부의 영상과 결합하여 저장하는 것을 더 포함한다.The control method of the vehicle further includes generating a tag corresponding to the speed reduction, combining the generated tag with a captured external image and storing the generated tag.
차량의 제어 방법은, 제2영상획득부에서 획득된 차량의 내부 영상을 영상 처리하고, 영상 처리된 영상에서 사용자의 시선을 인식하고, 인식된 시선에 기초하여 캡쳐 시점인지를 판단하고, 캡쳐 시점이라고 판단되면 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하고, 시선 인식에 대응하는 태그를 생성하고, 생성된 태그와 캡쳐된 영상을 결합하여 저장하는 것을 더 포함한다.The control method of the vehicle image-processes the internal image of the vehicle acquired by the second image acquisition unit, recognizes the user's gaze from the image-processed image, determines whether it is a capture point based on the recognized gaze, and captures the time of capture. When it is determined that , the method further includes capturing an external image acquired by the first image acquisition unit, generating a tag corresponding to gaze recognition, and combining the generated tag with the captured image and storing the captured image.
차량의 제어 방법은 제2영상획득부에서 획득된 차량의 내부 영상을 영상 처리하고, 영상 처리된 영상에서 사용자의 모션을 인식하고, 인식된 사용자의 모션이 단말기를 이용한 외부 촬영 모션이면 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하고,션 인식에 대응하는 태그를 생성하고, 생성된 태그와 캡쳐된 영상을 결합하여 저장하는 것을 더 포함한다.The vehicle control method image-processes the internal image of the vehicle acquired by the second image acquisition unit, recognizes the user's motion in the image-processed image, and if the recognized user's motion is an external shooting motion using the terminal, the first image The method further includes capturing the external image acquired by the acquisition unit, generating a tag corresponding to the recognition of the caption, and combining the generated tag with the captured image and storing the captured image.
차량의 제어 방법은 변속 레버의 위치 정보를 확인하고, 변속 레버의 위치가 파킹 단이면 제1영상 획득부에서 획득된 영상을 캡쳐하고, 획득된 영상의 캡쳐 시점의 차량의 위치 정보를 확인하고, 확인된 위치 정보를 캡쳐된 영상과 결합하여 저장하는 것을 더 포함한다.The control method of the vehicle checks the position information of the shift lever, captures the image obtained from the first image acquisition unit when the position of the shift lever is the parking stage, checks the position information of the vehicle at the time of capturing the acquired image, The method further includes storing the identified location information in combination with the captured image.
또 다른 측면에 따른 차량은 주행 속도를 검출하는 속도 검출부; 내비게이션 모드 및 목적지를 입력받는 입력부; 현재의 위치 정보를 수신하는 위치 수신부; 외부의 영상을 획득하는 영상 획득부; 수신된 위치 정보와 목적지 정보에 기초하여 내비게이션 정보를 생성하고 생기 생성된 내비게이션 정보와 검출된 주행 속도의 변화 정보 중 적어도 하나에 기초하여 획득된 외부의 영상을 캡쳐하고, 현재 위치가 목적지이면 캡쳐된 외부의 영상을 연결하여 드라이브 비디오를 생성하는 제어부; 및 생성된 드라이브 비디오를 저장하는 저장부를 포함한다.A vehicle according to another aspect includes a speed detector configured to detect a traveling speed; an input unit for receiving a navigation mode and a destination; a location receiving unit for receiving current location information; an image acquisition unit for acquiring an external image; The navigation information is generated based on the received location information and the destination information, and an external image obtained based on at least one of the generated navigation information and the detected driving speed change information is captured, and if the current location is the destination, the captured a control unit for generating a drive video by connecting an external image; and a storage unit for storing the generated drive video.
본 발명은 사용자의 행동 정보와 차량의 주행 정보 중 적어도 하나에 기초하여 자동으로 드라이브 비디오를 생성함으로써 편리하고 용이하게 드라이브 비디오를 생성할 수 있다. The present invention can conveniently and easily create a drive video by automatically generating a drive video based on at least one of user behavior information and vehicle driving information.
또한 본 발명은 외부의 영상과 태그를 조합하여 드라이브 비디오를 생성하기 때문에 드라이브 비디오 재생 시, 각 영상의 위치 및 각 영상의 캡쳐 이유를 사용자가 용이하게 인식할 수 있다.In addition, since the present invention creates a drive video by combining an external image and a tag, the user can easily recognize the location of each image and the reason for capturing each image when playing the drive video.
또한 본 발명은 저장된 드라이브 비디오에서 어느 하나의 영상을 검색할 때 태그를 이용할 수 있기 때문에 검색하고자 하는 영상을 신속하고, 편리하고 정확하게 검색할 수 있다.In addition, since the present invention can use a tag when searching for any one image from the stored drive video, it is possible to quickly, conveniently and accurately search for an image to be searched.
본 발명은 의식 및 무의식적으로 운전자가 바라 본 장면에 대한 영상을 이용하여 드라이브(여행) 비디오를 만들기 때문에 운전자가 교감하는 드라이브 비디오를 만들 수 있고, 운전자의 추억이 깃든 드라이브 비디오를 만들 수 있으며, 추후 운전자가 드라이브 히스토리를 용이하게 알도록 할 수 있다. Since the present invention creates a drive (travel) video using the image of the scene seen by the driver consciously and unconsciously, it is possible to create a drive video that the driver can interact with, and it is possible to create a drive video with the driver's memories, and later It can make it easy for the driver to know the drive history.
본 발명은 차량을 이용하여 여행하는 경우, 여행 이후에 여행 비디오를 자동으로 만들 수 있어 사용자의 편의성을 향상시킬 수 있고, 남기고 싶거나 알리고 싶은 장소들의 영상을 캡쳐하여 위치 정보와 함께 저장함으로써 영상 검색이 용이하고, 영상 편집에 소요되는 시간을 줄일 수 있다.According to the present invention, when traveling using a vehicle, it is possible to automatically create a travel video after the trip, thereby improving user convenience, and capturing images of places that you want to leave or inform and store them together with location information to search for images. This is easy, and the time required for video editing can be reduced.
본 발명은 영상을 캡쳐하고자 할 때 의도적으로 주행 속도를 줄임으로써 영상의 캡쳐 시점을 조정할 수 있고 이로 인해 개인화된 서비스를 제공할 수 도 있다. 이는 소셜미디어의 발달에 따라 운전자에게 큰 편의를 제공할 수 있으며, 차량의 상품성을 향상시킬 수 있고, 나아가 사용자의 만족도를 높일 수 있으며 사용자의 편리성, 신뢰성을 향상시킬 수 있고 제품의 경쟁력을 확보할 수 있다.The present invention can adjust the capture time of the image by intentionally reducing the driving speed when capturing the image, thereby providing a personalized service. This can provide great convenience to the driver according to the development of social media, improve the marketability of the vehicle, and further increase user satisfaction, improve user convenience and reliability, and secure product competitiveness. can do.
도 1은 실시 예에 따른 차량의 외장 예시도이다.
도 2는 도 1에 도시된 차량의 내장 예시도이다.
도 3은 실시 예에 따른 차량의 제어 구성도이다.
도 4는 실시 예에 따른 차량에 마련된 제어부의 상세 구성도이다.
도 5는 실시 예에 따른 차량의 제어 순서도이다.
도 6 및 도 7은 실시 예에 따른 차량의 영상 캡쳐 예시도이다.
도 8 내지 도 10은 실시 예에 따른 차량의 드라이브 비디오의 생성 예시도이다.1 is an exemplary view of the exterior of a vehicle according to an embodiment.
FIG. 2 is an exemplary view showing the interior of the vehicle shown in FIG. 1 .
3 is a control configuration diagram of a vehicle according to an embodiment.
4 is a detailed configuration diagram of a control unit provided in a vehicle according to an embodiment.
5 is a control flowchart of a vehicle according to an exemplary embodiment.
6 and 7 are diagrams illustrating image capture of a vehicle according to an embodiment.
8 to 10 are diagrams illustrating generation of a drive video of a vehicle according to an embodiment.
이하, 첨부된 도면을 참조하여 본 발명에 대해 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
차량(100)은 외장(110)과 내장(120)을 갖는 차체(Body)와, 차체를 제외한 나머지 부분으로 주행에 필요한 기계 장치가 설치되는 차대(Chassis)를 포함한다.The
도 1 에 도시된 바와 같이 차체의 외장(110)은 프론트 패널(111), 본네트(112), 루프 패널(113), 리어 패널(114), 전후좌우의 도어(115), 전후좌우의 도어(115)에 개폐 가능하게 마련되고, 차량의 정면과 후면에 고정 설치된 창문(116)을 포함한다. 1, the
창문(116)는 운전석의 도어에 마련된 운전석 측 창문(116a)과, 동승석의 도어에 마련된 동승석 측 창문(116b)과, 대시보드와 본네트에 마련된 정면 창문(116c)을 포함할 수 있다.The
차체의 외장은 전방시야를 주시하면서 주변의 정보를 쉽게 볼 수 있도록 하고 다른 차량과 보행자에 대한 신호, 커뮤니케이션의 기능을 수행하는 램프(117)와, 전후좌우 도어의 윈도우 글래스 사이의 경계에 마련된 필러와, 운전자에게 차랑(100) 후방의 시야를 제공하는 사이드 미러(118)를 포함한다.The exterior of the car body makes it easy to see information about the surroundings while keeping an eye on the front sight, and a pillar provided at the boundary between the
사이드 미러(118)는 운전석 측에 마련된 좌측 사이드 미러(118a)와, 동승석 측에 마련된 우측 사이드 미러(118b)를 포함한다.The
차체의 외장은 GPS 위성, 방송국 등의 신호를 수신하고, 다른 차량과의 통신(V2V) 및 인프라와의 통신(V2I) 등의 무선 차량 네트워크(V2X: Vehicle to everything)를 수행하기 위한 안테나(119)를 더 포함한다.The exterior of the body receives signals from GPS satellites and broadcasting stations, and an
도 2에 도시된 바와 같이, 차체의 내장(120)은 탑승자가 앉는 시트(121)와, 대시 보드(122)와, 대시 보드 상에 배치되고 타코미터, 속도계, 냉각수 온도계, 연료계, 방향전환 지시등, 상향등 표시등, 경고등, 안전벨트 경고등, 주행 거리계, 주행 기록계, 변속 레버 표시등, 도어 열림 경고등, 엔진 오일 경고등, 연료부족 경고등이 배치된 계기판(즉 클러스터, 123)과, 공기조화기의 송풍구와 조절판이 배치된 센터 페시아(124)와, 센터 페시아(124)에 마련되고 오디오 기기와 공기 조화기의 동작 명령을 입력받는 헤드유닛(125)과, 센터 페시아(124)에 마련되고 시동 명령을 입력받는 시동버튼과, 센터 페시아(124)에 마련되고 저장 장치(300) 및 단말기가 연결되는 멀티 인터페이스를 포함한다.As shown in FIG. 2 , the
시트(121)는 운전자가 앉는 운전석 시트(121a)와, 동승자가 앉는 동승자 시트(121b)를 포함할 수 있다.The
차량은 센터페시아(124)에 마련되고 조작 위치를 입력받는 변속 레버(126)와, 변속 레버의 주변 또는 헤드 유닛(125)에 위치하고 전자식 주차 브레이크 장치(미도시)의 동작 명령을 입력받는 주차 버튼(EPB 버튼)을 더 포함한다.The vehicle includes a
차랑(100)은 각종 기능의 동작 명령을 입력받기 위한 입력부(127)를 더 포함할 수 있다.The
입력부(127)는 헤드 유닛(125) 및 센터페시아(124)에 마련될 수 있고, 각종 기능의 동작 온 오프 버튼, 각종 기능의 설정값을 변경하기 위한 버튼 등과 같은 적어도 하나의 물리적인 버튼을 포함할 수 있다. The
입력부(127)는 사용자 인터페이스(129)의 표시부에 표시된 커서의 이동 명령 및 선택 명령 등을 입력하기 위한 조그 다이얼(미도시) 또는 터치 패드(미도시)를 더 포함하는 것도 가능하다. The
여기서 조그 다이얼 또는 터치 패드는 센터페시아 등에 마련될 수 있다.Here, the jog dial or the touch pad may be provided on a center fascia or the like.
차랑(100)은 헤드 유닛(125)에 마련되고, 차량에서 수행 중인 기능에 대한 정보 및 사용자에 의해 입력된 정보를 표시하는 표시부(128)를 더 포함할 수 있다.The
차량은 사용자의 사용 편의를 위한 사용자 인터페이스(129)를 더 포함한다.The vehicle further includes a
사용자 인터페이스(129)는 오디오 기능, 비디오 기능, 내비게이션 기능, 방송 기능(DMB 기능), 라디오 기능, 컨텐츠 재생 기능, 인터넷 검색 기능 중 사용자에 의해 선택된 적어도 하나의 기능에 대한 영상을 표시한다. The
사용자 인터페이스(129)는 대시 보드 상에 매립식 또는 거치식으로 설치될 수 있다. The
사용자 인터페이스(129)는 표시부로 디스플레이 패널을 포함할 수 있고, 입력부로 터치 패널을 더 포함할 수 있다.The
즉 사용자 인터페이스(129)는 디스플레이 패널만을 포함할 수 있고, 디스플레이 패널에 터치 패널이 일체화된 터치 스크린을 포함할 수도 있다.That is, the
사용자 인터페이스(129)는 디스플레이 패널만으로 구현된 경우, 센터페시아에 마련된 입력부(127)를 이용하여 디스플레이 패널에 표시된 버튼을 선택받을 수 있다.When the
사용자 인터페이스(129)는 터치 스크린으로 구현된 경우, 터치 패널을 통해 사용자의 동작 명령을 직접 입력받을 수 있다.When the
이와 같이 사용자 인터페이스(129)는 표시부를 포함할 수 있고, 입력부를 더 포함할 수 있다.As such, the
차량의 차대는 차체(110, 120)를 지지하는 틀로, 전후좌우에 각 배치된 차륜(131)과, 전후좌우의 차륜(131)에 구동력을 인가하기 위한 동력 장치, 조향 장치, 전후좌우의 차륜(131)에 제동력을 인가하기 위한 제동 장치 및 차량의 서스펜션을 조절하기 위한 현가 장치가 마련될 수 있다.The chassis of the vehicle is a frame that supports the
차량(100)은 주행 방향을 조절하기 위한 조향 장치의 스티어링 휠(132)과, 사용자의 제동 의지에 따라 사용자에 의해 가압되는 브레이크 페달(133)과, 사용자의 가속 의지에 따라 사용자에 의해 가압되는 엑셀러레이터 페달(134)을 포함할 수 있다(도 2 참조).The
차량은 외부의 영상으로, 도로의 주변 영상을 획득하기 위한 제1영상 획득부(141)를 더 포함할 수 있다. 여기서 제1영상 획득부(141)는 블랙박스에 마련된 영상 획득부일 수 있고, 자율 주행을 위한 자율 주행 제어 장치의 영상 획득부일 수도 있으며, 장애물 검출을 위한 영상 획득부일 수도 있다.The vehicle may further include a first
이러한 제1영상 획득부(141)는 전면의 창문(116c)에 마련되되 차량 내부의 창문에 마련되어 차량의 외부를 향하도록 마련될 수도 있고, 차량 내부의 룸미러에 마련되되 차량의 외부를 향하도록 마련될 수도 있으며, 루프 패널(113)의 마련되되 외부로 노출되도록 마련될 수도 있다(도 1 참조). The first
제1영상 획득부(141)는 차량 전방의 영상을 획득하는 전방 카메라뿐만 아니라 차량 좌우 측방의 영상을 획득하는 좌측 카메라와 우측 카메라, 차량 후방의 영상을 획득하는 후방 카메라 중 적어도 하나를 더 포함하는 것도 가능하다. The first
제1영상 획득부(141)는 카메라로, CCD 또는CMOS 이미지 센서를 포함할 수 있고, KINECT(RGB-D 센서), TOF(Structured Light Sensor), 스테레오 카메라(Stereo Camera) 등과 같은 3차원 공간 인식 센서를 포함할 수도 있다.The first
차량(100)은 내부의 각종 전자 장치들 사이의 통신과, 외부 장치와의 통신과, 사용자용 단말기와의 통신 및 저장 매체와의 통신을 위한 통신부(170)를 더 포함할 수 있다(도 3참조).The
여기서 외부 장치는, 서버(300), 사용자용 단말기(200), 저장 장치(미도시) 중 적어도 하나를 포함할 수 있다.Here, the external device may include at least one of the
차량은 장애물과의 거리를 검출하기 위한 거리 검출부(144)를 더 포함할 수 있다(도3 참조).The vehicle may further include a
거리 검출부는 차량의 외장의 전후좌우에 각각 마련될 수 있다. The distance detector may be provided on the front, rear, left, and right sides of the exterior of the vehicle, respectively.
이러한 거리 검출부(144)는 라이더 센서를 포함한다.The
라이다(LiDAR: Light Detection And Ranging)센서는 레이저 레이다(Laser Radar) 원리를 이용한 비접촉식 거리 검출 센서이다.LiDAR (Light Detection And Ranging) sensor is a non-contact distance detection sensor using the principle of laser radar.
거리 검출부(144)는 초음파 센서 또는 레이더 센서를 포함할 수도 있다.The
도 3은 실시 예에 따른 차량의 제어 구성도이고, 도 4는 실시 예에 따른 차량에 마련된 데이터 처리 장치의 제어 구성도이다.3 is a control diagram of a vehicle according to an embodiment, and FIG. 4 is a control diagram of a data processing apparatus provided in a vehicle according to an embodiment.
차량(100)은 입력부(127), 표시부(128), 제1영상획득부(141), 제2영상 획득부(142), 속도 검출부(143), 거리 검출부(144), 시동부(145), 변속 레버 정보 수신부(146), 위치 수신부(147), 사운드 입력부(148), 사운드 출력부(149), 제어부(150), 저장부(160) 및 통신부(170)를 포함한다.The
입력부(127)는 비디오 생성 모드의 시작 및 종료 명령을 입력받고, 드라이브 비디오의 검색 명령을 입력받는 것도 가능하며, 드라이브 비디오의 편집 명령을 입력받는 것도 가능하다.The
입력부(127)는 내비게이션 모드의 온 오프 명령을 입력받고, 목적지의 정보를 입력받는 것도 가능하다.The
이러한 입력부(127)는 헤드 유닛에 마련된 복수 개의 버튼을 포함할 수 있고, 스티어링 휠에 마련된 복수 개의 버튼을 포함할 수 있으며, 스티어링 휠 주변의 조작 레버(미도시)에 마련된 버튼을 포함할 수 있고, 센터페시아에 마련된 터치 패드 및 조그 다이얼을 포함할 수 있으며, 사용자 인터페이스(129)에 마련된 입력부를 포함할 수 있다.The
여기서 사용자 인터페이스(129)에 마련된 입력부는 터치패널일 수 있다.Here, the input unit provided on the
표시부(128)는 비디오 생성 모드의 온 오프 상태를 표시할 수 있고, 내비게이션 모드의 온 오프 상태를 표시할 수 있다.The
표시부(128)는 저장부에 저장된 드라이브 비디오를 표시할 수 있고, 검색 결과에 대응하는 영상을 표시할 수 있으며 편집된 영상을 표시할 수 있다.The
표시부(128)는 저장부에 저장된 드라이브 비디오의 전송 상태(즉, 전송 중, 전송완료 등)를 표시하는 것도 가능하다.The
표시부(128)는 사용자 인터페이스(129)에 마련된 표시부일 수 있다.The
아울러 사용자 인터페이스의 표시부는 내비게이션 모드가 수행되면 차량의 현재 위치부터 일정 범위 내의 지도 영상을 표시하고, 목적지 정보가 입력되면 현재 위치부터 목적지까지의 경로 정보가 매치된 지도 정보를 표시하고, 길 안내 정보를 표시한다.In addition, the display unit of the user interface displays a map image within a certain range from the current location of the vehicle when the navigation mode is performed, and displays map information that matches route information from the current location to the destination when destination information is input, and route guidance information to display
사용자 인터페이스의 표시부는 맵 표시 모드가 선택되면 차량의 현재 위치부터 일정 범위 내의 지도 영상을 표시한다.The display unit of the user interface displays a map image within a predetermined range from the current location of the vehicle when the map display mode is selected.
제1영상 획득부(141)는 차량 주변의 물체에 대한 형상 정보를 전기적인 영상 신호로 변환하는 것으로, 자 차량의 현재 위치에서 자 차량 외부의 환경, 특히 차량이 주행하는 도로 및 그 주변의 자 차량의 전방, 좌우의 측방의 물체의 형상 정보에 대응하는 영상 신호를 제어부(150)로 전송한다.The first
제1영상획득부(141)는 후방 카메라, 블랙 박스의 카메라일 수 있고, 자율 주행을 위해 마련된 자율 주행 제어 장치의 카메라일 수 있다.The first
즉 제1영상 획득부(141)는 차량 외부의 도로 및 도로 주변의 영상을 실시간으로 획득하는 영상 획득 기능을 수행한다.That is, the first
제1영상 획득부(141)는 동작 오프 상태에서 제어부(150)의 제어 명령에 기초하여 온 동작되어 외부의 영상을 획득하는 것도 가능하다. The first
제2영상 획득부(142)는 차량 내부의 물체의 형상 정보를 전기적인 영상 신호로 변환하는 것으로, 차량 내부의 운전자 및 동승자 등의 탑승자를 검출하고 검출된 탑승자의 형상 정보에 대응하는 영상 신호를 제어부(150)로 전송한다.The second
제2영상획득부(142)는 차량 내부를 촬영하도록 설치된 내부 카메라일 수 있다.The second
즉 제2영상 획득부(142)는 차량 내부의 영상을 실시간으로 획득하는 영상 획득 기능을 수행한다.That is, the second
속도 검출부(143)는 차량의 주행 정보를 검출하기 위한 것으로서, 차량의 주행 속도를 검출한다.The
속도 검출부(143)는 차량의 복수 개의 휠에 각각 마련된 복수 개의 휠 속도 센서를 포함할 수 있고, 차량의 가속도를 검출하는 가속도 센서를 포함할 수 있다.The
거리 검출부(144)는 자 차량의 전방에 위치한 전방의 타 차량과의 거리를 검출하고, 자 차량의 후방에 위치한 후방의 타 차랑과의 거리를 검출한다.The
시동부(145)는 차량의 시동 온 신호 및 차량의 시동 오프 신호를 수신하고 수신된 시동 온 신호 및 시동 오프 신호에 대응하는 시동 온오프 정보를 제어부(150)에 전송한다.The
변속 레버 정보 수신부(146)는 변속 레버의 조작 신호를 수신하고 수신된 조작 신호에 대응하는 변속 레버의 조작 신호에 대응하는 단의 위치 정보를 제어부(150)에 전송한다.The shift lever
변속 레버가 조작될 수 있는 위치는, 파킹 단(P단), 중립 단(N단), 전진 주행 단(D단), 후진 주행 단(R단)을 포함한다. 즉 변속 레버 정보 수신부는, 파킹 단(P단), 중립 단(N단), 전진 주행 단(D단), 후진 주행 단(R단)의 위치 정보를 제어부(150)에 전송한다.Positions at which the shift lever may be operated include a parking stage (P stage), a neutral stage (N stage), a forward driving stage (D stage), and a reverse driving stage (R stage). That is, the shift lever information receiver transmits the position information of the parking stage (P stage), the neutral stage (N stage), the forward driving stage (D stage), and the reverse driving stage (R stage) to the
위치 수신부(147)는 GPS(Global Positioning System) 수신부와, GPS 수신부에서 획득한 GPS 신호를 신호 처리하는 신호 처리부를 포함한다.The
여기서 GPS(Global Positioning System) 수신부는 복수의 GPS 위성의 신호를 수신하는 안테나 모듈을 포함한다. 이 안테나 모듈은 차량의 외장에 마련된 안테나(119)에 마련될 수 있다.Here, the GPS (Global Positioning System) receiver includes an antenna module for receiving signals from a plurality of GPS satellites. This antenna module may be provided in the
신호 처리부는 복수의 GPS위성의 위치 신호에 대응하는 거리 및 시간 정보를 이용하여 현재의 위치를 획득하는 소프트웨어와, 획득된 차량의 위치 데이터를 출력하는 출력부를 포함한다.The signal processing unit includes software for obtaining a current position by using distance and time information corresponding to position signals of a plurality of GPS satellites, and an output unit for outputting the obtained vehicle position data.
위치 수신부(147)는 현재의 위치에 대한 위치 데이터를 제어부(150)에 전송한다. The
사운드 입력부(148)는 차량 내부의 사운드를 입력받는다. The
여기서 차량 내부의 사운드는 사용자의 음성일 수 있다. Here, the sound inside the vehicle may be a user's voice.
사운드 입력부(148)는 음파를 전기 신호로 바꾸는 마이크로폰을 포함할 수 있다. 여기서 마이크로 폰은 하나 또는 두 개 이상일 수 있고, 하나의 마이크로 폰은 지향성일 수 있다.The
그리고 두 개 이상의 마이크로 폰은 마이크로 폰 어레이로 구현될 수 있다.And two or more microphones may be implemented as a microphone array.
사운드 출력부(149)는 드라이브 비디오의 생성 완료 및 전송 완료에 대한 완료 정보를 사운드로 출력한다.The
또한 사운드 출력부(149)는 수행 중인 기능에 대응하는 오디오 데이터를 사운드로 출력한다. 여기서 수행 중인 기능은 라디오 기능, 컨텐츠 재생 및 음악 재생에 대응하는 오디오 기능, 내비게이션 기능일 수 있다.Also, the
이러한 사운드 출력부(149)는 스피커를 포함할 수 있다.The
스피커는 증폭된 저주파의 음성 신호를 오리지널의 음파로 변환시키고 공기에 소밀파를 발생시켜 음파를 복사함으로써 오디오 데이터들을 사용자가 들을 수 있는 사운드로 출력한다.The speaker converts the amplified low-frequency audio signal into an original sound wave, generates a small wave in the air, and copies the sound wave, thereby outputting audio data as sound that the user can hear.
제어부(150)는 내비게이션 모드의 온 명령이 수신되고 목적지 정보가 수신되면 현재 위치를 확인하고, 현재 위치와 목적지 정보에 기초하여 경로 정보를 생성하고, 지도 정보에 생성된 경로 정보를 매칭시키며 매칭된 지도 정보와 경로 정보의 출력을 제어하고 길 안내 정보의 출력을 제어한다.When the on command of the navigation mode is received and the destination information is received, the
제어부(150)는 경로 정보 생성 시 복수 개의 경로 정보를 생성 및 출력할 수 있고, 복수 개의 경로 정보 중 사용자에 의해 선택된 어느 하나의 경로 정보를 저장하고 저장된 경로 정보에 기초하여 내비게이션 기능을 수행할 수 있다.The
제어부(150)는 비디오 생성 모드의 수행 시작 명령이 수신되면 제1, 2 영상획득부(141, 142)의 동작을 활성화시키고, 제1, 2 영상획득부(141, 142)에서 획득된 영상의 영상 정보와 속도 검출부(143)에서 검출된 주행 속도의 속도 정보에 기초하여 제1영상획득부에서 획득되는 영상 중 일부 영상을 캡쳐하고 캡쳐된 영상들을 연결하여 드라이브 비디오를 생성한다.The
제어부(150)는 생성된 드라이브 비디오를 저장하고 저장된 드라이브 비디오를 단말기(200) 및 서버(300) 중 적어도 하나에 전송한다.The
이러한 제어부(150)는 제1영상 획득부(141)에서 획득되는 영상의 캡쳐 시점(즉 캡쳐 타이밍)을 획득하기 위해 주행 정보와 사용자의 행동 정보를 분석하는 분석부(151)와, 분석부의 분석 결과에 기초하여 제1영상 획득부(141)에서 획득되는 영상의 일부 영상을 캡쳐하는 캡쳐부(152)와, 캡쳐된 영상의 영상 정보에 태그 정보를 결합시켜 드라이브 비디오를 생성하는 생성부(154)를 포함할 수 있다. The
분석부(151)는 캡쳐 시점을 획득하기 위해 차량의 주행 정보를 분석하는 주행 정보 분석부(151a), 캡쳐 시점을 획득하기 위해 사용자의 행동을 분석하는 행동 정보 분석부(151b)를 포함한다.The
주행 정보 분석부(151a)는 속도 검출부(143)에서 검출된 주행 속도에 기초하여 캡쳐 시점인지 판단한다.The driving
주행 정보 분석부(151a)는 속도 검출부(143)에서 검출된 주행 속도와 거리 검출부(144)에서 검출된 타 차량과의 거리에 기초하여 캡쳐 시점인지를 판단하는 것도 가능하다.The driving
주행 정보 분석부(151a)는 시동부(145)에서 전송된 시동 오프 정보와, 변속 레버 정보 수신부(146)에 수시된 파킹 단 정보에 기초하여 캡쳐 시점인지를 판단하는 것도 가능하다.The driving
주행 정보 분석부(151a)는 내비게이션 정보와 현재 위치 정보에 기초하여 현재 위치가 관심 지역인지 판단하고, 현재 위치가 관심 지역이라고 판단되면 캡쳐 시점이라고 판단한다.The driving
여기서 내비게이션 정보는 지도 정보, 경로 정보, 길 안내 정보 등을 포함할 수 있고, 지도 정보는 도로명, 도로 번호, 도로의 위치 정보를 포함할 수 있다.Here, the navigation information may include map information, route information, road guidance information, and the like, and the map information may include a road name, a road number, and location information of a road.
주행 정보 분석부(151a)는 제1영상 획득부(141)에서 획득된 도로의 영상을 영상 처리하고 영상 처리된 영상에서 표지판을 인식하고 인식된 표지판의 문자 및 기호를 인식하며 인식된 문자와 기호에 기초하여 캡쳐 시점인지를 판단한다.The driving
행동 정보 분석부(151b)는 제2영상 획득부(142)에서 획득된 영상에서 사용자의 시선을 인식하고, 사용자의 모션을 인식한다.The behavior
행동 정보 분석부(151b)는 인식된 시선이 기준 시간 이상 한 곳을 주시하면 캡쳐 시점이라고 판단하고, 한 곳을 기준 횟수 이상 반복하여 주시하면 캡쳐 시점이라고 판단한다. 여기서 사용자의 시선은 운전자의 시선 및 동승자의 시선 중 적어도 하나일 수 있다.The behavior
행동 정보 분석부(151b)는 운전자의 시선을 인식하고 인식 결과가 운전자가 주행 주시 영역(a1, b1, c1)의 이외의 외부 주시 영역(a2, b2, c2)을 기준 시간 이상 주시한다고 판단되면 캡쳐 시점이라고 판단한다(도 7참조).If the behavior
행동 정보 분석부(151b)는 동승자의 시선을 인식하고 인식 결과가 동승자가 기준 시간 이상 어느 하나의 목표물을 주시한다고 판단되면 캡쳐 시점이라고 판단한다.The behavioral
행동 정보 분석부(151b)는 운전자의 시선을 인식하고 인식 결과가 운전자가 주행 주시 영역(a1, b1, c1)의 이외의 외부 주시 영역(a2, b2, c2)을 기준 횟수 이상 반복하여 주시한다고 판단되면 캡쳐 시점이라고 판단한다(도 7 참조).The behavior
행동 정보 분석부(151b)는 동승자의 시선을 인식하고 인식 결과가 동승자가 기준 횟수 이상 반복하여 어느 하나의 목표물을 주시한다고 판단되면 캡쳐 시점이라고 판단한다.The behavior
행동 정보 분석부(151b)는 인식된 사용자의 모션이 단말기를 이용한 외부 촬영 모션이면 캡쳐 시점이라고 판단한다. 여기서 사용자의 모션은 동승자의 모션일 수 있다.The behavior
행동 정보 분석부(151b)는 사운드 입력부(148)에서 입력된 사운드의 음성 인식을 수행하고, 인식된 음성의 음성 정보 중 감탄사를 인식하고 감탄사가 인식되면 캡쳐 시점이라고 판단하는 것도 가능하다.The behavior
캡쳐부(152)는 분석부(151)로부터 캡쳐 시점에 대한 정보가 수신되면 캡쳐 시점에 제1획득부에서 획득되는 영상을 캡쳐한다.When information on a capture time is received from the
생성부(153)는 위치 수신부에 수신된 위치 정보에 기초하여 캡쳐 시점의 차량의 위치를 확인하고, 확인된 차량의 위치를 태그로 생성하고, 캡쳐 시점의 분석 정보를 태그로 생성하며, 캡쳐된 영상과 태그를 결합하여 드라이브 영상을 생성하고, 주행이 완료되면 주행이 완료되기 전까지 생성된 드라이브 영상을 시간 순으로 연결하여 드라이브 비디오를 생성한다. The generating
분석 정보는, 분석부에서 분석된 주행 정보와 사용자의 행동 정보의 분석 결과에 대응하는 정보일 수 있다.The analysis information may be information corresponding to an analysis result of the driving information analyzed by the analysis unit and the user's behavior information.
예를 들어, 분석 정보는 속도 감소, 정차, 사용자 주시, 관심 지역, 외부 촬영, 사용자 감탄 등을 포함할 수 있다.For example, the analysis information may include speed reduction, stopping, user attention, area of interest, external shooting, user admiration, and the like.
생성부(153)는 드라이브 비디오를 저장부(160)에 저장하거나, 통신부를 통해 외부 장치(200, 300)에 전송한다.The
제어부(150)의 분석부, 캡쳐부 및 생성부는 별개의 칩으로 구현될 수도 있고, 단일 칩으로 구현될 수도 있다.The analysis unit, the capture unit, and the generation unit of the
분석부, 캡쳐부 및 생성부를 가지는 제어부(150)의 제어 구성을 종합적으로 설명하도록 한다.A control configuration of the
제어부(150)는 내비게이션 모드가 수행되면 내비게이션 정보를 생성하고, 생성된 내비게이션 정보에 기초하여 경로가 매칭된 지도 정보 및 길 안내 정보의 출력을 제어하며, 출발지부터 목적지에 도착할 때까지 제1영상획득부에서 획득된 영상 중 일부 영상을 캡쳐하고 캡쳐된 영상들을 연결하여 드라이브 비디오를 생성한다.When the navigation mode is performed, the
제어부(150)는 하루를 단위로 하여 제1영상획득부에서 획득된 영상 중 일부 영상을 캡쳐하고 캡쳐된 영상들을 연결하여 드라이브 비디오를 생성하는 것도 가능하다.The
제어부(150)는 시동 온 시점에서 시동 오프 시점 사이에 제1영상획득부에서 획득된 영상 중 일부 영상을 캡쳐하고 캡쳐된 영상들을 연결하여 드라이브 비디오를 생성하는 것도 가능하다.It is also possible for the
제어부(150)는 차량의 주행 속도를 실시간으로 확인하고 확인된 주행 속도의 변화를 확인하며, 주행 속도가 감속이라고 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. 제어부(150)는 캡쳐 이유인 감속을 태그로 생성하고 생성된 태그와 캡쳐된 영상을 함께 저장하는 것도 가능하다.The
제어부(150)는 차량의 주행 속도를 실시간으로 확인하고 확인된 주행 속도의 변화를 확인하며, 제1영상 획득부(141)에서 획득된 영상에 기초하여 자 차량의 전후방의 타 차량과의 거리를 확인하고, 전후방의 타 차량과의 거리가 기준 거리 이상이면 타 차량과의 거리가 기준 거리 이상으로 일정 시간 이상 유지되는지 판단하고, 타 차량과의 거리가 기준 거리 이상으로 일정 시간 이상 유지되는 상태에서 주행속도가 감소된다고 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. The
제어부(150)는 거리 검출부(144)에서 검출된 검출 정보에 기초하여 자 차량의 전후방의 타 차량과의 거리를 확인하고, 전후방의 타 차량과의 거리가 기준 거리 이상이면 타 차량과의 거리가 기준 거리 이상으로 일정 시간 이상 유지되는지 판단하고, 타 차량과의 거리가 기준 거리 이상으로 일정 시간 이상 유지되는 상태에서 주행속도가 감소된다고 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장하는 것도 가능하다.The
제어부(150)는 내비게이션 정보와 현재 위치의 위치 정보에 기초하여 현재 위치가 관심 지역인지 판단하고 현재 위치가 관심 지역이라고 판단되면 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 확인된 관심 지역의 정보를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. The
제어부(150)는 제1영상 획득부에서 획득된 영상에서 표지판을 인식하고, 인식된 표지판의 문자 및 기호에 기초하여 관심 지역 또는 유명한 지역인지를 판단하고, 표지판이 관심 지역 또는 유명한 지역에 대응하는 표지판이라고 판단되면 표지판의 영상을 캡쳐하고, 표지판의 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하며, 캡쳐된 표지판의 영상과 태그를 함께 저장한다. The
제어부(150)는 시동이 오프되면 내비게이션 정보에 기초하여 현재 위치가 목적지인지 판단하고, 목적지가 아니라고 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. 제어부(150)는 캡쳐 이유인 잠시 정차를 태그로 생성하고 생성된 태그와 캡쳐된 영상을 함께 저장하는 것도 가능하다.When the engine is turned off, the
제어부(150)는 변속 레버의 위치가 파킹 단이라고 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. 제어부(150)는 캡쳐 이유인 잠시 주차를 태그로 생성하고 생성된 태그와 캡쳐된 영상을 함께 저장하는 것도 가능하다.When it is determined that the position of the shift lever is the parking stage, the
제어부(150)는 제2영상획득부에서 획득된 영상을 영상처리하고 영상 처리된 영상에 기초하여 운전자의 시선을 인식하고 운전자의 시선이 주행 주시 영역이 아닌 외부 주시 영역에 기준 시간 이상 머물고 있다고 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. 제어부(150)는 캡쳐 이유인 운전자 외부 주시를 태그로 생성하고 생성된 태그와 캡쳐된 영상을 함께 저장하는 것도 가능하다.The
제어부(150)는 제2영상획득부에서 획득된 영상을 영상처리하고 영상 처리된 영상에 기초하여 운전자의 시선을 인식하고 운전자가 주행 주시 영역이 아닌 외부 주시 영역을 기준 횟수 이상 반복하여 주시한다고 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. 제어부(150)는 캡쳐 이유인 운전자 외부 주시를 태그로 생성하고 생성된 태그와 캡쳐된 영상을 함께 저장하는 것도 가능하다.The
제어부(150)는 제2영상획득부(142)에서 획득된 영상을 영상처리하고 영상 처리된 영상에 기초하여 동승자의 시선을 인식하고 동승자의 시선이 기준 시간 이상 한 곳에 머물러 있다고 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. 제어부(150)는 캡쳐 이유인 동승자 외부 주시를 태그로 생성하고 생성된 태그와 캡쳐된 영상을 함께 저장하는 것도 가능하다.The
제어부(150)는 제2영상획득부(142)에서 획득된 영상을 영상처리하고 영상 처리된 영상에 기초하여 동승자의 시선을 인식하고 동승자가 어느 한 곳을 기준 횟수 이상 반복하여 주시한다고 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. 제어부(150)는 캡쳐 이유인 동승자 외부 주시를 태그로 생성하고 생성된 태그와 캡쳐된 영상을 함께 저장하는 것도 가능하다.The
제어부(150)는 제2영상획득부(142)에서 획득된 영상을 영상처리하고 영상 처리된 영상에 기초하여 동승자의 모션을 인식하고 동승자의 모션이 단말기를 이용한 외부 촬영의 모션이라고 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. 제어부(150)는 캡쳐 이유인 촬영 모션을 태그로 생성하고 생성된 태그와 캡쳐된 영상을 함께 저장하는 것도 가능하다.The
제어부(150)는 캡쳐된 영상들 중 불필요한 영상을 삭제하는 것도 가능하다.The
예를 들어, 불필요한 영상은 신호등의 영상, 셀카 촬영의 영상, 도로 번호 및 제한 속도의 표지판의 영상 등을 포함할 수 있다.For example, the unnecessary image may include an image of a traffic light, an image of taking a selfie, an image of a road number and a speed limit sign.
제어부(150)는 내비게이션 정보에 기초하여 주행 중인 도로의 도로 정보를 획득하고 획득된 도로 정보를 태그로 저장하는 것을 더 포함한다.The
제어부(150)는 입력부(127)에 검색 명령과 검색어가 입력되면 입력된 검색어에 대응하는 드라이브 영상을 검색하고 검색된 드라이브 영상의 출력을 제어한다.When a search command and a search word are input to the
제어부(150)는 입력부(127)에 편집을 위한 삭제 명령과 어느 하나의 드라이브 영상이 선택되면 드라이브 비디오에서 선택된 드라이브 영상을 삭제한다.The
제어부(150)는 차량 내 구성요소들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리(미도시), 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 프로세서(미도시)로 구현될 수 있다. 이때, 메모리와 프로세서는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리와 프로세서는 단일 칩으로 구현될 수도 있다.The
저장부(160)는 생성된 드라이브 비디오를 저장한다.The
저장부(160)는 드라이브 비디오를 전송하기 위한 단말기의 식별 정보를 저장하는 것도 가능하다.The
저장부(160)는 기준 거리, 기준 시간, 기준 횟수를 저장한다.The
저장부(160)는 차량의 내부에 고정 장착된 저장부일 수 있고, 차량으로부터 분리 가능하게 마련된 저장부일 수도 있다.The
저장부(160)는 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(HDD, Hard Disk Drive), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다. The
저장부(160)는 제어부(150)와 관련하여 전술한 프로세서와 별개의 칩으로 구현된 메모리일 수 있고, 프로세서와 단일 칩으로 구현될 수도 있다. The
통신부(170)는 제어부(150)와 외부 장치 사이에서 통신을 수행하고, 제어부(150)의 제어 명령에 따라 드라이브 비디오를 외부 장치인 단말기(200) 또는 서버(300)에 전송한다.The
통신부(170)는 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.The
근거리 통신 모듈은 블루투스 모듈, 적외선 통신 모듈, RFID(Radio Frequency Identification) 통신 모듈, WLAN(Wireless Local Access Network) 통신 모듈, NFC 통신 모듈, 직비(Zigbee) 통신 모듈 등 근거리에서 무선 통신망을 이용하여 신호를 송수신하는 다양한 근거리 통신 모듈을 포함할 수 있다.The short-distance communication module transmits a signal using a wireless communication network in a short distance such as a Bluetooth module, an infrared communication module, an RFID (Radio Frequency Identification) communication module, a WLAN (Wireless Local Access Network) communication module, an NFC communication module, and a Zigbee communication module. It may include various short-distance communication modules for transmitting and receiving.
유선 통신 모듈은 캔(Controller Area Network; CAN) 통신 모듈, 지역 통신(Local Area Network; LAN) 모듈, 광역 통신(Wide Area Network; WAN) 모듈 또는 부가가치 통신(Value Added Network; VAN) 모듈 등 다양한 유선 통신 모듈뿐만 아니라, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 다양한 케이블 통신 모듈을 포함할 수 있다. The wired communication module includes a variety of wired communication modules such as a Controller Area Network (CAN) communication module, a Local Area Network (LAN) module, a Wide Area Network (WAN) module, or a Value Added Network (VAN) module. Various cable communication such as USB (Universal Serial Bus), HDMI (High Definition Multimedia Interface), DVI (Digital Visual Interface), RS-232 (recommended standard232), power line communication, or POTS (plain old telephone service) as well as communication module It can contain modules.
무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution) 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.In addition to the Wi-Fi module and the wireless broadband module, the wireless communication module includes a global system for mobile communication (GSM), a code division multiple access (CDMA), a wideband code division multiple access (WCDMA), and a universal mobile telecommunications system (UMTS). ), Time Division Multiple Access (TDMA), Long Term Evolution (LTE), etc. may include a wireless communication module supporting various wireless communication methods.
단말기(200)는 사용자 단말기로, 사용자 단말기(200)는 네트워크를 통해 차량에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다.The terminal 200 may be implemented as a user terminal, and the
여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 태블릿 PC, 슬레이트 PC 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), WiBro(Wireless Broadband Internet) 단말, 스마트 폰(Smart Phone) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD) 등과 같은 웨어러블 장치를 포함할 수 있다.Here, the computer includes, for example, a laptop equipped with a web browser (WEB Browser), a desktop, a laptop (laptop), a tablet PC, a slate PC, and the like, and the portable terminal has, for example, portability and mobility. As a covered wireless communication device, Personal Communication System (PCS), Global System for Mobile communications (GSM), Personal Digital Cellular (PDC), Personal Handyphone System (PHS), Personal Digital Assistant (PDA), International Mobile Telecommunication (IMT) -2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), WiBro(Wireless Broadband Internet) terminal, all kinds of handheld based such as smart phone wireless communication devices and wearable devices such as watches, rings, bracelets, anklets, necklaces, glasses, contact lenses, or head-mounted-devices (HMDs).
단말기(200)는 드라이브 비디오가 수신되면 수신된 드라이브 비디오를 저장한다.When the drive video is received, the terminal 200 stores the received drive video.
단말기(200)는 사용자에 의해 입력된 날짜 및 파일 명과 함께 드라이브 비디오를 저장할 수 있다.The terminal 200 may store the drive video together with the date and file name input by the user.
단말기(200)는 사용자의 요청에 따라 드라이브 비디오를 재생할 수 있고 사용자의 요청에 따라 다른 외부 장치로 전송할 수 있다.The terminal 200 may play the drive video according to the user's request and transmit it to another external device according to the user's request.
도 3에 도시된 데이터 처리 장치의 구성 요소들의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 상호 위치는 시스템의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.At least one component may be added or deleted according to the performance of the components of the data processing apparatus shown in FIG. 3 . In addition, it will be readily understood by those of ordinary skill in the art that the mutual positions of the components may be changed corresponding to the performance or structure of the system.
도 4는 실시 예에 따른 차량의 제어 순서도로 도 5 내지 도 10을 참조하여 설명한다.4 is a control flowchart of a vehicle according to an embodiment, which will be described with reference to FIGS. 5 to 10 .
차량은 시동이 온되면 입력부(127), 표시부(128), 제1영상획득부(141), 제2영상 획득부(142), 속도 검출부(143), 거리 검출부(144), 시동부(145), 변속 레버 정보 수신부(146), 위치 수신부(147), 사운드 입력부(148), 사운드 출력부(149), 제어부(150), 저장부(160) 및 통신부(170) 등 각종 장치의 동작을 활성화시킨다.When the vehicle is started, the
차량은 내비게이션 모드가 선택되고 목적지의 정보가 입력되면 현재 위치를 확인하고 현재 위치인 출발지부터 목적지까지 경로를 탐색하며 탐색된 경로를 지도 정보에 매칭시켜 내비게이션 정보를 생성하고, 경로가 매칭된 지도 정보를 사용자 인터페이스를 통해 표시하며, 길 안내 정보를 사용자 인터페이스 및 사운드 출력부를 통해 출력한다.When a navigation mode is selected and destination information is input, the vehicle checks the current location, searches for a route from the current location, from the origin to the destination, matches the searched route to the map information to generate navigation information, and maps information with the route matched. is displayed through the user interface, and route guidance information is output through the user interface and the sound output unit.
차량은 시동이 온되면 비디오 생성 모드를 자동으로 수행시키는 것도 가능하다. 또한 차량은 시동이 온되고 입력부(127)를 통해 비디오 생성 모드가 선택되면 비디오 생성 모드를 수행시키는 것도 가능하다.It is also possible that the vehicle automatically performs the video generation mode when the engine is turned on. In addition, when the vehicle is started and the video generation mode is selected through the
차량은 비디오 생성 모드 수행 중 차량의 주행 정보와 사용자의 행동 정보를 확인(180)한다.The vehicle checks ( 180 ) driving information of the vehicle and user behavior information while performing the video generation mode.
여기서 차량의 주행 정보를 확인하는 것은, 차량의 속도를 확인하고, 변속 레버의 위치를 확인하고, 시동 오프 상태를 확인하는 것을 포함한다.Here, checking the driving information of the vehicle includes checking the speed of the vehicle, checking the position of the shift lever, and checking the ignition-off state.
그리고 사용자의 행동 정보를 확인하는 것은, 차량 내부의 영상을 획득하고 획득된 차량의 영상을 영상처리하고 영상 처리된 영상 정보에 기초하여 운전자와 동승자를 인식하고, 인식된 운전자의 행동 정보와 인식된 동승자의 행동 정보를 확인하는 것을 포함한다.And confirming the user's behavior information is to acquire an image inside the vehicle, process the acquired image of the vehicle, recognize the driver and passenger based on the image-processed image information, and recognize the recognized driver's behavior information and the recognized driver's behavior information. This includes checking the behavioral information of the passenger.
여기서 운전자의 행동 정보를 확인하는 것은, 운전자의 시선을 확인하는 것을 포함한다.Here, checking the driver's behavior information includes checking the driver's gaze.
그리고 동승자의 행동 정보를 확인하는 것은, 동승자의 시선과 모션을 확인하는 것을 포함한다.In addition, checking the behavior information of the passenger includes checking the gaze and motion of the passenger.
차량은 확인된 주행 정보를 분석(381)하고, 분석 정보에 기초하여 제1영상 획득부에서 획득 중인 영상의 캡쳐 시점인지를 판단하고, 캡쳐 시점이라고 판단되면 제1영상 획득부에서 획득된 영상을 캡쳐한다.The vehicle analyzes the identified driving information (381), determines whether it is a capture time of the image being acquired by the first image acquisition unit based on the analysis information, and when it is determined that it is the capture time, the image acquired by the first image acquisition unit Capture.
좀 더 구체적으로, 차량은 주행 상태를 확인한다.More specifically, the vehicle checks the driving state.
여기서 주행 상태를 확인하는 것은, 차량의 주행 속도가 감소하는지, 차량이 주행 정지인지 확인하는 것을 포함할 수 있다.Here, the checking of the driving state may include checking whether the traveling speed of the vehicle is reduced or whether the vehicle is stopped.
차량은 속도 검출부에서 검출된 검출 정보에 대응하는 차량의 주행 속도를 실시간으로 확인하고, 실시간으로 확인된 주행 속도에 기초하여 차량의 주행 속도의 변화를 확인하며, 주행 속도의 변화가 속도 감소인지를 판단(382)한다.The vehicle checks the driving speed of the vehicle corresponding to the detection information detected by the speed detector in real time, checks the change in the driving speed of the vehicle based on the driving speed checked in real time, and determines whether the change in the driving speed is a decrease in speed. Make a judgment (382).
차량은 주행 속도가 감소한다고 판단되면 영상의 캡쳐 시점이라고 판단하여 제1영상 획득부에서 획득되는 영상을 캡쳐(188)하고, 영상이 캡쳐된 시점의 차량의 위치를 확인하고, 확인된 차량의 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 결합하여 드라이브 영상을 생성하고 생성된 드라이브 영상을 저장(190)한다.When it is determined that the driving speed decreases, the vehicle determines that it is the capture time of the image, captures the image acquired by the first image acquisition unit (188), checks the location of the vehicle at the time the image is captured, and confirms the location of the vehicle is created as a tag, a drive image is created by combining the captured image and the tag, and the generated drive image is stored (190).
아울러 차량은 캡쳐 이유인 감속을 태그로 생성하고 생성된 감속 태그와, 위치 태그, 캡쳐된 영상을 결합하여 함께 저장하는 것도 가능하다.In addition, it is also possible for the vehicle to generate the deceleration, which is the reason for capturing, as a tag, combine the deceleration tag, the location tag, and the captured image and store it together.
차량은 제1영상획득부에서 획득된 영상에 기초하여 전방의 타 차량과의 거리를 확인하고 확인된 거리가 기준 거리 이상으로 유지됨에도 불구하고 차량의 주행 속도가 감소하고 있다고 판단되면 영상의 캡쳐 시점이라고 판단하여 제1영상 획득부에서 획득되는 영상을 캡쳐(188)하는 것도 가능하다.The vehicle checks the distance to another vehicle in front based on the image acquired by the first image acquisition unit, and when it is determined that the driving speed of the vehicle is decreasing despite the confirmed distance being maintained over the reference distance, the image capture time It is also possible to capture (188) the image acquired by the first image acquisition unit by determining that .
도 6에 도시된 바와 같이, 차량은 거리 검출부에서 검출된 검출 정보에 기초하여 전방의 타 차량(100a)과의 거리(d1)와 후방의 타 차량(100b)과의 거리(d2)를 확인하고 전방의 타 차량과의 거리가 기준 거리(dr) 이상이고, 후방의 타 차량과의 거리(d2)가 기준 거리(dr) 이상으로 유지됨에도 불구하고 차량의 주행 속도가 감소(60km/h -> 40km/h)하고 있다고 판단되면 영상의 캡쳐 시점이라고 판단하여 제1영상 획득부에서 획득되는 영상을 캡쳐(188)하는 것도 가능하다.As shown in FIG. 6 , the vehicle checks the distance d1 from the
차량은 주행을 정지하였다고 판단(183)되면 영상의 캡쳐 시점이라고 판단하여 제1영상 획득부에서 획득되는 영상을 캡쳐(188)하고, 영상이 캡쳐된 시점의 차량의 위치를 확인하고, 확인된 차량의 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 결합하여 드라이브 영상을 생성하고 생성된 드라이브 영상을 저장(190)한다.When it is determined that the vehicle has stopped driving (183), it is determined that it is the capture time of the image, and the image acquired by the first image acquisition unit is captured (188), the location of the vehicle at the time the image is captured, is confirmed, and the vehicle is confirmed The location of the tag is created, the captured image and the tag are combined to create a drive image, and the generated drive image is stored (190).
여기서 주행을 정지하였다고 판단하는 것은, 주행 속도가 영이면 주행 정지로 판단하는 것을 포함하고, 변속 레버의 위치가 파킹 단이면 차량이 정지하였다고 판단하는 것을 포함하며, 시동이 오프 상태이면 차량이 정지하였다고 판단하는 것을 포함한다.Determining that the vehicle has stopped driving includes determining that the vehicle is stopped when the traveling speed is zero, determining that the vehicle is stopped when the shift lever is in the parking position, and determining that the vehicle is stopped when the engine is in the OFF state includes judging.
아울러 차량은 시동이 오프 상태이면 내비게이션 정보에 기초하여 현재 위치가 목적지인지 판단하고, 목적지가 아니라고 판단되면 영상의 캡쳐 시점이라고 판단하여 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장한다. 이때 차량은 캡쳐 이유인 잠시 정차를 태그로 생성하고 생성된 태그와 캡쳐된 영상을 함께 저장하는 것도 가능하다.In addition, the vehicle determines whether the current location is the destination based on the navigation information when the engine is in the off state, and when it is determined that the current location is not the destination, it is determined that the image is captured at the time of capturing the image, and the image acquired by the first image acquisition unit is captured, and the image is captured. Check the location, create the checked location as a tag, and save the captured image and tag together. At this time, it is also possible for the vehicle to generate a temporary stop, which is the reason for capturing, as a tag, and to store the generated tag and the captured image together.
차량은 확인된 사용자의 행동 정보를 분석(384)하고, 분석 정보에 기초하여 제1영상 획득부에서 획득 중인 영상의 캡쳐 시점인지를 판단하고, 캡쳐 시점이라고 판단되면 제1영상 획득부에서 획득된 영상을 캡쳐한다.The vehicle analyzes (384) the identified user's behavior information, determines whether it is a capture time of the image being acquired by the first image acquisition unit based on the analysis information, and when it is determined that it is the capture time, the first image acquisition unit acquired Capture the video.
좀 더 구체적으로, 차량은 제2영상획득부에서 획득된 영상을 영상 처리하고 영상 처리된 영상에 기초하여 사용자의 시선을 인식하고 시선의 인식 결과에 기초하여 사용자가 기준 시간 이상 한 곳을 주시하고 있는지 판단(185)하고, 사용자가 기준 시간 이상 한 곳을 주시하고 있다고 판단되면 영상의 캡쳐 시점이라고 판단하여 제1영상 획득부에서 획득되는 영상을 캡쳐(188)하고, 영상이 캡쳐된 시점의 차량의 위치를 확인(189)하고, 확인된 차량의 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 결합하여 드라이브 영상을 생성하고 생성된 드라이브 영상을 저장(190)한다. 이때 차량은 캡쳐 이유인 사용자 외부 주시를 태그로 생성하고 생성된 외부 주시 태그와, 위치 태그와, 캡쳐된 영상을 함께 저장하는 것도 가능하다.More specifically, the vehicle image-processes the image acquired by the second image acquisition unit, recognizes the user's gaze based on the image-processed image, and the user gazes at one place for more than a reference time based on the recognition result of the gaze. It is determined whether there is (185), and if it is determined that the user is looking at one place for more than a reference time, it is determined that it is the capture time of the image, and the image acquired by the first image acquisition unit is captured (188), and the vehicle at the time the image is captured confirms the location of (189), creates the identified vehicle location as a tag, combines the captured image and the tag to generate a drive image, and stores (190) the generated drive image. In this case, the vehicle may generate the user's external gaze, which is the capture reason, as a tag, and store the generated external gaze tag, the location tag, and the captured image together.
여기서 사용자의 시선을 인식하여 캡쳐 시점인지를 판단하는 구성을 도 7을 참조하여 설명한다.Here, a configuration for determining whether it is a capture point by recognizing a user's gaze will be described with reference to FIG. 7 .
차량의 운전석 측 창문(116a)은 주행을 위해 운전자가 주시해야 하는 주행 주시 영역(a1)과 운전자가 외부 환경을 보거나 주행의 보조 정보를 획득하기 위해 주시하는 외부 주시 영역(a2)을 포함한다.The
차량의 동승석 측 창문(116b)은 주행을 위해 운전자가 주시해야 하는 주행 주시 영역(b1)과 운전자가 외부 환경을 보거나 주행의 보조 정보를 획득하기 위해 주시하는 외부 주시 영역(b2)을 포함한다.The
차량의 전면 창문(116c)은 주행을 위해 운전자가 주시해야 하는 주행 주시 영역(c1)과 운전자가 외부 환경을 보거나 주행의 보조 정보를 획득하기 위해 주시하는 외부 주시 영역(c2)을 포함한다.The
즉 차량은 제2영상 획득부에 의해 획득된 영상에서 운전석(121a)에 위치한 운전자의 영상을 획득하고, 획득된 영상에서 운전자의 시선을 인식하며 인식된 시선이 어느 영역을 향하고 있는지를 판단한다.That is, the vehicle acquires an image of the driver located in the driver's
차량은 운전자의 시선의 인식 결과에 기초하여 운전자가 주행 주시 영역이 아닌 외부 주시 영역(ab, b2, c2)을 기준 시간 이상 주시하고 있다고 판단되면 영상의 캡쳐 시간이라고 판단하고, 제1영상 획득부에서 획득된 영상을 캡쳐하되 운전자의 시선의 방향에 대응하는 위치의 영상을 캡쳐할 수 있다. 이때 차량은 캡쳐 이유인 운전자 외부 주시를 태그로 생성하고 생성된 운전자의 외부 주시 태그와, 위치 태그와, 캡쳐된 영상을 함께 저장하는 것도 가능하다.When the vehicle determines that the driver is looking at the external gaze areas ab, b2, and c2 instead of the driving gaze area for a reference time or longer based on the recognition result of the driver's gaze, it is determined that it is the image capture time, and the first image acquisition unit It is possible to capture an image obtained from the , but capture an image of a position corresponding to the direction of the driver's gaze. In this case, the vehicle may generate the driver's external gaze, which is the capture reason, as a tag, and store the generated external gaze tag of the driver, the location tag, and the captured image together.
차량은 제2영상 획득부에 의해 획득된 영상에서 동승석(121b)에 위치한 동승자의 영상을 획득하고, 획득된 영상에서 동승자의 시선을 인식하며, 시선의 인식 결과에 기초하여 동승자가 어느 한 곳을 기준 시간 이상 주시하고 있는지 판단하고, 동승하자 기준 시간 이상 어느 한 곳을 주시하고 있다고 판단되면 영상의 캡쳐 시간이라고 판단하고, 제1영상 획득부에서 획득된 영상을 캡쳐하되 동승자의 시선의 방향에 대응하는 위치의 영상을 캡쳐할 수 있다. The vehicle acquires the image of the passenger located on the
이때 차량은 캡쳐 이유인 동승자 외부 주시를 태그로 생성하고 생성된 동승자의 외부 주시 태그와, 위치 태그와, 캡쳐된 영상을 함께 저장하는 것도 가능하다.In this case, the vehicle may generate the passenger's external gaze tag, which is the reason for capturing, as a tag, and store the generated external gaze tag of the passenger, the location tag, and the captured image together.
차량은 사용자가 어느 한 곳을 반복 주시하는지 판단(186)하고, 사용자가 어느 한곳을 반복적으로 주시하고 있다고 판단되면 캡쳐 시점이라고 판단하여 제1영상 획득부에서 획득된 영상을 캡쳐한다. 이때 차량은 캡쳐 이유인 사용자 외부 반복 주시를 태그로 생성하고 생성된 외부 반복 주시 태그와, 위치 태그와, 캡쳐된 영상을 함께 저장하는 것도 가능하다.The vehicle determines ( 186 ) whether the user repeatedly gazes at any one location, and when it is determined that the user repeatedly gazes at any one location, the vehicle determines that it is a capture point and captures the image acquired by the first image acquisition unit. In this case, it is also possible for the vehicle to generate the user's external repeated gaze, which is the capture reason, as a tag, and store the generated external repeated gaze tag, the location tag, and the captured image together.
좀 더 구체적으로, 차량은 제2영상 획득부에 의해 획득된 영상에서 운전석(121a)에 위치한 운전자의 영상을 획득하고, 획득된 영상에서 운전자의 시선을 인식하며 인식된 시선이 어느 영역을 향하고 있는지를 판단한다.More specifically, the vehicle acquires the image of the driver located in the driver's
차량은 운전자의 시선의 인식 결과에 기초하여 운전자가 주행 주시 영역이 아닌 외부 주시 영역(ab, b2, c2)을 기준 시간 이상 주시하고 있다고 판단되면 운전자가 외부 주시 영역을 반복적으로 주시하는지 판단한다.When it is determined that the driver is looking at the external gaze areas ab, b2, and c2 instead of the driving gaze area for a reference time or longer based on the recognition result of the driver's gaze, the vehicle determines whether the driver repeatedly gazes at the external gaze area.
운전자가 외부 주시 영역을 반복적으로 주시하는지 판단하는 것은, 운전자가 외부 주시 영역과 주행 주시 영역을 교대로 주시하는 횟수가 기준 횟수 이상 반복적으로 주시하는지 판단하는 것을 포함한다.Determining whether the driver repeatedly gazes at the external gaze region includes determining whether the number of times the driver alternately gazes at the external gaze region and the driving gaze region is more than a reference number of times.
운전자가 외부 주시 영역을 반복적으로 주시하는지 판단하는 것은, 운전자가 외부 주시 영역과 차량 내부를 교대로 주시하는 횟수가 기준 횟수 이상 반복적으로 주시하는지 판단하는 것을 포함한다.Determining whether the driver repeatedly gazes at the exterior gaze area includes determining whether the number of times the driver alternately gazes at the exterior gaze area and the interior of the vehicle is more than a reference number of times.
차량은 운전자가 어느 한 영역을 반복적으로 주시한다고 판단되면 영상의 캡쳐 시간이라고 판단하고, 제1영상 획득부에서 획득된 영상을 캡쳐하되 동승자의 시선의 방향에 대응하는 위치의 영상을 캡쳐할 수 있다. 이때 차량은 캡쳐 이유인 운전자 외부 반복 주시를 태그로 생성하고 생성된 운전자의 외부 반복 주시 태그와, 위치 태그와, 캡쳐된 영상을 함께 저장하는 것도 가능하다.When it is determined that the driver repeatedly gazes at a certain area, the vehicle determines that it is the image capture time, and captures the image acquired by the first image acquisition unit, but captures an image of a position corresponding to the direction of the passenger's gaze. . In this case, the vehicle may generate the driver's external repeated gaze tag, which is the reason for capturing, as a tag, and store the generated driver's external repeated gaze tag, the location tag, and the captured image together.
차량은 제2영상 획득부에 의해 획득된 영상에서 동승석(121b)에 위치한 동승자의 영상을 획득하고, 획득된 영상에서 동승자의 시선을 인식하며 인식된 동승자의 시선이 어느 영역을 향하고 있는지를 판단한다.The vehicle acquires the image of the passenger located in the
차량은 동승자의 시선의 인식 결과에 기초하여 동승자가 어느 한 곳을 반복적으로 주시하고 있다고 판단되면 영상의 캡쳐 시점이라고 판단하여 영상의 캡쳐 시간이라고 판단하고, 제1영상 획득부에서 획득된 영상을 캡쳐하되 동승자의 시선의 방향에 대응하는 위치의 영상을 캡쳐할 수 있다. 이때 차량은 캡쳐 이유인 동승자 외부 반복 주시를 태그로 생성하고 생성된 동승자의 외부 반복 주시 태그와, 위치 태그와, 캡쳐된 영상을 함께 저장하는 것도 가능하다.When it is determined that the passenger is repeatedly looking at any one place based on the recognition result of the passenger's gaze, the vehicle determines that it is the capture time of the image, determines that it is the capture time of the image, and captures the image acquired by the first image acquisition unit However, it is possible to capture an image of a position corresponding to the direction of the passenger's gaze. In this case, the vehicle may generate the repeated external gaze of the passenger as the reason for capturing as a tag, and store the generated repeated external gaze tag of the passenger, the location tag, and the captured image together.
동승자가 외부 주시 영역을 반복적으로 주시하는지 판단하는 것은, 동승자가 외부의 어느 한 곳과 다른 곳을 교대로 주시하는 반복 횟수가 기준 횟수 이상 반복적으로 주시하는지 판단하는 것을 포함한다. 여기서 다른 곳은 차량의 내부를 포함할 수 있다.Determining whether the passenger repeatedly gazes at the external gaze area includes determining whether the number of repetitions in which the passenger alternately gazes at an external location and another location is more than a reference number of repetitions. Other places here may include the interior of the vehicle.
차량은 제2영상획득부(142)에서 획득된 영상을 영상처리하고 영상 처리된 영상에 기초하여 동승자의 모션을 인식하고 동승자의 모션이 단말기(200a, 도 6참조)를 이용한 외부 촬영의 모션이라고 판단(187)되면 제1영상 획득부에서 획득되는 영상을 캡쳐(188)하고, 영상이 캡쳐된 시점의 차량의 위치를 확인(189)하고, 확인된 위치를 태그로 생성하고, 캡쳐된 영상과 태그를 결합하여 드라이브 영상을 생성하고 생성된 드라이브 영상을 저장(190)한다. 이때 차량은 캡쳐 이유인 촬영 모션을 태그로 생성하고 생성된 태그와 캡쳐된 영상을 함께 저장하는 것도 가능하다.The vehicle image-processes the image acquired by the second
부가적으로 차량은 내비게이션 정보와 현재 위치의 위치 정보에 기초하여 현재 위치가 관심 지역인지 판단하고 현재 위치가 관심 지역이라고 판단되면 판단되면 제1영상 획득부에서 획득되는 영상을 캡쳐하고, 확인된 관심 지역의 정보를 태그로 생성하고, 캡쳐된 영상과 태그를 함께 저장하는 것도 가능하다.Additionally, the vehicle determines whether the current location is an area of interest based on the navigation information and location information of the current location, and when it is determined that the current location is an area of interest, captures an image obtained from the first image acquisition unit, and the confirmed interest It is also possible to create local information as a tag, and to store the captured image and tag together.
또한 제어부(150)는 제1영상 획득부에서 획득된 영상에서 표지판을 인식하고, 인식된 표지판의 문자 및 기호에 기초하여 관심 지역 또는 유명한 지역인지를 판단하고, 표지판이 관심 지역 또는 유명한 지역에 대응하는 표지판이라고 판단되면 표지판의 영상을 캡쳐하고, 표지판의 영상이 캡쳐된 위치를 확인하고, 확인된 위치를 태그로 생성하며, 캡쳐된 표지판의 영상과 태그를 함께 저장하는 것도 가능하다. In addition, the
차량은 주행이 종료되었는지 판단(191)하고 주행이 종료되었다고 판단되면 주행 중 캡쳐된 드라이브 영상을 시간 순서로 연결하여 드라이브 비디오를 생성하고 생성된 드라이브 비디오를 저장(192)한다. The vehicle determines whether the driving is finished ( 191 ), and when it is determined that the driving is finished, the drive images captured during driving are connected in chronological order to generate a drive video and store the generated drive video ( 192 ).
여기서 주행이 종료되었는지 판단하는 것은, 시동 오프 상태인지 판단하는 것을 포함하고, 현재 위치가 목적지인지 판단하는 것을 포함한다.Here, determining whether the driving has ended includes determining whether the vehicle is in an off state, and determining whether the current location is a destination.
아울러 차량은 드라이브 비디오 저장 시, 생성 날짜를 함께 저장할 수 있고, 출발지와 목적지의 정보도 함께 저장할 수 있다.In addition, when the vehicle saves the drive video, the creation date can be saved together, and information of the origin and destination can be saved together.
도 8에 도시된 바와 같이, 차량은 차량은 출발지에서 출발 후부터 목적지에 도착하기 전까지 캡쳐된 드라이브 영상을 시간 순으로 연결하여 드라이브 비디오를 생성할 수 있다.As shown in FIG. 8 , the vehicle may generate a drive video by connecting the captured drive images in chronological order from the time the vehicle departs from the origin until the time it arrives at the destination.
차량은 출발 후 신호 대기에 의해 정차한다. 이때 차량은 주행 속도가 영으로 차량이 정차 상태라고 판단되면 캡쳐 시점이라고 판단하고 제1영상 획득부에서 획득된 영상을 캡쳐(M1)한다.The vehicle stops by waiting for a signal after departure. At this time, when the driving speed is zero and it is determined that the vehicle is in a stopped state, it is determined that it is a capture time and the image acquired by the first image acquisition unit is captured (M1).
사용자가 관광지를 보기 위해 서행하면, 차량은 주행 속도의 감소를 판단하고 캡쳐 시점이라고 판단하여 제1영상 획득부에서 획득된 영상을 캡쳐(M2)한다.When the user drives slowly to see the tourist destination, the vehicle determines the reduction in driving speed and determines that it is a capture time, and captures (M2) the image acquired by the first image acquisition unit.
사용자가 무지개를 보기 위해 '우와'라는 감탄사를 발화하면, 차량은 음성 인식을 통해 캡쳐 시점이라고 판단하고 제1영상 획득부에서 획득된 영상을 캡쳐(M3)한다.When the user utters an exclamation of 'wow' to see the rainbow, the vehicle determines the capture point through voice recognition and captures (M3) the image acquired by the first image acquisition unit.
사용자가 식사를 위해 정차를 하면, 차량은 현재 위치가 목적지 인지 판단하고 현재 위치가 목적지가 아니라고 판단되면 잠시 정차라고 판단하고, 제1영상 획득부에서 획득된 영상을 캡쳐(M4)한다.When the user stops for a meal, the vehicle determines whether the current location is the destination, and if it is determined that the current location is not the destination, determines that the vehicle is temporarily stopped, and captures the image acquired by the first image acquisition unit (M4).
차량은 주행 중 제1영상 획득부에서 획득된 영상 내 표지판을 인식하고 인식된 표지판의 정보가 관심 지역 정보라고 판단되면 캡쳐 시점이라고 판단하고 제1영상 획득부에서 획득된 표지판의 영상을 캡쳐(M5)하고, 내비게이션 정보에 기초하여 표지판의 정보에 대응하는 위치에 도달하면 제1영상 획득부의 영상을 캡쳐(M6)한다.The vehicle recognizes the sign in the image acquired by the first image acquiring unit while driving, and when it is determined that the information of the recognized sign is information on the area of interest, it is determined that it is a capture point, and the image of the sign acquired by the first image acquiring unit is captured (M5). ) and, based on the navigation information, when a position corresponding to the information on the sign is reached, the image of the first image acquisition unit is captured (M6).
도 9에 도시된 바와 같이, 차량은 캡쳐된 드라이브 영상들(M1-M6) 중 불필요한 드라이브 영상(M1)을 확인하고 확인된 드라이브 영상을 삭제하며, 삭제된 드라이브 영상을 제외한 나머지 드라이브 영상들(M2-M6)을 시간 순으로 연결하여 드라이브 영상을 생성한다.As shown in FIG. 9 , the vehicle checks the unnecessary drive image M1 among the captured drive images M1-M6 and deletes the checked drive image, and the remaining drive images M2 except for the deleted drive image. -M6) is connected in chronological order to create a drive image.
예를 들어, 불필요한 영상은 신호등의 영상, 셀카 촬영의 영상, 도로 번호 및 제한 속도의 표지판의 영상 등을 포함할 수 있다.For example, the unnecessary image may include an image of a traffic light, an image of taking a selfie, an image of a road number and a speed limit sign.
도 10에 도시된 바와 같이, 차량은 캡쳐된 영상들 중 표지판의 영상(M5)을 확인하고, 확인된 표지판의 영상의 문자 및 기호를 인식하며, 인식된 문자 및 기호를 태그로 생성하고, 표지판의 영상에 대응하는 외부 영상(M6)을 확인하며, 확인된 외부 영상에 표지판의 문자 및 기호를 태그로 결합하여 하나의 드라이브 영상으로 생성하는 것도 가능하다.As shown in FIG. 10 , the vehicle confirms the image M5 of the sign among the captured images, recognizes the characters and symbols of the image of the identified sign, generates the recognized characters and symbols as tags, and the sign It is also possible to check the external image M6 corresponding to the image of , and create one drive image by combining the characters and symbols of the sign with the tag to the confirmed external image.
즉 차량은 출발지에서 출발 후부터 목적지에 도착하기 전까지 캡쳐된 드라이브 영상(M1-M4, M6)을 시간 순으로 연결하여 드라이브 비디오를 생성할 수 있다.That is, the vehicle may generate a drive video by connecting the captured drive images M1-M4 and M6 in chronological order from the time of departure to the time of arrival at the destination.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium storing instructions executable by a computer. Instructions may be stored in the form of program code, and when executed by a processor, may generate program modules to perform operations of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. The computer-readable recording medium includes any type of recording medium in which instructions readable by the computer are stored. For example, there may be a read only memory (ROM), a random access memory (RAM), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device, and the like.
100: 차량 200: 단말기
141: 제1영상 획득부 142: 제2영상 획득부
143: 속도 검출부 144: 거리 검출부
145: 시동부 146: 변속 레버 정보 수신부
147: 위치 수신부100: vehicle 200: terminal
141: first image acquisition unit 142: second image acquisition unit
143: speed detection unit 144: distance detection unit
145: start unit 146: shift lever information receiving unit
147: location receiver
Claims (25)
외부의 영상을 획득하는 제1영상 획득부;
상기 검출된 주행 속도의 변화 정보에 기초하여 상기 획득된 외부의 영상을 캡쳐하고, 주행이 종료되면 상기 캡쳐된 외부의 영상을 연결하여 드라이브 비디오를 생성하는 제어부;
상기 생성된 드라이브 비디오를 저장하는 저장부; 및
현재 위치에 대응하는 위치 정보를 수신하는 위치 수신부;를 포함하고,
상기 제어부는,
상기 주행 속도의 변화가 속도 감소이면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하고 상기 획득된 영상의 캡쳐 시점의 차량의 위치 정보를 확인하고 확인된 위치 정보를 캡쳐된 영상과 결합하여 저장하고,
상기 제1영상 획득부에서 획득된 외부의 영상을 영상처리하고, 영상 처리된 영상에서 타 차량을 인식하고 인식된 타 차량과의 거리가 기준 거리 이상이고, 상기 주행 속도의 변화가 속도 감소이면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하는 차량.a speed detection unit for detecting the traveling speed;
a first image acquisition unit for acquiring an external image;
a control unit that captures the acquired external image based on the detected driving speed change information, and generates a drive video by connecting the captured external image when driving is finished;
a storage unit for storing the generated drive video; and
Including; a location receiving unit for receiving location information corresponding to the current location;
The control unit is
If the change in the driving speed is a decrease in speed, capture the image acquired by the first image acquisition unit, check the position information of the vehicle at the time of capturing the acquired image, combine the identified position information with the captured image, and store ,
If the external image acquired by the first image acquisition unit is image-processed, and another vehicle is recognized from the image-processed image, and the recognized distance to another vehicle is greater than or equal to the reference distance, and the change in the driving speed is a decrease in speed, the A vehicle that captures the image acquired by the first image acquisition unit.
현재 위치에 대응하는 위치 정보를 수신하는 위치 수신부;
목적지 정보를 입력받는 입력부를 더 포함하고,
상기 제어부는, 상기 위치 정보와 상기 목적지 정보에 기초하여 현재 위치가 목적지인지 판단하고 출발지부터 목적지까지 드라이브 비디오를 생성하는 것을 포함하는 차량.According to claim 1,
a location receiver configured to receive location information corresponding to the current location;
Further comprising an input unit for receiving destination information,
and the controller determines whether a current location is a destination based on the location information and the destination information, and generates a drive video from a departure point to a destination.
상기 외부의 영상 캡쳐 시, 캡쳐 시점의 차량의 위치 정보를 확인하고 확인된 위치 정보를 캡쳐된 영상과 결합하여 저장하는 것을 더 포함하는 차량.According to claim 1, wherein the control unit,
When capturing the external image, the vehicle further comprising: checking the location information of the vehicle at the time of capture, combining the identified location information with the captured image and storing the captured image.
변속 레버의 위치 정보를 확인하고, 상기 변속 레버의 위치가 파킹 단이면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하고 상기 획득된 영상의 캡쳐 시점의 차량의 위치 정보를 확인하고 확인된 위치 정보를 캡쳐된 영상과 결합하여 저장하는 것을 더 포함하는 차량.According to claim 1, wherein the control unit,
The position information of the shift lever is checked, and if the position of the shift lever is at the parking stage, the image acquired by the first image acquisition unit is captured, the position information of the vehicle at the time of capturing the acquired image is confirmed, and the confirmed position information The vehicle further comprising combining and storing the captured image.
타 차량과의 거리를 검출하는 거리 검출부를 더 포함하고,
상기 제어부는, 상기 검출된 타 차량과의 거리가 기준 거리 이상이고, 상기 주행 속도의 변화가 속도 감소이면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함하는 차량.The method of claim 1,
Further comprising a distance detection unit for detecting the distance to the other vehicle,
The controller may further include capturing the image acquired by the first image acquisition unit when the detected distance to the other vehicle is equal to or greater than a reference distance and the change in the driving speed is a decrease in speed.
내부의 영상을 획득하는 제2영상 획득부;를 더 포함하고,
상기 제어부는, 상기 제2영상 획득부에서 획득된 영상에 기초하여 운전자 및 동승자의 행동을 인식하고, 상기 인식된 행동의 행동 정보에 기초하여 상기 획득된 외부의 영상을 캡쳐하고, 상기 캡쳐된 외부의 영상을 연결하여 드라이브 비디오를 생성하는 것을 더 포함하는 차량.According to claim 1,
A second image acquisition unit for acquiring an image of the interior; further comprising,
The control unit recognizes the behavior of the driver and the passenger based on the image acquired by the second image acquisition unit, captures the acquired external image based on the behavior information of the recognized behavior, and the captured external Concatenating the video of the vehicle further comprising generating a drive video.
현재 위치에 대응하는 위치 정보를 수신하는 위치 수신부를 더 포함하고,
상기 제어부는, 상기 획득된 내부의 영상을 영상처리하고, 영상 처리된 영상에서 운전자의 시선을 인식하고, 상기 운전자의 시선이 외부 주시 영역에 기준 시간 위치하면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함하는 차량.9. The method of claim 8,
Further comprising a location receiving unit for receiving location information corresponding to the current location,
The control unit image-processes the obtained internal image, recognizes the driver's gaze from the image-processed image, and when the driver's gaze is located in the external gaze region for a reference time, the image acquired by the first image acquisition unit The vehicle further comprising capturing
상기 운전자 및 상기 동승자 중 적어도 하나의 탑승자가 내부와 외부를 교대로 주시하는 반복 횟수를 확인하고 상기 확인된 반복 횟수가 기준 횟수 이상이면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함하는 차량.10. The method of claim 9, wherein the control unit,
Checking the number of repetitions in which at least one occupant of the driver and the passenger alternately gazes inside and outside, and capturing the image acquired by the first image acquisition unit if the number of repetitions is greater than or equal to a reference number vehicle that does.
상기 영상 처리된 영상에서 동승자의 시선을 인식하고, 상기 동승자의 시선이 기준 시간 이상 고정 위치이면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함하는 차량.The method of claim 9, wherein the control unit,
Recognizing the gaze of a passenger in the image-processed image, and capturing the image acquired by the first image acquisition unit when the gaze of the passenger is at a fixed position for more than a reference time.
상기 동승자의 모션을 확인하고 상기 확인된 동승자의 모션이 단말기를 이용한 외부 촬영 모션이면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함하는 차량.The method of claim 11, wherein the control unit,
The vehicle further comprising: checking the motion of the passenger, and capturing the image obtained by the first image acquisition unit if the confirmed motion of the passenger is an external shooting motion using a terminal.
상기 획득된 외부의 영상을 영상 처리하고 영상 처리된 영상에서 표지판을 인식하고, 상기 인식된 표지판의 영상을 저장하는 것을 더 포함하는 차량.According to claim 1, wherein the control unit,
The vehicle further comprising image processing the acquired external image, recognizing a sign from the image-processed image, and storing the image of the recognized sign.
현재 위치에 대응하는 위치 정보를 수신하는 위치 수신부;
목적지 정보를 입력받는 입력부를 더 포함하고,
상기 제어부는, 상기 위치 정보와 목적지 정보에 기초하여 출발지부터 목적지까지 내비게이션 정보를 생성하고 상기 생성된 내비게이션 정보와 현재 위치의 위치 정보에 기초하여 상기 현재 위치가 관심 지역이라고 판단되면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함하는 차량.According to claim 1,
a location receiver configured to receive location information corresponding to the current location;
Further comprising an input unit for receiving destination information,
The controller generates navigation information from a source to a destination based on the location information and the destination information, and acquires the first image when it is determined that the current location is a region of interest based on the generated navigation information and location information of the current location The vehicle further comprising capturing an image obtained from the unit.
시동이 오프되면 현재 위치가 목적지인지 판단하고, 상기 현재 위치가 목적지가 아니라고 판단되면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하는 것을 더 포함하는 차량.15. The method of claim 14, wherein the control unit,
The vehicle further comprising: determining whether the current location is a destination when the engine is turned off; and capturing the image acquired by the first image acquisition unit when it is determined that the current location is not the destination.
상기 검출된 주행 속도를 실시간으로 확인하고,
상기 주행 속도가 감소되면 제1영상 획득부를 통해 획득된 외부의 영상을 캡쳐하고,
상기 외부의 영상 캡쳐 시 차량의 위치를 확인하고,
상기 캡쳐된 영상과 상기 차량의 위치를 결합하여 드라이브 영상을 생성하고,
주행이 종료되면 생성된 드라이브 영상을 연결하여 드라이브 비디오를 생성하고,
상기 생성된 드라이브 비디오를 출력하고,
상기 드라이브 영상을 생성하는 것은,
제2영상 획득부에서 획득된 내부의 영상에 기초하여 운전자 및 동승자의 행동 정보를 인식하고,
상기 인식된 행동 정보에 기초하여 상기 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하고,
상기 외부의 영상 캡쳐 시 차량의 위치를 확인하고,
상기 캡쳐된 영상과 상기 차량의 위치를 결합하여 드라이브 영상을 생성하는 것을 포함하고,
상기 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하는 것은,
타 차량과의 거리를 확인하고
상기 확인된 거리가 기준 거리 이상이고,
상기 주행 속도의 변화가 속도 감소이면 상기 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하는 것을 포함하는 차량의 제어 방법.to detect the vehicle's driving speed,
Check the detected driving speed in real time,
When the driving speed is reduced, an external image acquired through the first image acquisition unit is captured,
Check the location of the vehicle when capturing the external image,
Combining the captured image and the location of the vehicle to generate a drive image,
When driving is finished, the created drive video is linked to create a drive video,
output the generated drive video;
To create the drive image,
Recognizing the behavior information of the driver and passengers based on the internal image acquired by the second image acquisition unit,
Capturing the external image acquired by the first image acquisition unit based on the recognized behavior information,
Check the location of the vehicle when capturing the external image,
Combining the captured image and the location of the vehicle to generate a drive image,
Capturing the external image acquired in the first image acquisition unit,
Check the distance to other vehicles
The identified distance is greater than or equal to the reference distance,
and capturing an external image acquired by the first image acquisition unit when the change in the driving speed is a decrease in speed.
위치 수신부에 수신된 위치 정보를 확인하고,
상기 확인된 위치 정보와 목적지 정보에 기초하여 현재 위치가 목적지인지 판단하고,
상기 현재 위치가 목적지이면 주행이 종료되었다고 판단하는 것을 포함하는 차량의 제어 방법.The method of claim 16, wherein the determining whether the driving is finished comprises:
Check the location information received by the location receiver,
Determining whether the current location is a destination based on the identified location information and destination information,
and determining that driving has ended when the current location is the destination.
목적지 정보가 수신되면 위치 수신부에 수신된 위치 정보를 확인하고,
상기 확인된 위치 정보와 목적지 정보에 기초하여 출발지부터 목적지까지 내비게이션 정보를 생성하고,
상기 내비게이션 정보에 기초하여 캡쳐 시점인지를 판단하고,
현재가 캡쳐 시점이라고 판단되면 상기 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하는 것을 포함하는 차량의 제어 방법.17. The method of claim 16,
When the destination information is received, the received location information is checked in the location receiving unit,
generating navigation information from a departure point to a destination based on the identified location information and destination information;
It is determined whether it is a capture point based on the navigation information,
When it is determined that the present is a capture time, the method of controlling a vehicle comprising capturing an external image acquired by the first image acquisition unit.
상기 속도 감소에 대응하는 태그를 생성하고,
상기 생성된 태그를 상기 캡쳐된 외부의 영상과 결합하여 저장하는 것을 더 포함하는 차량의 제어 방법.17. The method of claim 16,
generating a tag corresponding to the speed reduction;
The method of controlling a vehicle further comprising storing the generated tag in combination with the captured external image.
제2영상획득부에서 획득된 차량의 내부 영상을 영상 처리하고,
상기 영상 처리된 영상에서 사용자의 시선을 인식하고,
상기 인식된 시선에 기초하여 캡쳐 시점인지를 판단하고,
상기 캡쳐 시점이라고 판단되면 상기 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하고,
상기 시선 인식에 대응하는 태그를 생성하고,
상기 생성된 태그와 상기 캡쳐된 영상을 결합하여 저장하는 것을 더 포함하는 차량의 제어 방법.17. The method of claim 16,
Image processing the internal image of the vehicle acquired in the second image acquisition unit,
Recognizing the user's gaze in the image-processed image,
Determining whether it is a capture point based on the recognized gaze,
When it is determined that it is the capture time, the external image acquired by the first image acquisition unit is captured,
generating a tag corresponding to the gaze recognition;
The method of controlling a vehicle further comprising combining and storing the generated tag and the captured image.
제2영상획득부에서 획득된 차량의 내부 영상을 영상 처리하고,
상기 영상 처리된 영상에서 사용자의 모션을 인식하고,
상기 인식된 사용자의 모션이 단말기를 이용한 외부 촬영 모션이면 상기 제1영상 획득부에서 획득된 외부의 영상을 캡쳐하고,
상기 모션 인식에 대응하는 태그를 생성하고,
상기 생성된 태그와 상기 캡쳐된 영상을 결합하여 저장하는 것을 더 포함하는 차량의 제어 방법.17. The method of claim 16,
Image processing the internal image of the vehicle acquired in the second image acquisition unit,
Recognizing the user's motion in the image-processed image,
If the recognized user's motion is an external shooting motion using a terminal, capture the external image acquired by the first image acquisition unit,
generating a tag corresponding to the motion recognition;
The method of controlling a vehicle further comprising combining and storing the generated tag and the captured image.
변속 레버의 위치 정보를 확인하고,
상기 변속 레버의 위치가 파킹 단이면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하고,
상기 획득된 영상의 캡쳐 시점의 차량의 위치 정보를 확인하고,
상기 확인된 위치 정보를 캡쳐된 영상과 결합하여 저장하는 것을 더 포함하는 차량의 제어 방법.17. The method of claim 16,
Check the position information of the shift lever,
If the position of the shift lever is the parking stage, the image acquired by the first image acquisition unit is captured,
Check the location information of the vehicle at the time of capturing the obtained image,
The method of controlling a vehicle further comprising storing the identified location information in combination with a captured image.
내비게이션 모드 및 목적지를 입력받는 입력부;
현재의 위치 정보를 수신하는 위치 수신부;
외부의 영상을 획득하는 영상 획득부;
상기 수신된 위치 정보와 목적지 정보에 기초하여 내비게이션 정보를 생성하고 생기 생성된 내비게이션 정보와 상기 검출된 주행 속도의 변화 정보 중 적어도 하나에 기초하여 상기 획득된 외부의 영상을 캡쳐하고, 현재 위치가 목적지이면 상기 캡쳐된 외부의 영상을 연결하여 드라이브 비디오를 생성하는 제어부;
상기 생성된 드라이브 비디오를 저장하는 저장부; 및
현재 위치에 대응하는 위치 정보를 수신하는 위치 수신부;를 포함하고,
상기 제어부는,
상기 주행 속도의 변화가 속도 감소이면 제1영상 획득부에서 획득된 영상을 캡쳐하고 상기 획득된 영상의 캡쳐 시점의 차량의 위치 정보를 확인하고 확인된 위치 정보를 캡쳐된 영상과 결합하여 저장하고,
상기 제1영상 획득부에서 획득된 외부의 영상을 영상처리하고, 영상 처리된 영상에서 타 차량을 인식하고 인식된 타 차량과의 거리가 기준 거리 이상이고, 상기 주행 속도의 변화가 속도 감소이면 상기 제1영상 획득부에서 획득된 영상을 캡쳐하는 차량.a speed detection unit for detecting the traveling speed;
an input unit for receiving a navigation mode and a destination;
a location receiving unit for receiving current location information;
an image acquisition unit for acquiring an external image;
The navigation information is generated based on the received location information and the destination information, and the acquired external image is captured based on at least one of the generated navigation information and the detected driving speed change information, and the current location is the destination. a control unit for generating a drive video by connecting the captured external image;
a storage unit for storing the generated drive video; and
Including; a location receiving unit for receiving location information corresponding to the current location;
The control unit is
If the change in the driving speed is a decrease in speed, capture the image acquired by the first image acquisition unit, check the position information of the vehicle at the time of capturing the acquired image, combine the identified position information with the captured image and store,
If the external image acquired by the first image acquisition unit is image-processed, and another vehicle is recognized from the image-processed image, and the recognized distance to another vehicle is greater than or equal to the reference distance, and the change in the driving speed is a decrease in speed, the A vehicle that captures the image acquired by the first image acquisition unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170171794A KR102443843B1 (en) | 2017-12-14 | 2017-12-14 | Vehicle and method for controlling the vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170171794A KR102443843B1 (en) | 2017-12-14 | 2017-12-14 | Vehicle and method for controlling the vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190071067A KR20190071067A (en) | 2019-06-24 |
KR102443843B1 true KR102443843B1 (en) | 2022-09-16 |
Family
ID=67055874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170171794A KR102443843B1 (en) | 2017-12-14 | 2017-12-14 | Vehicle and method for controlling the vehicle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102443843B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008165433A (en) * | 2006-12-27 | 2008-07-17 | Fujitsu Ten Ltd | Information recording device |
JP2009246503A (en) * | 2008-03-28 | 2009-10-22 | Denso It Laboratory Inc | Drive video image summary apparatus |
JP2011028651A (en) * | 2009-07-28 | 2011-02-10 | Yupiteru Corp | Image recording device for vehicle |
JP2015230519A (en) * | 2014-06-03 | 2015-12-21 | 株式会社デンソー | Vehicle memory sharing system, on-vehicle device, and memory sharing program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101430407B1 (en) * | 2012-09-20 | 2014-08-20 | 주식회사 에이엠아이 | Navigation device and method performing route guide by using image informaition of road signs and communication device capable of communicating with the navigation device |
KR101495319B1 (en) * | 2013-01-10 | 2015-03-04 | 주식회사 마루테크 | Intelligent video monitoring system and method |
KR101561535B1 (en) * | 2013-12-24 | 2015-10-20 | 전자부품연구원 | Black Box Synchronized to Driver's view and Control Method thereof |
-
2017
- 2017-12-14 KR KR1020170171794A patent/KR102443843B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008165433A (en) * | 2006-12-27 | 2008-07-17 | Fujitsu Ten Ltd | Information recording device |
JP2009246503A (en) * | 2008-03-28 | 2009-10-22 | Denso It Laboratory Inc | Drive video image summary apparatus |
JP2011028651A (en) * | 2009-07-28 | 2011-02-10 | Yupiteru Corp | Image recording device for vehicle |
JP2015230519A (en) * | 2014-06-03 | 2015-12-21 | 株式会社デンソー | Vehicle memory sharing system, on-vehicle device, and memory sharing program |
Also Published As
Publication number | Publication date |
---|---|
KR20190071067A (en) | 2019-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106364430B (en) | Vehicle control device and vehicle control method | |
KR102027646B1 (en) | System and method for processing traffic sound data to provide driver assistance | |
CN106027749B (en) | Vehicle, mobile terminal and control method thereof | |
US9959763B2 (en) | System and method for coordinating V2X and standard vehicles | |
CN107315988B (en) | System and method for presenting media content in an unmanned vehicle | |
CN106470274B (en) | Apparatus and method for controlling portable device in vehicle | |
EP3070700B1 (en) | Systems and methods for prioritized driver alerts | |
US20170101054A1 (en) | Inter-vehicle communication for roadside assistance | |
US20180226077A1 (en) | Vehicle driving assist and vehicle having same | |
KR102659059B1 (en) | In-vehicle avatar processing apparatus and method of controlling the same | |
WO2018180756A1 (en) | Drive assistance system | |
KR20160114486A (en) | Mobile terminal and method for controlling the same | |
CN114935334A (en) | Method and device for constructing topological relation of lanes, vehicle, medium and chip | |
KR20210084243A (en) | Antenna system for a vehicle telematics unit | |
KR102443843B1 (en) | Vehicle and method for controlling the vehicle | |
US11050981B2 (en) | Vehicle and method of controlling the same | |
WO2022024602A1 (en) | Information processing device, information processing method and program | |
JP6435798B2 (en) | Vehicle information guidance system, vehicle information guidance method, and computer program | |
KR102531869B1 (en) | Data processing device, vehicle having the data processing device, and method for controlling the vehicle | |
KR102089955B1 (en) | Robot for vehicle mounted on the vehcile and method for controlling the robot for vehicle | |
KR20200027235A (en) | Video processor, Vehicle having the video processor and method for controlling the vehicle | |
CN114842454B (en) | Obstacle detection method, device, equipment, storage medium, chip and vehicle | |
EP4296132A1 (en) | Vehicle control method and apparatus, vehicle, non-transitory storage medium and chip | |
US11438720B2 (en) | Three-dimensional (3D) audio interaction for vehicles | |
CN115297434B (en) | Service calling method and device, vehicle, readable storage medium and chip |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |