KR20150124527A - Electronic apparatus, control method of electronic apparatus and computer readable recording medium - Google Patents

Electronic apparatus, control method of electronic apparatus and computer readable recording medium Download PDF

Info

Publication number
KR20150124527A
KR20150124527A KR1020140050820A KR20140050820A KR20150124527A KR 20150124527 A KR20150124527 A KR 20150124527A KR 1020140050820 A KR1020140050820 A KR 1020140050820A KR 20140050820 A KR20140050820 A KR 20140050820A KR 20150124527 A KR20150124527 A KR 20150124527A
Authority
KR
South Korea
Prior art keywords
camera
vanishing point
image
distance
unit
Prior art date
Application number
KR1020140050820A
Other languages
Korean (ko)
Other versions
KR102158167B1 (en
Inventor
고석필
Original Assignee
팅크웨어(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 팅크웨어(주) filed Critical 팅크웨어(주)
Priority to KR1020140050820A priority Critical patent/KR102158167B1/en
Publication of KR20150124527A publication Critical patent/KR20150124527A/en
Application granted granted Critical
Publication of KR102158167B1 publication Critical patent/KR102158167B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means

Abstract

Disclosed is a control method of an electronic device. The present control method comprises the following steps: determining a vanishing point of an image photographed by a camera during driving of a vehicle; determining a reference position which is an optimized position of the determined vanishing point; and guiding a holding position of the camera by using the determined vanishing position and the reference position.

Description

전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능한 기록 매체{ELECTRONIC APPARATUS, CONTROL METHOD OF ELECTRONIC APPARATUS AND COMPUTER READABLE RECORDING MEDIUM}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an electronic apparatus, a control method of the electronic apparatus, and a computer readable recording medium.

본 발명은 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능한 기록 매체에 관한 것으로, 보다 상세하게는 차량용 카메라의 거치 방안을 제공하는 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic apparatus, a method of controlling an electronic apparatus, and a computer readable recording medium, and more particularly, to an electronic apparatus, a method of controlling an electronic apparatus and a computer- .

전자 기술의 발달에 힘입어 다양한 종류의 전자 장치 및 기술이 개발 및 보급되고 있다. 특히, 최근에는 실시간으로 촬영되는 촬영 영상에 컴퓨터 그래픽스(Computer Graphics: CG), 문자 등의 부가 정보를 합성하여 표시하는 증강 현실(Augmented Reality: AR)의 형태로 지리 정보를 제공하는 기술이 소개된 바 있다. Various kinds of electronic devices and technologies have been developed and spread by the development of electronic technologies. In particular, recently, a technique of providing geographical information in the form of Augmented Reality (AR) in which additional information such as computer graphics (CG) and characters are displayed on a photographed image photographed in real time has been introduced There is a bar.

이러한 증강 현실 기술에 따르면, 사용자가 실제로 보고 있는 현실 세계를 담고 있는 화면에 부가 정보(예를 들면, 관심 지점(Point Of Interest: POI)을 나타내는 그래픽 요소, 목적지까지의 경로를 나타내는 그래픽 요소 등)를 시각적으로 중첩하여 제공할 수 있으므로 사용자에게 보다 직관적인 방법으로 지리 정보를 제공할 수 있게 된다.According to this augmented reality technique, additional information (for example, a graphical element indicating a point of interest (POI), a graphical element indicating a path to a destination, etc.) is displayed on a screen containing a real world that the user actually sees, It is possible to provide the geographical information in a more intuitive manner to the user.

한편, 증강 현실 기술과 더불어, 운전자의 안전한 운전을 보조하기 위해 차선 이탈 안내, 전방 차량 충돌 안내, 신호등 변경 안내, 전방 차량 추돌 방지 안내 등과 같은 다양한 기술들이 소개되고 있다. In addition to the augmented reality technology, various technologies such as lane departure guidance, forward vehicle collision guidance, traffic light change guidance, and forward vehicle collision prevention guidance are introduced to assist the driver in safe driving.

다만, 상술한 다양한 기술들을 제공하기 위해서는 차량에 거치된 카메라에서 촬영된 영상이 상술한 다양한 기술들의 제공에 적합한 영상이어야 한다. However, in order to provide the various techniques described above, the image captured by the camera mounted on the vehicle must be suitable for providing the various technologies described above.

따라서, 영상을 촬영하는 카메라를 최적의 위치에 거치시키기 위한 방안이 필요하다. Therefore, there is a need for a method for mounting a camera for photographing an image at an optimum position.

본 발명은 상술한 필요성에 따라 안출된 것으로, 본 발명의 목적은 사용자가 차량용 카메라를 쉽게 최적의 위치에 거치할 수 있는 거치 방안을 제공하는 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능한 기록 매체를 제공함에 있다.SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned needs, and it is an object of the present invention to provide an electronic apparatus, a control method of the electronic apparatus, and a computer readable recording medium which provide a mounting method by which a user can easily mount an in- .

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법은, 차량의 운전 중에 카메라에서 촬영된 영상의 소실점(Vanishing point)을 결정하는 단계, 상기 결정된 소실점의 최적의 위치인 기준 위치를 결정하는 단계 및 상기 결정된 소실점의 위치 및 기준 위치를 이용하여 상기 카메라의 거치 위치를 안내하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of controlling an electronic device, the method including determining a vanishing point of an image captured by a camera during driving of a vehicle, Determining a reference position, and guiding the mount position of the camera using the determined position of the vanishing point and the reference position.

또한, 상기 기준 위치는, 상기 차량의 운전 중에 상기 카메라에서 촬영된 영상을 이용하여 최적의 운전 관련 안내를 제공할 수 있는 소실점의 위치일 수 있다.The reference position may be a position of a vanishing point capable of providing an optimal driving-related guidance using an image photographed by the camera during driving of the vehicle.

그리고, 상기 운전 관련 안내는, 증강 현실 경로 안내, 차선 이탈 안내, 전방 차량 출발 안내, 신호등 변경 안내, 전방 차량 추돌 방지 안내 중 적어도 하나를 포함하고, 상기 기준 위치는, 상기 촬영 영상의 중심으로부터 소정 거리 내에 위치할 수 있다.The driving-related guidance may include at least one of an augmented reality route guidance, a lane departure guidance, a forward vehicle departure guidance, a traffic light change guidance, and a front vehicle collision prevention guide, Can be located within a distance.

또한, 상기 카메라의 거치 위치 안내를 요청하는 사용자 입력을 수신하는 단계를 더 포함하고, 상기 안내하는 단계는, 상기 차량의 속도가 기 설정된 속도 이하인 경우에 수행될 수 있다.Further, the method may further include receiving a user input requesting a placement position guidance of the camera, and the guiding step may be performed when the speed of the vehicle is equal to or less than a predetermined speed.

그리고, 상기 안내하는 단계는, 상기 결정된 소실점의 위치 및 상기 기준 위치 간의 위치 차이를 산출하는 단계, 상기 결정된 소실점의 위치를 상기 기준 위치에 위치시키기 위해 상기 카메라의 기존 거치 위치를 기준으로 이동시켜야하는 거리 및 방향을 상기 산출된 위치 차이를 이용하여 산출하는 단계 및 산출된 거리 및 방향을 음성으로 제공하거나 또는 산출된 거리 및 방향을 나타내는 안내 객체를 화면에 표시하는 단계를 포함할 수 있다.The guiding step may include calculating a positional difference between the determined position of the vanishing point and the reference position, and moving the position of the determined vanishing point relative to the existing mounting position of the camera to the reference position Calculating a distance and a direction using the calculated positional difference, and displaying the calculated distance and direction as a voice or a guide object indicating a calculated distance and direction on the screen.

또한, 사용자가 상기 안내를 기초로 상기 카메라를 이동시키면, 상기 사용자의 카메라 이동에 따른 결과를 반영하여 상기 거리 및 방향을 갱신하는 단계 및 상기 갱신된 거리 및 방향을 음성으로 제공하거나 또는 상기 갱신된 거리 및 방향을 나타내는 안내 객체를 화면에 표시하는 단계를 더 포함할 수 있다.And updating the distance and direction by reflecting the result of the camera movement of the user when the user moves the camera on the basis of the guidance and providing the updated distance and direction by voice or by using the updated And displaying a guide object representing a distance and a direction on a screen.

그리고, 상기 안내하는 단계는, 상기 결정된 소실점의 위치 및 상기 기준 위치 간의 위치 차이를 산출하는 단계, 상기 카메라의 기존 거치 위치에서 실시간으로 촬영된 영상을 캡쳐링하는 단계, 상기 위치 차이를 이용하여 상기 캡쳐링 영상을 표시할 화면 내 소정 영역을 결정하는 단계 및 상기 실시간 촬영 영상을 상기 화면에 표시하고, 상기 결정된 영역에 상기 캡쳐링 영상을 겹쳐서 표시하는 단계를 포함할 수 있다.The guiding step may include calculating a positional difference between the determined position of the vanishing point and the reference position, capturing an image photographed in real time at the existing mount position of the camera, Determining a predetermined region in a screen for displaying a capturing image, displaying the real-time captured image on the screen, and superimposing the capturing image on the determined region.

또한, 상기 결정된 소실점의 위치를 상기 기준 위치에 위치시키기 위해 상기 카메라의 기존 거치 위치를 기준으로 이동시켜야하는 거리 및 방향을 산출하는 단계 및 상기 산출된 거리 및 방향을 나타내는 안내 객체를 상기 화면에 표시하는 단계를 더 포함할 수 있다.Calculating a distance and a direction to be moved based on the existing mount position of the camera so as to position the determined vanishing point position to the reference position, and displaying a guide object indicating the calculated distance and direction on the screen The method comprising the steps of:

그리고, 상기 실시간 촬영 영상과 상기 캡쳐링 영상을 매칭하는 단계, 상기 매칭 결과를 반영하여 상기 거리 및 방향을 갱신하는 단계 및 상기 갱신된 거리 및 방향을 나타내는 안개 객체를 상기 화면에 표시하는 단계를 더 포함할 수 있다.The method may further include the steps of: matching the real-time image with the capturing image; updating the distance and direction by reflecting the matching result; and displaying a fog object indicating the updated distance and direction on the screen .

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 장치는, 차량의 운전 중에 카메라에서 촬영된 영상의 소실점(Vanishing point)을 결정하고, 상기 결정된 소실점의 최적의 위치인 기준 위치를 결정하는 결정부, 상기 결정된 소실점의 위치 및 상기 기준 위치를 저장하는 저장부 및 상기 결정된 소실점의 위치 및 기준 위치를 이용하여 상기 카메라의 거치 위치를 안내하는 제어부를 포함한다.According to another aspect of the present invention, there is provided an electronic device for determining a vanishing point of an image photographed by a camera during operation of a vehicle, A storage unit for storing the position of the determined vanishing point and the reference position, and a controller for guiding the mounting position of the camera using the determined position and reference position of the vanishing point.

그리고, 상기 기준 위치는, 상기 차량의 운전 중에 상기 카메라에서 촬영된 영상을 이용하여 최적의 운전 관련 안내를 제공할 수 있는 소실점의 위치일 수 있다.The reference position may be a position of a vanishing point capable of providing an optimal driving-related guide by using the image photographed by the camera while the vehicle is in operation.

또한, 상기 운전 관련 안내는, 증강 현실 경로 안내, 차선 이탈 안내, 전방 차량 출발 안내, 신호등 변경 안내, 전방 차량 추돌 방지 안내 중 적어도 하나를 포함하고, 상기 기준 위치는, 상기 촬영 영상의 중심으로부터 소정 거리 내에 위치할 수 있다.Further, the driving-related guidance may include at least one of an augmented reality route guidance, a lane departure guidance, a forward vehicle departure guidance, a traffic light change guidance, and a front vehicle collision prevention guide, Can be located within a distance.

그리고, 상기 카메라의 거치 위치 안내를 요청하는 사용자 입력을 수신하는 입력부를 더 포함하고, 상기 제어부는, 상기 차량의 속도가 기 설정된 속도 이하인 경우에 상기 안내를 수행하도록 제어할 수 있다.The control unit may further include an input unit for receiving a user input requesting the placement position guidance of the camera, and the control unit may control the guidance to be performed when the speed of the vehicle is equal to or less than a predetermined speed.

또한, 음성을 출력하는 오디오 출력부, 화면을 표시하는 디스플레이부 및 상기 결정된 소실점의 위치 및 상기 기준 위치 간의 위치 차이를 산출하고, 상기 결정된 소실점의 위치를 상기 기준 위치에 위치시키기 위해 상기 카메라의 기존 거치 위치를 기준으로 이동시켜야하는 거리 및 방향을 상기 산출된 위치 차이를 이용하여 산출하는 산출부를 더 포함하고, 상기 제어부는, 상기 산출된 거리 및 방향을 음성으로 제공하도록 상기 오디오 출력부를 제어하거나 또는 상기 산출된 거리 및 방향을 나타내는 안내 객체를 화면에 표시하도록 상기 디스플레이부를 제어할 수 있다.In addition, it is also possible to provide an audio output unit for outputting audio, a display unit for displaying a screen, and a control unit for calculating a positional difference between the determined position of the vanishing point and the reference position and for determining the position of the determined vanishing point at the reference position Further comprising a calculating unit that calculates a distance and a direction that should be moved based on the stationary position using the calculated position difference, and the control unit controls the audio output unit to provide the calculated distance and direction by voice or The display unit may be controlled to display the guide object indicating the calculated distance and direction on the screen.

그리고, 상기 산출부는, 사용자가 상기 안내를 기초로 상기 카메라를 이동시키면, 상기 사용자의 카메라 이동에 따른 결과를 반영하여 상기 거리 및 방향을 갱신하고, 상기 제어부는, 상기 갱신된 거리 및 방향을 음성으로 제공하도록 상기 오디오 출력부를 제어하거나 또는 상기 갱신된 거리 및 방향을 나타내는 안내 객체를 화면에 표시하도록 상기 디스플레이부를 제어할 수 있다.If the user moves the camera on the basis of the guidance, the calculating unit updates the distance and the direction reflecting the result of the camera movement of the user, and the control unit sets the updated distance and direction as voice Or to control the display unit to display a guide object indicating the updated distance and direction on the screen.

또한, 화면을 표시하는 디스플레이부 및 상기 결정된 소실점의 위치 및 상기 기준 위치 간의 위치 차이를 산출하고, 캡쳐링 영상을 표시할 화면 내 소정 영역을 상기 위치 차이를 이용하여 결정하는 산출부를 더 포함하고, 상기 캡쳐링 영상은, 상기 카메라의 기존 거치 위치에서 실시간으로 촬영된 영상에서 캡쳐링된 영상이며, 상기 제어부는, 상기 실시간 촬영 영상을 상기 화면에 표시하고, 상기 결정된 영역에 상기 캡쳐링 영상을 겹쳐서 표시하도록 상기 디스플레이부를 제어할 수 있다.And a calculating unit for calculating a positional difference between the determined position of the vanishing point and the reference position and determining a predetermined area in the screen for displaying the captured image using the positional difference, Wherein the capturing image is an image captured in an image photographed in real time at an existing mount position of the camera, the control unit displays the real-time photographed image on the screen, superimposes the capturing image on the determined area, It is possible to control the display unit to display it.

그리고, 상기 산출부는, 상기 결정된 소실점의 위치를 상기 기준 위치에 위치시키기 위해 상기 카메라의 기존 거치 위치를 기준으로 이동시켜야하는 거리 및 방향을 산출하고, 상기 제어부는, 상기 산출된 거리 및 방향을 나타내는 안내 객체를 상기 화면에 표시하도록 상기 디스플레이부를 제어할 수 있다.The calculating unit may calculate a distance and a direction that should be moved based on the existing mount position of the camera in order to position the determined vanishing point position to the reference position, The display unit can be controlled to display the guide object on the screen.

또한, 상기 실시간 촬영 영상과 상기 캡쳐링 영상을 매칭하는 영상 매칭부;를 더 포함하고, 상기 산출부는, 상기 매칭 결과를 반영하여 상기 거리 및 방향을 갱신하며, 상기 제어부는, 상기 갱신된 거리 및 방향을 나타내는 안개 객체를 상기 화면에 표시하도록 상기 디스플레이부를 제어할 수 있다.The image processing apparatus may further include an image matching unit for matching the real-time image and the capturing image, and the calculating unit updates the distance and the direction by reflecting the matching result, The control unit may control the display unit to display a fog object indicating the direction on the screen.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 수행하기 위한 프로그램 코드가 기록된 컴퓨터 판독 가능한 기록 매체에 있어서, 상기 제어 방법은, 차량의 운전 중에 카메라에서 촬영된 영상의 소실점(Vanishing point)을 결정하는 단계, 상기 결정된 소실점의 최적의 위치인 기준 위치를 결정하는 단계 및 상기 결정된 소실점의 위치 및 기준 위치를 이용하여 상기 카메라의 거치 위치를 안내하는 단계를 포함한다.According to another aspect of the present invention, there is provided a computer-readable recording medium having recorded thereon a program code for performing an electronic device control method according to an embodiment of the present invention, Determining a vanishing point of the photographed image, determining a reference position that is an optimal position of the determined vanishing point, and guiding a mounting position of the camera using the determined position and reference position of the vanishing point .

상술한 본 발명의 다양한 실시 예에 따르면, 사용자가 차량용 카메라를 쉽게 최적의 위치에 거치할 수 있는 거치할 수 있다. According to various embodiments of the present invention described above, it is possible for a user to mount the vehicle camera so that it can be easily mounted at an optimum position.

이에 따라, 전자 장치는 최적의 위치에 거치된 카메라의 촬영 영상을 이용하여 차선 이탈 안내 기능, 전방 차량 출발 안내 기능, 신호등 변경 안내 기능, 전방 차량 추돌 방지 안내 기능, 증강현실 경로 안내 기능 등과 같은 운전자의 안전한 운전을 보조하는 기능을 정확하게 제공할 수 있다. Accordingly, the electronic device can use the photographed image of the camera placed at the optimum position to perform a lane departure guidance function, a forward vehicle departure guidance function, a traffic light change guidance function, a forward vehicle collision avoidance guidance function, Thereby accurately providing a function for assisting safe operation of the vehicle.

도 1은 본 발명의 일 실시 예에 따른 전자 장치를 나타내는 블록도 이다.
도 2는 본 발명의 일 실시 예에 따른 전자 장치를 구체적으로 나타내는 블록도 이다.
도 3은 본 발명의 일 실시 예에 따른 소실점 결정 방법을 나타내는 도면이다.
도 4는 본 발명의 일 실시 예에 따른 소실점의 위치와 기준 위치를 나타내는 도면이다.
도 5는 본 발명의 일 실시 예에 따른 위치 차이 산출 방법을 나타내는 도면이다.
도 6은 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 나타내는 흐름도 이다.
도 7은 본 발명의 일 실시 예에 따른 전자 장치의 구체적으로 제어 방법을 나타내는 흐름도 이다.
도 8은 본 발명의 일 실시 예에 따른 안내 방법을 나타내는 UI(User Interface) 화면을 나타내는 도면이다.
도 9는 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 구체적으로 나타내는 흐름도 이다.
도 10은 본 발명의 일 실시 예에 따른 안내 방법을 나타내는 UI(User Interface) 화면을 나타내는 도면이다.
도 11은 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 구체적으로 나타내는 흐름도 이다.
도 12는 본 발명의 일 실시 예에 따른 카메라와 전자 장치가 분리형이 경우 구현 형태를 나타내는 도면이다.
도 13은 본 발명의 일 실시 예에 따른 카메라와 전자 장치가 일체형인 경우 구현 형태를 나타내는 도면이다.
도 14는 본 발명의 일 실시 예에 따른 HUD(Head-Up Display) 및 전자 장치를 이용한 구현 형태를 나타내는 도면이다.
1 is a block diagram illustrating an electronic device according to an embodiment of the present invention.
2 is a block diagram specifically illustrating an electronic device according to an embodiment of the present invention.
3 is a diagram illustrating a method for determining a vanishing point according to an embodiment of the present invention.
4 is a view showing positions and reference positions of a vanishing point according to an embodiment of the present invention.
5 is a diagram illustrating a position difference calculation method according to an embodiment of the present invention.
6 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present invention.
7 is a flowchart showing a specific control method of an electronic device according to an embodiment of the present invention.
8 is a view showing a UI (User Interface) screen showing a guidance method according to an embodiment of the present invention.
9 is a flowchart specifically illustrating a control method of an electronic device according to an embodiment of the present invention.
10 is a view showing a UI (User Interface) screen showing a guidance method according to an embodiment of the present invention.
11 is a flowchart specifically illustrating a control method of an electronic device according to an embodiment of the present invention.
12 is a view showing an embodiment in which a camera and an electronic device are separated from each other according to an embodiment of the present invention.
13 is a view illustrating an embodiment in which a camera and an electronic device according to an embodiment of the present invention are integrated.
FIG. 14 is a diagram illustrating an embodiment using an HUD (Head-Up Display) and an electronic device according to an embodiment of the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following merely illustrates the principles of the invention. Thus, those skilled in the art will be able to devise various apparatuses which, although not explicitly described or shown herein, embody the principles of the invention and are included in the concept and scope of the invention. Furthermore, all of the conditional terms and embodiments listed herein are, in principle, only intended for the purpose of enabling understanding of the concepts of the present invention, and are not to be construed as being limited to such specifically recited embodiments and conditions do.

또한, 본 발명의 원리, 관점 및 실시 예들 뿐만 아니라 특정 실시 예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.It is also to be understood that the detailed description, as well as the principles, aspects and embodiments of the invention, as well as specific embodiments thereof, are intended to cover structural and functional equivalents thereof. It is also to be understood that such equivalents include all elements contemplated to perform the same function irrespective of the currently known equivalents as well as the equivalents to be developed in the future, i.e., the structure.

따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, it should be understood that the block diagrams herein represent conceptual views of exemplary circuits embodying the principles of the invention. Similarly, all flowcharts, state transition diagrams, pseudo code, and the like are representative of various processes that may be substantially represented on a computer-readable medium and executed by a computer or processor, whether or not the computer or processor is explicitly shown .

프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.The functions of the various elements shown in the figures, including the functional blocks depicted in the processor or similar concept, may be provided by use of dedicated hardware as well as hardware capable of executing software in connection with appropriate software. When provided by a processor, the functions may be provided by a single dedicated processor, a single shared processor, or a plurality of individual processors, some of which may be shared.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.Also, the explicit use of terms such as processor, control, or similar concepts should not be interpreted exclusively as hardware capable of running software, and may be used without limitation as a digital signal processor (DSP) (ROM), random access memory (RAM), and non-volatile memory. Other hardware may also be included.

본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.In the claims hereof, the elements represented as means for performing the functions described in the detailed description include all types of software including, for example, a combination of circuit elements performing the function or firmware / microcode etc. , And is coupled with appropriate circuitry to execute the software to perform the function. It is to be understood that the invention defined by the appended claims is not to be construed as encompassing any means capable of providing such functionality, as the functions provided by the various listed means are combined and combined with the manner in which the claims require .

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, in which: There will be. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시 예를 상세히 설명하기로 한다.Various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 전자 장치를 나타내는 블록도 이다. 도 1을 참조하면, 전자 장치(100)는 저장부(110), 입력부(120), 출력부(130), 결정부(140), 산출부(150), 영상 매칭부(160), 제어부(170)의 전부 또는 일부를 포함한다.1 is a block diagram illustrating an electronic device according to an embodiment of the present invention. 1, an electronic device 100 includes a storage unit 110, an input unit 120, an output unit 130, a determination unit 140, a calculation unit 150, an image matching unit 160, 170).

여기서, 전자 장치(100)는 차량 운전자에게 운전 관련 안내를 제공할 수 있는 스마트 폰, 태블릿 컴퓨터, 노트북 컴퓨터, PDA(personal digital assistant), PMP(portable multimedia player), 스마트 글래스, 프로젝트 글래스, 내비게이션(navigation), 블랙 박스(Black-box) 등과 같은 다양한 장치로 구현될 수 있다. Here, the electronic device 100 may be a smart phone, a tablet computer, a notebook computer, a personal digital assistant (PDA), a portable multimedia player (PMP), a smart glass, a project glass, navigation, black-box, and the like.

여기서, 차량의 운전 상태는, 차량의 정차 상태, 차량의 주행 상태, 차량의 주차 상태 등과 같이 차량이 운전자에 의하여 운전되고 있는 다양한 상태를 포함할 수 있다. Here, the driving state of the vehicle may include various states in which the vehicle is being driven by the driver, such as a vehicle stopping state, a running state of the vehicle, a parking state of the vehicle, and the like.

운전 관련 안내는 경로 안내, 차선 이탈 안내, 전방 차량 출발 안내, 신호등 변경 안내, 전방 차량 추돌 방지 안내등과 같이 차량 운전자의 운전을 보조하기 위한 다양한 안내를 포함할 수 있다. The driving-related guidance may include various guidance for assisting the driver of the vehicle such as a route guidance, a lane departure guidance, a forward vehicle departure guidance, a traffic light change guidance, a front vehicle collision prevention guide, and the like.

여기서, 경로 안내는, 운전 중인 차량의 전방을 촬영한 영상에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 증강 현실 경로 안내, 및 2D(2-Dimensional) 또는 3D(3-Dimensional)의 지도 데이터에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 2D(2-Dimensional) 또는 3D(3-Dimensional) 경로 안내를 포함할 수 있다. 여기서, 경로 안내는, 사용자가 차량에 탑승하여 운전하는 경우 뿐만 아니라, 사용자가 걷거나 뛰어서 이동하는 경우의 경로 안내도 포함하는 개념으로 해석될 수 있다. Here, the route guidance includes augmented reality route guidance for performing route guidance by combining various information such as a user's position, direction, and the like to an image taken in front of the vehicle in operation, and a 2D (2-Dimensional) (2-Dimensional) or 3D (3-Dimensional) path guidance that combines various information such as the user's location, direction, Here, the route guidance can be interpreted not only as a case in which the user rides on the vehicle but also includes a route guidance in the case where the user moves or jumps.

또한, 차선 이탈 안내는, 주행 중인 차량이 차선을 이탈하였는지 여부를 안내하는 것일 수 있다. Further, the lane departure guidance may be to guide whether or not the vehicle being driven has departed from the lane.

또한, 전방 차량 출발 안내는, 정차 중인 차량의 전방에 위치한 차량의 출발 여부를 안내하는 것일 수 있다. In addition, the forward vehicle departure guidance may be to guide the departure of the vehicle located in front of the vehicle being stopped.

또한, 신호등 변경 안내는, 정차 중인 차량의 전방에 위치한 신호등의 변경 여부를 안내하는 것일 수 있다. 일 예로, 정지 신호를 나타내는 빨간등이 켜진 상태에서 출발 신호를 나타내는 파란등으로 변경되면, 이를 안내하는 것 일 수 있다. Further, the traffic light change guidance may be to guide the change of the traffic light located in front of the vehicle being stopped. For example, when the red light indicating the stop signal is changed from a lighted state to a blue light representing the start signal, or the like, it may be guided.

또한, 전방 차량 추돌 방지 안내는 정차 또는 주행 중인 차량의 전방에 위치한 차량과의 거리가 일정 거리 이내가 되면 전방 차량과 추돌을 방지하기 위해 이를 안내하는 것일 수 있다. The front vehicle collision avoidance guidance may be to guide the vehicle to avoid a collision with the preceding vehicle when the distance to the vehicle located in front of the stopped or running vehicle is within a certain distance.

이러한, 다양한 안내의 제공을 가능하게 하는 차량의 전방 영상은 차량에 거치된 카메라에서 촬영될 수 있다. 여기서 카메라는 차량에 거치된 전자 장치(100)와 일체로 형성되어 차량의 전방을 촬영하는 카메라일 수 있다. 이 경우, 카메라는 스마트 폰, 내비게이션, 또는 블랙 박스와 일체로 형성될 수 있고, 전자 장치(100)는 일체로 형성된 카메라에서 촬영된 영상을 입력받을 수 있다.Such a forward image of the vehicle enabling the provision of various guides can be photographed in a camera mounted on the vehicle. Here, the camera may be a camera that is integrally formed with the electronic device 100 mounted on the vehicle and photographs the front of the vehicle. In this case, the camera may be integrally formed with a smart phone, a navigation device, or a black box, and the electronic device 100 may receive an image photographed by a camera formed integrally.

다른 예로, 카메라는 전자 장치(100)와 별개로 차량에 거치되어 차량의 전방을 촬영하는 카메라일 수 있다. 이 경우, 카메라는 차량의 전방을 향하여 거치된 별도의 블랙 박스일 수 있고, 전자 장치(100)는 별도로 거치된 블랙박스와 유/무선 통신을 통하여 촬영 영상을 입력받거나, 블랙 박스의 촬영 영상을 저장하는 저장 매체가 전자 장치(100)에 삽입되면, 전자 장치(100)는 촬영 영상을 입력받을 수 있다. As another example, the camera may be a camera that is mounted on the vehicle separately from the electronic device 100 and photographs the front of the vehicle. In this case, the camera may be a separate black box that is mounted toward the front of the vehicle, and the electronic device 100 may receive the photographed image through wired / wireless communication with the separately mounted black box, When the storage medium to be stored is inserted into the electronic device 100, the electronic device 100 can receive a photographed image.

이하에서는, 상술한 내용을 기초로 본 발명의 일 실시 예에 따른 전자 장치(100)에 대해서 보다 구체적으로 설명하기로 한다.Hereinafter, the electronic device 100 according to one embodiment of the present invention will be described in more detail based on the above description.

저장부(110)는 전자 장치(100)의 동작에 필요한 다양한 데이터 및 어플리케이션을 저장하는 기능을 한다. 특히, 저장부(110)는 전자 장치(100)의 동작에 필요한 데이터, 예를 들어, OS, 경로 탐색 어플리케이션, 맵(map) 등을 저장할 수 있다. 또한, 저장부(110)는 전자 장치(100)의 동작에 의하여 생성된 데이터, 예를 들어, 탐색된 경로 데이터, 수신한 영상 등을 저장할 수 있다. 또한, 저장부(110)는 결정부(140)에서 결정된 소설점의 위치 및 기준 위치를 저장할 수 있다. The storage unit 110 functions to store various data and applications necessary for the operation of the electronic device 100. In particular, the storage unit 110 may store data necessary for the operation of the electronic device 100, for example, an OS, a path search application, a map, and the like. Also, the storage unit 110 may store data generated by the operation of the electronic device 100, for example, the detected route data, the received image, and the like. In addition, the storage unit 110 may store the positions and reference positions of the novel points determined by the determination unit 140.

여기서 저장부(110)는 RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USIM(Universal Subscriber Identity Module)등과 같은 내장된 형태의 저장소자는 물론, USB 메모리 등과 같은 착탈가능한 형태의 저장소자로 구현될 수도 있다.Herein, the storage unit 110 may be implemented as a random access memory (RAM), a flash memory, a ROM, an erasable programmable ROM (EPROM), an electrically erasable and programmable ROM (EEPROM), a register, a hard disk, Card, a Universal Subscriber Identity Module (USIM), or the like, as well as a detachable type storage device such as a USB memory.

입력부(120)는 전자 장치(100)의 외부로부터의 물리적 입력을 특정한 전기 신호로 변환하는 기능을 한다. 이에 따라, 입력부(120)는 카메라의 거치 위치 안내를 요청하는 사용자 입력을 수신할 수 있다. 여기서, 입력부(120)는 사용자 입력 부(121)와 마이크부(123)의 전부 또는 일부를 포함할 수 있다.The input unit 120 functions to convert a physical input from the outside of the electronic device 100 into a specific electric signal. Accordingly, the input unit 120 can receive a user input requesting the placement position guidance of the camera. Here, the input unit 120 may include all or some of the user input unit 121 and the microphone unit 123.

사용자 입력부(121)는 터치, 푸쉬동작 등과 같은 사용자 입력을 수신할 수 있다. 여기서 사용자 입력붑(120)는 다양한 버튼의 형태, 터치 입력을 수신하는 터치 센서, 접근하는 모션을 수신하는 근접 센서 중 적어도 하나를 이용하여 구현될 수 있다. The user input unit 121 can receive user inputs such as touch, push operation, and the like. The user input unit 120 may be implemented using at least one of various types of buttons, a touch sensor for receiving a touch input, and a proximity sensor for receiving an approaching motion.

마이크부(123)는 사용자의 음성 및 차량의 내외부에서 발생한 음향을 수신할 수 있다.The microphone unit 123 can receive the user's voice and the sound generated from the inside and the outside of the vehicle.

출력부(130)는 전자 장치(100)의 데이터를 출력하는 장치이다. 여기서, 출력부(130)는 디스플레이부(131)와 오디오 출력부(133)의 전부 또는 일부를 포함할 수 있다.The output unit 130 is a device for outputting data of the electronic device 100. Here, the output unit 130 may include all or a part of the display unit 131 and the audio output unit 133.

디스플레이부(131)는 전자 장치(100)이 시각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 디스플레이부(131)는 전자 장치(100)의 하우징 전면(前面)에 마련된 디스플레이부로 구현될 수 있다. 여기서 디스플레이부(131)는 전자 장치(100)와 일체로 형성되어 시각적 인식 데이터를 출력할 수 있고, HUD(Head Up Display)와 같이 전자 장치(100)와 별개로 설치되어 시각적 인식 데이터를 출력할 수도 있다. The display unit 131 is a device that outputs data that the electronic device 100 can visually recognize. The display unit 131 may be implemented as a display unit provided on the front surface of the housing of the electronic device 100. The display unit 131 may be formed integrally with the electronic device 100 to output visual recognition data and may be installed separately from the electronic device 100 such as a HUD (Head Up Display) to output visual recognition data It is possible.

오디오 출력부(133)는 전자 장치(100)가 청각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 오디오 출력부(133)는 전자 장치(100)의 사용자에게 알려야 할 데이터를 소리를 표현하는 스피커로 구현될 수 있다.The audio output unit 133 is a device that outputs data that the electronic device 100 can perceive audibly. The audio output unit 133 may be implemented as a speaker for expressing sound data to be notified to the user of the electronic device 100.

결정부(140)는 차량의 운전 중에 카메라에서 촬영된 영상의 소실점(Vanishing point)을 결정할 수 있다. 구체적으로 결정부(140)는 차량의 운전 중에 카메라에서 촬영된 촬영 영상으로부터 차선을 추출하고, 추출된 차선을 연장하여 서로 교차하게 되는 점을 소실점(Vanishing point)으로 결정할 수 있다. The determination unit 140 may determine a vanishing point of the image photographed by the camera during operation of the vehicle. Specifically, the determining unit 140 may extract a lane from the photographed image photographed by the camera during driving of the vehicle, and extend the extracted lane to determine a vanishing point that intersects with the lane.

또한, 결정부(140)는 촬영 영상에 결정된 소실점의 위치인 소실점 위치를 결정할 수 있다.In addition, the determination unit 140 can determine the position of the vanishing point, which is the position of the vanishing point determined in the photographed image.

여기서, 결정된 소실점의 위치는, 차량에서 카메라의 거치 위치에 따라 변경될 수 있다. 이러한, 결정부(140)의 소실점 결정 및 소실점 위치 결정은 도 3을 참조하여 후술하기로 한다.Here, the position of the determined vanishing point can be changed in accordance with the mounting position of the camera in the vehicle. The determination of the vanishing point and the determination of the position of the vanishing point of the determining unit 140 will be described later with reference to FIG.

한편, 결정부(140)는 소실점의 최적의 위치인 기준 위치를 결정할 수 있다. 여기서, 기준 위치는, 차량의 운전 중에 카메라에서 촬영된 영상을 이용하여 최적의 운전 관련 안내를 제공할 수 있는 소실점의 위치일 수 있다. 여기서, 운전 관련 안내는, 증강 현실 경로 안내, 차선 이탈 안내, 전방 차량 출발 안내, 신호등 변경 안내, 전방 차량 추돌 방지 안내 중 적어도 하나를 포함할 수 있다. On the other hand, the determination unit 140 can determine the reference position that is the optimal position of the vanishing point. Here, the reference position may be a position of a vanishing point which can provide an optimal driving-related guidance by using the image photographed by the camera while the vehicle is in operation. Here, the driving-related guidance may include at least one of an augmented reality route guidance, a lane departure guidance, a forward vehicle departure guidance, a traffic light change guidance, and a front vehicle collision prevention guide.

이러한 기준 위치는, 운전자가 선택한 운전 관련 안내 중요 순위에 따라 결정될 수 있다. 일 예로, 운전자가 차선 이탈 안내의 중요 순위를 1순위로 선택한 경우, 전자 장치(100)가 촬영 영상에서 차선 검출을 정확하게 수행할 수 있도록, 기준 위치는 촬영 영상의 가로 중심 라인을 기준으로 위쪽에 위치할 수 있다. 다른 예로, 운전자가 신호등 변경 안내의 중요 순위를 1순위로 선택한 경우, 전자 장치(100)가 촬영 영상에서 신호등 검출을 정확하게 수행할 수 있도록, 기준 위치는 촬영 영상의 가로 중심 라인을 기준으로 아래쪽에 위치할 수 있다. Such a reference position may be determined according to the driving-related information important rank selected by the driver. For example, when the driver selects the important ranking of the lane departure guidance as the first rank, the reference position is set to the upper side with respect to the horizontal center line of the photographed image so that the electronic device 100 can accurately perform lane detection on the photographed image Can be located. As another example, when the driver selects the important ranking of the traffic light change guidance as the first rank, the reference position is set to the lower side with respect to the horizontal center line of the photographed image so that the electronic device 100 can accurately perform the traffic light detection on the photographed image Can be located.

또 다른 예로, 운전자가 증강 현실 경로 안내, 차선 이탈 안내, 전방 차량 출발 안내, 신호등 변경 안내, 전방 차량 추돌 방지 안내 모두의 중요 순위를 1순위로 선택하는 경우, 전자 장치(100)가 촬영 영상을 이용하여 상술한 안내를 모두 정확하게 수행할 수 있도록, 기준 위치는 촬영 영상의 중심으로부터 소정 거리 내에 위치할 수 있다. As another example, when the driver selects the important ranking of the augmented reality route guidance, the lane departure guidance, the forward vehicle departure guidance, the traffic light change guidance, and the front vehicle collision prevention guidance as the first rank, the electronic device 100 selects The reference position may be located within a predetermined distance from the center of the photographed image so that all of the above-described guidance can be accurately performed.

이러한, 결정부(140)의 기준 위치 결정은 도 4를 참조하여 후술하기로 한다.The reference position determination of the determination unit 140 will be described later with reference to FIG.

산출부(150)는 결정부(140)에서 결정된 소실점의 위치 및 기준 위치 간의 위치 차이를 산출할 수 있다. 구체적으로 산출부(150)는 결정부(140)에서 결정된 소실점의 위치 및 기준 위치를 비교하고, 소실점의 위치 및 기준 위치 간의 위치 차이를 산출할 수 있다.The calculating unit 150 may calculate the positional difference between the position of the vanishing point determined by the determining unit 140 and the reference position. Specifically, the calculating unit 150 may compare the position and the reference position of the vanishing point determined by the determining unit 140, and calculate the position difference between the position of the vanishing point and the reference position.

일 예로, 산출부(150)는 소실점의 위치를 기준으로 설정하고, 소실점의 위치로부터 기준 위치까지의 거리 및 방향을 나타내는 위치 차이를 산출할 수 있다. 즉, 산출부(150)는 소실점의 위치에 대응되는 좌표 (X1,Y1)을 기준으로 설정하고, 소실점의 위치에 대응되는 좌표로부터 기준 위치에 대응되는 좌표 (X2, Y2)까지의 거리 및 방향을 나타내는 위치 차이(X1-X2, Y1-Y2)를 산출할 수 있다. For example, the calculating unit 150 can set the position of the vanishing point as a reference, and calculate the position difference indicating the distance and direction from the vanishing point position to the reference position. That is, the calculating unit 150 sets the coordinates (X1, Y1) corresponding to the position of the vanishing point as a reference, and calculates the distance from the coordinates corresponding to the position of the vanishing point to the coordinates (X2, Y2) (X1-X2, Y1-Y2) representing the positional difference.

다른 예로, 산출부(150)는 기준 위치를 기준으로 설정하고, 기준 위치로부터 소실점 위치까지의 거리 및 방향을 나타내는 위치 차이를 산출할 수 있다. 즉, 산출부(150)는 기준 위치에 대응되는 좌표 (X2,Y2)를 기준으로 설정하고, 기준 위치에 대응되는 좌표로부터 소실점의 위치에 대응되는 좌표 (X1, Y1)까지의 거리 및 방향을 나타내는 위치 차이(X2-X1, Y2-Y1)를 산출할 수 있다. 이러한, 산출부(150)의 동작에 대해서는 도 5를 참조하여 후술하기로 한다.As another example, the calculating unit 150 may set a reference position as a reference, and calculate a position difference indicating a distance and a direction from the reference position to the vanishing point position. That is, the calculating unit 150 sets the coordinates (X2, Y2) corresponding to the reference position as a reference and sets the distance and direction from the coordinates corresponding to the reference position to the coordinates (X1, Y1) corresponding to the position of the vanishing point as (X2-X1, Y2-Y1). The operation of the calculating unit 150 will be described later with reference to FIG.

한편, 산출부(150)는 결정된 소실점의 위치를 기준 위치에 위치시키기 위해 카메라의 기존 거치 위치를 기준으로 이동시켜야하는 거리 및 방향을 산출할 수 있다. Meanwhile, the calculating unit 150 may calculate the distance and direction in which the camera should be moved based on the existing mounting position so as to position the determined vanishing point position at the reference position.

구체적으로, 산출부(150)는 산출된 위치 차이를 이용하여 카메라의 기존 거치 위치를 기준으로 이동시켜야하는 거리 및 방향을 산출할 수 있다. 일 예로, 소실점의 위치를 기준으로 소실점의 위치로부터 기준 위치까지의 거리 및 방향을 나타내는 위치 차이가 (X1-X2, Y1-Y2)인 경우, 산출부(150)는 산출된 위치 차이를 이용하여 카메라의 기존 거치 위치를 기준으로 이동시켜야하는 거리 및 방향을, 예를 들어, 왼쪽으로 X cm, 윗쪽으로 Y cm 와 같이 산출할 수 있다. 이에 대해서는 도 8을 참조하여 후술하기로 한다. Specifically, the calculating unit 150 may calculate a distance and a direction to be moved based on the existing mounting position of the camera using the calculated position difference. For example, when the position difference indicating the distance and direction from the position of the vanishing point to the reference position is (X1-X2, Y1-Y2) based on the position of the vanishing point, the calculating unit 150 uses the calculated position difference The distance and direction to be moved based on the existing mounting position of the camera can be calculated as X cm to the left and Y cm to the upper side, for example. This will be described later with reference to FIG.

또는, 산출부(150)는 이미지 매칭부(160)의 매칭 결과를 이용하여 카메라의 기존 거치 위치를 기준으로 이동시켜야하는 거리 및 방향을 산출할 수 있다. 구체적으로, 산출부(150)는 산출된 위치 차이를 이용하여 캡쳐링 영상을 표시할 화면 내 소정 영역을 결정할 수 있다. 여기서, 캡쳐링 영상은, 카메라의 기존 거치 위치에서 실시간으로 촬영된 영상에서 캡쳐링된 영상일 수 있다. 또한, 캡쳐링 영상이 표시될 화면 내 소정 영역은, 결정된 소실점의 위치를 기준 위치에 위치시키기 위해 카메라의 기존 거치 위치를 기준으로 이동시켜야하는 거리 및 방향을 반영한 영역일 수 있다. 그리고, 제어부(170)는 실시간 촬영 영상을 화면에 표시하고, 결정된 영역에 캡쳐링 영상을 겹쳐서 표시하도록 디스플레이부(131)를 제어할 수 있다. 이 경우, 이미지 매칭부(160)는 실시간 촬영 영상과 캡쳐링 영상과의 이미지 매칭을 수행하여 실시간 촬영 영상과 캡쳐링 영상간의 이동 화소 및 이동 방향을 산출할 수 있다. 산출부(150)는 이미지 매칭 결과 산출된 이동 화소 및 이동 방향을 이용하여 카메라의 기존 거치 위치를 기준으로 이동시켜야하는 거리 및 방향을, 예를 들어, 왼쪽으로 X cm, 윗쪽으로 Y cm 와 같이, 산출할 수 있다. 이에 대해서는 도 10을 참조하여 후술하기로 한다. Alternatively, the calculating unit 150 may calculate the distance and direction in which the camera should be moved based on the matching position of the camera using the matching result of the image matching unit 160. Specifically, the calculating unit 150 may determine a predetermined area in the screen on which the capturing image is to be displayed by using the calculated position difference. Here, the capturing image may be a captured image in an image captured in real time at an existing mount position of the camera. The predetermined area in the screen on which the capturing image is to be displayed may be an area that reflects the distance and direction that should be moved based on the existing mounting position of the camera in order to position the determined position of the vanishing point at the reference position. The controller 170 may control the display unit 131 to display the real-time photographic image on the screen and display the captured image on the determined area in a superimposed manner. In this case, the image matching unit 160 may perform image matching between the real-time image and the capturing image to calculate a moving pixel and a moving direction between the real-time image and the capturing image. The calculating unit 150 calculates the distance and direction in which the moving position of the camera is to be moved based on the moving pixel and moving direction calculated as a result of image matching, for example, X cm to the left and Y cm to the upper side , Can be calculated. This will be described later with reference to FIG.

한편, 제어부(170)는 전자 장치(100)의 전반적인 동작을 제어한다. 구체적으로 제어부(170)는 저장부(110), 입력부(120), 출력부(130), 결정부(140), 산출부(150), 영상 매칭부(160)의 전부 또는 일부를 제어할 수 있다.On the other hand, the controller 170 controls the overall operation of the electronic device 100. More specifically, the control unit 170 can control all or a part of the storage unit 110, the input unit 120, the output unit 130, the determination unit 140, the calculation unit 150, and the image matching unit 160 have.

특히, 제어부(170)는 결정부(140)에서 결정된 소실점의 위치 및 기준 위치를 이용하여 카메라의 거치 위치를 안내할 수 있다.In particular, the control unit 170 may guide the position of the camera using the position and the reference position of the vanishing point determined by the determining unit 140. [

여기서, 제어부(170)는 차량의 속도가 기 설정된 속도 이하인 경우에만 안내를 수행하도록 제어할 수 있다. 일 예로, 입력부(120)를 통하여 카메라의 거치 위치 안내를 요청하는 사용자 입력이 수신되면, 제어부(170)는 차량의 속도를 판단하고, 차량의 속도가 기 설정된 속도 이하인 경우에 안내를 수행하도록 제어할 수 있다. 여기서, 기 설정된 속도는, 차량이 움직이지 않는 정차 또는 주차 상태에서의 속도일 수 있으나, 이에 한정되는 것은 아니다.Here, the control unit 170 can control to perform the guidance only when the speed of the vehicle is equal to or less than a predetermined speed. For example, when a user input requesting the placement position guidance of the camera is received through the input unit 120, the control unit 170 determines the speed of the vehicle and controls the controller 170 to perform guidance when the speed of the vehicle is equal to or less than a predetermined speed can do. Here, the predetermined speed may be the speed at which the vehicle does not move or the speed at which the vehicle is parked, but is not limited thereto.

한편, 제어부(170)는 산출부(150)에서 산출된 카메라의 기존 거치 위치를 기준으로 이동시켜야하는 거리 및 방향을 이용하여, 이를 음성으로 제공하도록 오디오 출력부(133)를 제어하거나 또는 이를 나타내는 안내 객체를 화면에 표시하도록 디스플레이부(131)를 제어함으로써 상기 안내를 수행할 수 있다. 이 경우, 사용자는 음성 또는 화면을 통하여 카메라를 이동시켜야하는 거리 및 방향을 확인한 후, 카메라를 대응되는 거리 및 방향만큼 이동시켜 새로운 위치에 거치할 수 있다. 이에 대해서는 도 8을 참조하여 후술하기로 한다. On the other hand, the control unit 170 controls the audio output unit 133 to provide audio by using the distance and direction that should be moved based on the existing mount position of the camera calculated by the calculating unit 150, The guidance can be performed by controlling the display unit 131 to display the guide object on the screen. In this case, the user can confirm the distance and direction in which the camera should be moved through the voice or the screen, and then move the camera by a corresponding distance and direction to mount the camera at a new position. This will be described later with reference to FIG.

또는, 제어부(170)는 실시간 촬영 영상을 화면에 표시하고, 산출부(150)에서 결정된 영역에 캡쳐링 영상을 겹쳐서 표시하도록 디스플레이부(131)를 제어함으로써 상기 안내를 수행할 수 있다. 여기서, 겹쳐서 표시된 화면은 산출된 거리 및 방향을 나타내는 안내 객체를 함께 표시할 수 있다. 이 경우, 사용자는 화면을 통하여 실시간 촬영 영상과 캡쳐 영상을 확인하고, 실시간 촬영 영상과 캡쳐 영상이 정확히 일치하여 표시되도록 카메라를 대응되는 거리 및 방향만큼 이동시켜 새로운 위치에 거치할 수 있다. 이에 대해서는 도 10을 참조하여 후술하기로 한다. Alternatively, the control unit 170 may display the real-time photographic image on the screen, and perform the guidance by controlling the display unit 131 to display the captured image on the area determined by the calculation unit 150 in a superimposed manner. Here, the overlaid screen can display the guide objects indicating the calculated distance and direction together. In this case, the user can confirm the real-time shot image and the captured image through the screen, and move the camera by the corresponding distance and direction so as to display the real-time shot image and the captured image exactly coinciding with each other. This will be described later with reference to FIG.

한편, 상술한 카메라 거치 안내를 확인한 사용자가 카메라를 이동시키면, 산출부(150)는 사용자의 카메라 이동에 따른 결과를 반영하여 이동해야하는 거리 및 방향을 갱신할 수 있다. Meanwhile, when the user who confirmed the above-described camera mounting instruction moves the camera, the calculating unit 150 can update the distance and direction to be moved in accordance with the result of the camera movement of the user.

구체적으로, 산출부(150)는 상기 카메라의 이동에 따른 센싱부(190)의 센싱 값을 기초로 사용자의 카메라 이동에 따른 결과를 반영하여 이동해야하는 거리 및 방향을 갱신할 수 있다. 일 예로, 카메라가 차량에 거치된 전자 장치(100)와 일체로 형성되어 차량의 전방을 촬영하는 카메라인 경우, 산출부(150)는 전자 장치(100)의 모션 센싱부(191)의 센싱 값을 기초로 사용자의 카메라 이동에 따른 결과를 반영하여 이동해야하는 거리 및 방향을 갱신할 수 있다. 다른 예로, 카메라가 전자 장치(100)와 별개로 차량에 거치되어 차량의 전방을 촬영하는 블랙 박스인 경우, 산출부(150)는 블랙 박스로부터 수신된 3축 지자기 센서 및 3축 가속도 센서의 센싱 값을 이용하여 사용자의 카메라 이동에 따른 결과를 반영하여 이동해야하는 거리 및 방향을 갱신할 수 있다. Specifically, the calculating unit 150 may update the distance and the direction to be moved, reflecting the result of the camera movement of the user based on the sensing value of the sensing unit 190 according to the movement of the camera. For example, when the camera is a camera that is formed integrally with an electronic device 100 mounted on a vehicle and captures the front of the vehicle, the calculating unit 150 calculates the sensing value of the motion sensing unit 191 of the electronic device 100 The distance and direction to be moved can be updated by reflecting the result of the camera movement of the user. As another example, when the camera is a black box that is mounted on a vehicle separately from the electronic device 100 and photographs the front of the vehicle, the calculation unit 150 calculates the three-axis geomagnetic sensor and the three-axis acceleration sensor The distance and direction to be moved can be updated by reflecting the result of the user's camera movement.

또는, 산출부(150)는 상기 카메라의 이동에 따른 이미지 매칭부(160)에서의 이미지 매칭 결과를 이용하여 이동해야하는 거리 및 방향을 갱신할 수 있다. 구체적으로, 이미지 매칭부(160)는 실시간 촬영 영상과 캡쳐링 영상의 이미지 매칭을 수행하여 실시간 촬영 영상과 캡쳐링 영상간의 이동 화소 및 이동 방향을 산출할 수 있다. 그리고, 산출부(150)는 이미지 매칭 결과 산출된 이동 화소 및 이동 방향을 이용하여 사용자의 카메라 이동에 따른 결과를 산출하고, 이를 반영하여 거리 및 방향을 갱신할 수 있다. Alternatively, the calculating unit 150 may update the distance and direction to be moved using the image matching result in the image matching unit 160 according to the movement of the camera. Specifically, the image matching unit 160 may perform image matching of a real-time image and a capturing image to calculate a moving pixel and a moving direction between the real-time image and the capturing image. The calculating unit 150 may calculate the result of the camera movement of the user using the moving pixel and the moving direction calculated as a result of the image matching, and update the distance and the direction by reflecting the result.

도 2는 본 발명의 일 실시 예에 따른 전자 장치를 구체적으로 나타내는 블록도 이다. 도 2를 참조하면, 전자 장치(100)는 저장부(110), 입력부(120), 출력부(130), 결정부(140), 산출부(150), 영상 매칭부(160), 제어부(170), 통신부(180), 센싱부(190), 전원부(195)의 전부 또는 일부를 포함한다. 이하에서는, 도 2를 참조하여 본 발명의 일 실시 예에 따른 전자 장치(100)를 설명하기로 한다. 다만, 도 2를 설명함에 있어서, 도 1에 설명한 구성에 대한 구체적인 설명은 생략하기로 한다. 2 is a block diagram specifically illustrating an electronic device according to an embodiment of the present invention. 2, the electronic device 100 includes a storage unit 110, an input unit 120, an output unit 130, a determination unit 140, a calculation unit 150, an image matching unit 160, 170, a communication unit 180, a sensing unit 190, and a power supply unit 195. Hereinafter, an electronic device 100 according to an embodiment of the present invention will be described with reference to FIG. However, in the description of FIG. 2, a detailed description of the configuration shown in FIG. 1 will be omitted.

통신부(180)는 전자 장치(100)가 다른 디바이스와 통신하기 위하여 마련될 수 있다. 통신부(180)는, 위치 데이터부(181)과, 무선 인터넷부(183)과, 방송 송수신부(185), 이동 통신부(186), 근거리 통신부(187), 유선 통신부(189)의 전부 또는 일부를 포함할 수 있다. The communication unit 180 may be provided for the electronic device 100 to communicate with other devices. The communication unit 180 includes a position data unit 181, a wireless Internet unit 183, a broadcast transmission / reception unit 185, a mobile communication unit 186, a short range communication unit 187, and a wired communication unit 189 . ≪ / RTI >

위치 데이터부(181)는 GNSS(Global Navigation Satellite System)를 통하여 위치 데이터를 획득하는 장치이다. GNSS는 인공위성으로부터 수신한 전파신호를 이용하여 수신 단말기의 위치를 산출할 수 있는 항법 시스템을 의미한다. GNSS의 구체적인 예로는, 그 운영 주체에 따라서 GPS(Global Positioning System), Galileo, GLONASS(Global Orbiting Navigational Satellite System), COMPASS, IRNSS(Indian Regional Navigational Satellite System), QZSS(Quasi-Zenith Satellite System) 등 일 수 있다. 본 발명의 일 실시예에 따른 전자 장치(100)의위치 데이터부(181)는, 전자 장치(100)가 사용되는 지역에서 서비스하는 GNSS 신호를 수신하여 위치 데이터를 획득할 수 있다.The position data section 181 is a device for acquiring position data through a Global Navigation Satellite System (GNSS). GNSS means a navigation system capable of calculating the position of a receiving terminal using a radio signal received from a satellite. A specific example of GNSS is a GPS (Global Positioning System), a Galileo, a GLONASS (Global Orbiting Navigational Satellite System), a COMPASS, an Indian Regional Navigational Satellite System (IRNSS), a Quasi-Zenith Satellite System . The location data portion 181 of the electronic device 100 according to an embodiment of the present invention may receive the GNSS signal serviced in the area where the electronic device 100 is used to obtain location data.

무선 인터넷부(183)는 무선 인터넷에 접속하여 데이터를 획득하거나 송신하는 장치이다. 무선 인터넷부(183)를 통하여 접속할 수 있는 무선 인터넷은, WLAN(Wireless LAN), Wibro(Wireless broadband), Wimax(World interoperability for microwave acess), HSDPA(High Speed Downlink Packet Acess) 등 일 수 있다.The wireless Internet unit 183 is a device that connects to the wireless Internet to acquire or transmit data. The wireless Internet that can be accessed through the wireless Internet unit 183 may be a wireless LAN (WLAN), a wireless broadband (Wibro), a world interoperability for microwave access (Wimax), or a high speed downlink packet access (HSDPA).

방송 송수신부(185)는 각종 방송 시스템을 통하여 방송 신호를 송수신하는 장치이다. 방송 송수신부(185)를 통하여 송수신할 수 있는 방송 시스템은, DMBT(Digital Multimedia Broadcasting Terrestrial), DMBS(Digital Multimedia Broadcasting Satellite), MediaFLO(Media Foeward Link Only), DVBH(Digital Video Broadcast Handheld), ISDBT(Integrated Services Digital Broadcast Tereestrial) 등일 수 있다. 방송 송수신부(185)를 통하여 송수신되는 방송 신호에는 교통 데이터, 생활 데이터 등을 포함할 수 있다.The broadcast transmitting and receiving unit 185 is a device for transmitting and receiving broadcast signals through various broadcasting systems. The broadcasting system that can transmit and receive through the broadcasting transmission and reception unit 185 may be a Digital Multimedia Broadcasting Terrestrial (DMBT), a Digital Multimedia Broadcasting Satellite (DMBS), a Media FoW Link Only (DVFH), a Digital Video Broadcast Handheld Integrated Services Digital Broadcast Tereestrial). The broadcast signal transmitted / received through the broadcast transmission / reception unit 185 may include traffic data, living data, and the like.

이동 통신부(186)는 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 이동 통신 규격에 따라 이동 통신 망에 접속하여 통신할 수 있다.The mobile communication unit 186 can access and communicate with a mobile communication network according to various mobile communication standards such as 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), and Long Term Evolution (LTE)

근거리 통신부(187)는 근거리 통신을 위한 장치이다. 근거리 통신부(187)는, 전술한 바와 같이, 블루투스(Bluetooth), RFID(Radio Frequency Idntification), 적외선 통신(IrDA, Infraed Data Association), UWB(Ultra WidBand), ZigBee, NFC(Near Field Communication), Wi-Fi 등을 통하여 통신할 수 있다.The short-range communication unit 187 is a device for short-range communication. As described above, the short-range communication unit 187 is a communication unit that transmits and receives data to and from a mobile communication terminal such as Bluetooth, Radio Frequency Identification (RFID), Infra Data Association (IrDA), Ultra WidBand (UWB), ZigBee, Near Field Communication -Fi or the like.

유선 통신부(189)는 전자 장치(100)를 다른 디바이스와 유선으로 연결할 수 있는 인터페이스 장치이다. 유선 통신부(119)는, USB Port를 통하여 통신할 수 있는 USB 모듈일 수 있다. The wired communication unit 189 is an interface device capable of connecting the electronic device 100 with another device by wire. The wired communication unit 119 may be a USB module capable of communicating via a USB port.

이러한, 통신부(180)는 위치 데이터부(181)와, 무선 인터넷부(183)와, 방송 송수신부(185), 이동 통신부(186), 근거리 통신부(187), 유선 통신부(189) 중 적어도 하나를 이용하여 다른 디바이스와 통신할 수 있다. The communication unit 180 includes at least one of the location data unit 181, the wireless Internet unit 183, the broadcast transmission / reception unit 185, the mobile communication unit 186, the short-range communication unit 187, and the wired communication unit 189 To communicate with other devices.

일 예로, 전자 장치(100)가 카메라 기능을 포함하지 않는 경우, 블랙 박스 등과 같은 차량용 카메라에서 촬영된 영상을 근거리 통신부(187), 유선 통신부(189) 중 적어도 하나를 이용하여 수신할 수 있다.For example, when the electronic device 100 does not include a camera function, an image photographed by a vehicle camera such as a black box can be received using at least one of the short-range communication unit 187 and the wired communication unit 189. [

다른 예로, 복수의 디바이스와 통신하는 경우에, 어느 하나는 근거리 통신부(187)로 통신하고, 다른 하나는 유선 통신부(119)를 통하여 통신하는 경우도 가능하다. As another example, in the case of communicating with a plurality of devices, either one may communicate with the short-range communication unit 187 and the other may communicate via the wired communication unit 119. [

센싱부(190)는 전자 장치(100)의 현재 상태를 감지할 수 있는 장치이다. 센싱부(190)는 모션 센싱부(191)와, 광 센싱부(193)의 전부 또는 일부를 포함할 수 있다.The sensing unit 190 is a device capable of sensing the current state of the electronic device 100. The sensing unit 190 may include all or some of the motion sensing unit 191 and the optical sensing unit 193.

모션 센싱부(191)는 전자 장치(100)의 3차원 공간 상에서의 운동을 감지할 수 있다. 모션 센싱부(191)은, 3축 지자기 센서 및 3축 가속도 센서를 포함할 수 있다. 모션 센싱부(191)을 통하여 획득한 운동 데이터를 위치 데이터부(191)를 통하여 획득한 위치 데이터와 결합하여, 전자 장치(100)를 부착한 차량의 보다 정확한 궤적을 산출할 수 있다.The motion sensing unit 191 can sense movement of the electronic device 100 in a three-dimensional space. The motion sensing unit 191 may include a three-axis geomagnetic sensor and a three-axis acceleration sensor. The motion data obtained through the motion sensing unit 191 can be combined with the position data acquired through the position data unit 191 to calculate a more accurate trajectory of the vehicle to which the electronic device 100 is attached.

광 센싱부(193)는 전자 장치(100)의 주변 조도(illuminance)를 측정하는 장치이다. 광 센싱부(193)를 통하여 획득한 조도데이터를 이용하여, 디스플레이부(195)의 밝기를 주변 밝기에 대응되도록 변화시킬 수 있다.The optical sensing unit 193 is a device for measuring the ambient illuminance of the electronic device 100. The brightness of the display unit 195 can be changed to correspond to the surrounding brightness by using the illuminance data acquired through the optical sensing unit 193. [

전원부(195)는 전자 장치(100)의 동작 또는 전자 장치(100)와 연결된 다른 디바이스의 동작을 위하여 필요한 전원을 공급하는 장치이다. 전원부(195)는, 전자 장치(100)에 내장된 배터리 또는 차량 등의 외부전원에서 전원을 공급받는 장치일 수 있다. 또한, 전원부(195)는, 전원을 공급받는 형태에 따라서 유선 통신 모듈(119)로 구현되거나, 무선으로 공급받는 장치로 구현될 수도 있다.The power supply unit 195 is a device for supplying power necessary for operation of the electronic device 100 or operation of another device connected to the electronic device 100. [ The power supply unit 195 may be a battery built in the electronic device 100, or a device that receives power from an external power source such as a vehicle. The power supply unit 195 may be implemented as a wired communication module 119 according to the type of the power supply, or may be implemented as a wirelessly supplied device.

도 3은 본 발명의 일 실시 예에 따른 소실점 결정 방법을 나타내는 도면이다. 도 3을 참조하면, 결정부(140)는 차량의 운전 중에 카메라에서 촬영된 촬영 영상(300)으로부터 차선(310,320)을 추출하고, 추출된 차선을 연장하여 서로 교차하게 되는 점을 소실점(Vanishing point)(330)으로 결정할 수 있다. 3 is a diagram illustrating a method for determining a vanishing point according to an embodiment of the present invention. 3, the decision unit 140 extracts lanes 310 and 320 from the photographed image 300 photographed by the camera during driving of the vehicle, and extends the extracted lane to intersect the vanishing point ) ≪ / RTI >

또한, 결정부(140)는 촬영 영상(300)에 결정된 소실점(330)의 위치인 소실점 위치를 결정할 수 있다. In addition, the determining unit 140 can determine the position of the vanishing point, which is the position of the vanishing point 330 determined in the photographed image 300. [

도 4는 본 발명의 일 실시 예에 따른 소실점의 위치와 기준 위치를 나타내는 도면이다. 도 4를 참조하면, 촬영 영상(300)에서 결정된 소실점(330)의 위치는 차량의 운전 중에 영상을 촬영하는 카메라의 차량 거치 위치에 따라 변경될 수 있는 바, 소실점(330)의 최적의 위치인 기준(340)의 위치와 상이할 수 있다. 4 is a view showing positions and reference positions of a vanishing point according to an embodiment of the present invention. 4, the position of the vanishing point 330 determined in the photographed image 300 can be changed according to the vehicle mount position of the camera that photographs the image during driving of the vehicle, and the optimal position of the vanishing point 330 May be different from the location of the reference 340.

한편, 기준(340)의 위치는, 운전자가 선택한 운전 관련 안내 중요 순위에 따라 결정될 수 있다. 다만, 바람직하게는, 전자 장치(100)가 촬영 영상(300)을 이용하여 증강 현실 경로 안내, 차선 이탈 안내, 전방 차량 출발 안내, 신호등 변경 안내, 전방 차량 추돌 방지 안내 모두를 정확하게 수행할 수 있도록, 기준(340) 위치는 도 4와 같이 촬영 영상(300)의 중심으로부터 소정 거리(350) 내에 위치할 수 있다. On the other hand, the position of the reference 340 can be determined according to the driving-related information important rank selected by the driver. However, it is preferable that the electronic device 100 can accurately perform both the augmented reality route guidance, the lane departure guidance, the forward vehicle departure guidance, the traffic light change guidance, and the front vehicle collision prevention guidance by using the photographed image 300 , The reference position 340 may be located within a predetermined distance 350 from the center of the captured image 300 as shown in FIG.

도 5는 본 발명의 일 실시 예에 따른 위치 차이 산출 방법을 나타내는 도면이다. 일 예로, 소실점(330)의 위치에 대응되는 좌표가 (0,0)이고, 기준(340) 위치에 대응되는 좌표가 (20,-20)인 경우, 산출부(150)는 소실점(330)의 위치에 대응되는 좌표 (0,0)를 기준으로 기준(340) 위치에 대응되는 좌표 (20, -20)까지의 거리 및 방향을 나타내는 위치 차이(-20, 20)(360)를 산출할 수 있다.5 is a diagram illustrating a position difference calculation method according to an embodiment of the present invention. For example, when the coordinate corresponding to the position of the vanishing point 330 is (0, 0) and the coordinate corresponding to the reference position 340 is (20, -20), the calculating unit 150 calculates the vanishing point 330, (-20, 20) 360 indicating the distance and the direction to the coordinates (20, -20) corresponding to the position of the reference 340 on the basis of the coordinates (0, 0) .

다른 예로, 소실점(330)의 위치에 대응되는 좌표가 (0,0)이고, 기준(340) 위치에 대응되는 좌표가 (20,-20)인 경우, 산출부(150)는 기준(340)의 위치에 대응되는 좌표 (20,-20)를 기준으로 소실점(330) 위치에 대응되는 좌표 (0, 0)까지의 거리 및 방향을 나타내는 위치 차이(20, -20)(370)를 산출할 수 있다.As another example, when the coordinate corresponding to the position of the vanishing point 330 is (0, 0) and the coordinate corresponding to the reference position 340 is (20, -20) (20, -20) 370 indicating the distance and direction to the coordinates (0, 0) corresponding to the position of the vanishing point 330 on the basis of the coordinates (20, -20) .

이에 따라, 산출부(150)는 소실점의 위치 또는 기준 위치 중 하나를 기준으설정하고, 소실점의 위치가 기준 위치에 위치하기 위해서는 소실점의 위치가 오른쪽으로 20, 아래쪽으로 20 이동해야함을 산출할 수 있다.Accordingly, the calculating unit 150 sets one of the position of the vanishing point or the reference position as a reference, and if the position of the vanishing point is located at the reference position, it can be calculated that the position of the vanishing point is shifted to the right 20 and downward 20 have.

또한, 산출부(150)는 산출된 위치 차이를 이용하여 카메라의 기존 거치 위치를 기준으로 이동시켜야하는 거리 및 방향을 산출할 수 있다. 일 예로, 소실점의 위치, 기준 위치의 위치 차이가 도 5와 같은 경우, 산출부(150)는 산출된 위치 차이를 이용하여 카메라가 기존 거치 위치를 기준으로 왼쪽으로 X cm, 윗쪽으로 Y cm 이동해야함을 산출할 수 있다. Also, the calculating unit 150 may calculate the distance and the direction to be moved based on the existing mounting position of the camera, using the calculated position difference. 5, the calculating unit 150 calculates a difference between the position of the vanishing point and the reference position by using the calculated positional difference to move the camera X cm to the left with respect to the existing mounting position and Y cm to the upper side Can be calculated.

도 6은 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 나타내는 흐름도 이다. 도 6을 참조하면, 먼저 전자 장치(100)는 차량의 운전 중에 카메라에서 촬영된 영상의 소실점(Vanishing point)을 결정할 수 있다(S601).6 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present invention. Referring to FIG. 6, first, the electronic device 100 may determine a vanishing point of an image photographed by a camera during operation of the vehicle (S601).

그리고, 결정된 소실점의 최적의 위치인 기준 위치를 결정할 수 있다(S602).Then, the reference position, which is the optimal position of the determined vanishing point, can be determined (S602).

여기서, 기준 위치는, 차량의 운전 중에 카메라에서 촬영된 영상을 이용하여 최적의 운전 관련 안내를 제공할 수 있는 소실점의 위치일 수 있고, 운전 관련 안내는, 증강 현실 경로 안내, 차선 이탈 안내, 전방 차량 출발 안내, 신호등 변경 안내, 전방 차량 추돌 방지 안내 중 적어도 하나를 포함할 수 있다.Here, the reference position may be a position of a vanishing point that can provide an optimal driving-related guidance using the image photographed by the camera while the vehicle is in operation, and the driving-related guidance may include augmented reality route guidance, A vehicle start guide, a traffic light change guide, and a front vehicle collision avoidance guide.

한편, 바람직하게는, 기준 위치는, 촬영 영상의 중심으로부터 소정 거리 내에 위치할 수 있다.On the other hand, preferably, the reference position may be located within a predetermined distance from the center of the photographed image.

그리고, 결정된 소실점의 위치 및 기준 위치를 이용하여 카메라의 거치 위치를 안내할 수 있다(S603).Then, the position of the camera can be guided using the determined position of the vanishing point and the reference position (S603).

도 7은 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 구체적으로 나타내는 흐름도 이다. 도 7을 참조하면, 먼저 전자 장치(100)는 차량의 운전 중에 카메라에서 촬영된 영상의 소실점(Vanishing point)을 결정할 수 있다(S701).7 is a flowchart specifically showing a control method of an electronic device according to an embodiment of the present invention. Referring to FIG. 7, first, the electronic device 100 may determine a vanishing point of an image photographed by a camera during operation of the vehicle (S701).

그리고, 전자 장치(100)는 결정된 소실점의 최적의 위치인 기준 위치를 결정할 수 있다(S702).Then, the electronic device 100 can determine a reference position that is an optimal position of the determined vanishing point (S702).

그리고, 전자 장치(100)는 결정된 소실점의 위치 및 기준 위치 간의 위치 차이를 산출할 수 있다(S703).Then, the electronic device 100 can calculate the position difference between the determined position of the vanishing point and the reference position (S703).

그리고, 전자 장치(100)는 결정된 소실점의 위치를 기준 위치에 위치시키기 위해 카메라의 기존 거치 위치를 기준으로 이동시켜야하는 거리 및 방향을 산출된 위치 차이를 이용하여 산출할 수 있다(S704).In step S704, the electronic device 100 may calculate a distance and a direction to move the determined vanishing point to the reference position based on the existing mounting position of the camera, using the calculated position difference.

그리고, 전자 장치(100)는 산출된 거리 및 방향을 음성으로 제공하거나 또는 산출된 거리 및 방향을 나타내는 안내 객체를 화면에 표시할 수 있다(S705).Then, the electronic device 100 can display the calculated distance and direction as a voice or display the guidance object indicating the calculated distance and direction on the screen (S705).

그리고, 사용자가 안내를 기초로 카메라를 이동시키면, 전자 장치(100)는 사용자의 카메라 이동에 따른 결과를 반영하여 거리 및 방향을 갱신할 수 있다(S706).If the user moves the camera based on the guidance, the electronic device 100 can update the distance and the direction by reflecting the result of the user's camera movement (S706).

이 경우, 전자 장치(100)는 갱신된 거리 및 방향을 음성으로 제공하거나 또는 갱신된 거리 및 방향을 나타내는 안내 객체를 화면에 표시할 수 있다(S707).In this case, the electronic device 100 may provide the updated distance and direction by voice or may display a guide object on the screen indicating the updated distance and direction (S707).

도 8은 본 발명의 일 실시 예에 따른 안내 방법을 나타내는 UI(User Interface) 화면을 나타내는 도면이다. 도 8(a)를 참조하면, 전자 장치(100)는 소실점(330)의 위치를 기준 위치(340)에 위치시키기 위해 카메라의 기존 거치 위치를 기준으로 이동시켜야하는 거리 및 방향을 나타내는 안내 객체(801,802)를 화면에 표시할 수 있다. 이에 따라, 사용자는 표시된 화면을 확인한 후, 카메라를 기존 거치 위치를 기준으로 좌측 3cm, 상측으로 2cm 이동시킬 수 있다. 8 is a view showing a UI (User Interface) screen showing a guidance method according to an embodiment of the present invention. 8A, the electronic device 100 includes a guide object 322 for indicating the distance and direction in which the position of the vanishing point 330 should be moved with respect to the existing mount position of the camera in order to position the position of the vanishing point 330 at the reference position 340 801, 802) can be displayed on the screen. Accordingly, after confirming the displayed screen, the user can move the camera 3 cm to the left and 2 cm to the upper side based on the existing mounting position.

한편, 사용자가 안내를 기초로 카메라를 이동시키면, 전자 장치(100)는 사용자의 카메라 이동에 따른 결과를 반영하여 갱신된 거리 및 방향을 나타내는 안내 객체를 도 8(b)와 같이 화면에 표시할 수 있다. 즉, 사용자가 카메라를 좌측 1cm, 상측으로 1cm 이동시키면, 전자 장치(100)는 사용자의 카메라 이동에 따른 결과(모션 감지 센서(191)의 센싱 값)를 반영하여 좌측 2cm, 상측 1cm를 이동시키라는 안내 객체(803,804)를 도 8(b)와 같이 화면에 표시할 수 있다. 이에 따라, 사용자는 카메라를 현재 위치를 기준으로 좌측으로 2cm, 상측으로 1cm 이동시킬 수 있다. On the other hand, when the user moves the camera based on the guidance, the electronic device 100 reflects the result of the camera movement of the user and displays the guide object indicating the updated distance and direction on the screen as shown in FIG. 8 (b) . That is, when the user moves the camera 1 cm to the left and 1 cm to the upper side, the electronic device 100 moves 2 cm to the left side and 1 cm to the upper side, reflecting the result (the sensing value of the motion detection sensor 191) The guidance objects 803 and 804 can be displayed on the screen as shown in FIG. 8 (b). Accordingly, the user can move the camera 2 cm to the left and 1 cm to the upper side with respect to the current position.

도 9는 본 발명의 일 실시 예에 다른 전자 장치의 제어 방법을 구체적으로 나타내는 흐름도 이다. 도 9를 참조하면, 먼저 전자 장치(100)는 차량의 운전 중에 카메라에서 촬영된 영상의 소실점(Vanishing point)을 결정할 수 있다(S901).9 is a flowchart specifically illustrating a control method of an electronic device according to an embodiment of the present invention. Referring to FIG. 9, first, the electronic device 100 can determine a vanishing point of an image photographed by a camera during operation of the vehicle (S901).

그리고, 전자 장치(100)는 결정된 소실점의 최적의 위치인 기준 위치를 결정할 수 있다(S902).Then, the electronic device 100 can determine a reference position that is an optimal position of the determined vanishing point (S902).

그리고, 전자 장치(100)는 결정된 소실점의 위치 및 기준 위치 간의 위치 차이를 산출할 수 있다(S903).Then, the electronic device 100 can calculate the positional difference between the determined position of the vanishing point and the reference position (S903).

그리고, 전자 장치(100)는 카메라의 기존 거치 위치에서 실시간으로 촬영된 영상을 캡쳐링할 수 있다(S904).Then, the electronic device 100 can capture an image photographed in real time at the existing mount position of the camera (S904).

그리고, 전자 장치(100)는 위치 차이를 이용하여 캡쳐링 영상을 표시할 화면 내 소정 영역을 결정할 수 있다(S905).Then, the electronic device 100 can determine a predetermined area in the screen for displaying the capturing image using the position difference (S905).

그리고, 전자 장치(100)는 실시간 촬영 영상을 화면에 표시하고, 결정된 영역에 캡쳐링 영상을 겹쳐서 표시할 수 있다(S906).Then, the electronic device 100 can display a real-time photographed image on the screen, and display the captured image on the determined area in a superimposed manner (S906).

그리고, 전자 장치(100)는 결정된 소실점의 위치를 기준 위치에 위치시키기 위해 카메라의 기존 거치 위치를 기준으로 이동시켜야하는 거리 및 방향을 산출할 수 있다(S907).Then, the electronic device 100 may calculate the distance and direction in which the position of the determined vanishing point should be moved with reference to the existing mounting position of the camera in order to position the position of the vanishing point at the reference position (S907).

그리고, 전자 장치(100)는 산출된 거리 및 방향을 나타내는 안내 객체를 화면에 표시할 수 있다(S908).Then, the electronic device 100 can display a guide object indicating the calculated distance and direction on the screen (S908).

그리고, 전자 장치(100)는 실시간 촬영 영상과 캡쳐링 영상을 매칭하고, 매칭 결과를 반영하여 거리 및 방향을 갱신할 수 있다(S909).Then, the electronic device 100 can match the real-time image and the capturing image, and update the distance and direction by reflecting the matching result (S909).

그리고, 전자 장치(100)는 갱신된 거리 및 방향을 나타내는 안개 객체를 화면에 표시할 수 있다(S910).Then, the electronic device 100 can display a fog object indicating the updated distance and direction on the screen (S910).

도 10은 본 발명의 일 실시 예에 따른 안내 방법을 나타내는 UI(User Interface) 화면을 나타내는 도면이다. 도 10(a)를 참조하면, 전자 장치(100)는 카메라의 기존 거치 위치에서 실시간으로 촬영된 영상의 캡쳐링 영상(1020)과 실시간 촬영 영상(1010)과 함께 겹쳐서 표시할 수 있다. 여기서, 캡쳐링 영상(1020)은 결정된 소실점의 위치를 기준 위치에 위치시키기 위해 카메라의 기존 거치 위치를 기준으로 이동시켜야하는 거리 및 방향을 반영한 영역에 표시될 수 있다. 10 is a view showing a UI (User Interface) screen showing a guidance method according to an embodiment of the present invention. Referring to FIG. 10 (a), the electronic device 100 may overlap and display a capturing image 1020 and a real-time image 1010 of an image photographed in real time at an existing mount position of the camera. Here, the capturing image 1020 may be displayed in an area that reflects a distance and a direction that should be moved based on the existing mounting position of the camera in order to position the position of the determined vanishing point at the reference position.

또한, 도 10(b)를 참조하면, 전자 장치(100)는 소실점의 위치를 기준 위치에 위치시키기 위해 카메라의 기존 거치 위치를 기준으로 이동시켜야하는 거리 및 방향을 나타내는 안내 객체(1030)를 함께 표시할 수 있다.10B, the electronic device 100 includes a guide object 1030 indicating the distance and direction in which the position of the vanishing point should be moved based on the existing mount position of the camera, Can be displayed.

한편, 사용자가 상술한 안내를 기초로 카메라를 이동시키면, 도 10(b)에 표시된 안내 객체는 사용자의 카메라 이동에 따른 결과를 반영하여 갱신될 수 있다. 구체적으로 이미지 매칭부(160)는 실시간 촬영 영상과 캡쳐링 영상의 이미지 매칭을 수행하여 실시간 촬영 영상과 캡쳐링 영상간의 이동 화소 및 이동 방향을 산출할 수 있고, 산출부(150)는 이미지 매칭 결과 산출된 이동 화소 및 이동 방향을 이용하여 사용자의 카메라 이동에 따른 결과를 산출하고, 이를 반영하여 거리 및 방향을 갱신할 수 있다. On the other hand, if the user moves the camera on the basis of the above guidance, the guiding object shown in Fig. 10 (b) can be updated to reflect the result of the camera movement of the user. Specifically, the image matching unit 160 may perform image matching between a real-time image and a capturing image to calculate a moving pixel and a moving direction between the real-time image and the capturing image, and the calculating unit 150 may calculate an image matching result The calculated result of the camera movement of the user can be calculated using the calculated moving pixel and the moving direction, and the distance and the direction can be updated by reflecting the result.

한편, 사용자는 도 10(a) 또는 도 10(b)를 화면을 통하여 실시간 촬영 영상과 캡쳐 영상을 확인한 후, 실시간 촬영 영상과 캡쳐 영상이 정확히 일치하는 도 10(c)와 같이 표시될 때까지, 카메라를 좌측으로 소정 거리 및 상측으로 소정 거리 이동시켜 새로운 위치에 거치할 수 있다. On the other hand, after confirming the real-time shot image and the captured image through the screen of FIG. 10 (a) or 10 (b), the user can see the captured image , The camera can be moved to the left side by a predetermined distance and upward by a predetermined distance and can be mounted at a new position.

도 11은 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 구체적으로 나타내는 흐름도 이다. 도 11을 참조하면, 먼저 전자 장치(100)는 차량의 운전 중에 카메라에서 촬영된 영상의 소실점(Vanishing point)을 결정할 수 있다(S1101).11 is a flowchart specifically illustrating a control method of an electronic device according to an embodiment of the present invention. Referring to FIG. 11, the electronic device 100 may determine a vanishing point of an image photographed by a camera during operation of the vehicle (S1101).

그리고, 전자 장치(100)는 결정된 소실점의 최적의 위치인 기준 위치를 결정할 수 있다(S1102).Then, the electronic device 100 can determine a reference position that is an optimal position of the determined vanishing point (S1102).

그리고, 전자 장치(100)는 카메라의 거치 위치 안내를 요청하는 사용자 입력을 수신할 수 있다(S1103).Then, the electronic device 100 may receive a user input requesting a placement position guidance of the camera (S1103).

그리고, 전자 장치(100)는 차량의 속도가 기 설정된 속도 이하인지 여부를 판단할 수 있다(S1104).Then, the electronic device 100 can determine whether the speed of the vehicle is less than a predetermined speed (S1104).

만약, 차량의 속도가 기 설정된 속도 이하인 경우(S1104:Y), 전자 장치(100)는 결정된 소실점의 위치 및 기준 위치를 이용하여 카메라의 거치 위치를 안내할 수 있다(S1105).If the speed of the vehicle is equal to or less than the predetermined speed (S1104: Y), the electronic device 100 can guide the mount position of the camera using the determined position of the vanishing point and the reference position (S1105).

다만, 차량의 속도가 기 설정된 속도 이하가 아닌 경우(S1104:N), 전자 장치(100)는 카메라의 거치 위치 안내를 수행하지 않을 수 있다(S1106)However, if the speed of the vehicle is not less than the preset speed (S1104: N), the electronic device 100 may not perform the placement position guidance of the camera (S1106)

이에 따라, 사용자가 카메라의 기존 거치 위치를 새로운 위치로 이동시키기 안전한 상태, 예를 들어 정차 상태 등의 경우, 전자 장치(100)는 카메라 거치 위치 안내를 수행할 수 있다. Accordingly, when the user is in a safe state to move the existing mount position of the camera to a new position, for example, a stop state, the electronic device 100 can perform the camera mount position guidance.

도 12는 본 발명의 일 실시 예에 따른 카메라와 전자 장치가 분리형이 경우 구현 형태를 나타내는 도면이다. 도 12를 참조하면, 차량용 내비게이션(100)과 별도로 마련된 차량용 블랙박스(200)가 유선/무선 통신 방식을 이용하여 본 발명의 일 실시 예에 따른 시스템을 구성할 수 있다. 12 is a view showing an embodiment in which a camera and an electronic device are separated from each other according to an embodiment of the present invention. Referring to FIG. 12, a vehicle black box 200 provided separately from the navigation system 100 for a vehicle may constitute a system according to an embodiment of the present invention using a wired / wireless communication system.

차량용 내비게이션(100)은 내비게이션 하우징(191)의 전면에 마련된 디스플레이부(145)와, 내비게이션 조작키(193)와, 내비게이션 마이크(195)를 포함할 수 있다.The vehicle navigation system 100 may include a display unit 145 provided on the front surface of the navigation housing 191, a navigation operation key 193, and a navigation microphone 195.

차량용 블랙박스(200)는 주행 중 및 정차 중에 차량의 데이터를 획득할 수 있다. 즉, 차량의 주행 중의 영상을 촬영할 수 있음은 물론, 차량이 정차하여 있는 경우에도 영상을 촬영할 수 있다. 차량용 블랙박스(200)를 통하여 획득된 영상의 화질은, 일정하거나 변화될 수 있다. 예를 들어, 사고의 발생을 전후하여서는 영상의 화질을 높게 하고, 통상적인 경우에는 영상의 화질을 낮게 함으로써 요구되는 저장공간을 최소화하면서도 핵심적인 영상을 저장할 수 있다.The vehicle black box 200 can acquire the data of the vehicle during driving and stopping. That is, it is possible not only to shoot a moving image of a vehicle, but also to shoot an image even when the vehicle is stationary. The image quality of the image obtained through the vehicle black box 200 may be constant or changed. For example, it is possible to store a core image while minimizing a required storage space by increasing the image quality before and after occurrence of an accident, and lowering the image quality in a normal case.

차량용 블랙박스(200)는 블랙박스 카메라(222)와, 블랙박스 마이크(224)와, 부착부(281)를 포함할 수 있다.The vehicle black box 200 may include a black box camera 222, a black box microphone 224, and an attaching portion 281. [

한편, 도 12에서는 차량용 내비게이션(100)과 별도로 마련된 차량용 블랙박스(200)가 유/무선 통신 방식을 통하여 연결된 것으로 도시하였으나, 차량용 내비게이션(100)과 차량용 블랙박스(200)는 유/무선 통신 방식을 통하여 연결되지 않을 수도 있다. 이 경우, 블랙 박스(200)의 촬영 영상을 저장하는 저장 매체가 전자 장치(100)에 삽입되면, 전자 장치(100)는 촬영 영상을 입력받을 수 있다. 한편, 차량용 블랙박스(200)가 차량용 내비게이션(100)의 기능을 구비하거나, 차량용 내비게이션(100)이 카메라를 구비하여 일체화되는 경우도 가능하다. 이에 대해서는 도 13을 참조하여 구체적으로 설명하기로 한다.12, the navigation system 100 for a vehicle and the black box 200 for a vehicle provided separately from the vehicle 100 are connected to each other via a wire / wireless communication system. However, May not be connected to each other. In this case, when the storage medium storing the photographed image of the black box 200 is inserted into the electronic device 100, the electronic device 100 can receive the photographed image. On the other hand, it is also possible that the vehicle black box 200 has the function of the vehicle navigation 100 or the vehicle navigation 100 is integrated with the camera. This will be described in detail with reference to FIG.

도 13은 본 발명의 일 실시 예에 따른 카메라와 전자 장치가 일체형인 경우 구현 형태를 나타내는 도면이다.도 13을 참조하면, 전자 장치가 카메라 기능을 내포하는 경우, 사용자는 전자 장치의 카메라 부분이 차량의 전방을 촬영하고, 전자 장치의 디스플레이 부분이 사용자 인식가능하도록 전자 장치를 거치시킬 수 있다. 이에 따라, 본 발명의 일 실시 예에 따른 시스템을 구현할 수 있다. 13 is a diagram illustrating an embodiment in which the camera and the electronic device are integrated according to an embodiment of the present invention. Referring to FIG. 13, when the electronic device includes a camera function, It is possible to photograph the front of the vehicle and to mount the electronic device such that the display portion of the electronic device is user-recognizable. Accordingly, a system according to an embodiment of the present invention can be implemented.

도 14는 본 발명의 일 실시 예에 따른 HUD(Head-Up Display) 및 전자 장치를 이용한 구현 형태를 나타내는 도면이다. 도 14를 참조하면, 전자 장치는 헤드업 디스플레이와 유/무선 통신을 통하여 증강 현실 경로 안내 화면을 헤드업 디스플레이 상에서 표시할 수 있다. FIG. 14 is a diagram illustrating an embodiment using an HUD (Head-Up Display) and an electronic device according to an embodiment of the present invention. Referring to FIG. 14, an electronic device can display an augmented reality route guidance screen on a head-up display through a head-up display and wired / wireless communication.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 전자 장치의 제어 방법은 프로그램 코드로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 각 서버 또는 기기들에 제공될 수 있다. Meanwhile, the method of controlling an electronic device according to various embodiments of the present invention described above may be implemented in program code and provided to each server or devices in a state stored in various non-transitory computer readable media have.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium is a medium that stores data for a short period of time, such as a register, cache, memory, etc., but semi-permanently stores data and is readable by the apparatus. In particular, the various applications or programs described above may be stored on non-volatile readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM,

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.

100 : 전자 장치 110 : 저장부
120 : 입력부 130 : 출력부
140 : 결정부 150 : 산출부
160 : 영상 매칭부 170 : 제어부
180 : 통신부 190 : 센싱부
195 : 전원부
100: electronic device 110: storage unit
120: input unit 130: output unit
140: Decision section 150:
160: image matching unit 170:
180: communication unit 190: sensing unit
195:

Claims (19)

전자 장치의 제어 방법에 있어서,
차량의 운전 중에 카메라에서 촬영된 영상의 소실점(Vanishing point)을 결정하는 단계;
상기 결정된 소실점의 최적의 위치인 기준 위치를 결정하는 단계; 및
상기 결정된 소실점의 위치 및 기준 위치를 이용하여 상기 카메라의 거치 위치를 안내하는 단계;를 포함하는 제어 방법.
A method of controlling an electronic device,
Determining a vanishing point of an image photographed by a camera during driving of the vehicle;
Determining a reference position that is an optimal position of the determined vanishing point; And
And guiding the stationary position of the camera using the determined position and the reference position of the vanishing point.
제1항에 있어서,
상기 기준 위치는,
상기 차량의 운전 중에 상기 카메라에서 촬영된 영상을 이용하여 최적의 운전 관련 안내를 제공할 수 있는 소실점의 위치인 것을 특징으로 하는 제어 방법.
The method according to claim 1,
Wherein,
Wherein the position of the vanishing point is a position of the vanishing point that can provide an optimal driving-related guidance by using the image photographed by the camera during operation of the vehicle.
제2항에 있어서,
상기 운전 관련 안내는,
증강 현실 경로 안내, 차선 이탈 안내, 전방 차량 출발 안내, 신호등 변경 안내, 전방 차량 추돌 방지 안내 중 적어도 하나를 포함하고,
상기 기준 위치는,
상기 촬영 영상의 중심으로부터 소정 거리 내에 위치하는 것을 특징으로 하는 제어 방법.
3. The method of claim 2,
The driving-
An augmented reality route guidance, a lane departure guidance, a forward vehicle departure guidance, a traffic light change guidance, and a front vehicle collision prevention guide,
Wherein,
Wherein the control means is located within a predetermined distance from the center of the photographed image.
제1항에 있어서,
상기 카메라의 거치 위치 안내를 요청하는 사용자 입력을 수신하는 단계;를 더 포함하고,
상기 안내하는 단계는,
상기 차량의 속도가 기 설정된 속도 이하인 경우에 수행되는 것을 특징으로 하는 제어 방법.
The method according to claim 1,
Further comprising: receiving a user input requesting a placement position guidance of the camera,
Wherein the step of guiding comprises:
And when the speed of the vehicle is equal to or less than a predetermined speed.
제1항에 있어서,
상기 안내하는 단계는,
상기 결정된 소실점의 위치 및 상기 기준 위치 간의 위치 차이를 산출하는 단계;
상기 결정된 소실점의 위치를 상기 기준 위치에 위치시키기 위해 상기 카메라의 기존 거치 위치를 기준으로 이동시켜야하는 거리 및 방향을 상기 산출된 위치 차이를 이용하여 산출하는 단계; 및
산출된 거리 및 방향을 음성으로 제공하거나 또는 산출된 거리 및 방향을 나타내는 안내 객체를 화면에 표시하는 단계;를 포함하는 것을 특징으로 하는 제어 방법.
The method according to claim 1,
Wherein the step of guiding comprises:
Calculating a positional difference between the determined position of the vanishing point and the reference position;
Calculating a distance and a direction to be moved on the basis of the existing mounting position of the camera to position the determined vanishing point at the reference position using the calculated position difference; And
And displaying the calculated distance and direction as a voice or a guide object indicating the calculated distance and direction on the screen.
제5항에 있어서,
사용자가 상기 안내를 기초로 상기 카메라를 이동시키면, 상기 사용자의 카메라 이동에 따른 결과를 반영하여 상기 거리 및 방향을 갱신하는 단계; 및
상기 갱신된 거리 및 방향을 음성으로 제공하거나 또는 상기 갱신된 거리 및 방향을 나타내는 안내 객체를 화면에 표시하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
6. The method of claim 5,
If the user moves the camera based on the guidance, updating the distance and the direction reflecting the result of the camera movement of the user; And
Further comprising the step of providing the updated distance and direction by voice or displaying a guide object on the screen indicating the updated distance and direction.
제1항에 있어서,
상기 안내하는 단계는,
상기 결정된 소실점의 위치 및 상기 기준 위치 간의 위치 차이를 산출하는 단계;
상기 카메라의 기존 거치 위치에서 실시간으로 촬영된 영상을 캡쳐링하는 단계;
상기 위치 차이를 이용하여 상기 캡쳐링 영상을 표시할 화면 내 소정 영역을 결정하는 단계; 및
상기 실시간 촬영 영상을 상기 화면에 표시하고, 상기 결정된 영역에 상기 캡쳐링 영상을 겹쳐서 표시하는 단계;를 포함하는 것을 특징으로 하는 제어 방법.
The method according to claim 1,
Wherein the step of guiding comprises:
Calculating a positional difference between the determined position of the vanishing point and the reference position;
Capturing an image photographed in real time at an existing mount position of the camera;
Determining a predetermined area in a screen for displaying the capturing image using the position difference; And
Displaying the real-time shot image on the screen, and superimposing and displaying the captured image on the determined area.
제7항에 있어서,
상기 결정된 소실점의 위치를 상기 기준 위치에 위치시키기 위해 상기 카메라의 기존 거치 위치를 기준으로 이동시켜야하는 거리 및 방향을 산출하는 단계; 및
상기 산출된 거리 및 방향을 나타내는 안내 객체를 상기 화면에 표시하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
8. The method of claim 7,
Calculating a distance and a direction to be moved based on the existing mounting position of the camera to position the determined vanishing point position at the reference position; And
And displaying a guide object indicating the calculated distance and direction on the screen.
제8항에 있어서,
상기 실시간 촬영 영상과 상기 캡쳐링 영상을 매칭하는 단계;
상기 매칭 결과를 반영하여 상기 거리 및 방향을 갱신하는 단계; 및
상기 갱신된 거리 및 방향을 나타내는 안개 객체를 상기 화면에 표시하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
9. The method of claim 8,
Matching the real-time image with the capturing image;
Updating the distance and direction by reflecting the matching result; And
And displaying a fog object indicating the updated distance and direction on the screen.
전자 장치에 있어서,
차량의 운전 중에 카메라에서 촬영된 영상의 소실점(Vanishing point)을 결정하고, 상기 결정된 소실점의 최적의 위치인 기준 위치를 결정하는 결정부;
상기 결정된 소실점의 위치 및 상기 기준 위치를 저장하는 저장부; 및
상기 결정된 소실점의 위치 및 기준 위치를 이용하여 상기 카메라의 거치 위치를 안내하는 제어부;를 포함하는 전자 장치.
In an electronic device,
A determining unit that determines a vanishing point of an image photographed by a camera during driving of the vehicle and determines a reference position that is an optimal position of the determined vanishing point;
A storage unit for storing the determined position of the vanishing point and the reference position; And
And a controller for guiding the position of the camera using the determined position and the reference position of the vanishing point.
제10항에 있어서,
상기 기준 위치는,
상기 차량의 운전 중에 상기 카메라에서 촬영된 영상을 이용하여 최적의 운전 관련 안내를 제공할 수 있는 소실점의 위치인 것을 특징으로 하는 전자 장치.
11. The method of claim 10,
Wherein,
Wherein the position of the vanishing point is a position of the vanishing point which can provide an optimal driving-related guide by using the image photographed by the camera during driving of the vehicle.
제11항에 있어서,
상기 운전 관련 안내는,
증강 현실 경로 안내, 차선 이탈 안내, 전방 차량 출발 안내, 신호등 변경 안내, 전방 차량 추돌 방지 안내 중 적어도 하나를 포함하고,
상기 기준 위치는,
상기 촬영 영상의 중심으로부터 소정 거리 내에 위치하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
The driving-
An augmented reality route guidance, a lane departure guidance, a forward vehicle departure guidance, a traffic light change guidance, and a front vehicle collision prevention guide,
Wherein,
Wherein the electronic device is located within a predetermined distance from the center of the photographed image.
제10항에 있어서,
상기 카메라의 거치 위치 안내를 요청하는 사용자 입력을 수신하는 입력부;를 더 포함하고,
상기 제어부는,
상기 차량의 속도가 기 설정된 속도 이하인 경우에 상기 안내를 수행하도록 제어하는 것을 특징으로 하는 전자 장치.
11. The method of claim 10,
Further comprising: an input unit for receiving a user input requesting a placement position guidance of the camera,
Wherein,
And performs the guidance when the speed of the vehicle is equal to or less than a predetermined speed.
제10항에 있어서,
음성을 출력하는 오디오 출력부;
화면을 표시하는 디스플레이부; 및
상기 결정된 소실점의 위치 및 상기 기준 위치 간의 위치 차이를 산출하고, 상기 결정된 소실점의 위치를 상기 기준 위치에 위치시키기 위해 상기 카메라의 기존 거치 위치를 기준으로 이동시켜야하는 거리 및 방향을 상기 산출된 위치 차이를 이용하여 산출하는 산출부;를 더 포함하고,
상기 제어부는,
상기 산출된 거리 및 방향을 음성으로 제공하도록 상기 오디오 출력부를 제어하거나 또는 상기 산출된 거리 및 방향을 나타내는 안내 객체를 화면에 표시하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 전자 장치.
11. The method of claim 10,
An audio output unit for outputting audio;
A display unit for displaying a screen; And
Calculating a positional difference between the determined position of the vanishing point and the reference position and calculating a distance and a direction to be moved based on the existing mounting position of the camera in order to position the determined vanishing point position at the reference position, And a calculation unit for calculating the number of times of use,
Wherein,
And controls the display unit to control the audio output unit to provide the calculated distance and direction as a voice or to display a guide object indicating the calculated distance and direction on the screen.
제14항에 있어서,
상기 산출부는,
사용자가 상기 안내를 기초로 상기 카메라를 이동시키면, 상기 사용자의 카메라 이동에 따른 결과를 반영하여 상기 거리 및 방향을 갱신하고,
상기 제어부는,
상기 갱신된 거리 및 방향을 음성으로 제공하도록 상기 오디오 출력부를 제어하거나 또는 상기 갱신된 거리 및 방향을 나타내는 안내 객체를 화면에 표시하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 전자 장치.
15. The method of claim 14,
The calculating unit calculates,
When the user moves the camera on the basis of the guidance, updates the distance and the direction reflecting the result of the camera movement of the user,
Wherein,
And controls the display unit to control the audio output unit to provide the updated distance and direction by voice or to display a guide object indicating the updated distance and direction on the screen.
제10항에 있어서,
화면을 표시하는 디스플레이부; 및
상기 결정된 소실점의 위치 및 상기 기준 위치 간의 위치 차이를 산출하고, 캡쳐링 영상을 표시할 화면 내 소정 영역을 상기 위치 차이를 이용하여 결정하는 산출부;를 더 포함하고,
상기 캡쳐링 영상은, 상기 카메라의 기존 거치 위치에서 실시간으로 촬영된 영상에서 캡쳐링된 영상이며,
상기 제어부는,
상기 실시간 촬영 영상을 상기 화면에 표시하고, 상기 결정된 영역에 상기 캡쳐링 영상을 겹쳐서 표시하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 전자 장치.
11. The method of claim 10,
A display unit for displaying a screen; And
And a calculating unit for calculating a positional difference between the determined position of the vanishing point and the reference position and for determining a predetermined area in a screen for displaying the captured image using the positional difference,
Wherein the capturing image is a captured image in an image captured in real time at an existing mount position of the camera,
Wherein,
Displays the real-time shot image on the screen, and controls the display unit to display the captured image in a superimposed manner on the determined area.
제16항에 있어서,
상기 산출부는,
상기 결정된 소실점의 위치를 상기 기준 위치에 위치시키기 위해 상기 카메라의 기존 거치 위치를 기준으로 이동시켜야하는 거리 및 방향을 산출하고,
상기 제어부는,
상기 산출된 거리 및 방향을 나타내는 안내 객체를 상기 화면에 표시하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 전자 장치.
17. The method of claim 16,
The calculating unit calculates,
Calculating a distance and a direction to be moved based on the existing mounting position of the camera to position the determined vanishing point position to the reference position,
Wherein,
And controls the display unit to display a guide object indicating the calculated distance and direction on the screen.
제17항에 있어서,
상기 실시간 촬영 영상과 상기 캡쳐링 영상을 매칭하는 영상 매칭부;를 더 포함하고,
상기 산출부는,
상기 매칭 결과를 반영하여 상기 거리 및 방향을 갱신하며,
상기 제어부는,
상기 갱신된 거리 및 방향을 나타내는 안개 객체를 상기 화면에 표시하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 전자 장치.
18. The method of claim 17,
And an image matching unit for matching the real-time image and the capturing image,
The calculating unit calculates,
Updates the distance and direction by reflecting the matching result,
Wherein,
And controls the display unit to display a fog object indicating the updated distance and direction on the screen.
전자 장치의 제어 방법을 수행하기 위한 프로그램 코드가 기록된 컴퓨터 판독 가능한 기록 매체에 있어서,
상기 제어 방법은,
차량의 운전 중에 카메라에서 촬영된 영상의 소실점(Vanishing point)을 결정하는 단계;
상기 결정된 소실점의 최적의 위치인 기준 위치를 결정하는 단계; 및
상기 결정된 소실점의 위치 및 기준 위치를 이용하여 상기 카메라의 거치 위치를 안내하는 단계;를 포함하는 컴퓨터 판독 가능한 기록 매체.
A computer-readable recording medium having recorded thereon a program code for performing a control method of an electronic apparatus,
In the control method,
Determining a vanishing point of an image photographed by a camera during driving of the vehicle;
Determining a reference position that is an optimal position of the determined vanishing point; And
And guiding the stationary position of the camera using the determined position and the reference position of the vanishing point.
KR1020140050820A 2014-04-28 2014-04-28 Electronic apparatus, control method of electronic apparatus and computer readable recording medium KR102158167B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140050820A KR102158167B1 (en) 2014-04-28 2014-04-28 Electronic apparatus, control method of electronic apparatus and computer readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140050820A KR102158167B1 (en) 2014-04-28 2014-04-28 Electronic apparatus, control method of electronic apparatus and computer readable recording medium

Publications (2)

Publication Number Publication Date
KR20150124527A true KR20150124527A (en) 2015-11-06
KR102158167B1 KR102158167B1 (en) 2020-09-22

Family

ID=54600850

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140050820A KR102158167B1 (en) 2014-04-28 2014-04-28 Electronic apparatus, control method of electronic apparatus and computer readable recording medium

Country Status (1)

Country Link
KR (1) KR102158167B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108973976A (en) * 2017-06-02 2018-12-11 本田技研工业株式会社 Vehicle control system and control method for vehicle
KR102365360B1 (en) * 2021-04-22 2022-02-23 (주)에이아이매틱스 An apparatus and method for determining a driving state of a vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003040036A (en) * 2001-07-31 2003-02-13 Mitsubishi Motors Corp Vehicle-circumstances viewing apparatus
JP2009113710A (en) * 2007-11-08 2009-05-28 Denso Corp Head-up display device
JP2013054720A (en) * 2011-08-08 2013-03-21 Toshiba Alpine Automotive Technology Corp Driving support system
JP2013183306A (en) * 2012-03-02 2013-09-12 Nec Casio Mobile Communications Ltd Imaging apparatus, imaging method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003040036A (en) * 2001-07-31 2003-02-13 Mitsubishi Motors Corp Vehicle-circumstances viewing apparatus
JP2009113710A (en) * 2007-11-08 2009-05-28 Denso Corp Head-up display device
JP2013054720A (en) * 2011-08-08 2013-03-21 Toshiba Alpine Automotive Technology Corp Driving support system
JP2013183306A (en) * 2012-03-02 2013-09-12 Nec Casio Mobile Communications Ltd Imaging apparatus, imaging method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108973976A (en) * 2017-06-02 2018-12-11 本田技研工业株式会社 Vehicle control system and control method for vehicle
US11242055B2 (en) 2017-06-02 2022-02-08 Honda Motor Co., Ltd. Vehicle control system and vehicle control method
KR102365360B1 (en) * 2021-04-22 2022-02-23 (주)에이아이매틱스 An apparatus and method for determining a driving state of a vehicle

Also Published As

Publication number Publication date
KR102158167B1 (en) 2020-09-22

Similar Documents

Publication Publication Date Title
KR102348127B1 (en) Electronic apparatus and control method thereof
CN108680173B (en) Electronic device, control method of electronic device, and computer-readable recording medium
US11030816B2 (en) Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
CN110091798B (en) Electronic device, control method of electronic device, and computer-readable storage medium
CN108470162B (en) Electronic device and control method thereof
KR102123844B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
US11073963B2 (en) Method, electronic apparatus and computer readable recording medium for displaying information regarding user's point of interest
KR102406491B1 (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
KR102480000B1 (en) Electronic apparatus, route guidance method of electronic apparatus, computer program and computer readable recording medium
KR102406490B1 (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
KR102158167B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR102276082B1 (en) Navigation device, black-box and control method thereof
KR102299081B1 (en) Electronic apparatus and control method thereof
KR102371620B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR102299501B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR20160065721A (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
KR20200092197A (en) Image processing method, image processing apparatus, electronic device, computer program and computer readable recording medium for processing augmented reality image
KR20170029286A (en) Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant