KR102299081B1 - Electronic apparatus and control method thereof - Google Patents

Electronic apparatus and control method thereof Download PDF

Info

Publication number
KR102299081B1
KR102299081B1 KR1020130148907A KR20130148907A KR102299081B1 KR 102299081 B1 KR102299081 B1 KR 102299081B1 KR 1020130148907 A KR1020130148907 A KR 1020130148907A KR 20130148907 A KR20130148907 A KR 20130148907A KR 102299081 B1 KR102299081 B1 KR 102299081B1
Authority
KR
South Korea
Prior art keywords
camera
electronic device
captured image
vehicle
augmented reality
Prior art date
Application number
KR1020130148907A
Other languages
Korean (ko)
Other versions
KR20150064767A (en
Inventor
고석필
Original Assignee
팅크웨어(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 팅크웨어(주) filed Critical 팅크웨어(주)
Priority to KR1020130148907A priority Critical patent/KR102299081B1/en
Publication of KR20150064767A publication Critical patent/KR20150064767A/en
Application granted granted Critical
Publication of KR102299081B1 publication Critical patent/KR102299081B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect

Abstract

전자 장치의 제어 방법이 개시된다. 본 제어 방법은, 카메라에서 촬영된 촬영 영상의 복수의 프레임 각각에 포함된 특정 영역의 화소 값을 비교하여 사용자의 진행 방향 축과의 각도를 산출하는 단계, 산출된 각도를 반영한 경로 안내 객체를 촬영 영상에 결합하여 증강 현실 상에 경로 안내를 수행하는 단계를 포함한다.A method of controlling an electronic device is disclosed. The control method includes calculating an angle with a user's moving direction axis by comparing pixel values of a specific region included in each of a plurality of frames of a captured image captured by a camera, and photographing a route guide object reflecting the calculated angle and performing route guidance on augmented reality by combining it with an image.

Description

전자 장치 및 그의 제어 방법{ELECTRONIC APPARATUS AND CONTROL METHOD THEREOF}ELECTRONIC APPARATUS AND CONTROL METHOD THEREOF

본 발명은 전자 장치 및 그의 제어 방법에 관한 것으로, 보다 상세하게는 증강 현실 상에서 경로 안내를 수행하는 전자 장치 및 그의 제어 방법에 관한 것이다.The present invention relates to an electronic device and a control method thereof, and more particularly, to an electronic device for performing route guidance in augmented reality and a control method thereof.

전자 기술의 발달에 힘입어 다양한 종류의 전자 장치가 개발 및 보급되고 있다. 특히, 최근에는 실시간으로 촬영되는 촬영 영상에 컴퓨터 그래픽스(Computer Graphics: CG), 문자 등의 부가 정보를 합성하여 표시하는 증강 현실(Augmented Reality: AR)의 형태로 지리 정보를 제공하는 기술이 소개된 바 있다. With the development of electronic technology, various types of electronic devices are being developed and distributed. In particular, recently, a technology for providing geographic information in the form of Augmented Reality (AR) that synthesizes and displays additional information such as computer graphics (CG) and text with a captured image taken in real time has been introduced. there is a bar

이러한 증강현실 기술에 따르면, 사용자가 실제로 보고 있는 현실 세계를 담고 있는 화면에 부가 정보(예를 들면, 관심 지점(Point Of Interest: POI)을 나타내는 그래픽 요소, 목적지까지의 경로를 나타내는 그래픽 요소 등)를 시각적으로 중첩하여 제공할 수 있으므로 사용자에게 보다 직관적인 방법으로 지리 정보를 제공할 수 있게 된다.According to this augmented reality technology, additional information (eg, a graphic element indicating a point of interest (POI), a graphic element indicating a route to a destination, etc.) It is possible to provide geographical information in a more intuitive way to users because it is possible to provide them visually.

이에 따라, 종래의 내비게이션 단말은 증강 현실 기술을 적용하여 주행 중인 차량의 전방을 촬영한 영상에 지도 데이터와 관련된 표현 정보를 합성하여 경로 안내를 수행할 수 있었다. Accordingly, the conventional navigation terminal was able to perform route guidance by synthesizing expression information related to map data with an image photographed in front of a driving vehicle by applying augmented reality technology.

다만, 차량 속도가 저속인 경우, 종래의 내비게이션 단말은 GPS의 오차로 인하여 차량의 정확한 위치 및 방향을 잃는 경우가 자주 발생하였고, 그 결과 사용자가 원하는 목적지까지의 경로를 부정확하게 안내하는 문제점이 있었다. However, when the vehicle speed is low, the conventional navigation terminal frequently loses the correct position and direction of the vehicle due to a GPS error. .

특히, 이러한 경우, 증강 현실 상에서 목적지까지의 경로를 나타내는 그래픽 요소가 차량이 주행해야할 방향과 전혀 다른 방향으로 안내하는 문제점이 있었다.In particular, in this case, there is a problem in that the graphic element indicating the route to the destination on the augmented reality guides the vehicle in a direction completely different from the direction in which the vehicle should travel.

이에 따라 최근에는 이러한 문제점을 줄이려는 연구가 활발하게 진행되고 있다. Accordingly, recently, research to reduce these problems has been actively conducted.

일 예로, 내비게이션 단말에 다양한 센서(가속도 센서, 자이로스코프 등)를 부착하거나 하드웨어적인 DR(Dead Reckoning) 장치를 이용하여 상술한 위치 및 방향의 오차를 줄이려는 연구가 활발하게 진행되고 있다.For example, research to reduce the above-described position and direction errors by attaching various sensors (accelerometers, gyroscopes, etc.) to a navigation terminal or using a hardware dead reckoning (DR) device is being actively conducted.

그러나, 이러한 하드웨어의 추가 구성을 이용한다고 하더라도 상술한 위치 및 방향의 오차는 여전히 발생하고 있고, 또한 이에 따른 비용 증대 및 설치에 대한 제약사항이 크게 작용하고 있다.However, even if the additional configuration of the hardware is used, the above-described position and orientation errors still occur, and accordingly, cost increase and restrictions on installation are greatly affected.

다른 예로, 차량에서 지원되는 CAN통신을 기반으로 한 DR정보를 이용하는 방안도 있으나, 이는 고급차량에서만 지원되거나, 프로토콜(통신규약)이 모두 다르므로 단말기와의 연결이 상당히 어렵다는 문제가 있다.As another example, there is a method of using DR information based on CAN communication supported by the vehicle, but this is supported only in high-end vehicles or since the protocols (communication protocols) are all different, there is a problem in that connection with the terminal is quite difficult.

본 발명은 상술한 필요성에 따라 안출된 것으로, 본 발명의 목적은 촬영 영상을 이용하여 산출된 사용자(또는 사용자가 탑승한 차량)의 이동상의 회전 각도를 경로 안내 객체에 반영함으로써, 증강 현실 상에서 보다 정확하게 경로 안내를 수행할 수 있는 전자 장치 및 그의 제어 방법을 제공함에 있다.The present invention has been devised in response to the above-mentioned necessity, and an object of the present invention is to reflect the rotation angle of the moving image of the user (or the vehicle in which the user is riding) calculated using the captured image in the route guide object, so that it is better in augmented reality. An object of the present invention is to provide an electronic device capable of accurately performing route guidance and a control method thereof.

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법은, 카메라에서 촬영된 촬영 영상의 복수의 프레임 각각에 포함된 특정 영역의 화소 값을 비교하여 사용자의 진행 방향 축과의 각도를 산출하는 단계 및 상기 산출된 각도를 반영한 경로 안내 객체를 상기 촬영 영상에 결합하여 증강 현실 상에 경로 안내를 수행하는 단계를 포함한다.According to an embodiment of the present invention for achieving the above object, there is provided a method for controlling an electronic device by comparing pixel values of a specific region included in each of a plurality of frames of a captured image captured by a camera to compare the user's moving direction axis and the calculating the angle of , and performing route guidance on augmented reality by combining a route guide object reflecting the calculated angle with the captured image.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 장치는, 카메라에서 상기 촬영 영상의 복수의 프레임 각각에 포함된 특정 영역의 화소 값을 저장하는 저장부, 상기 저장된 화소 값을 비교하여 사용자의 진행 방향 축과의 각도를 산출하는 각도 산출부, 및 상기 산출된 각도를 반영한 경로 안내 객체를 상기 촬영 영상에 결합하여 증강 현실 상에 경로 안내를 수행하는 제어부를 포함한다.Meanwhile, in an electronic device according to an embodiment of the present invention for achieving the above object, a storage unit for storing pixel values of a specific region included in each of a plurality of frames of the captured image in a camera, and storing the stored pixel values and an angle calculator for calculating an angle with the user's traveling direction axis by comparison, and a controller for performing route guidance on augmented reality by combining a route guide object reflecting the calculated angle with the captured image.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 수행하기 위한 프로그램 코드가 기록된 컴퓨터 판독 가능 기록 매체에 있어서, 상기 제어 방법은, 카메라에서 촬영된 촬영 영상의 복수의 프레임 각각에 포함된 특정 영역의 화소 값을 비교하여 사용자의 진행 방향 축과의 각도를 산출하는 단계 및 상기 산출된 각도를 반영한 경로 안내 객체를 상기 촬영 영상에 결합하여 증강 현실 상에 경로 안내를 수행하는 단계를 포함한다.Meanwhile, in a computer-readable recording medium recording a program code for performing a control method of an electronic device according to an embodiment of the present invention for achieving the above object, the control method includes: Comparing pixel values of a specific region included in each of a plurality of frames of and performing guidance.

상술한 본 발명의 다양한 실시 예에 따르면 고도의 정확도를 요구하는 증강 현실 상의 경로 안내를 정확하게 수행할 수 있다.According to various embodiments of the present invention described above, it is possible to accurately perform route guidance in augmented reality requiring a high degree of accuracy.

또한, 상술한 본 발명의 다양한 실시 예에 따르면, 카메라에서 촬영된 촬영 영상을 이용하는 바, 부가적인 하드웨어 구성이 없이 증강 현실 상의 경로 안내를 정확하게 수행할 수 있다.In addition, according to the above-described various embodiments of the present invention, since a captured image captured by a camera is used, route guidance in augmented reality can be accurately performed without additional hardware configuration.

또한, 블랙박스에 탑재된 카메라를 이용하는 경우, 단순 GPS 만이 장착된 저사양 단말기에서도 증강 현실 상의 경로 안내를 정확하게 수행할 수 있다. In addition, in the case of using a camera mounted on a black box, route guidance in augmented reality can be accurately performed even in a low-end terminal equipped with only a simple GPS.

도 1은 본 발명의 일 실시 예에 따른 전자 장치를 나타내는 블록도 이다.
도 2는 본 발명의 일 실시 예에 따른 증강 현실 제공부를 나타내는 블록도 이다.
도 3은 본 발명의 일 실시 예에 따른 평면 영역 결정하는 방법을 나타내는 도면이다.
도 4는 본 발명의 일 실시 예에 따른 특정 영역을 나타내는 도면이다.
도 5는 본 발명의 일 실시 예에 따른 제어 방법의 효과를 나타내는 도면이다.
도 6은 본 발명의 일 실시 예에 따른 제어 방법을 나타내는 흐름도 이다.
도 7은 본 발명의 일 실시 예에 따른 블랙 박스 및 내비게이션을 이용한 증강 현실 제공 시스템을 나타내는 도면이다.
도 8는 본 발명의 일 실시 예에 따른 카메라 기능 내포하는 전자 장치를 이용한 증강 현실 제공 시스템을 나타내는 도면이다.
도 9은 본 발명의 일 실시 예에 따른 HUD(Head-Up Display) 및 전자 장치를 이용한 증강 현실 제공 시스템을 나타내는 도면이다.
1 is a block diagram illustrating an electronic device according to an embodiment of the present invention.
2 is a block diagram illustrating an augmented reality providing unit according to an embodiment of the present invention.
3 is a diagram illustrating a method of determining a planar area according to an embodiment of the present invention.
4 is a view showing a specific area according to an embodiment of the present invention.
5 is a diagram illustrating an effect of a control method according to an embodiment of the present invention.
6 is a flowchart illustrating a control method according to an embodiment of the present invention.
7 is a diagram illustrating an augmented reality providing system using a black box and navigation according to an embodiment of the present invention.
8 is a diagram illustrating an augmented reality providing system using an electronic device including a camera function according to an embodiment of the present invention.
9 is a diagram illustrating an augmented reality providing system using a head-up display (HUD) and an electronic device according to an embodiment of the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following is merely illustrative of the principles of the invention. Therefore, those skilled in the art will be able to devise various devices which, although not explicitly described or shown herein, embody the principles of the present invention and are included within the spirit and scope of the present invention. In addition, it should be understood that all conditional terms and examples listed herein are, in principle, expressly intended only for the purpose of understanding the inventive concept and are not limited to the specifically enumerated embodiments and states as such. do.

또한, 본 발명의 원리, 관점 및 실시 예들 뿐만 아니라 특정 실시 예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.Further, it is to be understood that all detailed description reciting specific embodiments, as well as principles, aspects, and embodiments of the present invention, are intended to include structural and functional equivalents thereof. It is also to be understood that such equivalents include not only currently known equivalents, but also equivalents developed in the future, i.e., all devices invented to perform the same function, regardless of structure.

따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, the block diagrams herein are to be understood as representing conceptual views of illustrative circuitry embodying the principles of the present invention. Similarly, all flowcharts, state transition diagrams, pseudo code, etc. may be tangibly embodied on computer-readable media and be understood to represent various processes performed by a computer or processor, whether or not a computer or processor is explicitly shown. should be

프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.The functions of the various elements shown in the figures including a processor or functional blocks represented by similar concepts may be provided by the use of dedicated hardware as well as hardware having the ability to execute software in association with appropriate software. When provided by a processor, the functionality may be provided by a single dedicated processor, a single shared processor, or a plurality of separate processors, some of which may be shared.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.In addition, clear use of terms presented as processor, control, or similar concepts should not be construed as exclusively referring to hardware having the ability to execute software, and without limitation, digital signal processor (DSP) hardware, ROM for storing software. It should be understood to implicitly include (ROM), RAM (RAM) and non-volatile memory. Other common hardware may also be included.

본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.In the claims of the present specification, a component expressed as a means for performing the function described in the detailed description includes, for example, a combination of circuit elements that perform the function or software in any form including firmware/microcode, etc. It is intended to include all methods of performing the functions of the device, coupled with suitable circuitry for executing the software to perform the functions. Since the present invention defined by these claims is combined with the functions provided by the various enumerated means and combined in a manner required by the claims, any means capable of providing the functions are equivalent to those contemplated from the present specification. should be understood as

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. The above-described objects, features and advantages will become more apparent through the following detailed description in relation to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the present invention pertains can easily implement the technical idea of the present invention. There will be. In addition, in the description of the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시 예를 상세히 설명하기로 한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 전자 장치를 나타내는 블록도 이다. 도 1을 참조하면, 전자 장치(100)는 통신부(110), 입력부(120), 센싱부(130), 출력부(140), 저장부(150), 전원부(160), 제어부(170)의 전부 또는 일부를 포함한다.1 is a block diagram illustrating an electronic device according to an embodiment of the present invention. Referring to FIG. 1 , an electronic device 100 includes a communication unit 110 , an input unit 120 , a sensing unit 130 , an output unit 140 , a storage unit 150 , a power supply unit 160 , and a control unit 170 . includes all or part of it.

여기서, 전자 장치(100)는 특정 지점까지의 경로 안내를 수행할 수 있는 스마트 폰, 태블릿 컴퓨터, 노트북 컴퓨터, PDA(personal digital assistant), PMP(portable multimedia player), 스마트 글래스, 프로젝트 글래스, 내비게이션, 블랙 박스 등과 같은 다양한 장치로 구현될 수 있다. Here, the electronic device 100 includes a smart phone, a tablet computer, a notebook computer, a personal digital assistant (PDA), a portable multimedia player (PMP), smart glasses, project glasses, navigation, etc. capable of guiding a route to a specific point. It may be implemented in various devices such as a black box.

이러한, 전자 장치(100)는 경로 안내를 위한 방안으로 증강 현실 뷰 모드 및 일반 모드를 포함할 수 있다. 이러한 경로 안내는, 사용자가 차량에 탑승하여 주행하는 경우 뿐만 아니라, 사용자가 걷거나 뛰어서 이동하는 경우의 경로 안내도 포함하는 개념으로 해석될 수 있다. As such, the electronic device 100 may include an augmented reality view mode and a normal mode as a route guidance method. Such route guidance may be interpreted as a concept including route guidance not only when the user travels in a vehicle, but also when the user walks or jumps.

여기서, 증강 현실 뷰 모드는, 주행 중인 차량의 전방을 촬영한 영상에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 모드를 의미할 수 있다. Here, the augmented reality view mode may refer to a mode for performing route guidance by combining various types of information such as a user's location and direction with an image captured in front of a driving vehicle.

이러한, 주행 중인 차량의 전방 촬영 영상은 카메라로부터 촬영될 수 있다. 여기서 카메라는 전자 장치(100)에 내장된 카메라일 수도 있고, 전자 장치(100)와 별개로 설치되어 차량의 전방을 촬영하는 카메라일 수 있다. 일례로, 스마트 폰이나 내비게이션, 또는 블랙 박스에 내장된 카메라이거나 차량의 전방을 향하여 설치된 별도의 카메라일 수도 있다.Such a front-captured image of the driving vehicle may be captured from the camera. Here, the camera may be a camera built into the electronic device 100 or a camera installed separately from the electronic device 100 to photograph the front of the vehicle. For example, it may be a camera built into a smart phone, a navigation system, or a black box, or a separate camera installed toward the front of the vehicle.

또한, 일반 모드는, 2D(2-Dimensional) 또는 3D(3-Dimensional)의 지도 데이터에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 모드를 의미할 수 있다. In addition, the normal mode may refer to a mode in which route guidance is performed by combining various types of information such as a user's location and direction with 2D (2-dimensional) or 3D (3-dimensional) map data.

통신부(110)는 전자 장치(100)가 다른 디바이스와 통신하기 위하여 마련될 수 있다. 통신부(110)는, 위치 데이터 모듈(111)과, 무선 인터넷 모듈(113)과, 방송 송수신 모듈(115), 근거리 통신 모듈(117), 유선 통신 모듈(119)의 전부 또는 일부를 포함할 수 있다. The communication unit 110 may be provided for the electronic device 100 to communicate with other devices. The communication unit 110 may include all or part of the location data module 111 , the wireless Internet module 113 , the broadcast transmission/reception module 115 , the short-range communication module 117 , and the wired communication module 119 . have.

위치 데이터 모듈(111)은 GNSS(Global Navigation Satellite System)를 통하여 위치 데이터를 획득하는 장치이다. GNSS는 인공위성으로부터 수신한 전파신호를 이용하여 수신 단말기의 위치를 산출할 수 있는 항법 시스템을 의미한다. GNSS의 구체적인 예로는, 그 운영 주체에 따라서 GPS(Global Positioning System), Galileo, GLONASS(Global Orbiting Navigational Satellite System), COMPASS, IRNSS(Indian Regional Navigational Satellite System), QZSS(Quasi-Zenith Satellite System) 등 일 수 있다. 본 발명의 일 실시예에 따른 전자 장치(100)의위치 데이터 모듈(111)은, 전자 장치(100)가 사용되는 지역에서 서비스하는 GNSS 신호를 수신하여 위치 데이터를 획득할 수 있다.The location data module 111 is a device for obtaining location data through a Global Navigation Satellite System (GNSS). GNSS refers to a navigation system capable of calculating the position of a receiving terminal using a radio signal received from an artificial satellite. Specific examples of GNSS include GPS (Global Positioning System), Galileo, GLONASS (Global Orbiting Navigational Satellite System), COMPASS, IRNSS (Indian Regional Navigational Satellite System), QZSS (Quasi-Zenith Satellite System), etc. can The location data module 111 of the electronic device 100 according to an embodiment of the present invention may obtain location data by receiving a GNSS signal serviced in a region where the electronic device 100 is used.

무선 인터넷 모듈(113)은 무선 인터넷에 접속하여 데이터를 획득하거나 송신하는 장치이다. 무선 인터넷 모듈(113)을 통하여 접속할 수 있는 무선 인터넷은, WLAN(Wireless LAN), Wibro(Wireless broadband), Wimax(World interoperability for microwave acess), HSDPA(High Speed Downlink Packet Acess) 등 일 수 있다.The wireless Internet module 113 is a device for acquiring or transmitting data by accessing the wireless Internet. The wireless Internet accessible through the wireless Internet module 113 may be a wireless LAN (WLAN), a wireless broadband (Wibro), a world interoperability for microwave access (Wimax), a high speed downlink packet access (HSDPA), or the like.

방송 송수신 모듈(115)은 각종 방송 시스템을 통하여 방송 신호를 송수신하는 장치이다. 방송 송수신 모듈(115)을 통하여 송수신할 수 있는 방송 시스템은, DMBT(Digital Multimedia Broadcasting Terrestrial), DMBS(Digital Multimedia Broadcasting Satellite), MediaFLO(Media Foeward Link Only), DVBH(Digital Video Broadcast Handheld), ISDBT(Integrated Services Digital Broadcast Tereestrial) 등일 수 있다. 방송 송수신 모듈(115)을 통하여 송수신되는 방송 신호에는 교통데이터, 생활데이터 등을 포함할 수 있다.The broadcast transmission/reception module 115 is a device for transmitting and receiving broadcast signals through various broadcast systems. Broadcast systems that can transmit and receive through the broadcast transmission/reception module 115 include Digital Multimedia Broadcasting Terrestrial (DMBT), Digital Multimedia Broadcasting Satellite (DMBS), Media Foeward Link Only (MediaFLO), Digital Video Broadcast Handheld (DVBH), and ISDBT (Digital Multimedia Broadcasting Terrestrial). Integrated Services Digital Broadcast Tereestrial) and the like. The broadcast signal transmitted and received through the broadcast transmission/reception module 115 may include traffic data, life data, and the like.

근거리 통신 모듈(117)은 근거리 통신을 위한 장치이다. 근거리 통신 모듈(117)은, 전술한 바와 같이, 블루투스(Bluetooth), RFID(Radio Frequency Idntification), 적외선 통신(IrDA, Infraed Data Association), UWB(Ultra WidBand), ZigBee 등을 통하여 통신할 수 있다.The short-range communication module 117 is a device for short-range communication. As described above, the short-range communication module 117 may communicate through Bluetooth, Radio Frequency Idntification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like.

유선 통신 모듈(119)은 전자 장치(100)를 다른 디바이스와 유선으로 연결할 수 있는 인터페이스 장치이다. 유선 통신 모듈(119)은, USB Port를 통하여 통신할 수 있는 USB 모듈일 수 있다. The wired communication module 119 is an interface device that can connect the electronic device 100 to another device by wire. The wired communication module 119 may be a USB module capable of communicating through a USB port.

본 발명의 일 실시예 및 다른 실시 예에 따른 전자 장치(100)는 필요에 따라서 근거리 통신 모듈(117) 또는 유선 통신 모듈(119)을 통하여 다른 디바이스와 통신할 수 있다. 나아가, 복수의 디바이스와 통신하는 경우에, 어느 하나는 근거리 통신 모듈(117)로 통신하고, 다른 하나는 유선 통신 모듈(119)을 통하여 통신하는 경우도 가능하다. 이에 따라, 본 발명의 일 실시 예에 따른 카메라 기능을 포함하지 않는 전자 장치의 경우, 통신부(110)를 통하여 블랙 박스에서 촬영된 촬영 영상을 수신하거나, 차량의 전방을 향하여 설치된 별도의 카메라로부터 촬영 영상을 수신할 수 있다. The electronic device 100 according to an embodiment and another embodiment of the present invention may communicate with other devices through the short-range communication module 117 or the wired communication module 119 as necessary. Furthermore, when communicating with a plurality of devices, one of them communicates with the short-range communication module 117 and the other communicates with the wired communication module 119 . Accordingly, in the case of an electronic device that does not include a camera function according to an embodiment of the present invention, a photographed image photographed in the black box is received through the communication unit 110 or photographed from a separate camera installed toward the front of the vehicle. video can be received.

입력부(120)는 전자 장치(100)의 외부로부터의 물리적 입력을 특정한 전기 신호로 변환하는 장치이다. 입력부(120)는 사용자 입력 모듈(121)과, 마이크 모듈(123)의 전부 또는 일부를 포함할 수 있다.The input unit 120 is a device that converts a physical input from the outside of the electronic device 100 into a specific electrical signal. The input unit 120 may include a user input module 121 and all or a part of the microphone module 123 .

사용자 입력 모듈(121)은 사용자가 터치, 푸쉬동작 등을 통하여 입력할 수 있는 입력 장치이다. 여기서 사용자 입력 모듈(120)은 다양한 버튼의 형태, 터치 입력을 수신하는 터치 센서, 접근하는 모션을 수신하는 근접 센서 중 적어도 하나를 이용하여 구현될 수 있다. The user input module 121 is an input device through which a user can input through a touch, a push operation, or the like. Here, the user input module 120 may be implemented using at least one of various button shapes, a touch sensor for receiving a touch input, and a proximity sensor for receiving an approaching motion.

마이크 모듈(123)은 사용자의 음성 및 차량의 내외부에서 발생한 음향을 수신하는 장치이다. The microphone module 123 is a device for receiving a user's voice and a sound generated inside or outside the vehicle.

센싱부(130)는 전자 장치(100)의 현재 상태를 감지할 수 있는 장치이다. 센싱부(130)는 모션 센싱 모듈(131)과, 광 센싱 모듈(133)의 전부 또는 일부를 포함할 수 있다.The sensing unit 130 is a device capable of detecting the current state of the electronic device 100 . The sensing unit 130 may include a motion sensing module 131 and all or a part of the light sensing module 133 .

모션 센싱 모듈(131)은 전자 장치(100)의 3차원 공간 상에서의 운동을 감지할 수 있다. 모션 센싱 모듈(131)은, 3축 지자기 센서 및 3축 가속도 센서를 포함할 수 있다. 모션 센싱 모듈(131)을 통하여 획득한 운동 데이터를 위치 데이터 모듈(111)을 통하여 획득한 위치 데이터와 결합하여, 전자 장치(100)를 부착한 차량의 보다 정확한 궤적을 산출할 수 있다.The motion sensing module 131 may detect a motion of the electronic device 100 in a 3D space. The motion sensing module 131 may include a 3-axis geomagnetic sensor and a 3-axis acceleration sensor. A more accurate trajectory of the vehicle to which the electronic device 100 is attached may be calculated by combining the motion data acquired through the motion sensing module 131 with the position data acquired through the position data module 111 .

광 센싱 모듈(133)은 전자 장치(100)의 주변 조도(illuminance)를 측정하는 장치이다. 광 센싱 모듈(133)을 통하여 획득한 조도데이터를 이용하여, 디스플레이부(145)의 밝기를 주변 밝기에 대응되도록 변화시킬 수 있다.The light sensing module 133 is a device for measuring ambient illuminance of the electronic device 100 . By using the illuminance data acquired through the light sensing module 133 , the brightness of the display unit 145 may be changed to correspond to the ambient brightness.

출력부(140)는 전자 장치(100)의 데이터를 출력하는 장치이다. 출력부(140)는 디스플레이 모듈(141)과 오디오 출력 모듈(143)의 전부 또는 일부를 포함할 수 있다.The output unit 140 is a device that outputs data of the electronic device 100 . The output unit 140 may include all or part of the display module 141 and the audio output module 143 .

디스플레이 모듈(141)은 전자 장치(100)이 시각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 디스플레이 모듈(141)은, 전자 장치(100)의 하우징 전면(前面)에 마련된 디스플레이부로 구현될 수 있다. 여기서 디스플레이 모듈(141)은 전자 장치(100)와 일체로 형성되어 시각적 인식 데이터를 출력할 수 있고, HUD(Head Up Display)와 같이 전자 장치(100)와 별개로 설치되어 시각적 인식 데이터를 출력할 수도 있다. The display module 141 is a device that outputs data that can be visually recognized by the electronic device 100 . The display module 141 may be implemented as a display unit provided on the front surface of the housing of the electronic device 100 . Here, the display module 141 may be integrally formed with the electronic device 100 to output visual recognition data, and may be installed separately from the electronic device 100 such as a Head Up Display (HUD) to output visual recognition data. may be

오디오 출력 모듈(143)은 전자 장치(100)가 청각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 오디오 출력 모듈(143)은, 전자 장치(100)의 사용자에게 알려야 할 데이터를 소리를 표현하는 스피커로 구현될 수 있다.The audio output module 143 is a device for outputting data that can be audibly recognized by the electronic device 100 . The audio output module 143 may be implemented as a speaker expressing sound of data to be notified to the user of the electronic device 100 .

저장부(150)는 전자 장치(100)의 동작에 필요한 데이터 및 동작에 의하여 생성된 데이터를 저장하는 장치이다. 저장부(150)는 전자 장치(100)의 내부에 내장된 메모리이거나, 탈착 가능한 메모리일 수 있다. 전자 장치(100)의 동작에 필요한 데이터는, OS, 경로 탐색 어플리케이션, 맵(map) 등을 포함 할 수 있다. 또한 전자 장치(100)의 동작에 의하여 생성된 데이터는, 탐색된 경로 데이터, 수신한 영상 등일 수 있다.The storage unit 150 is a device for storing data required for the operation of the electronic device 100 and data generated by the operation. The storage unit 150 may be a memory built into the electronic device 100 or a removable memory. Data necessary for the operation of the electronic device 100 may include an OS, a route search application, a map, and the like. In addition, the data generated by the operation of the electronic device 100 may be searched route data, a received image, or the like.

전원부(160)는 전자 장치(100)의 동작 또는 전자 장치(100)와 연결된 다른 디바이스의 동작을 위하여 필요한 전원을 공급하는 장치이다. 전원부(160)는, 전자 장치(100)에 내장된 배터리 또는 차량 등의 외부전원에서 전원을 공급받는 장치일 수 있다. 또한, 전원부(160)는, 전원을 공급받는 형태에 따라서 유선 통신 모듈(119)로 구현되거나, 무선으로 공급받는 장치로 구현될 수도 있다.The power supply unit 160 is a device for supplying power necessary for the operation of the electronic apparatus 100 or the operation of another device connected to the electronic apparatus 100 . The power supply unit 160 may be a device that receives power from an external power source such as a battery built in the electronic device 100 or a vehicle. In addition, the power supply unit 160 may be implemented as a wired communication module 119 or a wirelessly supplied device depending on the form of receiving power.

제어부(170)는 전자 장치(100)의 각종 동작을 제어하는 제어신호를 출력하는 장치이다. 나아가, 제어부(170)는 전자 장치(100)에 연결된 다른 디바이스를 제어하는 제어신호를 출력할 수도 있다.The controller 170 is a device that outputs a control signal for controlling various operations of the electronic device 100 . Furthermore, the controller 170 may output a control signal for controlling another device connected to the electronic apparatus 100 .

한편, 본 발명의 일 실시 예에 따른 전자 장치(100)는 증강 현실 뷰 모드를 제공하기 위한 증강 현실 제공부(180)를 더 포함할 수 있다. 이에 대해서는 도 2를 참조하여 구체적으로 설명하기로 한다.Meanwhile, the electronic device 100 according to an embodiment of the present invention may further include an augmented reality providing unit 180 for providing an augmented reality view mode. This will be described in detail with reference to FIG. 2 .

도 2는 본 발명의 일 실시 예에 따른 증강 현실 제공부를 나타내는 블록도 이다. 도 2를 참조하면, 증강 현실 제공부(180)는 캘리브레이션부(181), 3D 공간 생성부(182), 평면 결정부(183), 영역 설정부(184), 각도 산출부(185), 맵핑부(186)의 전부 또는 일부를 포함할 수 있다. 2 is a block diagram illustrating an augmented reality providing unit according to an embodiment of the present invention. Referring to FIG. 2 , the augmented reality providing unit 180 includes a calibration unit 181 , a 3D space generation unit 182 , a plane determination unit 183 , a region setting unit 184 , an angle calculation unit 185 , and a mapping unit. It may include all or part of portion 186 .

캘리브레이션부(181)는 카메라에서 촬영된 촬영 영상으로부터 카메라에 해당되는 카메라 파라미터를 추정하기 위한 캘리브레이션(Calibration)을 수행할 수 있다. 여기서, 카메라 파라미터는 실사공간이 사진에 맺히는 관계를 나타내는 정보인 카메라 행렬을 구성하는 파라미터일 수 있다.The calibrator 181 may perform calibration for estimating a camera parameter corresponding to a camera from a captured image captured by the camera. Here, the camera parameter may be a parameter constituting a camera matrix, which is information indicating a relationship between an actual space and a photograph.

3D 생성부(182)는 카메라에서 촬영된 촬영 영상을 기초로 가상 3D 공간을 생성할 수 있다. 구체적으로, 3D 생성부(182)는 캘리브레이션부(181)가 추정한 카메라 파라미터를 기초로 카메라가 촬영한 영상으로부터 깊이 정보(Depths information)를 획득하고, 획득한 깊이 정보와 촬영 영상을 기초로 가상 3D 공간을 생성할 수 있다.The 3D generator 182 may generate a virtual 3D space based on the captured image captured by the camera. Specifically, the 3D generating unit 182 obtains depth information from an image photographed by the camera based on the camera parameter estimated by the calibrator 181, and virtual based on the acquired depth information and the photographed image. You can create 3D space.

평면 결정부(183)는 카메라에서 촬영된 촬영 영상을 이용하여 2D 평면을 결정할 수 있다. 구체적으로 평면 결정부(183)는 카메라에서 촬영된 촬영 영상을 이용하여 소실점을 검출하고, 검출된 소실점, 촬영 영상의 좌측 상단 꼭지점, 촬영 영상의 우측 상단 꼭지점을 연결한 평면을 결정할 수 있다. 여기서, 소실점의 검출은 일 예로, 촬영 영상에 포함된 차선 정보를 추출함으로써 수행될 수 있다. The plane determiner 183 may determine a 2D plane by using the captured image captured by the camera. Specifically, the plane determiner 183 may detect a vanishing point using a captured image captured by the camera, and determine a plane connecting the detected vanishing point, the upper left vertex of the captured image, and the upper right vertex of the captured image. Here, the detection of the vanishing point may be performed, for example, by extracting lane information included in the captured image.

이러한, 평면 결정부(183)의 2D 평면 결정 방법은 도 3을 참조하여 구체적으로 설명하기로 한다.Such a 2D plane determination method of the plane determining unit 183 will be described in detail with reference to FIG. 3 .

도 3은 본 발명의 일 실시 예에 따른 평면 영역 결정하는 방법을 나타내는 도면이다. 3 is a diagram illustrating a method of determining a planar area according to an embodiment of the present invention.

일 예로, 평면 결정부(183)는 촬영 영상으로부터 차선 정보(310),(320)를 추출하고, 추출된 차선 정보(310),(320)를 연장하여 서로 교차하게 되는 점인 소실점(Vanishing point)(330)을 검출할 수 있다. 그리고, 평면 결정부(183)는 촬영 영상의 좌측 상단 꼭지점(340), 촬영 영상의 우측 상단 꼭지점(350)을 검출할 수 있다. For example, the plane determining unit 183 extracts the lane information 310 and 320 from the captured image, and extends the extracted lane information 310 and 320 to intersect with each other, a vanishing point. (330) can be detected. In addition, the plane determiner 183 may detect the upper left vertex 340 of the captured image and the upper right vertex 350 of the captured image.

그리고, 평면 결정부(183)는 소실점(330)과 촬영 영상의 좌측 상단 꼭지점(340) 간의 직선 방정식과, 소실점(330)과 촬영 영상의 우측 상단 꼭지점(350) 간의 직선 방정식을 계산할 수 있다. In addition, the plane determiner 183 may calculate a linear equation between the vanishing point 330 and the upper left vertex 340 of the captured image, and a linear equation between the vanishing point 330 and the upper right vertex 350 of the captured image.

그리고, 평면 결정부(183)는 소실점(330)과 촬영 영상의 좌측 상단 꼭지점(340) 간의 직선 방정식과, 소실점(330)과 촬영 영상의 우측 상단 꼭지점(350) 간의 직선 방정식 및 영상(300)의 상부 변으로 형성되는 평면(360)을 2D 평면으로 결정할 수 있다. And, the plane determining unit 183 is a linear equation between the vanishing point 330 and the upper left vertex 340 of the captured image, and the linear equation between the vanishing point 330 and the upper right vertex 350 of the captured image and the image 300 A plane 360 formed by the upper side of may be determined as a 2D plane.

한편, 상술한 평면 결정부(183)의 동작에 따라 결정된 평면은, 주행중인 차량의 회전 각을 산출하기 위하여 상기 결정된 평면의 영상을 분석하는 경우, 주행 중에 촬영될 수 있는 다른 차량, 구조물, 지형 지물, 건물 등의 영향을 최소화할 수 있는 영역일 수 있다. On the other hand, the plane determined according to the operation of the above-described plane determining unit 183 is another vehicle, structure, and terrain that can be photographed while driving when the image of the determined plane is analyzed to calculate the rotation angle of the vehicle in motion. It may be an area in which the influence of features, buildings, etc. can be minimized.

영역 설정부(184)는 평면 결정부(183)에서 결정된 평면 내부에 특정 영역이 위치하도록 특정 영역을 설정할 수 있다.The region setting unit 184 may set a specific region so that the specific region is located within the plane determined by the plane determining unit 183 .

여기서, 특정 영역은, 촬영 영상의 복수의 프레임 각각에 포함된 특정 영역의 화소 값 비교를 통하여 차량의 진행 방향 축과의 각도를 산출하기 위한 영역일 수 있다.Here, the specific region may be a region for calculating an angle with the traveling direction axis of the vehicle by comparing pixel values of the specific region included in each of a plurality of frames of the captured image.

이러한, 특정 영역에 대해서는 도 4를 참조하여 구체적으로 설명하기로 한다.Such a specific region will be described in detail with reference to FIG. 4 .

도 4는 본 발명의 일 실시 예에 따른 특정 영역을 나타내는 도면이다. 도 4를 참조하면, 특정 영역은 '소실점으로부터 기 설정된 거리 위에 위치한 제1 영역(410)', '촬영 영상의 상단에 근접하고, 제1 영역으로부터 기 설정된 거리 위에 위치한 제2 영역(430)', '좌측 상단 꼭지점에 근접하고, 제2 영역의 좌측에 위치한 제3 영역(420)', '우측 상단 꼭지점에 근접하고, 상기 제2 영역의 우측에 위치한 제4 영역(440)'을 포함할 수 있다.4 is a diagram illustrating a specific area according to an embodiment of the present invention. Referring to FIG. 4 , the specific region is 'a first region 410 located above a preset distance from the vanishing point', 'a second region 430 close to the top of the captured image and located above a preset distance from the first region' , 'a third region 420 close to the upper left vertex and located on the left side of the second region' and 'a fourth region 440 close to the upper right vertex and located on the right side of the second region' can

여기서, 특정 영역은 제1 내지 제4 영역 중 적어도 두 개 이상을 포함할 수 있다. 특히, 바람직하게는, 특정 영역은 네 개 이상일 수 있다. 이러한, 특정 영역의 개수는, 데이터 처리 속도와 정확도 간의 트레이드 오프 관계에의하여 자동 또는 수동으로 설정될 수 있다.Here, the specific region may include at least two or more of the first to fourth regions. In particular, preferably, the specific region may be four or more. The number of such a specific region may be set automatically or manually according to a trade-off relationship between data processing speed and accuracy.

한편, 도 4에서는 특정 영역의 형태를 사각형으로 하였으나, 이에 한정되는 것은 아니고 다양한 형태로 구현될 수 있다. Meanwhile, in FIG. 4 , the shape of a specific region is a rectangle, but the present invention is not limited thereto and may be implemented in various shapes.

또한, 영역 설정부(184)는 카메라의 화각이 넓으면 멀리 위치하는 사물에 대한 이동치가 상대적으로 크기 때문에 일정 영역(410,420,430,440)의 크기를 크게 설정하고, 반면에 카메라의 화각이 좁으면 멀리 위치하는 사물에 대한 이동치가 비교적 작기 때문에 일정 영역(410,420,430,440)의 크기를 작게 설정할 수 있다.In addition, when the angle of view of the camera is wide, the area setting unit 184 sets the size of a certain area (410, 420, 430, 440) large because the movement value for an object located far away is relatively large, whereas when the angle of view of the camera is narrow, it is located far Since the movement value of the object is relatively small, the size of the predetermined regions 410 , 420 , 430 , and 440 may be set to be small.

한편, 각도 산출부(185)는 카메라에서 촬영된 촬영 영상의 복수의 프레임 각각에 포함된 특정 영역의 화소 값을 비교하여 차량의 진행 방향 축과의 각도를 산출할 수 있다.Meanwhile, the angle calculator 185 may calculate an angle with the axis of the traveling direction of the vehicle by comparing pixel values of a specific region included in each of a plurality of frames of a captured image captured by the camera.

일 예로, 각도 산출부(185)는 카메라에서 촬영된 촬영 영상의 제1 프레임의 특정 영역의 화소 값과 제1 프레임 이후의 프레임인 제2 프레임의 특정 영역의 화소 값을 비교하여 차량의 진행 방향 축과의 각도를 산출할 수 있다.For example, the angle calculator 185 compares pixel values of a specific region of a first frame of a captured image captured by the camera with a pixel value of a specific region of a second frame that is a frame after the first frame in the driving direction of the vehicle. The angle with the axis can be calculated.

여기서, 제1 프레임의 특정 영역의 화소 값과 제2 프레임의 특정 영역의 화소 값은 저장부(150)에 저장되어 있을 수 있다.Here, the pixel value of the specific region of the first frame and the pixel value of the specific region of the second frame may be stored in the storage unit 150 .

이 경우, 각도 산출부(185)는 제1 프레임의 특정 영역의 화소 값과 제1 프레임 이후의 프레임인 제2 프레임의 특정 영역의 화소 값을 비교하여 차량의 진행 방향을 결정할 수 있다. 구체적으로 비교 결과, 제3 영역(420), 제2 영역(430), 제4 영역(440)이 좌측으로 이동하는 경우 각도 산출부(185)는 차량이 우측 방향으로 회전 주행 중이라고 결정할 수 있다. 또한 비교 결과, 제3 영역(420), 제2 영역(430), 제4 영역(440)이 우측으로 이동하는 경우 각도 산출부(185)는 차량이 좌측 방향으로 회전 주행 중이라고 결정할 수 있다.In this case, the angle calculator 185 may determine the traveling direction of the vehicle by comparing the pixel value of the specific region of the first frame with the pixel value of the specific region of the second frame that is the frame after the first frame. Specifically, as a result of the comparison, when the third region 420 , the second region 430 , and the fourth region 440 move to the left, the angle calculator 185 may determine that the vehicle is rotating in the right direction. Also, as a result of the comparison, when the third region 420 , the second region 430 , and the fourth region 440 move to the right, the angle calculator 185 may determine that the vehicle is rotating in the left direction.

다만, 이러한 주행 방향 판단은 일 예시일 뿐, 이에 한정되는 것은 아니다. 즉, 차량이 고가 도로 밑을 지나는 경우와 같은 예시에서는 차량이 좌/우측으로 회전 주행하더라도 상술한 특정 영역의 조건이 성립하지 않을 수 있다. 따라서, 이 경우, 각도 산출부(185)는 제1 영역의 비교 결과에 따라 차량의 주행 방향을 결정할 수 있다. 즉, 각도 산출부(185)는 다양한 케이스에 대한 진행 방향 결정 결과를 저장부(150)로부터 독출하여 차량의 진행 방향을 결정할 수 있다. However, this determination of the driving direction is only an example, and is not limited thereto. That is, in an example such as when the vehicle passes under an overpass, the condition of the specific region may not be satisfied even if the vehicle rotates left/right. Accordingly, in this case, the angle calculator 185 may determine the driving direction of the vehicle according to the comparison result of the first region. That is, the angle calculator 185 may determine the driving direction of the vehicle by reading the driving direction determination results for various cases from the storage unit 150 .

그리고, 각도 산출부(185)는 상기 비교 결과를 이용하여 특정 영역에서 이동 화소의 개수를 산출할 수 있다. 구체적으로 각도 산출부(185)는 템플릿 매칭 기법을 통하여 제1 프레임에서 제2 프레임으로의 진행에 따라 특정 영역에서 이동된 화소의 개수를 산출할 수 있다. In addition, the angle calculator 185 may calculate the number of moving pixels in a specific area by using the comparison result. In more detail, the angle calculator 185 may calculate the number of pixels moved in a specific area according to the progress from the first frame to the second frame through the template matching technique.

그리고, 각도 산출부(185)는 캘리브레이션부(181)에서 산출된 카메라 파라미터에서 화각(angle of view)를 추출할 수 있다. In addition, the angle calculator 185 may extract an angle of view from the camera parameter calculated by the calibrator 181 .

그리고, 각도 산출부(185)는 진행 방향, 화소의 개수, 화각을 이용하여 차량의 진행 방향 축과의 각도를 산출할 수 있다. 일 예로, 각도 산출부(185)는 상술한 진행 방향, 화소의 개수, 화각을 arctan 값에 적용하여 상기 각도를 산출할 수 있다.In addition, the angle calculator 185 may calculate an angle with the traveling direction axis of the vehicle using the traveling direction, the number of pixels, and the angle of view. For example, the angle calculating unit 185 may calculate the angle by applying the above-described traveling direction, the number of pixels, and the angle of view to the arctan value.

한편, 맵핑부(186)는 카메라에서 촬영된 촬영 영상에 경로 안내 객체를 결합할 수 있다. 구체적으로 맵핑부(186)는 각도 산출부(185)에서 산출된 각도를 반영한 경로 안내 객체를 3D 생성부(181)에서 생성된 가상 3D 공간에 결합할 수 있다.Meanwhile, the mapping unit 186 may combine the route guide object with the captured image captured by the camera. Specifically, the mapping unit 186 may combine the path guide object reflecting the angle calculated by the angle calculating unit 185 to the virtual 3D space generated by the 3D generating unit 181 .

여기서 정보 객체는, 차량이 주행할 경로나 차량이 주행 중 인 도로에 관련된 정보를 표시하는 오브젝트일 수 있다. 일 예로, 정보 객체는 특정 장소까지 000M 남았다는 정보, 횡단 보도와 같은 주의 장소를 표시하는 정보, 과속 카메라 위치 정보, 경로 표시를 수행하는 경로 표시 객체를 포함할 수 있다. Here, the information object may be an object that displays information related to a route on which the vehicle is traveling or a road on which the vehicle is traveling. As an example, the information object may include information indicating that 000M is left to a specific place, information indicating a place of interest such as a crosswalk, speed camera location information, and a path display object performing path display.

일 예로, 차량이 회전하는 경우, 증강 현실 상에서 과속 카메라의 위치는 변하게 되는 바, 맵핑부(186)는 각도 산출부(185)에서 산출된 각도를 반영하여 상기 과속 카메라의 위치를 보정하여 촬영 영상에 결합할 수 있다.For example, when the vehicle rotates, the position of the speed camera changes in augmented reality, and the mapping unit 186 reflects the angle calculated by the angle calculation unit 185 to correct the position of the speed camera to capture the image. can be coupled to

다른 예로, 맵핑부(186)는 각도 산출부(185)에서 산출된 각도를 반영한 경로 표시 객체를 촬영 영상에 결합할 수 있다. 이에 대해서는 도 5를 참조하여 구체적으로 설명하기로 한다.As another example, the mapping unit 186 may combine the path display object reflecting the angle calculated by the angle calculating unit 185 to the captured image. This will be described in detail with reference to FIG. 5 .

한편, 이러한 동작에 따라 제어부(170)는 증강 현실 제공부(180)를 제어하여 산출된 각도를 반영한 정보 객체를 상기 촬영 영상에 결합하여 증강 현실 상에 경로 안내를 수행할 수 있다.Meanwhile, according to this operation, the controller 170 may control the augmented reality providing unit 180 to perform route guidance on the augmented reality by combining the information object reflecting the calculated angle with the captured image.

도 5는 본 발명의 일 실시 예에 따른 제어 방법의 효과를 나타내는 도면이다. 도 5를 참조하면, 화면(520,540)이 본 발명의 일 실시 예에 따른 제어 방법을 적용하지 않은 case이고, 화면(510,530)이 본 발명의 일 실시 예에 따른 제어 방법을 적용한 case이다. 또한, 화면(510), 화면(520)은 동일 위치에서 동일한 목적지로 경로 안내를 수행하는 경우의 증강 현실 경로 안내 화면이고, 화면(530), 화면(540)은 차량이 조금 이동한 후의 동일 위치에서 동일한 목적지로 경로 안내를 수행하는 경우의 증강 현실 경로 안내 화면이다.5 is a diagram illustrating an effect of a control method according to an embodiment of the present invention. Referring to FIG. 5 , screens 520 and 540 are cases to which the control method according to an embodiment of the present invention is not applied, and screens 510 and 530 are cases to which the control method according to an embodiment of the present invention is applied. In addition, the screens 510 and 520 are augmented reality route guidance screens when route guidance is performed from the same location to the same destination, and the screens 530 and 540 are the same location after the vehicle moves a little. It is an augmented reality route guidance screen when route guidance is performed to the same destination.

화면(510,520,530,540)을 참조하면, 차량이 커브길에서 회전 주행 중에 더 크게 회전하는 경우, 증강 현실 상에서 경로 표시 객체(511,521,531,541)의 목적지까지의 경로 안내 방향은 변하게 된다. Referring to screens 510 , 520 , 530 , and 540 , when the vehicle rotates larger while rotating on a curved road, the route guidance direction of the route display objects 511 , 521 , 531 , and 541 to the destination in the augmented reality is changed.

이 경우, 본 발명의 일 실시 예에 따른 제어 방법을 적용하지 않은 case인 화면(520,540)을 참조하면, 경로 표시 객체(541)가 목적지까지의 경로 안내 방향을 부정확하게 반영하고 있다. 즉 차량이 커브길에서 제1 각도로 회전 주행 중(520)에 회전 각도를 더 키워 제2 각도로 회전 주행(540)하면, 본 발명의 일 실시 예에 따른 제어 방법을 적용하지 않은 경우, 회전 각도의 변화를 인식하지 못하고, 제1 각도로 회전 주행 중이라고 판단하여, 경로 표시 객체(541)가 목적지까지의 경로 안내 방향을 부정확하게 반영하고 있다.In this case, referring to screens 520 and 540 , which are cases in which the control method according to an embodiment of the present invention is not applied, the route display object 541 incorrectly reflects the route guidance direction to the destination. That is, when the vehicle rotates at a second angle by increasing the rotation angle while driving 520 at a first angle on a curve road 540, when the control method according to an embodiment of the present invention is not applied, the vehicle rotates. The change in angle is not recognized, and it is determined that the vehicle is rotating at the first angle, and the route display object 541 incorrectly reflects the route guidance direction to the destination.

다만, 본 발명의 일 실시 예에 따른 제어 방법을 적용한 case인 화면(510,530)을 참조하면, 경로 표시 객체(511,531)가 목적지까지의 경로 안내 방향을 정확하게 반영하고 있다. 즉 차량이 커브길에서 제1 각도로 회전 주행 중(510)에 회전 각도를 더 키워 제2 각도로 회전 주행(530)하면, 특정 영역의 화소 값을 이용한 회전 각도 산출을 통하여 회전 각도의 변화를 즉각 인식하고, 제2 각도로 회전 주행 중(520)이라고 판단하여, 경로 표시 객체(531)가 목적지까지의 경로 안내 방향을 정확하게 반영하고 있다.However, referring to the screens 510 and 530 that are cases to which the control method according to an embodiment of the present invention is applied, the route display objects 511 and 531 accurately reflect the route guidance direction to the destination. That is, when the vehicle rotates at a first angle (510) while the vehicle is rotating at a first angle on a curved road (510) and rotates at a second angle (530), the change of the rotation angle is calculated by calculating the rotation angle using the pixel value of a specific area. It is immediately recognized, and it is determined that it is rotating at a second angle (520), and the route display object 531 accurately reflects the route guidance direction to the destination.

한편, 경로 안내 화면(510,530)은 증강 현실 상에서의 경로 안내 화면 및 지도 상에서의 경로 안내 화면(550,560)을 함께 표시할 수 있다.Meanwhile, the route guidance screens 510 and 530 may display the route guidance screen on the augmented reality and the route guidance screens 550 and 560 on the map together.

또한, 경로 안내 화면(510,530)은 진행 방향 축 대비 회전 각도의 크기를 나타내는 식별자(512,532)를 더 표시할 수 있다. 여기서 식별자(512,532)는 진행 방향 축 대비 회전 각도의 크기에 대응되는 형태를 가질 수 있다. 일 예로, 식별자(512)와 같이 진행 방향 축 대비 회전 각도가 작은 경우, 짧은 선의 형태로 표시될 수 있고, 식별자(532)와 같이 진행 방향 축 대비 회전 각도가 큰 경우, 긴 선의 형태로 표시될 수 있다.Also, the route guidance screens 510 and 530 may further display identifiers 512 and 532 indicating the magnitude of the rotation angle relative to the traveling direction axis. Here, the identifiers 512 and 532 may have a shape corresponding to the magnitude of the rotation angle relative to the moving direction axis. For example, when the rotation angle relative to the traveling direction axis is small as in the identifier 512, it may be displayed in the form of a short line, and when the rotation angle relative to the traveling direction axis is large as in the identifier 532, it may be displayed in the form of a long line. can

한편, 본 발명의 일 실시 예에 따른 증강 현실 제공부(180)의 차량의 진행 방향 축과의 각도를 산출하여 과정은, 차량의 이동 속도가 기 설정된 속도 이하인 경우에 수행될 수 있다. 이에 따라, 차량의 자세 제어 오차가 큰 저속 영역에서만 상술한 연산 과정을 수행할 수 있다. Meanwhile, the process of calculating the angle with the traveling direction axis of the vehicle of the augmented reality providing unit 180 according to an embodiment of the present invention may be performed when the moving speed of the vehicle is less than or equal to a preset speed. Accordingly, the above-described calculation process may be performed only in a low-speed region in which the vehicle attitude control error is large.

도 6은 본 발명의 일 실시 예에 따른 제어 방법을 나타내는 흐름도 이다. 도 6을 참조하면, 먼저 카메라에 대한 캘리브레이션(Calibration)을 수행하여 카메라 파라미터를 산출할 수 있다(S601).6 is a flowchart illustrating a control method according to an embodiment of the present invention. Referring to FIG. 6 , camera parameters may be calculated by first performing calibration on the camera ( S601 ).

그리고, 산출된 카메라 파라미터에서 화각(angle of view)를 추출할 수 있다(S602).Then, an angle of view may be extracted from the calculated camera parameter ( S602 ).

그리고, 사용자의 이동 속도가 기 설정된 속도 이하지 여부를 판단할 수 있다(S603).Then, it may be determined whether the user's moving speed is less than or equal to a preset speed (S603).

만약, 사용자의 이동 속도가 기 설정된 속도를 초과하는 경우(S603:N), 후술할 단계는 진행되지 않을 수 있다. If the user's moving speed exceeds the preset speed (S603:N), the steps to be described later may not proceed.

만약, 사용자의 이동 속도가 기 설정된 속도 이하인 경우(S603:Y), 후술할 단계를 진행할 수 있다. If the moving speed of the user is less than or equal to the preset speed (S603:Y), a step to be described later may be performed.

먼저 카메라에서 촬영된 촬영 영상의 복수의 프레임 각각에 포함된 특정 영역의 화소 값을 비교할 수 있다(S604).First, pixel values of a specific region included in each of a plurality of frames of a captured image captured by the camera may be compared ( S604 ).

그리고, 비교 결과를 이용하여 사용자의 진행 방향을 결정할 수 있다(S605).Then, the user's moving direction may be determined using the comparison result ( S605 ).

그리고, 비교 결과를 이용하여 특정 영역에서 이동 화소의 개수를 산출할 수 있다(S606).Then, the number of moving pixels in a specific area may be calculated using the comparison result ( S606 ).

그리고, 진행 방향, 화소의 개수, 화각을 이용하여 상기 사용자의 진행 방향 축과의 각도를 산출할 수 있다(S607).Then, an angle with the user's moving direction axis may be calculated using the moving direction, the number of pixels, and the angle of view ( S607 ).

그리고, 상기 산출된 각도를 반영한 경로 안내 객체를 촬영 영상에 결합하여 증강 현실 상에 경로 안내를 수행할 수 있다(S608).Then, the route guidance object reflecting the calculated angle may be combined with the captured image to perform route guidance on the augmented reality (S608).

도 7은 본 발명의 일 실시 예에 따른 블랙 박스 및 내비게이션을 이용한 증강 현실 제공 시스템을 나타내는 도면이다. 도 7을 참조하면, 차량용 내비게이션(100)과 별도로 마련된 차량용 블랙박스(200)가 유선/무선 통신 방식을 이용하여 본 발명의 일 실시 예에 따른 증강 현실 제공 시스템을 구성할 수 있다. 7 is a diagram illustrating an augmented reality providing system using a black box and navigation according to an embodiment of the present invention. Referring to FIG. 7 , a vehicle black box 200 provided separately from the vehicle navigation system 100 may configure an augmented reality providing system according to an embodiment of the present invention using a wired/wireless communication method.

차량용 내비게이션(100)은 내비게이션 하우징(191)의 전면에 마련된 디스플레이부(145)와, 내비게이션 조작키(193)와, 내비게이션 마이크(195)를 포함할 수 있다.The vehicle navigation device 100 may include a display unit 145 provided on the front surface of the navigation housing 191 , a navigation operation key 193 , and a navigation microphone 195 .

차량용 블랙박스(200)는 주행 중 및 정차 중에 차량의 데이터를 획득할 수 있다. 즉, 차량의 주행 중의 영상을 촬영할 수 있음은 물론, 차량이 정차하여 있는 경우에도 영상을 촬영할 수 있다. 차량용 블랙박스(200)를 통하여 획득된 영상의 화질은, 일정하거나 변화될 수 있다. 예를 들어, 사고의 발생을 전후하여서는 영상의 화질을 높게 하고, 통상적인 경우에는 영상의 화질을 낮게 함으로써 요구되는 저장공간을 최소화하면서도 핵심적인 영상을 저장할 수 있다.The vehicle black box 200 may acquire vehicle data while driving and stopping. That is, it is possible to capture an image while the vehicle is driving, as well as capture an image even when the vehicle is stopped. The quality of the image acquired through the vehicle black box 200 may be constant or may be changed. For example, by increasing the image quality before and after the occurrence of an accident, and lowering the image quality in a normal case, it is possible to store essential images while minimizing the required storage space.

차량용 블랙박스(200)는 블랙박스 카메라(222)와, 블랙박스 마이크(224)와, 부착부(281)를 포함할 수 있다.The vehicle black box 200 may include a black box camera 222 , a black box microphone 224 , and an attachment unit 281 .

한편, 도 7에서는 차량용 내비게이션(100)과 별도로 마련된 차량용 블랙박스(200)가 유/무선 통신 방식을 통하여 연결된 것으로 도시하였으나, 차량용 블랙박스(200)가 차량용 내비게이션(100)의 기능을 구비하거나, 차량용 내비게이션(100)이 카메라를 구비하여 일체화되는 경우도 가능하다. 이에 대해서는 도 8을 참조하여 구체적으로 설명하기로 한다.On the other hand, although FIG. 7 shows that the vehicle black box 200 provided separately from the vehicle navigation device 100 is connected through a wired/wireless communication method, the vehicle black box 200 has the function of the vehicle navigation system 100, or It is also possible that the vehicle navigation device 100 is integrated with a camera. This will be described in detail with reference to FIG. 8 .

도 8는 본 발명의 일 실시 예에 따른 카메라 기능 내포하는 전자 장치를 이용한 증강 현실 제공 시스템을 나타내는 도면이다. 도 8을 참조하면, 전자 장치가 카메라 기능을 내포하는 경우, 사용자는 전자 장치의 카메라 부분이 차량의 전방을 촬영하고, 전자 장치의 디스플레이 부분이 사용자 인식가능하도록 전자 장치를 거치시킬 수 있다. 이에 따라, 본 발명의 일 실시 예에 따른 증강 현실 제공 시스템을 구현할 수 있다. 8 is a diagram illustrating an augmented reality providing system using an electronic device including a camera function according to an embodiment of the present invention. Referring to FIG. 8 , when the electronic device includes a camera function, the user may mount the electronic device so that the camera part of the electronic device photographs the front of the vehicle and the display part of the electronic device can be recognized by the user. Accordingly, it is possible to implement the augmented reality providing system according to an embodiment of the present invention.

도 9은 본 발명의 일 실시 예에 따른 HUD(Head-Up Display) 및 전자 장치를 이용한 증강 현실 제공 시스템을 나타내는 도면이다. 도 9를 참조하면, 전자 장치는 헤드업 디스플레이와 유무선 통신을 통하여 증강 현실 경로 안내 화면을 헤드업 디스플레이 상에서 표시할 수 있다. 9 is a diagram illustrating an augmented reality providing system using a head-up display (HUD) and an electronic device according to an embodiment of the present invention. Referring to FIG. 9 , the electronic device may display an augmented reality route guidance screen on the heads-up display through wired/wireless communication with the heads-up display.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 전자 장치의 제어 방법은 프로그램 코드로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 각 서버 또는 기기들에 제공될 수 있다. Meanwhile, the above-described method for controlling an electronic device according to various embodiments of the present invention may be implemented as a program code and provided to each server or device while stored in various non-transitory computer readable media. have.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.The non-transitory readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, cache, memory, etc., and can be read by a device. Specifically, the above-described various applications or programs may be provided by being stored in a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention as claimed in the claims Various modifications are possible by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or prospect of the present invention.

Claims (18)

전자 장치의 제어 방법에 있어서,
카메라에서 촬영된 촬영 영상의 복수의 프레임 각각에 포함된 특정 영역의 화소 값을 비교하는 단계;
상기 비교에 따라 상기 특정 영역에서 이동 화소의 개수를 산출하는 단계;
상기 비교에 따라 차량의 진행 방향을 결정하는 단계;
상기 진행 방향, 상기 이동 화소의 개수 및 상기 카메라의 화각을 이용하여 차량의 이전 진행 방향 축과 상기 차량의 현재 진행 방향 축과의 각도 변화를 산출하는 단계; 및
상기 산출된 각도 변화에 따라 안내 객체의 위치를 보정하여 상기 촬영 영상에 결합하고, 상기 결합된 영상을 기초로 증강 현실 안내를 수행하는 단계;를 포함하는 제어 방법.
A method for controlling an electronic device, comprising:
comparing pixel values of a specific region included in each of a plurality of frames of a captured image captured by a camera;
calculating the number of moving pixels in the specific area according to the comparison;
determining a moving direction of the vehicle according to the comparison;
calculating an angle change between an axis of a previous traveling direction of the vehicle and an axis of a current traveling direction of the vehicle using the traveling direction, the number of moving pixels, and the angle of view of the camera; and
A control method comprising a; correcting the position of the guide object according to the calculated angle change, combining it with the captured image, and performing augmented reality guidance based on the combined image.
제1항에 있어서,
상기 카메라에서 촬영된 촬영 영상을 이용하여 소실점을 검출하는 단계; 및
상기 검출된 소실점, 상기 촬영 영상의 좌측 상단 꼭지점, 상기 촬영 영상의 우측 상단 꼭지점을 연결한 평면을 결정하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
According to claim 1,
detecting a vanishing point using the captured image taken by the camera; and
determining a plane connecting the detected vanishing point, the upper left vertex of the captured image, and the upper right vertex of the captured image.
제2항에 있어서,
상기 결정된 평면 내부에 상기 특정 영역이 위치하도록 상기 특정 영역을 설정하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
3. The method of claim 2,
and setting the specific area so that the specific area is located within the determined plane.
제3항에 있어서,
상기 특정 영역은,
상기 소실점으로부터 기 설정된 거리 위에 위치한 제1 영역,
상기 촬영 영상의 상단에 근접하고, 상기 제1 영역으로부터 기 설정된 거리 위에 위치한 제2 영역,
상기 좌측 상단 꼭지점에 근접하고, 상기 제2 영역의 좌측에 위치한 제3 영역,
상기 우측 상단 꼭지점에 근접하고, 상기 제2 영역의 우측에 위치한 제4 영역 중 적어도 두 개 이상을 포함하는 것을 특징으로 하는 제어 방법.
4. The method of claim 3,
The specific area is
a first area located above a predetermined distance from the vanishing point;
a second region close to the upper end of the captured image and positioned above a preset distance from the first region;
a third region adjacent to the upper left vertex and located to the left of the second region;
and at least two or more of a fourth region adjacent to the upper right vertex and positioned to the right of the second region.
제1항에 있어서,
상기 카메라에 대한 캘리브레이션(Calibration)을 수행하여 카메라 파라미터를 산출하는 단계;를 더 포함하고,
상기 각도 변화를 산출하는 단계는,
상기 산출된 카메라 파라미터에서 화각(angle of view)를 추출하는 단계;를 포함하는 것을 특징으로 하는 제어 방법.
According to claim 1,
Calculating the camera parameters by performing a calibration (Calibration) on the camera; further comprising,
Calculating the angle change comprises:
and extracting an angle of view from the calculated camera parameter.
제1항에 있어서,
상기 각도 변화를 산출하는 단계는,
상기 차량의 이동 속도가 기 설정된 속도 이하인 경우에 수행되는 것을 특징으로 하는 제어 방법.
According to claim 1,
Calculating the angle change comprises:
A control method, characterized in that it is performed when the moving speed of the vehicle is less than or equal to a preset speed.
제5항에 있어서,
상기 카메라 파라미터를 기초로 상기 촬영 영상에 대한 가상 3D(3-Dimensional) 공간을 생성하는 단계;를 더 포함하고,
상기 증강 현실 안내를 수행하는 단계는,
상기 가상 3D 공간에 상기 산출된 각도 변화를 반영한 안내 객체를 상기 촬영 영상에 결합하여 증강 현실 안내를 수행하는 것을 특징으로 하는 제어 방법.
6. The method of claim 5,
Creating a virtual 3D (3-dimensional) space for the captured image based on the camera parameter; further comprising,
The step of performing the augmented reality guidance,
A control method characterized in that the augmented reality guidance is performed by combining a guidance object reflecting the calculated angle change in the virtual 3D space with the captured image.
제1항에 있어서,
상기 증강 현실 안내를 수행하는 단계는,
상기 증강 현실 상에서의 경로 안내 화면 및 지도 상에서의 경로 안내 화면을 함께 표시하는 것을 특징으로 하는 제어 방법.
According to claim 1,
The step of performing the augmented reality guidance,
A control method comprising displaying a route guidance screen on the augmented reality and a route guidance screen on a map together.
전자 장치에 있어서,
카메라에서 촬영된 촬영 영상의 복수의 프레임 각각에 포함된 특정 영역의 화소 값을 저장하는 저장부;
상기 저장된 화소 값을 비교하여 상기 비교에 따라 상기 특정 영역에서 이동 화소의 개수를 산출하고, 상기 비교에 따라 차량의 진행 방향을 결정하며, 상기 진행 방향, 상기 이동 화소의 개수 및 상기 카메라의 화각을 이용하여 차량의 이전 진행 방향 축과 상기 차량의 현재 진행 방향 축과의 각도 변화를 산출하는 각도 산출부; 및
상기 산출된 각도 변화에 따라 안내 객체의 위치를 보정하여 상기 촬영 영상에 결합하고, 상기 결합된 영상을 기초로 증강 현실 안내를 수행하는 제어부;를 포함하는 전자 장치.
In an electronic device,
a storage unit for storing pixel values of a specific region included in each of a plurality of frames of a captured image captured by the camera;
Comparing the stored pixel values, calculating the number of moving pixels in the specific area according to the comparison, determining the traveling direction of the vehicle according to the comparison, and determining the traveling direction, the number of moving pixels, and the angle of view of the camera an angle calculating unit for calculating an angle change between an axis of a previous traveling direction of the vehicle and an axis of a current traveling direction of the vehicle using the present invention; and
The electronic device comprising a; a control unit that corrects the position of the guide object according to the calculated angle change, combines it with the captured image, and performs augmented reality guidance based on the combined image.
제9항에 있어서,
상기 카메라에서 촬영된 촬영 영상을 이용하여 소실점을 검출하고, 상기 검출된 소실점, 상기 촬영 영상의 좌측 상단 꼭지점, 상기 촬영 영상의 우측 상단 꼭지점을 연결한 평면을 결정하는 평면 결정부;를 더 포함하는 것을 특징으로 하는 전자 장치.
10. The method of claim 9,
A plane determining unit for detecting a vanishing point using the captured image captured by the camera, and determining a plane connecting the detected vanishing point, the upper left vertex of the captured image, and the upper right vertex of the captured image; further comprising Electronic device, characterized in that.
제10항에 있어서,
상기 결정된 평면 내부에 상기 특정 영역이 위치하도록 상기 특정 영역을 설정하는 영역 설정부;를 더 포함하는 것을 특징으로 하는 전자 장치.
11. The method of claim 10,
and a region setting unit configured to set the specific region so that the specific region is located within the determined plane.
제11항에 있어서,
상기 특정 영역은,
상기 소실점으로부터 기 설정된 거리 위에 위치한 제1 영역,
상기 촬영 영상의 상단에 근접하고, 상기 제1 영역으로부터 기 설정된 거리 위에 위치한 제2 영역,
상기 좌측 상단 꼭지점에 근접하고, 상기 제2 영역의 좌측에 위치한 제3 영역,
상기 우측 상단 꼭지점에 근접하고, 상기 제2 영역의 우측에 위치한 제4 영역 중 적어도 두 개 이상을 포함하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
The specific area is
a first area located above a predetermined distance from the vanishing point;
a second region close to the upper end of the captured image and positioned above a preset distance from the first region;
a third region adjacent to the upper left vertex and located to the left of the second region;
and at least two or more of a fourth area adjacent to the upper right vertex and positioned to the right of the second area.
제9항에 있어서,
상기 카메라에 대한 캘리브레이션(Calibration)을 수행하여 카메라 파라미터를 산출하는 캘리브레이션부;를 더 포함하고,
상기 각도 산출부는,
상기 산출된 카메라 파라미터에서 화각(angle of view)를 추출하는 것을 특징으로 하는 전자 장치.
10. The method of claim 9,
Further comprising; a calibration unit for calculating the camera parameters by performing a calibration (Calibration) for the camera,
The angle calculation unit,
and extracting an angle of view from the calculated camera parameter.
제9항에 있어서,
상기 각도 산출부는,
상기 차량의 이동 속도가 기 설정된 속도 이하인 경우에 수행되는 것을 특징으로 하는 전자 장치.
10. The method of claim 9,
The angle calculation unit,
The electronic device characterized in that the electronic device is performed when the moving speed of the vehicle is less than or equal to a preset speed.
제13항에 있어서,
상기 카메라 파라미터를 기초로 상기 촬영 영상에 대한 가상 3D(3-Dimensional) 공간을 생성하는 3D 공간 생성부;를 더 포함하고,
상기 제어부는,
상기 가상 3D 공간에 상기 산출된 각도 변화를 반영한 안내 객체를 상기 촬영 영상에 결합하여 증강 현실 안내를 수행하는 것을 특징으로 하는 전자 장치.
14. The method of claim 13,
Further comprising; a 3D space generator for generating a virtual 3D (3-dimensional) space for the captured image based on the camera parameter;
The control unit is
The electronic device characterized in that the augmented reality guidance is performed by combining a guidance object reflecting the calculated angle change in the virtual 3D space with the captured image.
제9항에 있어서,
상기 카메라는,
상기 전자 장치와 일체화되서 제공되는 카메라이거나, 또는 상기 전자 장치와는 별도로 마련되어 상기 전자 장치와의 통신을 통하여 촬영 영상을 전송하는 블랙 박스인 것을 특징으로 하는 전자 장치.
10. The method of claim 9,
The camera is
The electronic device according to claim 1, wherein the camera is provided integrally with the electronic device, or a black box provided separately from the electronic device to transmit a photographed image through communication with the electronic device.
제9항에 있어서,
상기 제어부는,
상기 전자 장치와 일체화되서 제공되는 디스플레이부를 통하여 증강 현실 상에서 경로 안내를 수행하거나, 또는 상기 전자 장치와는 별도로 마련된 헤드 업 디스플레이부(HUD:Head Up Display)를 통하여 증강 현실 상에서 경로 안내를 수행하는 것을 특징으로 하는 전자 장치.
10. The method of claim 9,
The control unit is
Performing route guidance in augmented reality through a display unit provided integrally with the electronic device, or performing path guidance in augmented reality through a Head Up Display (HUD) provided separately from the electronic device characterized by an electronic device.
전자 장치의 제어 방법을 수행하기 위한 프로그램 코드가 기록된 컴퓨터 판독 가능 기록 매체에 있어서,
상기 제어 방법은,
카메라에서 촬영된 촬영 영상의 복수의 프레임 각각에 포함된 특정 영역의 화소 값을 비교하는 단계;
상기 비교에 따라 상기 특정 영역에서 이동 화소의 개수를 산출하는 단계;
상기 비교에 따라 차량의 진행 방향을 결정하는 단계;
상기 진행 방향, 상기 이동 화소의 개수 및 상기 카메라의 화각을 이용하여 차량의 이전 진행 방향 축과 상기 차량의 현재 진행 방향 축과의 각도 변화를 산출하는 단계; 및
상기 산출된 각도 변화에 따라 안내 객체의 위치를 보정하여 상기 촬영 영상에 결합하고, 상기 결합된 영상을 기초로 증강 현실 안내를 수행하는 단계;를 포함하는 컴퓨터 판독 가능 기록 매체.
In the computer-readable recording medium recorded with a program code for performing a control method of an electronic device,
The control method is
comparing pixel values of a specific region included in each of a plurality of frames of a captured image captured by a camera;
calculating the number of moving pixels in the specific area according to the comparison;
determining a moving direction of the vehicle according to the comparison;
calculating an angle change between an axis of a previous traveling direction of the vehicle and an axis of a current traveling direction of the vehicle using the traveling direction, the number of moving pixels, and the angle of view of the camera; and
Comprising: Compensating the position of the guide object according to the calculated angle change, combining the captured image, and performing augmented reality guidance based on the combined image; Computer-readable recording medium comprising a.
KR1020130148907A 2013-12-03 2013-12-03 Electronic apparatus and control method thereof KR102299081B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130148907A KR102299081B1 (en) 2013-12-03 2013-12-03 Electronic apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130148907A KR102299081B1 (en) 2013-12-03 2013-12-03 Electronic apparatus and control method thereof

Publications (2)

Publication Number Publication Date
KR20150064767A KR20150064767A (en) 2015-06-12
KR102299081B1 true KR102299081B1 (en) 2021-09-08

Family

ID=53503343

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130148907A KR102299081B1 (en) 2013-12-03 2013-12-03 Electronic apparatus and control method thereof

Country Status (1)

Country Link
KR (1) KR102299081B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11715273B2 (en) * 2019-12-03 2023-08-01 Lg Electronics Inc. Method for displaying AR navigation screen, and AR navigation system
KR20210081939A (en) 2019-12-24 2021-07-02 엘지전자 주식회사 Xr device and method for controlling the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010146695A1 (en) * 2009-06-18 2010-12-23 富士通株式会社 Image processing device and image processing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101359660B1 (en) * 2011-07-26 2014-02-07 한국과학기술원 Augmented reality system for head-up display
KR101251929B1 (en) * 2011-09-20 2013-04-08 주식회사 미동전자통신 A method for saving of moving picture in car blackbox

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010146695A1 (en) * 2009-06-18 2010-12-23 富士通株式会社 Image processing device and image processing method

Also Published As

Publication number Publication date
KR20150064767A (en) 2015-06-12

Similar Documents

Publication Publication Date Title
WO2021128777A1 (en) Method, apparatus, device, and storage medium for detecting travelable region
KR102348127B1 (en) Electronic apparatus and control method thereof
CN108680173B (en) Electronic device, control method of electronic device, and computer-readable recording medium
US8972174B2 (en) Method for providing navigation information, machine-readable storage medium, mobile terminal, and server
US11030816B2 (en) Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
CN105654778B (en) Electronic device and control method thereof
KR20130122978A (en) Providing a corrected view based on the position of a user with respect to a mobile platform
CN108470162B (en) Electronic device and control method thereof
KR102123844B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
US11615593B2 (en) Mobile terminal and control method thereof
US11674807B2 (en) Systems and methods for GPS-based and sensor-based relocalization
KR102652232B1 (en) Method for correcting a sensor and direction information obtained via the sensor based on another direction information obtained via the satellite positioning circuit and electronic device thereof
KR102299081B1 (en) Electronic apparatus and control method thereof
KR20120091492A (en) Electronic device and course guide method of electronic device
KR20210071584A (en) Method and apparatus for determining location by correcting Global Navigation Satellite System based location and electronic device thereof
KR102158167B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR102406489B1 (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
US9870514B2 (en) Hypotheses line mapping and verification for 3D maps
KR20200092197A (en) Image processing method, image processing apparatus, electronic device, computer program and computer readable recording medium for processing augmented reality image
KR102371620B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR102299501B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR20170029286A (en) Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant