KR20200092197A - Image processing method, image processing apparatus, electronic device, computer program and computer readable recording medium for processing augmented reality image - Google Patents

Image processing method, image processing apparatus, electronic device, computer program and computer readable recording medium for processing augmented reality image Download PDF

Info

Publication number
KR20200092197A
KR20200092197A KR1020190009451A KR20190009451A KR20200092197A KR 20200092197 A KR20200092197 A KR 20200092197A KR 1020190009451 A KR1020190009451 A KR 1020190009451A KR 20190009451 A KR20190009451 A KR 20190009451A KR 20200092197 A KR20200092197 A KR 20200092197A
Authority
KR
South Korea
Prior art keywords
image
driving
frame rate
augmented reality
driving image
Prior art date
Application number
KR1020190009451A
Other languages
Korean (ko)
Inventor
박요셉
Original Assignee
팅크웨어(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 팅크웨어(주) filed Critical 팅크웨어(주)
Priority to KR1020190009451A priority Critical patent/KR20200092197A/en
Publication of KR20200092197A publication Critical patent/KR20200092197A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/22Cropping

Abstract

Disclosed is an augmented reality image processing method. The method comprise the following steps of: obtaining a first driving image having a first frame rate captured while a moving object is driving; processing the obtained first driving image to generate a second driving image having a second frame rate; analyzing the second driving image to generate an augmented reality (AR) expression image including an AR guide object to be displayed on the second driving image at a second frame rate; and synchronizing and combining the generated second driving image and the AR expression image, wherein the second frame rate may be smaller than the first frame rate, thereby displaying the AR guide object at an exact position in a real-time driving image captured while the moving object is driving.

Description

증강 현실 영상 처리 장치, 증강 현실 영상 처리 방법, 전자 기기, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체{IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, ELECTRONIC DEVICE, COMPUTER PROGRAM AND COMPUTER READABLE RECORDING MEDIUM FOR PROCESSING AUGMENTED REALITY IMAGE}Augmented reality image processing apparatus, augmented reality image processing method, electronic device, computer program, and computer readable recording medium TECHNICAL IMAGE PROCESSING METHOD

본 발명은 증강 현실 영상 처리 장치, 증강 현실 영상 처리 방법, 전자 기기, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체에 관한 것으로, 보다 상세하게는 증강 현실 요소의 표출 오류를 해소하기 위한 증강 현실 영상 처리 장치, 증강 현실 영상 처리 방법, 전자 기기, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다. The present invention relates to an augmented reality image processing apparatus, an augmented reality image processing method, an electronic device, a computer program, and a computer-readable recording medium, and more specifically, an augmented reality image processing apparatus for solving an expression error of an augmented reality element, It relates to augmented reality image processing methods, electronic devices, computer programs, and computer readable recording media.

증강 현실(Augmented Reality: AR)이란 실제 환경에 가상 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 것, 즉 실 세계(real world)에 3차원 가상물체를 겹쳐 보여주는 기술을 말한다. 증강현실은 가상의 공간과 가상의 객체만을 대상으로 하는 기존의 가상현실(Virtual Reality: VR)과 달리, 실 세계의 기반 위에 가상의 사물을 합성하여 현실 세계만으로는 얻기 어려운 부가적인 정보들을 보강하여 제공할 수 있다. Augmented Reality (AR) refers to a technique of synthesizing virtual objects or information in a real environment so that they appear as objects existing in the original environment, that is, overlaying a 3D virtual object in the real world. . Unlike conventional virtual reality (VR), which targets only virtual spaces and virtual objects, augmented reality synthesizes virtual objects on the basis of the real world and reinforces and provides additional information that is difficult to obtain using only the real world. can do.

이러한 특징 때문에 단순히 게임과 같은 분야에만 한정적으로 적용되던 가상현실과 달리, 증강현실은 다양한 분야에 적용되어 유저(User)에게 제공되고 있다. Because of this feature, unlike virtual reality, which was limitedly applied only to fields such as games, augmented reality is applied to various fields and is provided to users.

그 일 예가, 증강 현실을 기반으로 운전 관련 안내를 수행하는 증강 현실 내비게이션 이다. 이러한 증강 현실 내비게이션은 유저가 실제로 보고 있는 현실 세계를 담고 있는 화면에 부가 정보(예를 들면, 관심 지점(Point Of Interest: POI)을 나타내는 그래픽 요소, 목적지까지의 경로를 나타내는 그래픽 요소 등 : 이하, AR 안내 객체)를 시각적으로 중첩하여 제공함으로써, 유저의 편의성을 높이고 있다. An example is augmented reality navigation that performs driving-related guidance based on augmented reality. Such augmented reality navigation may include additional information (for example, a graphic element representing a point of interest (POI), a graphic element representing a path to a destination, etc.) on a screen containing the real world that the user is actually viewing: AR guide object) is provided by visually overlapping to enhance user convenience.

이러한 종래의 증강 현실 내비게이션은 차량의 주행 중에 실시간으로 촬영된 주행 영상과 AR 표출 영상을 별개로 생성하여 표출하는 방식을 이용하였다.In the conventional augmented reality navigation method, a driving image photographed in real time and an AR expression image are separately generated and displayed while the vehicle is driving.

다만, 이러한 종래의 방식에 의하면, 각각의 영상에 대한 영상 처리 결과의 불일치로, 유저가 실제로 보고 있는 현실 세계를 담고 있는 실시간 주행 영상에서 AR 안내 객체가 부정확한 위치에 표시되는 문제가 있었다.However, according to such a conventional method, there is a problem in that an AR guide object is displayed in an incorrect position in a real-time driving image containing a real world actually viewed by a user due to inconsistency in image processing results for each image.

또한, 종래의 증강 현실 내비게이션에서는 카메라의 고정문제, 카메라 흔들림 등의 영향으로 실시간 주행 영상에서 AR 안내 객체가 부정확한 위치에 표시되는 등 사용자가 원하는 화면이 출력되지 않는다는 문제점이 있었다. In addition, in the conventional augmented reality navigation, there is a problem in that a screen desired by a user is not output, such as an AR guide object displayed in an incorrect location in a real-time driving image due to a camera fixation problem or camera shake.

특히, 증강 현실 내비게이션은 현실 세계를 담고 있는 실시간 주행 영상과 AR 안내 객체를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 것이기에 정보가 정확한 위치에 표출되는 것이 매우 중요한데, 종래의 방식에 의하면 이러한 목적을 달성하기 어려웠고 이로 인하여 운전자의 편의 및 안정성을 저해할 뿐만 아니라, 내비게이션에 대한 운전자의 신뢰 조차 떨어뜨리게 되는 문제점이 있었다. In particular, since augmented reality navigation is a combination of real-time driving images and AR guide objects that contain the real world so that it looks like objects existing in the original environment, it is very important that information is displayed at the correct location. It was difficult to achieve the purpose, and as a result, there was a problem that not only hindered the convenience and stability of the driver, but also dropped the driver's trust in navigation.

본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 이동체의 주행 중에 촬영된 실시간 주행 영상의 정확한 위치에 AR 안내 객체를 표출하는 증강 현실 영상 처리 장치, 증강 현실 영상 처리 방법, 전자 기기, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체를 제공함에 있다.The present invention has been devised to solve the above-mentioned problems, and an object of the present invention is an augmented reality image processing apparatus and augmented reality image processing method for displaying an AR guide object at an accurate location of a real-time driving image captured while driving a moving object, It provides an electronic device, a computer program, and a computer-readable recording medium.

또한, 본 발명의 목적은 이동체의 주행 중에 촬영된 실시간 주행 영상의 흔들림을 보정하여 흔들림 없는 주행 영상을 제공함과 동시에 정확한 위치에 AR 안내 객체를 표출하는 증강 현실 영상 처리 장치, 증강 현실 영상 처리 방법, 전자 기기, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체를 제공함에 있다. In addition, an object of the present invention is to compensate for the shaking of the real-time driving image taken while driving the moving object to provide a shaking-free driving image, and at the same time, an augmented reality image processing apparatus and augmented reality image processing method for displaying an AR guide object in an accurate position It provides an electronic device, a computer program, and a computer-readable recording medium.

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 본 발명의 일 실시 예에 따른 프로세서를 이용한 증강 현실 영상 처리 방법은 이동체의 주행 중에 촬영된 제1 프레임 레이트의 제1 주행 영상을 획득하는 단계, 상기 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성하는 단계, 상기 제2 주행 영상을 분석하여 상기 제2 주행 영상에 표시될 AR(Augmented Reality) 안내 객체를 포함하는 AR 표출 영상을 상기 제2 프레임 레이트로 생성하는 단계, 상기 생성된 제2 주행 영상과 상기 AR 표출 영상을 동기화시켜 결합하는 단계를 포함하고, 상기 제2 프레임 레이트는 상기 제1 프레임 레이트 보다 작을 수 있다. An augmented reality image processing method using a processor according to an embodiment of the present invention according to an embodiment of the present invention for achieving the above object is to obtain a first driving image of the first frame rate taken while driving the mobile body Step, generating a second driving image at a second frame rate by processing the obtained first driving image, and analyzing the second driving image to generate an AR (Augmented Reality) guide object to be displayed on the second driving image. Generating an AR display image containing the second frame rate, and synchronizing and combining the generated second driving image and the AR display image, wherein the second frame rate is greater than the first frame rate. It can be small.

그리고, 상기 제2 프레임 레이트는 은 상기 프로세서의 성능에 따라 가변적으로 결정될 수 있다. In addition, the second frame rate may be variably determined according to the performance of the processor.

또한, 상기 제2 프레임 레이트는 상기 AR 안내 객체의 속성 정보에 따라 가변적으로 결정될 수 있다.Also, the second frame rate may be variably determined according to attribute information of the AR guide object.

그리고, 상기 제2 프레임 레이트는 상기 제2 주행 영상에 포함된 분석 대상의 속성 정보를 고려하여 통계적으로 결정될 수 있다.In addition, the second frame rate may be statistically determined in consideration of attribute information of an analysis target included in the second driving image.

또한, 상기 AR 안내 객체를 포함하는 AR 표출 영상을 상기 제2 프레임 레이트로 생성하는 단계는 상기 제2 주행 영상을 분석하여 상기 AR 안내 객체의 상기 AR 표출 영상 내 위치를 결정하는 단계 및 상기 결정된 영상 내 위치에 상기 AR 안내 객체를 위치시킨 상기 AR 표출 영상을 생성하는 단계를 포함할 수 있다.In addition, the step of generating the AR display image including the AR guide object at the second frame rate may include analyzing the second driving image to determine a position in the AR display image of the AR guide object and the determined image. And generating the AR expression image in which the AR guide object is positioned in my location.

그리고, 상기 제2 주행 영상으로부터 특징점을 추출하고, 상기 추출된 특징점의 위치 변화값을 산출하는 단계 및 상기 산출된 위치 변화값을 기초로 상기 제2 주행 영상의 흔들림 크기 및 흔들림 방향을 나타내는 흔들림 데이터를 산출하는 단계를 더 포함할 수 있다.Then, extracting a feature point from the second driving image, calculating the position change value of the extracted feature point and shaking data indicating the shaking size and the shaking direction of the second driving image based on the calculated position change value It may further include the step of calculating.

또한, 상기 산출된 흔들림 데이터를 이용하여 상기 AR 안내 객체의 상기 AR 표출 영상 내 위치를 보정하는 단계를 더 포함할 수 있다.In addition, the method may further include correcting a position in the AR display image of the AR guide object using the calculated shake data.

그리고, 상기 제2 프레임 레이트의 제2 주행 영상과 상기 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는 단계를 더 포함할 수 있다.In addition, the method may further include displaying an augmented reality image generated according to a combination of the second driving image at the second frame rate and the AR display image at the second frame rate.

또한, 상기 산출된 흔들림 데이터를 이용하여 상기 제2 주행 영상에서 일부를 잘라낼 크롭(crop) 영역을 결정하는 단계 및 상기 제2 주행 영상의 상기 결정된 크롭 영역에서 잘라낸 크롭 영상을 생성하는 단계를 더 포함할 수 있다.The method further includes determining a crop region to cut a portion of the second driving image using the calculated shake data and generating a cropped image cropped from the determined crop region of the second driving image. can do.

그리고, 상기 크롭 영상의 크기를 상기 제2 주행 영상의 크기로 확대한 제3 주행 영상을 생성하는 단계 및 상기 제2 프레임 레이트의 제3 주행 영상과 상기 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는 단계를 더 포함할 수 있다.Then, generating a third driving image in which the size of the cropped image is enlarged to the size of the second driving image and combining the third driving image at the second frame rate and the AR display image at the second frame rate. The method may further include displaying the generated augmented reality image.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 장치는, 이동체의 주행 중에 촬영된 제1 프레임 레이트의 제1 주행 영상을 획득하는 영상 획득부, 상기 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성하는 주행 영상 생성부, 상기 제2 주행 영상을 분석하여 상기 제2 주행 영상에 표시될 AR(Augmented Reality) 안내 객체를 포함하는 AR 표출 영상을 상기 제2 프레임 레이트로 생성하는 AR 표출 영상 생성부 및 상기 생성된 제2 주행 영상과 상기 AR 표출 영상을 동기화시켜 결합하는 영상 결합부를 포함하고, 상기 제2 프레임 레이트는 상기 제1 프레임 레이트 보다 작을 수 있다.On the other hand, the augmented reality image processing apparatus according to an embodiment of the present invention for achieving the above object, the image acquisition unit for acquiring the first driving image of the first frame rate photographed while the moving object, the obtained agent A driving image generator that processes a first driving image to generate a second driving image at a second frame rate, and an AR including an Augmented Reality (AR) guide object to be displayed on the second driving image by analyzing the second driving image And an AR display image generator for generating the displayed image at the second frame rate and an image combining unit for synchronizing and combining the generated second driving image and the AR displayed image, wherein the second frame rate is the first frame. It may be less than the rate.

그리고, 상기 제2 프레임 레이트는 상기 프로세서의 성능에 따라 가변적으로 결정될 수 있다.Also, the second frame rate may be variably determined according to the performance of the processor.

또한, 상기 제2 프레임 레이트는 상기 AR 안내 객체의 속성 정보에 따라 가변적으로 결정될 수 있다.Also, the second frame rate may be variably determined according to attribute information of the AR guide object.

그리고, 상기 제2 프레임 레이트는 상기 제2 주행 영상에 포함된 분석 대상의 속성 정보에 따라 가변적으로 결정될 수 있다.Also, the second frame rate may be variably determined according to attribute information of an analysis target included in the second driving image.

또한, 상기 AR 표출 영상 생성부는, 상기 제2 주행 영상을 분석하여 상기 AR 안내 객체의 상기 AR 표출 영상 내 위치를 결정하고, 상기 결정된 영상 내 위치에 상기 AR 안내 객체를 위치시킨 상기 AR 표출 영상을 생성할 수 있다.In addition, the AR expression image generation unit analyzes the second driving image, determines the location within the AR expression image of the AR guidance object, and positions the AR guidance image in which the AR guidance object is positioned in the determined location within the image. Can be created.

그리고, 상기 제2 주행 영상으로부터 특징점을 추출하고, 상기 추출된 특징점의 위치 변화값을 산출하며, 상기 산출된 위치 변화값을 기초로 상기 제2 주행 영상의 흔들림 크기 및 흔들림 방향을 나타내는 흔들림 데이터를 산출하는 흔들림 데이터 산출부를 더 포함할 수 있다.Then, the feature point is extracted from the second driving image, the position change value of the extracted feature point is calculated, and the shaking data indicating the shaking size and the shaking direction of the second driving image are calculated based on the calculated position change value. It may further include a shake data calculation unit to calculate.

또한, 상기 AR 표출 영상 생성부는, 상기 산출된 흔들림 데이터를 이용하여 상기 AR 안내 객체의 상기 AR 표출 영상 내 위치를 보정할 수 있다.In addition, the AR expression image generation unit may correct a position in the AR expression image of the AR guide object using the calculated shake data.

그리고, 상기 제2 프레임 레이트의 제2 주행 영상과 상기 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는 표시부를 더 포함할 수 있다.In addition, the display unit may further include an augmented reality image generated according to a combination of the second driving image at the second frame rate and the AR display image at the second frame rate.

또한, 상기 산출된 흔들림 데이터를 이용하여 상기 제2 주행 영상에서 일부를 잘라낼 크롭(crop) 영역을 결정하고, 상기 제2 주행 영상의 상기 결정된 크롭 영역에서 잘라낸 크롭 영상을 생성하는 크롭 영상 생성부를 더 포함할 수 있다.In addition, a crop image generation unit configured to determine a crop region to cut a part of the second driving image by using the calculated shake data, and to generate a cropped image from the determined crop region of the second driving image. It can contain.

그리고, 상기 크롭 영상의 크기를 상기 제2 주행 영상의 크기로 확대한 제3 주행 영상을 생성하고, 상기 제2 프레임 레이트의 제3 주행 영상과 상기 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는 표시부를 더 포함할 수 있다.In addition, according to a combination of the third driving image at the second frame rate and the AR display image at the second frame rate, the third driving image is enlarged to the size of the second driving image. A display unit for displaying the generated augmented reality image may be further included.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 기기는, 이동체의 주행 중에 촬영된 제1 프레임 레이트의 제1 주행 영상을 획득하는 영상 획득부, 상기 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성하는 주행 영상 생성부, 상기 제2 주행 영상을 분석하여 상기 제2 주행 영상에 표시될 AR(Augmented Reality) 안내 객체를 포함하는 AR 표출 영상을 상기 제2 프레임 레이트로 생성하는 AR 표출 영상 생성부, 상기 생성된 제2 주행 영상과 상기 AR 표출 영상을 동기화시켜 결합하는 영상 결합부 및 상기 제2 프레임 레이트의 주행 영상과 상기 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는 디스플레이부를 포함할 수 있다.On the other hand, the electronic device according to an embodiment of the present invention for achieving the above object, the image acquisition unit for acquiring the first driving image of the first frame rate photographed while the moving object, the obtained first driving image A driving image generation unit generating a second driving image at a second frame rate by processing the AR display image including the AR (Augmented Reality) guide object to be displayed on the second driving image by analyzing the second driving image. The AR display image generating unit generating the second frame rate, the image combining unit synchronizing and combining the generated second driving image and the AR displayed image, and the driving image of the second frame rate and the second frame rate. It may include a display unit for displaying the augmented reality image generated according to the combination of the AR display image.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 컴퓨터 판독 가능한 기록 매체는 상술한 방법을 실행시키기 위한 프로그램이 기록될 수 있다.On the other hand, a computer-readable recording medium according to an embodiment of the present invention for achieving the above object may be recorded a program for executing the above-described method.

또한, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 프로그램에는 상술한 방법을 실행시키기 위한 코드가 기록될 수 있다. In addition, code for executing the above-described method may be recorded in a program according to an embodiment of the present invention for achieving the above-described object.

상술한 본 발명의 다양한 실시 예에 따르면 실시간 주행 영상의 프레임 레이트를 유저의 시각에 동영상으로 인식될 수 있는 최소치와 프로세서의 성능 최대치 내의 프레임 레이트로 낮추고, 변경된 프레임 레이트의 주행 영상을 분석하여 AR 안내 객체를 포함하는 AR 표출 영상을 생성하며, 주행 영상과 AR 표출 영상들의 프레임 레이트를 일치시킴으로써, 유저가 실제로 보고 있는 현실 세계를 담고 있는 실시간 주행 영상에서 AR 안내 객체가 정확한 위치에 표시되도록 할 수 있다. According to various embodiments of the present invention described above, the frame rate of a real-time driving image is reduced to a frame rate within a minimum value that can be recognized as a video at a user's time and a processor performance maximum value, and the driving image of the changed frame rate is analyzed to guide AR By generating an AR expression image including an object and matching the frame rates of the driving image and the AR expression images, the AR guide object can be displayed at an accurate location in a real-time driving image containing the real world that the user is actually viewing. .

또한, 본 발명에 따르면, 카메라의 흔들림에 따른 주행 영상의 흔들림을 보정하여 흔들림 없는 주행 영상을 제공함과 동시에 AR 안내 객체의 표시 위치를 보정함으로써, 유저가 실제로 보고 있는 현실 세계를 담고 있는 실시간 주행 영상에서 AR 안내 객체가 정확한 위치에 표시되도록 할 수 있다. In addition, according to the present invention, by correcting the shaking of the driving image according to the shaking of the camera to provide a shaking-free driving image and at the same time correcting the display position of the AR guide object, real-time driving image containing the real world that the user is actually viewing. In the AR guide object can be displayed at the correct location.

이에 따라, 본 발명은 운전자의 시각에는 운전자가 실제로 보고 있는 현실 세계를 담고 있는 주행 영상을 동영상으로 보여지게 하면서 동시에 주행 영상에서 AR 객체를 정확한 위치에 표시함으로써, 운전자에게 정확한 증강 현실 내비게이션 서비스를 제공할 수 있다.Accordingly, the present invention provides an accurate augmented reality navigation service to the driver by displaying the AR object in the driving image at the same time while displaying the driving image containing the real world that the driver is actually viewing in the driver's view at the same time. can do.

또한, 본 발명에 따르면, 프레임 레이트의 변경 범위를 프로세서의 성능을 고려함으로써, 시스템의 리소스를 효율적으로 이용할 수 있다. Further, according to the present invention, by considering the performance of the processor in the range of change of the frame rate, it is possible to efficiently use the resources of the system.

도 1은 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 장치를 나타내는 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 장치를 보다 구체적으로 나타내는 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 AR 표출 영상 생성부(13)를 구체적으로 나타내는 블록도 이다.
도 4는 본 발명의 일 실시 예에 따른 2D 촬영 이미지와 가상 3D 공간 사이의 변환 관계를 나타내는 도면이다.
도 5는 본 발명의 일 실시 예에 따른 주행 영상 생성부의 동작을 나타내는 도면 이다.
도 6은 본 발명의 일 실시 예에 따른 AR 표출 영상 생성부의 동작을 나타내는 도면 이다.
도 7은 종래의 증강 현실 영상 처리 방법의 문제를 설명하기 위한 개념도 이다.
도 8은 본 발명의 일 실시 예에 증강 현실 영상 처리 방법을 설명하기 위한 개념도 이다.
도 9는 흔들림에 따른 주행 영상을 나타내는 예시도 이다.
도 10은 본 발명의 일 실시 예에 따른 특징점의 추출 및 특징점의 위치 변화값 산출 과정을 나타내는 개념도 이다.
도 11 내지 12는 흔들림이 발생 유무에 따른 크롭 영상 생성 과정을 나타내는 도면 이다.
도 13은 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 방법을 나타낸 흐름도이다.
도 14는 본 발명의 다른 실시 예에 따른 증강 현실 영상 처리 방법을 나타낸 흐름도이다.
도 15는 본 발명의 일 실시 예에 따른 전자 장치를 나타내는 블록도이다.
도 16은 본 발명의 일 실시 예에 따른 전자 장치와 연결된 시스템 네트워크를 설명하기 위한 도면이다.
도 17은 본 발명의 일 실시 예에 따른 전자 장치의 전방 차량 추돌 방지 안내 UI 화면을 나타내는 도면이다.
도 18은 본 발명의 일 실시 예에 따른 전자 장치가 촬영부를 구비하지 않는 경우의 구현 형태를 나타내는 도이다.
도 19는 본 발명의 일 실시 예에 따른 전자 장치가 촬영부를 구비하는 경우 구현 형태를 나타내는 도이다.
도 20은 본 발명의 일 실시 예에 따른 HUD(Head-Up Display)를 이용한 구현 형태를 나타내는 도이다.
1 is a block diagram showing an augmented reality image processing apparatus according to an embodiment of the present invention.
2 is a block diagram showing an augmented reality image processing apparatus according to an embodiment of the present invention in more detail.
3 is a block diagram specifically showing an AR-expressing image generating unit 13 according to an embodiment of the present invention.
4 is a view showing a conversion relationship between a 2D captured image and a virtual 3D space according to an embodiment of the present invention.
5 is a view showing the operation of the driving image generating unit according to an embodiment of the present invention.
6 is a view showing the operation of the AR expression image generation unit according to an embodiment of the present invention.
7 is a conceptual diagram for explaining a problem in a conventional augmented reality image processing method.
8 is a conceptual diagram illustrating an augmented reality image processing method according to an embodiment of the present invention.
9 is an exemplary view showing a driving image according to shaking.
10 is a conceptual diagram illustrating a process of extracting a feature point and calculating a position change value of the feature point according to an embodiment of the present invention.
11 to 12 are views showing a crop image generation process according to whether or not shaking occurs.
13 is a flowchart illustrating an augmented reality image processing method according to an embodiment of the present invention.
14 is a flowchart illustrating an augmented reality image processing method according to another embodiment of the present invention.
15 is a block diagram illustrating an electronic device according to an embodiment of the present invention.
16 is a diagram for describing a system network connected to an electronic device according to an embodiment of the present invention.
17 is a view showing a front UI collision prevention UI screen of an electronic device according to an embodiment of the present invention.
18 is a diagram illustrating an implementation form when an electronic device according to an embodiment of the present invention does not include a photographing unit.
19 is a diagram illustrating an implementation form when an electronic device according to an embodiment of the present invention includes a photographing unit.
20 is a view showing an implementation form using a head-up display (HUD) according to an embodiment of the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following merely illustrates the principles of the present invention. Therefore, a person skilled in the art can implement various principles included in the concept and scope of the present invention and implement the principles of the present invention, although not explicitly described or illustrated in the present specification. In addition, all conditional terms and examples listed in this specification are intended to be understood in principle only for the purpose of understanding the concept of the present invention, and should be understood as not limited to the examples and states specifically listed in this way. do.

또한, 본 발명의 원리, 관점 및 실시 예들뿐만 아니라 특정 실시 예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.In addition, it should be understood that all detailed descriptions that list particular embodiments, as well as the principles, aspects and embodiments of the invention, are intended to include structural and functional equivalents of these matters. It should also be understood that these equivalents include all currently invented equivalents as well as equivalents to be developed in the future, ie, all devices invented to perform the same function regardless of structure.

따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, it should be understood that the block diagrams herein represent conceptual views of exemplary circuits embodying the principles of the invention. Similarly, all flow diagrams, state diagrams, pseudo-codes, etc. are understood to represent various processes performed by a computer or processor, whether or not the computer or processor is clearly depicted, which may be substantially represented on a computer-readable medium. Should be.

프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.The functionality of the various elements shown in the figures, including a processor or functional block marked with a similar concept, may be provided by the use of dedicated hardware as well as hardware capable of executing software in connection with appropriate software. When provided by a processor, the functionality may be provided by a single dedicated processor, a single shared processor, or a plurality of individual processors, some of which may be shared.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.Also, the clear use of terms presented in terms of processors, controls, or similar concepts should not be interpreted exclusively by reference to hardware capable of executing software, and without limitation, digital signal processor (DSP) hardware, ROM for storing software. It should be understood to implicitly include (ROM), RAM and non-volatile memory. Other hardware for governors may also be included.

본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.In the claims of the present specification, components expressed as means for performing the functions described in the detailed description include all types of software including, for example, combinations of circuit elements performing the above functions, firmware/micro code, and the like. It is intended to include all methods of performing a function, and is combined with appropriate circuitry for executing the software to perform the function. The present invention, as defined by these claims, is equivalent to any means capable of providing such functions are understood from this specification, since the functions provided by the various listed means are combined and combined with the manner required by the claims. It should be understood as.

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. The above objects, features, and advantages will become more apparent through the following detailed description in connection with the accompanying drawings, and accordingly, those skilled in the art to which the present invention pertains can easily implement the technical spirit of the present invention. There will be. In addition, in the description of the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted.

이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시 예를 상세히 설명하기로 한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1 은 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 장치를 나타내는 블록도 이다. 도 2는 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 장치를 보다 구체적으로 나타내는 블록도 이다. 도 1 내지 2를 참조하면, 증강 현실 영상 처리 장치(10)는 영상 획득부(11), 주행 영상 생성부(12), AR 표출 영상 생성부(13), 영상 결합부 (14), 흔들림 데이터 산출부(15), 크롭 영상 생성부(16), 표시부(17) 를 포함할 수 있다.1 is a block diagram showing an augmented reality image processing apparatus according to an embodiment of the present invention. 2 is a block diagram showing an augmented reality image processing apparatus according to an embodiment of the present invention in more detail. 1 to 2, the augmented reality image processing apparatus 10 includes an image acquisition unit 11, a driving image generation unit 12, an AR expression image generation unit 13, an image combination unit 14, and shake data It may include a calculation unit 15, a crop image generation unit 16, a display unit 17.

이러한 증강 현실 영상 처리 장치(10)는 차량의 주행 중에 촬영된 주행 영상의 프레임 레이트(frame rate)를 유저의 시각에 동영상으로 인식될 수 있는 최소치와 프로세서의 성능 최대치 내의 프레임 레이트로 낮추고, 변경된 프레임 레이트의 주행 영상을 분석하여 AR 안내 객체를 포함하는 AR 표출 영상을 생성하며, 주행 영상과 AR 표출 영상들의 프레임 레이트를 일치시켜 결합하여 증강 현실 영상을 생성할 수 있다. 여기서, 차량의 주행 중에 촬영된 주행 영상은 제1 주행 영상으로 명명될 수 있고, 제1 주행 영상의 프레임 레이트는 제1 프레임 레이트로 명명될 수 있다. 또한, 유저의 시각에 동영상으로 인식될 수 있는 최소치와 프로세서의 성능 최대치 내의 프레임 레이트는 제2 프레임 레이트로 명명될 수 있고, 제2 프레임 레이트로 낮추어진 주행 영상은 제2 주행 영상으로 명명될 수 있다. 그리고, 프레임 레이트의 단위는 1초당 프레임 수를 의미하는 frame per second(fps)로 정의될 수 있다. The augmented reality image processing apparatus 10 lowers the frame rate of the driving image photographed while driving the vehicle to a frame rate within a minimum value that can be recognized as a video at a user's time and a processor performance maximum, and the changed frame By analyzing the driving image of the rate, an AR-expressing image including the AR guide object is generated, and the frame rates of the driving image and the AR-presenting images are matched and combined to generate an augmented reality image. Here, the driving image photographed while driving the vehicle may be referred to as a first driving image, and a frame rate of the first driving image may be referred to as a first frame rate. In addition, a frame rate within a minimum value that can be recognized as a video at a user's time and a maximum performance of the processor may be referred to as a second frame rate, and a driving image lowered to the second frame rate may be referred to as a second driving image. have. And, the frame rate unit may be defined as frame per second (fps), which means the number of frames per second.

또한, 증강 현실 영상 처리 장치(10)는 차량에 설치된 촬영 장치의 흔들림에 따른 주행 영상의 흔들림을 보정하여, 흔들림 없는 주행 영상을 제공함과 동시에 AR 안내 객체의 표시 위치를 보정할 수 있다.In addition, the augmented reality image processing apparatus 10 may correct the shaking of the driving image according to the shaking of the photographing device installed in the vehicle, provide a shaking-free driving image, and at the same time correct the display position of the AR guide object.

여기서, 증강 현실 영상 처리 장치(10)는 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 구현될 수 있다. 일 예로, 하드웨어적인 구현에 의하면, ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(micro-processors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. Here, the augmented reality image processing apparatus 10 may be implemented using software, hardware, or a combination thereof. For example, according to a hardware implementation, application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors (processors) ), controllers, micro-controllers, micro-processors, and other electrical units for performing other functions.

그리고, 이동체는 이동 가능하고 위치 측정이 필요한 객체로, 일 예로, 사람, 강아지, 차량, 선박, 오토바이, 자전거, 기차 등일 수 있다. 이하에서는 설명의 편의를 위하여 이동체가 차량으로 구현된 경우를 예로, 증강 현실 영상 처리 장치(10)를 구성하는 각각의 구성 모듈에 대해서 보다 상세하게 설명하기로 한다. And, the moving object is an object that is movable and requires location measurement, and may be, for example, a person, a dog, a vehicle, a ship, a motorcycle, a bicycle, or a train. Hereinafter, for convenience of description, a case where the mobile body is implemented as a vehicle will be described in more detail with respect to each configuration module constituting the augmented reality image processing apparatus 10 as an example.

영상 획득부(11)는 차량의 주행 중에 차량에 설치된 촬영 장치에서 촬영된 제1 프레임 레이트의 제1 주행 영상을 실시간으로 획득할 수 있다. 여기서, 획득된 제1 주행 영상에는 차선을 따라 구별되는 복수의 차로, 복수의 차로로 구성된 도로, 도로를 주행하고 있는 복수의 차량, 기타 배경 등이 포함될 수 있다. The image acquisition unit 11 may acquire, in real time, a first driving image at a first frame rate captured by a photographing device installed in the vehicle while the vehicle is driving. Here, the obtained first driving image may include a plurality of lanes distinguished along the lane, a road composed of a plurality of lanes, a plurality of vehicles driving the road, and other backgrounds.

여기서, 차선은 차량이 위치한 차로(lane)를 형성하는 양측 선(line) 각각을 의미할 수 있다. 또한, 차로(lane)는 1 차로, 2 차로,.. N 차로 등과 같이 차선에 의해 형성되고, 차량이 주행하는 도로를 의미할 수 있다. Here, the lane may mean each of two lines forming a lane in which the vehicle is located. In addition, the lane (lane) is formed by a lane, such as the first lane, the second lane, .. N lane, etc., may mean a road on which the vehicle travels.

주행 영상 생성부(12)는 영상 획득부(11)에서 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성할 수 있다. 구체적으로, 주행 영상 생성부(120)는 영상 획득부(11)에서 획득된 고프레임 레이트의 제1 주행 영상을 유저의 시각에 동영상으로 인식될 수 있는 최소치와 프로세서의 성능 최대치 내의 제2 프레임 레이트로 낮춘 제2 주행 영상을 생성할 수 있다. 즉, 제2 프레임 레이트는 제1 프레임 레이트 보다 작을 수 있다. The driving image generation unit 12 may process the first driving image acquired by the image acquisition unit 11 to generate a second driving image at a second frame rate. Specifically, the driving image generation unit 120 may obtain a second frame rate within the maximum value of the processor and a maximum value that can be recognized as a moving image of the first driving image of the high frame rate acquired by the image acquisition unit 11 at a user's time. A second driving image lowered by can be generated. That is, the second frame rate may be smaller than the first frame rate.

일 예로, 영상 획득부(11)에서 획득된 제1 주행 영상의 제1 프레임 레이트는 60 fps일 수 있고, 주행 영상 생성부(12)는 60fps의 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성할 수 있다. 여기서, 제2 프레임 레이트는 유저의 시각에 동영상으로 인식될 수 있는 최소치인 15fps 이상이고 최대치는 프로세서의 성능에 따라 가변적으로 결정될 수 있다. 구체적으로, AR 안내 객체들의 주행 영상을 처리하는 프로세서가 고성능인 경우 제2 프레임 레이트는 높일 수 있으며, 프로세서가 저성능인 경우 제2 프레임 레이트를 낮출 수 있다. 이와 같이, 프로세서의 성능에 따라 제2 프레임 레이트를 가변시킴으로써 시스템 리소스를 효율적으로 이용할 수 있다.For example, the first frame rate of the first driving image obtained by the image acquisition unit 11 may be 60 fps, and the driving image generation unit 12 processes the first driving image at 60 fps to determine the second frame rate. A second driving image may be generated. Here, the second frame rate is 15 fps or more, which is a minimum value that can be recognized as a video at the user's time, and the maximum value can be variably determined according to the performance of the processor. Specifically, the second frame rate may be increased when the processor processing the driving images of the AR guide objects is high-performance, and the second frame rate may be lowered when the processor is low-performance. In this way, system resources can be efficiently used by varying the second frame rate according to the performance of the processor.

또한, 제2 프레임 레이트는 제2 주행 영상에 포함된 분석 대상의 속성 정보에 따라 가변적으로 결정될 수 있다. 구체적으로, 제2 주행 영상에는 차량 운전자의 안내를 제공하기 위하여 분석이 필요한 대상(이하, 분석 대상)이 다수 포함되어 있을 수 있다. 일 예로, 분석 대상은 제2 주행 영상에 포함된 차선, 전방 차량, 신호등, 도로 표지판, 횡단보도, 보행자, 차로 등과 같은 차량 운전자 보조를 위하여 분석이 필요한 다양한 대상을 포함할 수 있고, 이러한 요소들은 이미지 처리 속도에 영향을 줄 수 있다. 이에 따라 본 발명에 따른 주행 영상 생성부(12)는 제2 주행 영상에 포함된 분석 대상의 개수, 제2 주행 영상에 포함된 분석 대상의 이미지 사이즈, 제2 주행 영상에 포함된 분석 대상의 종류(TYPE), 제2 주행 영상에 포함된 분석 대상의 데이터 크기 중 적어도 하나를 포함하는 분석 대상의 속성 정보에 따라 제2 프레임 레이트를 가변적으로 결정할 수 있다. 일 예로, 제2 주행 영상에 분석 대상이 다수 포함되어 있는 경우, 이미지 처리 속도를 높이기 위하여 제2 주행 영상에 분석 대상의 개수가 늘어날수록 프레임 레이트를 낮출 수 있다. Also, the second frame rate may be variably determined according to attribute information of an analysis target included in the second driving image. Specifically, the second driving image may include a plurality of objects (hereinafter, an analysis object) that require analysis to provide guidance to the vehicle driver. As an example, the analysis target may include various targets that require analysis to assist the vehicle driver, such as lanes, front vehicles, traffic lights, road signs, pedestrian crossings, pedestrians, and lanes included in the second driving image, and these elements This can affect image processing speed. Accordingly, the driving image generating unit 12 according to the present invention includes the number of analysis objects included in the second driving image, the image size of the analysis object included in the second driving image, and the type of analysis object included in the second driving image. (TYPE), the second frame rate may be variably determined according to attribute information of the analysis object including at least one of the data size of the analysis object included in the second driving image. For example, when a plurality of analysis objects are included in the second driving image, the frame rate may be lowered as the number of analysis objects increases in the second driving image in order to increase image processing speed.

또한, 제2 프레임 레이트는 AR 안내 객체의 속성 정보에 따라 가변적으로 결정될 수 있다. 구체적으로, 후술할 AR 표출 영상 생성부(13)는 제2 주행 영상을 분석하여 AR 안내 객체를 생성하고, 생성된 AR 안내 객체의 매핑 위치를 결정하며, 이를 기초로 AR 표출 영상을 생성한다. 여기서, AR 표출 영상의 생성은 AR 안내 객체의 생성을 위한 이미지 처리 속도에 영향을 받게 된다. 이에 따라, 본 발명에 따른 주행 영상 생성부(12)는 AR 안내 객체의 종류(TYPE), AR 안내 객체의 이미지 사이즈, AR 안내 객체의 데이터 크기, AR 안내 객체가 표출될 위치 중 적어도 하나를 포함하는 AR 안내 객체의 속성 정보에 따라 제2 프레임 레이트를 가변적으로 결정할 수 있다. 일 예로, AR 안내 객체의 데이터 크기가 큰 경우, 이미지 처리 속도를 높이기 위하여 데이터 크기가 커질 수록 제2 프레임 레이트를 낮출 수 있다. Also, the second frame rate may be variably determined according to attribute information of the AR guide object. Specifically, the AR expression image generation unit 13, which will be described later, analyzes the second driving image to generate an AR guide object, determines a mapping location of the generated AR guide object, and generates an AR expression image based thereon. Here, the generation of the AR expression image is affected by the image processing speed for the generation of the AR guide object. Accordingly, the driving image generating unit 12 according to the present invention includes at least one of the type of the AR guide object, the image size of the AR guide object, the data size of the AR guide object, and the location where the AR guide object will be displayed. The second frame rate may be variably determined according to the attribute information of the AR guide object. For example, when the data size of the AR guide object is large, the second frame rate may be lowered as the data size increases to increase the image processing speed.

한편, 프레임 레이트는 복수의 AR 안내 객체의 속성 정보를 고려하여 통계적으로 결정될 수 있다. 예를 들어, AR 안내 객체들의 평균 이미지 사이즈에 따라 프레임 레이트가 결정될 수도 있다. 즉, 프로세서의 성능 대비 이미지 처리 속도를 높이기 위하여, AR 안내 객체들의 평균 사이즈가 커질수록 프레임 레이트를 낯출 수 있다. 다른 예로, AR 안내 객체들의 평균 데이터 크기에 따라 프레임 레이트가 결정될 수도 있다. 즉, 프로세서의 성능 대비 이미지 처리 속도를 높이기 위하여, AR 안내 객체들의 평균 데이터 크기가 커질수록 프레임 레이트를 낯출 수 있다.Meanwhile, the frame rate may be statistically determined in consideration of attribute information of a plurality of AR guide objects. For example, the frame rate may be determined according to the average image size of AR guide objects. In other words, in order to increase the image processing speed compared to the performance of the processor, the frame rate may become unfamiliar as the average size of the AR guide objects increases. As another example, the frame rate may be determined according to the average data size of AR guide objects. That is, in order to increase the image processing speed compared to the performance of the processor, as the average data size of the AR guide objects increases, the frame rate may become unfamiliar.

위와 같이 제2 주행 영상에 포함된 분석 대상의 속성 정보 및 AR 안내 객체의 속성 정보에 따라 프레임 레이트를 결정함으로써, 증강 현실 영상 처리 장치(10)는 제2 주행 영상과 AR 표출 영상 간의 정합 오류를 최소화 할 수 있는 최적의 프레임 레이트를 결정할 수 있다.As described above, by determining the frame rate according to the attribute information of the analysis target included in the second driving image and the attribute information of the AR guide object, the augmented reality image processing apparatus 10 detects a matching error between the second driving image and the AR display image. The optimal frame rate that can be minimized can be determined.

한편, 위 실시 예에 한정되는 것은 아니고, 상술한 프레임 레이트는 제2 주행 영상의 비트레이트(bitrate), 영상 크기, 코덱(codec) 종류 등에 의해 결정될 수도 있다. 여기서, 비트레이트(bitrate)는 특정한 시간 단위(이를테면 초 단위)마다 처리하는 비트의 수를 의미한다.Meanwhile, the present invention is not limited to the above embodiment, and the above-described frame rate may be determined by a bitrate, image size, and codec type of the second driving image. Here, the bitrate refers to the number of bits processed for a specific time unit (eg, seconds).

한편, 주행 영상 생성부(12)는 영상 획득부(11)에서 획득된 제1 프레임 레이트의 제1 주행 영상의 일부 만을 선택하는 처리를 통하여 제2 프레임 레이트의 제2 주행 영상을 생성할 수 있다. 일 예로, 영상 획득부(11)에서 획득된 제1 주행 영상의 제1 프레임 레이트는 60 fps일 수 있고, 주행 영상 생성부(12)는 1초당 60프레임으로 구성된 제1 주행 영상에서 15 프레임만을 선택함으로써 15 fps의 제2 주행 영상을 생성할 수 있다. Meanwhile, the driving image generation unit 12 may generate a second driving image at the second frame rate through a process of selecting only a part of the first driving image at the first frame rate obtained by the image acquisition unit 11. . As an example, the first frame rate of the first driving image obtained by the image acquisition unit 11 may be 60 fps, and the driving image generation unit 12 only 15 frames from the first driving image composed of 60 frames per second By selecting, a 15 fps second driving image can be generated.

AR 표출 영상 생성부(13)는 주행 영상 생성부(12)에서 생성된 제2 주행 영상을 분석하여 제2 주행 영상에 표시될 AR(Augmented Reality) 안내 객체를 포함하는 AR 표출 영상을 제2 프레임 레이트로 생성할 수 있다. 여기서, AR 표출 영상의 일 예는 투명 바탕에 운전자에게 운전 관련 안내를 제공하는 적어도 하나의 AR 안내 객체가 배치된 형태일 수 있다. 그리고, AR 표출 영상에서 AR 안내 객체의 배치 위치는 AR 안내 객체의 종류에 따라 달라질 수 있다. 그리고, AR 표출 영상은 제2 주행 영상과 정합되도록, AR 표출 영상과 제2 주행 영상은 이미지 크기가 동일하게 구현될 수 있다. The AR expression image generation unit 13 analyzes the second driving image generated by the driving image generation unit 12 and displays an AR expression image including an AR (Augmented Reality) guide object to be displayed on the second driving image in the second frame. Can be created at a rate. Here, an example of the AR expression image may be a form in which at least one AR guide object providing driving-related guidance to the driver is disposed on a transparent background. In addition, the arrangement position of the AR guide object in the AR display image may vary according to the type of the AR guide object. In addition, the AR display image and the second driving image may have the same image size so that the AR display image matches the second driving image.

이러한 AR 표출 영상 생성부(13)에 대해서는 도 3 내지 4를 참조하여 보다 구체적으로 설명하기로 한다. The AR expression image generation unit 13 will be described in more detail with reference to FIGS. 3 to 4.

도 3은 본 발명의 일 실시 예에 따른 AR 표출 영상 생성부를 구체적으로 나타내는 블록도 이다. 도 3을 참조하면, AR 표출 영상 생성부(13)는 캘리브레이션부(13-1), 3D 공간 생성부(13-2), AR 안내 객체 생성부(13-3), 매핑 위치 결정부(13-4)의 전부 또는 일부를 포함할 수 있다. 3 is a block diagram specifically showing an AR-expressing image generator according to an embodiment of the present invention. Referring to FIG. 3, the AR expression image generation unit 13 includes a calibration unit 13-1, a 3D spatial generation unit 13-2, an AR guide object generation unit 13-3, and a mapping location determination unit 13 -4).

캘리브레이션부(13-1)는 카메라에서 촬영된 촬영 영상으로부터 카메라에 해당되는 카메라 파라미터를 추정하기 위한 캘리브레이션(Calibration)을 수행할 수 있다. 여기서, 카메라 파라미터는 실사공간이 사진에 맺히는 관계를 나타내는 정보인 카메라 행렬을 구성하는 파라미터일 수 있다. 여기서 파라미터는, 도 4(a)와 같이, 카메라 외부 파라미터(extrinsic parameters)(601), 카메라 내부 파라미터(intrinsic parameters)(602)를 포함할 수 있다. 여기서, 카메라 내부 파라미터(602)의 fx, fy는 초점거리(focal length), cx, cy는 주점(principal point), skew_c = tanα는 비대칭계수(skew coefficient)일 수 있다. 또한, 카메라 외부 파라미터(601)는 월드 좌표계(world coordinate system)(605) 상의 3D 점의 좌표 (X,Y,Z)를 카메라 좌표계(Camera Coordinate System)(604)상의 3D 점의 좌표 (Xc, Yc, Zc)로 변환시키기 위한 회전/이동변환 행렬일 수 있다. 이러한, 카메라 외부 파라미터는 카메라 고유의 파라미터가 아니기 때문에 카메라를 어떤 위치에 어떤 방향으로 설치했는지에 따라 달라지고 또한 월드 좌표계를 어떻게 정의했느냐에 따라서 달라질 수 있다. The calibration unit 13-1 may perform calibration for estimating camera parameters corresponding to the camera from the captured image taken by the camera. Here, the camera parameter may be a parameter constituting a camera matrix, which is information indicating a relationship that a photorealistic space has on a photo. Here, as shown in FIG. 4(a), the parameters may include extrinsic parameters 601 and intrinsic parameters 602. Here, fx, fy of the camera internal parameter 602 may be a focal length, cx, cy may be a principal point, and skew_c = tanα may be a skew coefficient. In addition, the camera external parameter 601 is the coordinate (X, Y, Z) of the 3D point on the world coordinate system (world coordinate system) 605, the coordinate of the 3D point on the camera coordinate system (Camera Coordinate System) 604 (Xc, Yc, Zc). Since the external parameters of the camera are not unique to the camera, it may vary depending on the location in which the camera is installed and in what direction, and may also depend on how the world coordinate system is defined.

즉, 본 발명에 따른 캘리브레이션부(13-1)는 주행 영상 생성부(12)에서 생성된 제2 주행 영상으로부터 카메라에 해당되는 카메라 파라미터를 추정하기 위한 캘리브레이션(Calibration)을 수행할 수 있다.That is, the calibration unit 13-1 according to the present invention may perform calibration to estimate camera parameters corresponding to the camera from the second driving image generated by the driving image generation unit 12.

3D 공간 생성부(13-2)는 카메라에서 촬영된 촬영 영상을 기초로 가상 3D 공간을 생성할 수 있다. 구체적으로, 3D 공간 생성부(13-2)는 캘리브레이션부(13-1)가 추정한 카메라 파라미터를 기초로 카메라가 촬영한 영상으로부터 깊이 정보(Depths information)를 획득하고, 획득한 깊이 정보와 촬영 영상을 기초로 가상 3D 공간을 생성할 수 있다. 구체적으로, 도 4(b)를 참조하면, 카메라 촬영 영상은 월드 좌표계(605)의 3차원 공간상의 점들을 영상 좌표계(603)의 2차원 이미지 평면에 투사(perspective projection)함으로써 얻어진다. 따라서, 3D 공간 생성부(13-2)는 카메라 파라미터를 기초로 상술한 동작의 역과정을 수행하여 카메라의 촬영 영상에 대한 월드 좌표계(605)의 가상 3D(3-Dimensional) 공간을 생성할 수 있다.The 3D space generation unit 13-2 may generate a virtual 3D space based on the captured image captured by the camera. Specifically, the 3D spatial generation unit 13-2 acquires depth information from the image captured by the camera based on the camera parameters estimated by the calibration unit 13-1, and acquires the acquired depth information and A virtual 3D space can be created based on an image. Specifically, referring to FIG. 4(b), the camera image is obtained by projecting points on a three-dimensional space of the world coordinate system 605 onto a two-dimensional image plane of the image coordinate system 603. Therefore, the 3D space generating unit 13-2 may perform a reverse process of the above-described operation based on the camera parameters to generate a virtual 3D (3-Dimensional) space of the world coordinate system 605 for the captured image of the camera. have.

즉, 본 발명에 따른 3D 공간 생성부(13-2)는 캘리브레이션부(13-1)가 추정한 카메라 파라미터를 기초로 제2 주행 영상으로부터 깊이 정보(Depths information)를 획득하고, 획득한 깊이 정보와 제2 주행 영상을 기초로 가상 3D 공간을 생성할 수 있다.That is, the 3D spatial generation unit 13-2 according to the present invention acquires depth information from the second driving image based on the camera parameters estimated by the calibration unit 13-1, and obtains the acquired depth information And a second driving image may generate a virtual 3D space.

AR 안내 객체 생성부(13-3)는 증강 현실 상에서 안내를 위한 객체, 예를 들어, 경로 안내 객체, 차로 변경 안내 객체, 차선 이탈 안내 객체, 횡단 보도 객체, 보행자 안내 객체 등을 생성할 수 있다. 여기서, 객체는 3차원 객체, 텍스처 이미지 또는 아트라인 등으로 구현될 수 있다. The AR guide object generating unit 13-3 may generate an object for guidance in augmented reality, for example, a route guide object, a lane change guide object, a lane departure guide object, a pedestrian crossing object, a pedestrian guide object, and the like. . Here, the object may be implemented as a 3D object, a texture image or an art line.

이를 위하여, 본 발명의 일 실시 예에 따른 AR 안내 객체 생성부(13-3)는 주행 영상 생성부(12)에서 생성된 제2 주행 영상의 프레임들을 실시간으로 분석하는 영상 분석 모듈을 포함할 수 있다. 이러한 영상 분석 모듈은 제2 주행 영상의 프레임들을 실시간으로 분석하여 분석 대상을 검출하고, 검출된 분석 대상을 기초로 차량의 운전자에게 어떤 안내가 필요한지 판단하고, 필요한 안내에 대응되는 증강 현실 안내 객체를 생성할 수 있다. 여기서, 분석 대상은 차량 운전자의 안내를 제공하기 위하여 분석이 필요한 대상을 의미하고, 예를 들어, 제2 주행 영상에 포함된 차선, 전방 차량, 신호등, 도로 표지판, 횡단보도, 보행자, 차로 등과 같은 차량 운전자 보조를 위하여 분석이 필요한 다양한 대상을 포함할 수 있다. 일 예로, 제2 주행 영상으로부터 차량의 주행 전방에 위치한 횡단보도가 검출되면, AR 안내 객체 생성부(13-3)는 횡단 보도 안내 객체를 생성할 수 있다. 다른 예로, 제2 주행 영상으로부터 차량의 좌우측에 위치한 차선이 검출되고 차량이 차선을 이탈하고 있다고 판단되는 경우, AR 안내 객체 생성부(13-3)는 차선 이탈 안내 객체를 생성할 수 있다. 또 다른 예로, 제2 주행 영상으로부터 차량의 전방에 위치한 전방 차량이 검출되고 차량과 전방차량과의 거리가 소정 거리 미만으로 판단되면, AR 안내 객체 생성부(13-3)는 전방 차량 추돌 경보 안내 객체를 생성할 수 있다.To this end, the AR guide object generation unit 13-3 according to an embodiment of the present invention may include an image analysis module that analyzes frames of the second driving image generated in the driving image generation unit 12 in real time. have. The image analysis module detects an analysis object by analyzing frames of the second driving image in real time, determines what guidance is needed for the driver of the vehicle based on the detected analysis object, and augmented reality guidance object corresponding to the required guidance. Can be created. Here, the analysis target means an object that needs to be analyzed to provide guidance to the vehicle driver, for example, lanes, front vehicles, traffic lights, road signs, pedestrian crossings, pedestrians, lanes, etc. included in the second driving image It can include various objects that require analysis to assist the vehicle driver. For example, when a pedestrian crossing located in front of the driving of the vehicle is detected from the second driving image, the AR guide object generating unit 13-3 may generate a pedestrian crossing guide object. As another example, when the lanes located on the left and right sides of the vehicle are detected from the second driving image and it is determined that the vehicle is leaving the lane, the AR guide object generating unit 13-3 may generate a lane departure guide object. As another example, when the front vehicle located in front of the vehicle is detected from the second driving image and the distance between the vehicle and the front vehicle is determined to be less than a predetermined distance, the AR guide object generating unit 13-3 guides the front vehicle collision warning You can create objects.

즉, 본 발명의 일 실시 예에 따른 AR 안내 객체 생성부(13-3)는 영상 획득부(11)에서 획득된 제1 주행 영상의 프레임들을 분석에 이용하지 않고, 주행 영상 생성부(12)에서 제1 주행 영상의 프레임들 중 일부만을 선택하여 생성된 제2 주행 영상의 프레임들을 분석에 이용할 수 있다. That is, the AR guide object generating unit 13-3 according to an embodiment of the present invention does not use the frames of the first driving image acquired by the image obtaining unit 11 for analysis, and the driving image generating unit 12 The frames of the second driving image generated by selecting only a portion of the frames of the first driving image may be used for analysis.

한편, 위의 예시에 한정되는 것은 아니고, AR 안내 객체 생성부(13-3) 는 차량의 주행 중에 획득된 각종 데이터, 예를 들어, 차량의 주행 중에 촬영된 제2 주행 영상, 차량의 현재 위치, 차량의 ECU로부터 획득된 주행 상태(주행 속도, 방향 지시등 지시 방향, 연료량 등), 동작 모드(경로 안내 모드 설정 여부, ADAS 기능 설정 여부 등)의 설정 상태 등을 분석하여 차량의 운전자에게 어떤 안내가 필요한지 판단하고, 필요한 안내에 대응되는 증강 현실 안내 객체를 생성할 수 있다. On the other hand, the present invention is not limited to the above example, and the AR guide object generating unit 13-3 includes various data acquired while the vehicle is driving, for example, a second driving image captured while the vehicle is driving, and the current position of the vehicle. , By analyzing the driving status (driving speed, direction indication direction, fuel amount, etc.) obtained from the vehicle's ECU, and the setting status of the operation mode (whether the route guidance mode is set, whether the ADAS function is set, etc.) It is possible to determine whether it is necessary, and to generate an augmented reality guide object corresponding to the required guide.

매핑 위치 결정부(13-4)는 3D 공간 생성부(13-2)에서 생성된 가상 3D 공간에 AR 안내 객체 생성부 (13-3)에서 생성된 객체의 매핑 위치를 결정할 수 있다. The mapping location determining unit 13-4 may determine the mapping location of the object generated by the AR guide object generating unit 13-3 in the virtual 3D space generated by the 3D spatial generating unit 13-2.

즉, 본 발명에 따른 매핑 위치 결정부(13-4)는 AR 안내 객체 생성부(13-3)에서 생성된 안내 객체의 종류에 따라 가상 3D 공간에서의 적절한 매핑 위치를 결정하고, 결정된 매핑 위치에 매핑된 가상 3D 공간 데이터를 생성할 수 있다. 일 예로, 전방 차량 추돌 방지 안내가 필요한 경우, 본 발명의 일 실시 예에 따른 매핑 위치 결정부(13-4)는 가상 3D 공간에서 전방 차량의 픽셀 영역을 검출하고, 검출된 픽셀 영역을 전방 차량 추돌 방지 안내를 위한 AR 안내 객체의 매핑 위치로 결정할 수 있다. 이에 따라, 증강 현실 영상의 전방 차량 표시 영역에 AR 안내 객체가 중첩되어 표시될 수 있다. 다른 예로, 횡단 보도 안내가 필요한 경우, 본 발명의 일 실시 예에 따른 매핑 위치 결정부(13-4)는 가상 3D 공간에서 횡단 보도의 픽셀 영역을 검출하고, 검출된 픽셀 영역을 횡단 보다 안내를 위한 AR 안내 객체의 매핑 위치로 결정할 수 있다. 이에 따라, 증강 현실 영상의 횡단 보도 표시 영역에 AR 안내 객체가 중첩되어 표시될 수 있다. 또 다른 예로, 차선 이탈 안내가 필요한 경우, 본 발명의 일 실시 예에 따른 매핑 위치 결정부(13-4)는 가상 3D 공간에서 차량의 좌우측 차선의 픽셀 영역을 검출하고, 검출된 픽셀 영역을 차선 이탈 안내를 위한 AR 안내 객체의 매핑 위치로 결정할 수 있다. 이에 따라, 증강 현실 영상의 차량의 좌우측 차선 영역에 AR 안내 객체가 중첩되어 표시될 수 있다.That is, the mapping position determining unit 13-4 according to the present invention determines an appropriate mapping position in the virtual 3D space according to the type of the guide object generated by the AR guide object generating unit 13-3, and the determined mapping position You can create virtual 3D spatial data mapped to. For example, when a front vehicle collision prevention guidance is required, the mapping position determining unit 13-4 according to an embodiment of the present invention detects a pixel region of the front vehicle in a virtual 3D space, and detects the detected pixel region in the front vehicle. It may be determined as a mapping location of the AR guide object for collision avoidance guidance. Accordingly, the AR guide object may be superimposed and displayed on the front vehicle display area of the augmented reality image. As another example, when crosswalk guidance is required, the mapping location determining unit 13-4 according to an embodiment of the present invention detects a pixel region of a crosswalk in a virtual 3D space and guides the detected pixel region rather than crossing. It can be determined as the mapping location of the AR guide object for. Accordingly, the AR guide object may be superimposed and displayed on the crosswalk display area of the augmented reality image. As another example, when lane departure guidance is required, the mapping position determining unit 13-4 according to an embodiment of the present invention detects the pixel areas of the left and right lanes of the vehicle in the virtual 3D space and lanes the detected pixel areas It may be determined as a mapping location of the AR guide object for departure guidance. Accordingly, the AR guide object may be superimposed and displayed on the left and right lane areas of the vehicle of the augmented reality image.

한편, 본 발명의 일 실시 예에 따른 AR 표출 영상 생성부(13)는 AR 안내 객체가 매핑된 가상 3D 공간을 카메라 행렬을 이용하여 2D 이미지로 변환하여 AR 표출 영상을 생성할 수 있다. 그리고, AR 표출 영상 생성부(13)는 AR 표출 영상을 주행 영상 생성부(12)에서 생성된 제2 주행 영상과 동일한 프레임 레이트로 생성할 수 있다. 즉, AR 표출 영상은 2D 이미지일 수 있고, 제2 프레임 레이트의 제2 주행 영상과 동일한 제2 프레임 레이트로 생성될 수 있다. Meanwhile, the AR expression image generation unit 13 according to an embodiment of the present invention may generate an AR expression image by converting a virtual 3D space to which an AR guide object is mapped into a 2D image using a camera matrix. In addition, the AR expression image generation unit 13 may generate the AR expression image at the same frame rate as the second driving image generated by the driving image generation unit 12. That is, the AR display image may be a 2D image and may be generated at the same second frame rate as the second driving image at the second frame rate.

한편, 도 3에서는 카메라 파라미터를 이용하여 3D 공간 데이터 생성, AR 안내 객체 매핑, 2D 이미지 생성을 통하여 AR 표출 영상을 결정하는 것을 예로 설명하였으나, 이에 한정되는 것은 아니다. 본 발명의 다른 실시 예에 따르면, AR 안내 객체를 포함하는 AR 표출 영상을 제2 프레임 레이트로 생성하는 단계는 제2 주행 영상을 분석하여 AR 안내 객체의 AR 표출 영상 내 위치를 결정하는 단계와 결정된 영상 내 위치에 AR 안내 객체를 위치시킨 AR 표출 영상을 생성하는 단계로 구성될 수도 있다. 일 예로, 전방 차량 추돌 방지 안내가 필요한 경우, 본 발명의 다른 실시 예에 따르면 주행 영상 생성부(12)에서 생성된 제2 주행 영상을 분석하여 전방 차량의 픽셀 영역을 검출하고, 검출된 픽셀 영역을 전방 차량 추돌 방지 안내를 위한 AR 안내 객체의 표출 위치로 결정할 수 있다. 그리고, AR 표출 영상 생성부(140)는 검출된 픽셀 영역에 전방 차량 추돌 방지 안내를 위한 AR 안내 객체를 위치시킨 AR 표출 영상을 생성할 수 있다. On the other hand, in FIG. 3, it has been described as an example of determining the AR display image through 3D spatial data generation, AR guide object mapping, and 2D image generation using camera parameters, but is not limited thereto. According to another embodiment of the present invention, the step of generating an AR expression image including the AR guidance object at a second frame rate is determined by determining a position in the AR expression image of the AR guidance object by analyzing the second driving image. It may be configured as a step of generating an AR expression image in which the AR guide object is positioned at a position in the image. For example, when a front vehicle collision prevention guidance is required, according to another embodiment of the present invention, the second driving image generated by the driving image generator 12 is analyzed to detect a pixel area of the front vehicle, and the detected pixel area It may be determined as the display position of the AR guide object for the front vehicle collision prevention guidance. In addition, the AR display image generation unit 140 may generate an AR display image in which an AR guide object for preventing a front vehicle collision collision is located in the detected pixel area.

한편, 영상 결합부(140)는 주행 영상 생성부(12)에서 생성된 제2 프레임 레이트의 제2 주행 영상과 AR 표출 영상 생성부(13)에서 생성된 제2 프레임 레이트의 AR 표출 영상을 동기화시켜 결합할 수 있다. 여기서, 동기화(synchronization)란 주행 영상을 구성하는 복수의 프레임들의 표출 시점과 AR 표출 영상을 구성하는 복수의 프레임들의 표출 시점을 일치시키는 것을 의미할 수 있다. 일 예로, 주행 영상 생성부(12)에서 생성된 제2 주행 영상과 AR 표출 영상 생성부(13)에서 생성된 AR 표출 영상의 프레임 레이트가 모두 15fps 인 경우, 영상 결합부(140)는 1초를 기준으로 제2 주행 영상을 구성하는 프레임 1, 프레임 2,.. 프레임 15의 표출 시점과 AR 표출 영상을 구성하는 프레임 1, 프레임 2,.. 프레임 15의 표출 시점을 일치시켜 결합할 수 있다. 즉, 영상 결합부(140)는 1초를 기준으로 제2 주행 영상의 프레임 1과 AR 표출 영상의 프레임 1을 결합하고, 제2 주행 영상의 프레임 N과 AR 표출 영상의 프레임 N을 결합하는 등 영상을 구성하는 프레임들의 표출 시점을 일치시켜 결합할 수 있다. Meanwhile, the image combining unit 140 synchronizes the second driving image at the second frame rate generated by the driving image generator 12 and the AR displayed image at the second frame rate generated by the AR expressed image generator 13. Can be combined. Here, synchronization may refer to coincidence of a display time of a plurality of frames constituting a driving image and a display time of a plurality of frames constituting an AR display image. For example, when the frame rates of the second driving image generated by the driving image generating unit 12 and the AR displaying image generated by the AR displaying image generating unit 13 are both 15 fps, the image combining unit 140 is 1 second. Frame 1, frame 2, .. frame 15 constituting the second driving image and the display time of frame 1, frame 2, .. frame 15 constituting the AR display image can be combined by matching. . That is, the image combining unit 140 combines frame 1 of the second driving image and frame 1 of the AR displayed image based on 1 second, and combines frame N of the second driving image and frame N of the AR displayed image. It can be combined by matching the presentation time of the frames constituting the image.

이러한 본 발명에 따르면, 실시간 주행 영상의 프레임 레이트를 유저의 시각에 동영상으로 인식될 수 있는 최소치와 프로세서의 성능 최대치 내의 프레임 레이트로 낮추고, 변경된 프레임 레이트의 주행 영상을 분석하여 AR 안내 객체를 포함하는 AR 표출 영상을 생성하며, 주행 영상의 프레임들과 AR 표출 영상의 프레임 레이트들의 표출 시점을 일치시킴으로써, 유저가 실제로 보고 있는 현실 세계를 담고 있는 실시간 주행 영상에서 AR 안내 객체가 정확한 위치에 표시되도록 할 수 있다. According to the present invention, a frame rate of a real-time driving image is reduced to a frame rate within a minimum value that can be recognized as a video at a user's time and a processor performance maximum value, and the driving image of the changed frame rate is analyzed to include an AR guide object. By generating the AR display image and matching the display timings of the frames of the driving image and the frame rates of the AR display image, the AR guide object is displayed at the correct position in the real-time driving image containing the real world that the user is actually viewing. Can.

이하에서는 이 후 도면을 참조하여 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 방법을 보다 구체적으로 설명하기로 한다. Hereinafter, an augmented reality image processing method according to an embodiment of the present invention will be described in detail with reference to the drawings.

도 5는 본 발명의 일 실시 예에 따른 주행 영상 생성부의 동작을 나타내는 도면 이다. 도 5를 참조하면, 주행 영상 생성부(12)는 영상 획득부(11)에서 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성할 수 있다. 이 경우, 주행 영생 생성부(12)는 제1 프레임 레이트와 제2 프레임 레이트 사이의 프레임 레이트 변환 비율을 기초로 프레임 레이트 선택 간격을 설정하고, 설정된 프레임 레이트 선택 간격에 따라 제1 프레임 레이트의 제1 주행 영상으로부터 일부 프레임을 선택하여 제2 프레임 레이트의 제2 주행 영상을 생성할 수 있다. 5 is a view showing the operation of the driving image generating unit according to an embodiment of the present invention. Referring to FIG. 5, the driving image generator 12 may process the first driving image acquired by the image obtaining unit 11 to generate a second driving image at a second frame rate. In this case, the driving eternal life generation unit 12 sets a frame rate selection interval based on the frame rate conversion ratio between the first frame rate and the second frame rate, and removes the first frame rate according to the set frame rate selection interval. A second driving image at a second frame rate may be generated by selecting some frames from one driving image.

일 예로, 도 5(a)와 같이, 영상 획득부(11)에서 획득된 제1 주행 영상의 제1 프레임 레이트가 4fps 인 경우, 1초의 제1 주행 영상은 프레임 #1, 프레임 #2, 프레임 #3 및 프레임 #4 로 구성될 수 있다. 이 상황에서 도 5(b)와 같이 제2 프레임 레이트가 2 fps 로 설정된 경우, 주행 영상 생성부(12)는 프레임 레이트 선택 간격을 2 프레임으로 설정하고, 영상 획득부(11)에서 획득된 프레임 #1, 프레임 #2, 프레임 #3 및 프레임 #4 중 선택 간격에 따라 프레임 #1 및 프레임 #3을 선택할 수 있다. For example, when the first frame rate of the first driving image obtained by the image acquisition unit 11 is 4 fps, as shown in FIG. 5(a), the first driving image of 1 second is frame #1, frame #2, frame It may be composed of #3 and frame #4. In this situation, when the second frame rate is set to 2 fps as shown in FIG. 5(b), the driving image generation unit 12 sets the frame rate selection interval to 2 frames, and the frames acquired by the image acquisition unit 11 Frame #1 and frame #3 can be selected according to the selection interval among #1, frame #2, frame #3, and frame #4.

다른 예로, 영상 획득부(11)에서 획득된 제1 주행 영상의 제1 프레임 레이트가 60fps 로 설정된 경우, 1초의 제1 주행 영상은 총 60개의 프레임으로 구성될 수 있다. 이 상황에서 제2 프레임 레이트가 15 fps 로 설정된 경우, 주행 영상 생성부(12)는 프레임 레이트 선택 간격을 4 프레임으로 설정하고, 영상 획득부(11)에서 획득된 총 60개의 프레임들 중 설정된 주기에 따라 프레임 #1, #5, #9, #13, #17, #21, #25, #29, #33, #37, #41, #45, #49, #53, #57를 선택할 수 있다. As another example, when the first frame rate of the first driving image obtained by the image acquisition unit 11 is set to 60 fps, the first driving image of 1 second may be composed of a total of 60 frames. In this situation, when the second frame rate is set to 15 fps, the driving image generation unit 12 sets the frame rate selection interval to 4 frames, and the set period among the total of 60 frames acquired by the image acquisition unit 11 According to the frame #1, #5, #9, #13, #17, #21, #25, #29, #33, #37, #41, #45, #49, #53, #57 can be selected have.

이러한 본 발명에 따르면, 프레임 레이트의 변경 과정에서 소정 간격을 주기로 프레임 일부를 선택하여 제2 주행 영상을 생성함으로써, 제2 주행 영상의 표출시특정 부분이 끊겨 표시되는 현상을 제거할 수 있다.According to the present invention, in the process of changing the frame rate, by selecting a part of the frame at regular intervals and generating a second driving image, a phenomenon in which a specific part is cut off and displayed when the second driving image is displayed can be eliminated.

도 6은 본 발명의 일 실시 예에 따른 AR 표출 영상 생성부의 동작을 나타내는 도면 이다. 먼저, 도 6을 참조하면, 본 발명의 일 실시 예에 따른 AR 안내 객체 생성부(13-3)는 영상 획득부(11)에서 획득된 제1 주행 영상의 프레임들을 분석에 이용하지 않고, 주행 영상 생성부(12)에서 제1 주행 영상의 프레임들 중 일부만을 선택하여 생성된 제2 주행 영상의 프레임들을 분석에 이용할 수 있다.6 is a view showing the operation of the AR expression image generation unit according to an embodiment of the present invention. First, referring to FIG. 6, the AR guide object generating unit 13-3 according to an embodiment of the present invention travels without using frames of the first driving image acquired by the image obtaining unit 11 for analysis Frames of the second driving image generated by selecting only some of the frames of the first driving image may be used in the image generation unit 12 for analysis.

구체적으로, 도 6(a)를 참조하면, AR 안내 객체 생성부(13-3)는 제2 주행 영상을 구성하는 프레임 #1을 분석하여 전방 차량과 제한속도 60km 표지판을 검출할 수 있다. 이 경우, AR 안내 객체 생성부(13-2)는 차량의 운전자에게 전방 차량 안내와 제한 속도 안내가 필요함을 판단하고, 이를 각각 안내하기 위한 전방 차량 안내를 위한 AR 안내 객체(1301)과 제한 속도 안내를 위한 AR 안내 객체(1302)를 생성할 수 있다. 그리고, 도 6(b)를 참조하면, AR 안내 객체 생성부(13-2)에서 생성된 전방 차량 안내를 위한 AR 안내 객체(1301)와 제한 속도 안내를 위한 AR 안내 객체(1302) 각각은 매핑 위치 결정부(13-4)의 동작에 따라 AR 표출 영상 프레임 #1의 소정 위치에 배치될 수 있다. 여기서, AR 표출 영상의 일 예는 투명 바탕에 운전자에게 운전 관련 안내를 제공하는 적어도 하나의 AR 안내 객체가 배치된 형태일 수 있다. 이에 따라, AR 표출 영상 생성부(13)는 제2 주행 영상의 프레임 #1을 분석하여 AR 표출 영상 프레임 #1을 생성할 수 있다. Specifically, referring to FIG. 6(a), the AR guide object generating unit 13-3 may analyze the frame #1 constituting the second driving image and detect a front vehicle and a 60 km speed limit sign. In this case, the AR guide object generating unit 13-2 determines that the driver of the vehicle needs to be guided by the front vehicle and the speed limit, and the AR guide object 1301 and the speed limit for guiding the front vehicle respectively to guide the vehicle. An AR guide object 1302 for guidance may be generated. And, referring to FIG. 6 (b), each of the AR guide object 1301 for front vehicle guidance and the AR guide object 1302 for speed limit guidance generated by the AR guide object generator 13-2 is mapped. According to the operation of the positioning unit 13-4, the AR display image frame #1 may be disposed at a predetermined position. Here, an example of the AR expression image may be a form in which at least one AR guide object providing driving-related guidance to the driver is disposed on a transparent background. Accordingly, the AR display image generation unit 13 may analyze the frame #1 of the second driving image to generate the AR display image frame #1.

한편, 도 6(c)를 참조하면, 시간적으로 프레임 #1 이후인 프레임 #3에서는 차량과 전방 차량 사이의 거리는 가까워지고 프레임 #1에 포함된 제한 속도 표지판은 사라지고 새롭게 횡단보도가 포함될 수 있다. 이 경우, AR 안내 객체 생성부(13-3)는 제2 주행 영상을 구성하는 프레임 #3을 분석하여 이전 대비 거리가 가까워진 전방 차량과 횡단보도를 검출할 수 있다. 이 경우, AR 안내 객체 생성부(13-2)는 차량의 운전자에게 전방 차량 안내와 횡단보도 안내가 필요함을 판단하고, 이를 각각 안내하기 위한 전방 차량 안내를 위한 AR 안내 객체(1304)과 횡단보도 안내를 위한 AR 안내 객체(1303)를 생성할 수 있다. 그리고, 도 6(d)를 참조하면, AR 안내 객체 생성부(13-2)에서 생성된 전방 차량 안내를 위한 AR 안내 객체(1304)와 횡단 보도 안내를 위한 AR 안내 객체(1303) 각각은 매핑 위치 결정부(13-4)의 동작에 따라 AR 표출 영상 프레임 #3의 소정 위치에 배치될 수 있다. 특히, 프레임 #3에서 전방 차량의 위치는 프레임 #1 대비 가까워졌기에, 매핑 위치 결정부(13-4)는 전방 차량 안내를 위한 AR 안내 객체(1304)의 표출 위치는 이전 대비 아래에 표출될 수 있다. 이에 따라, AR 표출 영상 생성부(13)는 제2 주행 영상의 프레임 #3을 이용하여 AR 표출 영상 프레임 #3을 생성할 수 있다.On the other hand, referring to FIG. 6(c), in time frame #3 after frame #1, the distance between the vehicle and the vehicle in front is close, and the speed limit sign included in frame #1 disappears and a pedestrian crossing may be newly included. In this case, the AR guide object generating unit 13-3 may analyze the frame #3 constituting the second driving image to detect a vehicle in front and a pedestrian crossing with a distance closer to the previous one. In this case, the AR guide object generating unit 13-2 determines that the driver of the vehicle needs front vehicle guidance and crosswalk guidance, and the AR guide object 1304 and the crosswalk for guidance of the front vehicle to guide them respectively. An AR guide object 1303 for guidance may be generated. And, referring to FIG. 6 (d), each of the AR guide object 1304 for front vehicle guidance and the AR guide object 1303 for crosswalk guidance generated by the AR guide object generator 13-2 is mapped. According to the operation of the positioning unit 13-4, the AR display image frame #3 may be disposed at a predetermined position. In particular, since the position of the front vehicle in frame #3 is close to that of frame #1, the mapping position determining unit 13-4 displays the position of the AR guide object 1304 for guiding the front vehicle below the previous contrast. Can. Accordingly, the AR expression image generation unit 13 may generate the AR expression image frame #3 using frame #3 of the second driving image.

도 7은 종래의 증강 현실 영상 처리 방법의 문제를 설명하기 위한 개념도 이다. 종래의 증강 현실 영상 처리 방법에 의하면 운전자가 실시간으로 보게 되는 실시간 주행 영상의 초당 프레임과 이미지 처리 프로세서를 이용한 초당 영상 처리 프레임이 다르기에, 이러한 불일치로 인하여 실시간 주행 영상에서 AR 안내 객체가 정확한 위치에 표출되지 못하는 문제점이 있었다. 7 is a conceptual diagram for explaining a problem in a conventional augmented reality image processing method. According to the conventional augmented reality image processing method, since the frame per second of the real-time driving image that the driver sees in real time is different from the image processing frame per second using the image processing processor, the AR guide object is located at the correct position in the real-time driving image due to this mismatch. There was a problem that could not be expressed.

즉, 종래의 방식에 의하면, 일 예로 60fps의 주행 영상을 입력받는 경우, 1초 기준으로 주행 영상의 총 60개의 프레임 모두에 대한 영상 분석을 통하여 AR 안내 객체의 표시 위치를 결정하고, 결정된 위치에 배치된 AR 안내 객체를 포함하는 AR 표출 영상을 생성하며, 생성된 AR 표출 영상과 주행 영상을 결합하여 화면에 표시하는 방식을 채용하였다. That is, according to the conventional method, when receiving a driving image of 60 fps as an example, the display position of the AR guide object is determined through image analysis on all 60 frames of the driving image on a per second basis, and the determined location is determined. A method of generating an AR expression image including the arranged AR guide object and combining the generated AR expression image and the driving image to display the screen is adopted.

다만, 이러한 종래의 방식에 따르면, 주행 영상에 AR 안내 객체가 정확한 위치에 표출되기 위해서는 AR 안내 객체를 표시하기 전에 실시간 주행 영상에 대한 분석을 완료하고 AR 안내 객체의 표시 위치를 정해야 한다. 다만, 종래의 방식에 의하면, 프로세서의 이미지 처리 성능에 따라 입력된 프레임 모두에 대한 분석이 AR 안내 객체의 표출 전에 완료되지 않는 문제점이 발생하였고, 이 경우, AR 안내 객체의 표시 위치를 변경하지 않고 이전 프레임에서 결정된 위치에 그대로 표시하는 방식을 채용하였다.However, according to this conventional method, in order to display the AR guide object on the driving image at the correct location, the analysis of the real-time driving image must be completed and the display position of the AR guide object must be determined before displaying the AR guide object. However, according to the conventional method, there is a problem in that analysis of all input frames is not completed before the display of the AR guide object according to the image processing performance of the processor. In this case, the display position of the AR guide object is not changed. The method of displaying as it is at the position determined in the previous frame was adopted.

일 예로, 도7과 같이, 실시간 주행 영상 내의 전방 차량이 차지하는 픽셀 영역에 전방 차량 추돌 방지 AR 안내 객체를 표시하도록 구현되는 경우, 종래의 방식에 의하면 주행 영상의 프레임 #1에 대한 분석을 통하여 AR 안내 객체의 표출 위치가 결정되는 등 분석이 AR 안내 객체의 표출 전에 완료되면 프레임 #1의 전방 차량 픽셀 영역에 전방 차량 추돌 방지 AR 안내 객체(1101)를 위치시켜 표시하였다. 다만, 이 후 입력된 프레임 #2에 대한 분석이 AR 안내 객체의 표출 전에 완료되지 않으면 AR 안내 객체(1102)의 표시 위치를 변경하지 않고 이전 프레임 #1에서 결정된 위치에 그대로 AR 안내 객체(1102)를 표시하였다. For example, as shown in FIG. 7, when implemented to display a front vehicle collision prevention AR guide object in a pixel area occupied by a front vehicle in a real-time driving image, according to a conventional method, AR through analysis of frame #1 of the driving image When the analysis is completed before the display of the AR guide object, such as determining the display position of the guide object, the front vehicle collision prevention AR guide object 1101 is positioned and displayed in the front vehicle pixel area of frame #1. However, if the analysis for the input frame #2 is not completed before the display of the AR guide object after this, without changing the display position of the AR guide object 1102, the AR guide object 1102 remains at the position determined in the previous frame #1. Was marked.

이 후 입력된 프레임 #3에 대한 분석을 통하여 AR 안내 객체의 표출 위치가 결정되는 등 분석이 AR 안내 객체의 표출 전에 완료되면 프레임 #3 의 전방 차량 픽셀 영역에 전방 차량 추돌 방지 AR 안내 객체(1103)를 위치시켜 표시하였다. 다만, 이 후 입력된 프레임 #4에 대한 분석이 AR 안내 객체의 표출 전에 완료되지 않으면 AR 안내 객체(1104)의 표시 위치를 변경하지 않고 이전 프레임 #3에서 결정된 위치에 그대로 AR 안내 객체(1104)를 표시하였다.Then, when the analysis is completed before the display of the AR guide object, such as the location where the AR guide object is displayed through the analysis of the input frame #3, the front vehicle pixel area of frame #3 prevents the front vehicle collision AR guide object 1103 ). However, if the analysis for the input frame #4 is not completed before the display of the AR guide object, the AR guide object 1104 remains at the position determined in the previous frame #3 without changing the display position of the AR guide object 1104. Was marked.

즉, 종래의 증강 현실영상 처리 방법에 의하면, 사용자가 실제로 보고 있는 현실 세계를 담고 있는 실시간 주행 영상에서 AR 안내 객체가 정확한 위치에 표출되지 못하는 문제점이 있었다. 특히, 증강 현실 내비게이션은 현실 세계를 담고 있는 실시간 주행 영상과 AR 안내 객체를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 것이기에 정보가 정확한 위치에 표출되는 것이 매우 중요한데, 종래의 방식에 의하면 이러한 목적을 달성하기 어려웠고 이로 인하여 운전자의 편의 및 안정성을 저해할 뿐만 아니라, 내비게이션에 대한 운전자의 신뢰 조차 떨어뜨리게 되는 문제점이 있었다. That is, according to the conventional augmented reality image processing method, there is a problem in that the AR guide object cannot be displayed at an accurate location in a real-time driving image containing the real world that the user is actually viewing. In particular, since augmented reality navigation is a combination of real-time driving images and AR guide objects that contain the real world so that it looks like objects existing in the original environment, it is very important that information is displayed at the correct location. It was difficult to achieve the purpose, and as a result, there was a problem that not only hindered the convenience and stability of the driver, but also dropped the driver's trust in navigation.

도 8은 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 방법을 설명하기 위한 개념도 이다. 도 8을 참조하면, 본 발명의 일 실시 예에 따른 주행 영상 생성부(12)는 제1 프레임 레이트와 제2 프레임 레이트 사이의 프레임 레이트 변환 비율을 기초로 프레임 레이트 선택 간격을 설정하고, 설정된 프레임 레이트 선택 간격에 따라 제1 프레임 레이트의 제1 주행 영상으로부터 일부 프레임을 선택하여 제2 프레임 레이트의 제2 주행 영상을 생성할 수 있다. 일 예로, 도 8과 같이, 영상 획득부(11)에서 획득된 제1 주행 영상의 제1 프레임 레이트가 4fps 이고 제2 프레임 레이트가 2 fps 로 설정된 경우, 주행 영상 생성부(12)는 프레임 레이트 선택 간격을 2 프레임으로 설정하고, 영상 획득부(11)에서 획득된 프레임 #1, 프레임 #2, 프레임 #3 및 프레임 #4 중 프레임 #1 및 프레임 #3을 선택할 수 있다. 그리고, 주행 영상 생성부(12)는 선택된 프레임 #1 및 프레임 #3으로 구성된 제2 주행 영상을 생성할 수 있다. 8 is a conceptual diagram illustrating an augmented reality image processing method according to an embodiment of the present invention. Referring to FIG. 8, the driving image generator 12 according to an embodiment of the present invention sets a frame rate selection interval based on a frame rate conversion ratio between a first frame rate and a second frame rate, and sets the set frame A second driving image at a second frame rate may be generated by selecting some frames from the first driving image at a first frame rate according to a rate selection interval. For example, as illustrated in FIG. 8, when the first frame rate of the first driving image acquired by the image acquisition unit 11 is 4 fps and the second frame rate is set to 2 fps, the driving image generation unit 12 may have a frame rate. The selection interval is set to 2 frames, and frame #1 and frame #3 among frame #1, frame #2, frame #3, and frame #4 acquired by the image acquisition unit 11 may be selected. Then, the driving image generator 12 may generate a second driving image composed of the selected frame #1 and frame #3.

이 경우, 본 발명의 일 실시 예에 따른 AR 표출 영상 생성부(13)는 주행 영상 생성부(12)에서 생성된 제2 주행 영상의 프레임 #1 및 프레임 #3 만을 영상 분석하고, 분석을 기초로 제2 주행 영상에 표시될 AR 안내 객체를 포함하는 AR 표출 영상을 제2 프레임 레이트로 생성할 수 있다. In this case, the AR expression image generation unit 13 according to an embodiment of the present invention analyzes only the frames #1 and #3 of the second driving image generated by the driving image generation unit 12, and based on the analysis Accordingly, an AR expression image including an AR guide object to be displayed on the second driving image may be generated at a second frame rate.

일 예로, 도 8과 같이, 실시간 주행 영상 내의 전방 차량이 차지하는 픽셀 영역에 전방 차량 추돌 방지 AR 안내 객체를 표시하도록 구현되는 경우, 본 발명에 의하면 주행 영상의 프레임 #1에 대한 분석을 통하여 AR 안내 객체의 표출 위치를 결정하고 프레임 #1의 전방 차량 픽셀 영역에 전방 차량 추돌 방지 AR 안내 객체(1201)를 위치시켜 표시할 수 있다. 이 후, 입력된 프레임 #3에 대해서도 동일한 영상 처리를 수행하여, 프레임 #3의 전방 차량 픽셀 영역에 전방 차량 추돌 방지 AR 안내 객체(1203)를 위치시켜 표시할 수 있다.For example, as shown in FIG. 8, when implemented to display an AR guidance object for preventing a front vehicle collision in a pixel area occupied by a front vehicle in a real-time driving image, according to the present invention, AR guidance is performed through analysis of frame #1 of the driving image The display position of the object may be determined, and the AR guide object 1201 in front of the vehicle collision prevention area 1201 may be displayed in the pixel area of the vehicle in front of frame #1. Subsequently, the same image processing may be performed on the input frame #3 to display the front vehicle collision prevention AR guide object 1203 in the pixel region of the front vehicle of frame #3.

다만, 프레임 #2 및 프레임 #4는 제1 주행 영상에는 포함되어 있으나 제2 주행 영상에는 포함되어 있지 않기에, 본 발명에 따른 AR 표출 영상 생성부(13)는 프레임 #2 및 프레임 #4에 대해서는 별도의 영상 분석을 수행하지 않는다. However, since frame #2 and frame #4 are included in the first driving image but not in the second driving image, the AR expression image generating unit 13 according to the present invention is in frame #2 and frame #4. No separate image analysis is performed.

이러한 본 발명에 따르면, 실시간 주행 영상의 제1 프레임 레이트를 프로세서의 성능 최대치 내의 프레임 레이트인 제2 프레임 레이트로 변경한 후 분석하여 AR 안내 객체를 포함하는 AR 표출 영상을 생성하기에, 프로세서의 성능에 관계없이 유저가 실제로 보고 있는 현실 세계를 담고 있는 실시간 주행 영상에서 AR 안내 객체가 정확한 위치에 표출되지 못하는 문제점을 해결할 수 있다. According to the present invention, the performance of the processor is generated by changing the first frame rate of the real-time driving image to the second frame rate, which is the frame rate within the maximum performance of the processor, and analyzing it to generate an AR-expressing image including the AR guide object. Regardless of the real-time driving image containing the real world that the user is actually viewing, it is possible to solve the problem that the AR guide object is not displayed at the correct location.

또한, 변경된 제2 프레임 레이트는 유저의 시각에 동영상으로 인식될 수 있는 최소치 이상이기에, 운전자가 실제로 보고 있는 현실 세계를 담고 있는 주행 영상을 동영상으로 보여지게 하면서 동시에 주행 영상에서 AR 객체를 정확한 위치에 표시함으로써, 운전자에게 정확한 증강 현실 내비게이션 서비스를 제공할 수 있다. In addition, since the changed second frame rate is more than the minimum value that can be recognized as a video at the user's perspective, the driving object containing the real world that the driver is actually viewing is shown as a video, and at the same time, the AR object is accurately positioned in the driving video. By displaying, it is possible to provide an accurate augmented reality navigation service to the driver.

한편, 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 장치(10)는 차량의 주행 중에 촬영된 실시간 주행 영상의 흔들림을 보정하여 흔들림 없는 주행 영상을 제공함과 동시에 정확한 위치에 AR 안내 객체를 표출할 수 있다. 이를 위하여, 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 장치(10)는 흔들림 데이터 산출부(15) 및 크롭 영상 생성부(16)를 더 포함할 수 있다. On the other hand, the augmented reality image processing apparatus 10 according to an embodiment of the present invention compensates for the shaking of the real-time driving image captured while driving the vehicle, provides a moving image without shaking, and simultaneously displays the AR guide object at the correct location. Can. To this end, the augmented reality image processing apparatus 10 according to an embodiment of the present invention may further include a shake data calculator 15 and a crop image generator 16.

구체적으로, 차량의 주행 중에 촬영된 주행 영상은 촬영 장치의 흔들림 등의 영향으로 유저가 원하는 영상이 출력되지 않을 수 있다. 일 예로, 촬영 장치에 흔들림이 없는 경우 촬영된 주행 영상은 도 9(A)와 같을 수 있다. 다만, 촬영 장치에 위 방향으로 수직 흔들림이 발생하는 경우, 촬영된 주행 영상은 도 9(B)와 같을 수 있고, 촬영 장치에 아래 방향으로 수직 흔들림이 발생하는 경우, 촬영된 주행 영상은 도 9(C)와 같을 수 있으며, 촬영 장치에 좌측 방향으로 수평 흔들림이 발생하는 경우, 촬영된 주행 영상은 도 9(D)와 같을 수 있고, 촬영 장치에 우측 방향으로 수평 흔들림이 발생하는 경우, 촬영된 주행 영상은 도 9(E)와 같을 수 있다. Specifically, a driving image photographed while driving the vehicle may not output an image desired by the user due to the shaking of the photographing device. For example, when there is no shaking in the photographing device, the photographed driving image may be the same as in FIG. 9(A). However, when vertical shaking occurs in the photographing device in the upward direction, the photographed driving image may be as shown in FIG. 9(B), and when vertical shaking occurs in the photographing device in the downward direction, the photographed driving image is illustrated in FIG. 9. (C), and when the horizontal shaking occurs in the left direction on the photographing device, the photographed driving image may be as shown in FIG. 9(D), and when the horizontal shaking occurs in the right direction on the photographing device, photographing The rendered driving image may be as shown in FIG. 9(E).

이와 같이, 차량의 주행 중에 촬영된 주행 영상은 촬영 장치의 흔들림 등의 영향으로 유저가 원하는 영상이 출력되지 않을 수 있다. 이 경우, 증강 현실 내비게이션에서는 실시간 주행 영상에서 AR 안내 객체가 부정확한 위치에 표시되는 등 사용자가 원하는 화면이 출력되지 않는다는 문제점이 있었다. In this way, the driving image photographed while the vehicle is running may not output the image desired by the user due to the shaking of the photographing device. In this case, in augmented reality navigation, there is a problem in that a screen desired by a user is not output, such as an AR guide object displayed in an incorrect location in a real-time driving image.

이러한 문제점을 해결하기 위하여, 본 발명의 일 실시 예에 따른 흔들림 데이터 산출부(15)는 제2 주행 영상으로부터 특징점을 추출하고, 추출된 특징점의 위치 변화값을 산출할 수 있다. 그리고, 흔들림 데이터 산출부(15)는 산출된 위치 변화값을 기초로 상기 제2 주행 영상의 흔들림 크기 및 방향을 나타내는 흔들림 데이터를 산출할 수 있다. To solve this problem, the shake data calculator 15 according to an embodiment of the present invention may extract a feature point from the second driving image and calculate a position change value of the extracted feature point. Then, the shake data calculator 15 may calculate shake data indicating the shake size and direction of the second driving image based on the calculated position change value.

구체적으로, 흔들림 데이터 산출부(15)는 제2 주행 영상으로부터 복수 개의 특징점(Feature Point)들을 추출하는 특징점 추출부(미도시)를 포함할 수 있다. 여기서, 특징점 추출부에 의하여 추출되는 복수 개의 특징점들은 제2 주행 영상에서 영상 밝기 값이 급변하는 점으로, 화소 경계(Edge of Pixel) 또는 코너 점(Corner Point)이 될 수 있다. 그리고, 흔들림 데이터 산출부(15)는 추출된 특징점들의 위치 변화값을 산출하는 특징점 변화 데이터 산출부(미도시)를 더 포함할 수 있다. 이러한 특징점 추출부 및 특징점 변화 데이터 산출부에 대해서는 도 10을 참조하여 보다 구체적으로 설명하기로 한다.Specifically, the shake data calculator 15 may include a feature point extractor (not shown) that extracts a plurality of feature points from the second driving image. Here, the plurality of feature points extracted by the feature point extraction unit is a point in which the image brightness value changes rapidly in the second driving image, and may be an edge of pixel or a corner point. In addition, the shake data calculator 15 may further include a feature point change data calculator (not shown) that calculates a position change value of the extracted feature points. The feature point extraction unit and the feature point change data calculation unit will be described in more detail with reference to FIG. 10.

도 10은 본 발명의 일 실시 예에 따른 특징점의 추출 및 특징점의 위치 변화값 산출 과정을 나타내는 개념도 이다. 도 10(a)를 참조하면, 특징점 추출부의 특징점 추출은 영상에서 특징되는 점들을 추출하는 것으로, 일 예로 영상에서 화소 경계(Edge of Pixel) 또는 코너 점(Corner Point) 등의 영상 밝기 값이 급변하는 포인트가 특징점들(예를 들어, 도 10(a)의 차량 경계에 표시된 점들)에 해당될 수 있다. 여기서, 특징점 추출부는 영상에서 특징점들을 추출하기 위한 알고리즘으로는 Harris 방식, SIFT(Scale Invariant Feature Transform) 방식, ORB(oriented fast and rotated brief) 방식, FAST(Features from Accelerated Segment Test) 방식, Lucas-Kanade 방식 등을 이용할 수 있다.10 is a conceptual diagram illustrating a process of extracting a feature point and calculating a position change value of the feature point according to an embodiment of the present invention. Referring to FIG. 10(a), the feature point extraction unit extracts feature points from an image, and for example, an image brightness value such as an edge of pixel or a corner point in an image changes rapidly. The point to be may correspond to feature points (for example, points displayed on the vehicle boundary of FIG. 10(a)). Here, the feature point extraction unit includes algorithms for extracting feature points from an image, such as Harris method, Scale Invariant Feature Transform (SIFT) method, oriented fast and rotated brief (ORB) method, FAST (Features from Accelerated Segment Test) method, Lucas-Kanade Method or the like.

그리고, 도 10(b)를 참조하면, 특징점 변화 데이터 산출부는 제2 주행 영상을 구성하는 복수의 프레임들 각각에서 특징점들의 위치를 비교하여 특징점들의 위치 변화값을 산출할 수 있다. 일 예로, 특징점 변화 데이터 산출부는 이전 프레임에서 추출된 특징점들과 이후 프레임에서 추출된 특징점들의 위치를 비교하여 특징점들의 위치 변화값을 산출할 수 있다. 여기서, 위치 변화값을 특징점들의 위치 변화 방향과 위치 변화 크기를 포함하는 위치 벡터값으로 구현될 수 있다. Then, referring to FIG. 10( b), the feature point change data calculator may calculate a position change value of the feature points by comparing the location of the feature points in each of the plurality of frames constituting the second driving image. For example, the feature point change data calculator may calculate a position change value of the feature points by comparing the locations of the feature points extracted in the previous frame and the feature points extracted in the subsequent frame. Here, the position change value may be embodied as a position vector value including the position change direction and the position change size of the feature points.

한편, 크롭 영상 생성부(16)는 제2 주행 영상에서 일부를 잘라낼 크롭(crop) 영역을 결정하고, 제2 주행 영상을 결정된 크롭 영역에서 잘라낸 크롭 영상을 생성할 수 있다. 여기서, 크롭 영역은 흔들림 데이터 산출부(15)에서 산출된 흔들림 데이터를 기초로 결정될 수 있다. Meanwhile, the crop image generation unit 16 may determine a crop region to cut a portion of the second driving image, and generate a crop image cut from the determined second crop image. Here, the crop area may be determined based on the shake data calculated by the shake data calculator 15.

한편, 표시부(17)는 크롭 영상의 크기를 제2 주행 영상의 크기로 확대한 제3 주행 영상을 생성하고, 제2 프레임 레이트의 제3 주행 영상과 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시할 수 있다. 이러한 흔들림 보정 과정에 대해서는 도 11 내지 12를 참조하여 보다 구체적으로 설명하기로 한다. Meanwhile, the display unit 17 generates a third driving image in which the size of the cropped image is enlarged to the size of the second driving image, and is used to combine the third driving image at the second frame rate and the AR display image at the second frame rate. Accordingly, the generated augmented reality image may be displayed. The shake correction process will be described in more detail with reference to FIGS. 11 to 12.

도 11 내지 12는 흔들림이 발생 유무에 따른 크롭 영상 생성 과정을 나타내는 도면 이다. 도 11 내지 12를 참조하면, 크롭 영상 생성부(16)는 도 11(A), 도 12(A)와 같은 제2 주행 영상에 도 11(B), 도 12(B)와 같이 크롭 영역을 설정할 수 있고, 도 11(C), 도 12(C)와 같이 크롭 영상의 크기를 제2 주행 영상의 크기로 확대한 제3 주행 영상을 생성할 수 있다. 즉, 크롭 영상 생성부(16)는 제2 주행 영상 사용시 전체 영상을 사용하지 않고 크롭 영역을 설정하여 사용할 수 있다. 11 to 12 are views showing a crop image generation process according to whether or not shaking occurs. Referring to FIGS. 11 to 12, the crop image generation unit 16 displays a crop region as shown in FIGS. 11(B) and 12(B) on the second driving images as shown in FIGS. 11(A) and 12(A). It can be set, and as shown in FIGS. 11(C) and 12(C), a third driving image in which the size of the crop image is enlarged to the size of the second driving image can be generated. That is, when the second driving image is used, the crop image generation unit 16 may set and use the crop region without using the entire image.

일 예로, 1920 X 1080 해상도의 제2 주행 영상(도 11(A)와 도 12(A)) 중 1728 X 972만을 크롭한 후 확대하여 제3 주행 영상(도 11(C)와 도 12(C))을 생성할 수 있다. 여기서, 크롭 영역은 흔들림 데이터 산출부(15)에서 산출된 흔들림 데이터를 기초로 결정될 수 있다. For example, after cropping only 1728 X 972 among the second driving images (FIGS. 11(A) and 12(A)) of 1920 X 1080 resolution, the third driving images (FIGS. 11(C) and 12(C) are enlarged. )). Here, the crop area may be determined based on the shake data calculated by the shake data calculator 15.

일 예로, 도 11(B)와 같이, 흔들림이 발생하지 않아 흔들림 데이터 산출부(15)에서 산출된 흔들림 데이터가 0인 경우, 크롭 영상 생성부(16)는 영상의 중심을 중심점으로 하는 소정 크기의 크롭 영역(16-1)을 설정할 수 있다. For example, as shown in FIG. 11(B), when the shaking data calculated by the shaking data calculating unit 15 is 0 because no shaking occurs, the crop image generating unit 16 has a predetermined size centering on the center of the image. The crop area 16-1 can be set.

다른 예로, 도 12(B)과 같이 흔들림이 발생하여 흔들림 데이터 산출부(15)에서 산출된 흔들림 데이터가 상부로 100 픽셀인 경우, 크롭 영상 생성부(160)는 영상의 중심으로부터 아래로 100 픽셀 이동한 지점을 중심점으로 하는 소정 크기의 크롭 영역(16-2)을 설정할 수 있다.As another example, as shown in FIG. 12(B), when the shake data calculated by the shake data calculator 15 is 100 pixels at the top, the crop image generator 160 is 100 pixels down from the center of the image. It is possible to set the crop region 16-2 of a predetermined size with the moved point as the center point.

즉, 크롭 영역은 특징점 추출을 통해 획득된 흔들림 데이터의 반대 방향(즉, 카메라가 흔들리는 방향의 반대 방향)으로 설정될 수 있다. That is, the crop region may be set in the opposite direction of the shake data obtained through feature point extraction (ie, the opposite direction of the camera shake direction).

한편, 크롭 영상 생성부(16)는 흔들림 데이터의 반대 방향으로 크롭 영역을 변경한 후 1728 X 972 만큼 크롭한 후 다시 확대하여 제3 주행 영상(도 11(C), 도 12(C))을 생성할 수 있다. On the other hand, the cropped image generating unit 16 changes the cropping area in the opposite direction of the shake data, crops by 1728 X 972, and enlarges it again to obtain the third driving image (FIGS. 11(C) and 12(C)). Can be created.

이러한 본원 발명에 따르면, 카메라가 흔들려 정확한 영상이 촬영되지 않더라도 사용자에게는 흔들리지 않는 듯한 영상으로 보여줄 수 있다.According to the present invention, even if the camera is shaken and an accurate image is not captured, it can be shown to the user as an image that does not seem to shake.

한편, 표시부(17)는 제2 프레임 레이트의 제3 주행 영상과 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시할 수 있다. 이러한 본원 발명에 따르면, 흔들림에 따른 영향을 상쇄시킨 크롭 영상을 기초로 제3 주행 영상을 생성하고, 제3 주행 영상과 AR 표출 영상을 동기화시켜 결합함으로써, 영상 간의 정합 오류를 해소하여 AR 안내 객체가 정확한 위치에 표출되도록 할 수 있다. Meanwhile, the display unit 17 may display the augmented reality image generated according to the combination of the third driving image at the second frame rate and the AR display image at the second frame rate. According to the present invention, a third driving image is generated based on a cropped image that compensates for the effects of shaking, and the third driving image and the AR display image are synchronized and combined to solve a matching error between the images to solve the AR guide object Can be displayed at the correct location.

다만, 이는 본 발명의 일 실시 예일 뿐, 본 발명의 다른 실시 예에 따르면, 증강 현실 영상 처리 장치(10)는 하드웨어를 통한 스태빌라이저(Stabilizer) 방식으로 영상 흔들림 보정을 하여 정합 오류를 최소화할 수 있다. 일 예로, 증강 현실 영상 처리 장치(10)는 3축센서를 추가적으로 더 포함할 수 있으며, 3축센서를 기초로 카메라 위치를 실시간 이동되도록 제어하여 영상 흔들림 보정을 하여 정합 오류를 최소화할 수도 있다.However, this is only an embodiment of the present invention, and according to another embodiment of the present invention, the augmented reality image processing apparatus 10 may minimize image matching errors by performing image stabilization by a stabilizer method through hardware. . As an example, the augmented reality image processing apparatus 10 may further include a 3-axis sensor, and may control a camera position to be moved in real time based on the 3-axis sensor to correct image shake to minimize matching errors.

한편, 위는 예시는 본 발명의 일 실시 예일 뿐, 본 발명의 다른 실시 예에 따르면, 흔들림 데이터 산출부(15)에서 산출된 흔들림 데이터를 이용하여 AR 안내 객체의 AR 표출 영상 내 위치를 보정함으로써, 증강 현실 영상에서 AR 안내 객체가 정확한 위치에 표출되도록 할 수 있다. 구체적으로, AR 표출 영상 생성부(13)는 흔들림 데이터 산출부(15)에서 산출된 흔들림 데이터를 이용하여 AR 안내 객체의 AR 표출 영상 내 위치를 보정할 수 있다. 일 예로, 흔들림 데이터 산출부(15)에서 산출된 흔들림 데이터에 의하면 제2 주행 영상의 프레임이 이전 프레임 대비 우측으로 100 픽셀 이동한 상태에서 AR 표출 영상 생성부(13)에서 흔들림 데이터의 반영없이 AR 안내 객체의 AR 표출 영상 내 위치를 결정하게 된다면, 증강 현실 영상에서 AR 안내 객체는 흔들림의 영향으로 정확한 위치에 표시되지 않을 수 있다. 이에 따라, 본 발명의 AR 표출 영상 생성부(13)는 흔들림 데이터 산출부(15)에서 산출된 흔들림 데이터를 반영하여 AR 표출 영상 내에서 AR 안내 객체의 위치를 우측으로 100 픽셀 이동시키는 보정을 수행할 수 있다. 이 경우, 증강 현실 영상에서 AR 안내 객체는 흔들림의 영향이 반영되어 정확한 위치에 표시될 수 있다.On the other hand, the above example is only one embodiment of the present invention, according to another embodiment of the present invention, by using the shake data calculated by the shake data calculation unit 15 by correcting the position in the AR display image of the AR guide object , In an augmented reality image, an AR guide object may be displayed at an accurate location. Specifically, the AR display image generation unit 13 may correct the position in the AR display image of the AR guide object using the shake data calculated by the shake data calculation unit 15. For example, according to the shaking data calculated by the shaking data calculating unit 15, the AR display image generating unit 13 does not reflect the shaking data in the state where the frame of the second driving image moves 100 pixels to the right of the previous frame. If the location of the guide object in the AR display image is determined, the AR guide object in the augmented reality image may not be displayed at the correct location due to the influence of shaking. Accordingly, the AR expression image generating unit 13 of the present invention performs correction to move the position of the AR guide object 100 pixels to the right in the AR expression image by reflecting the shaking data calculated by the shaking data calculation unit 15. can do. In this case, the AR guide object in the augmented reality image may be displayed at an accurate location by reflecting the influence of the shaking.

즉, 표시부(17)는 제2 프레임 레이트의 제2 주행 영상과 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는데, 촬영 장치의 흔들림의 영향으로 제2 주행 영상에 흔들림이 발생하더라도, 흔들림 데이터 산출부(15)에서 산출된 흔들림 데이터를 이용하여 AR 안내 객체의 AR 표출 영상 내 위치를 보정함으로써, 증강 현실 영상에서 AR 안내 객체는 흔들림의 영향이 반영되어 정확한 위치에 표시될 수 있다. That is, the display unit 17 displays the augmented reality image generated according to the combination of the second driving image at the second frame rate and the AR displayed image at the second frame rate, and is displayed on the second driving image due to the shaking of the photographing device. Even if shaking occurs, by using the shaking data calculated by the shaking data calculating unit 15 to correct the position of the AR guide object in the AR display image, the AR guidance object in the augmented reality image reflects the effect of the shaking, so that Can be displayed.

이하에서는 도 13 내지 14를 참조하여, 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 방법을 보다 구체적으로 설명하기로 한다. Hereinafter, an augmented reality image processing method according to an embodiment of the present invention will be described in more detail with reference to FIGS. 13 to 14.

도 13은 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 방법을 나타낸 흐름도이다. 도 13을 참조하면, 먼저 이동체의 주행 중에 촬영된 제1 프레임 레이트의 제1 주행 영상을 획득할 수 있다(S110). 13 is a flowchart illustrating an augmented reality image processing method according to an embodiment of the present invention. Referring to FIG. 13, first, a first driving image of a first frame rate photographed while driving the mobile body may be obtained (S110 ).

그리고, 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성할 수 있다(S120). 여기서, 제2 프레임 레이트는 제1 프레임 레이트 보다 작을 수 있다. 일 예로, 제2 프레임 레이트는 유저의 시각에 동영상으로 인식될 수 있는 최소치인 15fps 이상이고 최대치는 프로세서의 성능에 따라 가변적으로 결정될 수 있다. 구체적으로, AR 안내 객체들의 주행 영상을 처리하는 프로세서가 고성능인 경우 제2 프레임 레이트는 높일 수 있으며, 프로세서가 저성능인 경우 제2 프레임 레이트를 낮출 수 있다. 이와 같이, 프로세서의 성능에 따라 제2 프레임 레이트를 가변시킴으로써 시스템 리소스를 효율적으로 이용할 수 있다. 이와 같이, 프로세서의 성능에 따라 프레임을 제한함으로써, 시스템의 리소스를 효율적으로 이용할 수 있다.Then, a second driving image at a second frame rate may be generated by processing the obtained first driving image (S120). Here, the second frame rate may be smaller than the first frame rate. For example, the second frame rate is 15 fps or more, which is a minimum value that can be recognized as a video at a user's time, and the maximum value can be variably determined according to the performance of the processor. Specifically, the second frame rate may be increased when the processor processing the driving images of the AR guide objects is high-performance, and the second frame rate may be lowered when the processor is low-performance. In this way, system resources can be efficiently used by varying the second frame rate according to the performance of the processor. In this way, by limiting the frame according to the performance of the processor, it is possible to efficiently use the resources of the system.

또한, 제2 프레임 레이트는 AR 안내 객체의 속성 정보에 따라 가변적으로 결정될 수도 있다. 또한, 제2 프레임 레이트는 제2 주행 영상에 포함된 분석 대상의 속성 정보에 따라 가변적으로 결정될 수도 있다. Also, the second frame rate may be variably determined according to attribute information of the AR guide object. Also, the second frame rate may be variably determined according to attribute information of an analysis target included in the second driving image.

한편, 증강 현실 영상 처리 방법에 따르면, 제2 주행 영상을 분석하여 제2 주행 영상에 표시될 AR(Augmented Reality) 안내 객체를 포함하는 AR 표출 영상을 상기 제2 프레임 레이트로 생성할 수 있다(S130). 구체적으로 AR 안내 객체를 포함하는 AR 표출 영상을 제2 프레임 레이트로 생성하는 단계는(S130)는 제2 주행 영상을 분석하여 AR 안내 객체의 AR 표출 영상 내 위치를 결정하는 단계 및 결정된 영상 내 위치에 AR 안내 객체를 위치시킨 AR 표출 영상을 생성하는 단계를 포함할 수 있다. 일 예로, AR 표출 영상은 투명 바탕에 운전자에게 운전 관련 안내를 제공하는 적어도 하나의 AR 안내 객체가 배치된 형태일 수 있다. 그리고, AR 표출 영상에서 AR 안내 객체의 배치 위치는 AR 안내 객체의 종류에 따라 달라질 수 있다. 그리고, AR 표출 영상은 제2 주행 영상과 정합되도록, AR 표출 영상과 제2 주행 영상은 이미지 크기가 동일하게 구현될 수 있다. On the other hand, according to the augmented reality image processing method, the second driving image may be analyzed to generate an AR expressed image including an Augmented Reality (AR) guide object to be displayed on the second driving image at the second frame rate (S130) ). Specifically, generating an AR expression image including the AR guidance object at a second frame rate (S130) includes analyzing a second driving image to determine a location within the AR expression image of the AR guidance object and a determined location within the image. And generating an AR expression image in which the AR guide object is positioned. For example, the AR expression image may be in the form of at least one AR guidance object that provides driving guidance to the driver on a transparent background. In addition, the arrangement position of the AR guide object in the AR display image may vary according to the type of the AR guide object. In addition, the AR display image and the second driving image may have the same image size so that the AR display image matches the second driving image.

한편, 증강 현실 영상 처리 방법에 따르면, 생성된 제2 주행 영상과 AR 표출 영상을 동기화시켜 결합할 수 있다(S140). 여기서, 동기화(synchronization)란 주행 영상을 구성하는 복수의 프레임들의 표출 시점과 AR 표출 영상을 구성하는 복수의 프레임들의 표출 시점을 일치시키는 것을 의미할 수 있다. 이에 따라, AR 표출 영상에서 AR 안내 객체가 배치되지 않은 투명 영역과 제2 주행 영상이 중첩되면 중첩 영역에는 제2 주행 영상만이 표시되게 되고, AR 표출 영상에서 AR 안내 객체가 배치되는 영역과 제2 주행 영상이 중첩되면 중첩 영역에는 AR 안내 객체가 표시될 수 있다.Meanwhile, according to the augmented reality image processing method, the generated second driving image and the AR display image may be synchronized and combined (S140). Here, synchronization may refer to coincidence of a display time of a plurality of frames constituting a driving image and a display time of a plurality of frames constituting an AR display image. Accordingly, when the second driving image is overlapped with the transparent area in which the AR guide object is not disposed in the AR display image, only the second driving image is displayed in the overlapping region, and the area and the AR region in which the AR guide object is placed in the AR display image are displayed. 2 When the driving image overlaps, the AR guide object may be displayed in the overlapping region.

이러한 본 발명에 따르면, 실시간 주행 영상의 프레임 레이트를 유저의 시각에 동영상으로 인식될 수 있는 최소치와 프로세서의 성능 최대치 내의 프레임 레이트로 낮추고, 변경된 프레임 레이트의 주행 영상을 분석하여 AR 안내 객체를 포함하는 AR 표출 영상을 생성하며, 주행 영상과 AR 표출 영상들의 프레임 레이트를 일치시킴으로써, 유저가 실제로 보고 있는 현실 세계를 담고 있는 실시간 주행 영상에서 AR 안내 객체가 정확한 위치에 표시되도록 할 수 있다. According to the present invention, a frame rate of a real-time driving image is reduced to a frame rate within a minimum value that can be recognized as a video at a user's time and a processor performance maximum value, and the driving image of the changed frame rate is analyzed to include an AR guide object. By generating the AR display image and matching the frame rates of the driving image and the AR display images, it is possible to display the AR guide object at the correct location in the real-time driving image containing the real world that the user is actually viewing.

도 14는 본 발명의 다른 실시 예에 따른 증강 현실 영상 처리 방법을 나타내는 흐름도이다. 도 14를 참조하면, 먼저 이동체의 주행 중에 촬영된 제1 프레임 레이트의 제1 주행 영상을 획득할 수 있다(S210). 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성할 수 있다(S220). 14 is a flowchart illustrating an augmented reality image processing method according to another embodiment of the present invention. Referring to FIG. 14, first, a first driving image at a first frame rate photographed while driving the mobile body may be obtained (S210 ). A second driving image at a second frame rate may be generated by processing the acquired first driving image (S220).

그리고, 제2 주행 영상에서 일부를 잘라낼 크롭 영역을 결정하고(S230), 제2 주행 영상을 결정된 크롭 영역에서 잘라낸 크롭 영상을 생성할 수 있다(S240). 여기서, 크롭 영역은 흔들림 데이터 산출부(15)에서 산출된 흔들림 데이터를 기초로 결정될 수 있다. 즉, 크롭 영역은 특징점 추출을 통해 획득된 흔들림 데이터의 반대 방향(즉, 카메라가 흔들리는 방향의 반대 방향)으로 결정될 수 있다. Then, a crop region to cut a portion of the second driving image may be determined (S230 ), and a cropped image cut from the determined crop region may be generated (S240 ). Here, the crop area may be determined based on the shake data calculated by the shake data calculator 15. That is, the crop region may be determined in the opposite direction of the shake data obtained through feature point extraction (ie, the opposite direction of the camera shake direction).

한편, 본 발명의 증강 현실 영상 처리 방법에 따르면, 크롭 영상의 크기를 제2 주행 영상의 크기로 확대하여 제2 프레임 레이트의 제3 주행 영상을 생성하고(S250), 제3 주행 영상을 분석하여 제3 주행 영상에 표시될 AR(Augmented Reality) 안내 객체를 포함하는 AR 표출 영상을 상기 제2 프레임 레이트로 생성할 수 있다(S260).On the other hand, according to the augmented reality image processing method of the present invention, by expanding the size of the cropped image to the size of the second driving image to generate a third driving image at a second frame rate (S250), and analyze the third driving image An AR expression image including an AR (Augmented Reality) guide object to be displayed on the third driving image may be generated at the second frame rate (S260).

그리고, 제2 프레임 레이트의 제3 주행 영상과 제2 프레임 레이트의 AR 표출 영상을 동기화시켜 결합할 수 있다(S270). 이러한 본 발명에 따르면, 흔들림에 따른 영향을 상쇄시킨 크롭 영상을 기초로 제3 주행 영상을 생성하고, 제3 주행 영상과 AR 표출 영상을 동기화시켜 결합함으로써, 영상 간의 정합 오류를 해소하여 AR 안내 객체가 정확한 위치에 표출되도록 할 수 있다.Then, the third driving image at the second frame rate and the AR display image at the second frame rate may be synchronized and combined (S270). According to the present invention, a third driving image is generated based on a cropped image that compensates for the effects of shaking, and the third driving image and the AR display image are synchronized and combined to solve the matching error between the images to solve the AR guide object Can be displayed at the correct location.

상술한 증강 현실 영상 처리 방법을 통해서, 증강 현실 영상 처리 장치(10)는 실시간 영상에서도 증강 현실 객체가 정확한 위치에 표출되도록 하여, 운전자에게 정확한 증강 현실 내비게이션을 제공할 수 있다. 또한, 증강 현실 영상 처리 장치(10)는 흔들리는 실시간 영상에서 증강 현실 객체가 정확한 위치에 표출되도록 하여, 운전자에게 정확한 증강 현실 내비게이션을 제공할 수 있다.Through the augmented reality image processing method described above, the augmented reality image processing apparatus 10 may provide an augmented reality navigation to a driver by allowing the augmented reality object to be displayed at an accurate location even in a real-time image. In addition, the augmented reality image processing apparatus 10 may provide an augmented reality navigation to a driver by allowing the augmented reality object to be displayed at an accurate location in a shaking real-time image.

한편, 이러한 증강 현실 영상 처리 장치(10)는 운전자의 운전을 보조하기 위한 각종 안내 정보를 출력하는 전자 장치 또는 자율 주행을 위한 시스템의 일 모듈로 구현되어 경로 안내 기능을 수행할 수 있다. 이에 대해서는 도 15를 참조하여 보다 구체적으로 설명하기로 한다.Meanwhile, the augmented reality image processing apparatus 10 may be implemented as a module of an electronic device that outputs various guide information for assisting a driver's driving or a system for autonomous driving, and performs a route guidance function. This will be described in more detail with reference to FIG. 15.

도 15는 본 발명의 일 실시 예에 따른 전자 장치를 나타내는 블록도이다. 도 15를 참조하면, 전자 장치(100)는 저장부(110), 입력부(120), 출력부(130), 증강 현실 제공부(160), 제어부(170), 통신부(180), 센싱부(190), 전원부(195)의 전부 또는 일부를 포함한다.15 is a block diagram illustrating an electronic device according to an embodiment of the present invention. 15, the electronic device 100 includes a storage unit 110, an input unit 120, an output unit 130, an augmented reality providing unit 160, a control unit 170, a communication unit 180, and a sensing unit ( 190), all or part of the power supply unit 195.

여기서, 전자 장치(100)는 차량의 운전자에게 운전 관련 안내를 제공할 수 있는 스마트 폰, 태블릿 컴퓨터, 노트북 컴퓨터, PDA(personal digital assistant), PMP(portable multimedia player), 스마트 글래스, 프로젝트 글래스, 내비게이션(navigation), 차량용 영상 촬영 장치인 Car dash cam 또는 Car video recorder 등과 같은 다양한 장치로 구현될 수 있고, 차량에 구비될 수 있다.Here, the electronic device 100 is a smart phone, a tablet computer, a notebook computer, a personal digital assistant (PDA), a portable multimedia player (PMP), a smart glass, a project glass, navigation that can provide driving guidance to the driver of the vehicle. (navigation), can be implemented in various devices, such as a car dash cam or car video recorder, which is a vehicle image photographing device, and may be provided in a vehicle.

운전 관련 안내는 경로 안내, 차선 이탈 안내, 차선 유지 안내, 전방 차량 출발 안내, 신호등 변경 안내, 전방 차량 추돌 방지 안내, 차로 변경 안내, 차로 안내, 커브 안내, 제한 속도 안내, 차폭 제한 안내, 차 중량 제한 안내, 차량 높이 제한 안내 등과 같이 차량 운전자의 운전을 보조하기 위한 다양한 안내를 포함할 수 있다. Driving guidance includes route guidance, lane departure guidance, lane maintenance guidance, front vehicle departure guidance, traffic light change guidance, front vehicle collision prevention guidance, lane change guidance, lane guidance, curve guidance, speed limit guidance, vehicle width limit guidance, vehicle weight It may include various guides for assisting the driving of the vehicle driver, such as the guide limit and the vehicle height limit guide.

여기서, 경로 안내는 운행 중인 차량의 전방을 촬영한 영상에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 증강 현실 경로 안내, 2D(2-Dimensional) 또는 3D(3-Dimensional)의 지도 데이터에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 2D(2-Dimensional) 또는 3D(3-Dimensional) 경로 안내를 포함할 수 있다. Here, the route guidance is augmented reality route guidance, 2D (2-Dimensional) or 3D (3-Dimensional), which performs route guidance by combining various information such as a user's location and direction with an image photographing the front of a running vehicle. It may include 2D (2-Dimensional) or 3D (3-Dimensional) route guidance by combining various information such as the user's location and direction with the map data of.

뿐만 아니라, 경로 안내는 항공 지도 데이터에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 항공 지도 경로 안내를 포함할 수 있다. 여기서, 경로 안내는 사용자가 차량에 탑승하여 운전하는 경우뿐만 아니라, 사용자가 걷거나 뛰어서 이동하는 경우의 경로 안내도 포함하는 개념으로 해석될 수 있다. In addition, the route guidance may include an aerial map route guidance that combines various information such as a user's location and direction in the aerial map data to perform route guidance. Here, the route guide may be interpreted as a concept including a route guide when the user walks or jumps, as well as when the user rides and drives the vehicle.

또한, 차선 이탈 안내는 주행 중인 차량이 차선을 이탈하였는지 여부를 안내하는 것일 수 있다. In addition, the lane departure guidance may be to guide whether the vehicle being driven has left the lane.

또한, 차선 유지 안내는 차량이 본래 주행 중인 차로로 복귀하도록 안내하는 것일 수 있다.In addition, the lane maintenance guidance may be to guide the vehicle to return to the original driving lane.

또한, 전방 차량 출발 안내는 정차 중인 차량의 전방에 위치한 차량의 출발 여부를 안내하는 것일 수 있다.In addition, the front vehicle departure guide may be to guide the departure of a vehicle located in front of the vehicle being stopped.

또한, 신호등 변경 안내는 정차 중인 차량의 전방에 위치한 신호등의 신호 변경 여부를 안내하는 것일 수 있다. 일 예로, 정지 신호를 나타내는 빨간 신호등이 켜진 상태에서 출발 신호를 나타내는 파란 신호등으로 변경되면, 이를 안내하는 것 일 수 있다. In addition, the traffic light change guide may be to guide whether the signal of the traffic light located in front of the vehicle being stopped is changed. For example, when the red traffic light indicating the stop signal is turned on and the blue traffic light indicating the start signal is changed, it may be guided.

또한, 전방 차량 추돌 방지 안내는 정차 또는 주행 중인 차량의 전방에 위치한 차량과의 거리가 일정 거리 이내가 되면 전방 차량과 추돌을 방지하기 위해 이를 안내하는 것일 수 있다. In addition, the front vehicle collision prevention guide may be to guide a vehicle in front of a vehicle that is stopped or running when the distance to the vehicle is within a predetermined distance to prevent collision with the vehicle in front.

또한, 차로 변경 안내는 목적지까지의 경로 안내를 위하여 차량이 위치한 차로에서 다른 차로로 변경을 안내하는 것일 수 있다.In addition, the lane change guide may be to guide the change from the lane where the vehicle is located to another lane to guide the route to the destination.

또한, 차로 안내는 현재 차량이 위치한 차로를 안내하는 것일 수 있다. In addition, the lane guidance may be to guide the lane in which the current vehicle is located.

또한, 커브 안내는 소정 시간 이후에 차량이 주행할 도로가 커브임을 안내하는 것일 수 있다. In addition, the curve guide may be a guide that the road on which the vehicle will travel after a predetermined time is a curve.

또한, 제한 속도 안내는 현재 차량이 위치한 차로 또는 진입할 차로의 제한 속도를 안내하는 것일 수 있다.In addition, the speed limit guide may be to guide the speed limit of the lane in which the current vehicle is located or the lane to enter.

또한, 차폭 제한 안내는 현재 차량이 위치한 차로 또는 진입할 차로의 차폭 제한을 안내하는 것일 수 있다.In addition, the vehicle width limitation guide may be to guide the vehicle width limitation of the lane in which the current vehicle is located or the lane to enter.

또한, 차 중량 제한 안내는 현재 차량이 위치한 차로 또는 진입할 차로의 차 중량 제한을 안내하는 것일 수 있다.In addition, the vehicle weight limit guide may be to guide the vehicle weight limit of the lane in which the current vehicle is located or the lane to enter.

또한, 차량 높이 제한 안내는 현재 차량이 위치한 차로 또는 진입할 차로의 차량 높이 제한을 안내하는 것일 수 있다.In addition, the vehicle height restriction guide may be to guide the vehicle height restriction of the lane in which the current vehicle is located or the lane to enter.

이러한, 다양한 안내의 제공을 가능하게 하는 차량의 전방 영상과 같은 운전 관련 영상은 차량에 거치된 카메라 또는 스마트 폰의 카메라에서 촬영될 수 있다. 여기서 카메라는 차량에 거치된 전자 장치(100)와 일체로 형성되어 차량의 전방을 촬영하는 카메라일 수 있다. Such a driving-related image, such as a front image of a vehicle that enables providing various guidance, may be captured by a camera mounted on a vehicle or a camera of a smart phone. Here, the camera may be a camera that is integrally formed with the electronic device 100 mounted on the vehicle and photographs the front of the vehicle.

다른 예로, 카메라는 전자 장치(100)와 별개로 차량에 거치되어 차량의 전방을 촬영하는 카메라일 수 있다. 이 경우, 카메라는 차량의 전방을 향하여 거치된 별도의 차량용 영상 촬영 장치일 수 있고, 전자 장치(100)는 별도로 거치된 차량용 영상 촬영 장치와 유/무선 통신을 통하여 촬영 영상을 입력 받거나, 차량용 영상 촬영 장치의 촬영 영상을 저장하는 저장 매체가 전자 장치(100)에 삽입되면, 전자 장치(100)는 촬영 영상을 입력 받을 수 있다. As another example, the camera may be a camera mounted on a vehicle separately from the electronic device 100 to photograph the front of the vehicle. In this case, the camera may be a separate vehicle image capturing device mounted toward the front of the vehicle, and the electronic device 100 may receive a captured image through wired/wireless communication with the separately mounted vehicle image capturing device, or a vehicle image When the storage medium for storing the captured image of the photographing device is inserted into the electronic device 100, the electronic device 100 may receive the photographed image.

이하에서는, 상술한 내용을 기초로 본 발명의 일 실시 예에 따른 전자 장치(100)에 대해서 보다 구체적으로 설명하기로 한다.Hereinafter, the electronic device 100 according to an exemplary embodiment of the present invention will be described in more detail based on the above-described contents.

저장부(110)는 전자 장치(100)의 동작에 필요한 다양한 데이터 및 어플리케이션을 저장하는 기능을 한다. 특히 저장부(110)는 전자 장치(100)의 동작에 필요한 데이터, 예를 들어 OS, 경로 탐색 어플리케이션, 지도 데이터 등을 저장할 수 있다. 또한 저장부(110)는 전자 장치(100)의 동작에 의하여 생성된 데이터, 예를 들어 탐색된 경로 데이터, 수신한 영상 등을 저장할 수 있다. The storage unit 110 functions to store various data and applications required for the operation of the electronic device 100. In particular, the storage unit 110 may store data necessary for the operation of the electronic device 100, for example, an OS, a route search application, map data, and the like. In addition, the storage unit 110 may store data generated by the operation of the electronic device 100, for example, searched route data, received images, and the like.

이러한 저장부(110)는 RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USIM(Universal Subscriber Identity Module)등과 같은 내장된 형태의 저장소자는 물론, USB 메모리 등과 같은 착탈 가능한 형태의 저장소자로 구현될 수도 있다.The storage unit 110 includes random access memory (RAM), flash memory, read only memory (ROM), erasable programmable ROM (EPROM), electronically erasable and programmable ROM (EEPROM), registers, hard disk, removable disk, memory It can be implemented as a built-in storage such as a card, a Universal Subscriber Identity Module (USIM), and a removable storage such as a USB memory.

입력부(120)는 전자 장치(100)의 외부로부터의 물리적 입력을 특정한 전기 신호로 변환하는 기능을 한다. 여기서, 입력부(120)는 사용자 입력부(121)와 마이크부(123)의 전부 또는 일부를 포함할 수 있다.The input unit 120 functions to convert a physical input from the outside of the electronic device 100 into a specific electrical signal. Here, the input unit 120 may include all or part of the user input unit 121 and the microphone unit 123.

사용자 입력부(121)는 터치, 푸쉬동작 등과 같은 사용자 입력을 수신할 수 있다. 여기서 사용자 입력부(121)는 다양한 버튼의 형태, 터치 입력을 수신하는 터치 센서, 접근하는 모션을 수신하는 근접 센서 중 적어도 하나를 이용하여 구현될 수 있다. The user input unit 121 may receive a user input such as a touch or push operation. Here, the user input unit 121 may be implemented using at least one of various types of buttons, a touch sensor receiving a touch input, and a proximity sensor receiving an approaching motion.

마이크부(123)는 사용자의 음성 및 차량의 내외부에서 발생한 음향을 수신할 수 있다.The microphone unit 123 may receive a user's voice and sound generated inside and outside the vehicle.

출력부(130)는 전자 장치(100)의 데이터를 사용자에게 영상 및/또는 음성으로 출력하는 장치이다. 여기서, 출력부(130)는 디스플레이부(131)와 오디오 출력부(133)의 전부 또는 일부를 포함할 수 있다. 즉, 출력부(130)는 증강 현실 영상 처리 장치(10)의 표시부(14)의 역할을 수행할 수 있다.The output unit 130 is a device that outputs data of the electronic device 100 to a user through video and/or audio. Here, the output unit 130 may include all or part of the display unit 131 and the audio output unit 133. That is, the output unit 130 may serve as the display unit 14 of the augmented reality image processing apparatus 10.

디스플레이부(131)는 사용자에게 시각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 디스플레이부(131)는 전자 장치(100)의 하우징 전면(前面)에 마련된 디스플레이부로 구현될 수 있다. 또한, 디스플레이부(131)는 전자 장치(100)과 일체로 형성되어 시각적 인식 데이터를 출력할 수 있고, HUD(Head Up Display)와 같이 전자 장치(100)과 별개로 설치되어 시각적 인식 데이터를 출력할 수도 있다.The display unit 131 is a device that outputs data that can be visually recognized to a user. The display unit 131 may be implemented as a display unit provided on the front surface of the housing of the electronic device 100. In addition, the display unit 131 is integrally formed with the electronic device 100 to output visual recognition data, and is installed separately from the electronic device 100, such as a head up display (HUD), to output visual recognition data. You may.

오디오 출력부(133)는 전자 장치(100)가 청각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 오디오 출력부(133)는 전자 장치(100)의 사용자에게 알려야 할 데이터를 소리를 표현하는 스피커로 구현될 수 있다. 즉, 오디오 출력부(133)는 소정의 경고음 또는 주행 안내 음성을 출력할 수 있다.The audio output unit 133 is a device that outputs data that the electronic device 100 can perceive acoustically. The audio output unit 133 may be implemented as a speaker that expresses sound of data to be informed to a user of the electronic device 100. That is, the audio output unit 133 may output a predetermined warning sound or driving guidance sound.

증강 현실 제공부(160)는 상술한 증강 현실 영상 처리 장치(10)의 기능을 수행할 수 있다. 구체적으로 증강 현실 제공부(160)는 사용자가 실제로 보고 있는 현실 세계를 담고 있는 주행 영상에 부가 정보(예를 들면, 관심 지점(Point Of Interest: POI)을 나타내는 AR 안내 객체, 전방 차량 충돌 위험성을 안내하는 AR 안내 객체, 차량 간 거리를 나타내는 AR 안내 객체, 커브를 안내하는 AR 안내 객체, 운전자의 안전 운전을 돕기 위한 다양한 AR 안내 객체등)를 시각적으로 중첩하여 제공할 수 있다. The augmented reality providing unit 160 may perform the functions of the augmented reality image processing apparatus 10 described above. Specifically, the augmented reality providing unit 160 provides an AR guide object representing additional information (for example, a point of interest (POI)) of a driving image containing the real world that the user is actually viewing, and the risk of collision in front of the vehicle. The AR guide object for guidance, the AR guide object for indicating the distance between vehicles, the AR guide object for guiding the curve, and various AR guide objects for helping the driver to safely drive) may be visually superimposed.

한편, 통신부(180)는 전자 장치(100)가 다른 디바이스와 통신하기 위하여 마련될 수 있다. 통신부(180)는 위치 데이터부(181), 무선 인터넷부(183), 방송 송수신부(185), 이동 통신부(186), 근거리 통신부(187), 유선 통신부(189)의 전부 또는 일부를 포함할 수 있다. Meanwhile, the communication unit 180 may be provided for the electronic device 100 to communicate with other devices. The communication unit 180 may include all or part of the location data unit 181, the wireless Internet unit 183, the broadcast transmission/reception unit 185, the mobile communication unit 186, the local area communication unit 187, and the wired communication unit 189. Can.

위치 데이터부(181)는 GNSS(Global Navigation Satellite System)를 통하여 위치 데이터를 획득하는 장치이다. GNSS는 인공위성으로부터 수신한 전파신호를 이용하여 수신 단말기의 위치를 산출할 수 있는 항법 시스템을 의미한다. GNSS의 구체적인 예로는, 그 운영 주체에 따라서 GPS(Global Positioning System), Galileo, GLONASS(Global Orbiting Navigational Satellite System), COMPASS, IRNSS(Indian Regional Navigational Satellite System), QZSS(Quasi-Zenith Satellite System) 등 일 수 있다. 본 발명의 일 실시 예에 따른 전자 장치(100)의 위치 데이터부(181)는 시스템(100)가 사용되는 지역에서 서비스하는 GNSS 신호를 수신하여 위치 데이터를 획득할 수 있다. 또는, 위치 데이터부(181)는 GNSS 외에도 기지국 또는 AP(Access Point)와의 통신을 통해 위치 데이터를 획득할 수도 있다.The location data unit 181 is a device that acquires location data through a Global Navigation Satellite System (GNSS). GNSS means a navigation system that can calculate the location of a receiving terminal using a radio wave signal received from a satellite. Specific examples of GNSS include Global Positioning System (GPS), Galileo, Global Orbiting Navigational Satellite System (GLONASS), COMPASS, Indian Regional Navigational Satellite System (IRNSS), and Quasi-Zenith Satellite System (QZSS) depending on the operating entity. Can. The location data unit 181 of the electronic device 100 according to an embodiment of the present invention may obtain location data by receiving a GNSS signal serviced in an area where the system 100 is used. Alternatively, the location data unit 181 may acquire location data through communication with a base station or an AP (Access Point) in addition to the GNSS.

무선 인터넷부(183)는 무선 인터넷에 접속하여 데이터를 획득하거나 송신하는 장치이다. 무선 인터넷부(183)는 WLAN(Wireless LAN), Wibro(Wireless broadband), Wimax(World interoperability for microwave access), HSDPA(High Speed Downlink Packet Access)의 무선 데이터 송수신을 수행하도록 정의된 다양한 통신 프로토콜을 통해 인터넷 망에 접속할 수 있다.The wireless Internet unit 183 is a device that connects to the wireless Internet to acquire or transmit data. The wireless Internet unit 183 uses various communication protocols defined to perform wireless data transmission and reception of wireless LAN (WLAN), wireless broadband (Wibro), world interoperability for microwave access (Wimax), and high speed downlink packet access (HSDPA). You can connect to the Internet network.

방송 송수신부(185)는 각종 방송 시스템을 통하여 방송 신호를 송수신하는 장치이다. 방송 송수신부(185)를 통하여 송수신할 수 있는 방송 시스템은 DMBT(Digital Multimedia Broadcasting Terrestrial), DMBS(Digital Multimedia Broadcasting Satellite), MediaFLO(Media Forward Link Only), DVBH(Digital Video Broadcast Handheld), ISDBT(Integrated Services Digital Broadcast Terrestrial) 등일 수 있다. 방송 송수신부(185)를 통하여 송수신되는 방송 신호에는 교통 데이터, 생활 데이터 등을 포함할 수 있다.The broadcast transmission/reception unit 185 is a device for transmitting and receiving broadcast signals through various broadcast systems. Broadcasting systems that can be transmitted and received through the broadcast transmitting and receiving unit 185 include Digital Multimedia Broadcasting Terrestrial (DMBT), Digital Multimedia Broadcasting Satellite (DMBS), Media Forward Link Only (FLOFLO), Digital Video Broadcast Handheld (DVBH), and Integrated SDSD (Integrated) Services Digital Broadcast Terrestrial). The broadcast signal transmitted/received through the broadcast transmitting/receiving unit 185 may include traffic data, living data, and the like.

이동 통신부(186)는 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 이동 통신 규격에 따라 이동 통신망에 접속하여 음성 및 데이터 통신할 수 있다.The mobile communication unit 186 may connect to a mobile communication network according to various mobile communication standards such as 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), and Long Term Evolution (LTE) to communicate with voice and data.

근거리 통신부(187)는 근거리 통신을 위한 장치이다. 근거리 통신부(187)는, 전술한 바와 같이, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, Infrared Data Association), UWB(Ultra WideBand), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity) 등을 통하여 통신할 수 있다.The short-range communication unit 187 is a device for short-range communication. The short-range communication unit 187, as described above, Bluetooth (Bluetooth), Radio Frequency Identification (RFID), infrared communication (IrDA, Infrared Data Association), UWB (Ultra WideBand), ZigBee, NFC (Near Field Communication), Wi It can communicate through -Fi (Wireless-Fidelity).

유선 통신부(189)는 전자 장치(100)를 다른 디바이스와 유선으로 연결할 수 있는 인터페이스 장치이다. 유선 통신부(189)는, USB Port를 통하여 통신할 수 있는 USB 모듈일 수 있다. The wired communication unit 189 is an interface device that can connect the electronic device 100 to other devices by wire. The wired communication unit 189 may be a USB module that can communicate through a USB port.

이러한, 통신부(180)는 위치 데이터부(181)와, 무선 인터넷부(183)와, 방송 송수신부(185), 이동 통신부(186), 근거리 통신부(187), 유선 통신부(189) 중 적어도 하나를 이용하여 다른 디바이스와 통신할 수 있다. The communication unit 180 includes at least one of a location data unit 181, a wireless Internet unit 183, a broadcast transmission/reception unit 185, a mobile communication unit 186, a local area communication unit 187, and a wired communication unit 189. Use to communicate with other devices.

일 예로, 전자 장치(100)가 카메라 기능을 포함하지 않는 경우, Car dash cam이나 Car video recorder와 같은 차량용 영상 촬영 장치에서 촬영된 영상을 근거리 통신부(187), 유선 통신부(189) 중 적어도 하나를 이용하여 수신할 수 있다.For example, when the electronic device 100 does not include a camera function, at least one of a short-range communication unit 187 and a wired communication unit 189 may be used to record an image captured by a vehicle image capturing device such as a Car dash cam or a Car video recorder. You can use it to receive.

다른 예로, 복수의 디바이스와 통신하는 경우에 어느 하나는 근거리 통신부(187)로 통신하고, 다른 하나는 유선 통신부(119)를 통하여 통신하는 경우도 가능하다. As another example, when communicating with a plurality of devices, one may communicate with the local area communication unit 187 and the other may communicate with the wired communication unit 119.

센싱부(190)는 시스템(100)의 현재 상태를 감지할 수 있는 장치이다. 센싱부(190)는 모션 센싱부(191)와 광 센싱부(193)의 전부 또는 일부를 포함할 수 있다.The sensing unit 190 is a device capable of detecting the current state of the system 100. The sensing unit 190 may include all or part of the motion sensing unit 191 and the light sensing unit 193.

모션 센싱부(191)는 전자 장치(100)의 3차원 공간 상에서의 운동을 감지할 수 있다. 모션 센싱부(191)은 3축 지자기 센서 및 3축 가속도 센서를 포함할 수 있다. 모션 센싱부(191)을 통하여 획득한 운동 데이터를 위치 데이터부(181)를 통하여 획득한 위치 데이터와 결합하여, 전자 장치(100)를 부착한 차량의 궤적을 보다 정확하게 산출할 수 있다.The motion sensing unit 191 may detect motion in the 3D space of the electronic device 100. The motion sensing unit 191 may include a 3-axis geomagnetic sensor and a 3-axis acceleration sensor. The motion data obtained through the motion sensing unit 191 may be combined with the position data obtained through the location data unit 181 to more accurately calculate the trajectory of the vehicle to which the electronic device 100 is attached.

광 센싱부(193)는 시스템(100)의 주변 조도(illuminance)를 측정하는 장치이다. 광 센싱부(193)를 통하여 획득한 조도데이터를 이용하여, 디스플레이부(131)의 밝기를 주변 밝기에 대응되도록 변화시킬 수 있다.The optical sensing unit 193 is a device for measuring the ambient illumination of the system 100. By using the illuminance data acquired through the light sensing unit 193, the brightness of the display unit 131 may be changed to correspond to the ambient brightness.

전원부(195)는 전자 장치100)의 동작 또는 전자 장치(100)와 연결된 다른 디바이스의 동작을 위하여 필요한 전원을 공급하는 장치이다. 전원부(195)는 전자 장치(100)에 내장된 배터리 또는 차량 등의 외부 전원에서 전원을 공급받는 장치일 수 있다. 또한, 전원부(195)는 전원을 공급받는 형태에 따라서 유선 통신 모듈(119)로 구현되거나, 무선으로 공급받는 장치로 구현될 수도 있다.The power supply unit 195 is a device that supplies power required for the operation of the electronic device 100 or other devices connected to the electronic device 100. The power supply unit 195 may be a device that receives power from an external power source such as a battery or a vehicle built in the electronic device 100. In addition, the power supply unit 195 may be implemented as a wired communication module 119 or a wirelessly supplied device depending on the form of receiving power.

제어부(170)는 전자 장치(100)의 전반적인 동작을 제어한다. 구체적으로 제어부(170)는 저장부(110), 입력부(120), 출력부(130), 증강 현실 제공부(160), 통신부(180), 센싱부(190), 전원부(195)의 전부 또는 일부를 제어할 수 있다.The control unit 170 controls the overall operation of the electronic device 100. Specifically, the control unit 170 includes all of the storage unit 110, the input unit 120, the output unit 130, the augmented reality providing unit 160, the communication unit 180, the sensing unit 190, and the power supply unit 195, or Some can be controlled.

특히, 제어부(170)은 증강 현실 제공부(160)에서 생성된 증강 현실 영상을 표시하도록 디스플레이부(131)를 제어할 수 있다. 구체적으로, 증강 현실 제공부(160)는 이동체의 주행 중에 촬영된 제1 프레임 레이트의 제1 주행 영상을 획득하고, 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성하며, 제2 주행 영상을 분석하여 제2 주행 영상에 표시될 AR(Augmented Reality) 안내 객체를 포함하는 AR 표출 영상을 제2 프레임 레이트로 생성하고, 생성된 제2 주행 영상과 AR 표출 영상을 동기화시켜 결합하여 증강 현실 영상을 생성할 수 있다. 이 경우, 제어부(170)는 증강 현실 제공부(160)에서 생성된 증강 현실 영상을 표시하도록 디스플레이부(131)를 제어할 수 있다. In particular, the control unit 170 may control the display unit 131 to display the augmented reality image generated by the augmented reality providing unit 160. Specifically, the augmented reality providing unit 160 acquires a first driving image at a first frame rate photographed while the mobile body is driving, and processes the obtained first driving image to generate a second driving image at a second frame rate. Then, the second driving image is analyzed to generate an AR display image including an AR (Augmented Reality) guide object to be displayed on the second driving image at a second frame rate, and the generated second driving image and the AR display image are synchronized. To combine to generate an augmented reality image. In this case, the control unit 170 may control the display unit 131 to display the augmented reality image generated by the augmented reality providing unit 160.

도 16은 본 발명의 일 실시 예에 따른 전자 장치와 연결된 시스템 네트워크를 설명하기 위한 도면이다. 도 16을 참조하면, 본 발명의 일 실시 예에 따른 전자 장치(100)는 내비게이션, 차량용 영상 촬영 장치, 스마트 폰 또는 기타 차량용 증강 현실 인터페이스 제공 장치 등과 같은 차량에 구비되는 각종 장치로 구현될 수 있으며, 다양한 통신망 및 다른 전자 디바이스(61 내지 64)와 접속할 수 있다.16 is a diagram for describing a system network connected to an electronic device according to an embodiment of the present invention. Referring to FIG. 16, the electronic device 100 according to an embodiment of the present invention may be implemented as various devices provided in a vehicle, such as a navigation device, an image capturing device for a vehicle, a smart phone, or other augmented reality interface providing device for a vehicle, and the like. , It can be connected to various communication networks and other electronic devices (61 to 64).

또한, 전자 장치(100)는 인공위성(20)으로부터 수신한 전파신호에 따라 GPS모듈을 연동하여 현재의 위치 및 현재 시간대를 산출할 수 있다.In addition, the electronic device 100 may calculate the current location and the current time zone by interlocking the GPS module according to the radio wave signal received from the satellite 20.

각각의 인공위성(20)은 주파수 대역이 상이한 L밴드 주파수를 송신할 수 있다. 전자 장치(100)는 각각의 인공위성(20)에서 송신된 L밴드 주파수가 전자 장치(100)에 도달하기까지 소요된 시간에 기초하여 현재 위치를 산출할 수 있다.Each satellite 20 may transmit L band frequencies with different frequency bands. The electronic device 100 may calculate the current position based on the time taken for the L-band frequency transmitted from each satellite 20 to reach the electronic device 100.

한편, 전자 장치(100)는 통신부(180)을 통하여 제어국(40, ACR), 기지국(50, RAS), AP(Access Point) 등을 통하여 네트워크(30)에 무선으로 접속할 수 있다. 네트워크(30)에 전자 장치(100)가 접속하면, 네트워크(30)에 접속한 다른 전자 디바이스(61, 62)와도 간접적으로 접속하여 데이터를 교환할 수 있다.Meanwhile, the electronic device 100 may wirelessly access the network 30 through the control unit 180 through the control station 40, ACR, base station 50, RAS, and access point (AP). When the electronic device 100 is connected to the network 30, data can be exchanged by indirectly connecting to other electronic devices 61 and 62 connected to the network 30.

한편, 전자 장치(100)는 통신 기능을 가진 다른 디바이스(63)를 통하여 간접적으로 네트워크(30)에 접속할 수도 있다. 예를 들어, 네트워크(30)에 접속할 수 있는 모듈이 전자 장치(100)에 구비되지 않은 경우에, 근거리 통신 모듈 등을 통하여 통신 기능을 가진 다른 디바이스(63)와 통신할 수 있다.Meanwhile, the electronic device 100 may indirectly connect to the network 30 through another device 63 having a communication function. For example, when the electronic device 100 is not provided with a module capable of accessing the network 30, it may communicate with another device 63 having a communication function through a short-range communication module.

도 17은 본 발명의 일 실시 예에 따른 전자 장치의 차량 충돌 방지 안내 화면을 나타내는 도면이다. 도 17을 참조하면, 전자 장치(100)는 차량 충돌 위험도를 나타내는 안내 객체를 생성하고, 생성된 안내 객체(1001)를 증강 현실을 통하여 출력할 수 있다.17 is a diagram illustrating a vehicle collision prevention guide screen of an electronic device according to an embodiment of the present invention. Referring to FIG. 17, the electronic device 100 may generate a guide object indicating a vehicle collision risk and output the generated guide object 1001 through augmented reality.

여기서, 안내 객체(1001)는 사용자 주의가 필요한 상태임을 안내하는 객체일 수 있다. 즉, 차량 충돌 방지 안내는 차량이 전방 차량과 거리가 소정 거리 이내로 좁혀져 전방 차량과의 충돌 위험성이 있음을 안내하는 것일 수 있다. 본 실시예에서 안내 객체(1001)는 텍스처(texture) 이미지로 구현되어 증강 현실을 통하여 표출될 수 있다. 이에 따라 운전자는 자차가 주행 중인 도로를 용이하게 인식할 수 있다.Here, the guide object 1001 may be an object that guides that a user needs attention. That is, the vehicle collision prevention guide may be to guide that the vehicle is in danger of collision with the vehicle in front because the vehicle is narrowed within a predetermined distance. In this embodiment, the guide object 1001 is implemented as a texture image and can be expressed through augmented reality. Accordingly, the driver can easily recognize the road on which the host vehicle is driving.

또한, 전자 장치(100)는 안내 객체(1001)를 음성을 통해서도 출력할 수 있다.Also, the electronic device 100 may output the guide object 1001 through voice.

도 18은 본 발명의 일 실시 예에 따른 전자 장치가 촬영부를 구비하지 않는 경우의 구현 형태를 나타내는 도면이다. 도 18을 참조하면, 전자 장치(100)와 별도로 마련된 차량용 영상 촬영 장치(200)가 유선/무선 통신 방식을 이용하여 본 발명의 일 실시 예에 따른 시스템을 구성할 수 있다. 18 is a diagram illustrating an implementation form when an electronic device according to an embodiment of the present invention does not include a photographing unit. Referring to FIG. 18, a vehicle image photographing device 200 provided separately from the electronic device 100 may configure a system according to an embodiment of the present invention using a wired/wireless communication method.

전자 장치(100)는 하우징(191)의 전면에 마련된 디스플레이부(131)와, 사용자 입력부(121)와, 마이크(123)를 포함할 수 있다.The electronic device 100 may include a display unit 131 provided on the front surface of the housing 191, a user input unit 121, and a microphone 123.

차량용 영상 촬영 장치 (200)는 카메라(222)와 마이크(224), 부착부(281)를 포함할 수 있다.The vehicle image capturing apparatus 200 may include a camera 222, a microphone 224, and an attachment portion 281.

도 19는 본 발명의 일 실시 예에 따른 전자 장치가 촬영부를 구비하는 경우 구현 형태를 나타내는 도면이다. 도 19를 참조하면, 전자 장치(100)가 촬영부(150)를 포함하는 경우, 사용자는 전자 장치(100)의 촬영부(150)가 차량의 전방을 촬영하고, 전자 장치(100)의 디스플레이 부분을 사용자가 인식 할 수 있도록 하는 장치일 수 있다. 이에 따라, 본 발명의 일 실시 예에 따른 시스템을 구현할 수 있다. 19 is a diagram illustrating an implementation form when an electronic device according to an embodiment of the present invention includes a photographing unit. Referring to FIG. 19, when the electronic device 100 includes the photographing unit 150, the user photographs the front of the vehicle by the photographing unit 150 of the electronic device 100 and displays the electronic device 100. It may be a device that allows the user to recognize the part. Accordingly, a system according to an embodiment of the present invention can be implemented.

도 20은 본 발명의 일 실시 예에 따른 HUD(Head-Up Display)를 이용한 구현 형태를 나타내는 도면이다. 도 20을 참조하면, HUD는 다른 디바이스들과의 유/무선 통신을 통하여 증강 현실 안내 화면을 헤드업 디스플레이 상에서 표시할 수 있다. 20 is a view showing an implementation form using a head-up display (HUD) according to an embodiment of the present invention. Referring to FIG. 20, the HUD may display an augmented reality guide screen on a head-up display through wired/wireless communication with other devices.

일 예로, 증강 현실은 차량 앞유리를 이용한 HUD 또는 별도의 영상 출력 장치를 이용한 영상 오버레이 등을 통해 제공될 수 있으며, 증강 현실 제공부(160)는 이와 같이 현실 영상 또는 유리에 오버레이되는 인터페이스 이미지 등을 생성할 수 있다. 이를 통해 증강 현실 내비게이션 또는 차량 인포테인먼트 시스템 등이 구현될 수 있다.For example, augmented reality may be provided through a HUD using a windshield of a vehicle or an image overlay using a separate image output device, and the augmented reality providing unit 160 may provide a real image or an interface image overlaid on the glass. You can create Through this, an augmented reality navigation or a vehicle infotainment system may be implemented.

한편, 상술한 본 발명의 일 실시 예에 따르면, 증강 현실 영상 처리 장치(10)가 제1 프레임 레이트의 제1 주행 영상을 입력받아 제2 프레임 레이트의 제2 주행 영상을 생성하는 것을 예로 설명하였으나, 이는 본 발명의 일 실시 예일 뿐 이에 한정되는 것은 아니다. 본 발명의 다른 실시 예에 따르면, 외부 별도 모듈을 통하여 제1 프레임 레이트의 제1 주행 영상으로부터 제2 프레임 레이트의 제2 주행 영상이 생성될 수 있고, 증강 현실 영상 처리 장치(10)는 외부 모듈로부터 제2 프레임 레이트의 제2 주행 영상을 수신하는 형태로 구현될 수도 있다. On the other hand, according to one embodiment of the present invention, the augmented reality image processing apparatus 10 receives the first driving image at the first frame rate and generates a second driving image at the second frame rate as an example. , This is only an embodiment of the present invention and is not limited thereto. According to another embodiment of the present invention, a second driving image at a second frame rate may be generated from a first driving image at a first frame rate through an external separate module, and the augmented reality image processing apparatus 10 may be configured as an external module. It may be implemented in the form of receiving a second driving image at a second frame rate from.

한편, 명세서 및 청구범위에서 "제 1", "제 2", "제 3" 및 "제 4" 등의 용어는, 만약 있는 경우, 유사한 구성요소 사이의 구분을 위해 사용되며, 반드시 그렇지는 않지만 특정 순차 또는 발생 순서를 기술하기 위해 사용된다. 그와 같이 사용되는 용어는 여기에 기술된 본 발명의 실시예가, 예컨대, 여기에 도시 또는 설명된 것이 아닌 다른 시퀀스로 동작할 수 있도록 적절한 환경하에서 호환 가능한 것이 이해될 것이다. 마찬가지로, 여기서 방법이 일련의 단계를 포함하는 것으로 기술되는 경우, 여기에 제시된 그러한 단계의 순서는 반드시 그러한 단계가 실행될 수 있는 순서인 것은 아니며, 임의의 기술된 단계는 생략될 수 있고/있거나 여기에 기술되지 않은 임의의 다른 단계가 그 방법에 부가 가능할 것이다. On the other hand, terms such as "first", "second", "third" and "fourth" in the specification and claims, if any, are used to distinguish between similar elements, but not necessarily Used to describe a specific sequence or order of occurrence. It will be understood that the terms so used are compatible under appropriate circumstances so that the embodiments of the invention described herein can operate in sequences other than those shown or described herein, for example. Likewise, where the method is described as including a series of steps, the order of such steps presented herein is not necessarily the order in which such steps may be performed, and any described steps may be omitted and/or here Any other steps not described may be added to the method.

또한 명세서 및 청구범위의 "왼쪽", "오른쪽", "앞", "뒤", "상부", "바닥", "위에", "아래에" 등의 용어는, 설명을 위해 사용되는 것이며, 반드시 불변의 상대적 위치를 기술하기 위한 것은 아니다. 그와 같이 사용되는 용어는 여기에 기술된 본 발명의 실시예가, 예컨대, 여기에 도시 또는 설명된 것이 아닌 다른 방향으로 동작할 수 있도록 적절한 환경하에서 호환 가능한 것이 이해될 것이다. 여기서 사용된 용어 "연결된"은 전기적 또는 비 전기적 방식으로 직접 또는 간접적으로 접속되는 것으로 정의된다. 여기서 서로 "인접하는" 것으로 기술된 대상은, 그 문구가 사용되는 문맥에 대해 적절하게, 서로 물리적으로 접촉하거나, 서로 근접하거나, 서로 동일한 일반적 범위 또는 영역에 있는 것일 수 있다. 여기서 "일실시예에서"라는 문구의 존재는 반드시 그런 것은 아니지만 동일한 실시예를 의미한다.In addition, the terms "left", "right", "front", "back", "upper", "bottom", "above", "below", etc. in the specification and claims are used for explanation, It is not necessarily to describe the constant relative position. It will be understood that the terms so used are compatible under appropriate circumstances so that the embodiments of the invention described herein may operate in other directions than those illustrated or described herein, for example. The term "connected" as used herein is defined as being connected directly or indirectly in an electrical or non-electrical manner. Objects described herein as “adjacent” to one another may be physically in contact with one another, in close proximity to one another, or in the same general scope or area as appropriate for the context in which the phrases are used. The presence of the phrase "in one embodiment" here does not necessarily mean the same embodiment.

또한 명세서 및 청구범위에서 '연결된다', '연결하는', '체결된다', '체결하는', '결합된다', '결합하는' 등과 이런 표현의 다양한 변형들의 지칭은 다른 구성요소와 직접적으로 연결되거나 다른 구성요소를 통해 간접적으로 연결되는 것을 포함하는 의미로 사용된다. Also, in the specification and claims, reference to various variations of these expressions such as'connected','connected','concluded','concluded','coupled','combined', etc. is directly with other components. It is used in a sense that includes connecting or indirectly connecting through other components.

또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로써, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes "module" and "part" for the components used in the present specification are given or mixed only considering the ease of writing the specification, and do not have a meaning or a role distinguished from each other in itself.

또한 본 명세서에서 사용된 용어들은 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprise)' 및/또는 '포함하는(comprising)'은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.Also, the terms used in the present specification are for describing the embodiments and are not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein,'comprise' and/or'comprising' refers to the elements, steps, operations and/or elements mentioned above, the presence of one or more other components, steps, operations and/or elements. Or do not exclude additions.

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 명세서를 통해 개시된 모든 실시예들과 조건부 예시들은, 본 발명의 기술 분야에서 통상의 지식을 가진 당업자가 독자가 본 발명의 원리와 개념을 이해하도록 돕기 위한 의도로 기술된 것으로, 당업자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다.So far, the present invention has been focused on the preferred embodiments. All of the embodiments and conditional examples disclosed through this specification have been described with the intention of helping those skilled in the art to understand the principles and concepts of the present invention. It will be understood that this may be implemented in a modified form without departing from the essential characteristics of the present invention.

그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다. Therefore, the disclosed embodiments should be considered in terms of explanation, not limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the equivalent range should be interpreted as being included in the present invention.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 증강 현실 영상 처리 방법은 프로그램으로 구현되어 서버 또는 기기들에 제공될 수 있다. 이에 따라 각 장치들은 프로그램이 저장된 서버 또는 기기에 접속하여, 상기 프로그램을 다운로드할 수 있다.Meanwhile, the augmented reality image processing method according to various embodiments of the present invention described above may be implemented as a program and provided to a server or devices. Accordingly, each device can download the program by accessing a server or device in which the program is stored.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 제한 속도 안내 방법은 프로그램으로 구현되어 서버 또는 기기들에 제공될 수 있다. 이에 따라 각 장치들은 프로그램이 저장된 서버 또는 기기에 접속하여, 상기 프로그램을 다운로드할 수 있다.Meanwhile, the speed limit guide method according to various embodiments of the present invention described above may be implemented as a program and provided to a server or devices. Accordingly, each device can download the program by accessing a server or device in which the program is stored.

또한, 상술한 본 발명의 다양한 실시 예들에 따른 제어 방법은 프로그램으로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다. 비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.In addition, the control method according to various embodiments of the present invention described above may be implemented as a program and stored in various non-transitory computer readable media and provided. The non-transitory readable medium means a medium that stores data semi-permanently and that can be read by a device, rather than a medium that stores data for a short time, such as registers, caches, and memory. Specifically, the various applications or programs described above may be stored and provided in a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although the preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention pertains without departing from the gist of the present invention claimed in the claims. In addition, various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical idea or prospect of the present invention.

10 : 증강 현실 영상 처리 장치 11 : 영상 획득부
12 : 주행 영상 생성부 13 : AR 표출 영상 생성부
14 : 영상 결합부 15 : 흔들림 데이터 산출부
16 : 크롭 영상 생성부 17 : 표시부
100 : 전자 장치 110 : 저장부
120 : 입력부 130 : 출력부
160 : 증강 현실 제공부 170 : 제어부
180 : 통신부 190 : 센싱부
195 : 전원부
10: augmented reality image processing apparatus 11: image acquisition unit
12: driving image generation unit 13: AR display image generation unit
14: image combining unit 15: shake data calculation unit
16: crop image generation unit 17: display unit
100: electronic device 110: storage unit
120: input unit 130: output unit
160: augmented reality providing unit 170: control unit
180: communication unit 190: sensing unit
195: power supply

Claims (23)

프로세서를 이용한 증강 현실 영상 처리 방법에 있어서,
이동체의 주행 중에 촬영된 제1 프레임 레이트의 제1 주행 영상을 획득하는 단계;
상기 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성하는 단계;
상기 제2 주행 영상을 분석하여 상기 제2 주행 영상에 표시될 AR(Augmented Reality) 안내 객체를 포함하는 AR 표출 영상을 상기 제2 프레임 레이트로 생성하는 단계;
상기 생성된 제2 주행 영상과 상기 AR 표출 영상을 동기화시켜 결합하는 단계;를 포함하고,
상기 제2 프레임 레이트는 상기 제1 프레임 레이트 보다 작은 것을 특징으로 하는 증강 현실 영상 처리 방법.
In the augmented reality image processing method using a processor,
Obtaining a first driving image at a first frame rate photographed while the mobile body is driving;
Generating a second driving image at a second frame rate by processing the acquired first driving image;
Analyzing the second driving image and generating an AR expression image including an Augmented Reality (AR) guide object to be displayed on the second driving image at the second frame rate;
Including; synchronizing and combining the generated second driving image and the AR display image;
The second frame rate is less than the first frame rate, augmented reality image processing method.
제 1 항에 있어서,
상기 제2 프레임 레이트는 은 상기 프로세서의 성능에 따라 가변적으로 결정되는 것을 특징으로 하는 증강 현실 영상 처리 방법.
According to claim 1,
The second frame rate is augmented reality image processing method characterized in that it is variably determined according to the performance of the processor.
제 1 항에 있어서,
상기 제2 프레임 레이트는 상기 AR 안내 객체의 속성 정보에 따라 가변적으로 결정되는 것을 특징으로 하는 증강 현실 영상 처리 방법.
According to claim 1,
The second frame rate is augmented reality image processing method characterized in that it is variably determined according to the attribute information of the AR guide object.
제 1 항에 있어서,
상기 제2 프레임 레이트는 상기 제2 주행 영상에 포함된 분석 대상의 속성 정보를 고려하여 통계적으로 결정되는 것을 특징으로 하는 증강 현실 영상 처리 방법.
According to claim 1,
The second frame rate is statistically determined by considering attribute information of an analysis target included in the second driving image.
제 1 항에 있어서,
상기 AR 안내 객체를 포함하는 AR 표출 영상을 상기 제2 프레임 레이트로 생성하는 단계는,
상기 제2 주행 영상을 분석하여 상기 AR 안내 객체의 상기 AR 표출 영상 내 위치를 결정하는 단계; 및
상기 결정된 영상 내 위치에 상기 AR 안내 객체를 위치시킨 상기 AR 표출 영상을 생성하는 단계;를 포함하는 것을 특징으로 하는 증강 현실 영상 처리 방법.
According to claim 1,
Generating an AR expression image including the AR guide object at the second frame rate,
Determining a position in the AR display image of the AR guide object by analyzing the second driving image; And
And generating the AR-expressed image in which the AR guide object is positioned in the determined location within the image.
제 1 항에 있어서,
상기 제2 주행 영상으로부터 특징점을 추출하고, 상기 추출된 특징점의 위치 변화값을 산출하는 단계; 및
상기 산출된 위치 변화값을 기초로 상기 제2 주행 영상의 흔들림 크기 및 흔들림 방향을 나타내는 흔들림 데이터를 산출하는 단계;를 더 포함하는 것을 특징으로 하는 증강 현실 영상 처리 방법.
According to claim 1,
Extracting a feature point from the second driving image and calculating a position change value of the extracted feature point; And
And calculating shake data indicating a shake size and a shake direction of the second driving image based on the calculated position change value.
제 6 항에 있어서,
상기 산출된 흔들림 데이터를 이용하여 상기 AR 안내 객체의 상기 AR 표출 영상 내 위치를 보정하는 단계;를 더 포함하는 것을 특징으로 하는 증강 현실 영상 처리 방법.
The method of claim 6,
And correcting a position of the AR guide object in the AR-expressed image using the calculated shake data.
제 7 항에 있어서,
상기 제2 프레임 레이트의 제2 주행 영상과 상기 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는 단계;를 더 포함하는 것을 특징으로 하는 증강 현실 영상 처리 방법.
The method of claim 7,
And displaying the augmented reality image generated according to the combination of the second driving image at the second frame rate and the AR display image at the second frame rate.
제 6 항에 있어서,
상기 산출된 흔들림 데이터를 이용하여 상기 제2 주행 영상에서 일부를 잘라낼 크롭(crop) 영역을 결정하는 단계; 및
상기 제2 주행 영상의 상기 결정된 크롭 영역에서 잘라낸 크롭 영상을 생성하는 단계;를 더 포함하는 것을 특징으로 하는 증강 현실 영상 처리 방법.
The method of claim 6,
Determining a crop region to cut a part of the second driving image using the calculated shake data; And
And generating a cropped image cropped from the determined cropping region of the second driving image.
제 9 항에 있어서,
상기 크롭 영상의 크기를 상기 제2 주행 영상의 크기로 확대한 제3 주행 영상을 생성하는 단계; 및
상기 제2 프레임 레이트의 제3 주행 영상과 상기 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는 단계;를 더 포함하는 것을 특징으로 하는 증강 현실 영상 처리 방법.
The method of claim 9,
Generating a third driving image in which the size of the cropped image is enlarged to the size of the second driving image; And
And displaying the augmented reality image generated according to the combination of the third driving image at the second frame rate and the AR display image at the second frame rate.
증강 현실 영상 처리 장치에 있어서,
이동체의 주행 중에 촬영된 제1 프레임 레이트의 제1 주행 영상을 획득하는 영상 획득부;
상기 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성하는 주행 영상 생성부;
상기 제2 주행 영상을 분석하여 상기 제2 주행 영상에 표시될 AR(Augmented Reality) 안내 객체를 포함하는 AR 표출 영상을 상기 제2 프레임 레이트로 생성하는 AR 표출 영상 생성부; 및
상기 생성된 제2 주행 영상과 상기 AR 표출 영상을 동기화시켜 결합하는 영상 결합부;를 포함하고,
상기 제2 프레임 레이트는 상기 제1 프레임 레이트 보다 작은 것을 특징으로 하는 증강 현실 영상 처리 장치.
In the augmented reality image processing apparatus,
An image acquiring unit acquiring a first driving image at a first frame rate photographed while the mobile body is driving;
A driving image generator configured to process the acquired first driving image to generate a second driving image at a second frame rate;
An AR expression image generation unit analyzing the second driving image and generating an AR expression image including an Augmented Reality (AR) guide object to be displayed on the second driving image at the second frame rate; And
Includes; an image combining unit for synchronizing and combining the generated second driving image and the AR display image;
The second frame rate is augmented reality image processing apparatus, characterized in that less than the first frame rate.
제 11 항에 있어서,
상기 제2 프레임 레이트는 상기 프로세서의 성능에 따라 가변적으로 결정되는 것을 특징으로 하는 증강 현실 영상 처리 장치.
The method of claim 11,
The second frame rate is augmented reality image processing apparatus characterized in that it is variably determined according to the performance of the processor.
제 11 항에 있어서,
상기 제2 프레임 레이트는 상기 AR 안내 객체의 속성 정보에 따라 가변적으로 결정되는 것을 특징으로 하는 증강 현실 영상 처리 장치.
The method of claim 11,
The second frame rate is augmented reality image processing apparatus characterized in that it is variably determined according to the attribute information of the AR guide object.
제 11 항에 있어서,
상기 제2 프레임 레이트는 상기 제2 주행 영상에 포함된 분석 대상의 속성 정보에 따라 가변적으로 결정되는 것을 특징으로 하는 증강 현실 영상 처리 장치.
The method of claim 11,
The second frame rate is augmented reality image processing apparatus characterized in that it is variably determined according to the attribute information of the analysis target included in the second driving image.
제 11 항에 있어서,
상기 AR 표출 영상 생성부는,
상기 제2 주행 영상을 분석하여 상기 AR 안내 객체의 상기 AR 표출 영상 내 위치를 결정하고, 상기 결정된 영상 내 위치에 상기 AR 안내 객체를 위치시킨 상기 AR 표출 영상을 생성하는 것을 특징으로 하는 증강 현실 영상 처리 장치.
The method of claim 11,
The AR expression image generation unit,
Augmented reality image characterized by analyzing the second driving image to determine the location within the AR display image of the AR guide object, and generating the AR display image in which the AR guide object is positioned in the determined image location. Processing unit.
제 11 항에 있어서,
상기 제2 주행 영상으로부터 특징점을 추출하고, 상기 추출된 특징점의 위치 변화값을 산출하며, 상기 산출된 위치 변화값을 기초로 상기 제2 주행 영상의 흔들림 크기 및 흔들림 방향을 나타내는 흔들림 데이터를 산출하는 흔들림 데이터 산출부;를 더 포함하는 것을 특징으로 하는 증강 현실 영상 처리 장치.
The method of claim 11,
Extracting a feature point from the second driving image, calculating a position change value of the extracted feature point, and calculating shake data indicating a shake size and a shake direction of the second driving image based on the calculated position change value An augmented reality image processing apparatus further comprising a shake data calculation unit.
제 16 항에 있어서,
상기 AR 표출 영상 생성부는,
상기 산출된 흔들림 데이터를 이용하여 상기 AR 안내 객체의 상기 AR 표출 영상 내 위치를 보정하는 것을 특징으로 하는 증강 현실 영상 처리 장치.
The method of claim 16,
The AR expression image generation unit,
Augmented reality image processing apparatus characterized in that for correcting the position in the AR display image of the AR guide object using the calculated shake data.
제 17 항에 있어서,
상기 제2 프레임 레이트의 제2 주행 영상과 상기 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는 표시부;를 더 포함하는 것을 특징으로 하는 증강 현실 영상 처리 장치.
The method of claim 17,
And a display unit configured to display an augmented reality image generated according to a combination of the second driving image at the second frame rate and the AR display image at the second frame rate.
제 16 항에 있어서,
상기 산출된 흔들림 데이터를 이용하여 상기 제2 주행 영상에서 일부를 잘라낼 크롭(crop) 영역을 결정하고, 상기 제2 주행 영상의 상기 결정된 크롭 영역에서 잘라낸 크롭 영상을 생성하는 크롭 영상 생성부;를 더 포함하는 것을 특징으로 하는 증강 현실 영상 처리 장치.
The method of claim 16,
A crop image generator configured to determine a crop region to cut a part of the second driving image using the calculated shake data, and generate a cropped image from the determined crop region of the second driving image; Augmented reality image processing apparatus comprising a.
제 19 항에 있어서,
상기 크롭 영상의 크기를 상기 제2 주행 영상의 크기로 확대한 제3 주행 영상을 생성하고, 상기 제2 프레임 레이트의 제3 주행 영상과 상기 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는 표시부;를 더 포함하는 것을 특징으로 하는 증강 현실 영상 처리 장치.
The method of claim 19,
A third driving image in which the size of the cropped image is enlarged to the size of the second driving image is generated, and generated according to a combination of the third driving image at the second frame rate and the AR display image at the second frame rate. And an augmented reality image display unit.
전자 기기에 있어서,
이동체의 주행 중에 촬영된 제1 프레임 레이트의 제1 주행 영상을 획득하는 영상 획득부;
상기 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성하는 주행 영상 생성부;
상기 제2 주행 영상을 분석하여 상기 제2 주행 영상에 표시될 AR(Augmented Reality) 안내 객체를 포함하는 AR 표출 영상을 상기 제2 프레임 레이트로 생성하는 AR 표출 영상 생성부;
상기 생성된 제2 주행 영상과 상기 AR 표출 영상을 동기화시켜 결합하는 영상 결합부; 및
상기 제2 프레임 레이트의 주행 영상과 상기 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는 디스플레이부;를 포함하는 전자 기기.
In electronic devices,
An image acquiring unit acquiring a first driving image at a first frame rate photographed while the mobile body is driving;
A driving image generator configured to process the acquired first driving image to generate a second driving image at a second frame rate;
An AR expression image generation unit analyzing the second driving image and generating an AR expression image including an Augmented Reality (AR) guide object to be displayed on the second driving image at the second frame rate;
An image combining unit synchronizing and combining the generated second driving image and the AR display image; And
And a display unit configured to display an augmented reality image generated according to a combination of the driving image at the second frame rate and the AR display image at the second frame rate.
제1항 내지 제10항 중 어느 한 항에 기재된 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium in which a program for executing the method according to any one of claims 1 to 10 is recorded. 컴퓨터 판독 가능한 기록 매체에 저장되어 제1항 내지 제10항 중 어느 한 항에 기재된 방법을 실행시키는 프로그램. A program stored on a computer-readable recording medium and executing the method according to any one of claims 1 to 10.
KR1020190009451A 2019-01-24 2019-01-24 Image processing method, image processing apparatus, electronic device, computer program and computer readable recording medium for processing augmented reality image KR20200092197A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190009451A KR20200092197A (en) 2019-01-24 2019-01-24 Image processing method, image processing apparatus, electronic device, computer program and computer readable recording medium for processing augmented reality image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190009451A KR20200092197A (en) 2019-01-24 2019-01-24 Image processing method, image processing apparatus, electronic device, computer program and computer readable recording medium for processing augmented reality image

Publications (1)

Publication Number Publication Date
KR20200092197A true KR20200092197A (en) 2020-08-03

Family

ID=72042908

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190009451A KR20200092197A (en) 2019-01-24 2019-01-24 Image processing method, image processing apparatus, electronic device, computer program and computer readable recording medium for processing augmented reality image

Country Status (1)

Country Link
KR (1) KR20200092197A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102452881B1 (en) * 2021-11-23 2022-10-11 (주)코코믹스 Apparatus of processing image and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102452881B1 (en) * 2021-11-23 2022-10-11 (주)코코믹스 Apparatus of processing image and method thereof

Similar Documents

Publication Publication Date Title
KR102348127B1 (en) Electronic apparatus and control method thereof
US9983018B2 (en) Electronic apparatus and control method thereof
US11030816B2 (en) Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
CN108680173B (en) Electronic device, control method of electronic device, and computer-readable recording medium
US11518384B2 (en) Method for displaying lane information and apparatus for executing the method
CN111681455B (en) Control method of electronic device, and recording medium
KR102233391B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR102123844B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
US9677899B2 (en) Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
KR20160065724A (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
CN108335507B (en) Method and device for providing driving guidance by using camera to shoot image
KR20200092197A (en) Image processing method, image processing apparatus, electronic device, computer program and computer readable recording medium for processing augmented reality image
KR20210071584A (en) Method and apparatus for determining location by correcting Global Navigation Satellite System based location and electronic device thereof
KR102158167B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR102299081B1 (en) Electronic apparatus and control method thereof
KR102276082B1 (en) Navigation device, black-box and control method thereof
KR102371620B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR20160065721A (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
KR102299501B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR102506263B1 (en) Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map