KR20200092197A - Image processing method, image processing apparatus, electronic device, computer program and computer readable recording medium for processing augmented reality image - Google Patents
Image processing method, image processing apparatus, electronic device, computer program and computer readable recording medium for processing augmented reality image Download PDFInfo
- Publication number
- KR20200092197A KR20200092197A KR1020190009451A KR20190009451A KR20200092197A KR 20200092197 A KR20200092197 A KR 20200092197A KR 1020190009451 A KR1020190009451 A KR 1020190009451A KR 20190009451 A KR20190009451 A KR 20190009451A KR 20200092197 A KR20200092197 A KR 20200092197A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- driving
- frame rate
- augmented reality
- driving image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/22—Cropping
Abstract
Description
본 발명은 증강 현실 영상 처리 장치, 증강 현실 영상 처리 방법, 전자 기기, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체에 관한 것으로, 보다 상세하게는 증강 현실 요소의 표출 오류를 해소하기 위한 증강 현실 영상 처리 장치, 증강 현실 영상 처리 방법, 전자 기기, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다. The present invention relates to an augmented reality image processing apparatus, an augmented reality image processing method, an electronic device, a computer program, and a computer-readable recording medium, and more specifically, an augmented reality image processing apparatus for solving an expression error of an augmented reality element, It relates to augmented reality image processing methods, electronic devices, computer programs, and computer readable recording media.
증강 현실(Augmented Reality: AR)이란 실제 환경에 가상 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 것, 즉 실 세계(real world)에 3차원 가상물체를 겹쳐 보여주는 기술을 말한다. 증강현실은 가상의 공간과 가상의 객체만을 대상으로 하는 기존의 가상현실(Virtual Reality: VR)과 달리, 실 세계의 기반 위에 가상의 사물을 합성하여 현실 세계만으로는 얻기 어려운 부가적인 정보들을 보강하여 제공할 수 있다. Augmented Reality (AR) refers to a technique of synthesizing virtual objects or information in a real environment so that they appear as objects existing in the original environment, that is, overlaying a 3D virtual object in the real world. . Unlike conventional virtual reality (VR), which targets only virtual spaces and virtual objects, augmented reality synthesizes virtual objects on the basis of the real world and reinforces and provides additional information that is difficult to obtain using only the real world. can do.
이러한 특징 때문에 단순히 게임과 같은 분야에만 한정적으로 적용되던 가상현실과 달리, 증강현실은 다양한 분야에 적용되어 유저(User)에게 제공되고 있다. Because of this feature, unlike virtual reality, which was limitedly applied only to fields such as games, augmented reality is applied to various fields and is provided to users.
그 일 예가, 증강 현실을 기반으로 운전 관련 안내를 수행하는 증강 현실 내비게이션 이다. 이러한 증강 현실 내비게이션은 유저가 실제로 보고 있는 현실 세계를 담고 있는 화면에 부가 정보(예를 들면, 관심 지점(Point Of Interest: POI)을 나타내는 그래픽 요소, 목적지까지의 경로를 나타내는 그래픽 요소 등 : 이하, AR 안내 객체)를 시각적으로 중첩하여 제공함으로써, 유저의 편의성을 높이고 있다. An example is augmented reality navigation that performs driving-related guidance based on augmented reality. Such augmented reality navigation may include additional information (for example, a graphic element representing a point of interest (POI), a graphic element representing a path to a destination, etc.) on a screen containing the real world that the user is actually viewing: AR guide object) is provided by visually overlapping to enhance user convenience.
이러한 종래의 증강 현실 내비게이션은 차량의 주행 중에 실시간으로 촬영된 주행 영상과 AR 표출 영상을 별개로 생성하여 표출하는 방식을 이용하였다.In the conventional augmented reality navigation method, a driving image photographed in real time and an AR expression image are separately generated and displayed while the vehicle is driving.
다만, 이러한 종래의 방식에 의하면, 각각의 영상에 대한 영상 처리 결과의 불일치로, 유저가 실제로 보고 있는 현실 세계를 담고 있는 실시간 주행 영상에서 AR 안내 객체가 부정확한 위치에 표시되는 문제가 있었다.However, according to such a conventional method, there is a problem in that an AR guide object is displayed in an incorrect position in a real-time driving image containing a real world actually viewed by a user due to inconsistency in image processing results for each image.
또한, 종래의 증강 현실 내비게이션에서는 카메라의 고정문제, 카메라 흔들림 등의 영향으로 실시간 주행 영상에서 AR 안내 객체가 부정확한 위치에 표시되는 등 사용자가 원하는 화면이 출력되지 않는다는 문제점이 있었다. In addition, in the conventional augmented reality navigation, there is a problem in that a screen desired by a user is not output, such as an AR guide object displayed in an incorrect location in a real-time driving image due to a camera fixation problem or camera shake.
특히, 증강 현실 내비게이션은 현실 세계를 담고 있는 실시간 주행 영상과 AR 안내 객체를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 것이기에 정보가 정확한 위치에 표출되는 것이 매우 중요한데, 종래의 방식에 의하면 이러한 목적을 달성하기 어려웠고 이로 인하여 운전자의 편의 및 안정성을 저해할 뿐만 아니라, 내비게이션에 대한 운전자의 신뢰 조차 떨어뜨리게 되는 문제점이 있었다. In particular, since augmented reality navigation is a combination of real-time driving images and AR guide objects that contain the real world so that it looks like objects existing in the original environment, it is very important that information is displayed at the correct location. It was difficult to achieve the purpose, and as a result, there was a problem that not only hindered the convenience and stability of the driver, but also dropped the driver's trust in navigation.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 이동체의 주행 중에 촬영된 실시간 주행 영상의 정확한 위치에 AR 안내 객체를 표출하는 증강 현실 영상 처리 장치, 증강 현실 영상 처리 방법, 전자 기기, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체를 제공함에 있다.The present invention has been devised to solve the above-mentioned problems, and an object of the present invention is an augmented reality image processing apparatus and augmented reality image processing method for displaying an AR guide object at an accurate location of a real-time driving image captured while driving a moving object, It provides an electronic device, a computer program, and a computer-readable recording medium.
또한, 본 발명의 목적은 이동체의 주행 중에 촬영된 실시간 주행 영상의 흔들림을 보정하여 흔들림 없는 주행 영상을 제공함과 동시에 정확한 위치에 AR 안내 객체를 표출하는 증강 현실 영상 처리 장치, 증강 현실 영상 처리 방법, 전자 기기, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체를 제공함에 있다. In addition, an object of the present invention is to compensate for the shaking of the real-time driving image taken while driving the moving object to provide a shaking-free driving image, and at the same time, an augmented reality image processing apparatus and augmented reality image processing method for displaying an AR guide object in an accurate position It provides an electronic device, a computer program, and a computer-readable recording medium.
상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 본 발명의 일 실시 예에 따른 프로세서를 이용한 증강 현실 영상 처리 방법은 이동체의 주행 중에 촬영된 제1 프레임 레이트의 제1 주행 영상을 획득하는 단계, 상기 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성하는 단계, 상기 제2 주행 영상을 분석하여 상기 제2 주행 영상에 표시될 AR(Augmented Reality) 안내 객체를 포함하는 AR 표출 영상을 상기 제2 프레임 레이트로 생성하는 단계, 상기 생성된 제2 주행 영상과 상기 AR 표출 영상을 동기화시켜 결합하는 단계를 포함하고, 상기 제2 프레임 레이트는 상기 제1 프레임 레이트 보다 작을 수 있다. An augmented reality image processing method using a processor according to an embodiment of the present invention according to an embodiment of the present invention for achieving the above object is to obtain a first driving image of the first frame rate taken while driving the mobile body Step, generating a second driving image at a second frame rate by processing the obtained first driving image, and analyzing the second driving image to generate an AR (Augmented Reality) guide object to be displayed on the second driving image. Generating an AR display image containing the second frame rate, and synchronizing and combining the generated second driving image and the AR display image, wherein the second frame rate is greater than the first frame rate. It can be small.
그리고, 상기 제2 프레임 레이트는 은 상기 프로세서의 성능에 따라 가변적으로 결정될 수 있다. In addition, the second frame rate may be variably determined according to the performance of the processor.
또한, 상기 제2 프레임 레이트는 상기 AR 안내 객체의 속성 정보에 따라 가변적으로 결정될 수 있다.Also, the second frame rate may be variably determined according to attribute information of the AR guide object.
그리고, 상기 제2 프레임 레이트는 상기 제2 주행 영상에 포함된 분석 대상의 속성 정보를 고려하여 통계적으로 결정될 수 있다.In addition, the second frame rate may be statistically determined in consideration of attribute information of an analysis target included in the second driving image.
또한, 상기 AR 안내 객체를 포함하는 AR 표출 영상을 상기 제2 프레임 레이트로 생성하는 단계는 상기 제2 주행 영상을 분석하여 상기 AR 안내 객체의 상기 AR 표출 영상 내 위치를 결정하는 단계 및 상기 결정된 영상 내 위치에 상기 AR 안내 객체를 위치시킨 상기 AR 표출 영상을 생성하는 단계를 포함할 수 있다.In addition, the step of generating the AR display image including the AR guide object at the second frame rate may include analyzing the second driving image to determine a position in the AR display image of the AR guide object and the determined image. And generating the AR expression image in which the AR guide object is positioned in my location.
그리고, 상기 제2 주행 영상으로부터 특징점을 추출하고, 상기 추출된 특징점의 위치 변화값을 산출하는 단계 및 상기 산출된 위치 변화값을 기초로 상기 제2 주행 영상의 흔들림 크기 및 흔들림 방향을 나타내는 흔들림 데이터를 산출하는 단계를 더 포함할 수 있다.Then, extracting a feature point from the second driving image, calculating the position change value of the extracted feature point and shaking data indicating the shaking size and the shaking direction of the second driving image based on the calculated position change value It may further include the step of calculating.
또한, 상기 산출된 흔들림 데이터를 이용하여 상기 AR 안내 객체의 상기 AR 표출 영상 내 위치를 보정하는 단계를 더 포함할 수 있다.In addition, the method may further include correcting a position in the AR display image of the AR guide object using the calculated shake data.
그리고, 상기 제2 프레임 레이트의 제2 주행 영상과 상기 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는 단계를 더 포함할 수 있다.In addition, the method may further include displaying an augmented reality image generated according to a combination of the second driving image at the second frame rate and the AR display image at the second frame rate.
또한, 상기 산출된 흔들림 데이터를 이용하여 상기 제2 주행 영상에서 일부를 잘라낼 크롭(crop) 영역을 결정하는 단계 및 상기 제2 주행 영상의 상기 결정된 크롭 영역에서 잘라낸 크롭 영상을 생성하는 단계를 더 포함할 수 있다.The method further includes determining a crop region to cut a portion of the second driving image using the calculated shake data and generating a cropped image cropped from the determined crop region of the second driving image. can do.
그리고, 상기 크롭 영상의 크기를 상기 제2 주행 영상의 크기로 확대한 제3 주행 영상을 생성하는 단계 및 상기 제2 프레임 레이트의 제3 주행 영상과 상기 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는 단계를 더 포함할 수 있다.Then, generating a third driving image in which the size of the cropped image is enlarged to the size of the second driving image and combining the third driving image at the second frame rate and the AR display image at the second frame rate. The method may further include displaying the generated augmented reality image.
한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 장치는, 이동체의 주행 중에 촬영된 제1 프레임 레이트의 제1 주행 영상을 획득하는 영상 획득부, 상기 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성하는 주행 영상 생성부, 상기 제2 주행 영상을 분석하여 상기 제2 주행 영상에 표시될 AR(Augmented Reality) 안내 객체를 포함하는 AR 표출 영상을 상기 제2 프레임 레이트로 생성하는 AR 표출 영상 생성부 및 상기 생성된 제2 주행 영상과 상기 AR 표출 영상을 동기화시켜 결합하는 영상 결합부를 포함하고, 상기 제2 프레임 레이트는 상기 제1 프레임 레이트 보다 작을 수 있다.On the other hand, the augmented reality image processing apparatus according to an embodiment of the present invention for achieving the above object, the image acquisition unit for acquiring the first driving image of the first frame rate photographed while the moving object, the obtained agent A driving image generator that processes a first driving image to generate a second driving image at a second frame rate, and an AR including an Augmented Reality (AR) guide object to be displayed on the second driving image by analyzing the second driving image And an AR display image generator for generating the displayed image at the second frame rate and an image combining unit for synchronizing and combining the generated second driving image and the AR displayed image, wherein the second frame rate is the first frame. It may be less than the rate.
그리고, 상기 제2 프레임 레이트는 상기 프로세서의 성능에 따라 가변적으로 결정될 수 있다.Also, the second frame rate may be variably determined according to the performance of the processor.
또한, 상기 제2 프레임 레이트는 상기 AR 안내 객체의 속성 정보에 따라 가변적으로 결정될 수 있다.Also, the second frame rate may be variably determined according to attribute information of the AR guide object.
그리고, 상기 제2 프레임 레이트는 상기 제2 주행 영상에 포함된 분석 대상의 속성 정보에 따라 가변적으로 결정될 수 있다.Also, the second frame rate may be variably determined according to attribute information of an analysis target included in the second driving image.
또한, 상기 AR 표출 영상 생성부는, 상기 제2 주행 영상을 분석하여 상기 AR 안내 객체의 상기 AR 표출 영상 내 위치를 결정하고, 상기 결정된 영상 내 위치에 상기 AR 안내 객체를 위치시킨 상기 AR 표출 영상을 생성할 수 있다.In addition, the AR expression image generation unit analyzes the second driving image, determines the location within the AR expression image of the AR guidance object, and positions the AR guidance image in which the AR guidance object is positioned in the determined location within the image. Can be created.
그리고, 상기 제2 주행 영상으로부터 특징점을 추출하고, 상기 추출된 특징점의 위치 변화값을 산출하며, 상기 산출된 위치 변화값을 기초로 상기 제2 주행 영상의 흔들림 크기 및 흔들림 방향을 나타내는 흔들림 데이터를 산출하는 흔들림 데이터 산출부를 더 포함할 수 있다.Then, the feature point is extracted from the second driving image, the position change value of the extracted feature point is calculated, and the shaking data indicating the shaking size and the shaking direction of the second driving image are calculated based on the calculated position change value. It may further include a shake data calculation unit to calculate.
또한, 상기 AR 표출 영상 생성부는, 상기 산출된 흔들림 데이터를 이용하여 상기 AR 안내 객체의 상기 AR 표출 영상 내 위치를 보정할 수 있다.In addition, the AR expression image generation unit may correct a position in the AR expression image of the AR guide object using the calculated shake data.
그리고, 상기 제2 프레임 레이트의 제2 주행 영상과 상기 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는 표시부를 더 포함할 수 있다.In addition, the display unit may further include an augmented reality image generated according to a combination of the second driving image at the second frame rate and the AR display image at the second frame rate.
또한, 상기 산출된 흔들림 데이터를 이용하여 상기 제2 주행 영상에서 일부를 잘라낼 크롭(crop) 영역을 결정하고, 상기 제2 주행 영상의 상기 결정된 크롭 영역에서 잘라낸 크롭 영상을 생성하는 크롭 영상 생성부를 더 포함할 수 있다.In addition, a crop image generation unit configured to determine a crop region to cut a part of the second driving image by using the calculated shake data, and to generate a cropped image from the determined crop region of the second driving image. It can contain.
그리고, 상기 크롭 영상의 크기를 상기 제2 주행 영상의 크기로 확대한 제3 주행 영상을 생성하고, 상기 제2 프레임 레이트의 제3 주행 영상과 상기 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는 표시부를 더 포함할 수 있다.In addition, according to a combination of the third driving image at the second frame rate and the AR display image at the second frame rate, the third driving image is enlarged to the size of the second driving image. A display unit for displaying the generated augmented reality image may be further included.
한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 기기는, 이동체의 주행 중에 촬영된 제1 프레임 레이트의 제1 주행 영상을 획득하는 영상 획득부, 상기 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성하는 주행 영상 생성부, 상기 제2 주행 영상을 분석하여 상기 제2 주행 영상에 표시될 AR(Augmented Reality) 안내 객체를 포함하는 AR 표출 영상을 상기 제2 프레임 레이트로 생성하는 AR 표출 영상 생성부, 상기 생성된 제2 주행 영상과 상기 AR 표출 영상을 동기화시켜 결합하는 영상 결합부 및 상기 제2 프레임 레이트의 주행 영상과 상기 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는 디스플레이부를 포함할 수 있다.On the other hand, the electronic device according to an embodiment of the present invention for achieving the above object, the image acquisition unit for acquiring the first driving image of the first frame rate photographed while the moving object, the obtained first driving image A driving image generation unit generating a second driving image at a second frame rate by processing the AR display image including the AR (Augmented Reality) guide object to be displayed on the second driving image by analyzing the second driving image. The AR display image generating unit generating the second frame rate, the image combining unit synchronizing and combining the generated second driving image and the AR displayed image, and the driving image of the second frame rate and the second frame rate. It may include a display unit for displaying the augmented reality image generated according to the combination of the AR display image.
한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 컴퓨터 판독 가능한 기록 매체는 상술한 방법을 실행시키기 위한 프로그램이 기록될 수 있다.On the other hand, a computer-readable recording medium according to an embodiment of the present invention for achieving the above object may be recorded a program for executing the above-described method.
또한, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 프로그램에는 상술한 방법을 실행시키기 위한 코드가 기록될 수 있다. In addition, code for executing the above-described method may be recorded in a program according to an embodiment of the present invention for achieving the above-described object.
상술한 본 발명의 다양한 실시 예에 따르면 실시간 주행 영상의 프레임 레이트를 유저의 시각에 동영상으로 인식될 수 있는 최소치와 프로세서의 성능 최대치 내의 프레임 레이트로 낮추고, 변경된 프레임 레이트의 주행 영상을 분석하여 AR 안내 객체를 포함하는 AR 표출 영상을 생성하며, 주행 영상과 AR 표출 영상들의 프레임 레이트를 일치시킴으로써, 유저가 실제로 보고 있는 현실 세계를 담고 있는 실시간 주행 영상에서 AR 안내 객체가 정확한 위치에 표시되도록 할 수 있다. According to various embodiments of the present invention described above, the frame rate of a real-time driving image is reduced to a frame rate within a minimum value that can be recognized as a video at a user's time and a processor performance maximum value, and the driving image of the changed frame rate is analyzed to guide AR By generating an AR expression image including an object and matching the frame rates of the driving image and the AR expression images, the AR guide object can be displayed at an accurate location in a real-time driving image containing the real world that the user is actually viewing. .
또한, 본 발명에 따르면, 카메라의 흔들림에 따른 주행 영상의 흔들림을 보정하여 흔들림 없는 주행 영상을 제공함과 동시에 AR 안내 객체의 표시 위치를 보정함으로써, 유저가 실제로 보고 있는 현실 세계를 담고 있는 실시간 주행 영상에서 AR 안내 객체가 정확한 위치에 표시되도록 할 수 있다. In addition, according to the present invention, by correcting the shaking of the driving image according to the shaking of the camera to provide a shaking-free driving image and at the same time correcting the display position of the AR guide object, real-time driving image containing the real world that the user is actually viewing. In the AR guide object can be displayed at the correct location.
이에 따라, 본 발명은 운전자의 시각에는 운전자가 실제로 보고 있는 현실 세계를 담고 있는 주행 영상을 동영상으로 보여지게 하면서 동시에 주행 영상에서 AR 객체를 정확한 위치에 표시함으로써, 운전자에게 정확한 증강 현실 내비게이션 서비스를 제공할 수 있다.Accordingly, the present invention provides an accurate augmented reality navigation service to the driver by displaying the AR object in the driving image at the same time while displaying the driving image containing the real world that the driver is actually viewing in the driver's view at the same time. can do.
또한, 본 발명에 따르면, 프레임 레이트의 변경 범위를 프로세서의 성능을 고려함으로써, 시스템의 리소스를 효율적으로 이용할 수 있다. Further, according to the present invention, by considering the performance of the processor in the range of change of the frame rate, it is possible to efficiently use the resources of the system.
도 1은 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 장치를 나타내는 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 장치를 보다 구체적으로 나타내는 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 AR 표출 영상 생성부(13)를 구체적으로 나타내는 블록도 이다.
도 4는 본 발명의 일 실시 예에 따른 2D 촬영 이미지와 가상 3D 공간 사이의 변환 관계를 나타내는 도면이다.
도 5는 본 발명의 일 실시 예에 따른 주행 영상 생성부의 동작을 나타내는 도면 이다.
도 6은 본 발명의 일 실시 예에 따른 AR 표출 영상 생성부의 동작을 나타내는 도면 이다.
도 7은 종래의 증강 현실 영상 처리 방법의 문제를 설명하기 위한 개념도 이다.
도 8은 본 발명의 일 실시 예에 증강 현실 영상 처리 방법을 설명하기 위한 개념도 이다.
도 9는 흔들림에 따른 주행 영상을 나타내는 예시도 이다.
도 10은 본 발명의 일 실시 예에 따른 특징점의 추출 및 특징점의 위치 변화값 산출 과정을 나타내는 개념도 이다.
도 11 내지 12는 흔들림이 발생 유무에 따른 크롭 영상 생성 과정을 나타내는 도면 이다.
도 13은 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 방법을 나타낸 흐름도이다.
도 14는 본 발명의 다른 실시 예에 따른 증강 현실 영상 처리 방법을 나타낸 흐름도이다.
도 15는 본 발명의 일 실시 예에 따른 전자 장치를 나타내는 블록도이다.
도 16은 본 발명의 일 실시 예에 따른 전자 장치와 연결된 시스템 네트워크를 설명하기 위한 도면이다.
도 17은 본 발명의 일 실시 예에 따른 전자 장치의 전방 차량 추돌 방지 안내 UI 화면을 나타내는 도면이다.
도 18은 본 발명의 일 실시 예에 따른 전자 장치가 촬영부를 구비하지 않는 경우의 구현 형태를 나타내는 도이다.
도 19는 본 발명의 일 실시 예에 따른 전자 장치가 촬영부를 구비하는 경우 구현 형태를 나타내는 도이다.
도 20은 본 발명의 일 실시 예에 따른 HUD(Head-Up Display)를 이용한 구현 형태를 나타내는 도이다.1 is a block diagram showing an augmented reality image processing apparatus according to an embodiment of the present invention.
2 is a block diagram showing an augmented reality image processing apparatus according to an embodiment of the present invention in more detail.
3 is a block diagram specifically showing an AR-expressing
4 is a view showing a conversion relationship between a 2D captured image and a virtual 3D space according to an embodiment of the present invention.
5 is a view showing the operation of the driving image generating unit according to an embodiment of the present invention.
6 is a view showing the operation of the AR expression image generation unit according to an embodiment of the present invention.
7 is a conceptual diagram for explaining a problem in a conventional augmented reality image processing method.
8 is a conceptual diagram illustrating an augmented reality image processing method according to an embodiment of the present invention.
9 is an exemplary view showing a driving image according to shaking.
10 is a conceptual diagram illustrating a process of extracting a feature point and calculating a position change value of the feature point according to an embodiment of the present invention.
11 to 12 are views showing a crop image generation process according to whether or not shaking occurs.
13 is a flowchart illustrating an augmented reality image processing method according to an embodiment of the present invention.
14 is a flowchart illustrating an augmented reality image processing method according to another embodiment of the present invention.
15 is a block diagram illustrating an electronic device according to an embodiment of the present invention.
16 is a diagram for describing a system network connected to an electronic device according to an embodiment of the present invention.
17 is a view showing a front UI collision prevention UI screen of an electronic device according to an embodiment of the present invention.
18 is a diagram illustrating an implementation form when an electronic device according to an embodiment of the present invention does not include a photographing unit.
19 is a diagram illustrating an implementation form when an electronic device according to an embodiment of the present invention includes a photographing unit.
20 is a view showing an implementation form using a head-up display (HUD) according to an embodiment of the present invention.
이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following merely illustrates the principles of the present invention. Therefore, a person skilled in the art can implement various principles included in the concept and scope of the present invention and implement the principles of the present invention, although not explicitly described or illustrated in the present specification. In addition, all conditional terms and examples listed in this specification are intended to be understood in principle only for the purpose of understanding the concept of the present invention, and should be understood as not limited to the examples and states specifically listed in this way. do.
또한, 본 발명의 원리, 관점 및 실시 예들뿐만 아니라 특정 실시 예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.In addition, it should be understood that all detailed descriptions that list particular embodiments, as well as the principles, aspects and embodiments of the invention, are intended to include structural and functional equivalents of these matters. It should also be understood that these equivalents include all currently invented equivalents as well as equivalents to be developed in the future, ie, all devices invented to perform the same function regardless of structure.
따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, it should be understood that the block diagrams herein represent conceptual views of exemplary circuits embodying the principles of the invention. Similarly, all flow diagrams, state diagrams, pseudo-codes, etc. are understood to represent various processes performed by a computer or processor, whether or not the computer or processor is clearly depicted, which may be substantially represented on a computer-readable medium. Should be.
프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.The functionality of the various elements shown in the figures, including a processor or functional block marked with a similar concept, may be provided by the use of dedicated hardware as well as hardware capable of executing software in connection with appropriate software. When provided by a processor, the functionality may be provided by a single dedicated processor, a single shared processor, or a plurality of individual processors, some of which may be shared.
또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.Also, the clear use of terms presented in terms of processors, controls, or similar concepts should not be interpreted exclusively by reference to hardware capable of executing software, and without limitation, digital signal processor (DSP) hardware, ROM for storing software. It should be understood to implicitly include (ROM), RAM and non-volatile memory. Other hardware for governors may also be included.
본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.In the claims of the present specification, components expressed as means for performing the functions described in the detailed description include all types of software including, for example, combinations of circuit elements performing the above functions, firmware/micro code, and the like. It is intended to include all methods of performing a function, and is combined with appropriate circuitry for executing the software to perform the function. The present invention, as defined by these claims, is equivalent to any means capable of providing such functions are understood from this specification, since the functions provided by the various listed means are combined and combined with the manner required by the claims. It should be understood as.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. The above objects, features, and advantages will become more apparent through the following detailed description in connection with the accompanying drawings, and accordingly, those skilled in the art to which the present invention pertains can easily implement the technical spirit of the present invention. There will be. In addition, in the description of the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted.
이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시 예를 상세히 설명하기로 한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1 은 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 장치를 나타내는 블록도 이다. 도 2는 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 장치를 보다 구체적으로 나타내는 블록도 이다. 도 1 내지 2를 참조하면, 증강 현실 영상 처리 장치(10)는 영상 획득부(11), 주행 영상 생성부(12), AR 표출 영상 생성부(13), 영상 결합부 (14), 흔들림 데이터 산출부(15), 크롭 영상 생성부(16), 표시부(17) 를 포함할 수 있다.1 is a block diagram showing an augmented reality image processing apparatus according to an embodiment of the present invention. 2 is a block diagram showing an augmented reality image processing apparatus according to an embodiment of the present invention in more detail. 1 to 2, the augmented reality
이러한 증강 현실 영상 처리 장치(10)는 차량의 주행 중에 촬영된 주행 영상의 프레임 레이트(frame rate)를 유저의 시각에 동영상으로 인식될 수 있는 최소치와 프로세서의 성능 최대치 내의 프레임 레이트로 낮추고, 변경된 프레임 레이트의 주행 영상을 분석하여 AR 안내 객체를 포함하는 AR 표출 영상을 생성하며, 주행 영상과 AR 표출 영상들의 프레임 레이트를 일치시켜 결합하여 증강 현실 영상을 생성할 수 있다. 여기서, 차량의 주행 중에 촬영된 주행 영상은 제1 주행 영상으로 명명될 수 있고, 제1 주행 영상의 프레임 레이트는 제1 프레임 레이트로 명명될 수 있다. 또한, 유저의 시각에 동영상으로 인식될 수 있는 최소치와 프로세서의 성능 최대치 내의 프레임 레이트는 제2 프레임 레이트로 명명될 수 있고, 제2 프레임 레이트로 낮추어진 주행 영상은 제2 주행 영상으로 명명될 수 있다. 그리고, 프레임 레이트의 단위는 1초당 프레임 수를 의미하는 frame per second(fps)로 정의될 수 있다. The augmented reality
또한, 증강 현실 영상 처리 장치(10)는 차량에 설치된 촬영 장치의 흔들림에 따른 주행 영상의 흔들림을 보정하여, 흔들림 없는 주행 영상을 제공함과 동시에 AR 안내 객체의 표시 위치를 보정할 수 있다.In addition, the augmented reality
여기서, 증강 현실 영상 처리 장치(10)는 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 구현될 수 있다. 일 예로, 하드웨어적인 구현에 의하면, ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(micro-processors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. Here, the augmented reality
그리고, 이동체는 이동 가능하고 위치 측정이 필요한 객체로, 일 예로, 사람, 강아지, 차량, 선박, 오토바이, 자전거, 기차 등일 수 있다. 이하에서는 설명의 편의를 위하여 이동체가 차량으로 구현된 경우를 예로, 증강 현실 영상 처리 장치(10)를 구성하는 각각의 구성 모듈에 대해서 보다 상세하게 설명하기로 한다. And, the moving object is an object that is movable and requires location measurement, and may be, for example, a person, a dog, a vehicle, a ship, a motorcycle, a bicycle, or a train. Hereinafter, for convenience of description, a case where the mobile body is implemented as a vehicle will be described in more detail with respect to each configuration module constituting the augmented reality
영상 획득부(11)는 차량의 주행 중에 차량에 설치된 촬영 장치에서 촬영된 제1 프레임 레이트의 제1 주행 영상을 실시간으로 획득할 수 있다. 여기서, 획득된 제1 주행 영상에는 차선을 따라 구별되는 복수의 차로, 복수의 차로로 구성된 도로, 도로를 주행하고 있는 복수의 차량, 기타 배경 등이 포함될 수 있다. The
여기서, 차선은 차량이 위치한 차로(lane)를 형성하는 양측 선(line) 각각을 의미할 수 있다. 또한, 차로(lane)는 1 차로, 2 차로,.. N 차로 등과 같이 차선에 의해 형성되고, 차량이 주행하는 도로를 의미할 수 있다. Here, the lane may mean each of two lines forming a lane in which the vehicle is located. In addition, the lane (lane) is formed by a lane, such as the first lane, the second lane, .. N lane, etc., may mean a road on which the vehicle travels.
주행 영상 생성부(12)는 영상 획득부(11)에서 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성할 수 있다. 구체적으로, 주행 영상 생성부(120)는 영상 획득부(11)에서 획득된 고프레임 레이트의 제1 주행 영상을 유저의 시각에 동영상으로 인식될 수 있는 최소치와 프로세서의 성능 최대치 내의 제2 프레임 레이트로 낮춘 제2 주행 영상을 생성할 수 있다. 즉, 제2 프레임 레이트는 제1 프레임 레이트 보다 작을 수 있다. The driving
일 예로, 영상 획득부(11)에서 획득된 제1 주행 영상의 제1 프레임 레이트는 60 fps일 수 있고, 주행 영상 생성부(12)는 60fps의 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성할 수 있다. 여기서, 제2 프레임 레이트는 유저의 시각에 동영상으로 인식될 수 있는 최소치인 15fps 이상이고 최대치는 프로세서의 성능에 따라 가변적으로 결정될 수 있다. 구체적으로, AR 안내 객체들의 주행 영상을 처리하는 프로세서가 고성능인 경우 제2 프레임 레이트는 높일 수 있으며, 프로세서가 저성능인 경우 제2 프레임 레이트를 낮출 수 있다. 이와 같이, 프로세서의 성능에 따라 제2 프레임 레이트를 가변시킴으로써 시스템 리소스를 효율적으로 이용할 수 있다.For example, the first frame rate of the first driving image obtained by the
또한, 제2 프레임 레이트는 제2 주행 영상에 포함된 분석 대상의 속성 정보에 따라 가변적으로 결정될 수 있다. 구체적으로, 제2 주행 영상에는 차량 운전자의 안내를 제공하기 위하여 분석이 필요한 대상(이하, 분석 대상)이 다수 포함되어 있을 수 있다. 일 예로, 분석 대상은 제2 주행 영상에 포함된 차선, 전방 차량, 신호등, 도로 표지판, 횡단보도, 보행자, 차로 등과 같은 차량 운전자 보조를 위하여 분석이 필요한 다양한 대상을 포함할 수 있고, 이러한 요소들은 이미지 처리 속도에 영향을 줄 수 있다. 이에 따라 본 발명에 따른 주행 영상 생성부(12)는 제2 주행 영상에 포함된 분석 대상의 개수, 제2 주행 영상에 포함된 분석 대상의 이미지 사이즈, 제2 주행 영상에 포함된 분석 대상의 종류(TYPE), 제2 주행 영상에 포함된 분석 대상의 데이터 크기 중 적어도 하나를 포함하는 분석 대상의 속성 정보에 따라 제2 프레임 레이트를 가변적으로 결정할 수 있다. 일 예로, 제2 주행 영상에 분석 대상이 다수 포함되어 있는 경우, 이미지 처리 속도를 높이기 위하여 제2 주행 영상에 분석 대상의 개수가 늘어날수록 프레임 레이트를 낮출 수 있다. Also, the second frame rate may be variably determined according to attribute information of an analysis target included in the second driving image. Specifically, the second driving image may include a plurality of objects (hereinafter, an analysis object) that require analysis to provide guidance to the vehicle driver. As an example, the analysis target may include various targets that require analysis to assist the vehicle driver, such as lanes, front vehicles, traffic lights, road signs, pedestrian crossings, pedestrians, and lanes included in the second driving image, and these elements This can affect image processing speed. Accordingly, the driving
또한, 제2 프레임 레이트는 AR 안내 객체의 속성 정보에 따라 가변적으로 결정될 수 있다. 구체적으로, 후술할 AR 표출 영상 생성부(13)는 제2 주행 영상을 분석하여 AR 안내 객체를 생성하고, 생성된 AR 안내 객체의 매핑 위치를 결정하며, 이를 기초로 AR 표출 영상을 생성한다. 여기서, AR 표출 영상의 생성은 AR 안내 객체의 생성을 위한 이미지 처리 속도에 영향을 받게 된다. 이에 따라, 본 발명에 따른 주행 영상 생성부(12)는 AR 안내 객체의 종류(TYPE), AR 안내 객체의 이미지 사이즈, AR 안내 객체의 데이터 크기, AR 안내 객체가 표출될 위치 중 적어도 하나를 포함하는 AR 안내 객체의 속성 정보에 따라 제2 프레임 레이트를 가변적으로 결정할 수 있다. 일 예로, AR 안내 객체의 데이터 크기가 큰 경우, 이미지 처리 속도를 높이기 위하여 데이터 크기가 커질 수록 제2 프레임 레이트를 낮출 수 있다. Also, the second frame rate may be variably determined according to attribute information of the AR guide object. Specifically, the AR expression
한편, 프레임 레이트는 복수의 AR 안내 객체의 속성 정보를 고려하여 통계적으로 결정될 수 있다. 예를 들어, AR 안내 객체들의 평균 이미지 사이즈에 따라 프레임 레이트가 결정될 수도 있다. 즉, 프로세서의 성능 대비 이미지 처리 속도를 높이기 위하여, AR 안내 객체들의 평균 사이즈가 커질수록 프레임 레이트를 낯출 수 있다. 다른 예로, AR 안내 객체들의 평균 데이터 크기에 따라 프레임 레이트가 결정될 수도 있다. 즉, 프로세서의 성능 대비 이미지 처리 속도를 높이기 위하여, AR 안내 객체들의 평균 데이터 크기가 커질수록 프레임 레이트를 낯출 수 있다.Meanwhile, the frame rate may be statistically determined in consideration of attribute information of a plurality of AR guide objects. For example, the frame rate may be determined according to the average image size of AR guide objects. In other words, in order to increase the image processing speed compared to the performance of the processor, the frame rate may become unfamiliar as the average size of the AR guide objects increases. As another example, the frame rate may be determined according to the average data size of AR guide objects. That is, in order to increase the image processing speed compared to the performance of the processor, as the average data size of the AR guide objects increases, the frame rate may become unfamiliar.
위와 같이 제2 주행 영상에 포함된 분석 대상의 속성 정보 및 AR 안내 객체의 속성 정보에 따라 프레임 레이트를 결정함으로써, 증강 현실 영상 처리 장치(10)는 제2 주행 영상과 AR 표출 영상 간의 정합 오류를 최소화 할 수 있는 최적의 프레임 레이트를 결정할 수 있다.As described above, by determining the frame rate according to the attribute information of the analysis target included in the second driving image and the attribute information of the AR guide object, the augmented reality
한편, 위 실시 예에 한정되는 것은 아니고, 상술한 프레임 레이트는 제2 주행 영상의 비트레이트(bitrate), 영상 크기, 코덱(codec) 종류 등에 의해 결정될 수도 있다. 여기서, 비트레이트(bitrate)는 특정한 시간 단위(이를테면 초 단위)마다 처리하는 비트의 수를 의미한다.Meanwhile, the present invention is not limited to the above embodiment, and the above-described frame rate may be determined by a bitrate, image size, and codec type of the second driving image. Here, the bitrate refers to the number of bits processed for a specific time unit (eg, seconds).
한편, 주행 영상 생성부(12)는 영상 획득부(11)에서 획득된 제1 프레임 레이트의 제1 주행 영상의 일부 만을 선택하는 처리를 통하여 제2 프레임 레이트의 제2 주행 영상을 생성할 수 있다. 일 예로, 영상 획득부(11)에서 획득된 제1 주행 영상의 제1 프레임 레이트는 60 fps일 수 있고, 주행 영상 생성부(12)는 1초당 60프레임으로 구성된 제1 주행 영상에서 15 프레임만을 선택함으로써 15 fps의 제2 주행 영상을 생성할 수 있다. Meanwhile, the driving
AR 표출 영상 생성부(13)는 주행 영상 생성부(12)에서 생성된 제2 주행 영상을 분석하여 제2 주행 영상에 표시될 AR(Augmented Reality) 안내 객체를 포함하는 AR 표출 영상을 제2 프레임 레이트로 생성할 수 있다. 여기서, AR 표출 영상의 일 예는 투명 바탕에 운전자에게 운전 관련 안내를 제공하는 적어도 하나의 AR 안내 객체가 배치된 형태일 수 있다. 그리고, AR 표출 영상에서 AR 안내 객체의 배치 위치는 AR 안내 객체의 종류에 따라 달라질 수 있다. 그리고, AR 표출 영상은 제2 주행 영상과 정합되도록, AR 표출 영상과 제2 주행 영상은 이미지 크기가 동일하게 구현될 수 있다. The AR expression
이러한 AR 표출 영상 생성부(13)에 대해서는 도 3 내지 4를 참조하여 보다 구체적으로 설명하기로 한다. The AR expression
도 3은 본 발명의 일 실시 예에 따른 AR 표출 영상 생성부를 구체적으로 나타내는 블록도 이다. 도 3을 참조하면, AR 표출 영상 생성부(13)는 캘리브레이션부(13-1), 3D 공간 생성부(13-2), AR 안내 객체 생성부(13-3), 매핑 위치 결정부(13-4)의 전부 또는 일부를 포함할 수 있다. 3 is a block diagram specifically showing an AR-expressing image generator according to an embodiment of the present invention. Referring to FIG. 3, the AR expression
캘리브레이션부(13-1)는 카메라에서 촬영된 촬영 영상으로부터 카메라에 해당되는 카메라 파라미터를 추정하기 위한 캘리브레이션(Calibration)을 수행할 수 있다. 여기서, 카메라 파라미터는 실사공간이 사진에 맺히는 관계를 나타내는 정보인 카메라 행렬을 구성하는 파라미터일 수 있다. 여기서 파라미터는, 도 4(a)와 같이, 카메라 외부 파라미터(extrinsic parameters)(601), 카메라 내부 파라미터(intrinsic parameters)(602)를 포함할 수 있다. 여기서, 카메라 내부 파라미터(602)의 fx, fy는 초점거리(focal length), cx, cy는 주점(principal point), skew_c = tanα는 비대칭계수(skew coefficient)일 수 있다. 또한, 카메라 외부 파라미터(601)는 월드 좌표계(world coordinate system)(605) 상의 3D 점의 좌표 (X,Y,Z)를 카메라 좌표계(Camera Coordinate System)(604)상의 3D 점의 좌표 (Xc, Yc, Zc)로 변환시키기 위한 회전/이동변환 행렬일 수 있다. 이러한, 카메라 외부 파라미터는 카메라 고유의 파라미터가 아니기 때문에 카메라를 어떤 위치에 어떤 방향으로 설치했는지에 따라 달라지고 또한 월드 좌표계를 어떻게 정의했느냐에 따라서 달라질 수 있다. The calibration unit 13-1 may perform calibration for estimating camera parameters corresponding to the camera from the captured image taken by the camera. Here, the camera parameter may be a parameter constituting a camera matrix, which is information indicating a relationship that a photorealistic space has on a photo. Here, as shown in FIG. 4(a), the parameters may include
즉, 본 발명에 따른 캘리브레이션부(13-1)는 주행 영상 생성부(12)에서 생성된 제2 주행 영상으로부터 카메라에 해당되는 카메라 파라미터를 추정하기 위한 캘리브레이션(Calibration)을 수행할 수 있다.That is, the calibration unit 13-1 according to the present invention may perform calibration to estimate camera parameters corresponding to the camera from the second driving image generated by the driving
3D 공간 생성부(13-2)는 카메라에서 촬영된 촬영 영상을 기초로 가상 3D 공간을 생성할 수 있다. 구체적으로, 3D 공간 생성부(13-2)는 캘리브레이션부(13-1)가 추정한 카메라 파라미터를 기초로 카메라가 촬영한 영상으로부터 깊이 정보(Depths information)를 획득하고, 획득한 깊이 정보와 촬영 영상을 기초로 가상 3D 공간을 생성할 수 있다. 구체적으로, 도 4(b)를 참조하면, 카메라 촬영 영상은 월드 좌표계(605)의 3차원 공간상의 점들을 영상 좌표계(603)의 2차원 이미지 평면에 투사(perspective projection)함으로써 얻어진다. 따라서, 3D 공간 생성부(13-2)는 카메라 파라미터를 기초로 상술한 동작의 역과정을 수행하여 카메라의 촬영 영상에 대한 월드 좌표계(605)의 가상 3D(3-Dimensional) 공간을 생성할 수 있다.The 3D space generation unit 13-2 may generate a virtual 3D space based on the captured image captured by the camera. Specifically, the 3D spatial generation unit 13-2 acquires depth information from the image captured by the camera based on the camera parameters estimated by the calibration unit 13-1, and acquires the acquired depth information and A virtual 3D space can be created based on an image. Specifically, referring to FIG. 4(b), the camera image is obtained by projecting points on a three-dimensional space of the world coordinate
즉, 본 발명에 따른 3D 공간 생성부(13-2)는 캘리브레이션부(13-1)가 추정한 카메라 파라미터를 기초로 제2 주행 영상으로부터 깊이 정보(Depths information)를 획득하고, 획득한 깊이 정보와 제2 주행 영상을 기초로 가상 3D 공간을 생성할 수 있다.That is, the 3D spatial generation unit 13-2 according to the present invention acquires depth information from the second driving image based on the camera parameters estimated by the calibration unit 13-1, and obtains the acquired depth information And a second driving image may generate a virtual 3D space.
AR 안내 객체 생성부(13-3)는 증강 현실 상에서 안내를 위한 객체, 예를 들어, 경로 안내 객체, 차로 변경 안내 객체, 차선 이탈 안내 객체, 횡단 보도 객체, 보행자 안내 객체 등을 생성할 수 있다. 여기서, 객체는 3차원 객체, 텍스처 이미지 또는 아트라인 등으로 구현될 수 있다. The AR guide object generating unit 13-3 may generate an object for guidance in augmented reality, for example, a route guide object, a lane change guide object, a lane departure guide object, a pedestrian crossing object, a pedestrian guide object, and the like. . Here, the object may be implemented as a 3D object, a texture image or an art line.
이를 위하여, 본 발명의 일 실시 예에 따른 AR 안내 객체 생성부(13-3)는 주행 영상 생성부(12)에서 생성된 제2 주행 영상의 프레임들을 실시간으로 분석하는 영상 분석 모듈을 포함할 수 있다. 이러한 영상 분석 모듈은 제2 주행 영상의 프레임들을 실시간으로 분석하여 분석 대상을 검출하고, 검출된 분석 대상을 기초로 차량의 운전자에게 어떤 안내가 필요한지 판단하고, 필요한 안내에 대응되는 증강 현실 안내 객체를 생성할 수 있다. 여기서, 분석 대상은 차량 운전자의 안내를 제공하기 위하여 분석이 필요한 대상을 의미하고, 예를 들어, 제2 주행 영상에 포함된 차선, 전방 차량, 신호등, 도로 표지판, 횡단보도, 보행자, 차로 등과 같은 차량 운전자 보조를 위하여 분석이 필요한 다양한 대상을 포함할 수 있다. 일 예로, 제2 주행 영상으로부터 차량의 주행 전방에 위치한 횡단보도가 검출되면, AR 안내 객체 생성부(13-3)는 횡단 보도 안내 객체를 생성할 수 있다. 다른 예로, 제2 주행 영상으로부터 차량의 좌우측에 위치한 차선이 검출되고 차량이 차선을 이탈하고 있다고 판단되는 경우, AR 안내 객체 생성부(13-3)는 차선 이탈 안내 객체를 생성할 수 있다. 또 다른 예로, 제2 주행 영상으로부터 차량의 전방에 위치한 전방 차량이 검출되고 차량과 전방차량과의 거리가 소정 거리 미만으로 판단되면, AR 안내 객체 생성부(13-3)는 전방 차량 추돌 경보 안내 객체를 생성할 수 있다.To this end, the AR guide object generation unit 13-3 according to an embodiment of the present invention may include an image analysis module that analyzes frames of the second driving image generated in the driving
즉, 본 발명의 일 실시 예에 따른 AR 안내 객체 생성부(13-3)는 영상 획득부(11)에서 획득된 제1 주행 영상의 프레임들을 분석에 이용하지 않고, 주행 영상 생성부(12)에서 제1 주행 영상의 프레임들 중 일부만을 선택하여 생성된 제2 주행 영상의 프레임들을 분석에 이용할 수 있다. That is, the AR guide object generating unit 13-3 according to an embodiment of the present invention does not use the frames of the first driving image acquired by the
한편, 위의 예시에 한정되는 것은 아니고, AR 안내 객체 생성부(13-3) 는 차량의 주행 중에 획득된 각종 데이터, 예를 들어, 차량의 주행 중에 촬영된 제2 주행 영상, 차량의 현재 위치, 차량의 ECU로부터 획득된 주행 상태(주행 속도, 방향 지시등 지시 방향, 연료량 등), 동작 모드(경로 안내 모드 설정 여부, ADAS 기능 설정 여부 등)의 설정 상태 등을 분석하여 차량의 운전자에게 어떤 안내가 필요한지 판단하고, 필요한 안내에 대응되는 증강 현실 안내 객체를 생성할 수 있다. On the other hand, the present invention is not limited to the above example, and the AR guide object generating unit 13-3 includes various data acquired while the vehicle is driving, for example, a second driving image captured while the vehicle is driving, and the current position of the vehicle. , By analyzing the driving status (driving speed, direction indication direction, fuel amount, etc.) obtained from the vehicle's ECU, and the setting status of the operation mode (whether the route guidance mode is set, whether the ADAS function is set, etc.) It is possible to determine whether it is necessary, and to generate an augmented reality guide object corresponding to the required guide.
매핑 위치 결정부(13-4)는 3D 공간 생성부(13-2)에서 생성된 가상 3D 공간에 AR 안내 객체 생성부 (13-3)에서 생성된 객체의 매핑 위치를 결정할 수 있다. The mapping location determining unit 13-4 may determine the mapping location of the object generated by the AR guide object generating unit 13-3 in the virtual 3D space generated by the 3D spatial generating unit 13-2.
즉, 본 발명에 따른 매핑 위치 결정부(13-4)는 AR 안내 객체 생성부(13-3)에서 생성된 안내 객체의 종류에 따라 가상 3D 공간에서의 적절한 매핑 위치를 결정하고, 결정된 매핑 위치에 매핑된 가상 3D 공간 데이터를 생성할 수 있다. 일 예로, 전방 차량 추돌 방지 안내가 필요한 경우, 본 발명의 일 실시 예에 따른 매핑 위치 결정부(13-4)는 가상 3D 공간에서 전방 차량의 픽셀 영역을 검출하고, 검출된 픽셀 영역을 전방 차량 추돌 방지 안내를 위한 AR 안내 객체의 매핑 위치로 결정할 수 있다. 이에 따라, 증강 현실 영상의 전방 차량 표시 영역에 AR 안내 객체가 중첩되어 표시될 수 있다. 다른 예로, 횡단 보도 안내가 필요한 경우, 본 발명의 일 실시 예에 따른 매핑 위치 결정부(13-4)는 가상 3D 공간에서 횡단 보도의 픽셀 영역을 검출하고, 검출된 픽셀 영역을 횡단 보다 안내를 위한 AR 안내 객체의 매핑 위치로 결정할 수 있다. 이에 따라, 증강 현실 영상의 횡단 보도 표시 영역에 AR 안내 객체가 중첩되어 표시될 수 있다. 또 다른 예로, 차선 이탈 안내가 필요한 경우, 본 발명의 일 실시 예에 따른 매핑 위치 결정부(13-4)는 가상 3D 공간에서 차량의 좌우측 차선의 픽셀 영역을 검출하고, 검출된 픽셀 영역을 차선 이탈 안내를 위한 AR 안내 객체의 매핑 위치로 결정할 수 있다. 이에 따라, 증강 현실 영상의 차량의 좌우측 차선 영역에 AR 안내 객체가 중첩되어 표시될 수 있다.That is, the mapping position determining unit 13-4 according to the present invention determines an appropriate mapping position in the virtual 3D space according to the type of the guide object generated by the AR guide object generating unit 13-3, and the determined mapping position You can create virtual 3D spatial data mapped to. For example, when a front vehicle collision prevention guidance is required, the mapping position determining unit 13-4 according to an embodiment of the present invention detects a pixel region of the front vehicle in a virtual 3D space, and detects the detected pixel region in the front vehicle. It may be determined as a mapping location of the AR guide object for collision avoidance guidance. Accordingly, the AR guide object may be superimposed and displayed on the front vehicle display area of the augmented reality image. As another example, when crosswalk guidance is required, the mapping location determining unit 13-4 according to an embodiment of the present invention detects a pixel region of a crosswalk in a virtual 3D space and guides the detected pixel region rather than crossing. It can be determined as the mapping location of the AR guide object for. Accordingly, the AR guide object may be superimposed and displayed on the crosswalk display area of the augmented reality image. As another example, when lane departure guidance is required, the mapping position determining unit 13-4 according to an embodiment of the present invention detects the pixel areas of the left and right lanes of the vehicle in the virtual 3D space and lanes the detected pixel areas It may be determined as a mapping location of the AR guide object for departure guidance. Accordingly, the AR guide object may be superimposed and displayed on the left and right lane areas of the vehicle of the augmented reality image.
한편, 본 발명의 일 실시 예에 따른 AR 표출 영상 생성부(13)는 AR 안내 객체가 매핑된 가상 3D 공간을 카메라 행렬을 이용하여 2D 이미지로 변환하여 AR 표출 영상을 생성할 수 있다. 그리고, AR 표출 영상 생성부(13)는 AR 표출 영상을 주행 영상 생성부(12)에서 생성된 제2 주행 영상과 동일한 프레임 레이트로 생성할 수 있다. 즉, AR 표출 영상은 2D 이미지일 수 있고, 제2 프레임 레이트의 제2 주행 영상과 동일한 제2 프레임 레이트로 생성될 수 있다. Meanwhile, the AR expression
한편, 도 3에서는 카메라 파라미터를 이용하여 3D 공간 데이터 생성, AR 안내 객체 매핑, 2D 이미지 생성을 통하여 AR 표출 영상을 결정하는 것을 예로 설명하였으나, 이에 한정되는 것은 아니다. 본 발명의 다른 실시 예에 따르면, AR 안내 객체를 포함하는 AR 표출 영상을 제2 프레임 레이트로 생성하는 단계는 제2 주행 영상을 분석하여 AR 안내 객체의 AR 표출 영상 내 위치를 결정하는 단계와 결정된 영상 내 위치에 AR 안내 객체를 위치시킨 AR 표출 영상을 생성하는 단계로 구성될 수도 있다. 일 예로, 전방 차량 추돌 방지 안내가 필요한 경우, 본 발명의 다른 실시 예에 따르면 주행 영상 생성부(12)에서 생성된 제2 주행 영상을 분석하여 전방 차량의 픽셀 영역을 검출하고, 검출된 픽셀 영역을 전방 차량 추돌 방지 안내를 위한 AR 안내 객체의 표출 위치로 결정할 수 있다. 그리고, AR 표출 영상 생성부(140)는 검출된 픽셀 영역에 전방 차량 추돌 방지 안내를 위한 AR 안내 객체를 위치시킨 AR 표출 영상을 생성할 수 있다. On the other hand, in FIG. 3, it has been described as an example of determining the AR display image through 3D spatial data generation, AR guide object mapping, and 2D image generation using camera parameters, but is not limited thereto. According to another embodiment of the present invention, the step of generating an AR expression image including the AR guidance object at a second frame rate is determined by determining a position in the AR expression image of the AR guidance object by analyzing the second driving image. It may be configured as a step of generating an AR expression image in which the AR guide object is positioned at a position in the image. For example, when a front vehicle collision prevention guidance is required, according to another embodiment of the present invention, the second driving image generated by the driving
한편, 영상 결합부(140)는 주행 영상 생성부(12)에서 생성된 제2 프레임 레이트의 제2 주행 영상과 AR 표출 영상 생성부(13)에서 생성된 제2 프레임 레이트의 AR 표출 영상을 동기화시켜 결합할 수 있다. 여기서, 동기화(synchronization)란 주행 영상을 구성하는 복수의 프레임들의 표출 시점과 AR 표출 영상을 구성하는 복수의 프레임들의 표출 시점을 일치시키는 것을 의미할 수 있다. 일 예로, 주행 영상 생성부(12)에서 생성된 제2 주행 영상과 AR 표출 영상 생성부(13)에서 생성된 AR 표출 영상의 프레임 레이트가 모두 15fps 인 경우, 영상 결합부(140)는 1초를 기준으로 제2 주행 영상을 구성하는 프레임 1, 프레임 2,.. 프레임 15의 표출 시점과 AR 표출 영상을 구성하는 프레임 1, 프레임 2,.. 프레임 15의 표출 시점을 일치시켜 결합할 수 있다. 즉, 영상 결합부(140)는 1초를 기준으로 제2 주행 영상의 프레임 1과 AR 표출 영상의 프레임 1을 결합하고, 제2 주행 영상의 프레임 N과 AR 표출 영상의 프레임 N을 결합하는 등 영상을 구성하는 프레임들의 표출 시점을 일치시켜 결합할 수 있다. Meanwhile, the
이러한 본 발명에 따르면, 실시간 주행 영상의 프레임 레이트를 유저의 시각에 동영상으로 인식될 수 있는 최소치와 프로세서의 성능 최대치 내의 프레임 레이트로 낮추고, 변경된 프레임 레이트의 주행 영상을 분석하여 AR 안내 객체를 포함하는 AR 표출 영상을 생성하며, 주행 영상의 프레임들과 AR 표출 영상의 프레임 레이트들의 표출 시점을 일치시킴으로써, 유저가 실제로 보고 있는 현실 세계를 담고 있는 실시간 주행 영상에서 AR 안내 객체가 정확한 위치에 표시되도록 할 수 있다. According to the present invention, a frame rate of a real-time driving image is reduced to a frame rate within a minimum value that can be recognized as a video at a user's time and a processor performance maximum value, and the driving image of the changed frame rate is analyzed to include an AR guide object. By generating the AR display image and matching the display timings of the frames of the driving image and the frame rates of the AR display image, the AR guide object is displayed at the correct position in the real-time driving image containing the real world that the user is actually viewing. Can.
이하에서는 이 후 도면을 참조하여 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 방법을 보다 구체적으로 설명하기로 한다. Hereinafter, an augmented reality image processing method according to an embodiment of the present invention will be described in detail with reference to the drawings.
도 5는 본 발명의 일 실시 예에 따른 주행 영상 생성부의 동작을 나타내는 도면 이다. 도 5를 참조하면, 주행 영상 생성부(12)는 영상 획득부(11)에서 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성할 수 있다. 이 경우, 주행 영생 생성부(12)는 제1 프레임 레이트와 제2 프레임 레이트 사이의 프레임 레이트 변환 비율을 기초로 프레임 레이트 선택 간격을 설정하고, 설정된 프레임 레이트 선택 간격에 따라 제1 프레임 레이트의 제1 주행 영상으로부터 일부 프레임을 선택하여 제2 프레임 레이트의 제2 주행 영상을 생성할 수 있다. 5 is a view showing the operation of the driving image generating unit according to an embodiment of the present invention. Referring to FIG. 5, the driving
일 예로, 도 5(a)와 같이, 영상 획득부(11)에서 획득된 제1 주행 영상의 제1 프레임 레이트가 4fps 인 경우, 1초의 제1 주행 영상은 프레임 #1, 프레임 #2, 프레임 #3 및 프레임 #4 로 구성될 수 있다. 이 상황에서 도 5(b)와 같이 제2 프레임 레이트가 2 fps 로 설정된 경우, 주행 영상 생성부(12)는 프레임 레이트 선택 간격을 2 프레임으로 설정하고, 영상 획득부(11)에서 획득된 프레임 #1, 프레임 #2, 프레임 #3 및 프레임 #4 중 선택 간격에 따라 프레임 #1 및 프레임 #3을 선택할 수 있다. For example, when the first frame rate of the first driving image obtained by the
다른 예로, 영상 획득부(11)에서 획득된 제1 주행 영상의 제1 프레임 레이트가 60fps 로 설정된 경우, 1초의 제1 주행 영상은 총 60개의 프레임으로 구성될 수 있다. 이 상황에서 제2 프레임 레이트가 15 fps 로 설정된 경우, 주행 영상 생성부(12)는 프레임 레이트 선택 간격을 4 프레임으로 설정하고, 영상 획득부(11)에서 획득된 총 60개의 프레임들 중 설정된 주기에 따라 프레임 #1, #5, #9, #13, #17, #21, #25, #29, #33, #37, #41, #45, #49, #53, #57를 선택할 수 있다. As another example, when the first frame rate of the first driving image obtained by the
이러한 본 발명에 따르면, 프레임 레이트의 변경 과정에서 소정 간격을 주기로 프레임 일부를 선택하여 제2 주행 영상을 생성함으로써, 제2 주행 영상의 표출시특정 부분이 끊겨 표시되는 현상을 제거할 수 있다.According to the present invention, in the process of changing the frame rate, by selecting a part of the frame at regular intervals and generating a second driving image, a phenomenon in which a specific part is cut off and displayed when the second driving image is displayed can be eliminated.
도 6은 본 발명의 일 실시 예에 따른 AR 표출 영상 생성부의 동작을 나타내는 도면 이다. 먼저, 도 6을 참조하면, 본 발명의 일 실시 예에 따른 AR 안내 객체 생성부(13-3)는 영상 획득부(11)에서 획득된 제1 주행 영상의 프레임들을 분석에 이용하지 않고, 주행 영상 생성부(12)에서 제1 주행 영상의 프레임들 중 일부만을 선택하여 생성된 제2 주행 영상의 프레임들을 분석에 이용할 수 있다.6 is a view showing the operation of the AR expression image generation unit according to an embodiment of the present invention. First, referring to FIG. 6, the AR guide object generating unit 13-3 according to an embodiment of the present invention travels without using frames of the first driving image acquired by the
구체적으로, 도 6(a)를 참조하면, AR 안내 객체 생성부(13-3)는 제2 주행 영상을 구성하는 프레임 #1을 분석하여 전방 차량과 제한속도 60km 표지판을 검출할 수 있다. 이 경우, AR 안내 객체 생성부(13-2)는 차량의 운전자에게 전방 차량 안내와 제한 속도 안내가 필요함을 판단하고, 이를 각각 안내하기 위한 전방 차량 안내를 위한 AR 안내 객체(1301)과 제한 속도 안내를 위한 AR 안내 객체(1302)를 생성할 수 있다. 그리고, 도 6(b)를 참조하면, AR 안내 객체 생성부(13-2)에서 생성된 전방 차량 안내를 위한 AR 안내 객체(1301)와 제한 속도 안내를 위한 AR 안내 객체(1302) 각각은 매핑 위치 결정부(13-4)의 동작에 따라 AR 표출 영상 프레임 #1의 소정 위치에 배치될 수 있다. 여기서, AR 표출 영상의 일 예는 투명 바탕에 운전자에게 운전 관련 안내를 제공하는 적어도 하나의 AR 안내 객체가 배치된 형태일 수 있다. 이에 따라, AR 표출 영상 생성부(13)는 제2 주행 영상의 프레임 #1을 분석하여 AR 표출 영상 프레임 #1을 생성할 수 있다. Specifically, referring to FIG. 6(a), the AR guide object generating unit 13-3 may analyze the
한편, 도 6(c)를 참조하면, 시간적으로 프레임 #1 이후인 프레임 #3에서는 차량과 전방 차량 사이의 거리는 가까워지고 프레임 #1에 포함된 제한 속도 표지판은 사라지고 새롭게 횡단보도가 포함될 수 있다. 이 경우, AR 안내 객체 생성부(13-3)는 제2 주행 영상을 구성하는 프레임 #3을 분석하여 이전 대비 거리가 가까워진 전방 차량과 횡단보도를 검출할 수 있다. 이 경우, AR 안내 객체 생성부(13-2)는 차량의 운전자에게 전방 차량 안내와 횡단보도 안내가 필요함을 판단하고, 이를 각각 안내하기 위한 전방 차량 안내를 위한 AR 안내 객체(1304)과 횡단보도 안내를 위한 AR 안내 객체(1303)를 생성할 수 있다. 그리고, 도 6(d)를 참조하면, AR 안내 객체 생성부(13-2)에서 생성된 전방 차량 안내를 위한 AR 안내 객체(1304)와 횡단 보도 안내를 위한 AR 안내 객체(1303) 각각은 매핑 위치 결정부(13-4)의 동작에 따라 AR 표출 영상 프레임 #3의 소정 위치에 배치될 수 있다. 특히, 프레임 #3에서 전방 차량의 위치는 프레임 #1 대비 가까워졌기에, 매핑 위치 결정부(13-4)는 전방 차량 안내를 위한 AR 안내 객체(1304)의 표출 위치는 이전 대비 아래에 표출될 수 있다. 이에 따라, AR 표출 영상 생성부(13)는 제2 주행 영상의 프레임 #3을 이용하여 AR 표출 영상 프레임 #3을 생성할 수 있다.On the other hand, referring to FIG. 6(c), in time frame #3 after
도 7은 종래의 증강 현실 영상 처리 방법의 문제를 설명하기 위한 개념도 이다. 종래의 증강 현실 영상 처리 방법에 의하면 운전자가 실시간으로 보게 되는 실시간 주행 영상의 초당 프레임과 이미지 처리 프로세서를 이용한 초당 영상 처리 프레임이 다르기에, 이러한 불일치로 인하여 실시간 주행 영상에서 AR 안내 객체가 정확한 위치에 표출되지 못하는 문제점이 있었다. 7 is a conceptual diagram for explaining a problem in a conventional augmented reality image processing method. According to the conventional augmented reality image processing method, since the frame per second of the real-time driving image that the driver sees in real time is different from the image processing frame per second using the image processing processor, the AR guide object is located at the correct position in the real-time driving image due to this mismatch. There was a problem that could not be expressed.
즉, 종래의 방식에 의하면, 일 예로 60fps의 주행 영상을 입력받는 경우, 1초 기준으로 주행 영상의 총 60개의 프레임 모두에 대한 영상 분석을 통하여 AR 안내 객체의 표시 위치를 결정하고, 결정된 위치에 배치된 AR 안내 객체를 포함하는 AR 표출 영상을 생성하며, 생성된 AR 표출 영상과 주행 영상을 결합하여 화면에 표시하는 방식을 채용하였다. That is, according to the conventional method, when receiving a driving image of 60 fps as an example, the display position of the AR guide object is determined through image analysis on all 60 frames of the driving image on a per second basis, and the determined location is determined. A method of generating an AR expression image including the arranged AR guide object and combining the generated AR expression image and the driving image to display the screen is adopted.
다만, 이러한 종래의 방식에 따르면, 주행 영상에 AR 안내 객체가 정확한 위치에 표출되기 위해서는 AR 안내 객체를 표시하기 전에 실시간 주행 영상에 대한 분석을 완료하고 AR 안내 객체의 표시 위치를 정해야 한다. 다만, 종래의 방식에 의하면, 프로세서의 이미지 처리 성능에 따라 입력된 프레임 모두에 대한 분석이 AR 안내 객체의 표출 전에 완료되지 않는 문제점이 발생하였고, 이 경우, AR 안내 객체의 표시 위치를 변경하지 않고 이전 프레임에서 결정된 위치에 그대로 표시하는 방식을 채용하였다.However, according to this conventional method, in order to display the AR guide object on the driving image at the correct location, the analysis of the real-time driving image must be completed and the display position of the AR guide object must be determined before displaying the AR guide object. However, according to the conventional method, there is a problem in that analysis of all input frames is not completed before the display of the AR guide object according to the image processing performance of the processor. In this case, the display position of the AR guide object is not changed. The method of displaying as it is at the position determined in the previous frame was adopted.
일 예로, 도7과 같이, 실시간 주행 영상 내의 전방 차량이 차지하는 픽셀 영역에 전방 차량 추돌 방지 AR 안내 객체를 표시하도록 구현되는 경우, 종래의 방식에 의하면 주행 영상의 프레임 #1에 대한 분석을 통하여 AR 안내 객체의 표출 위치가 결정되는 등 분석이 AR 안내 객체의 표출 전에 완료되면 프레임 #1의 전방 차량 픽셀 영역에 전방 차량 추돌 방지 AR 안내 객체(1101)를 위치시켜 표시하였다. 다만, 이 후 입력된 프레임 #2에 대한 분석이 AR 안내 객체의 표출 전에 완료되지 않으면 AR 안내 객체(1102)의 표시 위치를 변경하지 않고 이전 프레임 #1에서 결정된 위치에 그대로 AR 안내 객체(1102)를 표시하였다. For example, as shown in FIG. 7, when implemented to display a front vehicle collision prevention AR guide object in a pixel area occupied by a front vehicle in a real-time driving image, according to a conventional method, AR through analysis of
이 후 입력된 프레임 #3에 대한 분석을 통하여 AR 안내 객체의 표출 위치가 결정되는 등 분석이 AR 안내 객체의 표출 전에 완료되면 프레임 #3 의 전방 차량 픽셀 영역에 전방 차량 추돌 방지 AR 안내 객체(1103)를 위치시켜 표시하였다. 다만, 이 후 입력된 프레임 #4에 대한 분석이 AR 안내 객체의 표출 전에 완료되지 않으면 AR 안내 객체(1104)의 표시 위치를 변경하지 않고 이전 프레임 #3에서 결정된 위치에 그대로 AR 안내 객체(1104)를 표시하였다.Then, when the analysis is completed before the display of the AR guide object, such as the location where the AR guide object is displayed through the analysis of the input frame #3, the front vehicle pixel area of frame #3 prevents the front vehicle collision AR guide object 1103 ). However, if the analysis for the input frame #4 is not completed before the display of the AR guide object, the
즉, 종래의 증강 현실영상 처리 방법에 의하면, 사용자가 실제로 보고 있는 현실 세계를 담고 있는 실시간 주행 영상에서 AR 안내 객체가 정확한 위치에 표출되지 못하는 문제점이 있었다. 특히, 증강 현실 내비게이션은 현실 세계를 담고 있는 실시간 주행 영상과 AR 안내 객체를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 것이기에 정보가 정확한 위치에 표출되는 것이 매우 중요한데, 종래의 방식에 의하면 이러한 목적을 달성하기 어려웠고 이로 인하여 운전자의 편의 및 안정성을 저해할 뿐만 아니라, 내비게이션에 대한 운전자의 신뢰 조차 떨어뜨리게 되는 문제점이 있었다. That is, according to the conventional augmented reality image processing method, there is a problem in that the AR guide object cannot be displayed at an accurate location in a real-time driving image containing the real world that the user is actually viewing. In particular, since augmented reality navigation is a combination of real-time driving images and AR guide objects that contain the real world so that it looks like objects existing in the original environment, it is very important that information is displayed at the correct location. It was difficult to achieve the purpose, and as a result, there was a problem that not only hindered the convenience and stability of the driver, but also dropped the driver's trust in navigation.
도 8은 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 방법을 설명하기 위한 개념도 이다. 도 8을 참조하면, 본 발명의 일 실시 예에 따른 주행 영상 생성부(12)는 제1 프레임 레이트와 제2 프레임 레이트 사이의 프레임 레이트 변환 비율을 기초로 프레임 레이트 선택 간격을 설정하고, 설정된 프레임 레이트 선택 간격에 따라 제1 프레임 레이트의 제1 주행 영상으로부터 일부 프레임을 선택하여 제2 프레임 레이트의 제2 주행 영상을 생성할 수 있다. 일 예로, 도 8과 같이, 영상 획득부(11)에서 획득된 제1 주행 영상의 제1 프레임 레이트가 4fps 이고 제2 프레임 레이트가 2 fps 로 설정된 경우, 주행 영상 생성부(12)는 프레임 레이트 선택 간격을 2 프레임으로 설정하고, 영상 획득부(11)에서 획득된 프레임 #1, 프레임 #2, 프레임 #3 및 프레임 #4 중 프레임 #1 및 프레임 #3을 선택할 수 있다. 그리고, 주행 영상 생성부(12)는 선택된 프레임 #1 및 프레임 #3으로 구성된 제2 주행 영상을 생성할 수 있다. 8 is a conceptual diagram illustrating an augmented reality image processing method according to an embodiment of the present invention. Referring to FIG. 8, the driving
이 경우, 본 발명의 일 실시 예에 따른 AR 표출 영상 생성부(13)는 주행 영상 생성부(12)에서 생성된 제2 주행 영상의 프레임 #1 및 프레임 #3 만을 영상 분석하고, 분석을 기초로 제2 주행 영상에 표시될 AR 안내 객체를 포함하는 AR 표출 영상을 제2 프레임 레이트로 생성할 수 있다. In this case, the AR expression
일 예로, 도 8과 같이, 실시간 주행 영상 내의 전방 차량이 차지하는 픽셀 영역에 전방 차량 추돌 방지 AR 안내 객체를 표시하도록 구현되는 경우, 본 발명에 의하면 주행 영상의 프레임 #1에 대한 분석을 통하여 AR 안내 객체의 표출 위치를 결정하고 프레임 #1의 전방 차량 픽셀 영역에 전방 차량 추돌 방지 AR 안내 객체(1201)를 위치시켜 표시할 수 있다. 이 후, 입력된 프레임 #3에 대해서도 동일한 영상 처리를 수행하여, 프레임 #3의 전방 차량 픽셀 영역에 전방 차량 추돌 방지 AR 안내 객체(1203)를 위치시켜 표시할 수 있다.For example, as shown in FIG. 8, when implemented to display an AR guidance object for preventing a front vehicle collision in a pixel area occupied by a front vehicle in a real-time driving image, according to the present invention, AR guidance is performed through analysis of
다만, 프레임 #2 및 프레임 #4는 제1 주행 영상에는 포함되어 있으나 제2 주행 영상에는 포함되어 있지 않기에, 본 발명에 따른 AR 표출 영상 생성부(13)는 프레임 #2 및 프레임 #4에 대해서는 별도의 영상 분석을 수행하지 않는다. However, since frame #2 and frame #4 are included in the first driving image but not in the second driving image, the AR expression
이러한 본 발명에 따르면, 실시간 주행 영상의 제1 프레임 레이트를 프로세서의 성능 최대치 내의 프레임 레이트인 제2 프레임 레이트로 변경한 후 분석하여 AR 안내 객체를 포함하는 AR 표출 영상을 생성하기에, 프로세서의 성능에 관계없이 유저가 실제로 보고 있는 현실 세계를 담고 있는 실시간 주행 영상에서 AR 안내 객체가 정확한 위치에 표출되지 못하는 문제점을 해결할 수 있다. According to the present invention, the performance of the processor is generated by changing the first frame rate of the real-time driving image to the second frame rate, which is the frame rate within the maximum performance of the processor, and analyzing it to generate an AR-expressing image including the AR guide object. Regardless of the real-time driving image containing the real world that the user is actually viewing, it is possible to solve the problem that the AR guide object is not displayed at the correct location.
또한, 변경된 제2 프레임 레이트는 유저의 시각에 동영상으로 인식될 수 있는 최소치 이상이기에, 운전자가 실제로 보고 있는 현실 세계를 담고 있는 주행 영상을 동영상으로 보여지게 하면서 동시에 주행 영상에서 AR 객체를 정확한 위치에 표시함으로써, 운전자에게 정확한 증강 현실 내비게이션 서비스를 제공할 수 있다. In addition, since the changed second frame rate is more than the minimum value that can be recognized as a video at the user's perspective, the driving object containing the real world that the driver is actually viewing is shown as a video, and at the same time, the AR object is accurately positioned in the driving video. By displaying, it is possible to provide an accurate augmented reality navigation service to the driver.
한편, 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 장치(10)는 차량의 주행 중에 촬영된 실시간 주행 영상의 흔들림을 보정하여 흔들림 없는 주행 영상을 제공함과 동시에 정확한 위치에 AR 안내 객체를 표출할 수 있다. 이를 위하여, 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 장치(10)는 흔들림 데이터 산출부(15) 및 크롭 영상 생성부(16)를 더 포함할 수 있다. On the other hand, the augmented reality
구체적으로, 차량의 주행 중에 촬영된 주행 영상은 촬영 장치의 흔들림 등의 영향으로 유저가 원하는 영상이 출력되지 않을 수 있다. 일 예로, 촬영 장치에 흔들림이 없는 경우 촬영된 주행 영상은 도 9(A)와 같을 수 있다. 다만, 촬영 장치에 위 방향으로 수직 흔들림이 발생하는 경우, 촬영된 주행 영상은 도 9(B)와 같을 수 있고, 촬영 장치에 아래 방향으로 수직 흔들림이 발생하는 경우, 촬영된 주행 영상은 도 9(C)와 같을 수 있으며, 촬영 장치에 좌측 방향으로 수평 흔들림이 발생하는 경우, 촬영된 주행 영상은 도 9(D)와 같을 수 있고, 촬영 장치에 우측 방향으로 수평 흔들림이 발생하는 경우, 촬영된 주행 영상은 도 9(E)와 같을 수 있다. Specifically, a driving image photographed while driving the vehicle may not output an image desired by the user due to the shaking of the photographing device. For example, when there is no shaking in the photographing device, the photographed driving image may be the same as in FIG. 9(A). However, when vertical shaking occurs in the photographing device in the upward direction, the photographed driving image may be as shown in FIG. 9(B), and when vertical shaking occurs in the photographing device in the downward direction, the photographed driving image is illustrated in FIG. 9. (C), and when the horizontal shaking occurs in the left direction on the photographing device, the photographed driving image may be as shown in FIG. 9(D), and when the horizontal shaking occurs in the right direction on the photographing device, photographing The rendered driving image may be as shown in FIG. 9(E).
이와 같이, 차량의 주행 중에 촬영된 주행 영상은 촬영 장치의 흔들림 등의 영향으로 유저가 원하는 영상이 출력되지 않을 수 있다. 이 경우, 증강 현실 내비게이션에서는 실시간 주행 영상에서 AR 안내 객체가 부정확한 위치에 표시되는 등 사용자가 원하는 화면이 출력되지 않는다는 문제점이 있었다. In this way, the driving image photographed while the vehicle is running may not output the image desired by the user due to the shaking of the photographing device. In this case, in augmented reality navigation, there is a problem in that a screen desired by a user is not output, such as an AR guide object displayed in an incorrect location in a real-time driving image.
이러한 문제점을 해결하기 위하여, 본 발명의 일 실시 예에 따른 흔들림 데이터 산출부(15)는 제2 주행 영상으로부터 특징점을 추출하고, 추출된 특징점의 위치 변화값을 산출할 수 있다. 그리고, 흔들림 데이터 산출부(15)는 산출된 위치 변화값을 기초로 상기 제2 주행 영상의 흔들림 크기 및 방향을 나타내는 흔들림 데이터를 산출할 수 있다. To solve this problem, the
구체적으로, 흔들림 데이터 산출부(15)는 제2 주행 영상으로부터 복수 개의 특징점(Feature Point)들을 추출하는 특징점 추출부(미도시)를 포함할 수 있다. 여기서, 특징점 추출부에 의하여 추출되는 복수 개의 특징점들은 제2 주행 영상에서 영상 밝기 값이 급변하는 점으로, 화소 경계(Edge of Pixel) 또는 코너 점(Corner Point)이 될 수 있다. 그리고, 흔들림 데이터 산출부(15)는 추출된 특징점들의 위치 변화값을 산출하는 특징점 변화 데이터 산출부(미도시)를 더 포함할 수 있다. 이러한 특징점 추출부 및 특징점 변화 데이터 산출부에 대해서는 도 10을 참조하여 보다 구체적으로 설명하기로 한다.Specifically, the
도 10은 본 발명의 일 실시 예에 따른 특징점의 추출 및 특징점의 위치 변화값 산출 과정을 나타내는 개념도 이다. 도 10(a)를 참조하면, 특징점 추출부의 특징점 추출은 영상에서 특징되는 점들을 추출하는 것으로, 일 예로 영상에서 화소 경계(Edge of Pixel) 또는 코너 점(Corner Point) 등의 영상 밝기 값이 급변하는 포인트가 특징점들(예를 들어, 도 10(a)의 차량 경계에 표시된 점들)에 해당될 수 있다. 여기서, 특징점 추출부는 영상에서 특징점들을 추출하기 위한 알고리즘으로는 Harris 방식, SIFT(Scale Invariant Feature Transform) 방식, ORB(oriented fast and rotated brief) 방식, FAST(Features from Accelerated Segment Test) 방식, Lucas-Kanade 방식 등을 이용할 수 있다.10 is a conceptual diagram illustrating a process of extracting a feature point and calculating a position change value of the feature point according to an embodiment of the present invention. Referring to FIG. 10(a), the feature point extraction unit extracts feature points from an image, and for example, an image brightness value such as an edge of pixel or a corner point in an image changes rapidly. The point to be may correspond to feature points (for example, points displayed on the vehicle boundary of FIG. 10(a)). Here, the feature point extraction unit includes algorithms for extracting feature points from an image, such as Harris method, Scale Invariant Feature Transform (SIFT) method, oriented fast and rotated brief (ORB) method, FAST (Features from Accelerated Segment Test) method, Lucas-Kanade Method or the like.
그리고, 도 10(b)를 참조하면, 특징점 변화 데이터 산출부는 제2 주행 영상을 구성하는 복수의 프레임들 각각에서 특징점들의 위치를 비교하여 특징점들의 위치 변화값을 산출할 수 있다. 일 예로, 특징점 변화 데이터 산출부는 이전 프레임에서 추출된 특징점들과 이후 프레임에서 추출된 특징점들의 위치를 비교하여 특징점들의 위치 변화값을 산출할 수 있다. 여기서, 위치 변화값을 특징점들의 위치 변화 방향과 위치 변화 크기를 포함하는 위치 벡터값으로 구현될 수 있다. Then, referring to FIG. 10( b), the feature point change data calculator may calculate a position change value of the feature points by comparing the location of the feature points in each of the plurality of frames constituting the second driving image. For example, the feature point change data calculator may calculate a position change value of the feature points by comparing the locations of the feature points extracted in the previous frame and the feature points extracted in the subsequent frame. Here, the position change value may be embodied as a position vector value including the position change direction and the position change size of the feature points.
한편, 크롭 영상 생성부(16)는 제2 주행 영상에서 일부를 잘라낼 크롭(crop) 영역을 결정하고, 제2 주행 영상을 결정된 크롭 영역에서 잘라낸 크롭 영상을 생성할 수 있다. 여기서, 크롭 영역은 흔들림 데이터 산출부(15)에서 산출된 흔들림 데이터를 기초로 결정될 수 있다. Meanwhile, the crop
한편, 표시부(17)는 크롭 영상의 크기를 제2 주행 영상의 크기로 확대한 제3 주행 영상을 생성하고, 제2 프레임 레이트의 제3 주행 영상과 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시할 수 있다. 이러한 흔들림 보정 과정에 대해서는 도 11 내지 12를 참조하여 보다 구체적으로 설명하기로 한다. Meanwhile, the
도 11 내지 12는 흔들림이 발생 유무에 따른 크롭 영상 생성 과정을 나타내는 도면 이다. 도 11 내지 12를 참조하면, 크롭 영상 생성부(16)는 도 11(A), 도 12(A)와 같은 제2 주행 영상에 도 11(B), 도 12(B)와 같이 크롭 영역을 설정할 수 있고, 도 11(C), 도 12(C)와 같이 크롭 영상의 크기를 제2 주행 영상의 크기로 확대한 제3 주행 영상을 생성할 수 있다. 즉, 크롭 영상 생성부(16)는 제2 주행 영상 사용시 전체 영상을 사용하지 않고 크롭 영역을 설정하여 사용할 수 있다. 11 to 12 are views showing a crop image generation process according to whether or not shaking occurs. Referring to FIGS. 11 to 12, the crop
일 예로, 1920 X 1080 해상도의 제2 주행 영상(도 11(A)와 도 12(A)) 중 1728 X 972만을 크롭한 후 확대하여 제3 주행 영상(도 11(C)와 도 12(C))을 생성할 수 있다. 여기서, 크롭 영역은 흔들림 데이터 산출부(15)에서 산출된 흔들림 데이터를 기초로 결정될 수 있다. For example, after cropping only 1728 X 972 among the second driving images (FIGS. 11(A) and 12(A)) of 1920 X 1080 resolution, the third driving images (FIGS. 11(C) and 12(C) are enlarged. )). Here, the crop area may be determined based on the shake data calculated by the
일 예로, 도 11(B)와 같이, 흔들림이 발생하지 않아 흔들림 데이터 산출부(15)에서 산출된 흔들림 데이터가 0인 경우, 크롭 영상 생성부(16)는 영상의 중심을 중심점으로 하는 소정 크기의 크롭 영역(16-1)을 설정할 수 있다. For example, as shown in FIG. 11(B), when the shaking data calculated by the shaking
다른 예로, 도 12(B)과 같이 흔들림이 발생하여 흔들림 데이터 산출부(15)에서 산출된 흔들림 데이터가 상부로 100 픽셀인 경우, 크롭 영상 생성부(160)는 영상의 중심으로부터 아래로 100 픽셀 이동한 지점을 중심점으로 하는 소정 크기의 크롭 영역(16-2)을 설정할 수 있다.As another example, as shown in FIG. 12(B), when the shake data calculated by the
즉, 크롭 영역은 특징점 추출을 통해 획득된 흔들림 데이터의 반대 방향(즉, 카메라가 흔들리는 방향의 반대 방향)으로 설정될 수 있다. That is, the crop region may be set in the opposite direction of the shake data obtained through feature point extraction (ie, the opposite direction of the camera shake direction).
한편, 크롭 영상 생성부(16)는 흔들림 데이터의 반대 방향으로 크롭 영역을 변경한 후 1728 X 972 만큼 크롭한 후 다시 확대하여 제3 주행 영상(도 11(C), 도 12(C))을 생성할 수 있다. On the other hand, the cropped
이러한 본원 발명에 따르면, 카메라가 흔들려 정확한 영상이 촬영되지 않더라도 사용자에게는 흔들리지 않는 듯한 영상으로 보여줄 수 있다.According to the present invention, even if the camera is shaken and an accurate image is not captured, it can be shown to the user as an image that does not seem to shake.
한편, 표시부(17)는 제2 프레임 레이트의 제3 주행 영상과 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시할 수 있다. 이러한 본원 발명에 따르면, 흔들림에 따른 영향을 상쇄시킨 크롭 영상을 기초로 제3 주행 영상을 생성하고, 제3 주행 영상과 AR 표출 영상을 동기화시켜 결합함으로써, 영상 간의 정합 오류를 해소하여 AR 안내 객체가 정확한 위치에 표출되도록 할 수 있다. Meanwhile, the
다만, 이는 본 발명의 일 실시 예일 뿐, 본 발명의 다른 실시 예에 따르면, 증강 현실 영상 처리 장치(10)는 하드웨어를 통한 스태빌라이저(Stabilizer) 방식으로 영상 흔들림 보정을 하여 정합 오류를 최소화할 수 있다. 일 예로, 증강 현실 영상 처리 장치(10)는 3축센서를 추가적으로 더 포함할 수 있으며, 3축센서를 기초로 카메라 위치를 실시간 이동되도록 제어하여 영상 흔들림 보정을 하여 정합 오류를 최소화할 수도 있다.However, this is only an embodiment of the present invention, and according to another embodiment of the present invention, the augmented reality
한편, 위는 예시는 본 발명의 일 실시 예일 뿐, 본 발명의 다른 실시 예에 따르면, 흔들림 데이터 산출부(15)에서 산출된 흔들림 데이터를 이용하여 AR 안내 객체의 AR 표출 영상 내 위치를 보정함으로써, 증강 현실 영상에서 AR 안내 객체가 정확한 위치에 표출되도록 할 수 있다. 구체적으로, AR 표출 영상 생성부(13)는 흔들림 데이터 산출부(15)에서 산출된 흔들림 데이터를 이용하여 AR 안내 객체의 AR 표출 영상 내 위치를 보정할 수 있다. 일 예로, 흔들림 데이터 산출부(15)에서 산출된 흔들림 데이터에 의하면 제2 주행 영상의 프레임이 이전 프레임 대비 우측으로 100 픽셀 이동한 상태에서 AR 표출 영상 생성부(13)에서 흔들림 데이터의 반영없이 AR 안내 객체의 AR 표출 영상 내 위치를 결정하게 된다면, 증강 현실 영상에서 AR 안내 객체는 흔들림의 영향으로 정확한 위치에 표시되지 않을 수 있다. 이에 따라, 본 발명의 AR 표출 영상 생성부(13)는 흔들림 데이터 산출부(15)에서 산출된 흔들림 데이터를 반영하여 AR 표출 영상 내에서 AR 안내 객체의 위치를 우측으로 100 픽셀 이동시키는 보정을 수행할 수 있다. 이 경우, 증강 현실 영상에서 AR 안내 객체는 흔들림의 영향이 반영되어 정확한 위치에 표시될 수 있다.On the other hand, the above example is only one embodiment of the present invention, according to another embodiment of the present invention, by using the shake data calculated by the shake
즉, 표시부(17)는 제2 프레임 레이트의 제2 주행 영상과 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는데, 촬영 장치의 흔들림의 영향으로 제2 주행 영상에 흔들림이 발생하더라도, 흔들림 데이터 산출부(15)에서 산출된 흔들림 데이터를 이용하여 AR 안내 객체의 AR 표출 영상 내 위치를 보정함으로써, 증강 현실 영상에서 AR 안내 객체는 흔들림의 영향이 반영되어 정확한 위치에 표시될 수 있다. That is, the
이하에서는 도 13 내지 14를 참조하여, 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 방법을 보다 구체적으로 설명하기로 한다. Hereinafter, an augmented reality image processing method according to an embodiment of the present invention will be described in more detail with reference to FIGS. 13 to 14.
도 13은 본 발명의 일 실시 예에 따른 증강 현실 영상 처리 방법을 나타낸 흐름도이다. 도 13을 참조하면, 먼저 이동체의 주행 중에 촬영된 제1 프레임 레이트의 제1 주행 영상을 획득할 수 있다(S110). 13 is a flowchart illustrating an augmented reality image processing method according to an embodiment of the present invention. Referring to FIG. 13, first, a first driving image of a first frame rate photographed while driving the mobile body may be obtained (S110 ).
그리고, 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성할 수 있다(S120). 여기서, 제2 프레임 레이트는 제1 프레임 레이트 보다 작을 수 있다. 일 예로, 제2 프레임 레이트는 유저의 시각에 동영상으로 인식될 수 있는 최소치인 15fps 이상이고 최대치는 프로세서의 성능에 따라 가변적으로 결정될 수 있다. 구체적으로, AR 안내 객체들의 주행 영상을 처리하는 프로세서가 고성능인 경우 제2 프레임 레이트는 높일 수 있으며, 프로세서가 저성능인 경우 제2 프레임 레이트를 낮출 수 있다. 이와 같이, 프로세서의 성능에 따라 제2 프레임 레이트를 가변시킴으로써 시스템 리소스를 효율적으로 이용할 수 있다. 이와 같이, 프로세서의 성능에 따라 프레임을 제한함으로써, 시스템의 리소스를 효율적으로 이용할 수 있다.Then, a second driving image at a second frame rate may be generated by processing the obtained first driving image (S120). Here, the second frame rate may be smaller than the first frame rate. For example, the second frame rate is 15 fps or more, which is a minimum value that can be recognized as a video at a user's time, and the maximum value can be variably determined according to the performance of the processor. Specifically, the second frame rate may be increased when the processor processing the driving images of the AR guide objects is high-performance, and the second frame rate may be lowered when the processor is low-performance. In this way, system resources can be efficiently used by varying the second frame rate according to the performance of the processor. In this way, by limiting the frame according to the performance of the processor, it is possible to efficiently use the resources of the system.
또한, 제2 프레임 레이트는 AR 안내 객체의 속성 정보에 따라 가변적으로 결정될 수도 있다. 또한, 제2 프레임 레이트는 제2 주행 영상에 포함된 분석 대상의 속성 정보에 따라 가변적으로 결정될 수도 있다. Also, the second frame rate may be variably determined according to attribute information of the AR guide object. Also, the second frame rate may be variably determined according to attribute information of an analysis target included in the second driving image.
한편, 증강 현실 영상 처리 방법에 따르면, 제2 주행 영상을 분석하여 제2 주행 영상에 표시될 AR(Augmented Reality) 안내 객체를 포함하는 AR 표출 영상을 상기 제2 프레임 레이트로 생성할 수 있다(S130). 구체적으로 AR 안내 객체를 포함하는 AR 표출 영상을 제2 프레임 레이트로 생성하는 단계는(S130)는 제2 주행 영상을 분석하여 AR 안내 객체의 AR 표출 영상 내 위치를 결정하는 단계 및 결정된 영상 내 위치에 AR 안내 객체를 위치시킨 AR 표출 영상을 생성하는 단계를 포함할 수 있다. 일 예로, AR 표출 영상은 투명 바탕에 운전자에게 운전 관련 안내를 제공하는 적어도 하나의 AR 안내 객체가 배치된 형태일 수 있다. 그리고, AR 표출 영상에서 AR 안내 객체의 배치 위치는 AR 안내 객체의 종류에 따라 달라질 수 있다. 그리고, AR 표출 영상은 제2 주행 영상과 정합되도록, AR 표출 영상과 제2 주행 영상은 이미지 크기가 동일하게 구현될 수 있다. On the other hand, according to the augmented reality image processing method, the second driving image may be analyzed to generate an AR expressed image including an Augmented Reality (AR) guide object to be displayed on the second driving image at the second frame rate (S130) ). Specifically, generating an AR expression image including the AR guidance object at a second frame rate (S130) includes analyzing a second driving image to determine a location within the AR expression image of the AR guidance object and a determined location within the image. And generating an AR expression image in which the AR guide object is positioned. For example, the AR expression image may be in the form of at least one AR guidance object that provides driving guidance to the driver on a transparent background. In addition, the arrangement position of the AR guide object in the AR display image may vary according to the type of the AR guide object. In addition, the AR display image and the second driving image may have the same image size so that the AR display image matches the second driving image.
한편, 증강 현실 영상 처리 방법에 따르면, 생성된 제2 주행 영상과 AR 표출 영상을 동기화시켜 결합할 수 있다(S140). 여기서, 동기화(synchronization)란 주행 영상을 구성하는 복수의 프레임들의 표출 시점과 AR 표출 영상을 구성하는 복수의 프레임들의 표출 시점을 일치시키는 것을 의미할 수 있다. 이에 따라, AR 표출 영상에서 AR 안내 객체가 배치되지 않은 투명 영역과 제2 주행 영상이 중첩되면 중첩 영역에는 제2 주행 영상만이 표시되게 되고, AR 표출 영상에서 AR 안내 객체가 배치되는 영역과 제2 주행 영상이 중첩되면 중첩 영역에는 AR 안내 객체가 표시될 수 있다.Meanwhile, according to the augmented reality image processing method, the generated second driving image and the AR display image may be synchronized and combined (S140). Here, synchronization may refer to coincidence of a display time of a plurality of frames constituting a driving image and a display time of a plurality of frames constituting an AR display image. Accordingly, when the second driving image is overlapped with the transparent area in which the AR guide object is not disposed in the AR display image, only the second driving image is displayed in the overlapping region, and the area and the AR region in which the AR guide object is placed in the AR display image are displayed. 2 When the driving image overlaps, the AR guide object may be displayed in the overlapping region.
이러한 본 발명에 따르면, 실시간 주행 영상의 프레임 레이트를 유저의 시각에 동영상으로 인식될 수 있는 최소치와 프로세서의 성능 최대치 내의 프레임 레이트로 낮추고, 변경된 프레임 레이트의 주행 영상을 분석하여 AR 안내 객체를 포함하는 AR 표출 영상을 생성하며, 주행 영상과 AR 표출 영상들의 프레임 레이트를 일치시킴으로써, 유저가 실제로 보고 있는 현실 세계를 담고 있는 실시간 주행 영상에서 AR 안내 객체가 정확한 위치에 표시되도록 할 수 있다. According to the present invention, a frame rate of a real-time driving image is reduced to a frame rate within a minimum value that can be recognized as a video at a user's time and a processor performance maximum value, and the driving image of the changed frame rate is analyzed to include an AR guide object. By generating the AR display image and matching the frame rates of the driving image and the AR display images, it is possible to display the AR guide object at the correct location in the real-time driving image containing the real world that the user is actually viewing.
도 14는 본 발명의 다른 실시 예에 따른 증강 현실 영상 처리 방법을 나타내는 흐름도이다. 도 14를 참조하면, 먼저 이동체의 주행 중에 촬영된 제1 프레임 레이트의 제1 주행 영상을 획득할 수 있다(S210). 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성할 수 있다(S220). 14 is a flowchart illustrating an augmented reality image processing method according to another embodiment of the present invention. Referring to FIG. 14, first, a first driving image at a first frame rate photographed while driving the mobile body may be obtained (S210 ). A second driving image at a second frame rate may be generated by processing the acquired first driving image (S220).
그리고, 제2 주행 영상에서 일부를 잘라낼 크롭 영역을 결정하고(S230), 제2 주행 영상을 결정된 크롭 영역에서 잘라낸 크롭 영상을 생성할 수 있다(S240). 여기서, 크롭 영역은 흔들림 데이터 산출부(15)에서 산출된 흔들림 데이터를 기초로 결정될 수 있다. 즉, 크롭 영역은 특징점 추출을 통해 획득된 흔들림 데이터의 반대 방향(즉, 카메라가 흔들리는 방향의 반대 방향)으로 결정될 수 있다. Then, a crop region to cut a portion of the second driving image may be determined (S230 ), and a cropped image cut from the determined crop region may be generated (S240 ). Here, the crop area may be determined based on the shake data calculated by the
한편, 본 발명의 증강 현실 영상 처리 방법에 따르면, 크롭 영상의 크기를 제2 주행 영상의 크기로 확대하여 제2 프레임 레이트의 제3 주행 영상을 생성하고(S250), 제3 주행 영상을 분석하여 제3 주행 영상에 표시될 AR(Augmented Reality) 안내 객체를 포함하는 AR 표출 영상을 상기 제2 프레임 레이트로 생성할 수 있다(S260).On the other hand, according to the augmented reality image processing method of the present invention, by expanding the size of the cropped image to the size of the second driving image to generate a third driving image at a second frame rate (S250), and analyze the third driving image An AR expression image including an AR (Augmented Reality) guide object to be displayed on the third driving image may be generated at the second frame rate (S260).
그리고, 제2 프레임 레이트의 제3 주행 영상과 제2 프레임 레이트의 AR 표출 영상을 동기화시켜 결합할 수 있다(S270). 이러한 본 발명에 따르면, 흔들림에 따른 영향을 상쇄시킨 크롭 영상을 기초로 제3 주행 영상을 생성하고, 제3 주행 영상과 AR 표출 영상을 동기화시켜 결합함으로써, 영상 간의 정합 오류를 해소하여 AR 안내 객체가 정확한 위치에 표출되도록 할 수 있다.Then, the third driving image at the second frame rate and the AR display image at the second frame rate may be synchronized and combined (S270). According to the present invention, a third driving image is generated based on a cropped image that compensates for the effects of shaking, and the third driving image and the AR display image are synchronized and combined to solve the matching error between the images to solve the AR guide object Can be displayed at the correct location.
상술한 증강 현실 영상 처리 방법을 통해서, 증강 현실 영상 처리 장치(10)는 실시간 영상에서도 증강 현실 객체가 정확한 위치에 표출되도록 하여, 운전자에게 정확한 증강 현실 내비게이션을 제공할 수 있다. 또한, 증강 현실 영상 처리 장치(10)는 흔들리는 실시간 영상에서 증강 현실 객체가 정확한 위치에 표출되도록 하여, 운전자에게 정확한 증강 현실 내비게이션을 제공할 수 있다.Through the augmented reality image processing method described above, the augmented reality
한편, 이러한 증강 현실 영상 처리 장치(10)는 운전자의 운전을 보조하기 위한 각종 안내 정보를 출력하는 전자 장치 또는 자율 주행을 위한 시스템의 일 모듈로 구현되어 경로 안내 기능을 수행할 수 있다. 이에 대해서는 도 15를 참조하여 보다 구체적으로 설명하기로 한다.Meanwhile, the augmented reality
도 15는 본 발명의 일 실시 예에 따른 전자 장치를 나타내는 블록도이다. 도 15를 참조하면, 전자 장치(100)는 저장부(110), 입력부(120), 출력부(130), 증강 현실 제공부(160), 제어부(170), 통신부(180), 센싱부(190), 전원부(195)의 전부 또는 일부를 포함한다.15 is a block diagram illustrating an electronic device according to an embodiment of the present invention. 15, the
여기서, 전자 장치(100)는 차량의 운전자에게 운전 관련 안내를 제공할 수 있는 스마트 폰, 태블릿 컴퓨터, 노트북 컴퓨터, PDA(personal digital assistant), PMP(portable multimedia player), 스마트 글래스, 프로젝트 글래스, 내비게이션(navigation), 차량용 영상 촬영 장치인 Car dash cam 또는 Car video recorder 등과 같은 다양한 장치로 구현될 수 있고, 차량에 구비될 수 있다.Here, the
운전 관련 안내는 경로 안내, 차선 이탈 안내, 차선 유지 안내, 전방 차량 출발 안내, 신호등 변경 안내, 전방 차량 추돌 방지 안내, 차로 변경 안내, 차로 안내, 커브 안내, 제한 속도 안내, 차폭 제한 안내, 차 중량 제한 안내, 차량 높이 제한 안내 등과 같이 차량 운전자의 운전을 보조하기 위한 다양한 안내를 포함할 수 있다. Driving guidance includes route guidance, lane departure guidance, lane maintenance guidance, front vehicle departure guidance, traffic light change guidance, front vehicle collision prevention guidance, lane change guidance, lane guidance, curve guidance, speed limit guidance, vehicle width limit guidance, vehicle weight It may include various guides for assisting the driving of the vehicle driver, such as the guide limit and the vehicle height limit guide.
여기서, 경로 안내는 운행 중인 차량의 전방을 촬영한 영상에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 증강 현실 경로 안내, 2D(2-Dimensional) 또는 3D(3-Dimensional)의 지도 데이터에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 2D(2-Dimensional) 또는 3D(3-Dimensional) 경로 안내를 포함할 수 있다. Here, the route guidance is augmented reality route guidance, 2D (2-Dimensional) or 3D (3-Dimensional), which performs route guidance by combining various information such as a user's location and direction with an image photographing the front of a running vehicle. It may include 2D (2-Dimensional) or 3D (3-Dimensional) route guidance by combining various information such as the user's location and direction with the map data of.
뿐만 아니라, 경로 안내는 항공 지도 데이터에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 항공 지도 경로 안내를 포함할 수 있다. 여기서, 경로 안내는 사용자가 차량에 탑승하여 운전하는 경우뿐만 아니라, 사용자가 걷거나 뛰어서 이동하는 경우의 경로 안내도 포함하는 개념으로 해석될 수 있다. In addition, the route guidance may include an aerial map route guidance that combines various information such as a user's location and direction in the aerial map data to perform route guidance. Here, the route guide may be interpreted as a concept including a route guide when the user walks or jumps, as well as when the user rides and drives the vehicle.
또한, 차선 이탈 안내는 주행 중인 차량이 차선을 이탈하였는지 여부를 안내하는 것일 수 있다. In addition, the lane departure guidance may be to guide whether the vehicle being driven has left the lane.
또한, 차선 유지 안내는 차량이 본래 주행 중인 차로로 복귀하도록 안내하는 것일 수 있다.In addition, the lane maintenance guidance may be to guide the vehicle to return to the original driving lane.
또한, 전방 차량 출발 안내는 정차 중인 차량의 전방에 위치한 차량의 출발 여부를 안내하는 것일 수 있다.In addition, the front vehicle departure guide may be to guide the departure of a vehicle located in front of the vehicle being stopped.
또한, 신호등 변경 안내는 정차 중인 차량의 전방에 위치한 신호등의 신호 변경 여부를 안내하는 것일 수 있다. 일 예로, 정지 신호를 나타내는 빨간 신호등이 켜진 상태에서 출발 신호를 나타내는 파란 신호등으로 변경되면, 이를 안내하는 것 일 수 있다. In addition, the traffic light change guide may be to guide whether the signal of the traffic light located in front of the vehicle being stopped is changed. For example, when the red traffic light indicating the stop signal is turned on and the blue traffic light indicating the start signal is changed, it may be guided.
또한, 전방 차량 추돌 방지 안내는 정차 또는 주행 중인 차량의 전방에 위치한 차량과의 거리가 일정 거리 이내가 되면 전방 차량과 추돌을 방지하기 위해 이를 안내하는 것일 수 있다. In addition, the front vehicle collision prevention guide may be to guide a vehicle in front of a vehicle that is stopped or running when the distance to the vehicle is within a predetermined distance to prevent collision with the vehicle in front.
또한, 차로 변경 안내는 목적지까지의 경로 안내를 위하여 차량이 위치한 차로에서 다른 차로로 변경을 안내하는 것일 수 있다.In addition, the lane change guide may be to guide the change from the lane where the vehicle is located to another lane to guide the route to the destination.
또한, 차로 안내는 현재 차량이 위치한 차로를 안내하는 것일 수 있다. In addition, the lane guidance may be to guide the lane in which the current vehicle is located.
또한, 커브 안내는 소정 시간 이후에 차량이 주행할 도로가 커브임을 안내하는 것일 수 있다. In addition, the curve guide may be a guide that the road on which the vehicle will travel after a predetermined time is a curve.
또한, 제한 속도 안내는 현재 차량이 위치한 차로 또는 진입할 차로의 제한 속도를 안내하는 것일 수 있다.In addition, the speed limit guide may be to guide the speed limit of the lane in which the current vehicle is located or the lane to enter.
또한, 차폭 제한 안내는 현재 차량이 위치한 차로 또는 진입할 차로의 차폭 제한을 안내하는 것일 수 있다.In addition, the vehicle width limitation guide may be to guide the vehicle width limitation of the lane in which the current vehicle is located or the lane to enter.
또한, 차 중량 제한 안내는 현재 차량이 위치한 차로 또는 진입할 차로의 차 중량 제한을 안내하는 것일 수 있다.In addition, the vehicle weight limit guide may be to guide the vehicle weight limit of the lane in which the current vehicle is located or the lane to enter.
또한, 차량 높이 제한 안내는 현재 차량이 위치한 차로 또는 진입할 차로의 차량 높이 제한을 안내하는 것일 수 있다.In addition, the vehicle height restriction guide may be to guide the vehicle height restriction of the lane in which the current vehicle is located or the lane to enter.
이러한, 다양한 안내의 제공을 가능하게 하는 차량의 전방 영상과 같은 운전 관련 영상은 차량에 거치된 카메라 또는 스마트 폰의 카메라에서 촬영될 수 있다. 여기서 카메라는 차량에 거치된 전자 장치(100)와 일체로 형성되어 차량의 전방을 촬영하는 카메라일 수 있다. Such a driving-related image, such as a front image of a vehicle that enables providing various guidance, may be captured by a camera mounted on a vehicle or a camera of a smart phone. Here, the camera may be a camera that is integrally formed with the
다른 예로, 카메라는 전자 장치(100)와 별개로 차량에 거치되어 차량의 전방을 촬영하는 카메라일 수 있다. 이 경우, 카메라는 차량의 전방을 향하여 거치된 별도의 차량용 영상 촬영 장치일 수 있고, 전자 장치(100)는 별도로 거치된 차량용 영상 촬영 장치와 유/무선 통신을 통하여 촬영 영상을 입력 받거나, 차량용 영상 촬영 장치의 촬영 영상을 저장하는 저장 매체가 전자 장치(100)에 삽입되면, 전자 장치(100)는 촬영 영상을 입력 받을 수 있다. As another example, the camera may be a camera mounted on a vehicle separately from the
이하에서는, 상술한 내용을 기초로 본 발명의 일 실시 예에 따른 전자 장치(100)에 대해서 보다 구체적으로 설명하기로 한다.Hereinafter, the
저장부(110)는 전자 장치(100)의 동작에 필요한 다양한 데이터 및 어플리케이션을 저장하는 기능을 한다. 특히 저장부(110)는 전자 장치(100)의 동작에 필요한 데이터, 예를 들어 OS, 경로 탐색 어플리케이션, 지도 데이터 등을 저장할 수 있다. 또한 저장부(110)는 전자 장치(100)의 동작에 의하여 생성된 데이터, 예를 들어 탐색된 경로 데이터, 수신한 영상 등을 저장할 수 있다. The
이러한 저장부(110)는 RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USIM(Universal Subscriber Identity Module)등과 같은 내장된 형태의 저장소자는 물론, USB 메모리 등과 같은 착탈 가능한 형태의 저장소자로 구현될 수도 있다.The
입력부(120)는 전자 장치(100)의 외부로부터의 물리적 입력을 특정한 전기 신호로 변환하는 기능을 한다. 여기서, 입력부(120)는 사용자 입력부(121)와 마이크부(123)의 전부 또는 일부를 포함할 수 있다.The
사용자 입력부(121)는 터치, 푸쉬동작 등과 같은 사용자 입력을 수신할 수 있다. 여기서 사용자 입력부(121)는 다양한 버튼의 형태, 터치 입력을 수신하는 터치 센서, 접근하는 모션을 수신하는 근접 센서 중 적어도 하나를 이용하여 구현될 수 있다. The
마이크부(123)는 사용자의 음성 및 차량의 내외부에서 발생한 음향을 수신할 수 있다.The
출력부(130)는 전자 장치(100)의 데이터를 사용자에게 영상 및/또는 음성으로 출력하는 장치이다. 여기서, 출력부(130)는 디스플레이부(131)와 오디오 출력부(133)의 전부 또는 일부를 포함할 수 있다. 즉, 출력부(130)는 증강 현실 영상 처리 장치(10)의 표시부(14)의 역할을 수행할 수 있다.The
디스플레이부(131)는 사용자에게 시각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 디스플레이부(131)는 전자 장치(100)의 하우징 전면(前面)에 마련된 디스플레이부로 구현될 수 있다. 또한, 디스플레이부(131)는 전자 장치(100)과 일체로 형성되어 시각적 인식 데이터를 출력할 수 있고, HUD(Head Up Display)와 같이 전자 장치(100)과 별개로 설치되어 시각적 인식 데이터를 출력할 수도 있다.The
오디오 출력부(133)는 전자 장치(100)가 청각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 오디오 출력부(133)는 전자 장치(100)의 사용자에게 알려야 할 데이터를 소리를 표현하는 스피커로 구현될 수 있다. 즉, 오디오 출력부(133)는 소정의 경고음 또는 주행 안내 음성을 출력할 수 있다.The
증강 현실 제공부(160)는 상술한 증강 현실 영상 처리 장치(10)의 기능을 수행할 수 있다. 구체적으로 증강 현실 제공부(160)는 사용자가 실제로 보고 있는 현실 세계를 담고 있는 주행 영상에 부가 정보(예를 들면, 관심 지점(Point Of Interest: POI)을 나타내는 AR 안내 객체, 전방 차량 충돌 위험성을 안내하는 AR 안내 객체, 차량 간 거리를 나타내는 AR 안내 객체, 커브를 안내하는 AR 안내 객체, 운전자의 안전 운전을 돕기 위한 다양한 AR 안내 객체등)를 시각적으로 중첩하여 제공할 수 있다. The augmented
한편, 통신부(180)는 전자 장치(100)가 다른 디바이스와 통신하기 위하여 마련될 수 있다. 통신부(180)는 위치 데이터부(181), 무선 인터넷부(183), 방송 송수신부(185), 이동 통신부(186), 근거리 통신부(187), 유선 통신부(189)의 전부 또는 일부를 포함할 수 있다. Meanwhile, the
위치 데이터부(181)는 GNSS(Global Navigation Satellite System)를 통하여 위치 데이터를 획득하는 장치이다. GNSS는 인공위성으로부터 수신한 전파신호를 이용하여 수신 단말기의 위치를 산출할 수 있는 항법 시스템을 의미한다. GNSS의 구체적인 예로는, 그 운영 주체에 따라서 GPS(Global Positioning System), Galileo, GLONASS(Global Orbiting Navigational Satellite System), COMPASS, IRNSS(Indian Regional Navigational Satellite System), QZSS(Quasi-Zenith Satellite System) 등 일 수 있다. 본 발명의 일 실시 예에 따른 전자 장치(100)의 위치 데이터부(181)는 시스템(100)가 사용되는 지역에서 서비스하는 GNSS 신호를 수신하여 위치 데이터를 획득할 수 있다. 또는, 위치 데이터부(181)는 GNSS 외에도 기지국 또는 AP(Access Point)와의 통신을 통해 위치 데이터를 획득할 수도 있다.The
무선 인터넷부(183)는 무선 인터넷에 접속하여 데이터를 획득하거나 송신하는 장치이다. 무선 인터넷부(183)는 WLAN(Wireless LAN), Wibro(Wireless broadband), Wimax(World interoperability for microwave access), HSDPA(High Speed Downlink Packet Access)의 무선 데이터 송수신을 수행하도록 정의된 다양한 통신 프로토콜을 통해 인터넷 망에 접속할 수 있다.The
방송 송수신부(185)는 각종 방송 시스템을 통하여 방송 신호를 송수신하는 장치이다. 방송 송수신부(185)를 통하여 송수신할 수 있는 방송 시스템은 DMBT(Digital Multimedia Broadcasting Terrestrial), DMBS(Digital Multimedia Broadcasting Satellite), MediaFLO(Media Forward Link Only), DVBH(Digital Video Broadcast Handheld), ISDBT(Integrated Services Digital Broadcast Terrestrial) 등일 수 있다. 방송 송수신부(185)를 통하여 송수신되는 방송 신호에는 교통 데이터, 생활 데이터 등을 포함할 수 있다.The broadcast transmission/
이동 통신부(186)는 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 이동 통신 규격에 따라 이동 통신망에 접속하여 음성 및 데이터 통신할 수 있다.The
근거리 통신부(187)는 근거리 통신을 위한 장치이다. 근거리 통신부(187)는, 전술한 바와 같이, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, Infrared Data Association), UWB(Ultra WideBand), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity) 등을 통하여 통신할 수 있다.The short-
유선 통신부(189)는 전자 장치(100)를 다른 디바이스와 유선으로 연결할 수 있는 인터페이스 장치이다. 유선 통신부(189)는, USB Port를 통하여 통신할 수 있는 USB 모듈일 수 있다. The
이러한, 통신부(180)는 위치 데이터부(181)와, 무선 인터넷부(183)와, 방송 송수신부(185), 이동 통신부(186), 근거리 통신부(187), 유선 통신부(189) 중 적어도 하나를 이용하여 다른 디바이스와 통신할 수 있다. The
일 예로, 전자 장치(100)가 카메라 기능을 포함하지 않는 경우, Car dash cam이나 Car video recorder와 같은 차량용 영상 촬영 장치에서 촬영된 영상을 근거리 통신부(187), 유선 통신부(189) 중 적어도 하나를 이용하여 수신할 수 있다.For example, when the
다른 예로, 복수의 디바이스와 통신하는 경우에 어느 하나는 근거리 통신부(187)로 통신하고, 다른 하나는 유선 통신부(119)를 통하여 통신하는 경우도 가능하다. As another example, when communicating with a plurality of devices, one may communicate with the local
센싱부(190)는 시스템(100)의 현재 상태를 감지할 수 있는 장치이다. 센싱부(190)는 모션 센싱부(191)와 광 센싱부(193)의 전부 또는 일부를 포함할 수 있다.The
모션 센싱부(191)는 전자 장치(100)의 3차원 공간 상에서의 운동을 감지할 수 있다. 모션 센싱부(191)은 3축 지자기 센서 및 3축 가속도 센서를 포함할 수 있다. 모션 센싱부(191)을 통하여 획득한 운동 데이터를 위치 데이터부(181)를 통하여 획득한 위치 데이터와 결합하여, 전자 장치(100)를 부착한 차량의 궤적을 보다 정확하게 산출할 수 있다.The
광 센싱부(193)는 시스템(100)의 주변 조도(illuminance)를 측정하는 장치이다. 광 센싱부(193)를 통하여 획득한 조도데이터를 이용하여, 디스플레이부(131)의 밝기를 주변 밝기에 대응되도록 변화시킬 수 있다.The
전원부(195)는 전자 장치100)의 동작 또는 전자 장치(100)와 연결된 다른 디바이스의 동작을 위하여 필요한 전원을 공급하는 장치이다. 전원부(195)는 전자 장치(100)에 내장된 배터리 또는 차량 등의 외부 전원에서 전원을 공급받는 장치일 수 있다. 또한, 전원부(195)는 전원을 공급받는 형태에 따라서 유선 통신 모듈(119)로 구현되거나, 무선으로 공급받는 장치로 구현될 수도 있다.The
제어부(170)는 전자 장치(100)의 전반적인 동작을 제어한다. 구체적으로 제어부(170)는 저장부(110), 입력부(120), 출력부(130), 증강 현실 제공부(160), 통신부(180), 센싱부(190), 전원부(195)의 전부 또는 일부를 제어할 수 있다.The
특히, 제어부(170)은 증강 현실 제공부(160)에서 생성된 증강 현실 영상을 표시하도록 디스플레이부(131)를 제어할 수 있다. 구체적으로, 증강 현실 제공부(160)는 이동체의 주행 중에 촬영된 제1 프레임 레이트의 제1 주행 영상을 획득하고, 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성하며, 제2 주행 영상을 분석하여 제2 주행 영상에 표시될 AR(Augmented Reality) 안내 객체를 포함하는 AR 표출 영상을 제2 프레임 레이트로 생성하고, 생성된 제2 주행 영상과 AR 표출 영상을 동기화시켜 결합하여 증강 현실 영상을 생성할 수 있다. 이 경우, 제어부(170)는 증강 현실 제공부(160)에서 생성된 증강 현실 영상을 표시하도록 디스플레이부(131)를 제어할 수 있다. In particular, the
도 16은 본 발명의 일 실시 예에 따른 전자 장치와 연결된 시스템 네트워크를 설명하기 위한 도면이다. 도 16을 참조하면, 본 발명의 일 실시 예에 따른 전자 장치(100)는 내비게이션, 차량용 영상 촬영 장치, 스마트 폰 또는 기타 차량용 증강 현실 인터페이스 제공 장치 등과 같은 차량에 구비되는 각종 장치로 구현될 수 있으며, 다양한 통신망 및 다른 전자 디바이스(61 내지 64)와 접속할 수 있다.16 is a diagram for describing a system network connected to an electronic device according to an embodiment of the present invention. Referring to FIG. 16, the
또한, 전자 장치(100)는 인공위성(20)으로부터 수신한 전파신호에 따라 GPS모듈을 연동하여 현재의 위치 및 현재 시간대를 산출할 수 있다.In addition, the
각각의 인공위성(20)은 주파수 대역이 상이한 L밴드 주파수를 송신할 수 있다. 전자 장치(100)는 각각의 인공위성(20)에서 송신된 L밴드 주파수가 전자 장치(100)에 도달하기까지 소요된 시간에 기초하여 현재 위치를 산출할 수 있다.Each
한편, 전자 장치(100)는 통신부(180)을 통하여 제어국(40, ACR), 기지국(50, RAS), AP(Access Point) 등을 통하여 네트워크(30)에 무선으로 접속할 수 있다. 네트워크(30)에 전자 장치(100)가 접속하면, 네트워크(30)에 접속한 다른 전자 디바이스(61, 62)와도 간접적으로 접속하여 데이터를 교환할 수 있다.Meanwhile, the
한편, 전자 장치(100)는 통신 기능을 가진 다른 디바이스(63)를 통하여 간접적으로 네트워크(30)에 접속할 수도 있다. 예를 들어, 네트워크(30)에 접속할 수 있는 모듈이 전자 장치(100)에 구비되지 않은 경우에, 근거리 통신 모듈 등을 통하여 통신 기능을 가진 다른 디바이스(63)와 통신할 수 있다.Meanwhile, the
도 17은 본 발명의 일 실시 예에 따른 전자 장치의 차량 충돌 방지 안내 화면을 나타내는 도면이다. 도 17을 참조하면, 전자 장치(100)는 차량 충돌 위험도를 나타내는 안내 객체를 생성하고, 생성된 안내 객체(1001)를 증강 현실을 통하여 출력할 수 있다.17 is a diagram illustrating a vehicle collision prevention guide screen of an electronic device according to an embodiment of the present invention. Referring to FIG. 17, the
여기서, 안내 객체(1001)는 사용자 주의가 필요한 상태임을 안내하는 객체일 수 있다. 즉, 차량 충돌 방지 안내는 차량이 전방 차량과 거리가 소정 거리 이내로 좁혀져 전방 차량과의 충돌 위험성이 있음을 안내하는 것일 수 있다. 본 실시예에서 안내 객체(1001)는 텍스처(texture) 이미지로 구현되어 증강 현실을 통하여 표출될 수 있다. 이에 따라 운전자는 자차가 주행 중인 도로를 용이하게 인식할 수 있다.Here, the
또한, 전자 장치(100)는 안내 객체(1001)를 음성을 통해서도 출력할 수 있다.Also, the
도 18은 본 발명의 일 실시 예에 따른 전자 장치가 촬영부를 구비하지 않는 경우의 구현 형태를 나타내는 도면이다. 도 18을 참조하면, 전자 장치(100)와 별도로 마련된 차량용 영상 촬영 장치(200)가 유선/무선 통신 방식을 이용하여 본 발명의 일 실시 예에 따른 시스템을 구성할 수 있다. 18 is a diagram illustrating an implementation form when an electronic device according to an embodiment of the present invention does not include a photographing unit. Referring to FIG. 18, a vehicle
전자 장치(100)는 하우징(191)의 전면에 마련된 디스플레이부(131)와, 사용자 입력부(121)와, 마이크(123)를 포함할 수 있다.The
차량용 영상 촬영 장치 (200)는 카메라(222)와 마이크(224), 부착부(281)를 포함할 수 있다.The vehicle
도 19는 본 발명의 일 실시 예에 따른 전자 장치가 촬영부를 구비하는 경우 구현 형태를 나타내는 도면이다. 도 19를 참조하면, 전자 장치(100)가 촬영부(150)를 포함하는 경우, 사용자는 전자 장치(100)의 촬영부(150)가 차량의 전방을 촬영하고, 전자 장치(100)의 디스플레이 부분을 사용자가 인식 할 수 있도록 하는 장치일 수 있다. 이에 따라, 본 발명의 일 실시 예에 따른 시스템을 구현할 수 있다. 19 is a diagram illustrating an implementation form when an electronic device according to an embodiment of the present invention includes a photographing unit. Referring to FIG. 19, when the
도 20은 본 발명의 일 실시 예에 따른 HUD(Head-Up Display)를 이용한 구현 형태를 나타내는 도면이다. 도 20을 참조하면, HUD는 다른 디바이스들과의 유/무선 통신을 통하여 증강 현실 안내 화면을 헤드업 디스플레이 상에서 표시할 수 있다. 20 is a view showing an implementation form using a head-up display (HUD) according to an embodiment of the present invention. Referring to FIG. 20, the HUD may display an augmented reality guide screen on a head-up display through wired/wireless communication with other devices.
일 예로, 증강 현실은 차량 앞유리를 이용한 HUD 또는 별도의 영상 출력 장치를 이용한 영상 오버레이 등을 통해 제공될 수 있으며, 증강 현실 제공부(160)는 이와 같이 현실 영상 또는 유리에 오버레이되는 인터페이스 이미지 등을 생성할 수 있다. 이를 통해 증강 현실 내비게이션 또는 차량 인포테인먼트 시스템 등이 구현될 수 있다.For example, augmented reality may be provided through a HUD using a windshield of a vehicle or an image overlay using a separate image output device, and the augmented
한편, 상술한 본 발명의 일 실시 예에 따르면, 증강 현실 영상 처리 장치(10)가 제1 프레임 레이트의 제1 주행 영상을 입력받아 제2 프레임 레이트의 제2 주행 영상을 생성하는 것을 예로 설명하였으나, 이는 본 발명의 일 실시 예일 뿐 이에 한정되는 것은 아니다. 본 발명의 다른 실시 예에 따르면, 외부 별도 모듈을 통하여 제1 프레임 레이트의 제1 주행 영상으로부터 제2 프레임 레이트의 제2 주행 영상이 생성될 수 있고, 증강 현실 영상 처리 장치(10)는 외부 모듈로부터 제2 프레임 레이트의 제2 주행 영상을 수신하는 형태로 구현될 수도 있다. On the other hand, according to one embodiment of the present invention, the augmented reality
한편, 명세서 및 청구범위에서 "제 1", "제 2", "제 3" 및 "제 4" 등의 용어는, 만약 있는 경우, 유사한 구성요소 사이의 구분을 위해 사용되며, 반드시 그렇지는 않지만 특정 순차 또는 발생 순서를 기술하기 위해 사용된다. 그와 같이 사용되는 용어는 여기에 기술된 본 발명의 실시예가, 예컨대, 여기에 도시 또는 설명된 것이 아닌 다른 시퀀스로 동작할 수 있도록 적절한 환경하에서 호환 가능한 것이 이해될 것이다. 마찬가지로, 여기서 방법이 일련의 단계를 포함하는 것으로 기술되는 경우, 여기에 제시된 그러한 단계의 순서는 반드시 그러한 단계가 실행될 수 있는 순서인 것은 아니며, 임의의 기술된 단계는 생략될 수 있고/있거나 여기에 기술되지 않은 임의의 다른 단계가 그 방법에 부가 가능할 것이다. On the other hand, terms such as "first", "second", "third" and "fourth" in the specification and claims, if any, are used to distinguish between similar elements, but not necessarily Used to describe a specific sequence or order of occurrence. It will be understood that the terms so used are compatible under appropriate circumstances so that the embodiments of the invention described herein can operate in sequences other than those shown or described herein, for example. Likewise, where the method is described as including a series of steps, the order of such steps presented herein is not necessarily the order in which such steps may be performed, and any described steps may be omitted and/or here Any other steps not described may be added to the method.
또한 명세서 및 청구범위의 "왼쪽", "오른쪽", "앞", "뒤", "상부", "바닥", "위에", "아래에" 등의 용어는, 설명을 위해 사용되는 것이며, 반드시 불변의 상대적 위치를 기술하기 위한 것은 아니다. 그와 같이 사용되는 용어는 여기에 기술된 본 발명의 실시예가, 예컨대, 여기에 도시 또는 설명된 것이 아닌 다른 방향으로 동작할 수 있도록 적절한 환경하에서 호환 가능한 것이 이해될 것이다. 여기서 사용된 용어 "연결된"은 전기적 또는 비 전기적 방식으로 직접 또는 간접적으로 접속되는 것으로 정의된다. 여기서 서로 "인접하는" 것으로 기술된 대상은, 그 문구가 사용되는 문맥에 대해 적절하게, 서로 물리적으로 접촉하거나, 서로 근접하거나, 서로 동일한 일반적 범위 또는 영역에 있는 것일 수 있다. 여기서 "일실시예에서"라는 문구의 존재는 반드시 그런 것은 아니지만 동일한 실시예를 의미한다.In addition, the terms "left", "right", "front", "back", "upper", "bottom", "above", "below", etc. in the specification and claims are used for explanation, It is not necessarily to describe the constant relative position. It will be understood that the terms so used are compatible under appropriate circumstances so that the embodiments of the invention described herein may operate in other directions than those illustrated or described herein, for example. The term "connected" as used herein is defined as being connected directly or indirectly in an electrical or non-electrical manner. Objects described herein as “adjacent” to one another may be physically in contact with one another, in close proximity to one another, or in the same general scope or area as appropriate for the context in which the phrases are used. The presence of the phrase "in one embodiment" here does not necessarily mean the same embodiment.
또한 명세서 및 청구범위에서 '연결된다', '연결하는', '체결된다', '체결하는', '결합된다', '결합하는' 등과 이런 표현의 다양한 변형들의 지칭은 다른 구성요소와 직접적으로 연결되거나 다른 구성요소를 통해 간접적으로 연결되는 것을 포함하는 의미로 사용된다. Also, in the specification and claims, reference to various variations of these expressions such as'connected','connected','concluded','concluded','coupled','combined', etc. is directly with other components. It is used in a sense that includes connecting or indirectly connecting through other components.
또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로써, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes "module" and "part" for the components used in the present specification are given or mixed only considering the ease of writing the specification, and do not have a meaning or a role distinguished from each other in itself.
또한 본 명세서에서 사용된 용어들은 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprise)' 및/또는 '포함하는(comprising)'은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.Also, the terms used in the present specification are for describing the embodiments and are not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein,'comprise' and/or'comprising' refers to the elements, steps, operations and/or elements mentioned above, the presence of one or more other components, steps, operations and/or elements. Or do not exclude additions.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 명세서를 통해 개시된 모든 실시예들과 조건부 예시들은, 본 발명의 기술 분야에서 통상의 지식을 가진 당업자가 독자가 본 발명의 원리와 개념을 이해하도록 돕기 위한 의도로 기술된 것으로, 당업자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다.So far, the present invention has been focused on the preferred embodiments. All of the embodiments and conditional examples disclosed through this specification have been described with the intention of helping those skilled in the art to understand the principles and concepts of the present invention. It will be understood that this may be implemented in a modified form without departing from the essential characteristics of the present invention.
그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다. Therefore, the disclosed embodiments should be considered in terms of explanation, not limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the equivalent range should be interpreted as being included in the present invention.
한편, 상술한 본 발명의 다양한 실시 예들에 따른 증강 현실 영상 처리 방법은 프로그램으로 구현되어 서버 또는 기기들에 제공될 수 있다. 이에 따라 각 장치들은 프로그램이 저장된 서버 또는 기기에 접속하여, 상기 프로그램을 다운로드할 수 있다.Meanwhile, the augmented reality image processing method according to various embodiments of the present invention described above may be implemented as a program and provided to a server or devices. Accordingly, each device can download the program by accessing a server or device in which the program is stored.
한편, 상술한 본 발명의 다양한 실시 예들에 따른 제한 속도 안내 방법은 프로그램으로 구현되어 서버 또는 기기들에 제공될 수 있다. 이에 따라 각 장치들은 프로그램이 저장된 서버 또는 기기에 접속하여, 상기 프로그램을 다운로드할 수 있다.Meanwhile, the speed limit guide method according to various embodiments of the present invention described above may be implemented as a program and provided to a server or devices. Accordingly, each device can download the program by accessing a server or device in which the program is stored.
또한, 상술한 본 발명의 다양한 실시 예들에 따른 제어 방법은 프로그램으로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다. 비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.In addition, the control method according to various embodiments of the present invention described above may be implemented as a program and stored in various non-transitory computer readable media and provided. The non-transitory readable medium means a medium that stores data semi-permanently and that can be read by a device, rather than a medium that stores data for a short time, such as registers, caches, and memory. Specifically, the various applications or programs described above may be stored and provided in a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although the preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention pertains without departing from the gist of the present invention claimed in the claims. In addition, various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical idea or prospect of the present invention.
10 : 증강 현실 영상 처리 장치
11 : 영상 획득부
12 : 주행 영상 생성부
13 : AR 표출 영상 생성부
14 : 영상 결합부
15 : 흔들림 데이터 산출부
16 : 크롭 영상 생성부
17 : 표시부
100 : 전자 장치
110 : 저장부
120 : 입력부
130 : 출력부
160 : 증강 현실 제공부
170 : 제어부
180 : 통신부
190 : 센싱부
195 : 전원부10: augmented reality image processing apparatus 11: image acquisition unit
12: driving image generation unit 13: AR display image generation unit
14: image combining unit 15: shake data calculation unit
16: crop image generation unit 17: display unit
100: electronic device 110: storage unit
120: input unit 130: output unit
160: augmented reality providing unit 170: control unit
180: communication unit 190: sensing unit
195: power supply
Claims (23)
이동체의 주행 중에 촬영된 제1 프레임 레이트의 제1 주행 영상을 획득하는 단계;
상기 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성하는 단계;
상기 제2 주행 영상을 분석하여 상기 제2 주행 영상에 표시될 AR(Augmented Reality) 안내 객체를 포함하는 AR 표출 영상을 상기 제2 프레임 레이트로 생성하는 단계;
상기 생성된 제2 주행 영상과 상기 AR 표출 영상을 동기화시켜 결합하는 단계;를 포함하고,
상기 제2 프레임 레이트는 상기 제1 프레임 레이트 보다 작은 것을 특징으로 하는 증강 현실 영상 처리 방법.In the augmented reality image processing method using a processor,
Obtaining a first driving image at a first frame rate photographed while the mobile body is driving;
Generating a second driving image at a second frame rate by processing the acquired first driving image;
Analyzing the second driving image and generating an AR expression image including an Augmented Reality (AR) guide object to be displayed on the second driving image at the second frame rate;
Including; synchronizing and combining the generated second driving image and the AR display image;
The second frame rate is less than the first frame rate, augmented reality image processing method.
상기 제2 프레임 레이트는 은 상기 프로세서의 성능에 따라 가변적으로 결정되는 것을 특징으로 하는 증강 현실 영상 처리 방법.According to claim 1,
The second frame rate is augmented reality image processing method characterized in that it is variably determined according to the performance of the processor.
상기 제2 프레임 레이트는 상기 AR 안내 객체의 속성 정보에 따라 가변적으로 결정되는 것을 특징으로 하는 증강 현실 영상 처리 방법.According to claim 1,
The second frame rate is augmented reality image processing method characterized in that it is variably determined according to the attribute information of the AR guide object.
상기 제2 프레임 레이트는 상기 제2 주행 영상에 포함된 분석 대상의 속성 정보를 고려하여 통계적으로 결정되는 것을 특징으로 하는 증강 현실 영상 처리 방법.According to claim 1,
The second frame rate is statistically determined by considering attribute information of an analysis target included in the second driving image.
상기 AR 안내 객체를 포함하는 AR 표출 영상을 상기 제2 프레임 레이트로 생성하는 단계는,
상기 제2 주행 영상을 분석하여 상기 AR 안내 객체의 상기 AR 표출 영상 내 위치를 결정하는 단계; 및
상기 결정된 영상 내 위치에 상기 AR 안내 객체를 위치시킨 상기 AR 표출 영상을 생성하는 단계;를 포함하는 것을 특징으로 하는 증강 현실 영상 처리 방법.According to claim 1,
Generating an AR expression image including the AR guide object at the second frame rate,
Determining a position in the AR display image of the AR guide object by analyzing the second driving image; And
And generating the AR-expressed image in which the AR guide object is positioned in the determined location within the image.
상기 제2 주행 영상으로부터 특징점을 추출하고, 상기 추출된 특징점의 위치 변화값을 산출하는 단계; 및
상기 산출된 위치 변화값을 기초로 상기 제2 주행 영상의 흔들림 크기 및 흔들림 방향을 나타내는 흔들림 데이터를 산출하는 단계;를 더 포함하는 것을 특징으로 하는 증강 현실 영상 처리 방법.According to claim 1,
Extracting a feature point from the second driving image and calculating a position change value of the extracted feature point; And
And calculating shake data indicating a shake size and a shake direction of the second driving image based on the calculated position change value.
상기 산출된 흔들림 데이터를 이용하여 상기 AR 안내 객체의 상기 AR 표출 영상 내 위치를 보정하는 단계;를 더 포함하는 것을 특징으로 하는 증강 현실 영상 처리 방법.The method of claim 6,
And correcting a position of the AR guide object in the AR-expressed image using the calculated shake data.
상기 제2 프레임 레이트의 제2 주행 영상과 상기 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는 단계;를 더 포함하는 것을 특징으로 하는 증강 현실 영상 처리 방법.The method of claim 7,
And displaying the augmented reality image generated according to the combination of the second driving image at the second frame rate and the AR display image at the second frame rate.
상기 산출된 흔들림 데이터를 이용하여 상기 제2 주행 영상에서 일부를 잘라낼 크롭(crop) 영역을 결정하는 단계; 및
상기 제2 주행 영상의 상기 결정된 크롭 영역에서 잘라낸 크롭 영상을 생성하는 단계;를 더 포함하는 것을 특징으로 하는 증강 현실 영상 처리 방법.The method of claim 6,
Determining a crop region to cut a part of the second driving image using the calculated shake data; And
And generating a cropped image cropped from the determined cropping region of the second driving image.
상기 크롭 영상의 크기를 상기 제2 주행 영상의 크기로 확대한 제3 주행 영상을 생성하는 단계; 및
상기 제2 프레임 레이트의 제3 주행 영상과 상기 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는 단계;를 더 포함하는 것을 특징으로 하는 증강 현실 영상 처리 방법.The method of claim 9,
Generating a third driving image in which the size of the cropped image is enlarged to the size of the second driving image; And
And displaying the augmented reality image generated according to the combination of the third driving image at the second frame rate and the AR display image at the second frame rate.
이동체의 주행 중에 촬영된 제1 프레임 레이트의 제1 주행 영상을 획득하는 영상 획득부;
상기 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성하는 주행 영상 생성부;
상기 제2 주행 영상을 분석하여 상기 제2 주행 영상에 표시될 AR(Augmented Reality) 안내 객체를 포함하는 AR 표출 영상을 상기 제2 프레임 레이트로 생성하는 AR 표출 영상 생성부; 및
상기 생성된 제2 주행 영상과 상기 AR 표출 영상을 동기화시켜 결합하는 영상 결합부;를 포함하고,
상기 제2 프레임 레이트는 상기 제1 프레임 레이트 보다 작은 것을 특징으로 하는 증강 현실 영상 처리 장치.In the augmented reality image processing apparatus,
An image acquiring unit acquiring a first driving image at a first frame rate photographed while the mobile body is driving;
A driving image generator configured to process the acquired first driving image to generate a second driving image at a second frame rate;
An AR expression image generation unit analyzing the second driving image and generating an AR expression image including an Augmented Reality (AR) guide object to be displayed on the second driving image at the second frame rate; And
Includes; an image combining unit for synchronizing and combining the generated second driving image and the AR display image;
The second frame rate is augmented reality image processing apparatus, characterized in that less than the first frame rate.
상기 제2 프레임 레이트는 상기 프로세서의 성능에 따라 가변적으로 결정되는 것을 특징으로 하는 증강 현실 영상 처리 장치.The method of claim 11,
The second frame rate is augmented reality image processing apparatus characterized in that it is variably determined according to the performance of the processor.
상기 제2 프레임 레이트는 상기 AR 안내 객체의 속성 정보에 따라 가변적으로 결정되는 것을 특징으로 하는 증강 현실 영상 처리 장치.The method of claim 11,
The second frame rate is augmented reality image processing apparatus characterized in that it is variably determined according to the attribute information of the AR guide object.
상기 제2 프레임 레이트는 상기 제2 주행 영상에 포함된 분석 대상의 속성 정보에 따라 가변적으로 결정되는 것을 특징으로 하는 증강 현실 영상 처리 장치.The method of claim 11,
The second frame rate is augmented reality image processing apparatus characterized in that it is variably determined according to the attribute information of the analysis target included in the second driving image.
상기 AR 표출 영상 생성부는,
상기 제2 주행 영상을 분석하여 상기 AR 안내 객체의 상기 AR 표출 영상 내 위치를 결정하고, 상기 결정된 영상 내 위치에 상기 AR 안내 객체를 위치시킨 상기 AR 표출 영상을 생성하는 것을 특징으로 하는 증강 현실 영상 처리 장치.The method of claim 11,
The AR expression image generation unit,
Augmented reality image characterized by analyzing the second driving image to determine the location within the AR display image of the AR guide object, and generating the AR display image in which the AR guide object is positioned in the determined image location. Processing unit.
상기 제2 주행 영상으로부터 특징점을 추출하고, 상기 추출된 특징점의 위치 변화값을 산출하며, 상기 산출된 위치 변화값을 기초로 상기 제2 주행 영상의 흔들림 크기 및 흔들림 방향을 나타내는 흔들림 데이터를 산출하는 흔들림 데이터 산출부;를 더 포함하는 것을 특징으로 하는 증강 현실 영상 처리 장치.The method of claim 11,
Extracting a feature point from the second driving image, calculating a position change value of the extracted feature point, and calculating shake data indicating a shake size and a shake direction of the second driving image based on the calculated position change value An augmented reality image processing apparatus further comprising a shake data calculation unit.
상기 AR 표출 영상 생성부는,
상기 산출된 흔들림 데이터를 이용하여 상기 AR 안내 객체의 상기 AR 표출 영상 내 위치를 보정하는 것을 특징으로 하는 증강 현실 영상 처리 장치.The method of claim 16,
The AR expression image generation unit,
Augmented reality image processing apparatus characterized in that for correcting the position in the AR display image of the AR guide object using the calculated shake data.
상기 제2 프레임 레이트의 제2 주행 영상과 상기 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는 표시부;를 더 포함하는 것을 특징으로 하는 증강 현실 영상 처리 장치.The method of claim 17,
And a display unit configured to display an augmented reality image generated according to a combination of the second driving image at the second frame rate and the AR display image at the second frame rate.
상기 산출된 흔들림 데이터를 이용하여 상기 제2 주행 영상에서 일부를 잘라낼 크롭(crop) 영역을 결정하고, 상기 제2 주행 영상의 상기 결정된 크롭 영역에서 잘라낸 크롭 영상을 생성하는 크롭 영상 생성부;를 더 포함하는 것을 특징으로 하는 증강 현실 영상 처리 장치.The method of claim 16,
A crop image generator configured to determine a crop region to cut a part of the second driving image using the calculated shake data, and generate a cropped image from the determined crop region of the second driving image; Augmented reality image processing apparatus comprising a.
상기 크롭 영상의 크기를 상기 제2 주행 영상의 크기로 확대한 제3 주행 영상을 생성하고, 상기 제2 프레임 레이트의 제3 주행 영상과 상기 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는 표시부;를 더 포함하는 것을 특징으로 하는 증강 현실 영상 처리 장치.The method of claim 19,
A third driving image in which the size of the cropped image is enlarged to the size of the second driving image is generated, and generated according to a combination of the third driving image at the second frame rate and the AR display image at the second frame rate. And an augmented reality image display unit.
이동체의 주행 중에 촬영된 제1 프레임 레이트의 제1 주행 영상을 획득하는 영상 획득부;
상기 획득된 제1 주행 영상을 처리하여 제2 프레임 레이트의 제2 주행 영상을 생성하는 주행 영상 생성부;
상기 제2 주행 영상을 분석하여 상기 제2 주행 영상에 표시될 AR(Augmented Reality) 안내 객체를 포함하는 AR 표출 영상을 상기 제2 프레임 레이트로 생성하는 AR 표출 영상 생성부;
상기 생성된 제2 주행 영상과 상기 AR 표출 영상을 동기화시켜 결합하는 영상 결합부; 및
상기 제2 프레임 레이트의 주행 영상과 상기 제2 프레임 레이트의 AR 표출 영상의 결합에 따라 생성된 증강 현실 영상을 표시하는 디스플레이부;를 포함하는 전자 기기. In electronic devices,
An image acquiring unit acquiring a first driving image at a first frame rate photographed while the mobile body is driving;
A driving image generator configured to process the acquired first driving image to generate a second driving image at a second frame rate;
An AR expression image generation unit analyzing the second driving image and generating an AR expression image including an Augmented Reality (AR) guide object to be displayed on the second driving image at the second frame rate;
An image combining unit synchronizing and combining the generated second driving image and the AR display image; And
And a display unit configured to display an augmented reality image generated according to a combination of the driving image at the second frame rate and the AR display image at the second frame rate.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190009451A KR20200092197A (en) | 2019-01-24 | 2019-01-24 | Image processing method, image processing apparatus, electronic device, computer program and computer readable recording medium for processing augmented reality image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190009451A KR20200092197A (en) | 2019-01-24 | 2019-01-24 | Image processing method, image processing apparatus, electronic device, computer program and computer readable recording medium for processing augmented reality image |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200092197A true KR20200092197A (en) | 2020-08-03 |
Family
ID=72042908
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190009451A KR20200092197A (en) | 2019-01-24 | 2019-01-24 | Image processing method, image processing apparatus, electronic device, computer program and computer readable recording medium for processing augmented reality image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20200092197A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102452881B1 (en) * | 2021-11-23 | 2022-10-11 | (주)코코믹스 | Apparatus of processing image and method thereof |
-
2019
- 2019-01-24 KR KR1020190009451A patent/KR20200092197A/en unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102452881B1 (en) * | 2021-11-23 | 2022-10-11 | (주)코코믹스 | Apparatus of processing image and method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102348127B1 (en) | Electronic apparatus and control method thereof | |
US9983018B2 (en) | Electronic apparatus and control method thereof | |
US11030816B2 (en) | Electronic apparatus, control method thereof, computer program, and computer-readable recording medium | |
CN108680173B (en) | Electronic device, control method of electronic device, and computer-readable recording medium | |
US11518384B2 (en) | Method for displaying lane information and apparatus for executing the method | |
CN111681455B (en) | Control method of electronic device, and recording medium | |
KR102233391B1 (en) | Electronic apparatus, control method of electronic apparatus and computer readable recording medium | |
KR102123844B1 (en) | Electronic apparatus, control method of electronic apparatus and computer readable recording medium | |
US9677899B2 (en) | Electronic apparatus, control method thereof, computer program, and computer-readable recording medium | |
KR20160065724A (en) | Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium | |
CN108335507B (en) | Method and device for providing driving guidance by using camera to shoot image | |
KR20200092197A (en) | Image processing method, image processing apparatus, electronic device, computer program and computer readable recording medium for processing augmented reality image | |
KR20210071584A (en) | Method and apparatus for determining location by correcting Global Navigation Satellite System based location and electronic device thereof | |
KR102158167B1 (en) | Electronic apparatus, control method of electronic apparatus and computer readable recording medium | |
KR102299081B1 (en) | Electronic apparatus and control method thereof | |
KR102276082B1 (en) | Navigation device, black-box and control method thereof | |
KR102371620B1 (en) | Electronic apparatus, control method of electronic apparatus and computer readable recording medium | |
KR20160065721A (en) | Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium | |
KR102299501B1 (en) | Electronic apparatus, control method of electronic apparatus and computer readable recording medium | |
KR102506263B1 (en) | Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map |