KR20210111956A - Apparatus and method for providing augmented reality - Google Patents

Apparatus and method for providing augmented reality Download PDF

Info

Publication number
KR20210111956A
KR20210111956A KR1020200026865A KR20200026865A KR20210111956A KR 20210111956 A KR20210111956 A KR 20210111956A KR 1020200026865 A KR1020200026865 A KR 1020200026865A KR 20200026865 A KR20200026865 A KR 20200026865A KR 20210111956 A KR20210111956 A KR 20210111956A
Authority
KR
South Korea
Prior art keywords
augmented reality
interest
unit
recognition
image
Prior art date
Application number
KR1020200026865A
Other languages
Korean (ko)
Other versions
KR102387501B1 (en
Inventor
이정현
Original Assignee
주식회사 코아소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 코아소프트 filed Critical 주식회사 코아소프트
Priority to KR1020200026865A priority Critical patent/KR102387501B1/en
Publication of KR20210111956A publication Critical patent/KR20210111956A/en
Application granted granted Critical
Publication of KR102387501B1 publication Critical patent/KR102387501B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Abstract

The present invention relates to an augmented reality providing device and method and relates to an augmented reality providing device and method for providing augmented reality to a user in different ways by classifying a case where spatial recognition is performed and a case where spatial recognition is not performed based on an augmented reality recognition reference point. To this end, disclosed is an augmented reality providing device comprising: a camera unit that acquires a real background image of the user's current location; an object of interest region setting unit that sets an object of interest region that requires augmented reality implementation among the real background images; a recognition reference point generation unit that generates an augmented reality recognition reference point; an augmented reality spatial recognition determination unit that determines whether the set object of interest region is spatially recognized based on the augmented reality recognition reference point; an augmented reality merging unit that merges an augmented reality display image on the object of interest region when spatial recognition is performed based on the augmented reality recognition reference point; and an augmented reality superimposition and transparency unit that transparentizes an augmented reality superimposed image corresponding to an object of interest extracted from the object of interest region while superimposing the augmented reality superimposed image on the object of interest when spatial recognition is not performed based on the augmented reality recognition reference point.

Description

증강현실 제공장치 및 제공방법{Apparatus and method for providing augmented reality} Apparatus and method for providing augmented reality

본 발명은 증강현실 제공장치 및 제공방법에 관한 것으로서, 보다 상세하게는 증강현실 인식 기준점을 바탕으로 공간인식이 되는 경우와 공간인식이 되지 않는 경우를 구분하여 서로 다른 방법으로 사용자에게 증강현실을 제공하는 증강현실 제공장치 및 제공방법에 관한 것이다.The present invention relates to an apparatus and method for providing augmented reality, and more particularly, provides augmented reality to users in different ways by distinguishing between a case where space is recognized and a case where space is not recognized based on an augmented reality recognition reference point. It relates to an augmented reality providing apparatus and providing method.

선행특허문헌에 공개된 기술은 증강현실 영상을 개발하여 주변 환경 영상에 단순히 병합시키는 기술로서 특정 룸을 스캔하고, 스캔된 룸의 물리적 특징 위에 개발된 증강현실 영상을 중첩시켜 사용자에게 증강현실을 제공하는 기술이다(KR 10-2036545). The technology disclosed in the prior patent document is a technology for simply merging an augmented reality image with the surrounding environment image by scanning a specific room and superimposing the developed augmented reality image on the physical characteristics of the scanned room to provide augmented reality to the user. It is a technology that does (KR 10-2036545).

또 다른 선행특허문헌에 공개된 기술은 인식된 점포 A의 위치를 바탕으로 점포 A의 AR 중첩 정보를 점포 A와 함께 동시에 표시하는 증강현실 기술이다(KR 10-1313922의 도 12 참조).Another technology disclosed in the prior patent document is an augmented reality technology that simultaneously displays AR overlapping information of a store A and a store A based on the recognized location of the store A (refer to FIG. 12 of KR 10-1313922).

상술한 선행특허문헌의 증강현실 표현 기술은 모두 인식 기준점을 바탕으로 공간인식이 가능한 경우에 한정하여 증강현실을 사용자에게 제공하는 기술에 불과하여 공간인식이 어려운 멀리 떨어져 있는 오브젝트를 대상으로 증강현실을 제공할 수 없다는 문제점이 있다.All of the augmented reality expression technologies of the preceding patent documents described above are only technologies that provide augmented reality to users only when spatial recognition is possible based on a recognition reference point, so that augmented reality is applied to distant objects where spatial recognition is difficult. The problem is that it cannot be provided.

대한민국 등록특허공보 KR 10-2036545(발명의 명칭 : 오디오, 비주얼 및 모션 분석 기능을 갖는 디지털 카메라)Republic of Korea Patent Publication KR 10-2036545 (Title of the invention: digital camera with audio, visual and motion analysis functions) 대한민국 등록특허공보 KR 10-1313922(발명의 명칭 : 정보 표시 시스템, 정보 표시 장치, 정보 제공 장치 및, 기억 매체)Republic of Korea Patent Publication No. KR 10-1313922 (Title of the invention: information display system, information display device, information providing device, and storage medium) 대한민국 공개특허공보 KR 10-2017-0042363(발명의 명칭 : 증강 및 가상 현실 이미지를 생성하는 시스템 및 방법)Korean Patent Laid-Open Publication No. KR 10-2017-0042363 (Title of the invention: system and method for generating augmented and virtual reality images) 대한민국 공개특허공보 KR 10-2012-0032336(발명의 명칭 : 이동단말기 및 그의 증강현실 정보의 표시 방법Korean Patent Laid-Open Publication No. KR 10-2012-0032336 (Title of the invention: mobile terminal and method for displaying augmented reality information thereof)

따라서, 본 발명은 전술한 바와 같은 문제점을 해결하기 위하여 창출된 것으로서, 증강현실 인식 기준점을 바탕으로 공간인식이 되는 경우와 공간인식이 어려운 경우 각각에 대해 서로 다른 방식으로 증강현실을 사용자에게 제공하는데 그 목적이 있다.Therefore, the present invention was created to solve the above-described problems, and provides augmented reality to users in different ways for each case where spatial recognition is performed based on an augmented reality recognition reference point and when space recognition is difficult. There is a purpose.

그러나, 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

전술한 본 발명의 목적은, 사용자의 현재 위치의 실사 배경영상을 획득하는 카메라부, 실사 배경영상 중 증강현실 구현이 필요한 관심 오브젝트 영역을 설정하는 관심 오브젝트 영역 설정부, 증강현실 인식 기준점을 생성하는 인식 기준점 생성부, 설정된 관심 오브젝트 영역이 증강현실 인식 기준점을 기초로 공간인식이 되는지 여부를 판단하는 증강현실 공간인식 판단부, 증강현실 인식 기준점을 기초로 공간인식이 되는 경우에 관심 오브젝트 영역 상에 증강현실 표시 영상을 병합하는 증강현실 병합부, 증강현실 인식 기준점을 기초로 공간인식이 안 되는 경우에 관심 오브젝트 영역으로부터 추출된 관심 오브젝트에 대응되는 증강현실 중첩 영상을 관심 오브젝트에 중첩시키면서 투명화하는 증강현실 중첩 및 투명화부를 포함하는 것을 특징으로 하는 증강현실 제공장치를 제공함으로써 달성될 수 있다.The above-described object of the present invention is to generate a camera unit for obtaining a live-action background image of the user's current location, an object-of-interest region setting unit for setting an object region of interest that requires augmented reality implementation among the live-action background images, and an augmented reality recognition reference point. Recognition reference point generation unit, augmented reality spatial recognition determination unit for determining whether the set object area of interest is spatially recognized based on the augmented reality recognition reference point, on the object area of interest when spatial recognition is performed based on the augmented reality recognition reference point Augmented reality merging unit that merges augmented reality display images, augmented reality overlapping image corresponding to the object of interest extracted from the object of interest region when spatial recognition is not possible based on the augmented reality recognition reference point while superimposing the object of interest on the object of interest It can be achieved by providing an augmented reality providing device, characterized in that it includes a reality overlapping and transparent unit.

또한, 증강현실 중첩 및 투명화부는 관심 오브젝트 추출부에서 추출된 관심 오브젝트를 인식하는 관심 오브젝트 인식부, 관심 오브젝트에 대응되는 증강현실 중첩 영상을 데이터베이스부로부터 입력받고, 증강현실 중첩 영상을 관심 오브젝트에 중첩시키는 증강현실 중첩부, 관심 오브젝트를 투명화시키는 증강현실 투명화부를 포함한다.In addition, the augmented reality superimposition and transparency unit receives the object of interest recognition unit for recognizing the object of interest extracted from the object of interest extraction unit, the augmented reality superimposed image corresponding to the object of interest from the database unit, and superimposes the augmented reality superimposed image on the object of interest. It includes an augmented reality overlapping unit that makes the object transparent, and an augmented reality transparent unit that makes the object of interest transparent.

또한, 관심 오브젝트 인식부는 단말기의 현재 위치 좌표를 전송받아 현재 위치를 인식하는 위치 인식부, 인식된 위치를 기준으로 제1 데이터베이스부에 기 저장된 오브젝트 정보를 요청하는 오브젝트 정보 요청부, 추출된 관심 오브젝트와 오브젝트 정보를 서로 비교하는 오브젝트 비교부, 비교에 따라 서로 매칭되는 오브젝트를 관심 오브젝트로 인식하는 오브젝트 인식부를 포함한다.In addition, the object of interest recognition unit receives the coordinates of the current location of the terminal and recognizes the current location. The object information requester requests the object information stored in the first database unit based on the recognized location, and the extracted object of interest. and an object comparator for comparing the and object information with each other, and an object recognition unit for recognizing an object matching each other according to the comparison as an object of interest.

또한, 증강현실 중첩부는 인식된 관심 오브젝트에 대응되는 관심 오브젝트의 가상 이미지가 포함된 증강현실 중첩 영상을 제2 데이터베이스부로부터 전송받는 증강현실 중첩 영상 요청부, 관심 오브젝트의 가상 이미지가 포함된 증강현실 중첩 영상을 관심 오브젝트에 중첩시키는 중첩부를 포함한다.In addition, the augmented reality overlapping unit receives an augmented reality superimposed image including a virtual image of the object of interest corresponding to the recognized object of interest from the second database unit, the augmented reality superimposed image requesting unit, augmented reality including the virtual image of the object of interest and an overlapping unit for superimposing the overlapping image on the object of interest.

또한, 병합된 증강현실 표시 영상을 실사 배경영상과 함께 병합 표시하는 증강현실 병합 구현부, 관심 오브젝트의 가상 이미지가 포함된 증강현실 중첩 영상을 실사 배경영상과 함께 병합 표시하는 증강현실 중첩 구현부를 더 포함한다.In addition, an augmented reality merging realization unit that merges and displays the merged augmented reality display image with a live-action background image, and an augmented reality overlay realization unit that merges and displays an augmented reality superimposed image including a virtual image of an object of interest with a live-action background image include

또한, 관심 오브젝트의 가상 이미지가 포함된 증강현실 중첩 영상은 관심 오브젝트의 가상 이미지와 병합하고자 하는 증강현실 표시 이미지를 포함한다.In addition, the augmented reality superimposed image including the virtual image of the object of interest includes the augmented reality display image to be merged with the virtual image of the object of interest.

한편, 본 발명의 또 다른 목적은 카메라부가 사용자의 현재 위치의 실사 배경영상을 획득하는 단계, 관심 오브젝트 영역 설정부가 실사 배경영상 중 증강현실 구현이 필요한 관심 오브젝트 영역을 설정하는 단계, 설정된 관심 오브젝트 영역이 인식 기준점 생성부에 의해 생성된 증강현실 인식 기준점을 기초로 공간인식이 되는지 여부를 증강현실 공간인식 판단부가 판단하는 단계, 관심 오브젝트 영역의 공간인식 여부에 따라 서로 다른 복수의 방법으로 증강현실을 사용자에게 제공하는 것을 포함하는 증강현실 제공방법을 제공함으로써 달성될 수 있다.On the other hand, another object of the present invention is to obtain a live-action background image of the user's current location by the camera unit, the object-of-interest region setting unit setting an object-of-interest region requiring augmented reality implementation among the live-action background images, the set object region of interest The augmented reality spatial recognition determining unit determines whether spatial recognition is performed based on the augmented reality recognition reference point generated by the recognition reference point generator, augmented reality in a plurality of different ways depending on whether the object area of interest is spatially recognized. It can be achieved by providing an augmented reality providing method, including providing to the user.

또한, 서로 다른 복수의 방법을 증강현실을 사용자에게 제공하는 경우에, 설정된 관심 오브젝트 영역이 공간인식 되는 경우에는 제1 증강현실 제공방법의 병합에 따라 증강현실이 사용자에게 제공되고, 설정된 관심 오브젝트 영역이 공간인식 되지 않는 경우에는 제2 증강현실 제공방법의 중첩 및 투명화에 따라 증강현실이 사용자에게 제공된다.In addition, in the case of providing augmented reality with a plurality of different methods to the user, when the set object area of interest is spatially recognized, augmented reality is provided to the user according to the merging of the first augmented reality providing method, and the set object area of interest is provided to the user. If this space is not recognized, augmented reality is provided to the user according to the overlapping and transparency of the second augmented reality providing method.

또한, 제2 증강현실 제공방법의 경우에는 관심 오브젝트 추출부가 관심 오브젝트 영역 내의 관심 오브젝트를 추출하는 단계, 관심 오브젝트 인식부는 사용자의 위치 및 추출된 관심 오브젝터를 기초로 데이터베이스부에 기 저장된 오브젝트 정보와의 비교를 통해 매칭된 오브젝트를 관심 오브젝트로 인식하는 단계, 증강현실 중첩부는 관심 오브젝트에 대응되는 증강현실 중첩 영상을 데이터베이스부로부터 불러오는 단계, 증강현실 중첩부는 관심 오브젝트와 증강현실 중첩 영상을 서로 중첩시키고, 증강현실 투명화부가 관심 오브젝트를 투명화시키는 단계, 랜더링부는 증강현실 중첩 영상을 랜더링하는 단계, 증강현실 중첩 구현부가 증강현실 중첩 영상을 실사 배경영상과 함께 병합 표시하는 단계를 포함한다.In addition, in the case of the second augmented reality providing method, the step of extracting the object of interest in the object of interest region by the object of interest extraction unit of interest, the object of interest recognition unit based on the location of the user and the extracted object of interest, object information stored in the database unit and Recognizing the matched object as an object of interest through comparison of , A step of transparentizing the augmented reality transparent unit to the object of interest, the rendering unit rendering the augmented reality superimposed image, the augmented reality superimposition realizing unit comprises the step of merging and displaying the augmented reality superimposed image with the actual background image.

전술한 바와 같은 본 발명에 의하면 증강현실 인식 기준점을 바탕으로 공간인식이 되는 경우와 공간인식이 어려운 경우 각각에 대해 서로 다른 방식으로 증강현실을 사용자에게 제공할 수 있는 효과가 있다.According to the present invention as described above, there is an effect that augmented reality can be provided to the user in different ways for the case where spatial recognition is performed based on the augmented reality recognition reference point and the case where spatial recognition is difficult.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 일실시예를 예시하는 것이며, 발명의 상세한 설명과 함께 본 발명의 기술적 사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석 되어서는 아니 된다.
도 1은 본 발명의 일실시예에 따른 도로의 사거리 주위에 위치한 각 건물을 도시한 것이며, 사용자의 위치에 따라 공간인식이 되는 건물과 공간인식이 어려운 건물을 나타낸 도면이고,
도 2 내지 도 3은 본 발명의 일실시예에 따른 증강현실 제공장치의 구성을 대략적으로 나타낸 도면이고,
도 4는 본 발명의 일실시예에 따른 공간인식이 가능한 경우에 제1 증강현실 제공방법을 통해 사용자에게 증강현실을 제공하는 것을 도시한 도면이고,
도 5는 본 발명의 일실시예에 따른 공간인식이 어려운 경우에 제2 증강현실 제공방법을 통해 사용자에게 증강현실을 제공하는 것을 도시한 도면이고,
도 6 내지 도 8은 도 5와 증강현실 표시 영상이 다른 예로서 제2 증강현실 제공방법을 통해 사용자에게 증강현실을 제공하는 것을 도시한 도면이고,
도 9 내지 도 11은 본 발명의 일실시예에 따른 제1,2 증강현실 제공방법을 통해 사용자에게 증강현실을 제공하는 방법을 순차적으로 도시한 도면이다.
The following drawings attached to the present specification illustrate a preferred embodiment of the present invention, and serve to further understand the technical idea of the present invention together with the detailed description of the present invention, so the present invention is limited to the matters described in those drawings It should not be construed as being limited.
1 is a view showing each building located around the crossroads of the road according to an embodiment of the present invention, and a building that is space-recognized according to the user's location and a building that is difficult to recognize the space,
2 to 3 are diagrams schematically showing the configuration of an augmented reality providing apparatus according to an embodiment of the present invention,
4 is a diagram illustrating providing augmented reality to a user through a first augmented reality providing method when spatial recognition is possible according to an embodiment of the present invention;
5 is a diagram illustrating providing augmented reality to a user through a second augmented reality providing method when spatial recognition is difficult according to an embodiment of the present invention;
6 to 8 are views illustrating that the augmented reality display image is provided to the user through the second augmented reality providing method as another example of the augmented reality display image of FIG. 5,
9 to 11 are views sequentially illustrating a method of providing augmented reality to a user through the first and second augmented reality providing methods according to an embodiment of the present invention.

이하, 도면을 참조하여 본 발명의 바람직한 일실시예에 대해서 설명한다. 또한, 이하에 설명하는 일실시예는 특허청구범위에 기재된 본 발명의 내용을 부당하게 한정하지 않으며, 본 실시 형태에서 설명되는 구성 전체가 본 발명의 해결 수단으로서 필수적이라고는 할 수 없다. 또한, 종래 기술 및 당업자에게 자명한 사항은 설명을 생략할 수도 있으며, 이러한 생략된 구성요소(방법) 및 기능의 설명은 본 발명의 기술적 사상을 벗어나지 아니하는 범위내에서 충분히 참조될 수 있을 것이다.Hereinafter, a preferred embodiment of the present invention will be described with reference to the drawings. In addition, one embodiment described below does not unreasonably limit the content of the present invention described in the claims, and it cannot be said that the entire configuration described in the present embodiment is essential as a solution for the present invention. In addition, descriptions of the prior art and matters obvious to those skilled in the art may be omitted, and the description of the omitted components (methods) and functions may be sufficiently referenced within the scope not departing from the technical spirit of the present invention.

<증강현실 제공장치의 기능 및 구성><Function and configuration of augmented reality providing device>

본 발명의 증강현실 제공장치는 증강현실 인식 기준점을 기준으로 공간인식이 되는 영역과 공간인식이 안 되는 영역을 구분한다. 이때, 공간인식이 되는 영역에는 증강현실 표시 영상을 기존 실사 배경영상과 병합하여 표시하도록 한다. 이와 달리 공간인식이 안 되는 영역에서는 증강현실 표시 영상과 관심 오브젝트의 가상 이미지가 포함된 증강현실 중첩 영상을 관심 오브젝트와 중첩 및 투명화시켜 증강현실을 구현한다. 이하에서는 첨부된 도면을 참고하여 본 발명의 일실시예에 따른 증강현실 제공장치에 대해 자세히 설명하기로 한다.The augmented reality providing apparatus of the present invention divides an area where space is recognized and an area where space is not recognized based on the augmented reality recognition reference point. At this time, the augmented reality display image is merged with the existing live-action background image to be displayed in the area where the space is recognized. On the other hand, in an area where spatial recognition is not possible, augmented reality is implemented by superimposing and transparent the augmented reality display image and the augmented reality superimposed image including the virtual image of the object of interest with the object of interest. Hereinafter, an augmented reality providing apparatus according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1에 도시된 바와 같이, 단말기 사용자(10)는 자신의 단말기를 소지하고 특정 거리를 걸어다닐 수 있다. 이때, 본 발명의 단말기는 지피에스 및 카메라를 포함하는 스마트폰, 태블릿, 또는 노트북 등을 포함하나 꼭 이에 한정되는 것은 아니다. 다만, 본 발명에서는 스마트폰의 예를 들어 설명하기로 한다. 도 1에 도시된 바와 같이 사거리를 중심으로 'A'건물(11), 'B'건물(12), 'C'건물(13), 'D'건물(14)이 보이며, 사용자(10)는 B건물(12) 앞의 횡단보도를 건너고 있는 중이다. As shown in FIG. 1 , the terminal user 10 may walk a specific distance with his/her terminal. In this case, the terminal of the present invention includes, but is not limited to, a smartphone, tablet, or laptop including a GPS and a camera. However, in the present invention, an example of a smart phone will be described. As shown in FIG. 1, 'A' building 11, 'B' building 12, 'C' building 13, and 'D' building 14 are visible around the crossroad, and user 10 You are crossing the crosswalk in front of Building B (12).

사용자(10)의 현재 위치를 기준으로 B건물(12) 부근 영역은 증강현실 인식 기준점을 기초로 공간인식이 가능한 영역으로 가정하고, A건물(11) 영역, C건물(13) 영역, D건물(14) 영역은 증강현실 인식 기준점을 기초로 인식 거리가 멀어 공간인식이 불가한 영역으로 가정한다. 이하에서는 공간인식이 불가한 A건물(11) 영역 내에 있는 A건물(11)과 공간인식이 가능한 B건물(12) 영역 내에 있는 B건물(12)을 예로들어 설명하기로 한다.Based on the current location of the user 10, it is assumed that the area near the building B 12 is an area where spatial recognition is possible based on the augmented reality recognition reference point, the area A building 11, the area C building 13, and the building D (14) The area is assumed to be an area where spatial recognition is impossible because the recognition distance is far based on the augmented reality recognition reference point. Hereinafter, the building A 11 in the area of the building A 11 where space recognition is impossible and the building B 12 in the area of the building B 12 where the space recognition is possible will be described as examples.

도 2에 도시된 바와 같이 단말기부(100)는 카메라부(111)를 포함한다. 카메라부(111)는 사용자의 현재 위치의 카메라 촬영영역 내의 실사 배경을 촬영하여 실사 배경영상을 단말기부의 디스플레이부에 실시간으로 연속적으로 표시한다. 카메라부(111)가 촬영한 실사 배경영상에 증강현실 표시 영상을 병합하여 증강현실을 제공하고, 지속적으로 트랙킹하면서 연속적으로 증강현실을 제공할 수 있다. 이때, 사용자에게 증강현실을 제공하기 위해서 앞서 설명한 바와 같이 공간인식이 되는 영역과 공간인식이 불가한 영역으로 구분하여 2가지 방법으로 제공할 수 있다. As shown in FIG. 2 , the terminal unit 100 includes a camera unit 111 . The camera unit 111 continuously displays the actual background image on the display unit of the terminal unit in real time by photographing the actual background in the camera shooting area of the user's current location. It is possible to provide augmented reality by merging the augmented reality display image with the actual background image taken by the camera unit 111, and continuously provide augmented reality while continuously tracking. At this time, in order to provide the augmented reality to the user, as described above, the space recognition area may be divided into a space recognition area area and the space recognition area impossible area may be provided in two ways.

관심 오브젝트 영역 설정부(120)는 카메라부(111)로부터 입력되는 실사 배경영상 중 증강현실 구현이 필요한 관심 오브젝트 영역을 설정한다. 관심 오브젝트 영역은 사용자의 수동 설정에 의해 특정 영역이 설정될 수도 있고, 또는 단말기부(100)가 실사 배경영상에 포함된 특정 영역을 기 프로그램에 따라 자동으로 설정할 수도 있다. 설정된 관심 오브젝트 영역에는 다수의 오브젝트가 포함될 수 있다. 이때, 오브젝트는 일예로서 상가 건물, 가로등, 도로, 간판, 신호등 등 특징을 추출할 수 있는 대상체가 그 대상이 될 수 있다.The object-of-interest region setting unit 120 sets an object-of-interest region requiring augmented reality implementation among the live-action background images input from the camera unit 111 . As for the object of interest region, a specific region may be set by a user's manual setting, or the terminal unit 100 may automatically set a specific region included in the live-action background image according to a pre-programmed program. A plurality of objects may be included in the set object of interest region. In this case, the object may be an object from which features such as a commercial building, a street light, a road, a signboard, a traffic light, etc. can be extracted as an example.

인식 기준점 생성부(130)는 증강현실 인식 기준점을 생성한다. 증강현실 인식 기준점은 마트 또는 마크리스로 구현할 수 있으며, 증강현실 공간인식시에 그 기준점 역할을 수행한다. The recognition reference point generator 130 generates an augmented reality recognition reference point. The augmented reality recognition reference point can be implemented with a mart or markless, and serves as the reference point for augmented reality spatial recognition.

증강현실 공간인식 판단부(140)는 설정된 관심 오브젝트 영역이 증강현실 인식 기준점을 기초로 공간인식이 되는지 여부를 판단한다. 이때, 공간인식 여부에 따라 후술하는 2가지 방법으로 증강현실이 제공된다.The augmented reality spatial recognition determination unit 140 determines whether the set object region of interest is spatially recognized based on the augmented reality recognition reference point. At this time, the augmented reality is provided in two ways, which will be described later, depending on whether the space is recognized.

먼저, 설정된 관심 오브젝트 영역이 증강현실 인식 기준점을 기초로 공간인식이 되는 경우에 대해 설명하기로 한다. First, a case in which the set object region of interest is spatially recognized based on the augmented reality recognition reference point will be described.

증강현실 병합부(150)는 증강현실 인식 기준점을 기초로 공간인식이 되는 경우에 관심 오브젝트 영역 상에서 관심 오브젝트 추출부(160)에 의해 추출된 관심 오브젝트에 증강현실 표시 영상을 병합한다. 즉, 도 4를 참조하여 설명하면, 본 예에서는 B건물(12)은 증강현실 공간인식이 가능한 영역 상에 위치한 관심 오브젝트로서 추출된 관심 오브젝트를 도 1의 B건물(12)로 한다. 따라서 증강현실 병합부(150)는 관심 오브젝트인 B건물(12)에 증강현실 표시 영상(12a) "'A' 건물입니다."를 병합한다. 물론, 증강현실 표시 영상(12a)은 다양한 콘텐츠를 포함할 수 있다. 예를 들어 B건물(12)이 음식점 건물인 경우에 영업시간과 점심메뉴 또는 저녁메뉴를 시간에 따라 변경 표시할 수도 있다.The augmented reality merging unit 150 merges the augmented reality display image with the object of interest extracted by the object of interest extractor 160 on the object of interest region when spatial recognition is performed based on the augmented reality recognition reference point. That is, referring to FIG. 4 , in this example, building B 12 is an object of interest located on an area where augmented reality spatial recognition is possible, and the extracted object of interest is building B 12 of FIG. 1 . Therefore, the augmented reality merging unit 150 merges the augmented reality display image 12a "the building 'A'" into the building B 12, which is an object of interest. Of course, the augmented reality display image 12a may include various contents. For example, when building B 12 is a restaurant building, business hours and a lunch menu or a dinner menu may be changed and displayed according to time.

증강현실 병합 구현부(171)는 증강현실 표시 영상(12a)을 실사 배경영상과 함께 병합 표시함으로써 증강현실을 사용자에게 제공할 수 있다.The augmented reality merge implementation unit 171 may provide the augmented reality to the user by displaying the augmented reality display image 12a together with the live-action background image.

한편, 설정된 관심 오브젝트 영역이 증강현실 인식 기준점을 기초로 공간인식이 안되는 경우에 대해 다음에서 설명하기로 한다.Meanwhile, a case in which spatial recognition of the set object region of interest is not based on the augmented reality recognition reference point will be described below.

증강현실 중첩 및 투명화부(170)는 증강현실 인식 기준점을 기초로 공간인식이 안 되는 경우에 관심 오브젝트 영역으로부터 추출된 관심 오브젝트에 대응되는 증강현실 중첩 영상을 관심 오브젝트에 중첩시키면서 투명화시킨다. 증강현실 중첩 및 투명화부(150)를 세부적으로 좀 더 자세히 설명하면 다음과 같으며 도 1 및 도 5를 참고하여 설명하기로 한다.The augmented reality superimposition and transparency unit 170 makes the augmented reality superimposed image corresponding to the object of interest extracted from the object of interest region transparent while being superimposed on the object of interest when spatial recognition is not performed based on the augmented reality recognition reference point. The augmented reality overlapping and transparent unit 150 will be described in more detail as follows, and will be described with reference to FIGS. 1 and 5 .

관심 오브젝트 추출부(160)는 설정된 관심 오브젝트 영역으로부터 관심 오브젝트를 추출한다. 추출되는 관심 오브젝트는 동시에 2개 이상일 수 있다. 본 일실시예에서는 추출된 관심 오브젝트를 도 1의 건물A(11)로 한다. 물론, 관심 오브젝트 영역 내에 있는 다수의 오브젝트가 동시에 선택될 수도 있다.The object-of-interest extractor 160 extracts the object of interest from the set object-of-interest region. There may be two or more objects of interest to be extracted at the same time. In this embodiment, the extracted object of interest is the building A 11 of FIG. 1 . Of course, multiple objects within the object-of-interest region may be selected simultaneously.

관심 오브젝트 인식부(171)는 추출된 관심 오브젝트를 인식한다. 이때, 관심 오브젝트 인식부(171)는 위치 인식부, 오브젝트 정보 요청부, 오브젝트 비교부, 및 오브젝트 인식부를 포함한다.The object of interest recognition unit 171 recognizes the extracted object of interest. In this case, the object of interest recognition unit 171 includes a location recognition unit, an object information request unit, an object comparison unit, and an object recognition unit.

위치 인식부는 지피에스부(112)로부터 현재 단말기의 위치 좌표를 전송받아 단말기 또는 사용자의 현재 위치를 인식한다. 현재 위치를 알고 있어야 후술하는 데이터베이스부로부터 대상 오브젝트 정보를 일부 추려낼 수 있다. 만약에 현재 위치를 알고 있지 않은 경우에는 데이터베이스부에 포함된 임의의 수많은 오브젝트 정보를 일대일 비교하여야 하기 때문에 데이터 처리에 부담을 가질 수 있다. The location recognition unit receives the location coordinates of the current terminal from the GPS unit 112 and recognizes the current location of the terminal or the user. It is possible to extract some target object information from the database unit, which will be described later, only when the current location is known. If the current location is not known, data processing may be burdened because it is necessary to compare a number of arbitrary object information included in the database unit one-to-one.

오브젝트 정보 요청부는 인식된 위치를 기준으로 제1 데이터베이스부에 기 저장된 오브젝트 정보를 요청한다. 즉, 도 1 및 도 3을 참조하면, 오브젝트 정보 요청부는 현재 사용자(10)의 단말기의 위치 좌표를 기준으로 기 설정된 좌표 거리 내에 있는 건물 정보를 지도/건물 정보 서버부(210)에 요청한다. 지도/건물정보 서버부(210)는 제1 데이터베이스부로부터 상기 요청한 좌표 거리 내에 있는 건물 정보를 전송받아 이를 다시 오브젝트 정보 요청부로 전송한다. 앞서 설명한 바와 같이 단말기의 위치 정보를 기반으로 정보를 요청하지 않는 경우에는 임의의 불특정 다수의 건물 정보를 모두 다 전송받아서 비교하여야 하기 때문에 데이터 처리의 부담이 가중될 수 있는 단점이 있다. 다만, 오브젝트 정보 요청부는 단말기의 위치 기반을 토대로 기 설정된 좌표 거리 내에 있는 건물 정보를 요청할 수도 있고 또는 다른 방식으로 획득된 사용자 또는 단말기의 기준점을 토대로 건물 정보를 요청할 수도 있다. 여기서, 요청한 건물 정보는 추출한 관심 오브젝트와 비교할 수 있는 비교 이미지, 건물 설명정보, 건물 위치좌표 등을 포함한 정보일 수 있다.The object information request unit requests object information pre-stored in the first database unit based on the recognized location. That is, referring to FIGS. 1 and 3 , the object information requesting unit requests the map/building information server unit 210 for building information within a preset coordinate distance based on the location coordinates of the terminal of the current user 10 . The map/building information server unit 210 receives building information within the requested coordinate distance from the first database unit and transmits it back to the object information request unit. As described above, when information is not requested based on the location information of the terminal, all of the information of an unspecified number of buildings must be received and compared, so that the burden of data processing may be increased. However, the object information requesting unit may request building information within a preset coordinate distance based on the location base of the terminal, or may request building information based on the reference point of the user or the terminal obtained in another way. Here, the requested building information may be information including a comparison image that can be compared with the extracted object of interest, building description information, building location coordinates, and the like.

오브젝트 비교부는 추출된 관심 오브젝트와 전송받은 건물 정보를 서로 비교한다. 즉, 추출된 관심 오브젝트는 A건물(11)이고, 전송받은 건물 정보는 A건물(11) 부근 영역에 위치한 기 설정된 좌표 거리 내의 다수의 건물 정보일 수 있다. 오브젝트 비교부는 일대 일로 서로 비교하여 매칭되는 건물 정보를 찾아낸다. 비교시에는 일예로서 추출된 관심 오브젝트의 이미지와 건물 정보에 포함된 건물 이미지를 서로 비교하여 매칭 여부를 판단함으로써 매칭되는 오브젝트를 찾아낼 수 있다. 또는, 추출된 관심 오브젝트의 위치 좌표와 건물 정보에 포함된 건물의 위치 좌표를 서로 비교하여 매칭 여부를 판단할 수 있다. The object comparison unit compares the extracted object of interest with the received building information. That is, the extracted object of interest is the building A 11 , and the received building information may be a plurality of building information within a preset coordinate distance located in the area near the building A 11 . The object comparison unit finds matching building information by comparing each other one-to-one. In the comparison, as an example, a matching object may be found by comparing the extracted image of the object of interest and the building image included in the building information to determine whether or not matching is performed. Alternatively, by comparing the extracted location coordinates of the object of interest with the location coordinates of the building included in the building information, it is possible to determine whether they match.

오브젝트 인식부는 비교 결과에 따라 서로 매칭되는 오브젝트를 관심 오브젝트로 인식한다.The object recognition unit recognizes an object matching each other as an object of interest according to the comparison result.

증강현실 중첩부(172)는 추출된 관심 오브젝트에 대응되는 관심 오브젝트의 가상 이미지가 포함된 증강현실 중첩 영상을 데이터베이스부로부터 입력받고, 관심 오브젝트의 가상 이미지가 포함된 증강현실 중첩 영상을 관심 오브젝트에 중첩시킨다. 증강현실 중첩부(172)는 증강현실 중첩 영상 요청부와 중첩부를 포함한다.The augmented reality overlay unit 172 receives an augmented reality superimposed image including a virtual image of the object of interest corresponding to the extracted object of interest from the database unit, and applies the augmented reality superimposed image including the virtual image of the object of interest to the object of interest. overlap The augmented reality overlapping unit 172 includes an augmented reality overlapping image request unit and an overlapping unit.

증강현실 중첩 영상 요청부는 오브젝트 인식부에서 인식한 관심 오브젝트에 대응되는 관심 오브젝트의 가상 이미지가 포함된 증강현실 중첩 영상을 증강현실 중첩 영상 서버부(220)에 요청한다. 증강현실 중첩 영상 서버부(220)는 제2 데이터베이스부로부터 전송받은 요청 증강현실 중첩 영상을 증강현실 중첩 영상 요청부에 전송한다. 도 1 및 도 3을 참고하여 일예를 들어 자세히 설명하면, 증강현실 중첩 영상 요청부는 오브젝트 인식부에서 인식한 A건물(11)에 대응되는 A건물 증강현실 중첩 영상을 증강현실 중첩 영상 서버부(220)에 요청한다. 증강현실 중첩 영상 서버부(220)는 제2 데이터베이스 부로부터 A건물 증강현실 중첩 영상을 전송받아 이를 다시 증강현실 중첩 영상 요청부로 전송한다. 이때, A건물 증강현실 중첩 영상에는 A건물의 가상 이미지와 병합하고자 하는 증강현실 표시 이미지가 포함되어 있다. The augmented reality superimposed image request unit requests the augmented reality superimposed image server unit 220 for an augmented reality superimposed image including a virtual image of an object of interest corresponding to the object of interest recognized by the object recognition unit. The augmented reality superimposed image server unit 220 transmits the requested augmented reality superimposed image received from the second database unit to the augmented reality superimposed image request unit. 1 and 3, the augmented reality superimposed image request unit receives the augmented reality superimposed image of building A corresponding to the building A 11 recognized by the object recognition unit as an augmented reality superimposed image server unit 220 ) to request The augmented reality superimposed image server unit 220 receives the augmented reality superimposed image of building A from the second database unit and transmits it back to the augmented reality superimposed image request unit. At this time, the augmented reality superimposed image of building A includes an augmented reality display image to be merged with the virtual image of building A.

중첩부는 관심 오브젝트의 가상 이미지가 포함된 증강현실 중첩 영상을 관심 오브젝트에 중첩시킨다. 즉, 증강현실 중첩 영상에 포함된 A건물의 가상 이미지와 A건물의 가상 이미지와 태그된(또는 연결 매칭된) 증강현실 표시 이미지를 실사 배경영상에 표시되는 A건물과 중첩시킨다. 중첩부의 중첩에 따라 실사 배경영상의 A건물(11)에 A건물의 가상 이미지와 증강현실 표시 이미지가 서로 중첩된다. 증강현실 표시 이미지는 태그되는 건물에 따라 다양한 증강현실 이미지를 연결시킬 수 있다. 일예로서 음식점의 경우에는 음식정보를 태그 시킬 수 있으며, 영화관의 경우에는 상영중인 시간과 상영중인 영화 프리뷰(영화소개 동영상)를 태그 시킬 수 있다.The overlapping unit superimposes the augmented reality superimposed image including the virtual image of the object of interest on the object of interest. That is, the augmented reality display image tagged with the virtual image of building A and the virtual image of building A included in the augmented reality superimposed image is overlapped with the building A displayed on the actual background image. According to the overlap of the overlapping part, the virtual image of the building A and the augmented reality display image are superimposed on the building A 11 of the actual background image. The augmented reality display image may connect various augmented reality images according to the tagged building. As an example, in the case of a restaurant, food information may be tagged, and in the case of a movie theater, a running time and a preview of a movie (movie introduction video) may be tagged.

증강현실 투명화부(173)는 실사 배경영상의 A건물(11)을 투명화시킨다. 실사 배경영상의 A건물(11)의 투명화에 의해 A건물의 가상 이미지와 A건물의 가상 이미지와 태그된 증강현실 표시 이미지만 남게 된다.The augmented reality transparent unit 173 makes the A building 11 of the live-action background image transparent. Only the virtual image of the building A and the virtual image of the building A and the tagged augmented reality display image remain by the transparency of the building A 11 of the live-action background image.

구체적으로 도 1과 도 5를 비교하여 살펴보면, 도 1의 A건물(11)은 카메라부(111)에서 촬영한 실사 배경영상에 포함된 A건물(11)의 영상 또는 이미지이다. 이에 비해 도 5는 A건물 증강현실 중첩 영상(11a)이 카메라부(111)에서 촬영된 실사 배경영상과 병합되어 표시된 것을 나타낸 영상 또는 이미지이다. 즉, A건물 증강현실 중첩 영상(11a)은 A건물의 가상 이미지와 증강현실 제1,2 표시 영상(11a-2,11a-2))을 포함한다. 증강현실 중첩부 및 투명화부(172,173)에 의해 중첩되고 투명화됨으로써 A건물(11)은 투명화되고 A건물 증강현실 중첩 영상(11a)이 카메라부(111)에 의해 촬영되는 실사 배경영상과 병합되어 증강현실을 제공해준다. 이때, A건물이 영화관이라고 가정하면, 일예로서 증강현실 제1 표시 영상(11a-2)은 상영영화를 소개하는 증강현실 프리뷰 동영상일 수 있고, 증강현실 제2 표시 영상(11a-3)은 영화 상영시간을 제공하는 증강현실 정보일 수 있다.Specifically, comparing FIGS. 1 and 5 , building A 11 of FIG. 1 is an image or image of building A 11 included in the live-action background image taken by the camera unit 111 . In contrast, FIG. 5 is an image or image showing that the augmented reality superimposed image 11a of the building A is merged with the live-action background image taken by the camera unit 111 and displayed. That is, the augmented reality superimposed image 11a of building A includes a virtual image of building A and first and second augmented reality display images 11a-2 and 11a-2). By being overlapped and transparent by the augmented reality overlapping unit and the transparent unit (172,173), the building A 11 is made transparent and the augmented reality superimposed image 11a of the building A is merged with the live-action background image taken by the camera unit 111 and augmented provides reality. At this time, assuming that building A is a movie theater, as an example, the augmented reality first displayed image 11a-2 may be an augmented reality preview video introducing a screened movie, and the augmented reality second displayed image 11a-3 is a movie It may be augmented reality information that provides a running time.

한편, 병합되는 증간현실 표시 영상을 다르게 표시하는 방법으로서 도 6 내지 도 8을 참조하면, 증강현실 제1 표시 영상(11a-2)을 최초로 맨 왼쪽(도 6 참조)에서 표시하고 순차적으로 하나씩 도 7 및 도 8과 같이 표시할 수도 있다. 이때에는 A건물의 가상 이미지와 3개의 증강현실 제1 표시 영상이 각각 태그 되어 있을 수 있다. 순차적으로 표시되는 증강현실 제1 표시 영상(11a-2)는 서로 동일한 이미지가 반복적으로 위치를 옮겨가며 표시될 수도 있고, 또는 서로 다른 증강현실 표시 영상이 서로 위치를 바꿔가며 순차적으로 표시될 수도 있다.On the other hand, as a method of displaying the merged augmented reality display image differently, referring to FIGS. 6 to 8 , the augmented reality first display image 11a-2 is first displayed on the leftmost side (refer to FIG. 6 ) and sequentially illustrated one by one. 7 and 8 may be displayed. In this case, the virtual image of the building A and the three augmented reality first display images may be tagged, respectively. In the sequentially displayed augmented reality first display images 11a-2, the same image may be repeatedly displayed while moving positions, or different augmented reality display images may be sequentially displayed while changing positions. .

3D 랜더링부(174)는 A건물의 가상 이미지와 A건물의 가상 이미지와 태그된 증강현실 표시 이미지를 랜더링 한다.The 3D rendering unit 174 renders a virtual image of building A, a virtual image of building A, and a tagged augmented reality display image.

증강현실 중첩 구현부(182)는 랜더링된 A건물의 가상 이미지와 A건물의 가상 이미지와 태그된 증강현실 표시 이미지를 실사 배경영상과 함께 병합하여 단말기의 표시부에 사용자가 증강현실을 체감할 수 있도록 표시하며, 지속적으로 증강현실 인식 기준점을 업데이트하면서 증강현실을 트랙킹 한다.Augmented reality overlap implementation unit 182 merges the rendered virtual image of building A, the virtual image of building A, and the tagged augmented reality display image with the live-action background image so that the user can experience augmented reality on the display unit of the terminal. It tracks augmented reality while continuously updating the augmented reality recognition reference point.

(증강현실 제공방법)(Augmented reality provision method)

본 발명의 일실시예에 따른 증강현실 제공방법은 도 9 내지 도 11을 참고하여 순차적으로 단계별로 설명하기로 한다.The augmented reality providing method according to an embodiment of the present invention will be described step by step sequentially with reference to FIGS. 9 to 11 .

도 9를 참조하여 설명하면 카메라부(111)가 사용자의 현재 위치의 실사 배경영상을 획득한다(S10). Referring to FIG. 9 , the camera unit 111 acquires a live-action background image of the user's current location (S10).

다음으로, 관심 오브젝트 영역 설정부(120)가 실사 배경영상 중 증강현실 구현이 필요한 관심 오브젝트 영역을 설정한다(S20).Next, the object-of-interest region setting unit 120 sets the region of the object of interest that needs to be implemented in augmented reality among the live-action background images (S20).

다음으로, 증강현실 공간인식 판단부(140)가 증강현실 인식 기준점을 기초로 설정된 관심 오브젝트 영역이 공간인식이 되는지 여부를 판단한다(S30).Next, the augmented reality spatial recognition determination unit 140 determines whether the area of interest set based on the augmented reality recognition reference point becomes spatial recognition (S30).

다음으로, S30 단계에서 설정된 관심 오브젝트 영역의 공간인식 여부에 따라 서로 다른 2가지 방법(공간인식이 되는 경우의 제1 증강현실 제공방법과 공간인식이 안 되는 경우의 제2 증강현실 제공방법)으로 복수의 증강현실 제공방법을 통해 증강현실을 사용자에게 제공한다(S40).Next, in two different methods (a first augmented reality providing method when spatial recognition is achieved and a second augmented reality providing method when spatial recognition is not performed) depending on whether the object region of interest set in step S30 is spatially recognized. Augmented reality is provided to the user through a plurality of augmented reality providing methods (S40).

도 10은 도 9의 S30 단계에서 설정된 관심 오브젝트 영역이 공간인식되는 경우에 제1 증강현실 제공방법을 통해 증강현실을 사용자에게 제공하는 방법을 순차적으로 나타낸 것이다. 도 9의 S10 내지 S30 단계는 동일하고 나머지 제1 증강현실 제공방법을 설명하기로 한다.FIG. 10 sequentially shows a method of providing augmented reality to a user through the first augmented reality providing method when the object region of interest set in step S30 of FIG. 9 is spatially recognized. Steps S10 to S30 of FIG. 9 are the same, and the remaining first augmented reality providing method will be described.

관심 오브젝트 영역이 공간인식 되는 경우에는 증강현실 병합 구현부(181)는 제1 증강현실 제공방법으로서 관심 오브젝트 영역 상에서 추출 선택된 관심 오브젝트에 증강현실 표시 영상을 병합하여 실사 배경영상과 함께 증강현실을 제공한다(S412). When the object region of interest is spatially recognized, the augmented reality merge implementation unit 181 provides augmented reality together with the actual background image by merging the augmented reality display image with the selected object of interest extracted from the object of interest region as a first augmented reality providing method. do (S412).

관심 오브젝트 영역이 공간인식 되지 않는 경우에는 증강현실 중첩 구현부(182)는 제2 증강현실 제공방법으로서 도 11에 도시된 절차에 따라 증강현실을 사용자에게 제공한다. S10 내지 S30 단계는 도 9와 동일하고 나머지 부분을 설명하기로 한다. When the object region of interest is not spatially recognized, the augmented reality superimposition implementation unit 182 provides the augmented reality to the user according to the procedure shown in FIG. 11 as a second augmented reality providing method. Steps S10 to S30 are the same as in FIG. 9 , and the remaining parts will be described.

관심 오브젝트 추출부(160)가 관심 오브젝트 영역 내의 관심 오브젝트를 추출하고, 관심 오브젝트 인식부(171)는 사용자의 위치 및 추출된 관심 오브젝터를 기초로 데이터베이스부에 기 저장된 오브젝트 정보와의 비교를 통해 매칭된 오브젝트를 관심 오브젝트로 인식한다(S42).The object-of-interest extracting unit 160 extracts the object of interest within the object-of-interest region, and the object-of-interest recognition unit 171 compares the user's location and the extracted object of interest with object information previously stored in the database unit. The matched object is recognized as the object of interest (S42).

다음으로, 증강현실 중첩부(172)는 추출 선택된 관심 오브젝트에 대응되는 증강현실 중첩 영상을 데이터베이스부로부터 불러온다(S43).Next, the augmented reality overlapping unit 172 calls the augmented reality overlapping image corresponding to the extracted and selected object of interest from the database unit (S43).

다음으로, 증강현실 중첩부(172)는 추출 선택된 관심 오브젝트와 증강현실 중첩 영상을 서로 중첩시키고, 이와 동시에 증강현실 투명화부(173)는 추출 선택된 관심 오브젝트를 투명화시킨다(S44).Next, the augmented reality overlapping unit 172 overlaps the extracted selected object of interest and the augmented reality superimposed image, and at the same time, the augmented reality transparent unit 173 makes the extracted and selected object of interest transparent (S44).

다음으로 3D 랜더링부(174)는 증강현실 중첩 영상을 랜더링 한다(S45).Next, the 3D rendering unit 174 renders the augmented reality superimposed image (S45).

다음으로, 증강현실 중첩 구현부(182)가 증강현실 중첩 영상을 실사 배경영상과 함께 병합 표시하여 제2 증강현실 제공방법으로 사용자에게 증강현실을 제공한다. Next, the augmented reality overlap implementation unit 182 provides the augmented reality to the user as a second augmented reality providing method by merging the augmented reality superimposed image with the live-action background image.

본 발명을 설명함에 있어 종래 기술 및 당업자에게 자명한 사항은 설명을 생략할 수도 있으며, 이러한 생략된 구성요소(방법) 및 기능의 설명은 본 발명의 기술적 사상을 벗어나지 아니하는 범위내에서 충분히 참조될 수 있을 것이다. 또한, 상술한 본 발명의 구성요소는 본 발명의 설명의 편의를 위하여 설명하였을 뿐 여기에서 설명되지 아니한 구성요소가 본 발명의 기술적 사상을 벗어나지 아니하는 범위내에서 추가될 수 있다. In the description of the present invention, the description may be omitted for matters obvious to those skilled in the art and those skilled in the art, and the description of these omitted components (methods) and functions will be sufficiently referenced within the scope not departing from the technical spirit of the present invention. will be able In addition, the above-described components of the present invention have been described for convenience of description of the present invention, and components not described herein may be added within a range that does not depart from the technical spirit of the present invention.

상술한 각부의 구성 및 기능에 대한 설명은 설명의 편의를 위하여 서로 분리하여 설명하였을 뿐 필요에 따라 어느 한 구성 및 기능이 다른 구성요소로 통합되어 구현되거나, 또는 더 세분화되어 구현될 수도 있다.The description of the configuration and function of each part has been described separately for convenience of description, and if necessary, any configuration and function may be implemented by being integrated into other components, or may be implemented in more subdivision.

이상, 본 발명의 일실시예를 참조하여 설명했지만, 본 발명이 이것에 한정되지는 않으며, 다양한 변형 및 응용이 가능하다. 즉, 본 발명의 요지를 일탈하지 않는 범위에서 많은 변형이 가능한 것을 당업자는 용이하게 이해할 수 있을 것이다. 또한, 본 발명과 관련된 공지 기능 및 그 구성 또는 본 발명의 각 구성에 대한 결합관계에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 구체적인 설명을 생략하였음에 유의해야 할 것이다.As mentioned above, although it has been described with reference to one embodiment of the present invention, the present invention is not limited thereto, and various modifications and applications are possible. That is, those skilled in the art will readily understand that many modifications are possible without departing from the gist of the present invention. In addition, if it is determined that the detailed description of the known functions related to the present invention and its configuration or the coupling relationship for each configuration of the present invention may unnecessarily obscure the gist of the present invention, it should be noted that the detailed description is omitted. something to do.

11a-1 : 'A'건물의 가상 이미지
11a-2 : 증강현실 제1 표시 영상 : 상영영화 프리뷰
11a-3 : 증강현실 제2 표시 영상 : 상영시간
12 : B건물
12a : 증강현실 표시 영상
13 : C건물
14 : D건물
100 : 단말기부
111 : 카메라부
112 : 지피에스부
120 : 관심 오브젝트 영역 설정부
130 : 인식 기준점 생성부
140 : 증강현실 공간인식 판단부
150 : 증강현실 병합부
160 : 관심 오브젝트 추출부
170 : 증간현실 중첩 및 투명화부
171 : 관심 오브젝트 인식부
172 : 증강현실 중첩부
173 : 증강현실 투명화부
174 : 3D 랜더링부
180 : 구현부
181 : 증강현실 병합 구현부
182 : 증강현실 중첩 구현부
200 : 서버부
210 : 지도 및 건물정보 서버부
220 : 증강현실 중첩 영상 서버부
11a-1: Virtual Image of Building 'A'
11a-2: Augmented reality first display image: Screened movie preview
11a-3: Augmented reality second display image: Running time
12 : Building B
12a: augmented reality display image
13 : Building C
14 : D building
100: terminal unit
111: camera unit
112: GPS unit
120: object area of interest setting unit
130: recognition reference point generation unit
140: augmented reality spatial recognition judgment unit
150: augmented reality merging unit
160: interest object extraction unit
170: augmented reality superimposed and transparent
171: object of interest recognition unit
172: augmented reality overlap
173: augmented reality transparent
174: 3D rendering unit
180: implementation
181: Augmented Reality Merge Implementation Unit
182: Augmented reality superimposed realization unit
200: server unit
210: map and building information server unit
220: augmented reality superimposed image server unit

Claims (9)

사용자의 현재 위치의 실사 배경영상을 획득하는 카메라부,
상기 실사 배경영상 중 증강현실 구현이 필요한 관심 오브젝트 영역을 설정하는 관심 오브젝트 영역 설정부,
증강현실 인식 기준점을 생성하는 인식 기준점 생성부,
설정된 관심 오브젝트 영역이 상기 증강현실 인식 기준점을 기초로 공간인식이 되는지 여부를 판단하는 증강현실 공간인식 판단부,
증강현실 인식 기준점을 기초로 공간인식이 되는 경우에 상기 관심 오브젝트 영역 상에 증강현실 표시 영상을 병합하는 증강현실 병합부,
증강현실 인식 기준점을 기초로 공간인식이 안 되는 경우에 상기 관심 오브젝트 영역으로부터 추출된 관심 오브젝트에 대응되는 증강현실 중첩 영상을 상기 관심 오브젝트에 중첩시키면서 투명화하는 증강현실 중첩 및 투명화부를 포함하는 것을 특징으로 하는 증강현실 제공장치.
A camera unit that acquires a live-action background image of the user's current location,
An object-of-interest region setting unit for setting an object-of-interest region requiring augmented reality implementation among the live-action background image;
A recognition reference point generating unit that generates an augmented reality recognition reference point,
Augmented reality spatial recognition determining unit for determining whether the set object region of interest is spatially recognized based on the augmented reality recognition reference point;
Augmented reality merging unit for merging the augmented reality display image on the object region of interest when spatial recognition is performed based on the augmented reality recognition reference point;
It comprises an augmented reality superimposition and transparency unit that transparently overlaps the augmented reality superimposed image corresponding to the object of interest extracted from the object of interest region when spatial recognition is not performed based on the augmented reality recognition reference point on the object of interest. Augmented reality providing device.
제 1 항에 있어서,
상기 증강현실 중첩 및 투명화부는,
관심 오브젝트 추출부에서 추출된 관심 오브젝트를 인식하는 관심 오브젝트 인식부,
상기 관심 오브젝트에 대응되는 증강현실 중첩 영상을 데이터베이스부로부터 입력받고, 상기 증강현실 중첩 영상을 관심 오브젝트에 중첩시키는 증강현실 중첩부,
상기 관심 오브젝트를 투명화시키는 증강현실 투명화부를 포함하는 것을 특징으로 하는 증강현실 제공장치.
The method of claim 1,
The augmented reality overlapping and transparent unit,
an object of interest recognition unit for recognizing the object of interest extracted by the object of interest extraction unit;
An augmented reality overlapping unit that receives the augmented reality overlapping image corresponding to the object of interest from the database unit, and superimposes the augmented reality overlapping image on the object of interest;
Augmented reality providing device, characterized in that it comprises an augmented reality transparent unit for making the object of interest transparent.
제 2 항에 있어서,
상기 관심 오브젝트 인식부는,
단말기의 현재 위치 좌표를 전송받아 현재 위치를 인식하는 위치 인식부,
인식된 위치를 기준으로 제1 데이터베이스부에 기 저장된 오브젝트 정보를 요청하는 오브젝트 정보 요청부,
추출된 관심 오브젝트와 상기 오브젝트 정보를 서로 비교하는 오브젝트 비교부,
상기 비교에 따라 서로 매칭되는 오브젝트를 상기 관심 오브젝트로 인식하는 오브젝트 인식부를 포함하는 것을 특징으로 하는 증강현실 제공장치.
3. The method of claim 2,
The object of interest recognition unit,
A location recognition unit for recognizing the current location by receiving the coordinates of the current location of the terminal;
an object information request unit for requesting object information pre-stored in the first database unit based on the recognized position;
an object comparison unit that compares the extracted object of interest and the object information with each other;
Augmented reality providing apparatus, characterized in that it comprises an object recognition unit for recognizing the object matching each other according to the comparison as the object of interest.
제 3 항에 있어서,
상기 증강현실 중첩부는,
상기 인식된 관심 오브젝트에 대응되는 관심 오브젝트의 가상 이미지가 포함된 증강현실 중첩 영상을 제2 데이터베이스부로부터 전송받는 증강현실 중첩 영상 요청부,
상기 관심 오브젝트의 가상 이미지가 포함된 증강현실 중첩 영상을 상기 관심 오브젝트에 중첩시키는 중첩부를 포함하는 것을 특징으로 하는 증강현실 제공장치.
4. The method of claim 3,
The augmented reality overlapping unit,
an augmented reality superimposed image request unit that receives an augmented reality superimposed image including a virtual image of an object of interest corresponding to the recognized object of interest from a second database unit;
Augmented reality providing apparatus comprising an overlapping unit for superimposing the augmented reality superimposed image including the virtual image of the object of interest on the object of interest.
제 4 항에 있어서,
병합된 증강현실 표시 영상을 실사 배경영상과 함께 병합 표시하는 증강현실 병합 구현부,
상기 관심 오브젝트의 가상 이미지가 포함된 증강현실 중첩 영상을 실사 배경영상과 함께 병합 표시하는 증강현실 중첩 구현부를 더 포함하는 것을 특징으로 하는 증강현실 제공장치.
5. The method of claim 4,
Augmented reality merge realization unit that merges and displays the merged augmented reality display image with the live-action background image;
Augmented reality providing apparatus, characterized in that it further comprises an augmented reality superimposed realizing unit for merging and displaying the augmented reality superimposed image including the virtual image of the object of interest together with the actual background image.
제 5 항에 있어서,
상기 관심 오브젝트의 가상 이미지가 포함된 증강현실 중첩 영상은,
관심 오브젝트의 가상 이미지와 병합하고자 하는 증강현실 표시 이미지를 포함하는 것을 특징으로 하는 증강현실 제공장치.
6. The method of claim 5,
The augmented reality superimposed image including the virtual image of the object of interest is,
Augmented reality providing apparatus comprising an augmented reality display image to be merged with the virtual image of the object of interest.
카메라부가 사용자의 현재 위치의 실사 배경영상을 획득하는 단계,
관심 오브젝트 영역 설정부가 상기 실사 배경영상 중 증강현실 구현이 필요한 관심 오브젝트 영역을 설정하는 단계,
설정된 관심 오브젝트 영역이 인식 기준점 생성부에 의해 생성된 증강현실 인식 기준점을 기초로 공간인식이 되는지 여부를 증강현실 공간인식 판단부가 판단하는 단계,
관심 오브젝트 영역의 공간인식 여부에 따라 서로 다른 복수의 방법으로 증강현실을 사용자에게 제공하는 것을 포함하는 증강현실 제공방법.

step of the camera unit acquiring a live-action background image of the user's current location,
The step of setting an object of interest region setting unit of interest in which augmented reality implementation is required among the live-action background image,
The augmented reality spatial recognition determining unit determining whether the set object region of interest is spatially recognized based on the augmented reality recognition reference point generated by the recognition reference point generating unit;
Augmented reality providing method comprising providing augmented reality to a user in a plurality of different ways depending on whether the object region of interest is spatially recognized.

제 7 항에 있어서,
상기 서로 다른 복수의 방법을 증강현실을 사용자에게 제공하는 경우에,
설정된 관심 오브젝트 영역이 공간인식 되는 경우에는 제1 증강현실 제공방법의 병합에 따라 증강현실이 사용자에게 제공되고,
설정된 관심 오브젝트 영역이 공간인식 되지 않는 경우에는 제2 증강현실 제공방법의 중첩 및 투명화에 따라 증강현실이 사용자에게 제공되는 것을 특징으로 하는 증강현실 제공방법.
8. The method of claim 7,
In the case of providing augmented reality to the user by using the plurality of different methods,
When the set object area of interest is spatially recognized, augmented reality is provided to the user according to the merging of the first augmented reality providing method,
Augmented reality providing method, characterized in that the augmented reality is provided to the user according to the overlapping and transparency of the second augmented reality providing method when the set object region of interest is not spatially recognized.
제 8 항에 있어서,
상기 제2 증강현실 제공방법의 경우에는,
관심 오브젝트 추출부가 상기 관심 오브젝트 영역 내의 관심 오브젝트를 추출하는 단계,
관심 오브젝트 인식부는 사용자의 위치 및 추출된 관심 오브젝터를 기초로 데이터베이스부에 기 저장된 오브젝트 정보와의 비교를 통해 매칭된 오브젝트를 관심 오브젝트로 인식하는 단계,
상기 증강현실 중첩부는 상기 관심 오브젝트에 대응되는 상기 증강현실 중첩 영상을 데이터베이스부로부터 불러오는 단계,
상기 증강현실 중첩부는 상기 관심 오브젝트와 상기 증강현실 중첩 영상을 서로 중첩시키고, 상기 증강현실 투명화부가 상기 관심 오브젝트를 투명화시키는 단계,
랜더링부는 상기 증강현실 중첩 영상을 랜더링하는 단계,
증강현실 중첩 구현부가 상기 증강현실 중첩 영상을 실사 배경영상과 함께 병합 표시하는 단계를 포함하는 것을 특징으로 하는 증강현실 제공방법.
9. The method of claim 8,
In the case of the second augmented reality providing method,
extracting an object of interest in the object of interest region by an object of interest extraction unit;
Recognizing, by the object of interest recognition unit, the matched object as the object of interest through comparison with object information pre-stored in the database unit based on the user's location and the extracted object of interest;
The augmented reality overlapping unit retrieving the augmented reality overlapping image corresponding to the object of interest from the database unit;
The augmented reality overlapping unit overlaps the object of interest and the augmented reality overlapping image, and the augmented reality transparent unit transparentizes the object of interest;
The rendering unit rendering the augmented reality superimposed image,
Augmented reality providing method, characterized in that it comprises the step of displaying the augmented reality superimposition realizing unit merged the augmented reality superimposed image with the actual background image.
KR1020200026865A 2020-03-03 2020-03-03 Apparatus and method for providing augmented reality KR102387501B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200026865A KR102387501B1 (en) 2020-03-03 2020-03-03 Apparatus and method for providing augmented reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200026865A KR102387501B1 (en) 2020-03-03 2020-03-03 Apparatus and method for providing augmented reality

Publications (2)

Publication Number Publication Date
KR20210111956A true KR20210111956A (en) 2021-09-14
KR102387501B1 KR102387501B1 (en) 2022-04-19

Family

ID=77774368

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200026865A KR102387501B1 (en) 2020-03-03 2020-03-03 Apparatus and method for providing augmented reality

Country Status (1)

Country Link
KR (1) KR102387501B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120024073A (en) * 2010-09-03 2012-03-14 주식회사 팬택 Apparatus and method for providing augmented reality using object list
KR20120032336A (en) 2010-09-28 2012-04-05 엘지전자 주식회사 Method for displaying information of augmented reality and terminal thereof
KR101313922B1 (en) 2010-12-07 2013-10-01 가시오게산키 가부시키가이샤 Information display system, information display apparatus, information provision apparatus and storage medium
KR20170042363A (en) 2014-08-18 2017-04-18 유니버셜 시티 스튜디오스 엘엘씨 Systems and methods for generating augmented and virtual reality images
KR20180026241A (en) * 2016-09-02 2018-03-12 엘지전자 주식회사 User interface apparatus for vehicle and Vehicle
KR102036545B1 (en) 2016-05-28 2019-10-25 어쿠스틱 날리지, 엘엘씨 Digital camera with audio, visual and motion analysis

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120024073A (en) * 2010-09-03 2012-03-14 주식회사 팬택 Apparatus and method for providing augmented reality using object list
KR20120032336A (en) 2010-09-28 2012-04-05 엘지전자 주식회사 Method for displaying information of augmented reality and terminal thereof
KR101313922B1 (en) 2010-12-07 2013-10-01 가시오게산키 가부시키가이샤 Information display system, information display apparatus, information provision apparatus and storage medium
KR20170042363A (en) 2014-08-18 2017-04-18 유니버셜 시티 스튜디오스 엘엘씨 Systems and methods for generating augmented and virtual reality images
KR102036545B1 (en) 2016-05-28 2019-10-25 어쿠스틱 날리지, 엘엘씨 Digital camera with audio, visual and motion analysis
KR20180026241A (en) * 2016-09-02 2018-03-12 엘지전자 주식회사 User interface apparatus for vehicle and Vehicle

Also Published As

Publication number Publication date
KR102387501B1 (en) 2022-04-19

Similar Documents

Publication Publication Date Title
KR101357260B1 (en) Apparatus and Method for Providing Augmented Reality User Interface
EP3019939B1 (en) Display control apparatus and computer-readable recording medium
Langlotz et al. Next-generation augmented reality browsers: rich, seamless, and adaptive
US8644467B2 (en) Video conferencing system, method, and computer program storage device
Grasset et al. Image-driven view management for augmented reality browsers
KR102125556B1 (en) Augmented reality arrangement of nearby location information
US20190333478A1 (en) Adaptive fiducials for image match recognition and tracking
KR20140082610A (en) Method and apaaratus for augmented exhibition contents in portable terminal
EP2418621A1 (en) Apparatus and method for providing augmented reality information
US20180047213A1 (en) Method and apparatus for providing augmented reality-based dynamic service
US9392248B2 (en) Dynamic POV composite 3D video system
KR102402580B1 (en) Image processing system and method in metaverse environment
WO2013023705A1 (en) Methods and systems for enabling creation of augmented reality content
KR20150075532A (en) Apparatus and Method of Providing AR
CN113892129B (en) Creating virtual parallax for three-dimensional appearance
Zollmann et al. VISGIS: Dynamic situated visualization for geographic information systems
EP3172721B1 (en) Method and system for augmenting television watching experience
KR101796668B1 (en) Digital telescope and control method thereof
KR102387501B1 (en) Apparatus and method for providing augmented reality
KR102420376B1 (en) Method for providing a service of augmented reality content
KR20130123629A (en) Method for providing video frames and point of interest inside selected viewing angle using panoramic vedio
KR101135525B1 (en) Method for updating panoramic image and location search service using the same
EP3510440B1 (en) Electronic device and operation method thereof
KR101146665B1 (en) Method of advertising based on location search service, system and method of location search service using the same
US20220269889A1 (en) Visual tag classification for augmented reality display

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant