KR101288851B1 - Operating method of augmented reality system with smart-phone - Google Patents

Operating method of augmented reality system with smart-phone Download PDF

Info

Publication number
KR101288851B1
KR101288851B1 KR1020130028476A KR20130028476A KR101288851B1 KR 101288851 B1 KR101288851 B1 KR 101288851B1 KR 1020130028476 A KR1020130028476 A KR 1020130028476A KR 20130028476 A KR20130028476 A KR 20130028476A KR 101288851 B1 KR101288851 B1 KR 101288851B1
Authority
KR
South Korea
Prior art keywords
content
server
fused
contents
analysis
Prior art date
Application number
KR1020130028476A
Other languages
Korean (ko)
Inventor
성동권
전형섭
Original Assignee
(주)올포랜드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)올포랜드 filed Critical (주)올포랜드
Priority to KR1020130028476A priority Critical patent/KR101288851B1/en
Application granted granted Critical
Publication of KR101288851B1 publication Critical patent/KR101288851B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

PURPOSE: A method of operation of a smart phone user customized augmented reality service system is provided to display a fused image without unfriendliness by analyzing season, weather, temperature and time of an image. CONSTITUTION: Analyzed contents are stored in an assigned region (S2300). Contents to be fused are uploaded (S2400). An accessed terminal unit selects the analyzed contents (S2500). The analyzed contents and the uploaded contents are fused. Unfriendliness minimization-processed fused contents are stored in an assigned region (S2600). A format of the fused contents is converted into an MPEG7 format (S2700). [Reference numerals] (AA) Start; (BB) Finish; (S2100) Collect the contents of a macro-environment; (S2200) Store the collected contents as original contents; (S2300) Extract spatiotemporal information and separate a background and objects from the original contents, and store the contents after structuralization; (S2400) Upload the contents from an accredited terminal; (S2500) Select the analyzed contents?; (S2600) Fuse the analyzed contents and the uploaded contents and minimize a difference between the same; (S2700) Converting a format of the fused contents into a Mpeg 7 format; (S2800) Does a terminal unit request the fused contents?; (S2900) Provide the fused content to the terminal unit

Description

수치지도를 이용한 스마트폰 사용자 맞춤형 증강현실 서비스 시스템의 운용방법{Operating method of augmented reality system with smart-phone}Operating method of augmented reality service system customized for smart phone using digital map {Operating method of augmented reality system with smart-phone}

본 발명은 스마트폰을 이용한 사용자 맞춤형 증강현실 서비스 시스템의 운용방법에 관한 것으로 더욱 상세하게는 위치기반으로 수집된 컨텐츠의 시공간 정보를 분석하고 업로드되어 융합할 컨텐츠와 이질감을 최소화한 상태로 융합시켜 현실감 있는 증강현실 컨텐츠로 제공하며 스마트폰에서 동영상으로 플레이시키는 스마트폰을 이용한 사용자 맞춤형 증강현실 서비스 시스템의 운용방법에 관한 것이다.
The present invention relates to a method of operating a user-customized augmented reality service system using a smart phone, more specifically, to analyze the spatio-temporal information of the content collected on the basis of location and upload the content to be fused to minimize the heterogeneity with the content to be fused The present invention relates to a method for operating a user-customized augmented reality service system using a smart phone to provide augmented reality content that is played as a video on a smartphone.

컴퓨터와 정보통신 기술의 발전은 과거에 시도하기 어려웠었던 대용량 데이터의 분석과 처리를 가능하게 하고 특히, 동영상 이미지 데이터 처리에 많은 영향을 주었다. Advances in computer and information and communication technologies enable the analysis and processing of large amounts of data that have been difficult to attempt in the past, and have had a significant impact on video image data processing.

증강현실(Augmented Reality: AR)은 가상현실(Virtual Reality: VR)의 한 분야이며 실제 환경을 촬영한 이미지에 가상 사물을 합성시켜 실제 환경에 존재하는 것처럼 보여주는 컴퓨터 그래픽 분야 중에 하나이다. Augmented Reality (AR) is a field of Virtual Reality (VR) and is one of the fields of computer graphics that synthesizes virtual objects into images of the real environment and shows them as if they exist in the real environment.

가상현실(VR)은 현실세계와의 상호작용을 배제하고 사전에 미리 구축해 놓은 가상공간에서 대상체 또는 객체(object)들이 서로 상호작용하는 상태로 노출되도록 처리하는 컴퓨터 그래픽이다. Virtual reality (VR) is a computer graphic that excludes interaction with the real world and processes objects or objects to be exposed to interact with each other in a pre-built virtual space.

한편, 증강현실(AR)은 실제 환경과 가상의 사물을 실시간으로 합성된 상태로 노출시켜 보여주는 것으로 현실세계 정보(증강정보)를 가상세계 정보로 보완해주는 개념의 컴퓨터 그래픽이며 가상환경을 사용하지만 주역은 현실세계의 환경이다. Augmented Reality (AR) exposes the real environment and virtual objects in a real-time composite state and complements real-world information (augmented information) with virtual world information. Is the environment of the real world.

즉, 증강현실(AR)은 실제로 관찰되는 현실세계의 영상 또는 실사영상에 컴퓨터 그래픽이라는 특수 인터페이스를 이용하고 3 차원 가상영상을 정합(register)시켜 표현하므로 현실세계의 현실환경과 가상세계의 가상환경에 대한 구분이 모호해지면서 실제환경이 보다 증강되어 개선된 이미지로 보이도록 하는 것으로, 특정 지역 또는 실제 상품 등의 정보에 대하여 관찰자가 신속하고 빠르며 편리하게 상황 판단하도록 응용할 수 있다. In other words, augmented reality (AR) uses a special interface called computer graphics to represent the real world image or actual image that is actually observed, and registers and expresses a 3D virtual image so that the real world environment and the virtual environment of the virtual world are represented. As the distinction of, becomes obscure, the real environment is augmented so that the improved image can be seen, and it can be applied to observer quickly, quickly and conveniently for the situation such as information on a specific region or actual product.

증강현실을 이용한 종래기술로 특허등록 제10-0980202호(2010년 08월 30일 등록)에 의한 것으로“3차원 가상물체와 인터렉션이 가능한 모바일 증강현실 시스템 및 방법”이 있다.
As a prior art using augmented reality is a patent registration No. 10-0980202 (registered on August 30, 2010), there is a "mobile augmented reality system and method that can interact with three-dimensional virtual objects".

도 1 은 종래기술의 일 실시 예에 의한 것으로 증감현실을 이용한 시스템의 기능 구성도 이다. 1 is a functional configuration diagram of a system using increase and decrease reality according to an embodiment of the prior art.

이하, 첨부된 도면을 참조하여 종래기술을 상세히 설명하면 카메라, 영상처리부, 디스플레이부, 인터렉션부를 포함하는 구성이다. Hereinafter, the prior art will be described in detail with reference to the accompanying drawings, which includes a camera, an image processing unit, a display unit, and an interaction unit.

카메라는 이동통신용 단말기에 부착된 것이고, 영상처리부는 카메라를 이용하여 손 위에 3 차원 가상물체를 생성하며, 디스플레이부는 3 차원 가상물체와 손의 영상을 출력하고, 인터렉션부는 손의 움직임에 대응하여 3 차원 가상물체를 제어한다. The camera is attached to the mobile communication terminal, and the image processing unit generates a three-dimensional virtual object on the hand using a camera. The display unit outputs a three-dimensional virtual object and a hand image. Dimensional virtual object.

종래기술은 모바일 단말기를 이용하여 언제 어디서나 3 차원 가상 컨텐츠에 접근할 수 있고, 진동센서를 이용하여 무게감 및 촉감을 느낄 수 있어 증강현실에 의한 실제감을 높이는 장점이 있다. The conventional art has the advantage of increasing the sense of reality by the augmented reality because the user can access the 3D virtual contents anytime and anywhere using the mobile terminal and feel the weight and feel by using the vibration sensor.

그러나 종래기술은 위치기반 지역정보를 증강현실에 의한 사실적 컨텐츠로 제공하지 못하는 문제가 있다.
위치기반은 수치지도를 이용한 위치기반서비스(LBS : Location Based Service)이고 일반적으로 잘 알려져 있으므로 구체적인 설명을 생략하기로 한다.
However, the prior art has a problem that the location-based area information can not be provided as a realistic content by augmented reality.
Location-based is a location based service (LBS) using a digital map, and since it is generally known, a detailed description thereof will be omitted.

따라서 위치기반 지역정보를 증강현실에 의하여 이질감 없는 사실적 이미지로 제공하는 기술을 개발할 필요가 있다.
Therefore, it is necessary to develop a technique to provide location-based local information as a realistic image without any difference by augmented reality.

대한민국 특허등록 제10-0980202호(2010.08.30.) “3차원 가상물체와 인터렉션이 가능한 모바일 증강현실 시스템 및 방법”Republic of Korea Patent Registration No. 10-0980202 (2010.08.30.) "Mobile augmented reality system and method that can interact with 3D virtual objects"

상기와 같은 종래 기술의 문제점과 필요성을 해소하기 위하여 안출한 본 발명은 멀티미디어 컨텐츠로부터 시공간정보를 추출하여 저장하고 선택된 이미지의 계절, 일기, 온도, 시간을 분석하여 융합되는 이미지가 이질감 없이 융합되도록 하며 단말기에서 동영상으로 플레이시킬 수 있는 스마트폰을 이용한 사용자 맞춤형 증강현실 서비스 시스템의 운용방법을 제공한다.
In order to solve the problems and necessity of the prior art as described above, the present invention extracts and stores spatiotemporal information from multimedia contents and analyzes the season, diary, temperature, and time of the selected image so that the fused image can be fused without heterogeneity. Provides an operation method of a user-customized augmented reality service system using a smartphone that can be played as a video on the terminal.

본 발명의 과제를 달성하기 위한 것으로 스마트폰을 이용한 사용자 맞춤형 증강현실 서비스 시스템의 운용방법은 지피에스 정보 수신장치를 구비하고 수집된 주변 환경의 컨텐츠를 지피에스에 의한 위치정보와 함께 할당된 영역에 수집컨텐츠로 저장하는 촬영장치; 상기 촬영장치로부터 상기 수집컨텐츠를 제공받아 할당된 영역에 저장하고 원본컨텐츠로 제공하는 위치기반컨텐츠서버, 상기 위치기반컨텐츠서버로부터 상기 원본컨텐츠를 제공받고 시공간정보를 분석하여 분석컨텐츠로 할당된 영역에 저장하는 분석컨텐츠 제공서버, 상기 분석컨텐츠 제공서버로부터 분석컨텐츠를 제공받고 단말부로부터 업로드되어 입력된 컨텐츠와 융합시키며 융합된 컨텐츠를 할당된 영역에 융합컨텐츠로 저장하는 컨텐츠 융합서버, 상기 컨텐츠 융합서버로부터 상기 융합컨텐츠를 제공받고 단말부에서 플레이할 수 있는 포맷으로 변환하여 할당된 영역에 저장하는 서비스 서버, 상기 분석컨텐츠서버와 컨텐츠융합서버와 서비스서버에 접속하고 상기 융합컨텐츠를 제공받아 동영상으로 플레이하는 단말부, 상기 단말부가 상기 분석컨텐츠서버와 컨텐츠융합서버와 서비스서버에 접속할 수 있도록 인증하는 인증서버를 포함하는 맞춤형 증강현실 서비스 시스템의 운용방법에 있어서, 상기 촬영장치에 의하여 촬영제어신호가 입력되면 주변의 컨텐츠를 촬영하여 수집하면서 상기 수집하는 지점에서 지피에스 신호를 수신하고 분석하여 확인된 좌표정보를 상기 수집된 컨텐츠의 메타데이터 영역에 포함시키고 수집컨텐츠로 저장하는 촬영단계; 상기 위치기반컨텐츠서버에 의하여 상기 촬영장치로부터 상기 수집컨텐츠를 제공받고 할당된 메모리 영역에 원본컨텐츠로 저장하는 모음단계; 상기 분석컨텐츠제공서버에 의하여 상기 위치기반컨텐츠서버로부터 상기 원본컨텐츠를 제공받고 상기 단말부가 접속하여 요청하면 상기 원본컨텐츠를 제공하며 상기 원본컨텐츠를 분석하여 시공간정보가 추출되고 영상분석에 의하여 배경과 객체가 분리된 구조화 상태의 분석컨텐츠로 할당된 메모리 영역에 저장하는 분석단계; 상기 컨텐츠융합서버에 의하여 상기 분석컨텐츠제공서버로부터 상기 분석컨텐츠를 제공받으며 상기 단말부가 접속하여 컨텐츠를 업로드하고 상기 분석컨텐츠를 선택하면 상기 분석컨텐츠와 상기 업로드된 컨텐츠를 융합하고 이질감최소화 처리된 융합컨텐츠를 할당된 메모리 영역에 저장하는 융합단계; 및 상기 서비스 서버에 의하여 상기 컨텐츠융합서버로부터 융합컨텐츠를 제공받고 엠펙7(mpeg 7) 포맷으로 변환하여 할당된 영역에 저장하며 상기 단말부가 접속하여 상기 융합컨텐츠를 요청하면 상기 엠펙7 포맷으로 변환된 융합컨텐츠를 제공하는 서비스 단계; 를 포함하되, 상기 시공간정보 추출은 상기 원본컨텐츠를 구성하는 각 단위 프레임 이미지의 메타데이터로부터 일기, 계절, 시간이 포함된 시계열정보와 위도, 경도, 고도가 포함된 공간정보를 추출하여 이루어지고, 상기 영상분석은 상기 원본컨텐츠를 구성하는 각 단위 프레임 이미지로부터 유사점을 추출하고 상기 추출된 유사점이 가장 많이 포함된 프레임 이미지를 인덱스 프레임 이미지로 지정하여 이루어지며, 상기 이질감 최소화는 상기 분석컨텐츠가 선택되면 포함된 각 프레임 이미지의 시간값을 분석하고 상기 단말부로부터 업로드되어 융합될 컨텐츠의 시간값과 차이가 가장 적은 프레임 이미지를 선택하여 융합하며, 상기 선택된 분석컨텐츠의 프레임 이미지로부터 불필요하다고 선택된 객체를 제거하며 필요하다고 선택된 객체는 추가하고, 상기 선택된 분석컨텐츠와 상기 업로드된 컨텐츠의 명도, 채도, 객체의 크기를 유사하게 변환시키며 객체의 위치를 조절하고 그림자를 제거하며 융합된 경계선이 주변과 유사하도록 조절하고, 상기 단말부는 상기 엠펙7 포맷으로 변환되고 상기 서비스 서버로부터 제공된 융합컨텐츠를 동영상으로 플레이하며 스마트폰, 컴퓨터 중에서 어느 하나 또는 어느 하나 이상이고, 상기 시공간정보는 상기 원본컨텐츠에 포함된 영상을 분석하여 추출할 수 있다.
In order to achieve the object of the present invention, a method for operating a user-customized augmented reality service system using a smart phone includes a GPS information receiving device and collects contents of the collected surrounding environment in a region allocated together with location information by GPS. Photographing device to save; A location-based content server that receives the collected content from the photographing apparatus and stores it in an allocated area and provides the original content, and receives the original content from the location-based content server and analyzes spatiotemporal information in an area allocated as analysis content; An analysis content providing server for storing, The content fusion server for receiving the analysis content from the analysis content providing server, uploaded from the terminal unit and fused with the input content, and storing the fused content in the allocated area as fused content, The content fusion server The server receives the converged content from the service server, converts it into a format that can be played by the terminal unit, and stores the data in the allocated area. The terminal unit, the terminal unit A method of operating a customized augmented reality service system including an authentication content server, an authentication server for authenticating access to a content fusion server and a service server, wherein when a shooting control signal is input by the photographing apparatus, the surrounding content is photographed and collected. A photographing step of receiving and analyzing a GPS signal at the collecting point and including the identified coordinate information in a metadata area of the collected content and storing the collected coordinate information as collected content; A collection step of receiving the collected content from the photographing apparatus by the location-based content server and storing the collected content as original content in an allocated memory area; The original content is received from the location-based content server by the analysis content providing server, and when the terminal accesses and provides the original content, the original content is provided and the spatiotemporal information is extracted by analyzing the original content. Analyzing the data stored in the memory area allocated as the analysis content in the separated structured state; Receiving the analysis content from the analysis content providing server by the content fusion server and uploading the content by accessing the terminal unit and selecting the analysis content, the analysis content and the uploaded content are fused and heterogeneous and minimized fusion content is processed. A fusion step of storing the data in an allocated memory area; And receiving the fusion content from the contents fusion server by the service server, converting it into an MPEG 7 format, and storing the fused content in an allocated area. When the terminal accesses the fusion content, the fused content is converted into the MPEG 7 format. A service step of providing convergence content; It includes, but the extraction of the spatiotemporal information is made by extracting the time series information including the diary, season, time and spatial information including latitude, longitude, altitude from the metadata of each unit frame image constituting the original content, The image analysis is performed by extracting similarities from each unit frame image constituting the original content and designating a frame image including the most extracted similarities as an index frame image, and minimizing the heterogeneity when the analysis content is selected. Analyze the time value of each included frame image, select and fuse the frame image with the smallest difference from the time value of the content to be uploaded and fused from the terminal unit, and remove the object selected as unnecessary from the frame image of the selected analysis content. The object selected as needed. The brightness and saturation of the selected content and the uploaded content are similarly converted, the position of the object is adjusted, the shadow is removed, and the fused boundary is adjusted to be similar to the surroundings. It is converted into 7 formats and plays fused content provided from the service server as a video, and is one or more than one among a smartphone and a computer, and the spatiotemporal information can be extracted by analyzing an image included in the original content.

상기와 같은 구성의 본 발명은 멀티미디어 컨텐츠로부터 시공간정보를 추출하고 이미지의 계절, 일기, 온도, 시간을 분석하여 융합되는 이미지가 이질감이 없이 표시되도록 하는 장점이 있다. The present invention has the advantage of extracting the spatiotemporal information from the multimedia content and analyzing the season, diary, temperature, and time of the image to display the image fused without heterogeneity.

또한, 융합된 이미지를 제공받은 단말기에서 동영상으로 플레이 되도록 하는 장점이 있다.
In addition, there is an advantage to be played as a video on the terminal provided with the fused image.

도 1 은 종래기술의 일 실시 예에 의한 것으로 증감현실을 이용한 시스템의 기능 구성도,
도 2 는 본 발명의 일 실시 예에 의한 것으로 스마트폰을 이용한 사용자 맞춤형 증강현실 서비스 시스템의 기능 구성도,
도 3 은 본 발명의 일 실시 예에 의한 것으로 맞춤형 증강현실 서비스 시스템의 운용방법을 설명하는 순서도,
그리고
도 4 는 본 발명의 일 실시 예에 의한 것으로 맞춤형 증강현실 서비스 시스템을 구성하는 스마트폰의 운용방법을 설명하는 순서도 이다.
1 is a functional configuration diagram of a system using the increase and decrease reality according to an embodiment of the prior art,
2 is a functional configuration diagram of a user-customized augmented reality service system using a smartphone according to an embodiment of the present invention,
3 is a flow chart illustrating a method of operating a customized augmented reality service system according to an embodiment of the present invention,
And
4 is a flowchart illustrating a method of operating a smartphone constituting a customized augmented reality service system according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에서 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and will be described in detail in the detailed description. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. In the following description of the present invention, if it is determined that the detailed description of the related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

도 2 는 본 발명의 일 실시 예에 의한 것으로 스마트폰을 이용한 사용자 맞춤형 증강현실 서비스 시스템의 기능 구성도 이고, 도 3 은 본 발명의 일 실시 예에 의한 것으로 맞춤형 증강현실 서비스 시스템의 운용방법을 설명하는 순서도 이며, 도 4 는 본 발명의 일 실시 예에 의한 것으로 맞춤형 증강현실 서비스 시스템을 구성하는 스마트폰의 운용방법을 설명하는 순서도 이다. 2 is a functional configuration diagram of a user-customized augmented reality service system using a smart phone according to an embodiment of the present invention, Figure 3 illustrates a method of operating a personalized augmented reality service system according to an embodiment of the present invention. 4 is a flowchart illustrating a method of operating a smartphone constituting a customized augmented reality service system according to an embodiment of the present invention.

이하, 첨부된 도 2 를 참조하여 본 발명의 시스템 구성을 상세히 설명하면 스마트폰을 이용한 사용자 맞춤형 증강현실 서비스 시스템(1000)은 촬영장치(1100), 위치기반컨텐츠서버(1200), 분석컨텐츠제공서버(1300), 컨텐츠융합서버(1400), 서비스서버(1500), 단말부(1600), 인증서버(1700)를 포함하는 구성이다. Hereinafter, the system configuration of the present invention will be described in detail with reference to the accompanying FIG. 2. The user-customized augmented reality service system 1000 using a smartphone includes a photographing apparatus 1100, a location-based content server 1200, and an analysis content providing server. 1300, the content fusion server 1400, the service server 1500, the terminal unit 1600, and the authentication server 1700.

촬영장치(1100)는 지피에스(GPS) 인공위성으로부터 지피에스 정보를 수신하고 위도, 경도, 해발, 시간 등으로 분석되는 좌표정보 또는 위치정보를 출력하는 지피에스 수신장치를 구비하는 동시에 해당 제어신호에 의하여 주변 환경의 컨텐츠를 수집하고 수집된 컨텐츠와 위치정보를 메타데이터로써 연계시킨 수치지도를 할당된 영역에 수집컨텐츠로 저장한다. 메타데이터는 일반적으로 알려져 있으므로 구체적인 설명을 생략하기로 한다.
또한, 수치지도는 지도의 각 지점에 대한 위도, 경도, 해발, 시간 등으로 분석되는 좌표정보 또는 위치정보를 주변의 촬영된 영상 또는 해당 이미지와 연계된 상태로 저장하고 검색에 의하여 출력하는 디지털 지도이며 일반적으로 알려져 있으므로 구체적인 설명을 생략하기로 한다.
The photographing apparatus 1100 includes a GPS receiver which receives GPS information from a GPS satellite and outputs coordinate information or position information analyzed by latitude, longitude, sea level, time, etc. Collects the content of the content and stores the numerical map that associates the collected content with location information as metadata in the allocated area. Since metadata is generally known, a detailed description thereof will be omitted.
In addition, the digital map is a digital map that stores the coordinate information or location information analyzed by latitude, longitude, elevation, time, etc. for each point of the map in the state of being associated with the captured image or the corresponding image, and outputs it by searching. Since it is generally known, a detailed description thereof will be omitted.

촬영장치(1100)는 지피에스 수신장치가 포함된 전용카메라, 카메라 기능과 지피에스 수신 기능이 구비된 스마트 폰 등이 포함될 수 있고 지피에스 수신장치는 일기 정보를 함께 수신하는 것으로 설명하기로 한다. The photographing apparatus 1100 may include a dedicated camera including a GPS receiver, a smartphone having a camera function and a GPS reception function, and the GPS receiver will be described as receiving weather information together.

위치기반컨텐츠서버(1200)는 촬영장치(1100)로부터 수집컨텐츠를 제공받아 할당된 영역에 저장하고 분석컨텐츠서버(1300)가 요청하면 원본컨텐츠로 제공한다. The location-based content server 1200 receives the collected content from the photographing apparatus 1100 and stores the collected content in the allocated area and provides the original content when the analysis content server 1300 requests it.

분석컨텐츠 제공서버(1300)는 위치기반컨텐츠서버(1200)로부터 원본컨텐츠를 제공받고 영상분석과 시공간정보가 분석된 분석컨텐츠로 할당된 영역에 저장하며 컨텐츠융합서버(1400) 또는 단말부(1600)의 요청에 의하여 원본컨텐츠를 제공한다. The analysis content providing server 1300 receives the original content from the location-based content server 1200 and stores it in an area allocated as the analysis content analyzed by image analysis and spatiotemporal information, and the content fusion server 1400 or the terminal unit 1600. Original content is provided upon request.

영상분석은 배경의 이미지로부터 객체 또는 등장인물을 이미지 프로세싱 기술을 이용하여 각각 개별적으로 분리하고 구조화하며 각각 구분하여 저장 등의 관리를 할 수 있다. In image analysis, an object or a character may be separated from an image of a background by using image processing technology, and may be separately structured and stored separately.

또한, 영상분석은 원본컨텐츠를 구성하는 각 단위 프레임 이미지로부터 유사점을 추출하고 추출된 유사점이 가장 많이 포함된 프레임 이미지를 인덱스 프레임 이미지로 지정할 수 있다. In addition, the image analysis may extract the similarity from each unit frame image constituting the original content, and designate the frame image including the most extracted similarity as the index frame image.

시공간정보는 시계열정보와 공간정보로 구분되며 시계열정보는 일기(날씨), 계절, 날자가 포함된 시간 등의 정보로 이루어지고, 공간정보는 위도, 경도, 고도 등이 포함되는 좌표정보 또는 위치정보로 이루어진다. Spatiotemporal information is divided into time series information and spatial information, and time series information is composed of information such as weather (weather), season, time including date, and spatial information is coordinate information or location information including latitude, longitude, altitude, etc. Is made of.

시공간정보는 원본컨텐츠를 구성하는 각 단위 프레임 이미지의 메타데이터로부터 일기, 계절, 시간이 포함된 시계열정보와 위도, 경도, 고도가 포함된 공간정보가 추출된다. The spatiotemporal information is extracted from metadata of each unit frame image constituting the original content, time series information including diary, season, and time, and spatial information including latitude, longitude, and altitude.

한편, 제한적이지만 컨텐츠의 영상을 분석하여 시공간정보를 추출할 수도 있다. 즉, 영상을 분석하여 비, 눈이 오는지 등의 일기를 분석하고 아침, 점심, 저녁 때 인지의 시간을 분석하며 해변가, 산악지대, 사막지대, 평야지대 인지 등의 공간정보를 분석할 수 있으며 이와 같이 분석된 시공간 정보를 선택적으로 사용할 수 있음은 매우 당연하다. On the other hand, although limited, spatiotemporal information may be extracted by analyzing an image of the content. In other words, it analyzes the weather and analyzes the weather such as rain and snow, analyzes the time of cognition in the morning, lunch, and evening, and analyzes spatial information such as beach, mountain, desert and plain cognition. Naturally, the spatio-temporal information analyzed together can be selectively used.

컨텐츠 융합서버(1400)는 분석컨텐츠 제공서버(1300)로부터 분석컨텐츠를 제공받고 단말부(1600)로부터 업로드되어 입력된 컨텐츠와 융합시키며 융합된 컨텐츠를 할당된 영역에 융합컨텐츠로 저장하고 서비스 서버(1500)와 단말부(1600)의 요청에 의하여 제공한다. The content fusion server 1400 is provided with the analysis content from the analysis content providing server 1300, uploaded from the terminal unit 1600 and fused with the input content, and stores the fused content as the fusion content in the allocated area and the service server ( 1500 and at the request of the terminal unit 1600.

컨텐츠와 컨텐츠를 융합하기 위하여서는 이질감이 없어야 하며 특히, 증감현실 서비스를 제공하기 위한 분석컨텐츠와 단말부가 업로드한 컨텐츠의 객체를 융합하여 증감현실 서비스를 제공하는 경우에는 객체의 이질감이 없어야 된다. 즉, 융합된 부분이 어딘지를 확인할 수 없도록 처리하는 것이 바람직하다. There should be no heterogeneity in order to fuse the content and the content. In particular, there should be no heterogeneity of the object when providing the sensitization reality service by fusing the object of the uploaded content with the analysis content for providing the sensitization reality service. That is, it is preferable to process so that it is impossible to confirm where the fused part is.

증감현실 서비스에서 객체의 이질감을 없애기 위하여서는 융합되는 각 컨텐츠가 수집된 시간값을 이용한다. 즉, 각각의 컨텐츠가 수집된 시간이 가까울수록 또는 인접하거나 동일하면 이질감이 없게 된다. In order to eliminate the heterogeneity of the object in the sensitized reality service, the time value at which each fused content is collected is used. In other words, there is no heterogeneity as the time at which each content is collected is closer or adjacent or identical.

또한, 이질감을 없애기 위하여서는 바탕이 되는 컨텐츠로부터 불필요하다고 판단되는 객체를 제거하거나 필요하다고 판단된 객체를 추가할 수 있다. In addition, in order to eliminate the heterogeneity, an object determined to be unnecessary from an underlying content may be removed or an object determined to be necessary may be added.

또한, 융합되는 각 컨텐츠의 명도, 채도, 크기의 차이를 최소화하고 융합되는 객체의 위치를 조정하며 그림자를 일치시키거나 제거하며 융합되는 객체와의 경계선을 자연스럽게 보이도록 처리한다. In addition, it minimizes the difference in brightness, saturation, and size of each fused content, adjusts the position of the fused object, matches or removes shadows, and processes the boundary line with the fused object to look natural.

이질감 최소화 기술은 이미 알려진 일반적인 기술과 앞으로 알려질 기술을 모두 사용할 수 있다. The heterogeneity minimization technique can use both general and known techniques.

서비스 서버(1500)는 컨텐츠융합서버(1400)로부터 제공받은 융합컨텐츠를 단말부(1600)에서 최적화된 동영상으로 플레이할 수 있는 엠펙7(mpeg 7) 포맷으로 변환하여 할당된 영역에 저장하고 접속된 단말부(1600)의 요청에 의하여 제공한다. The service server 1500 converts the fusion content provided from the content fusion server 1400 into an MPEG 7 format that can be played as an optimized video in the terminal unit 1600, and stores the fused content in an allocated area. Provided by the request of the terminal unit 1600.

단말부(1600)는 스마트폰(smart-phone) 또는 컴퓨터(PC)가 포함되며 인증서버(1700)의 인증에 의하여 분석컨텐츠서버(1300), 컨텐츠 융합서버(1400), 서비스 서버(1500)에 접속할 수 있다. The terminal unit 1600 includes a smart phone or a computer, and the authentication content server 1300, the content fusion server 1400, the service server 1500 by authentication of the authentication server 1700 I can connect it.

단말부(1600)는 분석컨텐츠서버(1300)에 접속하여 분석된 컨텐츠를 제공받거나 컨텐츠융합서버(1400)에 접속하여 이질감이 최소화된 상태로 융합된 융합컨텐츠를 제공받거나 서비스 서버(1500)에 접속하여 엠펙7 포맷으로 변환된 융합컨텐츠를 제공받을 수 있다. The terminal 1600 receives the analyzed content by accessing the analysis content server 1300 or accesses the content fusion server 1400 to receive the fused content with the heterogeneity in a minimized state or accesses the service server 1500. By doing so, the converged content converted into the MPEG 7 format can be provided.

단말부(1600)는 서비스 서버(1500)로부터 제공받은 엠펙7 포맷의 융합컨텐츠를 이용하여 증강현실 컨텐츠를 동영상으로 플레이할 수 있다. 동영상으로의 플레이는 1 초당 24 개의 단위 프레임 이미지가 연속 표시되도록 하므로 이루어지며, 1 초당 표시되는 단위 프레임의 숫자는 가감될 수 있다. The terminal unit 1600 may play augmented reality content as a video using the fusion content of the MPEG 7 format provided from the service server 1500. The play of the video is performed because 24 unit frame images are displayed continuously per second, and the number of unit frames displayed per second can be added or subtracted.

인증서버(1700)는 단말부(1600)가 맞춤형 증강현실 서비스시스템에 접속 하도록 인증한다. 인증서버(1700)는 단말부(1600)의 인증에 회비를 납부한 회원 또는 정해진 규정에 해당하는 회원인지의 여부를 판단하고 단말부(1600)가 적합한 회원자격이 있는 것으로 판단되는 경우에 접속하도록 인증하고, 적합한 회원자격이 없어 인증되지 못한 단말부(1600)는 접속하지 못하도록 차단한다.
The authentication server 1700 authenticates the terminal 1600 to access the customized AR service system. The authentication server 1700 determines whether the member who paid the membership fee to the terminal 1600 or a member corresponding to a predetermined rule and accesses the terminal 1600 when the terminal 1600 is determined to have a proper membership. The terminal unit 1600 that is not authenticated because there is no proper membership is blocked from access.

이하, 첨부된 도 3 과 도 2 를 참조하여 본 발명에 의한 것으로 맞춤형 증강현실 서비스 시스템의 운용방법을 상세히 설명하면 촬영장치(1100)는 촬영을 제어하는 해당 신호가 입력되면 주변환경의 컨텐츠를 수집하여 할당된 메모리 영역에 수집컨텐츠로써 저장한다(S2100). Hereinafter, the operation method of the customized augmented reality service system according to the present invention will be described in detail with reference to FIGS. 3 and 2. When the corresponding signal for controlling shooting is input, the photographing apparatus 1100 collects contents of the surrounding environment. In operation S2100, the memory is stored as the collected content in the allocated memory area.

촬영장치(1100)는 컨텐츠를 수집하는 경우 구비된 지피에스 수신장치를 이용하여 수집지점의 위도, 경도, 해발이 포함되는 좌표정보 또는 위치정보를 수집컨텐츠에 메타데이터로써 포함시켜 저장되도록 한다. When the content is collected, the photographing apparatus 1100 includes the latitude, longitude, and coordinate information or location information including the latitude, longitude, and the sea level of the collection point as metadata in the collection content and store the data using the GPS receiver.

촬영장치(1100)는 위치기반컨텐츠서버(1200)의 요청에 의하여 저장된 원본컨텐츠 즉, 메타데이터가 포함되고 주변환경으로부터 수집된 컨텐츠를 제공하며, 수집컨텐츠를 제공받은 위치기반컨텐츠서버(1200)는 할당된 메모리 영역에 원본컨텐츠로써 저장한다(S2200). The photographing apparatus 1100 provides the original content stored at the request of the location-based content server 1200, that is, the metadata is included and contents collected from the surrounding environment, and the location-based content server 1200 provided with the collection content is provided. Stored as original content in the allocated memory area (S2200).

분석컨텐츠제공서버(1300)는 위치기반컨텐츠서버에 요청하여 원본컨텐츠를 제공받고 인증을 득하여 접속한 단말부(1600)가 요청하면 원본컨텐츠를 제공한다. The analysis content providing server 1300 receives the original content by requesting the location-based content server, and provides the original content when the terminal 1600 connected to the authentication content is requested.

한편, 분석컨텐츠제공서버(1300)는 제공받은 원본컨텐츠를 분석하여 시공간정보를 추출하고 영상분석에 의하여 배경과 객체 또는 등장인물이 분리된 구조화 상태의 분석컨텐츠로 할당된 영역에 저장한다(S2300). Meanwhile, the analysis content providing server 1300 analyzes the provided original content, extracts spatiotemporal information, and stores it in an area allocated as an analysis content in a structured state in which a background and an object or a character are separated by image analysis (S2300). .

시공간정보 추출은 원본컨텐츠를 구성하는 각 단위 프레임 이미지의 메타데이터로부터 일기, 계절, 시간이 포함된 시계열정보와 위도, 경도, 고도가 포함된 공간정보를 추출한다. Spatio-temporal information extraction extracts time series information including diary, season, and time, and spatial information including latitude, longitude, and altitude from metadata of each unit frame image constituting original content.

컨텐츠에 메타데이터가 구비되지 못하여 공간정보를 분석 및 추출할 수 없는 경우, 야후 플릭커, 구글 이미지 검색, 유튜브 등에서 태그 기반으로 공간정보를 추출할 수도 있다. If metadata is not included in the content and spatial information cannot be analyzed and extracted, spatial information may be extracted based on tags from Yahoo Flickr, Google Image Search, YouTube, and the like.

또한, 컨텐츠의 영상을 분석하여 일기, 계절, 시간에 의한 시계열정보 및 공간정보를 추출할 수도 있다. In addition, by analyzing the image of the content, time series information and spatial information by diary, season, time may be extracted.

즉, 원본컨텐츠의 분석에는 메타데이터를 이용하거나 이미지에 촬영되어 포함된 객체를 이용할 수도 있고 알려진 다른 방식을 이용할 수도 있다.That is, the analysis of the original content may use metadata, an object photographed in an image, or another known method.

영상분석은 원본컨텐츠를 구성하는 각 단위 프레임 이미지로부터 유사점을 추출하고 추출된 유사점이 가장 많이 포함된 프레임 이미지를 인덱스 프레임 이미지로 지정한다. Image analysis extracts similarities from each unit frame image constituting the original content and designates a frame image including the most extracted similarities as an index frame image.

컨텐츠융합서버(1400)는 분석컨텐츠제공서버에 접속하여 분석컨텐츠를 제공받으며 단말부(1600)와도 접속하여 융합시킬 컨텐츠를 업로드 받는다(S2400). The content fusion server 1400 receives the analysis content by accessing the analysis content providing server and uploads the content to be fused by accessing the terminal unit 1600 (S2400).

컨텐츠융합서버(1400)는 접속된 단말부가 분석컨텐츠를 선택하면(S2500), 분석컨텐츠와 업로드된 컨텐츠를 융합하고 이질감최소화 처리된 융합컨텐츠를 할당된 영역에 저장한다(S2600). When the connected terminal selects the analysis content (S2500), the content fusion server 1400 converges the analysis content and the uploaded content and stores heterogeneous and minimized fusion content in the allocated area (S2600).

이질감 최소화는 분석컨텐츠가 선택되면 포함된 각 프레임 이미지의 시간값을 분석하고 단말부로부터 업로드되어 융합될 컨텐츠의 시간값과 차이가 가장 적은 프레임 이미지를 선택하여 융합한다. The heterogeneity minimization analyzes the time value of each included frame image when the analysis content is selected, and selects and fuses the frame image having the smallest difference from the time value of the content to be uploaded and fused from the terminal unit.

또한, 이질감 최소화는 선택된 분석컨텐츠의 프레임 이미지로부터 불필요하다고 생각된 객체를 제거하며 필요하다고 생각되는 객체는 추가한다. In addition, minimizing heterogeneity removes objects deemed unnecessary from the frame image of the selected analysis content and adds objects deemed necessary.

그리고 이질감 최소화에서 선택된 분석컨텐츠와 업로드된 컨텐츠의 명도, 채도, 객체의 크기를 유사하게 변환시키며 객체의 위치를 조절하고 그림자를 제거하거나 변경하며 융합된 객체와 배경의 경계선이 주변과 유사하도록 조절한다. In minimizing heterogeneity, the brightness, saturation, and size of the selected content and uploaded content are similarly transformed, and the position of the object is removed, the shadow is removed or changed, and the boundary between the fused object and the background is similar to the surroundings. .

컨텐츠융합서버(1400)는 이와 같이 융합된 컨텐츠를 할당된 영역에 저장하는 동시에 단말부(1600) 및 서비스 서버(1500)의 요청에 의하여 제공한다. The content fusion server 1400 stores the fused content in the allocated area and provides it at the request of the terminal unit 1600 and the service server 1500.

서비스 서버(1500)는 컨텐츠융합서버로부터 제공된 융합컨텐츠의 포맷을 엠펙7(mpeg 7) 포맷으로 변환하여 할당된 메모리 영역에 저장하고 접속된 단말부로부터 요청이 있으면 엠펙7 포맷으로 제공한다(S2700, S2800, S2900).
The service server 1500 converts the format of the fusion content provided from the content fusion server into the MPEG 7 format, stores the allocated content in the allocated memory area, and provides the MPEG 7 format when a request is made from the connected terminal (S2700). S2800, S2900).

이하, 첨부된 도 4 와 도 2 를 참조하여 본 발명에 의한 것으로 맞춤형 증강현실 서비스 시스템을 구성하는 스마트폰의 운용방법을 상세히 설명한다. Hereinafter, with reference to the accompanying Figures 4 and 2 will be described in detail the operating method of the smart phone constituting a customized augmented reality service system according to the present invention.

단말부(1600)에 의하여 증강현실 서비스를 이용하는 것으로 판단되면(S3100), 인증서버(1700)에 접속하여 인증을 획득하고 맞춤형 증강현실 서비스 시스템(1000)에 접속한다(S3200). If it is determined by the terminal 1600 to use the augmented reality service (S3100), access to the authentication server 1700 to obtain the authentication and access to the customized augmented reality service system 1000 (S3200).

단말부에 의하여 컨텐츠를 수집하는 해당 명령이 입력된 것으로 판단되면(S3300) 해당 제어명령에 의하여 위치기반 컨텐츠를 수집하고 맞춤형 증강현실 서비스 시스템에 제공한다(S3400). If it is determined that the corresponding command to collect the content by the terminal unit is input (S3300), the location-based content is collected by the corresponding control command and provided to the customized augmented reality service system (S3400).

이때, 단말부가 촬영장치(1100)의 기능을 할 수도 있다. In this case, the terminal unit may function as the photographing apparatus 1100.

단말부에 의하여 융합요청의 해당 명령이 입력된 것으로 판단되면(S3500) 맞춤형 증강현실 서비스 시스템에 접속하여 구조화된 컨텐츠를 검색 및 선택하고 업로드된 컨텐츠와의 융합을 요청한다(S3600). When it is determined that the corresponding command of the fusion request is input by the terminal unit (S3500), the terminal accesses a customized augmented reality service system, searches for and selects structured content, and requests fusion with the uploaded content (S3600).

여기서 단말부는 시스템에 사전 업로드된 컨텐츠 중에서 융합시킬 컨텐츠를 선택하거나 융합할 컨텐츠를 새로이 업로드할 수 있다. In this case, the terminal unit may select content to be fused from contents previously uploaded to the system or newly upload content to be fused.

단말부는 융합된 컨텐츠를 수신하는 해당 명령이 입력된 것으로 판단되면(S3700) 맞춤형 증강현실 서비스 시스템에 접속하여 엠펙 7 포맷으로 변환된 컨텐츠를 다운로드 받아 할당된 영역에 저장 및 동영상으로 처리하여 플레이한다(S3800).
If it is determined that the corresponding command for receiving the fused content is input (S3700), the terminal unit accesses the customized AR service system, downloads the content converted to the MPEG 7 format, stores the content in the allocated area, and processes and plays the video ( S3800).

이상에서 본 발명은 기재된 구체 예에 대해서 상세히 설명하였지만 본 발명의 기술사상 범위 내에서 다양한 변형 및 수정이 가능함은 당업자에게 있어서 명백한 것이며, 이러한 변형 및 수정이 첨부된 특허청구범위에 속함은 당연한 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is evident that many alternatives, modifications and variations will be apparent to those skilled in the art.

1000 : 맞춤형 증강현실 서비스 시스템
1100 : 촬영장치 1200 : 위치기반컨텐츠서버
1300 : 분석컨텐츠제공서버 1400 : 컨텐츠융합서버
1500 : 서비스 서버 1600 : 단말부
1700 : 인증서버
1000: Customized Augmented Reality Service System
1100: recording device 1200: location-based content server
1300: Analysis content providing server 1400: Content convergence server
1500: service server 1600: terminal
1700: Certificate Server

Claims (1)

지피에스 정보 수신장치를 구비하고 수집된 주변 환경의 컨텐츠를 지피에스에 의한 위치정보와 함께 할당된 영역에 수집컨텐츠로 저장하는 촬영장치; 상기 촬영장치로부터 상기 수집컨텐츠를 제공받아 할당된 영역에 저장하고 원본컨텐츠로 제공하는 위치기반컨텐츠서버, 상기 위치기반컨텐츠서버로부터 상기 원본컨텐츠를 제공받고 시공간정보를 분석하여 분석컨텐츠로 할당된 영역에 저장하는 분석컨텐츠 제공서버, 상기 분석컨텐츠 제공서버로부터 분석컨텐츠를 제공받고 단말부로부터 업로드되어 입력된 컨텐츠와 융합시키며 융합된 컨텐츠를 할당된 영역에 융합컨텐츠로 저장하는 컨텐츠 융합서버, 상기 컨텐츠 융합서버로부터 상기 융합컨텐츠를 제공받고 단말부에서 플레이할 수 있는 포맷으로 변환하여 할당된 영역에 저장하는 서비스 서버, 상기 분석컨텐츠제공서버와 컨텐츠융합서버와 서비스서버에 접속하고 상기 융합컨텐츠를 제공받아 동영상으로 플레이하는 단말부, 상기 단말부가 상기 분석컨텐츠제공서버와 컨텐츠융합서버와 서비스서버에 접속할 수 있도록 인증하는 인증서버를 포함하는 맞춤형 증강현실 서비스 시스템의 운용방법에 있어서,
상기 촬영장치에 의하여 촬영제어신호가 입력되면 주변의 컨텐츠를 촬영하여 수집하면서 상기 수집하는 지점에서 지피에스 신호를 수신하고 분석하여 확인된 좌표정보를 상기 수집된 컨텐츠의 메타데이터 영역에 포함시키고 수집컨텐츠로 저장하는 촬영단계;
상기 위치기반컨텐츠서버에 의하여 상기 촬영장치로부터 상기 수집컨텐츠를 제공받고 할당된 메모리 영역에 원본컨텐츠로 저장하는 모음단계;
상기 분석컨텐츠제공서버에 의하여 상기 위치기반컨텐츠서버로부터 상기 원본컨텐츠를 제공받고 상기 단말부가 접속하여 요청하면 상기 원본컨텐츠를 제공하며 상기 원본컨텐츠를 분석하여 시공간정보가 추출되고 영상분석에 의하여 배경과 객체가 분리된 구조화 상태의 분석컨텐츠로 할당된 메모리 영역에 저장하는 분석단계;
상기 컨텐츠융합서버에 의하여 상기 분석컨텐츠제공서버로부터 상기 분석컨텐츠를 제공받으며 상기 단말부가 접속하여 컨텐츠를 업로드하고 상기 분석컨텐츠를 선택하면 상기 분석컨텐츠와 상기 업로드된 컨텐츠를 융합하고 이질감최소화 처리된 융합컨텐츠를 할당된 메모리 영역에 저장하는 융합단계; 및
상기 서비스 서버에 의하여 상기 컨텐츠융합서버로부터 융합컨텐츠를 제공받고 엠펙7(mpeg 7) 포맷으로 변환하여 할당된 영역에 저장하며 상기 단말부가 접속하여 상기 융합컨텐츠를 요청하면 상기 엠펙7 포맷으로 변환된 융합컨텐츠를 제공하는 서비스 단계; 를 포함하되,
상기 시공간정보 추출은
상기 원본컨텐츠를 구성하는 각 단위 프레임 이미지의 메타데이터로부터 일기, 계절, 시간이 포함된 시계열정보와 위도, 경도, 고도가 포함된 공간정보를 추출하여 이루어지고,
상기 영상분석은
상기 원본컨텐츠를 구성하는 각 단위 프레임 이미지로부터 유사점을 추출하고 상기 추출된 유사점이 가장 많이 포함된 프레임 이미지를 인덱스 프레임 이미지로 지정하여 이루어지며,
상기 이질감 최소화는
상기 분석컨텐츠가 선택되면 포함된 각 프레임 이미지의 시간값을 분석하고 상기 단말부로부터 업로드되어 융합될 컨텐츠의 시간값과 차이가 가장 적은 프레임 이미지를 선택하여 융합하며,
상기 융합단계에서 선택된 분석컨텐츠의 프레임 이미지로부터 불필요하다고 선택된 객체를 제거하며 필요하다고 선택된 객체는 추가하고,
상기 융합단계에서 선택된 분석컨텐츠와 상기 융합단계에서 업로드된 컨텐츠의 명도, 채도, 객체의 크기를 유사하게 변환시키며 객체의 위치를 조절하고 그림자를 제거하며 융합된 경계선이 주변과 유사하도록 조절하고,
상기 단말부는
상기 엠펙7 포맷으로 변환되고 상기 서비스 서버로부터 제공된 융합컨텐츠를 동영상으로 플레이하며 스마트폰, 컴퓨터 중에서 어느 하나 또는 어느 하나 이상이고,
상기 시공간정보는
상기 원본컨텐츠에 포함된 영상을 분석하여 추출할 수 있는 것을 특징으로 하는 수치지도를 이용한 스마트폰 사용자 맞춤형 증강현실 서비스 시스템의 운용방법.
A photographing apparatus having a GPS information receiving apparatus and storing the collected contents of the surrounding environment as collected contents together with the location information by the GPS; A location-based content server that receives the collected content from the photographing apparatus and stores it in an allocated area and provides the original content, and receives the original content from the location-based content server and analyzes spatiotemporal information in an area allocated as analysis content; An analysis content providing server for storing, The content fusion server for receiving the analysis content from the analysis content providing server, uploaded from the terminal unit and fused with the input content, and storing the fused content in the allocated area as fused content, The content fusion server The server receives the converged content from the service server, converts it into a format that can be played by the terminal unit, and stores the data in the allocated area. Terminal unit to play, the terminal unit In the method of operating a customized augmented reality service system comprising a server authentication authentication to authenticate the access to the analysis content providing server, the content convergence server and the service server,
When the photographing control signal is input by the photographing apparatus, the surrounding content is photographed and collected while receiving and analyzing the GPS signal at the collecting point to include the identified coordinate information in the metadata area of the collected content, and as the collection content. A photographing step of storing;
A collection step of receiving the collected content from the photographing apparatus by the location-based content server and storing the collected content as original content in an allocated memory area;
The original content is received from the location-based content server by the analysis content providing server, and when the terminal accesses and provides the original content, the original content is provided and the spatiotemporal information is extracted by analyzing the original content. Analyzing the data stored in the memory area allocated as the analysis content in the separated structured state;
Receiving the analysis content from the analysis content providing server by the content fusion server and uploading the content by accessing the terminal unit and selecting the analysis content, the analysis content and the uploaded content are fused and heterogeneous and minimized fusion content is processed. A fusion step of storing the data in an allocated memory area; And
The service server receives the fusion content from the content fusion server, converts it into an MPEG 7 format, stores it in an allocated area, and when the terminal accesses the fusion content, the fused content is converted into the MPEG 7 format. A service step of providing content; Including but not limited to:
The space-time information extraction
It is made by extracting time series information including diary, season, time and spatial information including latitude, longitude, and altitude from metadata of each unit frame image constituting the original content,
The image analysis is
Extracting similarity from each unit frame image constituting the original content and designating a frame image including the extracted similarity as the index frame image,
Minimizing the heterogeneity
When the analysis content is selected, the time value of each included frame image is analyzed and the frame image having the smallest difference from the time value of the content to be uploaded and fused from the terminal unit is selected and fused.
Remove the object selected as unnecessary from the frame image of the analysis content selected in the fusion step, add the object selected as necessary,
The brightness and saturation of the content selected in the fusion step and the content uploaded in the fusion step are similarly converted, the position of the object is removed, the shadow is removed, and the fused boundary is similar to the surroundings.
The terminal unit
The fused content provided in the MPEG 7 format and provided from the service server is played as a video, any one or more than one of a smartphone and a computer,
The space-time information is
Operating method of a smart phone user customized augmented reality service system using a digital map, characterized in that the image can be extracted by analyzing the image contained in the original content.
KR1020130028476A 2013-03-18 2013-03-18 Operating method of augmented reality system with smart-phone KR101288851B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130028476A KR101288851B1 (en) 2013-03-18 2013-03-18 Operating method of augmented reality system with smart-phone

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130028476A KR101288851B1 (en) 2013-03-18 2013-03-18 Operating method of augmented reality system with smart-phone

Publications (1)

Publication Number Publication Date
KR101288851B1 true KR101288851B1 (en) 2013-07-23

Family

ID=48997879

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130028476A KR101288851B1 (en) 2013-03-18 2013-03-18 Operating method of augmented reality system with smart-phone

Country Status (1)

Country Link
KR (1) KR101288851B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101568569B1 (en) 2014-02-20 2015-11-11 그림소프트 주식회사 System and method of matching multimedia contents
KR101627783B1 (en) 2015-10-26 2016-06-08 아이씨티웨이(주) Image processing method improves accuracy through the digital map management features
KR101705325B1 (en) * 2015-12-01 2017-02-09 ㈜ 한국공학기술연구원 System of providing ecotoruism contents

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050041169A (en) * 2003-10-30 2005-05-04 한국전자통신연구원 Apparatus for providing information using user-located position image and method thereof
KR20100114819A (en) * 2009-04-16 2010-10-26 한국전자통신연구원 Method and device for implementing augmented reality in mobile environment
KR20100124947A (en) * 2009-05-20 2010-11-30 삼성에스디에스 주식회사 Ar contents providing system and method providing a portable terminal real-time regional information by using augmented reality technology
KR20120045259A (en) * 2010-10-29 2012-05-09 에스케이플래닛 주식회사 Picture composition system, apparatus, terminal based on location and method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050041169A (en) * 2003-10-30 2005-05-04 한국전자통신연구원 Apparatus for providing information using user-located position image and method thereof
KR20100114819A (en) * 2009-04-16 2010-10-26 한국전자통신연구원 Method and device for implementing augmented reality in mobile environment
KR20100124947A (en) * 2009-05-20 2010-11-30 삼성에스디에스 주식회사 Ar contents providing system and method providing a portable terminal real-time regional information by using augmented reality technology
KR20120045259A (en) * 2010-10-29 2012-05-09 에스케이플래닛 주식회사 Picture composition system, apparatus, terminal based on location and method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101568569B1 (en) 2014-02-20 2015-11-11 그림소프트 주식회사 System and method of matching multimedia contents
KR101627783B1 (en) 2015-10-26 2016-06-08 아이씨티웨이(주) Image processing method improves accuracy through the digital map management features
KR101705325B1 (en) * 2015-12-01 2017-02-09 ㈜ 한국공학기술연구원 System of providing ecotoruism contents

Similar Documents

Publication Publication Date Title
US10791267B2 (en) Service system, information processing apparatus, and service providing method
US9665986B2 (en) Systems and methods for an augmented reality platform
KR102063895B1 (en) Master device, slave device and control method thereof
US9811911B2 (en) Apparatus and method for generating virtual reality content based on non-virtual reality content
US11310419B2 (en) Service system, information processing apparatus, and service providing method
US9760768B2 (en) Generation of video from spherical content using edit maps
US20160148418A1 (en) Geo-located activity visualisation, editing and sharing
US20180047213A1 (en) Method and apparatus for providing augmented reality-based dynamic service
US20170076638A1 (en) Image processing apparatus, image processing method, and computer-readable storage medium
US9392248B2 (en) Dynamic POV composite 3D video system
US20180308271A1 (en) Synchronized display of street view map and video stream
CN107870961B (en) Method and system for searching and sorting space objects and computer readable storage device
US20150187139A1 (en) Apparatus and method of providing augmented reality
KR20130053535A (en) The method and apparatus for providing an augmented reality tour inside a building platform service using wireless communication device
KR20100114819A (en) Method and device for implementing augmented reality in mobile environment
KR102197615B1 (en) Method of providing augmented reality service and server for the providing augmented reality service
KR101288851B1 (en) Operating method of augmented reality system with smart-phone
TWI603227B (en) Method and system for remote management of virtual message for a moving object
KR102161437B1 (en) Apparatus for sharing contents using spatial map of augmented reality and method thereof
KR101627783B1 (en) Image processing method improves accuracy through the digital map management features
KR20200003291A (en) Master device, slave device and control method thereof
JP2017108356A (en) Image management system, image management method and program
KR20120076492A (en) System and method for recommending hair based on face and style recognition
KR20150093263A (en) Video producing service device based on private contents, video producing method based on private contents and computer readable medium having computer program recorded therefor
KR20170025732A (en) Apparatus for presenting travel record, method thereof and computer recordable medium storing the method

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160718

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170717

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180808

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190715

Year of fee payment: 7