KR101013751B1 - Server for processing of virtualization and system for providing augmented reality using dynamic contents delivery - Google Patents

Server for processing of virtualization and system for providing augmented reality using dynamic contents delivery Download PDF

Info

Publication number
KR101013751B1
KR101013751B1 KR1020090062377A KR20090062377A KR101013751B1 KR 101013751 B1 KR101013751 B1 KR 101013751B1 KR 1020090062377 A KR1020090062377 A KR 1020090062377A KR 20090062377 A KR20090062377 A KR 20090062377A KR 101013751 B1 KR101013751 B1 KR 101013751B1
Authority
KR
South Korea
Prior art keywords
image
information
dcd
communication terminal
mobile communication
Prior art date
Application number
KR1020090062377A
Other languages
Korean (ko)
Other versions
KR20110004940A (en
Inventor
임성현
Original Assignee
주식회사 인스프리트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 인스프리트 filed Critical 주식회사 인스프리트
Priority to KR1020090062377A priority Critical patent/KR101013751B1/en
Publication of KR20110004940A publication Critical patent/KR20110004940A/en
Application granted granted Critical
Publication of KR101013751B1 publication Critical patent/KR101013751B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 카메라의 입력영상으로 이동통신 단말의 자세 정보를 추출하고, 이를 통해 위치기반의 가상 영상을 실제 영상에 합성시켜 증강현실 서비스를 제공하는 가상화 처리서버 및 DCD 컨텐츠를 이용한 증강현실 제공 시스템을 제공한다.The present invention extracts the posture information of the mobile communication terminal to the input image of the camera, through which the virtualization processing server and augmented reality providing system using a virtualization processing server and DCD content to provide augmented reality service by synthesizing a location-based virtual image to a real image to provide.

가상화 처리서버는 이동통신 단말로부터 입력된 제1 영상에서 기준영역을 선정하는 기준영역 선정부와, 제1 영상과 이동통신 단말의 카메라 위치 변화에 따라 입력된 제2 영상을 비교하고 제2 영상의 이동된 변위값을 측정하여 이동통신 단말의 자세정보를 추출하는 자세정보 추출부; 및 이동통신 단말의 위치정보 및 위치정보에 대응되는 컨텐츠를 이용하여 위치기반의 매쉬업 정보를 생성하고, 자세정보에 따른 이동 변위값이 적용된 가상 객체에 매쉬업 정보를 포함시켜 실제영상에 합성시킬 가상영상으로 생성하는 합성정보 생성부를 포함한다.The virtualization processing server compares the reference region selection unit for selecting a reference region from the first image input from the mobile communication terminal, the second image input according to the change in the camera position of the first image and the mobile communication terminal, and compares the second image. A posture information extracting unit which extracts posture information of the mobile communication terminal by measuring the shift value; And generating location-based mashup information using location information of the mobile communication terminal and contents corresponding to the location information, and including the mashup information in the virtual object to which the movement displacement value is applied according to the posture information. It includes a synthesis information generation unit to generate.

증강현실, AR(Augmented Reality), 가상현실, DCD(Dynamic Contents Delivery) Augmented Reality, AR (Augmented Reality), Virtual Reality, DCD (Dynamic Contents Delivery)

Description

가상화 처리서버 및 DCD 컨텐츠를 이용한 증강현실 제공 시스템{Server for processing of virtualization and system for providing augmented reality using dynamic contents delivery}Server for processing of virtualization and system for providing augmented reality using dynamic contents delivery}

본 발명은 카메라의 입력영상으로 이동통신 단말의 자세 정보를 추출하고, 이를 통해 위치기반의 가상 영상을 실제 영상에 합성시켜 증강현실 서비스를 제공하는 가상화 처리서버 및 DCD 컨텐츠를 이용한 증강현실 제공 시스템에 관한 것이다. The present invention extracts the posture information of the mobile communication terminal to the input image of the camera, and through this to a virtualization processing server and augmented reality providing system using a virtual processing server that provides augmented reality service by synthesizing a location-based virtual image to a real image It is about.

증강현실(AR; Augmented Reality)은 실제영상 위에 컴퓨터에 의해 생성된 영상 즉 가상의 컴퓨터 그래픽을 합성하여 사용자에게 제공하는 시각화 기술이다. 이 기법은 사용자에게 제공되는 정보가 현실세계 영상에 기반을 둔다는 점에서 컴퓨터에 의해 생성된 영상만을 사용자에게 제공하는 가상현실(VR; Virtual Reality)과 구분된다. Augmented Reality (AR) is a visualization technology that synthesizes a computer-generated image, ie, virtual computer graphics, on a real image and provides the same to a user. This technique is distinguished from Virtual Reality (VR), which provides the user with only computer-generated images in that the information provided to the user is based on real-world images.

일반적으로 컴퓨터 그래픽의 현실감은 실제영상에 미치지 못하기 때문에 증강현실은 가상현실 기술에 비해 보다 뛰어난 현실감을 제공한다. 또한 사용자에게 실제세계의 영상에 공간정보(spatial information)를 추가적으로 제공함으로서 신 속한 현장 상황 정보의 전달을 가능하게 한다.In general, augmented reality provides more realism than virtual reality technology because the reality of computer graphics is less than the actual image. In addition, by providing spatial information (spatial information) to the image of the real world to the user, it is possible to quickly transfer the on-site situation information.

증강현실 기술은 크게 카메라를 이용해 취득한 영상에서 특정한 패턴의 마커(marker)를 인식하여 카메라의 위치와 방향을 계산하는 방법과, GPS(Global Positioning System)와 자이로 센서 등을 사용하여 카메라의 위치와 방향을 결정하거나 사영 기하학을 응용하여 취득한 영상의 마커를 인식하여 추정하는 기법 등이 사용되고 있다.Augmented reality technology is a method of calculating the position and direction of the camera by recognizing a marker of a specific pattern in the image acquired using the camera, and the position and direction of the camera using a GPS (Global Positioning System) and a gyro sensor. A technique for determining and recognizing a marker of an image acquired by determining a target or applying a projective geometry is used.

그러나, 신체나 오브젝트에 의한 카메라와 마커 사이에 가려짐 (occlusion)현상과 마커의 급격한 움직임에 의한 트래킹 실패가 발생할 수 있으며, 자이로스코프와 가속도계와 같은 관성 센서를 이용할 경우, 데이터 갱신율(update rate)이 높아 빠르게 움직이는 오브젝트를 트래킹할 때에는 효과적이지만, 천천히 움직이거나 속도의 변화가 없을 경우 센서에서 나오는 신호 대 잡음비(SNR)가 낮기 때문에 트래킹할 때 시간이 경과할수록 오차가 누적되는 문제점이 있다.However, the tracking failure due to the occlusion between the camera and the marker by the body or the object and the rapid movement of the marker may occur. When using an inertial sensor such as a gyroscope and an accelerometer, the data update rate High tracking) is effective when tracking fast moving objects, but when moving slowly or there is no change in speed, the signal-to-noise ratio (SNR) from the sensor is low. Therefore, an error accumulates as time passes.

본 발명은 종래의 카메라 센서 및 마커를 이용하지 않고도 카메라의 위치 및 방향 등의 자세정보를 입력 영상만으로 추출할 수 있어, 센서의 오작동 및 오차로 인한 에러를 해소하고, 마커로 인한 가려짐 현상 및 트래킹 실패를 방지할 수 있는, 가상화 처리서버 및 DCD 컨텐츠를 이용한 증강현실 제공 시스템을 제공하는 데에 그 목적이 있다.The present invention can extract the posture information such as the position and the direction of the camera using only the input image without using the conventional camera sensor and marker, to solve the error due to the malfunction and error of the sensor, and the cover phenomenon due to the marker and An object of the present invention is to provide an augmented reality providing system using a virtualization processing server and DCD content, which can prevent tracking failures.

또한, 본 발명은 가상화 처리서버에서 실제영상에 합성할 가상영상에 대한 정보를 포함하는 합성 파라미터 정보를 생성하고, 이동통신 단말에서는 합성 파라미터 정보를 이용하여 실제영상에 가상영상을 합성한 합성영상을 생성하도록 구성함으로써, 기존에 문제되었던 이동통신 단말의 연산 처리량을 줄이고 보다 효과적인 증강 현실 서비스를 제공할 수 있는, 가상화 처리서버 및 DCD 컨텐츠를 이용한 증강현실 제공 시스템을 제공하는 데에 그 목적이 있다.In addition, the present invention generates the synthesis parameter information including the information on the virtual image to be synthesized to the real image in the virtualization processing server, the mobile communication terminal using the synthesis parameter information to synthesize the composite image synthesized with the virtual image to the real image It is an object of the present invention to provide augmented reality providing system using a virtualization processing server and DCD content, which can reduce the computational throughput of a mobile communication terminal and provide more effective augmented reality service.

또한, 본 발명은 이동통신 단말의 위치정보 및 해당 위치정보에 대응되는 위치기반의 DCD(Dynamic Contents Delivery) 컨텐츠를 바탕으로 실제영상에 합성시킬 가상영상을 생성함으로써, 지도정보, 뉴스, 날씨, 환율, 증권 등 실시간으로 반영되어야 할 다이나믹한 부가 정보와 함께 위치기반 정보 제공 서비스가 이루어져 한 단계 업그레이드된 증강현실 서비스를 제공할 수 있는, 가상화 처리서버 및 DCD 컨텐츠를 이용한 증강현실 제공 시스템을 제공하는 데에 그 목적이 있다.In addition, the present invention by generating a virtual image to be synthesized to the actual image based on the location information of the mobile communication terminal and the location-based Dynamic Content Delivery (DDC) content corresponding to the location information, map information, news, weather, exchange rate To provide augmented reality providing system using a virtualization processing server and DCD contents that can provide augmented reality service upgraded by providing location-based information providing service with dynamic additional information that should be reflected in real time such as securities and securities. Has its purpose.

또한, 본 발명은 이동통신 단말로부터 수신된 제1 영상 및 카메라 이동에 따라 수신된 제2 영상의 이동 변위 측정에 있어서 특징점 추출 및 이를 통한 기준 영역 기반의 이동 변위 측정이 이루어지도록 함으로써, 입력 영상만으로도 효율적인 자세정보 추출이 이루어질 수 있는, 가상화 처리서버 및 DCD 컨텐츠를 이용한 증강현실 제공 시스템을 제공하는 데에 그 목적이 있다. In addition, the present invention is to extract the feature point in the measurement of the movement displacement of the first image received from the mobile communication terminal and the second image received according to the camera movement and to measure the movement displacement based on the reference region based on this, even with the input image only An object of the present invention is to provide an augmented reality providing system using a virtualization processing server and DCD content, which can efficiently extract the attitude information.

상기 목적을 달성하기 위하여, 본 발명의 실시 예에 따른 가상화 처리서버는 이동통신 단말로부터 입력된 제1 영상에서 기준영역을 선정하는 기준영역 선정부와, 제1 영상과 이동통신 단말의 카메라 위치 변화에 따라 입력된 제2 영상을 비 교하고 제2 영상의 이동된 변위값을 측정하여 이동통신 단말의 자세정보를 추출하는 자세정보 추출부; 및 이동통신 단말의 위치정보 및 위치정보에 대응되는 컨텐츠를 이용하여 위치기반의 매쉬업 정보를 생성하고, 자세정보에 따른 이동 변위값이 적용된 가상 객체에 매쉬업 정보를 포함시켜 실제영상에 합성시킬 가상영상으로 생성하는 합성정보 생성부를 포함한다.In order to achieve the above object, the virtualization processing server according to an embodiment of the present invention, the reference region selection unit for selecting a reference region from the first image input from the mobile communication terminal, and the camera position change of the first image and the mobile communication terminal A posture information extracting unit which compares the inputted second image and extracts posture information of the mobile communication terminal by measuring a shift value of the second image; And generating location-based mashup information using location information of the mobile communication terminal and contents corresponding to the location information, and including the mashup information in the virtual object to which the movement displacement value is applied according to the posture information. It includes a synthesis information generation unit to generate.

상기 컨텐츠는 OMA(Open Mobile Alliance) 표준을 따르는 DCD(Dynamic Contents Delivery) 컨텐츠인 것을 특징으로 한다.The content is characterized as being Dynamic Contents Delivery (DDC) content conforming to the Open Mobile Alliance (OMA) standard.

상기 기준영역 선정부는 상기 제1 영상에서 블록단위로 특징점을 추출하고 상기 특징점의 개수가 가장 많은 블록을 상기 기준영역으로 선정하고, 상기 제1 영상의 기준 영역을 기준으로 상기 제2 영상에 상기 기준 영역이 존재하는 지 여부를 판단하고, 상기 제2 영상에 상기 기준 영역이 존재할 경우 상기 제2 영상의 이동된 변위값을 측정하여 상기 자세정보를 추출하는 것을 특징으로 한다.The reference region selecting unit extracts a feature point in units of blocks from the first image, selects the block having the largest number of feature points as the reference region, and references the reference image to the second image based on the reference region of the first image. The method determines whether the region exists and, when the reference region exists in the second image, measures the shifted displacement value of the second image to extract the posture information.

상기 자세정보 추출부는 상기 제2 영상에 상기 기준 영역이 존재하지 않을 경우 상기 제2 영상에서 블록단위의 특징점 추출을 수행하여 기준 영역을 재선정하고, 재선정된 상기 제2 영상의 기준 영역을 기준으로 상기 자세정보의 추출이 이루어지는 것을 특징으로 한다.The posture information extracting unit reselects a reference region by extracting feature points in units of blocks from the second image when the reference region does not exist in the second image, and based on the reference region of the reselected second image. The posture information may be extracted.

본 발명의 다른 실시 예에 따른 DCD 컨텐츠를 이용한 증강현실 제공 시스템은 실제영상과 가상영상을 합성한 합성영상을 생성하는 이동통신 단말과, 이동통신 단말로부터 수신한 입력 영상을 이용하여 자세정보를 측정하고 자세정보와 이동통신 단말의 위치정보 및 위치정보에 대응되는 DCD(Dynamic Contents Delivery) 컨텐츠를 바탕으로 실제영상에 합성시킬 가상영상을 생성하는 가상화 처리서버; 및 DCD 컨텐츠를 위치정보에 따라 DCD CP(Dynamic Contents Delivery Contents Provider)의 DCD 컨텐츠 서버로 요청하고 수신된 DCD 컨텐츠를 상기 가상화 처리서버로 전송하는 DCD 중계 서버를 포함한다.In an augmented reality providing system using DCD content according to another embodiment of the present invention, a posture information is measured using a mobile communication terminal for generating a composite image obtained by combining a real image and a virtual image, and an input image received from the mobile communication terminal. A virtualization processing server for generating a virtual image to be synthesized with a real image based on DCD content corresponding to posture information and position information and position information of a mobile communication terminal; And a DCD relay server for requesting DCD content to a DCD content server of a DCD Dynamic Contents Delivery Contents Provider (CPD) according to the location information and transmitting the received DCD content to the virtualization processing server.

상기 이동통신 단말은 GPS(Global Positioning System) 위성 측위 서비스를 바탕으로 상기 이동통신 단말의 위치정보를 측정하여 상기 가상화 처리서버로 전송하는 측위부를 포함한다.The mobile communication terminal includes a positioning unit for measuring the position information of the mobile communication terminal based on the Global Positioning System (GPS) satellite positioning service and transmitting it to the virtualization processing server.

상기 가상화 처리서버는 상기 이동통신 단말로부터 수신한 제1 영상과 이동통신 단말의 카메라 위치 변화에 따라 입력된 제2 영상을 비교하고 상기 제2 영상의 이동된 변위값을 측정하여 상기 이동통신 단말의 자세정보를 추출하는 자세정보 추출부; 및 상기 이동통신 단말의 위치정보 및 상기 위치정보에 대응되는 DCD 컨텐츠를 이용하여 매쉬업 정보를 생성하고, 상기 자세정보에 따른 이동 변위값이 적용된 가상 객체에 상기 매쉬업 정보를 포함시켜 실제영상에 합성시킬 상기 가상영상으로 생성하는 합성정보 생성부를 포함한다.The virtualization processing server compares the first image received from the mobile communication terminal and the second image input according to the change in the camera position of the mobile communication terminal, and measures the shifted displacement value of the second image. A posture information extraction unit for extracting posture information; And generate mashup information by using the location information of the mobile communication terminal and the DCD content corresponding to the location information, and include the mashup information in a virtual object to which the movement displacement value is applied according to the attitude information to synthesize the actual image. Synthesis information generation unit for generating the virtual image.

상기 DCD 중계 서버는 상기 DCD 컨텐츠 서버와 DCD 컨텐츠 채널과의 매핑 기능을 제공하는 DCD 인터페이스부를 포함한다.The DCD relay server includes a DCD interface unit that provides a mapping function between the DCD content server and a DCD content channel.

상기 DCD 중계 서버는 상기 DCD 컨텐츠 채널을 통해 위치정보에 따른 상기 DCD 컨텐츠를 상기 DCD 컨텐츠 서버에 요청하여 상기 DCD 컨텐츠를 수신하는 컨텐츠 수집부를 더 포함한다.The DCD relay server may further include a content collector which receives the DCD content by requesting the DCD content server according to the location information through the DCD content channel to the DCD content server.

상기 DCD 중계 서버는 OMA의 DCD 표준에 따라 컨텐츠의 포맷을 변경하는 컨 텐츠 포맷 변경부를 포함한다.The DCD relay server includes a content format changer for changing the format of the content according to the DCD standard of the OMA.

본 발명의 가상화 처리서버 및 DCD 컨텐츠를 이용한 증강현실 제공 시스템에 따르면 다음과 같은 효과가 있다.According to the augmented reality providing system using the virtualization processing server and DCD content of the present invention has the following effects.

첫째, 본 발명은 종래의 카메라 센서 및 마커를 이용하지 않고도 카메라의 위치 및 방향 등의 자세정보를 입력 영상만으로 추출할 수 있어, 센서의 오작동 및 오차로 인한 에러를 해소하고, 마커로 인한 가려짐 현상 및 트래킹 실패를 방지할 수 있는 장점이 있다.First, the present invention can extract the posture information such as the position and direction of the camera using only the input image without using the conventional camera sensor and marker, to solve the error due to the malfunction and error of the sensor, obscured by the marker There is an advantage that can prevent the phenomenon and tracking failure.

둘째, 가상화 처리서버에서 실제영상에 합성할 가상영상에 대한 정보를 포함하는 합성 파라미터 정보를 생성하고, 이동통신 단말에서는 합성 파라미터 정보를 이용하여 실제영상에 가상영상을 합성한 합성영상을 생성하도록 구성함으로써, 기존에 문제되었던 이동통신 단말의 연산 처리량을 줄이고 보다 효과적인 증강 현실 서비스를 제공할 수 있는 장점도 있다.Secondly, the virtualization processing server generates synthesis parameter information including information on the virtual image to be synthesized with the real image, and the mobile communication terminal is configured to generate the synthesized image synthesized with the virtual image using the synthesis parameter information. By doing so, there is an advantage of reducing the computational throughput of the mobile communication terminal, which has been a problem, and providing an augmented reality service more effectively.

셋째, 이동통신 단말의 위치정보 및 해당 위치정보에 대응되는 위치기반의 DCD(Dynamic Contents Delivery) 컨텐츠를 바탕으로 실제영상에 합성시킬 가상영상을 생성함으로써, 지도정보, 뉴스, 날씨, 환율, 증권 등 실시간으로 반영되어야 할 다이나믹한 부가 정보와 함께 위치기반 정보 제공 서비스가 이루어져 한 단계 업그레이드된 증강현실 서비스를 제공할 수 있는 장점도 있다.Third, map information, news, weather, exchange rate, securities, etc. are generated by generating a virtual image to be synthesized with the real image based on the location information of the mobile communication terminal and the location-based Dynamic Contents Delivery (DDC) content corresponding to the location information. The location-based information service is provided along with the dynamic additional information to be reflected in real time, which provides an upgraded augmented reality service.

넷째, 이동통신 단말로부터 수신된 제1 영상 및 카메라 이동에 따라 수신된 제2 영상의 이동 변위 측정에 있어서 특징점 추출 및 이를 통한 기준 영역 기반의 이동 변위 측정이 이루어지도록 함으로써, 입력 영상만으로도 효율적인 자세정보 추출이 이루어질 수 있는 장점도 있다. Fourth, in the movement displacement measurement of the first image received from the mobile communication terminal and the second image received according to the camera movement, feature point extraction and reference displacement based movement displacement measurement are performed, thereby making it possible to perform efficient posture information using only the input image. There is also an advantage that extraction can take place.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and methods for achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms, and only the embodiments of the present invention make the disclosure of the present invention complete and the general knowledge in the technical field to which the present invention belongs. It is provided to fully convey the scope of the invention to those skilled in the art, and the present invention is defined only by the scope of the claims. Like reference numerals refer to like elements throughout.

도 1은 본 발명의 일 실시 예에 따른 증강현실을 제공하는 개념도이다. 1 is a conceptual diagram for providing augmented reality according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 이동통신 단말(100)은 촬영된 영상 송신, 데이터 정보 관리 및 3차원 영상 합성 기능을 수행하며, 가상화 처리서버(200)는 영상처리, 자세정보 추출, 합성 파라미터 정보 생성을 수행하게 된다. As shown in FIG. 1, the mobile communication terminal 100 performs captured image transmission, data information management, and 3D image synthesis, and the virtualization processing server 200 performs image processing, posture information extraction, and synthesis parameter information. You will be creating.

여기서 이동통신 단말(100)은 휴대폰, UMPC(Ultra Mobile PC), PDA, 및 디지털 카메라와 같이 카메라를 내장하거나 장착할 수 있는 단말기를 포함한다. 그리고 이동통신 단말(100)과 가상화 처리서버(200) 간의 통신 방식에는 무선 랜, WCDMA, Wibro, HSDPA, Blue tooth 등이 이용될 수 있다.In this case, the mobile communication terminal 100 includes a mobile terminal, a UMPC (Ultra Mobile PC), a PDA, and a terminal capable of embedding or mounting a camera, such as a digital camera. In addition, a wireless LAN, WCDMA, Wibro, HSDPA, Blue tooth, etc. may be used as a communication method between the mobile communication terminal 100 and the virtualization processing server 200.

본 발명의 실시 예에서 이동통신 단말(100)은 실제영상과 가상영상을 합성한 합성영상을 생성한다.In an embodiment of the present invention, the mobile communication terminal 100 generates a synthesized image obtained by synthesizing a real image and a virtual image.

그리고, 가상화 처리서버(200)는 이동통신 단말(100)로부터 수신한 입력 영상을 이용하여 자세정보를 측정하고 자세정보와 이동통신 단말(100)의 위치정보 및 위치 정보에 따른 컨텐츠를 이용하여 실제영상에 합성시킬 가상영상을 생성한다. 여기서, 가상영상은 합성 파라미터 정보에 포함되어 이동통신 단말(100)로 전송되고, 이동통신 단말(100)은 합성 파라미터 정보를 통해 가상영상을 실제영상에 합성시키게 된다.In addition, the virtualization processing server 200 measures posture information by using the input image received from the mobile communication terminal 100 and actually uses the posture information and contents according to the location information and the location information of the mobile communication terminal 100. Create a virtual image to be composited into the image. Here, the virtual image is included in the synthesis parameter information and transmitted to the mobile communication terminal 100, and the mobile communication terminal 100 synthesizes the virtual image into the real image through the synthesis parameter information.

이하, 본 발명의 상세한 원리를 각 장치의 구성요소에 대한 설명과 함께 보다 구체적으로 설명하기로 한다.Hereinafter, the detailed principle of the present invention will be described in more detail together with the description of the components of each device.

도 2는 본 발명의 일 실시 예에 따른 영상 합성 장치의 블록도이다.2 is a block diagram of an image synthesizing apparatus according to an embodiment of the present invention.

도 2에 도시된 바와 같이 영상 합성 장치(101)는 영상 처리부(110), 제1 송수신부(120), 측위부(130), 영상 합성부(140), 영상 출력부(150), 및 제1 정보 저장부(160)를 포함하고, 영상 합성 장치(101)는 이동통신 단말(100)에 포함되어 구현된다. 이하 각 구성요소에 대해서 보다 상세히 설명하기로 한다.As shown in FIG. 2, the image synthesizing apparatus 101 includes an image processor 110, a first transceiver 120, a positioning unit 130, an image synthesizer 140, an image output unit 150, and an image processor. 1 includes the information storage unit 160, the image synthesizing apparatus 101 is included in the mobile communication terminal 100 is implemented. Hereinafter, each component will be described in more detail.

영상 처리부(110)는 이동통신 단말(100)의 카메라를 통해 촬영된 영상에 대한 영상 처리를 수행하며, 예를 들어 촬영된 영상을 캡쳐하고 영상에 대한 압축을 수행한다.The image processor 110 performs image processing on the image photographed by the camera of the mobile communication terminal 100, and captures the captured image and compresses the image.

제1 송수신부(120)는 가상화 처리서버(200)와 데이터 송수신을 수행한다. 예를 들어 제1 송수신부(120)는 영상 처리부(110)의 압축 영상 및 후술될 측위 부(130)가 측정한 이동통신 단말(100)의 위치정보(방향, 각, 이동벡터 등)를 가상화 처리서버(200)로 전송하거나 가상화 처리서버(200)로부터 합성 파라미터 정보를 포함하는 가상영상을 수신한다. 여기서, 합성 파라미터 정보는 실제영상에 위치기반의 가상 객체를 합성하기 위한 정보들을 포함한다.The first transceiver 120 performs data transmission and reception with the virtualization processing server 200. For example, the first transceiver 120 virtualizes the compressed image of the image processor 110 and the location information (direction, angle, motion vector, etc.) of the mobile communication terminal 100 measured by the positioning unit 130 to be described later. It transmits to the processing server 200 or receives a virtual image including the synthesis parameter information from the virtualization processing server 200. Here, the composition parameter information includes information for synthesizing the location-based virtual object in the real image.

측위부(130)는 GPS와 같은 위성 측위 서비스를 바탕으로 이동통신 단말(100)의 위치 정보를 측정한다. 이러한, GPS의 위경도 값은 후술될 사용자 위치기반의 매쉬업 정보 연동을 위해 사용된다.The positioning unit 130 measures location information of the mobile communication terminal 100 based on a satellite positioning service such as GPS. The latitude and longitude value of the GPS is used for interworking mashup information based on user location, which will be described later.

영상 합성부(140)는 실제영상에 가상영상을 합성한 합성영상을 생성한다. 즉 영상 합성부(140)는 가상화 처리서버(200)로부터 수신한 합성 파라미터 정보를 이용하여 실제영상에 가상영상을 합성한 합성영상을 생성하게 된다. 이때 2차원 또는 3차원 객체 렌더링(object rendering)이 수행된다.The image synthesizer 140 generates a synthesized image obtained by synthesizing the virtual image with the real image. That is, the image synthesizing unit 140 generates a synthetic image obtained by synthesizing the virtual image with the real image using the synthesis parameter information received from the virtualization processing server 200. At this time, two-dimensional or three-dimensional object rendering is performed.

영상 출력부(150)는 실제영상에 가상 객체를 합성한 합성영상을 화면에 출력한다.The image output unit 150 outputs the synthesized image obtained by synthesizing the virtual object to the real image on the screen.

제1 정보 저장부(160)는 카메라가 촬영한 영상, 이동통신 단말(100)의 위치정보, 가상화 처리서버(200)의 IP(Internet Protocol)정보, 영상 합성을 위한 알고리즘, 합성 파라미터 정보 등 영상 합성을 위한 각종 데이터를 저장한다.The first information storage unit 160 is an image captured by the camera, the location information of the mobile communication terminal 100, the IP (Internet Protocol) information of the virtualization processing server 200, the image synthesis algorithm, the synthesis parameter information Stores various data for synthesis.

도 3은 본 발명의 일 실시 예에 따른 합성 파라미터 추출장치의 블록도이다.3 is a block diagram of a synthesis parameter extraction apparatus according to an embodiment of the present invention.

합성 파라미터 추출장치(201)는 제2 송수신부(210), 영상 변환부(220), 기준영역 선정부(230), 자세정보 추출부(240), 합성정보 생성부(250), 및 제2 정보 저 장부(260)를 포함하고, 합성 파라미터 추출장치(201)는 가상화 처리서버(200)에 포함되어 구현된다.The synthesis parameter extractor 201 includes a second transceiver 210, an image converter 220, a reference region selector 230, a posture information extractor 240, a synthesis information generator 250, and a second receiver. The information storage unit 260 is included, and the synthesis parameter extractor 201 is included in the virtualization processing server 200 and implemented.

제2 송수신부(210)는 이동통신 단말(100)과 데이터 송수신을 수행하며, 예를 들어 제1 송수신부(120)로부터 영상 및 이동통신 단말(100)의 위치정보를 수신하거나, 이동통신 단말(100)로 합성 파라미터 정보를 전송한다.The second transceiver 210 transmits / receives data with the mobile communication terminal 100, and receives the image and location information of the mobile communication terminal 100 from the first transceiver 120, for example. The synthesis parameter information is transmitted to 100.

또한, 다른 실시 예에서 제2 송수신부(210)는 후술될 DCD(Dynamic Contents Delivery) 서버(300)와 통신을 수행하면서 DCD 컨텐츠 채널에 부합하는 DCD 컨텐츠를 수신할 수 있다. 여기서, DCD 컨텐츠는 OMA(Open Mobile Alliance) 표준을 따르며, 이에 대해서는 도 10 및 도 11에서 구체적으로 후술한다.Also, in another embodiment, the second transceiver 210 may receive DCD content corresponding to a DCD content channel while communicating with a dynamic content delivery server (DCD) 300 to be described later. Here, the DCD content conforms to the Open Mobile Alliance (OMA) standard, which will be described later in detail with reference to FIGS. 10 and 11.

영상 변환부(220)는 입력 영상을 수신하여 압축을 해제하고, RGB(Red, Green, Blue) 형태의 입력 영상을 HLS(Hue, Lightness, Saturation) 형태의 입력 영상으로 변환하여, 후술될 기준영역 선정부(230)를 통해 정확하고 안정적인 특징점 추출이 수행되도록 한다.The image converter 220 receives the input image, decompresses it, converts the input image in the form of RGB (Red, Green, Blue) into the input image in the form of HLS (Hue, Lightness, Saturation), and a reference region to be described later. Through the selector 230, accurate and stable feature point extraction is performed.

기준영역 선정부(230)는 입력 영상에서 특징점 추출(Feature Points Extraction)을 수행하고, 특징점의 개수가 가장 많은 블록을 기준 영역으로 선정한다. 이때, 전역 특징점 추출 방법이 사용될 수 있으며, 그 중에 영상의 코너점을 특징점으로 하는 코너 포인트를 이용한 특징점 추출 방법이 이루어질 수 있다. 코너 포인트를 사용할 경우, 입력 영상 코너에서 코너 포인트를 잡아서 각 포인트 간의 거리를 비율로 잡아놓으면 해당 비율과 같은 비율을 가지는 영상은 동일한 영상일 가능성이 높다고 판단될 수 있다.The reference region selector 230 performs feature point extraction on the input image and selects the block having the largest number of feature points as the reference region. In this case, a global feature point extraction method may be used, and a feature point extraction method using a corner point having the corner point of the image may be performed. In the case of using a corner point, if a corner point is taken from the input image corner and the distance between each point is set as a ratio, it may be determined that an image having the same ratio as that ratio is likely to be the same image.

또한, 예컨대 건물 외곽이나 창틀의 모서리 등 픽셀 밝기가 급격하게 변하는 점이거나 무늬가 뚜렷하여 텍스처가 뚜렷할 경우 특징점 추적의 높은 신뢰도를 기대할 수 있다. 그리고, 특징점 추적에 있어서 영상의 밝기값의 그래디언트를 이용하여 특징점을 추적하는 Lucas-Kanade 알고리즘 및 ARToolKit 와 같은 공개된 소프트웨어들이 이용될 수 있다.In addition, high reliability of feature tracking can be expected when the brightness of pixels such as the edge of a building or the edge of a window frame changes sharply or the texture is clear due to a distinctive pattern. In the feature tracking, open software such as Lucas-Kanade algorithm and ARToolKit for tracking feature points using gradients of image brightness values can be used.

또한, 상술된 바와 같이, 입력 영상에서 종횡으로 블록이 나뉘어져 블록단위의 특징점 추출이 이루어지고, 가장 많은 특징점을 가지고 있는 블록이 기준 영역으로 선정될 수 있다.In addition, as described above, the block is divided vertically and horizontally in the input image to extract feature points in units of blocks, and a block having the most feature points may be selected as a reference region.

그리고, 기준영역 선정부(230)는 각 방위별로 기준영역을 생성할 수 있으며, 이러한 방위별 기준 영역은 GPS만을 가진 이동통신 단말(100) 환경에서 사용자의 최초 이동벡터로는 최초 방위각만 검출되며, 사용자의 GPS 변화가 없는 정지 상태의 같은 위치에서 사용자 카메라 이동에 의한 방위는 측정할 수 없기 때문에, 이동통신 단말(100)에 탑재된 카메라 영상만을 가지고 사용자가 향하고 있는 최초 방위각을 결정하기 위해서는 사용자의 GPS 이동벡터에 의한 사용자가 바라보는 각을 추출해야 카메라의 촬영 면에 따라 다른 가상 삼차원 객체를 합성할 수 있기 때문이다.In addition, the reference region selector 230 may generate a reference region for each orientation, and the orientation region for each orientation may detect only the first azimuth as the first movement vector of the user in the mobile communication terminal 100 environment having only GPS. In order to determine the first azimuth angle to which the user is directed, using only the camera image mounted in the mobile communication terminal 100, since the bearing due to the movement of the user's camera cannot be measured at the same position in the stationary state without the change of the user's GPS. This is because it is possible to synthesize different virtual three-dimensional objects according to the shooting surface of the camera by extracting the angle viewed by the user by the GPS motion vector of the camera.

자세정보 추출부(240)는 입력 영상을 이용하여 자세정보를 추출한다. 즉, 자세정보 추출부(240)는 상기 기준 영역이 선정된 입력 영상의 이미지(이하, 제1 영상이라 함)과 이동통신 단말의 카메라 위치 변화에 따라 입력된 영상의 이미지(이하, 제2 영상이라 함)에 있어서, 제2 영상에 제1 영상의 기준 영역이 존재하고 있 는 지 여부를 판단하고, 제2 영상에 기준 영역이 존재할 경우 제1 영상의 기준 영역으로부터 이동된 변위를 측정하여 자세정보(수평 및 수직 거리, 방위각 등)를 추출할 수 있다. 이때 기준 영역의 존재 여부의 판단은 기준 영역의 중심을 원점으로 하여 제2 영상에 해당 원점이 포함되어 있는 지 여부에 따라 판단될 수 있다.The posture information extractor 240 extracts posture information using the input image. That is, the posture information extractor 240 may include an image of the input image (hereinafter, referred to as a first image) in which the reference region is selected and an image of an input image (hereinafter, referred to as a second image) according to a camera position change of the mobile communication terminal. In this case, it is determined whether the reference region of the first image exists in the second image, and if the reference region exists in the second image, the displacement moved from the reference region of the first image is measured. Information (horizontal and vertical distances, azimuths, etc.) can be extracted. In this case, the existence of the reference region may be determined based on whether the corresponding origin is included in the second image based on the center of the reference region.

그리고, 자세정보 추출부(240)는 제2 영상에 기준 영역이 존재하지 않는 경우, 새로운 방위로 인식하여 방위각 아이디를 새로 부여하고 특징점 추출을 통한 기준 영역을 다시 검출하여 저장하게 된다. 이때, 마지막 입력 영상 프레임(제2 영상)의 기준 영역을 기준으로 상하 좌우 등과 같은 카메라의 상대적 이동방향이 추정되어진다. When the reference region does not exist in the second image, the posture information extractor 240 recognizes the new orientation and gives a new azimuth ID, and detects and stores the reference region again through feature point extraction. In this case, relative movement directions of the camera such as up, down, left, right, etc. are estimated based on the reference region of the last input image frame (second image).

여기서, 새로운 방위각 아이디란 카메라로 볼 수 있는 입력 영상의 화각(FOV; Field-Of-View)은 한정되어 있기 때문에 각 화각에 따라 보여지는 다수의 영상 면을 관리하기 위한 아이디로 정의될 수 있다.Here, the new azimuth ID is a field-of-view (FOV) of the input image that can be viewed by the camera, and thus can be defined as an ID for managing a plurality of image planes displayed according to the angle of view.

또한, 자세정보 추출부(240)는 제2 영상에 기준 영역이 존재할 경우, 제1 영상의 기준 영역으로부터 이동된 변위를 측정하여 자세정보를 추출하고, 이를 이용하여 객체에 적용시킬 객체 합성 변위를 산정한다. 여기서, 객체 합성 변위는 실제영상에 합성할 가상 객체의 이동 변위를 의미하며, 이에 대해서는 도 7을 참조하기 바란다.In addition, when the reference region exists in the second image, the posture information extractor 240 extracts the posture information by measuring the displacement moved from the reference region of the first image, and uses the same to calculate the object composition displacement to be applied to the object. Calculate Here, the object composition displacement refers to the movement displacement of the virtual object to be synthesized in the real image, and refer to FIG. 7.

합성정보 생성부(250)는 이동통신 단말(100)의 위치정보 및 위치정보에 따른 컨텐츠를 이용하여 매쉬업 정보를 생성하고, 또한 자세정보에 따른 이동변위값(객체 합성 변위값)이 적용된 가상 객체에 매쉬업 정보를 포함시켜 실제영상에 합성시 킬 가상영상을 생성한다. 그리고, 합성정보 생성부(250)는 합성 파라미터 정보에 가상영상을 포함시켜 가상화 처리서버(200)로 전송하게 된다.The composite information generation unit 250 generates mashup information using the location information of the mobile communication terminal 100 and the contents according to the location information, and also applies the displacement value (object compound displacement value) according to the posture information. The mashup information is included in the virtual image to be synthesized in the real image. The synthesis information generation unit 250 includes the virtual image in the synthesis parameter information and transmits the virtual image to the virtualization processing server 200.

여기서 매쉬업 정보는 영상이 촬상된 지역과 관련된 컨텐츠를 위치정보를 이용하여 추출한 위치기반 정보로서, 상기 컨텐츠에는 지도정보, 교통정보, 부동산정보, 지역정보, 음식점, 숙박시설, 주유소, 은행, 기관 등의 정보들이 포함될 수 있으며, 다양한 가상 객체와 함께 부가 정보로 제공될 수 있다.Here, the mashup information is location-based information obtained by using location information to extract content related to the region where the image is captured. The content includes map information, traffic information, real estate information, local information, restaurants, accommodations, gas stations, banks, institutions, etc. Information may be included and may be provided as additional information along with various virtual objects.

상기 가상 객체는 2차원 또는 3차원 이미지, 비디오 매체, 음악이나 음향 효과와 같은 청각 매체, 또는 촉각 매체일 수 있다.The virtual object may be a two-dimensional or three-dimensional image, a video medium, an auditory medium such as music or sound effects, or a tactile medium.

또한, 이러한 위치정보를 통해 영상이 촬영된 지역과 관련된 부가정보를 추출할 경우 실시간으로 부가정보들이 변경될 수 있으므로, 보다 정확한 매쉬업 정보를 생성할 필요성이 있다. 예를 들어, 지도정보, 뉴스, 날씨 등의 정보들은 실시간으로 변경될 수 있고, 지도정보가 변경될 경우 실시간으로 변경된 지도정보가 영상이 촬영된 지역과 매칭되어 매쉬업 정보로 생성되도록 실시간 지도정보가 가상화 처리서버(200)로 전달되어야 한다. In addition, when the additional information related to the area where the image is captured is extracted through the location information, the additional information may be changed in real time, and thus, it is necessary to generate more accurate mashup information. For example, information such as map information, news, weather, etc. may be changed in real time, and when the map information is changed, the real time map information is generated so that the changed map information in real time is matched with the region where the image is captured and generated as mashup information. Must be delivered to the virtualization processing server 200.

따라서, 상기 컨텐츠는 다른 실시 예에서 DCD 컨텐츠일 수 있으며, 위치정보에 대응되는 실시간 DCD 컨텐츠가 DCD 중계 서버(300)로부터 전송되어 매쉬업 정보 생성에 이용할 수 있다. 이에 대해서는 도 10 및 도 11에서 보다 구체적으로 설명하기로 한다.Therefore, the content may be DCD content in another embodiment, and real-time DCD content corresponding to location information may be transmitted from the DCD relay server 300 to be used for generating mashup information. This will be described in more detail with reference to FIGS. 10 and 11.

제2 정보 저장부(260)는 자세정보, 영상 처리 알고리즘, 이동통신 단말(100)로부터 수신한 영상, 픽셀 이동거리에 따른 칼리브레이션된 평균 각도를 나타내는 룩업 테이블, 가상 객체, 위치정보, 컨텐츠 정보 등 합성 파라미터 정보 생성에 필요한 각종 정보들을 저장한다. The second information storage unit 260 may include posture information, an image processing algorithm, an image received from the mobile communication terminal 100, a lookup table indicating a calibrated average angle according to the pixel moving distance, a virtual object, location information, content information, and the like. Stores various information required for generating synthesis parameter information.

여기서, 다른 실시 예에서 제2 정보 저장부(260)는 이동통신 단말(100)의 가입자 정보를 포함할 수 있으며, 이동통신 단말(100)의 가입자 정보는 등록한 DCD 컨텐츠 채널, 단말기 정보, 사용자 아이디 등의 정보를 포함한다.Here, in another embodiment, the second information storage unit 260 may include subscriber information of the mobile communication terminal 100, and the subscriber information of the mobile communication terminal 100 may include a registered DCD content channel, terminal information, and user ID. It includes information such as.

따라서, 가상화 처리서버(200)가 이동통신 단말(100)의 가입자 정보를 위치 정보에 포함시켜 DCD 중계 서버(300)로 전송하면, 후술될 DCD 중계 서버(300)는 해당 정보를 통해 사용자가 등록한 컨텐츠 채널에 부합하는 DCD 컨텐츠를 검색하여 데이터 푸쉬 방식등으로 가상화 처리서버(200)로 제공하게 되고, 가상화 처리서버(200)는 해당 DCD 컨텐츠를 포함한 매쉬업 정보를 생성하게 된다.Therefore, when the virtualization processing server 200 includes the subscriber information of the mobile communication terminal 100 in the location information and transmits it to the DCD relay server 300, the DCD relay server 300 to be described later is registered by the user through the corresponding information. The DCD content corresponding to the content channel is searched and provided to the virtualization processing server 200 through a data push method, and the virtualization processing server 200 generates mashup information including the corresponding DCD content.

도 4는 본 발명의 일 실시 예에 따른 증강현실 제공 방법의 순서도이다.Figure 4 is a flow chart of a method for providing augmented reality according to an embodiment of the present invention.

먼저 이동통신 단말(100)의 카메라가 초기화되고, 사용자가 카메라를 이용하여 영상을 촬영하면 영상 캡쳐가 이루어지고, 해당 영상에 대한 압축이 이루어져 가상화 처리서버(200)로 전송된다(S11~S14). 이때, GPS와 같은 위성 측위 서비스를 바탕으로 측정된 이동통신 단말(100)의 위치정보(방위, 각, 최초이동벡터 등)가 함께 전송될 수 있다.First, the camera of the mobile communication terminal 100 is initialized, and when the user captures an image by using the camera, the image is captured, and the compression is performed on the corresponding image and transmitted to the virtualization processing server 200 (S11 to S14). . In this case, the position information (bearing, angle, initial movement vector, etc.) of the mobile communication terminal 100 measured based on a satellite positioning service such as GPS may be transmitted together.

다음으로, 가상화 처리서버(200)는 수신한 입력 영상에 대해 압축 해제 및 영상 처리를 수행한다(S15). 여기서, 가상화 처리서버(200)는 RGB 형태의 입력 영상을 HLS 형태의 입력 영상으로 변환하는 영상 처리 프로세스를 수행할 수 있다.Next, the virtualization processing server 200 performs decompression and image processing on the received input image (S15). Here, the virtualization processing server 200 may perform an image processing process of converting an RGB input image into an HLS input image.

그리고, 가상화 처리서버(200)는 입력 영상과 위치정보 및 위치정보에 대응되는 컨텐츠를 이용하여 가상영상을 포함하는 합성 파라미터 정보를 생성한다(S16).The virtualization processing server 200 generates synthesis parameter information including the virtual image using the input image, the location information, and the content corresponding to the location information (S16).

이때, 합성 파라미터 정보를 생성하는 세부적인 과정은 도 5에서 구체적으로 설명하기로 한다.In this case, a detailed process of generating the synthesis parameter information will be described in detail with reference to FIG. 5.

다음으로, 가상화 처리서버(200)는 생성된 합성 파라미터 정보를 이동통신 단말(100)로 전송한다(S17).Next, the virtualization processing server 200 transmits the generated synthesis parameter information to the mobile communication terminal 100 (S17).

그러면, 이동통신 단말(100)은 합성 파라미터 정보를 수신하고 객체 렌더링을 통해 실제영상에 가상영상을 합성한 합성영상으로 생성한다(S18~S19).Then, the mobile communication terminal 100 receives the synthesis parameter information and generates a composite image synthesized with the virtual image to the real image through the object rendering (S18 ~ S19).

이후, 생성된 합성되어 증강된 영상이 화면에 출력된다 (S20).Thereafter, the generated synthesized and augmented image is output on the screen (S20).

도 5는 본 발명의 일 실시 예에 따른 합성 파라미터 정보 생성의 세부적인 과정을 도시한다. 도 6은 특징점 추출을 통한 기준 영역 선정의 예를 도시하고, 도 7은 카메라 이동시 가상 객체의 이동 변위 측정의 개념도이다.5 illustrates a detailed process of generating synthesis parameter information according to an embodiment of the present invention. 6 illustrates an example of selecting a reference region by extracting feature points, and FIG. 7 is a conceptual diagram of measuring movement displacement of a virtual object when a camera moves.

도 5에 있어서, 상기 합성 파라미터 생성의 구체적인 과정을 설명하자면, 먼저 입력 영상을 수신한 기준영역 선정부(230)는 입력 영상에서 특징점 추출을 수행하고 이를 통해 기준 영역을 선정한다(S51). Referring to FIG. 5, a detailed process of generating the synthesis parameter will be described. First, the reference region selecting unit 230 receiving the input image performs feature point extraction on the input image and selects the reference region through the input region (S51).

이때, 도 6에 도시된 바와 같이, 영상 변환부(220)는 입력 영상이 RGB 형태인 경우 이를 HLS형태로 변환하고, 기준영역 선정부(230)는 입력 영상에 대해 블록당 특징점 추출을 수행하고, 해당 블록 중 특징점의 개수가 가장 많은 블록을 기준 영역(40)으로 선정하게 된다.In this case, as shown in FIG. 6, when the input image is in the RGB form, the image converter 220 converts the input image into the HLS form, and the reference region selector 230 performs per-block feature point extraction on the input image. The block having the largest number of feature points among the corresponding blocks is selected as the reference area 40.

다음으로, 상기 (초기) 기준 영역이 포함된 입력 영상(제1 영상)과 카메라 이동에 따라 다음으로 입력된 영상(제2 영상)의 프레임에 있어서 자세정보 추출이 이루어지는 데, 이를 위해 가상화 처리서버는 제2 영상에 제1 영상의 기준 영역이 존재하고 있는 지 여부를 판단한다(S52).Next, posture information extraction is performed on frames of the input image (first image) including the (initial) reference region and the next input image (second image) according to the movement of the camera. In operation S52, the controller determines whether the reference region of the first image exists in the second image.

이때, 자세정보 추출부(240)는 제2 영상에 기준 영역이 존재하지 않는 경우, 새로운 방위로 인식하여 방위각 아이디를 새로 부여하고(S53), 제2 영상에서 특징점 추출을 통한 기준 영역의 재선정 과정을 거치게 된다(S54). In this case, when the reference region does not exist in the second image, the posture information extractor 240 recognizes the new orientation as a new orientation (S53), and reselects the reference region by extracting the feature point from the second image. It goes through the process (S54).

한편, 자세정보 추출부(240)는 제2 영상에 기준 영역이 존재할 경우, 제2 영상의 이동된 변위(즉 객체 합성 변위)를 측정하여 이동통신 단말의 자세정보를 추출한다(S55). 여기서, 객체 합성 변위는 실제영상에 합성할 가상 객체의 이동 변위 값을 의미한다.Meanwhile, when the reference area exists in the second image, the posture information extractor 240 extracts the posture information of the mobile communication terminal by measuring the shifted displacement (that is, object synthesis displacement) of the second image (S55). Here, the object composition displacement refers to the displacement value of the virtual object to be synthesized in the real image.

구체적으로, 도 7에 도시된 바와 같이, 기준영역을 바탕으로 가상 객체의 이동 변위가 측정될 수 있다.Specifically, as shown in FIG. 7, the displacement of the virtual object may be measured based on the reference area.

보다 구체적으로 설명하자면, 도 7의 (a)는 원본 객체이고, (b)는 ∠Op가 적용된 객체, (c)는 ∠Ot가 적용된 객체, (d)는 △S가 적용된 객체의 모습을 개념적으로 도시하고 있다. 여기서 상기 ∠Op는 객체의 가로축 회전 각도를, ∠Ot는 객체의 세로축 회전 각도를, △S는 객체 원본 크기(A1)와 카메라 이동 후의 크기(A2)에 대한 변동 비율(A1/A2)을 나타내며, 이러한 객체 합성 변위값(∠Op, ∠Ot, △S)은 카메라가 객체를 촬영하는 거리와 시각에 따른 가상 객체의 회전 및 크기 변환에 적용되어진다.More specifically, (a) of FIG. 7 is an original object, (b) is an object to which ∠Op is applied, (c) is an object to which ∠Ot is applied, and (d) is a conceptual view of an object to which ΔS is applied. As shown. Where ∠Op is the horizontal rotation angle of the object, ∠Ot is the vertical rotation angle of the object, and ΔS is the variation ratio (A1 / A2) with respect to the original size of the object (A1) and the size (A2) after camera movement. The object composition displacement values ∠Op,, Ot, and ΔS are applied to rotation and size conversion of the virtual object according to the distance and time at which the camera photographs the object.

또한, 기준영역을 중심으로 가로 및 세로축 픽셀 이동거리에 따른 칼리브레이션된 평균 각도를 나타내는 표 1의 룩업 테이블이 이용되어 가상 객체에 적용될 수 있다.In addition, the lookup table of Table 1 representing a calibrated average angle according to horizontal and vertical pixel moving distances around the reference area may be used to apply to the virtual object.

(표 1)(Table 1)

입력: 가로축 픽셀 이동거리Input: Horizontal pixel travel 출력: 칼리브레이션된 평균 각도Output: Calibrated Average Angle 00 00 3030 55 6060 1515 9090 3030 120120 5050 75~범위 초과후 신규 방위각 생성Create new azimuth after 75 ~ range 입력: 세로축 픽셀 이동거리Input: vertical pixel travel 출력: 칼리브레이션된 평균 각도Output: Calibrated Average Angle 00 00 -20-20 -3-3 -40-40 -9-9 -60-60 -18-18 -80-80 -30-30 -100이상-100 or more -45~범위 초과시 상하 한계 초과-45 ~ Exceeded upper and lower limits when out of range

상기 표 1에 있어서, 입력 값으로 가로축 또는 세로축 픽셀 이동거리가 입력되면 그에 따른 칼리브레이션된 평균 각도가 출력값으로 산출된다. 따라서, 룩업 테이블의 출력 값을 가지고 3차원 가상 객체에 회전변환(상하좌우)을 적용하여 카메라의 보는 시야에 따라 3차원 가상 객체 영상을 생성할 수 있게 된다. 이때, 상기의 표 1에서 나오지 않은 픽셀이동거리 입력 값들은 보간법에 의해 그 출력값이 결정되어 있다.In Table 1, when the horizontal or vertical pixel movement distance is input as the input value, the calibrated average angle is calculated as an output value. Therefore, by applying a rotation transformation (up, down, left, right) to the 3D virtual object with the output value of the lookup table, it is possible to generate a 3D virtual object image according to the viewing field of the camera. At this time, the pixel shift distance input values not shown in Table 1 are determined by the interpolation method.

다음으로, 합성정보 생성부(250)는 이동통신 단말(100)로부터 수신한 위치정 보 및 이에 대응되는 컨텐츠를 이용하여 매쉬업 정보를 생성한다(S56). 여기서, 매쉬업 정보에는 입력 영상이 촬상된 지역에 관련된 지도정보 및 각종 부가 정보들 즉, 카메라 촬상 지점의 지리정보, 시설물의 높이, 종류, 층수 등의 주변 정보가 함께 포함될 수 있다.Next, the synthesis information generation unit 250 generates mashup information by using the location information received from the mobile communication terminal 100 and the content corresponding thereto (S56). Here, the mashup information may include map information and various additional information related to the region where the input image is captured, that is, geographic information of the camera imaging point, surrounding information such as height, type, and number of floors of the facility.

이때, 다른 실시 예에서 합성정보 생성부(250)는 DCD 중계 서버(300)로부터 제공받은 위치기반의 DCD 컨텐츠(예컨대 실시간 지도정보, 교통정보 등)를 이용하여 매쉬업 정보를 생성할 수 있으며, 이에 대해서는 도 10 및 도 11에서 후술하기로 한다.At this time, in another embodiment, the synthesis information generator 250 may generate mashup information using location-based DCD content (for example, real-time map information and traffic information) provided from the DCD relay server 300. This will be described later with reference to FIGS. 10 and 11.

그리고, 합성정보 생성부(250)는 객체 합성 변위값이 적용된 가상 객체에 매쉬업 정보를 포함시켜 실제영상에 합성시킬 가상영상으로 생성하고 이를 합성 파라미터 정보에 포함시킨다(S57). 여기서, 합성 파라미터 정보에는 가상 객체 및 위치기반의 매쉬업 정보가 포함된 가상영상과, 가상영상을 실제영상에 합성시킬 수 있도록 하는 파라미터 정보들이 포함되어 있으므로, 이동통신 단말(100)은 이후 합성 파라미터 정보를 통해 간편하게 합성영상을 생성할 수 있게 된다.Then, the synthesis information generation unit 250 includes the mashup information in the virtual object to which the object composition displacement value is applied, generates a virtual image to be synthesized into the real image, and includes it in the synthesis parameter information (S57). Here, the synthesis parameter information includes the virtual image including the virtual object and the location-based mashup information, and the parameter information for synthesizing the virtual image into the real image, so that the mobile communication terminal 100 then synthesizes the parameter information. Through it, you can easily create a composite image.

한편, 매쉬업 정보 생성 및 가상 객체를 실제영상에 합성한 합성영상에 대해서는 후술될 도 8 및 도 9를 통해 설명하기로 한다.On the other hand, the composite image generated by the mashup information generation and the virtual object is described with reference to Figures 8 and 9 to be described later.

도 8은 본 발명의 일 실시 예에 따른 매쉬업 정보 생성 과정의 예를 도시한다. 도 9는 본 발명의 일 실시 예에 따른 합성 파라미터 정보를 통해 실제영상에 가상 객체가 합성된 합성영상의 출력 화면을 도시한다.8 illustrates an example of a mashup information generation process according to an embodiment of the present invention. FIG. 9 illustrates an output screen of a composite image in which a virtual object is synthesized with a real image through the synthesis parameter information according to an embodiment of the present invention.

도 8의 (a)에 도시된 바와 같이, 가상화 처리서버(200)는 이동통신 단말(100)로부터 수신한 위치정보와 그에 대응되는 컨텐츠로서 지도정보를 획득할 수 있다. 이때, 지도정보는 후술될 DCD(Dynamic Contents Delivery) 서버로부터 전송받은 위치기반의 DCD 컨텐츠에 포함된 지도 이미지를 포함할 수 있다. As shown in (a) of FIG. 8, the virtualization processing server 200 may obtain map information as location information received from the mobile communication terminal 100 and contents corresponding thereto. In this case, the map information may include a map image included in the location-based DCD content received from the DCD (Dynamic Contents Delivery) server to be described later.

그리고, 도 8의 (b)에 도시된 바와 같이 가상화 처리서버(200)는 지도정보에서 키 마커(key marker)를 추출하고 위치정보를 이용하여 사용자의 위치와 일치시킨 후, 도 8의 (c)에 도시된 바와 같이 방위각에 의한 회전변환을 수행하고, 도 8의 (d)에 도시된 바와 같이 영상 합성을 위한 키 컬러를 삽입하게 된다.Then, as shown in (b) of FIG. 8, the virtualization processing server 200 extracts a key marker from the map information and matches the location of the user using the location information, and then (c) of FIG. As shown in Fig. 1, rotation conversion by azimuth is performed, and a key color for image synthesis is inserted as shown in (d) of FIG.

이후, 이와 같이 생성된 위치기반의 매쉬업 정보는 기타 다양한 주변 정보와 함께 가상영상으로 생성되고, 해당 가상영상은 합성 파라미터 정보에 포함되어 이동통신 단말(100)로 전송된다.Thereafter, the location-based mashup information generated as described above is generated as a virtual image along with various other peripheral information, and the virtual image is included in the synthesis parameter information and transmitted to the mobile communication terminal 100.

그러면, 도 9에 도시된 바와 같이, 이동통신 단말(100)은 합성 파라미터 정보를 통해 실제영상에 가상영상을 합성하여 증강된 합성영상으로 이동통신 단말(100) 화면에 디스플레이한다.Then, as shown in FIG. 9, the mobile communication terminal 100 synthesizes the virtual image to the real image through the synthesis parameter information and displays the synthesized image on the screen of the mobile communication terminal 100 as an augmented composite image.

따라서, 이동통신 단말(100) 화면에는 실제영상에 가상영상이 증강된 합성영상이 제공되며, 이때 사용자 인터페이스(800)가 표시되어 사용자의 입력에 따른 명령을 수행할 수 있게 된다.Accordingly, the composite image in which the virtual image is augmented with the actual image is provided on the screen of the mobile communication terminal 100. At this time, the user interface 800 is displayed to perform a command according to the user's input.

이와 같이, 입력 영상만으로 가상 객체가 증강된 증강현실 서비스를 제공할 수 있게 된다.As such, the augmented reality service in which the virtual object is augmented with only the input image may be provided.

도 10은 본 발명의 다른 실시 예에 따른 DCD 컨텐츠를 제공하는 개념도이다.10 is a conceptual diagram for providing DCD content according to another embodiment of the present invention.

표준화 단체인 OMA(Open Mobile Alliance)는 다양한 콘텐츠를 모바일 환경에서 사용자에게 효율적으로 제공하기 위해 동적 컨텐츠 딜리버리(DCD; Dynamic Contents Delivery) 표준화를 추진하고 있다.The Open Mobile Alliance (OMA), a standardization organization, is pushing for standardization of Dynamic Content Delivery (DCD) in order to efficiently deliver various contents to users in a mobile environment.

본 발명의 다른 실시 예에서 DCD(Dynamic Contents Delivery) 서버(300)를 DCD 컨텐츠 프로바이더(DCD CP; Dynamic Contents Delivery Contents Provider)의 DCD 컨텐츠 서버(400)와 가상화 처리서버(200)간의 중계 서버로 구성함으로써, 예컨대 지도정보와 같이 실시간으로 업데이트가 필요한 정보의 경우, 지도 이미지 및 이와 관련된 각종 데이터 정보를 제공하는 DCD 컨텐츠 서버(400)로부터 DCD 중계 서버(300)가 실시간 정보를 제공받아 다시 가상화 처리서버(200)로 전송함으로써, 상술된 위치기반의 매쉬업 정보를 최신 정보로 생성하여 사용자의 이동통신 단말(100)로 제공할 수 있다.In another embodiment of the present invention, the DCD (Dynamic Contents Delivery) server 300 is a relay server between the DCD content server 400 and the virtualization processing server 200 of the DCD CP (Dynamic Contents Delivery Contents Provider). By configuring, for example, in the case of information that needs to be updated in real time, such as map information, the DCD relay server 300 receives the real-time information from the DCD content server 400 that provides the map image and various data information related thereto, and then virtualizes it again. By transmitting to the server 200, the location-based mashup information can be generated as the latest information and provided to the user's mobile communication terminal 100.

예컨대, DCD 중계 서버(300)는 사용자가 가입한 컨텐츠 채널에 대응되는 컨텐츠를 제공하는 DCD 컨텐츠 서버(400)(들)와 연동되어 지도정보, 뉴스, 날씨 및 기타 다양한 정보를 실시간으로 전송받아 가상화 처리서버(200)로 전송할 수 있다. 여기서 DCD 중계 서버(300)는 OMA(Open Mobile Alliance) 표준에 따른 플랫폼 구조로 이루어져 있다.For example, the DCD relay server 300 is virtualized by receiving map information, news, weather, and various other information in real time by interworking with the DCD content server 400 (s) providing content corresponding to a content channel to which the user subscribes. It may be transmitted to the processing server 200. In this case, the DCD relay server 300 has a platform structure according to the Open Mobile Alliance (OMA) standard.

이하, 도 11에서 DCD 중계 서버(300)의 구성요소와 함께 보다 구체적으로 설명하기로 한다.Hereinafter, the components of the DCD relay server 300 will be described in more detail with reference to FIG. 11.

도 11은 본 발명의 다른 실시 예에 따른 DCD 중계 서버의 블록도이다. 11 is a block diagram of a DCD relay server according to another embodiment of the present invention.

DCD 중계 서버(300)는 DCD 인터페이스부(310), 컨텐츠 수집부(320), 컨텐츠 포맷 변경부(330), 컨텐츠 관리부(340) 및 컨텐츠 전달부(350)를 포함한다. 이하, DCD 중계 서버(300)의 각 구성요소에 대해서 설명하기로 한다.The DCD relay server 300 includes a DCD interface 310, a content collector 320, a content format changer 330, a content manager 340, and a content delivery unit 350. Hereinafter, each component of the DCD relay server 300 will be described.

DCD 인터페이스부(310)는 DCD 컨텐츠 서버(400)와 DCD 중계 서버(300)간 DCD 컨텐츠 채널에 대한 채널 매핑 기능을 제공하여, 후술될 컨텐츠 수집부(320)가 해당 DCD 컨텐츠 채널을 통해 DCD 컨텐츠 서버(400)로부터 각 채널에 따른 DCD 컨텐츠를 제공받을 수 있도록 한다. The DCD interface unit 310 provides a channel mapping function for the DCD content channel between the DCD content server 400 and the DCD relay server 300, so that the content collection unit 320 to be described below uses the corresponding DCD content channel. It is possible to receive DCD content according to each channel from the server 400.

이때, DCD 인터페이스부(310)는 가입자 정보(등록한 DCD 컨텐츠 채널, 단말기 정보, 아이디 등) 및 위치정보를 이용하여 채널 매핑 기능을 제공할 수 있으며, DCD 컨텐츠 서버(400)와의 채널 매핑을 통해 이동통신 단말(100)의 가입자가 가입(등록)한 DCD 컨텐츠 채널로부터 위치정보에 따른 DCD 컨텐츠가 검색되어 해당 DCD 컨텐츠를 제공받을 수 있도록 할 수 있다.In this case, the DCD interface 310 may provide a channel mapping function using subscriber information (registered DCD content channel, terminal information, ID, etc.) and location information, and move through channel mapping with the DCD content server 400. The DCD content according to the location information may be searched for from the DCD content channel to which the subscriber of the communication terminal 100 subscribes (registers) to receive the corresponding DCD content.

컨텐츠 수집부(320)는 가상화 처리서버(200)로부터 위치정보 및 가입자 정보를 포함하는 데이터 패킷을 수신한 경우, 해당 가입자의 DCD 컨텐츠 채널을 통해 위치정보에 따른 DCD 컨텐츠(예컨대 실시간 지도정보)를 DCD 컨텐츠 서버(400)에 요청하고 이를 수신한다. When the content collecting unit 320 receives a data packet including location information and subscriber information from the virtualization processing server 200, the content collecting unit 320 receives the DCD content (for example, real-time map information) according to the location information through the DCD content channel of the corresponding subscriber. Request to and receive DCD content server 400.

여기서, 컨텐츠 수집은 DCD 컨텐츠 채널과 채널에 대응되는 DCD CP의 DCD 컨텐츠 서버(400)에 따라 컨텐츠 특성에 맞게 수집된다. 여기서, DCD 컨텐츠는 예컨대 실시간 지도정보 및 기타 부가정보들을 포함하는 위치기반의 DCD 컨텐츠이다.Here, the content collection is collected according to the content characteristics according to the DCD content channel and the DCD content server 400 of the DCD CP corresponding to the channel. Here, the DCD content is location-based DCD content including, for example, real-time map information and other additional information.

이때, 다른 실시 예에서 DCD 중계 서버(300)는 이동통신 단말(100)로 DCD 컨텐츠를 바로 전달하여 뉴스, 날씨 등의 정보가 화면에 출력되도록 할 수 있다.At this time, in another embodiment, the DCD relay server 300 may directly transmit DCD contents to the mobile communication terminal 100 so that information such as news and weather may be output on the screen.

한편, 컨텐츠 수집부(320)는 DCD 컨텐츠 채널을 통해 DCD 컨텐츠 서버(400)로부터 DCD 컨텐츠 전송이 실패했다고 판단된 경우, DCD 컨텐츠 서버(400)로 DCD 컨텐츠에 대한 재전송을 요청할 수 있으며, 마찬가지로, 가상화 처리서버(200)로 DCD 컨텐츠의 전송이 실패한 경우에 해당 DCD 컨텐츠의 재전송을 시도할 수 있다.Meanwhile, if it is determined that the DCD content transmission from the DCD content server 400 has failed through the DCD content channel, the content collector 320 may request the DCD content server 400 to retransmit the DCD content. When the transmission of the DCD content to the virtualization processing server 200 fails, the DCD content may be retransmitted.

컨텐츠 포맷 변경부(330)는 OMA(Open Mobile Alliance)의 DCD(Dynamic Contents Delivery) 표준에 따라 DCD 컨텐츠 서버(400)로부터 제공받은 컨텐츠에 대한 컨텐츠 포맷 변경을 수행한다. 이때, DCD 컨텐츠 서버(400)로부터 전송되는 컨텐츠가 해당 표준에 따른 DCD 컨텐츠인 경우, 본 구성요소(330)는 생략 가능하다.The content format changing unit 330 changes the content format of the content provided from the DCD content server 400 according to the OMA (Dynamic Contents Delivery) standard of the Open Mobile Alliance (OMA). In this case, when the content transmitted from the DCD content server 400 is DCD content according to the corresponding standard, the component 330 may be omitted.

컨텐츠 관리부(340)는 가입자의 DCD 컨텐츠 채널에 대한 정보, DCD 컨텐츠 정보, DCD CP의 DCD 컨텐츠 서버(400)에 대한 정보 등을 저장 및 관리한다. The content manager 340 stores and manages information on the DCD content channel of the subscriber, DCD content information, and information on the DCD content server 400 of the DCD CP.

예컨대, 이동통신 단말(100)을 통해 사용자가 N개의 DCD 컨텐츠 채널에 대한 등록을 요청하면, 컨텐츠 관리부(340)는 사용자의 요청에 따라 DCD 컨텐츠 채널에 대한 등록을 수행한다. 이때, 이동통신 단말(100)의 DCD 컨텐츠 채널 가입(등록)은 컨텐츠를 제공하는 N개의 채널에 대해서 패키지 형태로 1회의 요청만으로 신속히 이루어질 수 있다.For example, when a user requests registration of N DCD content channels through the mobile communication terminal 100, the content manager 340 registers the DCD content channels according to the user's request. In this case, the DCD content channel subscription (registration) of the mobile communication terminal 100 may be quickly performed with only one request in package form for N channels providing content.

따라서, 가상화 처리서버(200)가 위치정보 및 가입자 정보(등록한 DCD 컨텐츠 채널, 단말기 정보, 아이디 등)를 포함하는 데이터 패킷을 전송한 경우, DCD 중 계 서버(300)는 이를 수신하여 해당 가입자의 DCD 컨텐츠 채널을 검색하고 해당 채널을 통해 DCD 컨텐츠 서버(400)로부터 DCD 컨텐츠를 제공받게 된다. 이때, 상술된 바와 같이 DCD 인터페이스부(310)를 통한 채널 매핑이 이루어진다.Therefore, when the virtualization processing server 200 transmits a data packet including location information and subscriber information (registered DCD content channel, terminal information, ID, etc.), the DCD relay server 300 receives the corresponding subscriber to receive the data packet. The DCD content channel is searched for and received from the DCD content server 400 through the corresponding channel. In this case, channel mapping is performed through the DCD interface 310 as described above.

또한, 컨텐츠 관리부(340)는 DCD CP로부터 수신한 컨텐츠에 대해서 유효기간 및 업데이트 주기에 따라 컨텐츠를 관리하게 된다.In addition, the content manager 340 manages the content according to the validity period and the update period for the content received from the DCD CP.

또한, 컨텐츠 관리부(340)는 자신의 저장된 데이터에 대한 등록, 삭제, 수정 등의 작업을 수행한다. 예컨대, 컨텐츠 관리부(340)는 가입자 정보가 변경되었을 경우 그에 대한 정보 수정 작업을 수행하거나, 사용자의 요청에 따라 또는 기간 만료에 따라 등록된 DCD 컨텐츠 채널에 대한 정보가 변경되었을 경우 그에 따른 정보 변경을 수행한다.In addition, the content manager 340 registers, deletes, and corrects its stored data. For example, the content manager 340 may modify information on the subscriber information when the information is changed, or change information on the registered DCD content channel at the request of the user or when the information expires. To perform.

또한, 컨텐츠 관리부(340)는 실시간으로 DCD 컨텐츠 서버(400)와 통신을 수행하면서, DCD 컨텐츠에 대한 업그레이드 여부 및 변경 사항 등의 모니터링을 수행하고, 실시간으로 DCD 컨텐츠에 대한 최신 정보를 다운받아 컨텐츠 관리부(340)에 저장해 둘 수 있다.In addition, the content manager 340 communicates with the DCD content server 400 in real time, monitors whether the DCD content is upgraded or not, and downloads the latest information on the DCD content in real time. It may be stored in the management unit 340.

컨텐츠 전달부(360)는 DCD 컨텐츠 채널을 통해 수신한 DCD 컨텐츠를 가상화 처리서버(200)로 전송하는 기능을 수행한다. 여기서, 컨텐츠 전달부(360)는 푸쉬(push)나 풀(pull)방식을 사용하여 다양한 전송(예컨대 On demand, Scheduled, Prefetched 등의 방식) 방법으로 DCD 컨텐츠를 가상화 처리서버(200)로 전송할 수 있으며, 또한 다른 실시 예에서는 이동통신 단말(100)로 바로 전송할 수 있다.The content delivery unit 360 transmits the DCD content received through the DCD content channel to the virtualization processing server 200. Here, the content delivery unit 360 may transmit the DCD content to the virtualization processing server 200 by various transmission methods (for example, On demand, Scheduled, Prefetched, etc.) using a push or pull method. In another embodiment, the present invention may be directly transmitted to the mobile communication terminal 100.

상술된 DCD 중계 서버(300)와 가상화 처리서버(200)는 하나의 통합 서버(미도시)로 구성될 수 있으며, 이 경우 이동통신 단말(100)과 통합 서버와 DCD CP의 DCD 컨텐츠 서버(400)간의 데이터 송수신이 이루어져 DCD 컨텐츠 제공을 통한 증강현실 서비스가 제공될 수 있다. 따라서, DCD 중계 서버(300)는 상술된 도 3의 가상화 처리서버(200)의 구성요소를 포함할 수 있으며, 반대의 경우도 마찬가지이다. The above-described DCD relay server 300 and the virtualization processing server 200 may be configured as one integrated server (not shown), in this case the mobile communication terminal 100 and the integrated server and DCD content server 400 of the DCD CP Data transmission and reception between the two) can be provided augmented reality services through the provision of DCD content. Accordingly, the DCD relay server 300 may include the components of the virtualization processing server 200 of FIG. 3 described above and vice versa.

또한, DCD 중계 서버(300)는 DCD 컨텐츠를 이동통신 단말(100)로 바로 전송할 수 있으며, 이 경우 이동통신 단말(100)은 DCD 모듈(미도시)을 탑재하여 해당 DCD 컨텐츠를 수신하고, 실제영상에 DCD 컨텐츠를 포함한 합성영상을 생성하게 된다. 참고로, 사용자는 이동통신 단말(100)의 DCD 모듈을 통해 DCD 컨텐츠 채널에 가입하여 DCD 컨텐츠 채널을 통한 DCD 컨텐츠를 제공받을 수 있다. In addition, the DCD relay server 300 may directly transmit DCD content to the mobile communication terminal 100. In this case, the mobile communication terminal 100 may be equipped with a DCD module (not shown) to receive the corresponding DCD content, and A composite image including DCD content is generated in the image. For reference, the user may subscribe to the DCD content channel through the DCD module of the mobile communication terminal 100 to receive DCD content through the DCD content channel.

또한, 상술된 도 2의 제1 정보 저장부(160), 도 3의 제2 정보 저장부(260), 도 11의 컨텐츠 저장부(320)는 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(Hard Disk Drive; HDD), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다.In addition, the first information storage unit 160 of FIG. 2, the second information storage unit 260 of FIG. 3, and the content storage unit 320 of FIG. 11 include a cache, a read only memory (ROM), and a PROM (Programmable). Non-volatile memory devices, such as ROM, Eraseable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), and Flash memory, or volatile memory devices such as random access memory (RAM), or hard disk drives A hard disk (HDD), or a storage medium such as a CD-ROM, but is not limited thereto.

또한, 상기 도 2, 도 3, 도 11에서 도시된 각각의 구성요소는 일종의 '모듈'로 구성될 수 있다. 상기 '모듈'은 소프트웨어 또는 Field Programmable Gate Array(FPGA) 또는 주문형 반도체(Application Specific Integrated Circuit, ASIC) 과 같은 하드웨어 구성요소를 의미하며, 모듈은 어떤 역할들을 수행한다. 그렇지만 모듈은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 구성요소들과 모듈들에서 제공되는 기능은 더 작은 수의 구성요소들 및 모듈들로 결합되거나 추가적인 구성요소들과 모듈들로 더 분리될 수 있다.In addition, each component illustrated in FIGS. 2, 3, and 11 may be configured as a kind of 'module'. The 'module' refers to a hardware component such as software or a Field Programmable Gate Array (FPGA) or an Application Specific Integrated Circuit (ASIC), and the module plays certain roles. However, modules are not meant to be limited to software or hardware. A module may be configured to reside on an addressable storage medium and may be configured to execute one or more processors. The functionality provided by the components and modules may be combined into a smaller number of components and modules or further separated into additional components and modules.

이상 첨부된 도면을 참조하여 본 발명의 실시 예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described above with reference to the accompanying drawings, those skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing the technical spirit or essential features thereof. I can understand that. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.

도 1은 본 발명의 일 실시 예에 따른 증강현실을 제공하는 개념도.1 is a conceptual diagram for providing augmented reality according to an embodiment of the present invention.

도 2는 본 발명의 일 실시 예에 따른 영상 합성 장치의 블록도.2 is a block diagram of an image synthesizing apparatus according to an embodiment of the present invention.

도 3은 본 발명의 일 실시 예에 따른 합성 파라미터 추출장치의 블록도.Figure 3 is a block diagram of the synthesis parameter extraction apparatus according to an embodiment of the present invention.

도 4는 본 발명의 일 실시 예에 따른 증강현실 제공 방법의 순서도.Figure 4 is a flow chart of augmented reality providing method according to an embodiment of the present invention.

도 5는 본 발명의 일 실시 예에 따른 합성 파라미터 정보 생성의 세부적인 과정.5 is a detailed process of generating synthesis parameter information according to an embodiment of the present invention.

도 6은 특징점 추출을 통한 기준 영역 선정의 예.6 is an example of selection of a reference region through feature point extraction.

도 7은 카메라 이동시 가상 객체의 이동 변위 측정의 개념도.7 is a conceptual diagram of measuring movement displacement of a virtual object during camera movement.

도 8은 본 발명의 일 실시 예에 따른 매쉬업 정보 생성 과정의 예.8 is an example of a mashup information generation process according to an embodiment of the present invention.

도 9는 본 발명의 일 실시 예에 따른 합성 파라미터 정보를 통해 실제영상에 가상 객체가 합성된 합성영상의 출력 화면.9 is an output screen of a composite image in which a virtual object is synthesized with a real image through the synthesis parameter information according to an embodiment of the present invention.

도 10은 본 발명의 다른 실시 예에 따른 DCD 컨텐츠를 제공하는 개념도.10 is a conceptual diagram for providing DCD content according to another embodiment of the present invention.

도 11은 본 발명의 다른 실시 예에 따른 DCD 중계 서버의 블록도.11 is a block diagram of a DCD relay server according to another embodiment of the present invention.

<도면의 주요 부분에 관한 부호의 설명><Explanation of symbols on main parts of the drawings>

100: 이동통신 단말100: mobile communication terminal

110: 영상 처리부 120: 제1 송수신부110: image processor 120: first transceiver

130: 측위부 140: 영상 합성부130: positioning unit 140: image synthesis unit

150: 영상 출력부 160: 제1 정보 저장부150: image output unit 160: first information storage unit

200: 가상화 처리서버200: virtualization processing server

210: 제2 송수신부 220: 영상 변환부210: second transceiver 220: image converter

230: 기준영역 선정부 240: 자세정보 추출부230: reference region selection unit 240: posture information extraction unit

250: 합성정보 생성부 260: 제2 정보 저장부250: Synthetic information generation unit 260: Second information storage unit

300: DCD 중계 서버300: DCD relay server

310: DCD 인터페이스부 320: 컨텐츠 수집부310: DCD interface unit 320: content collection unit

330: 컨텐츠 포맷 변경부 340: 컨텐츠 관리부330: content format change unit 340: content management unit

350: 컨텐츠 전달부350: content delivery unit

400: DCD 컨텐츠 서버400: DCD Content Server

Claims (10)

이동통신 단말로부터 입력된 제1 영상에서 기준영역을 선정하는 기준영역 선정부와;A reference region selecting unit which selects a reference region from the first image input from the mobile communication terminal; 상기 제1 영상과 이동통신 단말의 카메라 위치 변화에 따라 입력된 제2 영상을 비교하고 상기 제2 영상의 이동된 변위값을 측정하여 이동통신 단말의 자세정보를 추출하는 자세정보 추출부와;       A posture information extraction unit for comparing the first image with a second image input according to a change in the camera position of the mobile communication terminal and extracting posture information of the mobile communication terminal by measuring a shift value of the second image; 상기 이동통신 단말의 위치정보 및 상기 위치정보에 대응되는 컨텐츠를 이용하여 위치기반의 매쉬업 정보를 생성하고, 상기 자세정보에 따른 이동 변위값이 적용된 가상 객체에 상기 매쉬업 정보를 포함시켜 실제영상에 합성시킬 가상영상으로 생성하는 합성정보 생성부를 포함하여 구성되는 가상화 처리서버.      Generate location-based mashup information by using the location information of the mobile communication terminal and the contents corresponding to the location information, and include the mashup information in a virtual object to which the movement displacement value is applied according to the posture information to synthesize the actual image. Virtualization processing server comprising a composite information generating unit for generating a virtual image to be made. 제 1항에 있어서, 상기 컨텐츠는 OMA(Open Mobile Alliance) 표준을 따르는 DCD(Dynamic Contents Delivery) 컨텐츠인 것을 특징으로 하는 가상화 처리서버.      The virtualization processing server of claim 1, wherein the content is Dynamic Contents Delivery (DDC) content conforming to an Open Mobile Alliance (OMA) standard. 제 1항에 있어서, 상기 기준영역 선정부는 상기 제1 영상에서 블록단위로 특징점을 추출하고 상기 특징점의 개수가 가장 많은 블록을 상기 기준영역으로 선정하고, 상기 제1 영상의 기준 영역을 기준으로 상기 제2 영상에 상기 기준 영역이 존재하는 지 여부를 판단하고, 상기 제2 영상에 상기 기준 영역이 존재할 경우 상기 제2 영상의 이동된 변위값을 측정하여 상기 자세정보를 추출하는 것을 특징으로 하는 가상화 처리서버.      The display apparatus of claim 1, wherein the reference region selector extracts feature points from the first image in units of blocks, selects the block having the largest number of feature points as the reference region, and selects the reference region based on the reference region of the first image. And determining whether the reference region exists in a second image, and extracting the attitude information by measuring a shifted displacement value of the second image when the reference region exists in the second image. Process Server. 제 3항에 있어서, 상기 자세정보 추출부는 상기 제2 영상에 상기 기준 영역이 존재하지 않을 경우 상기 제2 영상에서 블록단위의 특징점 추출을 수행하여 기준 영역을 재선정하고, 재선정된 상기 제2 영상의 기준 영역을 기준으로 상기 자세정보의 추출이 이루어지는 것을 특징으로 하는 가상화 처리서버.      The method of claim 3, wherein the posture information extracting unit reselects the reference region by extracting feature points in units of blocks from the second image when the reference region does not exist in the second image, and reselects the second image. Virtualization processing server, characterized in that the extraction of the attitude information is made based on the reference region of the. 실제영상과 가상영상을 합성한 합성영상을 생성하는 이동통신단말과;       A mobile communication terminal for generating a composite image obtained by synthesizing a real image and a virtual image; 상기 이동통신단말로부터 수신한 기준이 되는 제1영상과 이 제1 영상의 기준 영역으로부터 이동통신단말의 카메라가 촬상한 영상이미지인 제2 영상의 위치 변화에 따른 그 이동된 변위를 측정한 후 그 변위된 값을 수평 및 수직 거리, 방위각을 반영하여 산출한 자세정보를 추출하고, 상기와 같이 추출된 자세정보와 이동통신 단말의 위치정보 및 상기 위치정보에 대응되는 DCD(Dynamic Contents Delivery) 컨텐츠를 바탕으로 실제영상에 합성시킬 상기 가상영상을 생성하는 가상화 처리서버와;       After measuring the shifted displacement according to the position change of the first image, which is a reference received from the mobile communication terminal, and the second image, which is an image image captured by the camera of the mobile communication terminal, from the reference region of the first image, The attitude information calculated by reflecting the displaced value by reflecting the horizontal and vertical distances and the azimuth angle is extracted, and the extracted attitude information, the location information of the mobile communication terminal, and the DCD content corresponding to the location information are extracted. A virtualization processing server for generating the virtual image to be synthesized with the real image based on the image; 상기 DCD 컨텐츠를 상기 위치정보에 따라 DCD CP(Dynamic Contents Delivery Contents Provider)의 DCD 컨텐츠 서버로 요청하고 수신된 상기 DCD 컨텐츠를 상기 가상화 처리서버로 전송하는 DCD 중계 서버를 포함하여 구성되는 DCD 컨텐츠를 이용한 증강현실 제공 시스템.      Using the DCD content configured to include the DCD relay server for requesting the DCD content to the DCD content server of the DCD Dynamic Contents Delivery Contents Provider (CP) according to the location information and transmits the received DCD content to the virtualization processing server. Augmented reality providing system. 제5항에 있어서, 상기 이동통신단말은 GPS(Global Positioning System) 위성측위 서비스를 바탕으로 상기 이동통신단말의 위치정보를 측정하여 상기 가상화 처리서버로 전송하는 측위부를 더 포함하는 것을 특징으로 하는 DCD 컨텐츠를 이용한 증강현실 제공 시스템.      [6] The DCD of claim 5, wherein the mobile communication terminal further comprises a positioning unit for measuring the location information of the mobile communication terminal based on a GPS positioning service and transmitting the location information to the virtualization processing server. Augmented reality providing system using the content. 제5항에 있어서, 상기 가상화처리서버는 상기 이동통신단말로부터 수신한 제1영상과 이동통신 단말의 카메라 위치 변화에 따라 입력된 제2 영상을 비교하고 상기 제2 영상의 이동된 변위값을 측정하여 상기 이동통신 단말의 자세정보를 추출하는 자세정보 추출부와,       The method of claim 5, wherein the virtualization server compares the first image received from the mobile communication terminal with the input second image according to a change in the camera position of the mobile communication terminal and measures the shifted displacement value of the second image. A posture information extraction unit for extracting posture information of the mobile communication terminal; 상기 이동통신 단말의 위치정보 및 상기 위치정보에 대응되는 DCD 컨텐츠를 이용하여 매쉬업 정보를 생성하고, 상기 자세정보에 따른 이동 변위값이 적용된 가상 객체에 상기 매쉬업 정보를 포함시켜 실제영상에 합성시킬 상기 가상영상으로 생성하는 합성정보 생성부를 더 포함하는 것을 특징으로 하는 DCD 컨텐츠를 이용한 증강현실 제공 시스템.      Generating mashup information using location information of the mobile communication terminal and DCD content corresponding to the location information, and including the mashup information in a virtual object to which the movement displacement value is applied according to the attitude information to synthesize the actual image; Augmented reality providing system using the DCD content, characterized in that it further comprises a synthetic information generating unit for generating a virtual image. 제5항에 있어서, 상기 DCD중계서버는 DCD 컨텐츠 서버와 DCD 컨텐츠 채널과의 매핑 기능을 제공하는 DCD 인터페이스부를 더 포함하는 것을 특징으로 하는 DCD 컨텐츠를 이용한 증강현실 제공 시스템.      The system of claim 5, wherein the DCD relay server further includes a DCD interface unit that provides a mapping function between the DCD content server and the DCD content channel. 제8항에 있어서, 상기 DCD중계서버는 DCD 컨텐츠 채널을 통해 위치정보에 따른 상기 DCD 컨텐츠를 DCD 컨텐츠 서버로 요청하여 상기 DCD 컨텐츠를 수신하는 컨텐츠 수집부를 더 포함하는 것을 특징으로 하는 DCD 컨텐츠를 이용한 증강현실 제공 시스템.      The DCD relay server of claim 8, wherein the DCD relay server further comprises a content collector which receives the DCD content by requesting the DCD content according to the location information through the DCD content channel to the DCD content server. Augmented reality providing system. 제5항 내지 제9항 중 어느 한 항에 있어서, 상기 DCD 중계서버는 OMA의 DCD 표준에 따라 컨텐츠의 포맷을 변경하는 컨텐츠포맷변경부를 더 포함하는 것을 특징으로 하는 DCD 컨텐츠를 이용한 증강현실 제공 시스템.      10. The system of claim 5, wherein the DCD relay server further comprises a content format changer for changing the format of the content according to the DCD standard of the OMA. .
KR1020090062377A 2009-07-09 2009-07-09 Server for processing of virtualization and system for providing augmented reality using dynamic contents delivery KR101013751B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090062377A KR101013751B1 (en) 2009-07-09 2009-07-09 Server for processing of virtualization and system for providing augmented reality using dynamic contents delivery

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090062377A KR101013751B1 (en) 2009-07-09 2009-07-09 Server for processing of virtualization and system for providing augmented reality using dynamic contents delivery

Publications (2)

Publication Number Publication Date
KR20110004940A KR20110004940A (en) 2011-01-17
KR101013751B1 true KR101013751B1 (en) 2011-02-14

Family

ID=43612247

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090062377A KR101013751B1 (en) 2009-07-09 2009-07-09 Server for processing of virtualization and system for providing augmented reality using dynamic contents delivery

Country Status (1)

Country Link
KR (1) KR101013751B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101076240B1 (en) * 2011-03-04 2011-10-26 삼성탈레스 주식회사 Device and method for an air defense situation awareness using augmented reality
KR20130014358A (en) * 2011-07-28 2013-02-07 삼성전자주식회사 Marker-less augmented reality system using plane feature and method thereof
US8965400B2 (en) 2011-12-15 2015-02-24 Samsung Electronics Co., Ltd. Apparatus and method for displaying a position of mobile terminal
TWI512487B (en) * 2012-05-31 2015-12-11 Intel Corp Method for providing augmented reality service, server and computer-readable recording medium

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101367175B1 (en) * 2011-04-19 2014-02-27 네오뷰코오롱 주식회사 Bluetooth terminal having transparent display
KR101378595B1 (en) * 2011-04-19 2014-03-26 네오뷰코오롱 주식회사 Bluetooth terminal device having transparent display
US8817046B2 (en) 2011-04-21 2014-08-26 Microsoft Corporation Color channels and optical markers
KR101845231B1 (en) 2011-06-14 2018-04-04 삼성전자주식회사 Image processing apparatus and method
KR101291924B1 (en) * 2011-09-29 2013-07-31 구대근 Apparatus, system and method using portable serveying terminals based on augmented reality approach
KR101356192B1 (en) 2012-04-26 2014-01-24 서울시립대학교 산학협력단 Method and System for Determining Position and Attitude of Smartphone by Image Matching
KR101349347B1 (en) * 2012-05-22 2014-01-20 에이알비전 (주) System for generating a frontal-view image for augmented reality based on the gyroscope of smart phone and Method therefor
JP6314394B2 (en) * 2013-09-13 2018-04-25 富士通株式会社 Information processing apparatus, setting method, setting program, system, and management apparatus
KR101704513B1 (en) * 2016-06-14 2017-02-09 주식회사 엔토소프트 Server and system for implementing augmented reality using positioning information
KR102197615B1 (en) * 2019-08-12 2020-12-31 주식회사 엘지유플러스 Method of providing augmented reality service and server for the providing augmented reality service
KR20220060103A (en) * 2020-11-04 2022-05-11 삼성전자주식회사 Electronic Device, AR Device and Method for Controlling Data Transfer Interval thereof
US11893698B2 (en) 2020-11-04 2024-02-06 Samsung Electronics Co., Ltd. Electronic device, AR device and method for controlling data transfer interval thereof
CN116603239B (en) * 2023-07-20 2023-10-03 腾讯科技(深圳)有限公司 Data processing method and device and related equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030072880A (en) * 2002-03-07 2003-09-19 삼성전자주식회사 Method and apparatus for tracking an object from video data
KR20040042470A (en) * 2002-11-14 2004-05-20 한국전자통신연구원 Method of Extrating Camera Information for Authoring Tools of Synthetic Contents
KR20050078136A (en) * 2004-01-30 2005-08-04 삼성전자주식회사 Method for providing local information by augmented reality and local information service system therefor
KR20080085655A (en) * 2007-03-20 2008-09-24 인천대학교 산학협력단 Apparatus and method of estimating camera position

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030072880A (en) * 2002-03-07 2003-09-19 삼성전자주식회사 Method and apparatus for tracking an object from video data
KR20040042470A (en) * 2002-11-14 2004-05-20 한국전자통신연구원 Method of Extrating Camera Information for Authoring Tools of Synthetic Contents
KR20050078136A (en) * 2004-01-30 2005-08-04 삼성전자주식회사 Method for providing local information by augmented reality and local information service system therefor
KR20080085655A (en) * 2007-03-20 2008-09-24 인천대학교 산학협력단 Apparatus and method of estimating camera position

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101076240B1 (en) * 2011-03-04 2011-10-26 삼성탈레스 주식회사 Device and method for an air defense situation awareness using augmented reality
KR20130014358A (en) * 2011-07-28 2013-02-07 삼성전자주식회사 Marker-less augmented reality system using plane feature and method thereof
WO2013015549A3 (en) * 2011-07-28 2013-03-21 삼성전자주식회사 Plane-characteristic-based markerless augmented reality system and method for operating same
US9405359B2 (en) 2011-07-28 2016-08-02 Samsung Electronics Co., Ltd. Plane-characteristic-based markerless augmented reality system and method for operating same
CN103181157B (en) * 2011-07-28 2017-09-01 三星电子株式会社 Unmarked augmented reality system and its operating method based on flatness of the response
KR101971948B1 (en) 2011-07-28 2019-04-24 삼성전자주식회사 Marker-less augmented reality system using plane feature and method thereof
US8965400B2 (en) 2011-12-15 2015-02-24 Samsung Electronics Co., Ltd. Apparatus and method for displaying a position of mobile terminal
TWI512487B (en) * 2012-05-31 2015-12-11 Intel Corp Method for providing augmented reality service, server and computer-readable recording medium
TWI564730B (en) * 2012-05-31 2017-01-01 英特爾股份有限公司 Method for providing augmented reality service, server and computer-readable recording medium

Also Published As

Publication number Publication date
KR20110004940A (en) 2011-01-17

Similar Documents

Publication Publication Date Title
KR101013751B1 (en) Server for processing of virtualization and system for providing augmented reality using dynamic contents delivery
US11393173B2 (en) Mobile augmented reality system
US9552675B2 (en) Display application and perspective views of virtual space
US9558557B2 (en) Online reference generation and tracking for multi-user augmented reality
US8750559B2 (en) Terminal and method for providing augmented reality
US8633970B1 (en) Augmented reality with earth data
US9674507B2 (en) Monocular visual SLAM with general and panorama camera movements
CN102959946B (en) The technology of view data is expanded based on relevant 3D cloud data
US20120105581A1 (en) 2d to 3d image and video conversion using gps and dsm
KR101583286B1 (en) Method, system and recording medium for providing augmented reality service and file distribution system
US20150178993A1 (en) Systems and methods for an augmented reality platform
KR101330805B1 (en) Apparatus and Method for Providing Augmented Reality
KR101600456B1 (en) Method, system and recording medium for providing augmented reality service and file distribution system
CN108932051A (en) augmented reality image processing method, device and storage medium
US20140139521A1 (en) Apparatus and method for providing augmented reality using synthesized environment map
CN103826201A (en) Geographical position-based virtual interaction method and system thereof
KR102197615B1 (en) Method of providing augmented reality service and server for the providing augmented reality service
JP2011233005A (en) Object displaying device, system, and method
CA3063007A1 (en) Human-aided geo-rectification of geospatial metadata in video using a graphical interface
WO2016095176A1 (en) Interacting with a perspective view
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee