KR20140111868A - Apparatus and method for managing object based on panorama media - Google Patents
Apparatus and method for managing object based on panorama media Download PDFInfo
- Publication number
- KR20140111868A KR20140111868A KR1020130026327A KR20130026327A KR20140111868A KR 20140111868 A KR20140111868 A KR 20140111868A KR 1020130026327 A KR1020130026327 A KR 1020130026327A KR 20130026327 A KR20130026327 A KR 20130026327A KR 20140111868 A KR20140111868 A KR 20140111868A
- Authority
- KR
- South Korea
- Prior art keywords
- panorama image
- tagging
- panorama
- image
- world coordinate
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000004590 computer program Methods 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/32—Indexing scheme for image data processing or generation, in general involving image mosaicing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/004—Annotating, labelling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Abstract
Description
실시예들은 오브젝트 관리 장치 및 그 방법에 관한 것이며, 보다 구체적으로는 파노라마 영상 기반 오브젝트 관리 장치 및 그 방법에 관한 것이다.Embodiments relate to an object management apparatus and method thereof, and more particularly to an apparatus and method for managing a panorama image-based object.
파노라마 영상 내의 오브젝트를 태깅(tagging)하는 방법은 대부분 수작업으로 이루어지고 있으며, 이미지 내 로컬 좌표계 기준 픽셀 단위로 데이터를 저장하고 있다. 현재의 오브젝트 태깅 방식으로는 파노라마의 공급자(Google, 360Cities, Daum, NHN 등)와 일반 수요자가 구분되어 있어서 일반 수요자가 파노라마를 이해하고 태깅 및 추가적인 미디어 경험을 저작하기에는 어려움이 많다.
The method of tagging an object in a panoramic image is mostly performed by hand, and data is stored in the unit of a reference pixel in the local coordinate system in the image. The current object tagging method differs from the panorama provider (Google, 360Cities, Daum, NHN, etc.) and the general consumer so that it is difficult for the general consumer to understand the panorama and author the tagging and the additional media experience.
한국 공개특허공보 제10-2004-001300호는 파노라마 영상이미지를 배경으로 하는 영상이미지 합성편집 시스템 및 그 방법에 관한 것이다. 컴퓨터상에서 360도의 전경을 담은 파노라마 영상이미지를 배경으로 그 위에 인물, 사물 또는 기타 객체의 영상이미지를 합성하는 편집 작업을 통해 마치 객체가 그 배경이 있는 장소에서 촬영된 것과 같은 합성편집된 영상이미지를 제공하는 파노라마 영상이미지를 배경으로 하는 영상이미지 합성편집 시스템 및 그 방법에 관한 것이다. 그러나, 한국 공개특허공보 제10-2004-001300호는 단순히 파노라마 이미지에 다른 영상 이미지를 합성해서 보여줄 뿐, 일반사용자로 하여금 편리한 오브젝트 태깅 및 추가적인 미디어 경험 공유 방법을 지원하지 못하고 있다.
Korean Patent Laid-Open Publication No. 10-2004-001300 relates to a system and method for synthesizing a video image using a panoramic image as a background. A panoramic image with a 360-degree panoramic view on the computer and an editing operation that composes the image of a person, object, or other object on the image as a background creates a synthesized edited video image as if the object was photographed in a place with the background The present invention relates to a system and method for synthesizing a video image using a panoramic video image as a background. However, Korean Patent Laid-Open Publication No. 10-2004-001300 merely shows a composite image of a panoramic image and other images, and does not support a convenient object tagging and an additional media experience sharing method.
본 발명의 일 측면에 의하면, 하나의 파노라마 영상의 오브젝트에 태깅한 경우, 이를 이용하여 다른 파노라마 영상에 공통으로 포함된 오브젝트를 쉽게 태깅할 수 있다.
According to an aspect of the present invention, when tagging an object of one panorama image, an object commonly included in other panorama images can be tagged easily.
본 발명의 다른 측면에 의하면, 하나의 파노라마 영상의 오브젝트의 실세계 좌표를 이용하여 오브젝트 기준으로 태그된 정보 및 멀티미디어들을, 다른 파노라마 영상 및 어플리케이션에서 활용할 수 있다.
According to another aspect of the present invention, it is possible to utilize information and multimedia tagged on an object basis in other panorama images and applications by using real world coordinates of an object of one panorama image.
본 발명의 일 측면에 의하면, 제1파노라마 영상을 생성 또는 수신하는 단계; 클라이언트 단말의 입력에 기반하여 상기 생성 또는 수신한 제1파노라마 영상에 포함된 제1오브젝트를 태깅하는 단계; 상기 태깅된 제1오브젝트의 실세계 좌표를 결정하는 단계; 상기 결정된 제1오브젝트의 실세계 좌표에 기반하여 제2파노라마 영상에 포함된 제1오브젝트를 태깅하는 단계를 포함하는, 파노라마 영상 기반 오브젝트 관리 방법이 제공된다.
According to an aspect of the present invention, there is provided an image processing method comprising: generating or receiving a first panoramic image; Tagging a first object included in the generated or received first panorama image based on an input of a client terminal; Determining a real world coordinate of the tagged first object; And tagging a first object included in the second panorama image based on the determined real world coordinate of the first object.
본 발명의 다른 측면에 의하면, 제1파노라마 영상을 생성 또는 수신하는 단계; 상기 생성 또는 수신한 제1파노라마 영상에 포함된 제1오브젝트를 태깅하는 단계; 상기 태깅된 제1오브젝트의 실세계 좌표를 결정하는 단계; 및 상기 결정된 제1오브젝트의 실세계 좌표에 기반하여 제2파노라마 영상에 포함된 제1오브젝트를 태깅하는 단계를 포함하는, 파노라마 영상 기반 오브젝트 관리 방법을 수행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 제공된다.
According to another aspect of the present invention, there is provided an image processing method comprising: generating or receiving a first panoramic image; Tagging a first object included in the generated or received first panorama image; Determining a real world coordinate of the tagged first object; And tagging a first object included in the second panorama image based on the determined real-world coordinate of the first object. A computer-readable recording medium recording a computer program for performing a method of managing a panorama image- Is provided.
본 발명의 또 다른 측면에 의하면, 제1파노라마 영상을 생성 또는 수신하는 파노라마 영상 관리부; 클라이언트 단말의 입력에 기반하여 상기 생성 또는 수신한 제1파노라마 영상에 포함된 제1오브젝트를 태깅하는 오브젝트 태깅부; 및 상기 태깅된 제1오브젝트의 실세계 좌표를 결정하는 실세계 좌표 결정부를 포함하되, 상기 오브젝트 태깅부는, 상기 결정된 제1오브젝트의 실세계 좌표에 기반하여 제2파노라마 영상에 포함된 제1오브젝트를 태깅하는, 파노라마 영상 기반 오브젝트 관리 장치가 제공된다.
According to another aspect of the present invention, there is provided a panorama image management system comprising: a panorama image management unit for generating or receiving a first panorama image; An object tagging unit for tagging a first object included in the generated or received first panorama image based on an input of a client terminal; And a real-world coordinate determination unit for determining a real-world coordinate of the tagged first object, wherein the object tagging unit tags the first object included in the second panoramic image based on the determined real- A panorama image-based object management apparatus is provided.
본 발명에 따르면, 하나의 파노라마 영상의 오브젝트에 태깅한 경우, 이를 활용하여 다른 파노라마 영상에 공통으로 포함된 오브젝트를 쉽게 태깅할 수 있는 효과가 있다. 이에 따라, 사용자로 하여금 한 번의 오브젝트 태깅만으로, 모든 파노라마 영상에 태깅 방식을 적용시킬 수가 있다.
According to the present invention, when an object of one panorama image is tagged, it is possible to easily tag an object commonly included in other panorama images by utilizing it. Accordingly, the user can apply the tagging method to all the panoramic images with only one object tagging.
또한, 하나의 파노라마 영상의 오브젝트의 실세계 좌표를 이용하여 오브젝트 기준으로 저작된 멀티미디어들을, 다른 파노라마 영상 및 어플리케이션에서 활용할 수 있는 효과가 있다. 특히 증강 현실 등의 어플리케이션 등에서 유용하게 사용될 수 있다.
In addition, it is possible to utilize multimedia authored on the basis of an object in other panorama images and applications by using real world coordinates of an object of one panorama image. Especially, it can be used in applications such as augmented reality.
도 1은 본 발명의 일 실시예에 따른, 파노라마 영상 기반 오브젝트 관리 장치(100)의 내부 구성 및 이와 통신하는 클라이언트 단말(10)을 나타낸 도면이다.
도 2a 내지 도 2c는 본 발명의 일 실시예에 따른, 파노라마 영상 내의 오브젝트를 태깅하는 과정의 한 예시를 나타낸 도면이다.
도 3a 내지 도 3d는 본 발명의 일 실시예에 따른, 하나의 파노라마 영상의 오브젝트 기준으로 멀티미디어가 입력된 경우, 증강 현실 어플리케이션에서 이들을 활용하는 과정의 예시를 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른, 파노라마 영상 기반 오브젝트 관리 방법의 일흐름을 나타낸 도면이다. FIG. 1 is a diagram illustrating an internal configuration of a panorama image-based
2A to 2C are views illustrating an example of a process of tagging objects in a panoramic image according to an embodiment of the present invention.
FIGS. 3A to 3D are views illustrating an example of a process of using multimedia objects in augmented reality application when objects are based on an object of one panoramic image, according to an exemplary embodiment of the present invention.
4 is a flowchart illustrating a method of managing a panorama image-based object according to an exemplary embodiment of the present invention.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the position or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.
도 1은 본 발명의 일 실시예에 따른, 파노라마 영상 기반 오브젝트 관리 장치(100)의 내부 구성 및 이와 통신하는 클라이언트 단말(10)을 나타낸 도면이다.
FIG. 1 is a diagram illustrating an internal configuration of a panorama image-based
클라이언트 단말(10)은 클라이언트가 사용하는 단말이다. 클라이언트는 클라이언트 단말(10)을 통해 파노라마 영상 기반 오브젝트 관리 장치(100)와 통신하여 파노라마 영상에 포함된 오브젝트(object)를 태깅(tagging)하기 위한 입력을 송신할 수 있다. 구체적으로, 파노라마 영상에 포함된 오브젝트를 중심으로 텍스트, 이미지, 오디오, 비디오 중 적어도 어느 하나의 멀티미디어를 태그 정보의 형태로 송신할 수 있다.
The
클라이언트 단말(10)은 다양한 형태로 실시될 수 있고, 다양한 특징을 포함할 수 있다. 클라이언트 단말(10)은 특정 어플리케이션이 가동될 수 있는 모든 장치를 포함할 수 있으며 그 형태를 제한하지 아니한다. 일 실시예에서, 클라이언트 단말(10)를 통해 어플리케이션 즉 임의의 프로그램이 작동할 수 있으며, 클라이언트 단말(10)의 카메라기능, 저장기능, 연산기능 등을 활용할 수 있다. 예를 들어, 클라이언트 단말(10)은 PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000 기반의 단말기 등을 비롯한 핸드헬드(Handheld) 기반 무선 단말기를 전부 포함한다. 또한, 클라이언트 단말(10)은 프로세서, 운영 체제 및 애플리케이션 프로그램 인터페이스(API)를 갖춰 하나 이상의 소프트웨어 애플리케이션 및 운영 체제간에 통신을 제공하는 처리 시스템을 포함할 수 있다. 나아가 클라이언트 단말(10)의 처리 시스템은 다양한 소프트웨어 애플리케이션을 실행하도록 구성될 수 있다. 클라이언트 단말(10)은 다른 객체와 통신할 수 있으며, 이를 위해 통신을 할 수 있는 하드웨어나 소프트웨어가 탑재될 수 있다. 통신 방법은 객체와 객체가 네트워킹 할 수 있는 모든 통신 방법을 포함할 수 있을 것이며, 유선/무선 통신, 3G, 4G, 혹은 그 이외의 방법에도 제한되지 않는다.
The
파노라마 영상 기반 오브젝트 관리 장치(100)는 클라이언트 단말의 입력에 기반하여 제1파노라마 영상에 포함된 제1오브젝트를 태깅하고, 제1오브젝트의 실세계 좌표에 기반하여 제2파노라마 영상에 포함된 제1오브젝트를 태깅하는 역할을 한다. 일 실시예에서, 파노라마 영상 기반 오브젝트 관리 장치(100)는 파노라마 영상 관리부(110), 오브젝트 태깅부(120), 실세계 좌표 결정부(130), 저장부(140), 통신부(150)를 포함할 수 있다. 그러나, 구성요소를 전술한 요소로 제한하려는 취지는 아니다.
The panorama image-based
파노라마 영상 관리부(110)는 파노라마 영상을 생성하거나 수신하는 역할을 한다. 일 실시예에서, 파노라마 영상 관리부(110)는 촬영부(111)를 포함할 수 있다. 촬영부는, 외부의 객체를 파노라마 형태로 촬영하여 파노라마 영상을 생성할 수 있다. 파노라마 영상은 저장부(140)에 이미 저장되어 있을 수도 있으며, 외부의 객체(미도시)로부터 네트워크를 통해 수신한 것일 수도 있다. 통신 방법은 일반적인 통신 형태를 모두 포함하며, 특별히 제한하지는 아니한다.
The panorama
오브젝트 태깅부(120)는 클라이언트 단말(10)의 입력에 기반하여 파노라마 영상 관리부(110)에서 관리하고 있는 제1파노라마 영상에 포함된 제1 오브젝트를 태깅하는 역할을 한다. 도 2a와 같은 파노라마 영상이 제1파노라마 영상으로 생성 또는 수신되었다고 가정하자. 도 2a에 포함되어 있는 벽걸이 TV를 제1오브젝트라고 하고, 도 2b의 붉은색 박스 내의 벽걸이 TV에 대해서 "Global Lounge의 TV"라는 텍스트 및 하이퍼링크로써, "http://smart.imrc.kist.re.kr/dev/object/television"이라는 도메인 주소를 입력하는 태그 작업을 할 수 있다. 그 결과, 도 2c에서처럼 제1오브젝트인 벽걸이 TV에 대해 "Global Lounge의 TV"라는 텍스트가 덧씌워져 표현될 수 있다.
The
일 실시예에서, 오브젝트 태깅부(120)는 제1오브젝트 주위에 텍스트, 이미지, 오디오, 비디오 중 적어도 어느 하나의 멀티미디어를 태그 정보로 입력할 수 있다. 도 3a와 같은 파노라마 영상이 제1파노라마 영상으로 생성 또는 수신되었다고 가정하자. 도 3b와 같이, 붉은색 건물을 제1오브젝트라고 하면, 제1오브젝트 주변의 "작은 나무"라는 텍스트, "여학생"의 이미지, "효과음"이 표현되는 오디오, "박태환 동영상"이 표현되는 비디오를 태그 정보로 입력할 수 있다.
In one embodiment, the
실세계 좌표 결정부(130)는 오브젝트 태깅부(120)에서 태깅된 제1오브젝트의 실세계 좌표를 결정하는 역할을 한다. 일 실시예에서, 실세계 좌표 결정부(130)는 제1파노라마 영상이 촬영된 위치 및 상기 태깅된 제1오브젝트의 파노라마 내부 좌표에 기반하여 상기 태깅된 제1오브젝트의 실세계 좌표를 결정할 수 있다.
The real-world
일 실시예에서, 파노라마 영상은 헤더정보 또는 태그정보로써, 파노라마 영상이 촬영된 위치에 관한 GPS 정보를 포함할 수 있다. 파노라마 영상을 촬영하는 촬영 기기에 GPS 모듈이 내장되어 있어, 위도, 경도 상 어느 위치에서 파노라마 영상이 생성되었는 지를 기록하는 것이다. 또한, 파노라마 영상 내의 각각의 오브젝트는 파노라마 영상 기준 로컬 좌표계에 따른 상대 좌표값을 가지고 있다. 실세계 좌표 결정부(130)는 GPS 정보와 같은 절대 좌표를 기준으로 오브젝트의 파노라마 영상 기준 로컬 좌표계에 따른 상대 좌표값을 더 하여, 제1오브젝트의 절대 좌표값 즉, 실세계 좌표를 결정할 수 있다. 이에 따라, 상대 좌표계의 오브젝트를 절대 좌표계로 편입할 수 있다.
In one embodiment, the panoramic image may include header information or tag information, and may include GPS information about the location where the panoramic image was taken. The GPS module is built in the photographing device for photographing the panorama image, and it is recorded at which position on the latitude and longitude the panorama image is generated. In addition, each object in the panoramic image has a relative coordinate value according to the local coordinate system of the panoramic image. The real world coordinate
실세계 좌표 결정부(130)에서 결정된 제1오브젝트의 실세계 좌표에 기반하여 오브젝트 태깅부(120)는 제2파노라마 영상에 포함된 제1오브젝트를 태깅하는 역할을 한다. 오브젝트의 실세계 좌표는 절대 좌표이기 때문에, 동일한 오브젝트를 포함하는 다른 파노라마 영상에서도, 동일한 오브젝트를 검색하여, 동일한 태깅을 자동으로 수행할 수 있는 것이다. 일 실시예에서, 오브젝트 태깅부(120)는 제2파노라마 영상이 촬영된 위치 및 제2파노라마 영상에 포함된 제1오브젝트의 파노라마 내부 좌표에 기반하여 제2파노라마 영상에 포함된 제1오브젝트를 태깅한다. 즉, 제2파노라마 영상이 촬영된 위치에 관한 GPS 정보에 제2파노라마 영상에 포함된 제1오브젝트의 파노라마 내부 좌표값을 더하여, 이가 제1 파노라마 영상의 제1오브젝트의 실세계 좌표와 일치하는 경우, 제1오브젝트에 태그하였던 내용을 동일하게 태깅할 수 있는 것이다.
The
예를 들어, 도 3a에서 같이 제1파노라마 영상의 "건물"이라는 오브젝트 주위에 "여학생"의 이미지, "효과음"이 표현되는 오디오를 태깅하였다고 가정하자. 도 3d와 같이 별도의 모바일 장치로, 유사한 공간을 파노라마 촬영(제2파노라마영상)을 하는 경우, 제1파노라마 영상의 "건물"의 실세계 좌표와 동일한 실세계 좌표를 갖는 "건물"이라는 오브젝트를 제2파노라마 영상에서 발견하였으므로, 제1오브젝트와 관련 있는 학생"의 이미지, "효과음"이 표현되는 오디오를 증강 현실(Augmented Reality) 방식으로 시각화 하였다.
For example, assume that in FIG. 3A, the audio of the "female student" and the "effect sound" are tagged around an object called "building" of the first panoramic image. In the case of performing panoramic photographing (second panoramic image) of a similar space with a separate mobile device as shown in Fig. 3D, an object called "building" having a real world coordinate equal to the real world coordinate of " Since the image is found in the panoramic image, the image of the student "associated with the first object," and the audio in which the " effect sound "is expressed are visualized in an augmented reality manner.
저장부(140)는 파노라마 영상 기반 오브젝트 관리 장치(100) 내부의 정보 및 클라이언트 단말(10)로부터 수신한 각종 정보를 저장하는 역할을 한다. 구체적으로, 파노라마 영상 관리부(110), 촬영부(111), 오브젝트 태깅부(120), 실세계 좌표 결정부(130)의 기능 수행 과정 중 또는 기능 수행 과정을 통해 얻어진 제반 정보를 저장할 수 있다.
The
통신부(150)는 파노라마 영상 기반 오브젝트 관리 장치(100)와 외부 객체와의 통신을 수행하는 역할을 한다. 파노라마 영상 관리부(110), 오브젝트 태깅부(120)는 외부 객체와 직접 통신할 수도 있지만, 통신부(150)의 지원을 받아 외부 객체와의 통신을 수행할 수도 있다. 통신 방법은 객체와 객체가 네트워킹할 수 있는 모든 통신 방법을 포함할 수 있을 것이며, 통신기능이 있다면 유선/무선 통신, 3G, 4G, 혹은 그 이후의 방법의 종류에 제한되지 아니한다.
The
도 4는 본 발명의 일 실시예에 따른, 파노라마 영상 기반 오브젝트 관리 방법의 일흐름을 나타낸 도면이다. 먼저, 제1 파노라마 영상을 자체적으로 생성하거나 외부로부터 수신한다(S1). 클라이언트 단말(10)의 입력에 의하여 생성 또는 수신한 제1파노라마 영상에 포함된 제1오브젝트는 태깅이 된다(S2). 일 실시예에서, 태깅 과정은 제1오브젝트 주위에 텍스트, 이미지, 오디오, 비디오 중 적어도 어느 하나의 멀티미디어를 태그 정보로 입력하는 과정일 수 있다. 이후, 제1 파노라마 영상의 촬영 위치 및 제1 오브젝트의 파노라마 영상 내부 좌표에 기반하여서 제1 오브젝트의 실세계 좌표를 결정한다(S3). 일 실시에에서, 제1 파노라마 영상의 촬영 위치는 GPS 정보이고, 제1 오브젝트의 파노라마 영상 내부 좌표는 오브젝트의 파노라마 영상 기준 로컬 좌표계에 따른 상대 좌표값일 수 있으며, 실세계 좌표는 GPS 정보와 같은 절대 좌표를 기준으로 오브젝트의 파노라마 영상 기준 로컬 좌표계에 따른 상대 좌표값을 더 하여 결정될 수 있다. 제2파노라마 영상이 생성 또는 수신되는 경우(S4), 제1오브젝트의 실세계 좌표에 기반하여, 제2 파노라마 영상에 공통으로 포함된 제1 오브젝트를 태깅한다(S5). 이 과정에서, 제2 파노라마 영상에 공통으로 포함된 제1 오브젝트의 실세계 좌표와, 제1파노라마 영상의 제1오브젝트의 실세계 좌표값을 비교할 수 있다.
4 is a flowchart illustrating a method of managing a panorama image-based object according to an exemplary embodiment of the present invention. First, the first panoramic image is generated or received from the outside (S1). The first object included in the first panorama image generated or received by the input of the
이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크 (floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM< 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
The embodiments of the present invention described above can be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination. The program instructions recorded on the computer-readable recording medium may be ones that are specially designed and configured for the present invention and are known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, media), and hardware devices specifically configured to store and execute program instructions such as ROM, RAM < flash memory, and the like. Examples of program instructions include machine language code such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules for performing the processing according to the present invention, and vice versa.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, Those skilled in the art will appreciate that various modifications, additions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.
Therefore, the spirit of the present invention should not be construed as being limited to the above-described embodiments, and all of the equivalents or equivalents of the claims, as well as the following claims, I will say.
10: 클라이언트 단말
100: 파노라마 영상 기반 오브젝트 관리 장치
110: 파노라마 영상 관리부
111: 촬영부
120: 오브젝트 태깅부
130: 실세계 좌표 결정부
140: 저장부
150: 통신부10:
100: panorama image-based object management device
110: Panorama image management unit
111:
120: Object tagging unit
130: Real world coordinate determination unit
140:
150:
Claims (9)
클라이언트 단말의 입력에 기반하여 상기 생성 또는 수신한 제1파노라마 영상에 포함된 제1오브젝트를 태깅하는 단계;
상기 태깅된 제1오브젝트의 실세계 좌표를 결정하는 단계;
상기 결정된 제1오브젝트의 실세계 좌표에 기반하여 제2파노라마 영상에 포함된 제1오브젝트를 태깅하는 단계를 포함하는, 파노라마 영상 기반 오브젝트 관리 방법.
Generating or receiving a first panoramic image;
Tagging a first object included in the generated or received first panorama image based on an input of a client terminal;
Determining a real world coordinate of the tagged first object;
And tagging the first object included in the second panorama image based on the determined real world coordinate of the first object.
상기 생성 또는 수신한 제1파노라마 영상에 포함된 제1오브젝트를 태깅하는 단계는,
상기 제1오브젝트 주위에 텍스트, 이미지, 오디오, 비디오 중 적어도 어느 하나의 멀티미디어를 태그 정보로 입력하는 단계를 더 포함하는, 파노라마 영상 기반 오브젝트 관리 방법.
The method according to claim 1,
Wherein the step of tagging the first object included in the generated or received first panorama image comprises:
Further comprising inputting at least one of text, image, audio, and video multimedia information as tag information around the first object.
상기 태깅된 제1오브젝트의 실세계 좌표를 결정하는 단계는,
상기 제1파노라마 영상이 촬영된 위치 및 상기 태깅된 제1오브젝트의 파노라마 내부 좌표에 기반하여 상기 태깅된 제1오브젝트의 실세계 좌표를 결정하는 단계를 더 포함하는, 파노라마 영상 기반 오브젝트 관리 방법.
The method according to claim 1,
Wherein determining the real world coordinate of the tagged first object comprises:
Determining a real world coordinate of the tagged first object based on a position of the first panorama image and a panorama inner coordinate of the tagged first object.
상기 결정된 제1오브젝트의 실세계 좌표에 기반하여 제2파노라마 영상에 포함된 제1오브젝트를 태깅하는 단계는,
상기 제2파노라마 영상이 촬영된 위치 및 제2파노라마 영상에 포함된 제1오브젝트의 파노라마 내부 좌표에 기반하여 제2파노라마 영상에 포함된 제1오브젝트를 태깅하는 단계를 더 포함하는, 파노라마 영상 기반 오브젝트 관리 방법.
The method of claim 3,
Wherein the step of tagging the first object included in the second panorama image based on the determined real-
Further comprising tagging a first object included in a second panorama image based on a position of the second panorama image and a panorama inner coordinate of a first object included in the second panorama image, How to manage.
Generating or receiving a first panoramic image; Tagging a first object included in the generated or received first panorama image; Determining a real world coordinate of the tagged first object; And tagging a first object included in the second panorama image based on the determined real-world coordinate of the first object. A computer-readable recording medium recording a computer program for performing a method of managing a panorama image- .
클라이언트 단말의 입력에 기반하여 상기 생성 또는 수신한 제1파노라마 영상에 포함된 제1오브젝트를 태깅하는 오브젝트 태깅부; 및
상기 태깅된 제1오브젝트의 실세계 좌표를 결정하는 실세계 좌표 결정부를 포함하되,
상기 오브젝트 태깅부는, 상기 결정된 제1오브젝트의 실세계 좌표에 기반하여 제2파노라마 영상에 포함된 제1오브젝트를 태깅하는, 파노라마 영상 기반 오브젝트 관리 장치.
A panorama image managing unit for generating or receiving a first panorama image;
An object tagging unit for tagging a first object included in the generated or received first panorama image based on an input of a client terminal; And
And a real world coordinate determination unit for determining a real world coordinate of the tagged first object,
Wherein the object tagging unit tags the first object included in the second panorama image based on the determined real world coordinate of the first object.
상기 오브젝트 태깅부는,
상기 제1오브젝트 주위에 텍스트, 이미지, 오디오, 비디오 중 적어도 어느 하나의 멀티미디어를 태그 정보로 입력하는, 파노라마 영상 기반 오브젝트 관리 장치.
The method according to claim 6,
The object tagging unit,
Wherein at least one of text, image, audio, and video multimedia information is tagged around the first object.
상기 실세계 좌표 결정부는,
상기 제1파노라마 영상이 촬영된 위치 및 상기 태깅된 제1오브젝트의 파노라마 내부 좌표에 기반하여 상기 태깅된 제1오브젝트의 실세계 좌표를 결정하는, 파노라마 영상 기반 오브젝트 관리 장치.
The method according to claim 6,
The real-world coordinate determination unit determines,
And determines a real world coordinate of the tagged first object based on a position of the first panorama image and a panorama inner coordinate of the first tagged object.
상기 오브젝트 태깅부는,
상기 제2파노라마 영상이 촬영된 위치 및 제2파노라마 영상에 포함된 제1오브젝트의 파노라마 내부 좌표에 기반하여 제2파노라마 영상에 포함된 제1오브젝트를 태깅하는, 파노라마 영상 기반 오브젝트 관리 장치.9. The method of claim 8,
The object tagging unit,
And tagging a first object included in a second panorama image based on a position of the second panorama image and a panorama inner coordinate of a first object included in the second panorama image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130026327A KR101476800B1 (en) | 2013-03-12 | 2013-03-12 | Apparatus and method for managing object based on panorama media |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130026327A KR101476800B1 (en) | 2013-03-12 | 2013-03-12 | Apparatus and method for managing object based on panorama media |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140111868A true KR20140111868A (en) | 2014-09-22 |
KR101476800B1 KR101476800B1 (en) | 2014-12-26 |
Family
ID=51757128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130026327A KR101476800B1 (en) | 2013-03-12 | 2013-03-12 | Apparatus and method for managing object based on panorama media |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101476800B1 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20080026003A (en) * | 2006-09-19 | 2008-03-24 | 삼성전자주식회사 | Apparatus and method for tagging id in photos by utilizing geographical positions |
KR101669521B1 (en) * | 2010-08-23 | 2016-10-26 | 엘지전자 주식회사 | Mobile terminal and control method therof |
KR101045323B1 (en) * | 2011-04-07 | 2011-06-29 | (주)에디넷 | Realtime image control system using multiple view point camera and control method therefor |
-
2013
- 2013-03-12 KR KR1020130026327A patent/KR101476800B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR101476800B1 (en) | 2014-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102375307B1 (en) | Method, apparatus, and system for sharing virtual reality viewport | |
US9558559B2 (en) | Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system | |
US8917908B2 (en) | Distributed object tracking for augmented reality application | |
KR102314594B1 (en) | Image display method and electronic device | |
US9664527B2 (en) | Method and apparatus for providing route information in image media | |
JP7562629B2 (en) | Method, system and non-transitory computer-readable recording medium for supporting experience sharing among users | |
CN105975570A (en) | Geographic position-based video search method and system | |
JP2015520889A (en) | Method, server, and computer-readable recording medium for providing augmented reality service | |
US10102675B2 (en) | Method and technical equipment for determining a pose of a device | |
KR20210036212A (en) | Server, device and method for providing augmented reality | |
KR101176743B1 (en) | Apparatus and method for recognizing object, information content providing apparatus and information content managing server | |
CN111325792A (en) | Method, apparatus, device, and medium for determining camera pose | |
US20150325040A1 (en) | Method, apparatus and computer program product for image rendering | |
JP7471510B2 (en) | Method, device, equipment and storage medium for picture to video conversion - Patents.com | |
CN116957893B (en) | Watermark generation method, watermark generation device, electronic device and computer readable medium | |
KR102161437B1 (en) | Apparatus for sharing contents using spatial map of augmented reality and method thereof | |
CN109636917B (en) | Three-dimensional model generation method, device and hardware device | |
CN109636922B (en) | Method and device for presenting augmented reality content | |
KR20130118761A (en) | Method and system for generating augmented reality scene | |
CN108713313B (en) | Multimedia data processing method and device, and equipment/terminal/server | |
KR101476800B1 (en) | Apparatus and method for managing object based on panorama media | |
US10282633B2 (en) | Cross-asset media analysis and processing | |
CN112492230B (en) | Video processing method and device, readable medium and electronic equipment | |
US11825191B2 (en) | Method for assisting the acquisition of media content at a scene | |
US20160239518A1 (en) | Method, a system, an apparatus and a computer program product for image-based retrieval |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20171201 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20181203 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20191203 Year of fee payment: 6 |