KR102200246B1 - 콘텐츠 검색 방법, 웨어러블 디바이스 및 컴퓨터 판독가능 매체 - Google Patents

콘텐츠 검색 방법, 웨어러블 디바이스 및 컴퓨터 판독가능 매체 Download PDF

Info

Publication number
KR102200246B1
KR102200246B1 KR1020130168388A KR20130168388A KR102200246B1 KR 102200246 B1 KR102200246 B1 KR 102200246B1 KR 1020130168388 A KR1020130168388 A KR 1020130168388A KR 20130168388 A KR20130168388 A KR 20130168388A KR 102200246 B1 KR102200246 B1 KR 102200246B1
Authority
KR
South Korea
Prior art keywords
wearable device
captured image
content
future
current
Prior art date
Application number
KR1020130168388A
Other languages
English (en)
Other versions
KR20150078730A (ko
Inventor
윤사무엘
권우현
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020130168388A priority Critical patent/KR102200246B1/ko
Publication of KR20150078730A publication Critical patent/KR20150078730A/ko
Application granted granted Critical
Publication of KR102200246B1 publication Critical patent/KR102200246B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

디바이스의 시야 방향을 고려한 콘텐츠 검색 방법은 디바이스의 현재 위치 및 현재 시야 방향을 기초로, 디바이스의 미래 위치 및 미래 시야 방향을 유추하는 단계, 미래 위치 및 미래 시야 방향을 기초로, 미래 가시 영역을 계산하는 단계, 미래 가시 영역 내에 존재하는 내부 콘텐츠를 검색하는 단계 및 검색된 내부 콘텐츠를 표시하는 단계를 포함한다.

Description

콘텐츠 검색 방법, 웨어러블 디바이스 및 컴퓨터 판독가능 매체{METHOD FOR SEARCHING CONTENTS, WEARABLE DEVICE AND COMPUTER-READABLE MEDIUM}
본 발명은 콘텐츠 검색 방법, 웨어러블 디바이스 및 컴퓨터 판독가능 매체에 관한 것이다.
웨어러블 디바이스(wearable device)란, 착용하는 전자기기를 뜻하며, 사용자 신체의 가장 가까운 위치에서 사용자와 소통할 수 있는 전자기기기를 말한다. 웨어러블 디바이스는 주변 환경에 대한 상세 정보 또는 개인의 신체 변화를 실시간으로 수집할 수 있다는 장점을 가지고 있다. 이러한 웨어러블 디바이스는 구글의 구글글래스, 삼성전자의 갤럭시 기어, 애플의 아이워치 등과 같이 다양한 형태로 출시되고 있다.
이러한 웨어러블 디바이스와 관련하여, 선행기술인 한국공개특허 제 2004-0102969호는 착용 가능한 이동통신 단말기를 개시하고 있다.
최근, 사용자들은 웨어러블 디바이스 또는 스마트 디바이스를 이용하여 자신의 이동 경로를 기록할 수 있게 되었다. 이동 경로 정보는 등산, 하이킹과 같은 여가 활동에 접목되어 활용될 수 있게 되었다. 다만, 사용자의 이동 경로 정보는 활용되는 범위가 매우 제한적이므로, 사용자의 이동 경로 정보를 이용하여 사용자에게 효율적인 서비스를 제공할 수 있는 방법이 요구되고 있다.
동영상과 함께 이동 경로 및 시야 방향 등의 정보를 수집하고, 수집된 정보를 이용하여 공간 검색을 수행할 수 있는 콘텐츠 검색 방법, 웨어러블 디바이스 및 컴퓨터 판독가능 매체를 제공하고자 한다. 사용자의 시야 방향을 고려한 공간 객체 검색을 통해 촬영 영상 내 포함된 피사체와 관련된 정보를 정확하게 검색할 수 있는 콘텐츠 검색 방법, 웨어러블 디바이스 및 컴퓨터 판독가능 매체를 제공하고자 한다. 사용자가 이동 중에 경험한 콘텐츠 또는 사용자의 시야 방향을 고려한 경로 등을 제공할 수 있는 콘텐츠 검색 방법, 웨어러블 디바이스 및 컴퓨터 판독가능 매체를 제공하고자 한다. 사용자의 실제 경험을 기록 및 관리할 수 있는 콘텐츠 검색 방법, 웨어러블 디바이스 및 컴퓨터 판독가능 매체를 제공하고자 한다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는 디바이스의 현재 위치 및 현재 시야 방향을 기초로, 디바이스의 미래 위치 및 미래 시야 방향을 유추하는 단계, 미래 위치 및 미래 시야 방향을 기초로, 미래 가시 영역을 계산하는 단계, 미래 가시 영역 내에 존재하는 내부 콘텐츠를 검색하는 단계 및 검색된 내부 콘텐츠를 표시하는 단계를 포함하는 콘텐츠 검색 방법을 제공할 수 있다.
또한, 본 발명의 다른 실시예는, 카메라, 디스플레이 및 카메라 및 디스플레이와 인터페이싱하도록 구성된 프로세싱 유닛을 포함하고, 프로세싱 유닛은 웨어러블 디바이스의 현재 위치 및 현재 시야 방향을 기초로, 웨어러블 디바이스의 미래 위치 및 미래 시야 방향을 유추하고, 미래 위치 및 미래 시야 방향을 기초로, 미래 가시 영역을 계산하고, 미래 가시 영역 내에 존재하는 내부 콘텐츠를 검색하고, 검색된 내부 콘텐츠를 디스플레이를 통해 표시하도록 구성되는 웨어러블 디바이스를 제공할 수 있다.
또한, 본 발명의 또 다른 실시예는, 웨어러블 디바이스(wearable device)에 장착된 컴퓨팅 장치에 의해 실행될 때, 컴퓨팅 장치가 웨어러블 디바이스의 현재 위치 및 현재 시야 방향을 기초로, 웨어러블 디바이스의 미래 위치 및 미래 시야 방향을 유추하고, 미래 위치 및 미래 시야 방향을 기초로, 미래 가시 영역을 계산하고, 미래 가시 영역 내에 존재하는 내부 콘텐츠를 검색하고, 검색된 내부 콘텐츠를 디스플레이를 통해 표시하도록 하는 컴퓨터 판독가능 매체를 제공할 수 있다.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 동영상과 함께 이동 경로 및 시야 방향 등의 정보를 수집하고, 수집된 정보를 이용하여 공간 검색을 수행할 수 있는 콘텐츠 검색 방법, 웨어러블 디바이스 및 컴퓨터 판독가능 매체를 제공할 수 있다. 사용자의 시야 방향을 고려한 공간 객체 검색을 통해 촬영 영상 내 포함된 피사체와 관련된 정보를 정확하게 검색할 수 있는 콘텐츠 검색 방법, 웨어러블 디바이스 및 컴퓨터 판독가능 매체를 제공할 수 있다. 사용자가 이동 중에 경험한 콘텐츠 또는 사용자의 시야 방향을 고려한 경로 등을 제공할 수 있는 콘텐츠 검색 방법, 웨어러블 디바이스 및 컴퓨터 판독가능 매체를 제공할 수 있다. 사용자의 실제 경험을 기록 및 관리할 수 있는 콘텐츠 검색 방법, 웨어러블 디바이스 및 컴퓨터 판독가능 매체를 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 콘텐츠 검색 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 웨어러블 디바이스의 구성도이다.
도 3은 본 발명의 일 실시예에 따른 이동 경로 정보를 동영상 프레임에 대응하도록 맵핑시키는 과정을 나타낸 흐름도이다.
도 4a 내지 도 4b는 현재 가시 영역을 생성하는 과정을 설명하기 위한 도면이다.
도 5a 내지 도 5c는 미래 가시 영역으로부터 콘텐츠를 검색하는 과정을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 웨어러블 디바이스에서 촬영 영상의 전송 방법을 나타낸 흐름도이다.
도 7은 업로드 조건을 나타낸 도면이다.
도 8은 본 발명의 일 실시예에 따른 공간 검색 서버에서 촬영 영상을 검색하여 검색 결과를 웨어러블 디바이스로 전송하는 방법을 나타낸 흐름도이다.
도 9는 본 발명의 일 실시예에 따른 콘텐츠 검색 방법을 나타낸 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다.
본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다.
이하 첨부된 도면을 참고하여 본 발명의 일 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 콘텐츠 검색 시스템의 구성도이다. 도 1을 참조하면, 콘텐츠 검색 시스템(1)은 공간 검색 서버(100) 및 웨어러블 디바이스(150)를 포함할 수 있다. 도 1에 도시된 공간 검색 서버(100) 및 웨어러블 디바이스(150)는 콘텐츠 검색 시스템(1)에 의하여 제어될 수 있는 구성요소들을 예시적으로 도시한 것이다. 도 1의 콘텐츠 검색 시스템(1)의 각 구성요소들은 일반적으로 네트워크(network)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 웨어러블 디바이스(150)은 네트워크를 통하여 공간 검색 서버(100)와 연결될 수 있다.
네트워크는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예는, Wi-Fi, 블루투스(Bluetooth), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 3G, 4G, LTE 등이 포함되나 이에 한정되지는 않는다.
공간 검색 서버(100)는 웨어러블 디바이스(150)로부터 메타 데이터를 수신할 수 있다. 메타 데이터는 촬영 영상에 포함된 특정 프레임에 대해 생성될 수 있다. 촬영 영상은 웨어러블 디바이스(150)의 착용자가 이동 중에 현재 가시 영역에 대해 촬영한 영상일 수 있다. 메타 데이터는 예를 들어, 프레임 식별자, 현재 위치, 현재 시야 방향, 현재 시각, 전송 요청 플래그 및 검색자 정보 등을 포함할 수 있다.
공간 검색 서버(100)는 촬영 영상 중 전부 또는 일부를 전송해줄 것을 웨어러블 디바이스(150)로 요청하고, 웨어러블 디바이스(150)로부터 촬영 영상 중 전부 또는 일부를 수신할 수 있다. 예를 들어, 공간 검색 서버(100)는 촬영 영상 중 일부가 데이터베이스 내에 존재하지 않으면, 해당 촬영 영상을 웨어러블 디바이스(150)로 요청할 수 있다.
공간 검색 서버(100)는 웨어러블 디바이스(150)로부터 촬영 영상을 수신할 수 있다. 예를 들어, 공간 검색 서버(100)는 촬영 영상이 미리 설정된 업로드 조건을 만족하는 경우에 수신할 수 있다.
웨어러블 디바이스(150)는 내장 또는 장착된 카메라를 이용하여 현재 가시 영역에 대한 촬영 영상을 생성할 수 있다. 예를 들어, 웨어러블 디바이스(150)는 내장된 GPS Tracker를 이용하여 현재 위치 정보, 현재 시각 정보, 현재 고도 정보 등을 획득할 수 있다. 또한, 웨어러블 디바이스(150)는 내장된 3축 지자계 센서 등을 이용하여 현재 시야 방향을 획득할 수 있다. 또한, 웨어러블 디바이스(150)는 이와 같이 획득한 정보를 특정 프레임과 맵핑하여 촬영 영상에 대한 메타 데이터를 생성하고, 메타 데이터만을 우선 공간 검색 서버(100)로 전송할 수 있다. 메타 데이터는 촬영 영상에 포함된 특정 프레임에 대해 생성되며, 예를 들어, 프레임 식별자, 현재 위치, 현재 시야 방향, 현재 시각, 전송 요청 플래그 및 검색자 정보 중 하나 이상을 포함할 수 있다.
웨어러블 디바이스(150)는 디바이스의 현재 위치 및 현재 시야 방향을 기초로 디바이스의 미래 위치 및 미래 시야 방향을 유추하고, 미래 위치 및 미래 시야 방향을 기초로 미래 가시 영역을 미리 계산할 수 있다. 이 때, 미래 가시 영역은 디바이스의 가시 거리 및 시야각 등에 기초하여 계산될 수 있다. 예를 들어, 웨어러블 디바이스(150)는 5초간의 이동 방향 또는 시야 방향의 평균 움직임에 기초하여 미래 가시 영역을 계산할 수 있다.
웨어러블 디바이스(150)는 미래 가시 영역 내에 존재하는 내부 콘텐츠를 검색할 수 있다. 예를 들어, 웨어러블 디바이스(150)는 가시 영역에 대해 부채꼴 모양의 FOV Scene을 유추하고 MBTR(Minimum Boundary Tilted Rectangle) 영역을 계산하고, MBTR 영역을 R-tree로 인덱싱한 영역에 공간 질의를 수행하여 해당 영역에 존재하는 내부 콘텐츠를 검색하고, 검색된 내부 콘텐츠를 표시할 수 있다.
또한, 웨어러블 디바이스(150)는 미래 가시 영역의 외부에 존재하는 외부 콘텐츠도 검색할 수 있다. 이 때, 웨어러블 디바이스(150)는 외부 콘텐츠가 사용자의 가시 영역 내에 들어오도록 유도할 수 있다. 예를 들어, 외부 콘텐츠가 사용자의 시야 방향에서 좌측 방향으로 15도 지점에 위치한 경우, 웨어러블 디바이스(150)는 외부 콘텐츠가 가시 영역 내에 들어오도록 현재 시야 방향의 변경을 추천할 수 있다. 다른 예를 들어, 외부 콘텐츠가 사용자의 이동 방향에서 우측 방향에 위치한 경우, 웨어러블 디바이스(150)는 외부 콘텐츠가 가시 영역 내에 들어오도록 이동 방향의 변경을 추천할 수도 있다.
웨어러블 디바이스(150)는 공간 검색 서버(100)로부터 촬영 영상 중 일부에 대한 전송 요청을 수신하면, 촬영 영상 중 일부를 공간 검색 서버(100)로 전송할 수 있다. 한편, 웨어러블 디바이스(150)는 사용자 인터페이스를 통해 촬영 영상에 대한 업로드 조건을 설정받을 수 있으며, 촬영 영상이 업로드 조건에 만족하는 경우, 웨어러블 디바이스(150)는 촬영 영상을 공간 검색 서버(100)로 미리 전송할 수 있다. 업로드 조건은 예를 들어, 업로드 가능한 시간대, 업로드 데이터량, 네트워크 종류, 업로드 요청 체크 등을 포함할 수 있다.
이러한 웨어러블 디바이스(150)의 일 예는 사용자의 신체에 착용이 가능한 스마트 글래스(Smart Glass), HMD(Head Mounted Display), 또는 HUD(Head Up Display)와 같은 디스플레이를 포함할 수 있으며, 상술한 예에 한정되지 않는다.
도 2는 본 발명의 일 실시예에 따른 웨어러블 디바이스(150)의 구성도이다. 도 2를 참조하면, 웨어러블 디바이스(150)는 카메라(210), 디스플레이(220) 및 카메라(210) 및 디스플레이(220)와 인터페이싱하도록 구성된 프로세싱 유닛(230)을 포함할 수 있다. 또한, 웨어러블 디바이스(150)는 콘텐츠를 검색하고 표시하게 하는 명령어들의 시퀀스를 포함하는 컴퓨터 판독가능 매체를 포함할 수 있다.
카메라(210)는 현재 가시 영역에 대한 촬영 영상을 생성할 수 있다.
프로세싱 유닛(230)은 웨어러블 디바이스(150)의 현재 위치 및 현재 시야 방향을 획득할 수 있다. 예를 들어, 프로세싱 유닛(230)은 GPS 트래커(GPS Tracker)를 이용하여 현재 위치 정보, 현재 시각 정보, 현재 고도 정보 등과 같은 이동 경로 정보를 획득하고, 획득한 이동 경로 정보를 촬영 영상의 특정 프레임에 대응하도록 맵핑시킬 수 있다. 예를 들어, 현재 위치를 Pn, 현재 시각을 tn, 특정 과거 위치를 Pk, 특정 과거 시각을 tk, 시작 위치를 P0, 시작 시각을 t0로 나타낼 수 있다. 또한, 프로세싱 유닛(230)은 웨어러블 디바이스(150)에 내장된 3축 지자기 센서(Compass Sensor) 등을 통해 사용자의 현재 시야 방향을 측정할 수 있다. 이 경우, 측정된 현재 시야 방향에 대해 현재 진행 방향을 dn, 특정 과거 진행 방향을 dk, 시작 진행 방향을 d0로 나타낼 수 있다. 이와 같이 정의된 이동 경로 정보를 촬영 영상의 특정 프레임에 대응하도록 맵핑시켜, 촬영 영상에 대한 메타 데이터를 생성할 수 있다. 이와 같은 메타 데이터로부터 현재 가시 영역을 유추하는 방법에 대해서는, 이하에서 도 3, 도 4a 및 도 4b를 참조하여 상세히 설명하기로 한다.
도 3은 본 발명의 일 실시예에 따른 이동 경로 정보를 촬영 영상의 각 프레임에 대응하도록 맵핑시키는 과정을 나타낸 흐름도이다. 도 3에 도시된 실시예에 따른 웨어러블 디바이스(150)에 의해 수행되는 이동 경로 정보를 촬영 영상의 각 프레임에 대응하도록 매핑시키는 방법은 도 1에 도시된 실시예에 따른 콘텐츠 검색 시스템(1)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1에 도시된 실시예에 따른 검색 시스템(1)에 관하여 이미 기술된 내용은 도 3에 도시된 실시예에 따른 웨어러블 디바이스(150)에 의해 수행되는 이동 경로 정보를 촬영 영상의 프레임에 대응하도록 맵핑시키는 방법에도 적용된다.
도 3을 참조하면, 웨어러블 디바이스(150)는 GPS 데이터 및 촬영 영상 데이터를 입력하고(S310), GPS 데이터 및 촬영 영상 데이터로부터 P0 = Vposition, Pt = Vtime 의 여부를 확인한다(S320). 이 때, 웨어러블 디바이스(150)는 GPS 데이터 및 촬영 영상 데이터가 P0 = Vposition, Pt = Vtime 인 경우, GPS 데이터와 촬영 영상 데이터를 맵핑시키고(S330), 검색 데이터베이스(DB)에 저장한다(S340). 또한, 웨어러블 디바이스(150)는 GPS 데이터 및 촬영 영상 데이터가 P0 = Vposition, Pt = Vtime 가 아닌 경우, 다음 데이터에 대해 GPS 데이터 및 촬영 영상 데이터가 P0 = Vposition 인지의 여부를 확인한다(S321). 이와 같이 하여, GPS 데이터 및 촬영 영상 데이터가 P0 = Vposition가 된 경우(S321), 웨어러블 디바이스(150)는 P0 위치에 대응하도록 GPS를 트리밍(trimming)시키고(S322), GPS 데이터와 촬영 영상 데이터를 맵핑시키고(S330), 검색 데이터베이스(DB)에 저장한다(S340). 또한, GPS 데이터 및 촬영 영상 데이터가 P0 = Vposition가 아닌 경우(S321), 웨어러블 디바이스(150)는 다음 데이터에 대해 GPS 데이터 및 촬영 영상 데이터가 P0 = Vtime 인지의 여부를 확인한다(S323). 이와 같이 하여, GPS 데이터 및 촬영 영상 데이터가 P0 = Vtime 가 된 경우(S324), 웨어러블 디바이스(150)는 Pt 위치에 대응하도록 GPS를 트리밍(trimming)시키고(S324), GPS 데이터와 촬영 영상 데이터를 맵핑시키고(S330), 검색 데이터베이스(DB)에 저장한다. 또한, GPS 데이터 및 촬영 영상 데이터가 P0 = Vtime 인 경우, 웨어러블 디바이스(150)는 업로드 파일을 아카이브에 저장한다(S350).
상술한 설명에서, 단계 S310 내지 S350은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
도 4a 내지 도 4b는 메타 데이터 및 현재 가시 영역을 생성하는 과정을 설명하기 위한 도면이다. 도 4a는 촬영 영상에 대한 메타 데이터의 예를 나타내는 도면이다. 도 4a를 참조하면, 프로세싱 유닛(230)은 촬영 영상에 대한 메타 데이터를 생성하고, 메타 데이터를 공간 검색 서버(100)로 전송할 수 있다. 이 때, 메타 데이터는 파라미터명(410)과 그 내용(420)을 포함할 수 있다. 파라미터명(410)은 ID(411), 프레임 식별자(412), 현재 위치(413), 현재 시야 방향(414), 현재 시각(415), 전송 요청 플래그(416), 검색자 정보(417) 등을 포함할 수 있다. ID(411)는 데이터의 고유한 아이디를 나타낼 수 있다. 프레임 식별자(412)는 촬영 영상의 시작점에서의 오프셋 값을 나타낼 수 있다. 현재 위치(413)는 위도 및 경도를 포함하는 위치 정보를 나타낼 수 있다. 현재 시야 방향(414)는 카메라가 바라보는 방향을 나타낼 수 있다. 현재 시각(415)은 현재 지점에서의 시각을 나타낼 수 있다. 전송 요청 플래그(416)는 다른 사용자로부터 검색 요청을 수신한 경우, 웨어러블 디바이스(150)에 파일 전송 요청 여부를 지정하는 플래그를 나타낼 수 있다. 검색자 정보(417)는 검색을 요청한 다른 사용자의 리스트를 나타내며, 촬영 영상 정보가 모두 전송되면, 알림 메시지를 전송할 수 있다.
도 4b는 메타 데이터로부터 현재 가시 영역을 유추한 도면이다. 도 4b를 참조하면, 웨어러블 디바이스(150)에 내장 또는 장착된 카메라(210)를 이용하여 영상을 촬영하면, 촬영 영상 및 메타 데이터로부터 사용자의 현재 가시 영역을 유추할 수 있다. 예를 들어, r은 사용자의 시야 거리를 나타내고, P는 사용자의 현재 위치를 나타내고, d는 사용자의 시야 방향,
Figure 112013121082013-pat00001
사용자의 시야각을 나타낼 수 있다. 이 때, 사용자의 시야 방향을 나타내는 d는 3축 지자기 센서를 이용해 측정된 3차원 벡터값을 나타낸다. 프로세싱 유닛(230)은 r, P, d,
Figure 112013121082013-pat00002
이용하여 부채꼴 모양의 현재의 가시 영역(FOV Scene)을 유추할 수 있다.
다시 도 2로 돌아와서, 프로세싱 유닛(230)은 동영상 촬영 시의 가시 거리 및 시야각의 값을 산출하여 미래 위치 및 미래 시야 방향을 유추하고, 미래 위치 및 미래 시야 방향을 기초로 미래 가시 영역을 계산할 수 있다. 예를 들어, 프로세싱 유닛(230)은 현재의 가시 영역으로부터 미래 위치, 가시거리, 시야각 등을 유추하여 미래 가시 영역을 계산할 수 있다. 프로세싱 유닛(230)은 미래 가시 영역을 계산하기 위해 예를 들어, 최근 5초간의 이동 방향 또는 시야 방향의 평균 움직임 등을 이용할 수 있다.
이와 같이 프로세싱 유닛(230)에서 수행되는 미래 가시 영역을 유추하고, 미래 가시 영역의 내부 또는 외부에 위치한 콘텐츠를 검색하는 방법에 대해서는, 이하에서 도 5a 내지 도 5c를 참조하여 상세히 설명하기로 한다.
도 5a 내지 도 5c는 미래 가시 영역의 내부 또는 외부에 위치한 콘텐츠를 검색하는 과정을 설명하기 위한 도면이다.
도 5a를 참조하면, 프로세싱 유닛(230)은 복수의 가시 영역에 대한 FOV Scene 을 연속적으로 연결함으로써, MBTR(Minimum Boundary Tilted Rectangle)을 형성할 수 있다. 사용자의 이동 경로가 변경된 경우, 변경 이전의 제 1 MBTR(510)과 변경 이후의 제 2 MBTR(515)로 2개의 MBTR을 형성할 수 있다.
프로세싱 유닛(230)은 MBTR로 묶인 FOV Scene을 R-tree를 이용하여 인덱싱할 수 있다. R-tree는 N차원의 공간 데이터를 효과적으로 저장하고, 지리정보와 관련된 질의를 빠르게 수행할 수 있는 자료 구조를 말한다. 프로세싱 유닛(230)은 공간이 최소경계사각형인 MBR 또는 MBTR로 분할된 영역을 R-tree로 인덱싱하여 공간 질의를 수행할 수 있다.
도 5b는 가시 영역 내에 위치하는 내부 콘텐츠(520)를 도시한 도면이다. 도 5b를 참조하면, 프로세싱 유닛(230)은 미래의 가시 영역 내에 존재하는 내부 콘텐츠(520)를 검색할 수 있다. 이 때, 내부 콘텐츠(520)는 MBTR(521) 내에 존재할 수 있으며, 프로세싱 유닛(230)은 인덱싱된 데이터를 이용하여 공간 질의를 수행할 수 있다.
프로세싱 유닛(230)은 검색된 내부 콘텐츠를 디스플레이를 통해 표시할 수 있다.
도 5c는 미래 가시 영역의 외부에 존재하는 외부 콘텐츠(533 내지 534)를 도시한 도면이다. 도 5c를 참조하면, 프로세싱 유닛(230)은 미래 가시 영역의 외부에 존재하는 외부 콘텐츠(533 내지 534)를 검색할 수 있다. 이 때, 프로세싱 유닛(230)은 검색된 외부 콘텐츠(533 내지 534)가 가시 영역 내에 들어오도록 할 수 있다. 예를 들어, 프로세싱 유닛(230)은 현재 기록된 이동 경로(530)로부터 부채꼴 모양의 콘텐츠 추천 범위(531)를 가질 수 있다.
이 때, 사용자의 예측 경로(532) 내에 콘텐츠가 존재하지 않고, 미래 가시 영역의 외부에 콘텐츠(533 내지 534)가 존재하는 경우, 프로세싱 유닛(230)은 프로세싱 유닛(230)은 외부 콘텐츠(533 내지 534)가 가시 영역 내에 들어오도록, 현재 시야 방향의 변경을 추천할 수 있다. 예를 들어, 프로세싱 유닛(230)은 제 1 외부 콘텐츠(533)가 위치한 방향으로 시야 방향의 변경(535)을 추천할 수 있다. 다른 예를 들어, 프로세싱 유닛(230)은 외부 콘텐츠(533 내지 534)가 가시 영역 내에 들어오도록, 이동 방향의 변경을 추천할 수 있다. 예를 들어, 프로세싱 유닛(230)은 제 1 외부 콘텐츠(533)이 위치한 방향으로, 이동 방향의 경로의 변경(536)을 추천할 수 있다. 이 때, 프로세싱 유닛(230)은 현재 이동 방향에서 예를 들어, 우측 방향으로 15도와 같이 제 1 외부 콘텐츠(533)가 위치한 방향으로 이동 방향의 경로 변경(536)을 추천할 수 있다.
다시 도 2로 돌아와서, 프로세싱 유닛(230)은 공간 검색 서버(100)로부터 촬영 영상 중 일부에 대한 전송 요청을 수신하면, 공간 검색 서버(100)로 촬영 영상 중 일부를 전송할 수 있다. 또한, 프로세싱 유닛(230)은 촬영 영상에 대한 업로드 조건을 사용자 인터페이스로부터 설정받고, 촬영 영상이 업로드 조건을 만족하는 경우, 촬영 영상을 공간 검색 서버(100)로 전송할 수 있다. 이와 같이 프로세싱 유닛(230)에서 촬영 영상을 업로드하는 과정에 대해서는, 이하에서 도 6 내지 도 7을 참조하여 상세히 설명하기로 한다.
도 6은 본 발명의 일 실시예에 따른 웨어러블 디바이스(150)에서 촬영 영상을 공간 검색 서버(100)로 전송하는 방법을 나타낸 흐름도이다. 도 6에 도시된 실시예에 따른 웨어러블 디바이스(150)에 의해 수행되는 촬영 영상을 공간 검색 서버(100)로 전송하는 방법은 도 1에 도시된 실시예에 따른 콘텐츠 검색 시스템(1)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1에 도시된 실시예에 따른 콘텐츠 검색 시스템(1)에 관하여 이미 기술된 내용은 도 6에 도시된 실시예에 따른 웨어러블 디바이스(150)에 의해 수행되는 촬영 영상을 공간 검색 서버(100)로 전송하는 방법에도 적용된다.
도 6을 참조하면, 웨어러블 디바이스(150)는 신규 위치 데이터 및 촬영 영상 데이터를 생성한다(S610). 웨어러블 디바이스(150)는 위치 데이터를 포함하는 메타 데이터를 공간 검색 서버(100)로 전송한다(S620). 웨어러블 디바이스(150)는 공간 검색 서버(100)로부터 촬영 영상 데이터의 업로드 요청을 수신하면(S630), 웨어러블 디바이스(150)는 요청받은 촬영 영상 파일에 대해 업로드 요청 플래그를 설정한다(S640). 웨어러블 디바이스(150)는 촬영 영상 데이터가 업로드 조건에 만족하는지를 확인한다(S650). 이 때, 촬영 영상 데이터가 업로드 조건에 만족하면, 촬영 영상을 공간 검색 서버(100)로 전송 하고(S670), 촬영 영상 데이터가 업로드 조건에 만족하지 않으면, 촬영 영상 데이터가 업로드 조건에 만족될 때까지 대기를 한 후(S660), 촬영 영상 데이터를 공간 검색 서버로 전송한다(S670).
상술한 설명에서, 단계 S610 내지 S670은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
도 7은 업로드 조건의 일 예를 나타낸 도면이다. 도 7을 참조하면, 업로드 조건은 파라미터명(710), 조건분기(720), 내용(730)을 포함할 수 있다. 제 1 파라미터인 UploadTime(730)은 조건 분기(720)로 'ANY' 또는 'SELECTED'를 가지며, 업로드 가능한 시간대의 설정을 의미한다. 업로드 가능한 시간대의 설정은 웨어러블 디바이스(150) 또는 공간 검색 서버(100)에서 설정이 가능하다. 이 때, 업로드 가능한 시간대 설정은 사용자의 설정을 우선으로 할 수 있다. 제 2 파라미터인 MaxUploadSize(740)는 사용자가 업로드 데이터량을 제한할 수 있다는 것을 의미한다. 제 3 파라미터인 UploadLinkType(750)은 조건 분기(720)로 'LAN only', 'WAN only' 또는 'both'를 가지며, 촬영 영상을 어떤 네트워크 종류에 따라 업로드할 것인지를 결정하는 것을 의미한다. 제 4 파라미터인 UploadRequestFlag(714)는 조건 분기(720)로 'True' 또는 'False'를 가지며, 공간 검색 서버(100)로부터 업로드 요청을 수신하였는지의 여부를 체크하는 것을 의미한다.
웨어러블 디바이스(150)에는 컴퓨팅 장치가 장착되고, 이 컴퓨팅 장치는 웨어러블 디바이스의 현재 위치 및 현재 시야 방향을 기초로 웨어러블 디바이스(150)의 미래 위치 및 미래 시야 방향을 유추하고, 미래 위치 및 미래 시야 방향을 기초로 미래 가시 영역을 계산하고, 미래 가시 영역 내에 존재하는 내부 콘텐츠를 검색하고, 검색된 내부 콘텐츠를 디스플레이를 통해 표시하도록 하는 컴퓨터 판독가능 매체를 포함할 수 있다.
컴퓨터 판독가능 매체는 컴퓨팅 장치에 의해 실행될 때, 컴퓨팅 장치가 미래 가시 영역의 외부에 존재하는 외부 콘텐츠를 검색하고, 외부 콘텐츠가 가시 영역 내에 들어오도록, 현재 시야 방향의 변경을 추천하도록 하는 명령어들의 시퀀스를 더 포함할 수 있다.
컴퓨터 판독가능 매체는 컴퓨팅 장치에 의해 실행될 때, 컴퓨팅 장치가 미래 가시 영역의 외부에 존재하는 외부 콘텐츠를 검색하고, 외부 콘텐츠가 가시 영역 내에 들어오도록 이동 방향의 변경을 추천하도록 하는 명령어들의 시퀀스를 더 포함할 수 있다.
컴퓨터 판독가능 매체는 컴퓨팅 장치에 의해 실행될 때, 컴퓨팅 장치가 현재 가시 영역에 대한 촬영 영상을 생성하고, 촬영 영상에 대한 메타 데이터를 생성하고, 메타 데이터를 공간 검색 서버(100)로 전송하도록 하는 명령어들의 시퀀스를 더 포함할 수 있다.
컴퓨터 판독가능 매체는 컴퓨팅 장치에 의해 실행될 때, 컴퓨팅 장치가 촬영 영상에 대한 업로드 조건을 설정하고, 업로드 조건을 만족하는 경우, 촬영 영상을 공간 검색 서버(100)로 전송하도록 하는 명령어들의 시퀀스를 더 포함할 수 있다.
도 8은 본 발명의 일 실시예에 따른 공간 검색 서버(100)에서 촬영 영상을 웨어러블 디바이스(150)로 요청하는 방법을 나타낸 흐름도이다. 도 8에 도시된 실시예에 따른 공간 검색 서버(100)에 의해 수행되는 촬영 영상을 웨어러블 디바이스(150)로 요청하는 방법은 도 1에 도시된 실시예에 따른 콘텐츠 검색 시스템(1)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1에 도시된 실시예에 따른 콘텐츠 검색 시스템(1)에 관하여 이미 기술된 내용은 도 8에 도시된 실시예에 따른 공간 검색 서버(100)에 의해 수행되는 촬영 영상을 웨어러블 디바이스(150)로 요청하는 방법에도 적용된다.
공간 검색 서버(100)는 웨어러블 디바이스(150)로부터 GPS 데이터를 수집한다(S810). 공간 검색 서버(100)는 위치 기반 메타 데이터를 수신한다(S820). 공간 검색 서버(100)가 다른 사용자의 디바이스로부터 검색 요청을 수신하면(S830), 공간 검색 서버(100)는 촬영 영상 데이터의 보관 여부를 확인한다(S840). 이 때, 촬영 영상이 보관된 것으로 확인되면, 공간 검색 서버(100)는 검색 결과를 요청한 디바이스로 전송한다(S841). 또한, 촬영 영상이 데이터 베이스에 보관된 것으로 확인되지 않으면, 공간 검색 서버(100)는 해당 영상을 보관하고 있는 디바이스(150)로 촬영 영상의 원본을 요청하고(S842), 촬영 영상의 수집이 완료되면, 디바이스(150)로 알림을 전송하고(S843), 검색 결과를 요청한 디바이스로 전송한다(S841).
상술한 설명에서, 단계 S810 내지 S843은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
도 9는 본 발명의 일 실시예에 따른 콘텐츠 검색 방법을 나타낸 흐름도이다. 도 9에 도시된 실시예에 따른 웨어러블 디바이스(150)에 의해 수행되는 콘텐츠 검색 방법은 도 1에 도시된 실시예에 따른 콘텐츠 검색 시스템(1)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1에 도시된 실시예에 따른 콘텐츠 검색 시스템(1)에 관하여 이미 기술된 내용은 도 9에 도시된 실시예에 따른 웨어러블 디바이스(150)에 의해 수행되는 콘텐츠 검색 방법에도 적용된다.
단계 S910에서 웨어러블 디바이스(150)는 디바이스의 현재 위치 및 현재 시야 방향을 기초로 디바이스의 미래 위치 및 미래 시야 방향을 유추한다. 단계 S920에서 웨어러블 디바이스(150)는 미래 위치 및 미래 시야 방향을 기초로 미래 가시 영역을 계산한다. 미래 가시 영역은 예를 들어, 디바이스의 가시 거리 및 시야각에 기초하여 계산될 수 있다. 단계 S930에서 웨어러블 디바이스(150)는 미래 가시 영역 내에 존재하는 내부 콘텐츠를 검색한다. 이 때, 단계 S930은 미래 가시 영역에 대한 MBTR(Minimum Boundary Tilted Rectangle) 영역을 계산하는 단계 및 MBTR 영역을 R-tree로 인덱싱한 영역에 공간 질의를 수행하는 단계를 더 포함할 수 있다. 단계 S940에서 웨어러블 디바이스(150)는 검색된 내부 콘텐츠를 표시한다.
도 9에는 도시되지 않았으나, 웨어러블 디바이스(150)는 미래 가시 영역의 외부에 존재하는 외부 콘텐츠를 검색하는 단계 및 외부 콘텐츠가 가시 영역 내에 들어오도록 현재 시야 방향의 변경을 추천하는 단계를 포함할 수 있다.
도 9에는 도시되지 않았으나, 웨어러블 디바이스(150)는 미래 가시 영역의 외부에 존재하는 외부 콘텐츠를 검색하는 단계 및 외부 콘텐츠가 가시 영역 내에 들어오도록 이동 방향의 변경을 추천하는 단계를 포함할 수 있다.
도 9에는 도시되지 않았으나, 웨어러블 디바이스(150)는 현재 가시 영역에 대한 촬영 영상을 생성하는 단계, 촬영 영상에 대한 메타 데이터를 생성하는 단계 및 메타 데이터를 공간 검색 서버(100)로 전송하는 단계를 더 포함할 수 있다. 이 때, 메타 데이터는 촬영 영상에 포함된 프레임에 대해 생성되며, 메타 데이터는 예를 들어, 프레임 식별자, 현재 위치, 현재 시야 방향, 현재 시각, 전송 요청 플래그 및 검색자 정보 등을 포함할 수 있다.
도 9에는 도시되지 않았으나, 웨어러블 디바이스(150)는 공간 검색 서버(100)로부터 촬영 영상 중 일부에 대한 전송 요청을 수신하는 단계 및 공간 검색 서버(100)로 촬영 영상 중 일부를 전송하는 단계를 더 포함할 수 있다.
도 9에는 도시되지 않았으나, 웨어러블 디바이스(150)는 촬영 영상에 대한 업로드 조건을 설정하는 단계 및 업로드 조건을 만족하는 경우, 촬영 영상을 공간 검색 서버(100)로 전송하는 단계를 더 포함할 수 있다.
상술한 설명에서, 단계 S910 내지 S940은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
도 9를 통해 설명된 콘텐츠 검색 방법은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 서버
150: 웨어러블 디바이스
210: 카메라
220: 디스플레이
230: 프로세싱 유닛

Claims (20)

  1. 디바이스에 의해 구동되는 디바이스의 시야 방향을 고려한 콘텐츠 검색 방법에 있어서,
    상기 디바이스의 가시 거리 및 시야각에 기초하여 상기 디바이스의 미래 가시 영역을 계산하는 단계;
    상기 미래 가시 영역 내에 존재하는 내부 콘텐츠를 검색하는 단계; 및
    상기 검색된 내부 콘텐츠를 표시하는 단계
    를 포함하고,
    상기 계산된 미래 가시 영역의 외부에 존재하는 외부 콘텐츠를 검색하는 단계; 및
    상기 외부 콘텐츠가 상기 디바이스의 현재 가시 영역 내에 들어오도록, 상기 디바이스의 현재 시야 방향의 변경을 추천하는 단계
    를 더 포함하는, 콘텐츠 검색 방법.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 외부 콘텐츠가 가시 영역 내에 들어오도록, 이동 방향의 변경을 추천하는 단계
    를 더 포함하는, 콘텐츠 검색 방법.
  4. 삭제
  5. 제 1 항에 있어서,
    상기 내부 콘텐츠를 검색하는 단계는
    상기 미래 가시 영역에 대한 MBTR(Minimum Boundary Tilted Rectangle) 영역을 계산하는 단계; 및
    상기 MBTR 영역을 R-tree로 인덱싱한 영역에, 공간 질의를 수행하는 단계
    를 포함하는 것인, 콘텐츠 검색 방법.
  6. 제 1 항에 있어서,
    상기 미래 가시 영역을 계산하는 단계의 이전에, 현재 가시 영역에 대한 촬영 영상을 생성하는 단계;
    상기 촬영 영상에 대한 메타 데이터를 생성하는 단계; 및
    상기 메타 데이터를 공간 검색 서버로 전송하는 단계
    를 더 포함하는, 콘텐츠 검색 방법.
  7. 제 6 항에 있어서,
    상기 메타 데이터는 상기 촬영 영상에 포함된 프레임에 대해 생성되며,
    상기 메타 데이터는 프레임 식별자, 현재 위치, 현재 시야 방향, 현재 시각, 전송 요청 플래그 및 검색자 정보 중 하나 이상을 포함하는 것인, 콘텐츠 검색 방법.
  8. 제 6 항에 있어서,
    상기 공간 검색 서버로부터, 상기 촬영 영상 중 일부에 대한 전송 요청을 수신하는 단계;
    상기 공간 검색 서버로 상기 촬영 영상 중 일부를 전송하는 단계
    를 더 포함하는, 콘텐츠 검색 방법.
  9. 제 6 항에 있어서,
    상기 촬영 영상에 대한 업로드 조건을 설정하는 단계; 및
    상기 업로드 조건을 만족하는 경우, 상기 촬영 영상을 상기 공간 검색 서버로 전송하는 단계
    를 더 포함하는, 콘텐츠 검색 방법.
  10. 웨어러블 디바이스(wearable device)에 있어서,
    카메라,
    디스플레이, 및
    상기 카메라 및 상기 디스플레이와 인터페이싱하도록 구성된 프로세싱 유닛
    을 포함하고,
    상기 프로세싱 유닛은,
    상기 웨어러블 디바이스의 가시 거리 및 시야각에 기초하여 상기 웨어러블 디바이스의 미래 가시 영역을 계산하고,
    상기 미래 가시 영역 내에 존재하는 내부 콘텐츠를 검색하고,
    상기 검색된 내부 콘텐츠를 상기 디스플레이를 통해 표시하도록 구성되고,
    상기 계산된 미래 가시 영역의 외부에 존재하는 외부 콘텐츠를 검색하고,
    상기 외부 콘텐츠가 상기 웨어러블 디바이스의 현재 가시 영역 내에 들어오도록, 상기 웨어러블 디바이스의 현재 시야 방향의 변경을 추천하도록 더 구성되는, 웨어러블 디바이스.
  11. 삭제
  12. 제 10 항에 있어서,
    상기 프로세싱 유닛은,
    상기 외부 콘텐츠가 가시 영역 내에 들어오도록, 이동 방향의 변경을 추천하도록 더 구성되는, 웨어러블 디바이스.
  13. 제 10 항에 있어서,
    상기 카메라는 현재 가시 영역에 대한 촬영 영상을 생성하고,
    상기 프로세싱 유닛은,
    상기 촬영 영상에 대한 메타 데이터를 생성하고,
    상기 메타 데이터를 공간 검색 서버로 전송하도록 구성되는, 웨어러블 디바이스.
  14. 제 13 항에 있어서,
    상기 프로세싱 유닛은,
    상기 공간 검색 서버로부터, 상기 촬영 영상 중 일부에 대한 전송 요청을 수신하고,
    상기 공간 검색 서버로 상기 촬영 영상 중 일부를 전송하도록 구성되는, 웨어러블 디바이스.
  15. 제 13 항에 있어서,
    상기 프로세싱 유닛은,
    상기 촬영 영상에 대한 업로드 조건을 설정하고,
    상기 업로드 조건을 만족하는 경우, 상기 촬영 영상을 상기 공간 검색 서버로 전송하도록 구성되는, 웨어러블 디바이스.
  16. 콘텐츠를 검색하고 표시하게 하는 명령어들의 시퀀스를 포함하는 컴퓨터 기록 매체로서,
    웨어러블 디바이스(wearable device)에 장착된 컴퓨팅 장치에 의해 실행될 때, 상기 컴퓨팅 장치가,
    상기 웨어러블 디바이스의 가시 거리 및 시야각에 기초하여 상기 웨어러블 디바이스의 미래 가시 영역을 계산하고,
    상기 미래 가시 영역 내에 존재하는 내부 콘텐츠를 검색하고,
    상기 검색된 내부 콘텐츠를 디스플레이를 통해 표시하도록 하고,
    상기 계산된 미래 가시 영역의 외부에 존재하는 외부 콘텐츠를 검색하고,
    상기 외부 콘텐츠가 상기 웨어러블 디바이스의 현재 가시 영역 내에 들어오도록, 상기 웨어러블 디바이스의 현재 시야 방향의 변경을 추천하도록 하는, 컴퓨터 기록 매체.
  17. 삭제
  18. 제 16 항에 있어서,
    상기 컴퓨팅 장치에 의해 실행될 때, 상기 컴퓨팅 장치가 상기 외부 콘텐츠가 가시 영역 내에 들어오도록, 이동 방향의 변경을 추천하도록 하는 명령어들의 시퀀스를 더 포함하는 컴퓨터 기록 매체.
  19. 제 16 항에 있어서,
    상기 컴퓨팅 장치에 의해 실행될 때, 상기 컴퓨팅 장치가 현재 가시 영역에 대한 촬영 영상을 생성하고, 상기 촬영 영상에 대한 메타 데이터를 생성하고, 상기 메타 데이터를 공간 검색 서버로 전송하도록 하는 명령어들의 시퀀스를 더 포함하는 컴퓨터 기록 매체.
  20. 제 19 항에 있어서,
    상기 컴퓨팅 장치에 의해 실행될 때, 상기 컴퓨팅 장치가 상기 촬영 영상에 대한 업로드 조건을 설정하고, 상기 업로드 조건을 만족하는 경우, 상기 촬영 영상을 상기 공간 검색 서버로 전송하도록 하는 명령어들의 시퀀스를 더 포함하는 컴퓨터 기록 매체.
KR1020130168388A 2013-12-31 2013-12-31 콘텐츠 검색 방법, 웨어러블 디바이스 및 컴퓨터 판독가능 매체 KR102200246B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130168388A KR102200246B1 (ko) 2013-12-31 2013-12-31 콘텐츠 검색 방법, 웨어러블 디바이스 및 컴퓨터 판독가능 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130168388A KR102200246B1 (ko) 2013-12-31 2013-12-31 콘텐츠 검색 방법, 웨어러블 디바이스 및 컴퓨터 판독가능 매체

Publications (2)

Publication Number Publication Date
KR20150078730A KR20150078730A (ko) 2015-07-08
KR102200246B1 true KR102200246B1 (ko) 2021-01-08

Family

ID=53791211

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130168388A KR102200246B1 (ko) 2013-12-31 2013-12-31 콘텐츠 검색 방법, 웨어러블 디바이스 및 컴퓨터 판독가능 매체

Country Status (1)

Country Link
KR (1) KR102200246B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009080596A (ja) * 2007-09-26 2009-04-16 Sanyo Electric Co Ltd コンテンツ処理装置
KR100985737B1 (ko) 2010-02-05 2010-10-06 (주)올라웍스 단말 장치의 시야에 포함되는 객체에 대한 정보를 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
KR101305732B1 (ko) * 2012-07-11 2013-09-06 포항공과대학교 산학협력단 비디오 검색을 위한 블록 생성 방법 및 이를 통해 생성된 블록을 기초로 한 질의 처리 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7720436B2 (en) * 2006-01-09 2010-05-18 Nokia Corporation Displaying network objects in mobile devices based on geolocation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009080596A (ja) * 2007-09-26 2009-04-16 Sanyo Electric Co Ltd コンテンツ処理装置
KR100985737B1 (ko) 2010-02-05 2010-10-06 (주)올라웍스 단말 장치의 시야에 포함되는 객체에 대한 정보를 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
KR101305732B1 (ko) * 2012-07-11 2013-09-06 포항공과대학교 산학협력단 비디오 검색을 위한 블록 생성 방법 및 이를 통해 생성된 블록을 기초로 한 질의 처리 방법

Also Published As

Publication number Publication date
KR20150078730A (ko) 2015-07-08

Similar Documents

Publication Publication Date Title
US9280849B2 (en) Augmented reality interface for video tagging and sharing
US9338311B2 (en) Image-related handling support system, information processing apparatus, and image-related handling support method
US9240074B2 (en) Network-based real time registered augmented reality for mobile devices
CN105975570B (zh) 基于地理位置的视频搜索方法及系统
JP2014508359A (ja) 通信システムにおけるソーシャルネットワークベースのメディア共有方法及び装置
US20150153933A1 (en) Navigating Discrete Photos and Panoramas
JP5858754B2 (ja) 撮影装置、表示方法及びプログラム
US9488489B2 (en) Personalized mapping with photo tours
JP2013021473A (ja) 情報処理装置、情報取得方法およびコンピュータプログラム
KR20110094970A (ko) 멀티미디어 컨텐츠의 태그 관리 방법 및 장치
KR102200246B1 (ko) 콘텐츠 검색 방법, 웨어러블 디바이스 및 컴퓨터 판독가능 매체
JP6302421B2 (ja) コンテンツ検索装置、コンテンツ検索方法、コンテンツ格納装置およびコンテンツ格納方法
KR102010252B1 (ko) 증강 현실 서비스 제공 장치 및 방법
WO2020045092A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP5743017B2 (ja) 画像管理装置及びプログラム
KR102012503B1 (ko) 이미지가 촬영된 위치 정보에 기반하여 여행 상품 정보를 자동으로 노출시키는 여행 상품 정보 노출 방법 및 장치
KR101461590B1 (ko) 위치 기반 콘텐츠 제공 방법
JP2005039580A (ja) 画像管理装置、画像閲覧装置、画像配信システム及び画像配信方法
KR101862685B1 (ko) 위치 기반 동영상 데이터 생성 및 검색 방법
KR101638622B1 (ko) 사용자 단말의 이웃 단말들을 찾는 방법, 이를 이용한 콘텐츠 공유 장치 및 방법, 그리고 콘텐츠 공유 어플리케이션
JP6241073B2 (ja) 画像評価サーバ、及び画像評価システム
KR101878822B1 (ko) 개방형 sns 기반 실감형 원격 탐사 서비스 제공 장치 및 방법
JP2017201568A (ja) 画像評価サーバ、及び画像評価システム
KR101910460B1 (ko) 콘텐츠 제공 시스템 및 방법
JPWO2018179312A1 (ja) 画像生成装置及び画像生成方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant