KR102249383B1 - 지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법 및 이를 수행하는 장치 - Google Patents

지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법 및 이를 수행하는 장치 Download PDF

Info

Publication number
KR102249383B1
KR102249383B1 KR1020190116090A KR20190116090A KR102249383B1 KR 102249383 B1 KR102249383 B1 KR 102249383B1 KR 1020190116090 A KR1020190116090 A KR 1020190116090A KR 20190116090 A KR20190116090 A KR 20190116090A KR 102249383 B1 KR102249383 B1 KR 102249383B1
Authority
KR
South Korea
Prior art keywords
geo
photos
interest
attraction area
tagged
Prior art date
Application number
KR1020190116090A
Other languages
English (en)
Other versions
KR20200125383A (ko
Inventor
박장유
남광우
Original Assignee
군산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 군산대학교 산학협력단 filed Critical 군산대학교 산학협력단
Publication of KR20200125383A publication Critical patent/KR20200125383A/ko
Priority to KR1020200180184A priority Critical patent/KR102308864B1/ko
Application granted granted Critical
Publication of KR102249383B1 publication Critical patent/KR102249383B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification

Abstract

본 발명의 실시예는 지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법 및 이를 실행하는 장치에 관한 것이다. 실시예에 따른 지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법은 지오 태그 사진들 각각의 사진 정보를 획득하는 단계; 사진 정보를 참조하여 지오 태그 사진들 각각의 뷰 방향으로 선분들을 획득하는 단계; 사진 정보를 참조하여, 지오 태그 사진들 각각의 선분들이 교차하는 교차점들을 생성하는 단계; 및 교차점들 중 적어도 N개의 선분들이 교차하는 교차점들을 클러스터링하여 어트랙션 지역을 지정하는 단계를 포함한다.

Description

지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법 및 이를 수행하는 장치{Method of Discovering Region of Attractions from Geo-tagged Photos and Apparatus Thereof}
이하의 실시예는 지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법 및 이를 수행하는 장치에 관한 것이다.
최근 모바일 기술의 발전과 함께 스마트폰과 카메라 등의 기기에 GPS와 같은 센서 장비 내장이 매우 일반화되었다. 이러한 기기를 통해 촬영된 사진이나 비디오들은 촬영된 시점의 GPS 정보와 자세 정보 등의 공간정보를 갖게 되며, 이러한 사진이나 비디오들을 지오 태그 사진(geo-tagged photo)이라 한다. 소셜 미디어의 시대가 시작된 이래로, 수많은 사용자들이 자신의 관심과 경험을 공유하기 위하여 Instagram, Facebook, Twitter, Flickr와 같은 소셜 플랫폼을 통해 지오 태그 사진들을 공유해왔다.
이렇게 수집된 사진 데이터베이스로부터 이용자들이 관심을 많이 받는 어트랙션 지역(RoA, Region of Attraction)을 발견하거나, 어트랙션 지역들을 연결하여 루트를 발견하여, 비슷한 성향의 사용자들에게 추천하거나, 사진이 촬영된 장소나 이벤트의 의미 자체를 탐사하는 다양한 연구들이 진행되어 왔다. 기존의 연구들 대부분은 지오 태그 사진들에 포함된 사진이 촬영된 GPS 좌표 만을 이용하여 사진이 많이 촬영된 위치가 관심 지역이라는 것을 기본 전제로 한다.
도 1은 기존의 어트랙션 지역과 FoV(Field of View)기반 어트랙션 지역의 차별성을 설명하기 위한 도면이다. 도 1(a)는 기존의 어트랙션 지역을, 도 2(b)는 FoV 기반의 어트랙션 지역을 설명하기 위한 것이다.
지오 태그 사진들에 포함된 사진이 촬영된 GPS 좌표 만을 이용하여 사진이 많이 촬영된 위치가 관심 지역이라는 전제는 사진의 특성으로 인해 몇 가지 부분에서 사실과 다르다. 첫째, 차량이나 사람의 GPS 위치는 관심 대상의 위치와 동일하지만, 사진은 촬영자의 위치와 관심 대상의 위치가 떨어져 있다. 예를 들면 도 1(a)와 같이 뉴욕의 자유의 여신상은 섬 위에 있으며 많은 사진들이 배에서 촬영되므로, 기존의 알고리즘들에 의해 생성되는 관심 지역은 강 위에 존재하게 되며 자유의 여신상과의 거리가 존재한다. 둘째, 사진의 촬영 위치와 관심 객체 간의 거리에 의해 촬영자의 위치가 넓게 분포하게 되며 도 1(b)와 같이 관심 지역을 생성하지 못하는 경우가 발생한다. 셋째, 전통적인 사진의 관심 위치는 (x, y) 좌표를 기준으로 원형성을 갖는데 비해, 사진은 촬영 방향에 의해 선형성을 가지며 사진에 포함되지 않은 영역은 비 관심 지역이다. 이러한 단점에도 불구하고 기존의 많은 연구들이 기술과 데이터의 한계 때문에 GPS 좌표만을 대상으로 하여 진행되었다. 그러나 최근의 기술 발전은 이러한 문제점들을 해결하기 위한 변화를 가져왔다.
최근의 스마트폰들은 자이로(gyro) 센서와 자기센서(magnetometer sensor)들을 내장하며, 사진 촬영 시 카메라 방향(direction) 정보를 사진 파일의 EXIF 메타데이터에 저장하는 것이 일반화되었다. 이 사진의 촬영 방향에 대한 정보와 카메라의 초점 길이(focal length)에 대한 정보를 이용하여 산출된 렌즈 각도 범위(angular field of view)에 대한 정보를 결합하면 사진에 포함된 FoV를 계산할 수 있게 된다. 기존의 일반적인 사진이 단지 영상 정보와 GPS에 의한 (x, y) 정보만을 포함하고 있는데 비하여, FoV 태그 사진은 어떤 방향을 보고 촬영되었는지에 대한 정보, 그리고 카메라의 촬영 각도 등의 정보를 포함하고 있는 사진이다. 예를 들면, 스마트폰에 의해 촬영된 이 공간 태그 된 미디어 콘텐츠들의 촬영 공간 정보를 이용하면 공간적인 흥미 지역/지점(Region of Point/Region)들을 발견하기 위한 기반 데이터로 사용될 수 있다.
이하에서는 발명에서 사용하고자 하는 선행 연구들의 개념에 대해서 간략하게 알아본다.
POI의 발견에 대한 종래 기술
사용자의 관심 지점을 추출하는 것은 상품 추천, 광고, 관광 지역 추천 등의 기반이 되는 데이터이기 때문에 중요하다. 이러한 관심 지점은 전통적으로 사용자의 위치를 바탕으로 결정되었다. Zheng, Y. 2012. Mining Travel Patterns from Geotagged Photos. 3, 3 (2012)에서는 사용자의 여행 경로를 추출하여 분석하기 위해 사용자의 위치 정보와 시간 정보를 함께 사용하였다. 각 사용자를 사진을 공유한 등록 ID로 특정하고 각 사용자 별 이동 경로를 추출하였다. Kurashima, T., Iwata, T., Irie, G. and Fujimura, K. 2010. Travel Route Recommendation Using Geotags in Photo Sharing Sites. (2010)는 Flicker 사진으로부터 POI를 식별하는 것뿐만 아니라 식별된 POI간의 연관 관계 마이닝에 중점을 두었다. 특정 지점에서 사용자는 한 장의 사진만 사용하도록 데이터를 전처리하여 사용하였다. Zeng, Z., Zhang, R., Liu, X., Guo, X. and Sun, H. 2015. Generating Tourism Path from Trajectories and Geo-Photos Generating Tourism Path from Trajectories and Geo-Photos. November 2012 (2015)에서는 사람들의 이동 패턴을 발견하고, 각 도시의 POI를 찾기 위해 Geo-Photo 사용자가 공유한 위치를 클러스터링 하였다. Kim, Y., Kim, J. and Yu, H. 2014. Knowledge-Based Systems GeoTree : Using spatial information for georeferenced video search q. Knowledge-Based Systems. 61, (2014)는 특정 지역에 대한 관광지 경로를 추천하기 위해 Flickr 사진 데이터 세트에서 사용자가 생성한 여행 경로에 대한 분석에 초점을 맞추었다. Chen, Y., Cheng, A., Hsu, W.H. and Member, S. 2013. Travel Recommendation by Mining People Attributes and Travel Group Types From Community-Contributed Photos. IEEE Transactions on Multimedia. 15, 6 (2013)에선 Panoramio.com에서 약 2 천만 개의 지리 태그가 지정된 사진을 크롤링하고 위치 정보뿐만 아니라 위치 정보의 시간까지 고려하여 여행 경로를 자동 생성하는 프레임워크를 제안했다. Kisilevich, S. and Keim, D. Towards acquisition of semantics of places and events by multi-perspective analysis of geotagged photo collections은 Flickr 사진에 순차 궤적 패턴 마이닝을 적용한 연구이다.
위에서 기술한 연구들 외에 다양한 연구들에서 POI 추출, 이동 경로 추출, 여행 경로 추천 등에 사용하기 위해 원시 데이터 좌표만을 고려하였다. 이는 사용자의 관심 지역을 찾기에 적합하지만 관심 지역 내에서도 사용자가 특별하게 관심을 가지는 객체를 추출하기엔 부족하다. 짧은 시간 안에 넓은 지역을 둘러보아야 하는 경우에 있어서 기존 POI 내에서도 더 관심을 많이 받는 지역 또는 객체를 찾는 것이 필요하다.
이전까지의 연구에서는 모바일 기기에서 수집된 신뢰할 수 있는 센서 데이터가 GPS 정보뿐이었다. 하지만 지금 시대는 모바일 기기에서도 신뢰할 수 있는 센서 데이터들이 수집되고 있고 그에 대한 연구들도 진행되어야 한다.
어트랙션 지역 추정 - 클러스터링에 대한 종래 기술
POI와 POI를 추출하기 위한 데이터 사이의 연관성은 거리에 따라 변하기 때문에 어트랙션 지역을 추정하는 것은 중요하다.
기존 연구에서 어트랙션 지역을 추정하는 방법으로는 클러스터링 기법인 밀도 기반 군집화 방법(DBSCAN)을 많이 사용한다. Kim, S., Lu, Y. and Constantinou, G. 2014. MediaQ: Mobile Multimedia Management System. ACM Multimedia Systems Conference. (2014)은 클러스터의 개수를 미리 설정하지 않아도 클러스터 식별에 장점을 갖지만 한 사용자가 같은 지점에 많은 데이터를 가지고 있는 경우 클러스터링 결과가 달라진다는 단점이 있다. Lu, Y., To, H., Alfarrarjeh, A., Kim, S.H., Yin, Y., Zimmermann, R. and Shahabi, C. 2016. GeoUGV: User-generated Mobile Video Dataset with Fine Granularity Spatial Metadata. Proceedings of the 7th International Conference on Multimedia Systems. (2016)은 Photo-DBSCAN으로 사용자 정보를 고려한 알고리즘이다.
밀도 기반 군집화 방법은 어트랙션 지점을 클러스터링 하는데 유용하게 사용된다.
사진의 방향 정보를 활용한 연구들
이전의 GPS 방향 정보나 모바일 기기에서 지원하던 나침반의 경우 오류가 발생하기 쉬웠다. M. Park, J. Luo, R. T. Collins, Y. Liu,"Beyond GPS: Determining the Camera Viewing Direction of A Geotagged Image",In MM'10 - Proceedings of the ACM Multimedia 2010 International Conference은 Google Street View와 Google Earth satellite views를 사용하여 해당 오류를 수정하고자 했다. GPS 좌표와 사진 안에 포함된 3D 모델을 주변의 Google 제공 서비스와 비교하여 사진이 찍힌 정확한 방향을 추측하고자 했다.
M. Shirai, M. Hirota, H. Ishikawa, "A method of Area of Interest and Shooting Spot Detection using Geo-tagged Photographs", Proceeding COMP '13 Proceedings of The First ACM SIGSPATIAL International Workshop on Computational Models of Place는 Flickr와 같은 소셜 미디어 사이트에 게시된 사진을 가지고 hotspots를 검출하고 분류했다. 사진이 찍힌 위치를 가지고 밀도 기반 군집화 기법을 사용하여 hotspots을 검출하고, 사진이 찍힌 방향으로 hotspots를 세 가지로 분류하였다. 1. POI의 안과 밖을 모두 촬영한 사진들이 모인 지점을 관심 영역을 포함하고 있는 hotspots로 지정하였다. 2. 한 쪽 방향으로 찍힌 사진들이 많은 지점으로도 분류하였다. 3. 모든 방향을 보고 찍은 사진들이 있는 지점으로 분류하였다. 사진의 방향 정보를 사용하여 hotspots을 분류하였지만 사용자의 위치와 방향 정보를 함께 사용하여 hotspots을 구성하였다. 이는 관광지와 같은 사용자들의 관심 사항이 다양하지 않은 지점에서는 유용하지만 쇼핑몰과 같은 사용자의 관심 사항이 다양한 지점에서는 부족함이 있다.
이와 관련된 선행기술로는 아래의 특허가 제시된다.
- 한국공개특허 제2016-0072984 호, Poi 정보 수집 시스템 및 그 방법(2016.06.24)
실시예에서 수많은 사용자들이 공유한 공간 태그 된 미디어에서 사용자들의 관심 지점(Point of Interest)을 찾는 연구들이 많이 진행되어 왔다. 이전의 연구들은 미디어의 종류에 관계없이 대부분 GPS의 좌표 정보만을 가지고 사용자의 어트랙션 지역을 찾아냈다. 반면, 본 발명에서는 어트랙션 지역을 찾는 방법에서 좌표와 함께 카메라의 방향 정보까지 사용하여 어트랙션 지역을 찾는 방법을 제안하고자 한다.
소셜 미디어에 공유된 공간 태그 된 사진들을 사용하여 데이터 세트를 마련한다. 사진들의 GPS 좌표와 사진을 찍은 방향 정보를 이용하여 사용자들의 관심 지점을 파악한다. 검출된 관심 지점을 밀도 기반 군집화 기법을 사용하여 분류하고 GPS를 사용하여 검출된 관심 지점과 비교하여 우수성을 검증하고자 한다.
장치에서 지오 태그(Geo-taged) 사진들로부터 어트랙션 지역을 발견하는 방법에 있어서, 상기 지오 태그 사진들 각각의 사진 정보를 획득하는 단계; 상기 사진 정보를 참조하여 상기 지오 태그 사진들 각각의 뷰 방향으로 선분들을 획득하는 단계; 상기 사진 정보를 참조하여, 상기 지오 태그 사진들 각각의 선분들이 교차하는 교차점들을 생성하는 단계; 및 상기 교차점들 중 적어도 N개의 선분들이 교차하는 교차점들을 클러스터링하여 어트랙션 지역을 지정하는 단계를 포함하는, 지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법이 제공될 수 있다.
상기 지오 태그 사진들 각각의 선분들이 교차하는 교차점들을 생성하는 단계는, 상기 사진 정보를 참조하여 상기 지오 태그 사진들의 소유자 식별자를 확인하는 단계; 및 상기 소유자 식별자가 동일한 지오 태그 사진들에 대해서는 상기 교차점들을 생성하지 않는 단계를 포함할 수 있다.
상기 사진 정보는, 상기 지오 태그 사진들 각각의 소유자 식별자, 촬영 위치 정보, 촬영 시간 정보, 뷰 방향, 최소 뷰 거리 및 최대 뷰 거리 중 적어도 하나를 포함할 수 있다.
상기 지오 태그 사진들 각각의 선분들이 교차하는 교차점들을 생성하는 단계는, 상기 사진 정보를 참조하여 상기 지오 태그 사진들의 촬영 시간을 확인하는 단계; 및 상기 촬영 시간의 시간차가 미리 정해진 시간 이내인 지오 태그 사진들에 대해서 상기 교차점을 생성하는 단계를 포함할 수 있다.
상기 어트랙션 지역 내 교차점들을 형성하는 지오 태그 사진들의 사진 정보를 참조하여 촬영 위치 정보들을 확인하는 단계; 및 상기 촬영 위치 정보들을 참조하여 상기 어트랙션 지역의 교차점들을 형성하는 지오 태그 사진들의 촬영 위치의 집합인 관심 지역을 형성하는 단계를 더 포함할 수 있다.
상기 어트랙션 지역을 형성하는 지오 태그 사진들의 밀도를 계산하는 단계; 및 상기 밀도를 기준으로 상기 어트랙션 지역을 포함하는 어트랙션 지역 집합의 랭킹을 선정하는 단계를 더 포함할 수 있다.
장치에서 지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법에 있어서, 상기 지오 태그 사진들 각각의 사진 정보를 획득하는 단계; 상기 사진 정보를 참조하여 상기 지오 태그 사진들 각각의 뷰 방향의 역방향으로 선분들을 획득하는 단계; 상기 사진 정보를 참조하여, 상기 지오 태그 사진들 각각의 역방향 선분들이 교차하는 교차점들을 생성하는 단계; 및 상기 교차점들 중 적어도 N개의 선분들이 교차하는 교차점들을 클러스터링하여 어트랙션 지역을 지정하는 단계를 포함하는, 지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법이 제공될 수 있다.
실시예에서, 어트랙션 지역을 찾는 방법에서 좌표와 함께 카메라의 방향 정보까지 사용하여 어트랙션 지역을 찾는 방법을 소개할 수 있다.
소셜 미디어에 공유된 공간 태그된 사진들을 사용하여 데이터 세트를 마련하고, 사진들의 GPS 좌표와 사진을 찍은 방향 정보를 이용하여 사용자들의 관심 지점을 파악하며, 검출된 관심 지점을 밀도 기반 군집화 기법을 사용하여 분류하고 GPS를 사용하여 검출된 관심 지점과 비교하여 우수성을 검증할 수 있다.
도 1은 기존의 어트랙션 지역과 FoV기반 어트랙션 지역의 차별성을 설명하기 위한 도면이다.
도 2는 내향적 어트랙션 지역과 외향적 어트랙션 지역을 설명하기 위한 도면이다.
도 3은 일실시예에 있어서, 지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법을 설명하기 위한 흐름도이다.
도 4는 일실시예에 있어서, 공통 관심 지점(co-interesting point, coIP)를 설명하기 위한 도면이다.
도 5는 일실시예에 있어서, 관심 어트랙션
Figure 112019096463248-pat00001
및 관심 지역
Figure 112019096463248-pat00002
의 일례이다.
도 6은 일실시예에 있어서, 원 관심 지점(Origin interesting point)를 설명하기 위한 도면이다.
도 7은 일실시예에서, POI를 찍은 사진들의 위치와 방향 및 공통 관심 지점을 도시한 것이다.
도 8은 Google Map를 통해 John F. Kennedy International Airport를 도시한 것이다.
도 9는 일실시예에서, ε=100, k=5의 DBSCAN 결과를 도시한 것이다.
도 10은 일실시예에서, ε=200, k=5의 DBSCAN 결과를 도시한 것이다.
도 11은 일실시예에서, ε=300, k=5의 DBSCAN 결과를 도시한 것이다.
도 12는 일실시예에서, 자유의 여신상 DBSCAN 결과를 비교한 것이다.
도 13은 일실시예에서, 시티필드 DBSCAN 결과를 비교한 것이다.
도 14는 일실시예에서, 레드불 아레나 DBSCAN 결과를 비교한 것이다.
도 15는 일실시예에서, 뉴욕 911 메모리얼 DBSCAN 결과를 비교한 것이다.
이하, 본 발명의 실시예에 대해서 첨부된 도면을 참조하여 자세히 설명하도록 한다.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.
본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 “~사이에”와 “바로~사이에” 또는 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.
본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, “포함하다” 또는 “가지다” 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하에서는 내향적 어트랙션 지역을 정의하고, 관심 지역을 찾기 위한 방법을 제시한다. 지오 태그 사진들을 활용하여 POI를 추출하고 클러스터링하는 알고리즘을 설명한다. 외향적 어트랙션 지역을 정의하고 알고리즘을 설명한다. 또한, 외향적 어트랙션 지역의 필요성을 설명한다. 이후, 추출된 어트랙션 지역의 순위를 매기는 랭킹 기법을 설명하고 해당 알고리즘에 대해 설명한다.
도 2는 내향적 어트랙션 지역과 외향적 어트랙션 지역을 설명하기 위한 도면이다.
도 2에서 보이는 것과 같이, FoV를 이용하여 발견할 수 있는 대표적인 어트랙션 지역을 내향적 어트랙션 지역와 외향적 어트랙션 지역으로 구분할 수 있다.
도 2(a)에서 p1 ~ p4는 사진을 찍은 위치를 나타낸다. 기존의 연구들에서 사용한 알고리즘들은 사진을 찍은 위치를 사용하여 클러스터링하여 관심 지역 및 유사성을 발견하고자 하였다. 따라서 도 2(a)과 같은 사진 데이터베이스에서는 p1 ~ p4가 클러스터를 형성하지 못하므로 유의미한 값을 찾아내지 못한다. 본원 발명의 아이디어는 각 사진의 FoV를 이용하여 기존의 알고리즘이 발견하지 못하는 어트랙션 지역을 발견하는 것이다.
도 2(a)의 각 p1 ~ p4에서 출발하는 화살표는 카메라가 바라보는 방향을 나타낸다. 별 모양 i1~ i6는 각 점 pn에서 카메라가 바라보는 방향으로 일정 거리(
Figure 112019096463248-pat00003
)만큼 이동한 선분
Figure 112019096463248-pat00004
들의 교차점을 나타내고 있다. 우리는 이러한 교차점들을 두 FoV 사진의 공통 관심 지점(CoIP; Co-Interesting Point)라 할 수 있다. CoIP가 일정 한계이상 모여있어 클러스터를 형성할 수 있는 지역을 이용자들의 공통적으로 관심을 갖는 내향적 어트랙션 지역이라 정의할 수 있다.
또한 우리는 어트랙션 지역을 향해서 찍은 사진뿐만 아니라 어트랙션 지역 안에서 밖을 향해서 찍은 사진들의 관계도 파악할 수 있다. 도 2(b)는 어떤 전망대에서 주변 경관을 찍은 사진들을 표현하고 있다. 예를 들어, 엠파이어 스테이트 빌딩 전망대에서 도시 경관을 찍는 경우를 생각해보자. 이런 경우 교차점을 찾는 알고리즘은 잘 작동하지 않을 것이다. 하지만 사진을 찍는 방향의 반대 방향으로 직선을 그어보면 다시 교차점을 찾을 수 있다. 이러한 방법은 GPS를 수신하지 못하는 실내에서도 잘 작동할 수 있다. 미술관에서 벽에 걸려있는 예술 작품들을 찍는 경우를 생각해볼 수도 있다. 따라서 우리는 정방향과 역방향을 모두 고려하여 두 사진의 역 디렉션 사이의 교차점을 발견할 수 있으며 이를 역 공통 관심 지점(reverse CoIP)라 할 수 있다. 이 역 공통 관심 지점이 일정 한계 이상 모여 있어 클러스터를 형성할 수 있는 지역을 이용자들의 공통적으로 관심을 갖는 외향적 어트랙션 지역이라 정의할 수 있다.
이후에서는 내향적 어트랙션 지역과 외향적 어트랙션 지역을 발견하기 위한 세부적인 방법에 대하여 기술한다.
도 3은 일실시예에 있어서, 지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법을 설명하기 위한 흐름도이다. 실시예에 따른 방법은, 장치의 프로세서에 의해 실행될 수 있다.
먼저, 내향적 어트랙션 지역을 발견하는 방법에 대해서 먼저 설명하도록 한다.
단계(310)에서 지오 태그 사진들 각각의 사진 정보를 획득한다.
다양한 사용자들에 의해 촬영된 지오 태그 사진(Geo-tagged photo)에 대한 데이터베이스 P가 있을 때
Figure 112019096463248-pat00005
라 하면, 이때 지오 태그 사진은 다음과 같이 정의된다. 지오 태그 사진
Figure 112019096463248-pat00006
=
Figure 112019096463248-pat00007
.
여기서,
Figure 112019096463248-pat00008
는 사진의 식별자,
Figure 112019096463248-pat00009
는 사진 소유자의 식별자,
Figure 112019096463248-pat00010
는 실제 사진 파일의 위치와 파일명의 식별자,
Figure 112019096463248-pat00011
는 사진의 촬영 공간 좌표,
Figure 112019096463248-pat00012
는 사진의 촬영 방위각, t는 사진이 촬영된 시간이다.
지오 태그 사진들에 대한 정보가 저장되어 있는 P에서 사진들은 각각을 구별할 수 있는 식별자인 pid와 사진을 올린 사용자를 식별할 수 있는 식별자 uid를 기본적으로 가질 수 있다. 또한, 사진은 동일서 서버 내에 저장되거나 웹에 공유되어 있을 수 있으며, 이를 통합적으로 지정하기 위하여 URI(Uniform Resource Identifier)의 포맷을 갖는 uri 속성에 의해 표현될 수 있다. GPS가 내장된 스마트폰이나 카메라를 이용하여 촬영된 지오 태그 사진은 촬영된 장소의 위도와 경도를 획득할 수 있으며, 공간 좌표
Figure 112019096463248-pat00013
은 촬영된 장소의 좌표(longitude, latitude)를 의미한다. 뷰 방향(view direction)
Figure 112019096463248-pat00014
는 사진이 촬영될 사진의 방향으로, 렌즈 중심의 방위각(azimuth)이다. 스마트폰 등에 지자기 센서가 내장되었을 때 사진에는 촬영 당시의 카메라 지자기 방위각에 대한 정보를 사진에 태깅할 수 있다.
실시예에서, 발견하고자 하는 흥미 있는 어트랙션 지역이 존재할 수 있는 어떤 사진
Figure 112019096463248-pat00015
의 최소 뷰 거리(minimum view distance)
Figure 112019096463248-pat00016
와, 최대 뷰 거리(maximum view distance)는
Figure 112019096463248-pat00017
가 설정되어 사진 정보에 포함될 수 있다.
단계(320)에서 사진 정보를 참조하여 지오 태그 사진들 각각의 뷰 방향으로 선분들을 획득한다.
실시예에서, 사진 정보 중 지오 태그 사진의 뷰 방향 및 발견하고자 하는 흥미 있는 어트랙션 지역이 존재할 수 있는 최소 뷰 거리 및 최대 뷰 거리를 참조할 수 있다.
사진으로부터 사용자들이 찾고자 하는 어트랙션들은 매우 다양하게 분포될 수 있다. 어떤 사용자들은 야외 전시관의 미술품들이나 올드타운 거리의 POI들과 같은 어트랙션들을 발견하는데 관심을 가질 수 있으며, 이러한 목적의 탐사에는
Figure 112019096463248-pat00018
를 3m - 20m의 비교적 작은 거리를 주는 것이 적합할 수 있다. 반대로 자유의 여신상이나 에펠탑, 또는 자연 경관과 같이 큰 사이즈의 어트랙션들을 탐사하기 위해서는 30m - 100m의 상대적으로 큰
Figure 112019096463248-pat00019
Figure 112019096463248-pat00020
이 적합할 수 있다.
Figure 112019096463248-pat00021
Figure 112019096463248-pat00022
의 설정이 필요한 또 하나의 이유는 쓰레기 값들이 너무 많이 발생하지 않도록 제어하기 위해서이다.
Figure 112019096463248-pat00023
이 0이거나 너무 작은 값일 경우 사진들이 밀집된 영역에서 서로 간의 뷰 방향이 많이 겹침으로써 부적절한 값들을 생성할 수 있다. 실제 사진에 포함되지 않을 정도로
Figure 112019096463248-pat00024
이 너무 크게 될 경우에도 비슷하게 너무 많은 뷰 방향 간의 교차가 발생할 수 있다.
단계(330)에서 사진 정보를 참조하여, 지오 태그 사진들 각각의 선분들이 교차하는 교차점들을 생성한다.
실시예에서, 교차점은 서로 다른 두 명이 동일한 지점을 향하여 사진을 촬영했다고 할 때, 두 사진의 방향이 교차점에 적어도 두 명의 사용자 간에 공통적으로 흥미 있는 어트랙션의 후보가 있다고 가정할 수 있다. 이러한 교차점을 두 사진 간의 공통 관심 지점(co-interesting point) coIP라고 할 수 있다.
실시예에서, 각 선분들의 교차점들을 생성하는 방법에 대해서 도 3을 참조하여 자세히 설명하도록 한다.
도 4는 일실시예에 있어서, 공통 관심 지점(co-interesting point, coIP)를 설명하기 위한 도면이다. 도 4의
Figure 112019096463248-pat00025
는 북쪽을 기준으로 시계 방향으로의 각도
Figure 112019096463248-pat00026
로 표현되며 0부터 360미만의 실수 값을 가진다. 실시예에서, 촬영 시간 t는 사진이 실제 촬영된 시간으로 unix epoch와 같은 long 타입의 타임스탬프에 의해 표현될 수 있다.
서로 다른 사용자의 지오 태그 사진
Figure 112019096463248-pat00027
Figure 112019096463248-pat00028
에 대해서
Figure 112019096463248-pat00029
가 두 사진의 시간 차 한계점이라 가정하고, 각
Figure 112019096463248-pat00030
Figure 112019096463248-pat00031
Figure 112019096463248-pat00032
내의 어떤 위치
Figure 112019096463248-pat00033
에서 교차할 때, 해당 교차점은 두 사진 간의 공통 관심 지점 coIP는 아래와 같이 정의될 수 있다.
Figure 112019096463248-pat00034
coIP는 두 뷰 방향이 교차하는 공통 관심 지점으로 (lat, long)의 형태를 갖는 위치
Figure 112019096463248-pat00035
에 존재하며, 교차하는 지오 태그 사진
Figure 112019096463248-pat00036
Figure 112019096463248-pat00037
을 연결하는 튜플
Figure 112019096463248-pat00038
이다.
사용자들이 흥미 있는 지점을 향하여 많은 사진을 촬영하고 공유하는 것은 매우 자연스러운 현상이다.
실시예에서, 한 명의 사용자가 관심 있는 있는 대상에 대하여 많은 사진을 찍었다고 해서 해당 지점을 어트랙션이라고 할 수는 없을 것이다. 예를 들어, 자신의 집에서 아이의 모습을 찍은 사진들을 생각해 볼 수 있다. 이러한 문제를 해결하기 위해서 자기 자신과의 공통 관심 지점은 도축되지 않고 배제될 수 있다.
시간에 대한 한계값
Figure 112019096463248-pat00039
은 시공간적(spatio-temporal)으로 다양한 공통 관심 지점을 발견하기 위해 매우 유용하게 사용될 수 있다. 예를 들면, 자유의 여신상이나 올림픽 스타디움과 같이 시간적으로 거의 변화가 없는 지리적 어트랙션들은
Figure 112019096463248-pat00040
Figure 112019096463248-pat00041
로 설정함으로써 쉽게 발견될 수 있다. 반대로
Figure 112019096463248-pat00042
을 작은 시간을 할당한다면 동일 장소에서 발생하는 다양한 일시적인 사건(이벤트성의 어트랙션)들이 별도의 공통 관심 지점으로 분리되서 탐지될 수 있다. 예를 들어,
Figure 112019096463248-pat00043
로 설정함으로써 풋볼 경기장에서 주기적으로 열리는 경기마다 공통 관심 지점들이 별도로 구분되어 그룹핑될 수 있다.
단계(340)에서, 교차점들 중 적어도 N개의 선분들이 교차하는 교차점들을 클러스터링하여 어트랙션 지역을 지정한다.
실시예에서, 두 개의 공통 관심 지점
Figure 112019096463248-pat00044
Figure 112019096463248-pat00045
가 있다 가정할 때, 다음 두 조건을 만족하면 두 공통 관심 지점은 이웃 공통 관심 지점(neighborhood coIP)으로 정의할 수 있다.
Figure 112019096463248-pat00046
두 개의
Figure 112019096463248-pat00047
Figure 112019096463248-pat00048
가 있다고 할 때, 두 공통 관심 지점 간의 거리가 거리 한계값
Figure 112019096463248-pat00049
보다 작고, 공통 관심 지점을 구성하는 지오 태그 사진들의 시간값들의 최소 시간 차가
Figure 112019096463248-pat00050
보다 작다면, 두 공통 관심 지점은 동일한 어트랙션에 대해 촬영한 이웃 공통 관심 지점이라고 할 수 있다. 또한, 단 2명의 이용자들만으로 이웃 공통 관심 지점을 형성하는 것을 막기 위하여
Figure 112019096463248-pat00051
Figure 112019096463248-pat00052
를 구성하는 이용자가 3명보다 같거나 커야 할 필요성이 있다. 실시예에서, 해당 숫자는 3에 한정되지는 않는다.
이하에서는 이웃 공통 관심 지점을 클러스터링하는 방법에 대해서 설명한다.
실시예에서, 하나의 공통 관심 지점으로부터 주어진 반경
Figure 112019096463248-pat00053
내에 이웃 공통 관심 지점의 개수가 최소한 k보다 많은 개수일 때 그 공통 관심 지점은 핵심 공통 관심 지점으로 정의할 수 있다.
실시예에서, 핵심 공통 관심 지점은 어트랙션 지역을 구성하는 가장 작은 단위이다. 핵심 공통 관심 지점을 기준으로 최소 k개 이상의 이웃 공통 관심 지점이 있을 때, 해당 핵심 공통 관심 지점에 포함된 공통 관심 지점들을 이용하여 확장함으로써 클러스터를 형성할 수 있게 된다.
공통 관심 지점들의 집합으로 구성된 한 내향적 어트랙션 지역(introverted RoA)
Figure 112019096463248-pat00054
가 있을 때, 그
Figure 112019096463248-pat00055
는 핵심 공통 관심 지점들의 이웃 공통 관심 지점들 중 적어도 하나 이상에 의해 연결된 핵심 공통 관심 지점들의 합집합으로 표현될 수 있다.
도 5는 일실시예에 있어서,
Figure 112019096463248-pat00056
Figure 112019096463248-pat00057
의 일례이다.
실시예에서, 어트랙션 지역
Figure 112019096463248-pat00058
는 DBSCAN에서 사용되는 정의와 같다. 하나의 핵심 공통 관심 지역이 있고, 이를 구성하는 다른 공통 관심 지역을 통해 동일한 최소 밀도를 갖도록 확장할 수 있으며, 하나의 어트랙션 지역
Figure 112019096463248-pat00059
를 구성하는 모든 공통 관심 지역들 간에는 반경 한계값
Figure 112019096463248-pat00060
내의 다른 핵심 공통 지점을 통해 다른 공통 관심 지점에 연결될 수 있다.
도 5를 참조하면, 어떤 어트랙션 지역
Figure 112019096463248-pat00061
가 있다고 할 때, 이 어트랙션 지역
Figure 112019096463248-pat00062
에 포함된 지오 태그 사진들이 촬영된 원 위치들을 관심 지역
Figure 112019096463248-pat00063
으로 정의할 수 있다.
기존의 많은 연구들은 사진의 촬영 지점을 대상으로 Point of Interest(POI) 나 Region of Interest(ROI)를 발견하는 것을 목표로 한데 비하여, 실시예에서 제안된 알고리즘은 관심을 받는 대상체가 실제 존재하는
Figure 112019096463248-pat00064
을 보다 정확하게 발견하게 할 수 있다.
Figure 112019096463248-pat00065
에 포함된 지오 태그 사진들의 원래 위치의 집합을 이용하여 기존의 POI/ROI와 비슷한
Figure 112019096463248-pat00066
를 생성할 수 있다. 관심 지역
Figure 112019096463248-pat00067
를 이용함으로써 도 5에서 보이는 것과 같이 공간에 분포하는 다양한 어트랙션 지역
Figure 112019096463248-pat00068
과 관심 지역
Figure 112019096463248-pat00069
들간의 방향성
Figure 112019096463248-pat00070
에 대한 설명적인 지식을 얻을 수 있다.
상기의 설명을 참조하여, 아래의 알고리즘 1(Algorithm 1)은 내향적 어트랙션 지역을 검출하기 위한 알고리즘이다.
Figure 112019096463248-pat00071
알고리즘 1은 내향적 어트랙션 지역을 찾는 알고리즘이다. 먼저, 입력으로는 지오 태그 사진들의 집합인 P, 상기에서 설명한 변수
Figure 112019096463248-pat00072
,
Figure 112019096463248-pat00073
, DBSCAN에 필요한 변수 ε, k, 시간차 한계를 의미하는 변수
Figure 112019096463248-pat00074
를 사용할 수 있다. 출력으로는 클러스터링된 또는 노이즈로 지정된 공통 관심 지점의 집합을 반환할 수 있다. 알고리즘 1의 line 4~7은 지오 태그 사진들의 방향과 거리 변수
Figure 112019096463248-pat00075
,
Figure 112019096463248-pat00076
를 사용해 선분을 만들고
Figure 112019096463248-pat00077
에 저장하는 작업을 한다. Line 7에서는
Figure 112019096463248-pat00078
에 저장된 선분을 PlaneSweep 알고리즘을 사용하여 교차점을 찾는다. 이때, 동일한 사용자에 대해서는 교차점을 찾지 않는다. 각각의 사용자들로부터 찾은 교차점을 앞서 공통 관심 지점으로 정의하였다.
Line 10에서 알고리즘의 마지막까지는 공통 관심 지점들을 클러스터링하는 과정을 포함한다. 공통 관심 지점들을 클러스터링하기 위해 DBSCAN 알고리즘을 확장하였다. 먼저, 이웃 공통 관심 지점을 찾기 위한 방법은 기존의 DBSCAN에서 사용하는 거리 한계값 ε 뿐만 아니라 시간 한계값
Figure 112019096463248-pat00079
을 이용하여 시간을 고려한 방법을 사용할 수 있다. 실시예에 따르면, 이웃 공통 관심 지점은 최소 3명의 사용자들의 공통 관심 지점만을 이웃 공통 관심 지점으로 제한하고 있다. 그러나 이 조건만으로 단 3명의 사용자에 의해 생성되는
Figure 112019096463248-pat00080
를 배제하기는 어렵다. 그러므로 최소 사용자 수의 한계 m을 지정하여 핵심 공통 관심 지점 내에 최소 m명 미만이면 노이즈로 지정하도록 할 수 있다(line 12~15).
노이즈가 아닌 이웃들은 클러스터로 지정하고 어트랙션 지역
Figure 112019096463248-pat00081
에 저장한 후 어트랙션 지역
Figure 112019096463248-pat00082
의 모든 공통 관심 지점들에 대해서 다시 이웃을 찾는 작업을 진행하여 같은 클러스터에 속하는 어트랙션 지점을 찾을 수 있다(line 17~31). 실시예에서, 모든 작업이 완료되면, 어트랙션 지역의 집합
Figure 112019096463248-pat00083
를 반환할 수 있다.
실시예에서, 알고리즘 2는 어트랙션 지역
Figure 112019096463248-pat00084
을 이용하여 관심 지역
Figure 112019096463248-pat00085
형성하기 위한 알고리즘을 보이고 있다.
Figure 112019096463248-pat00086
각 어트랙션 지역
Figure 112019096463248-pat00087
안의 공통 관심 지점들을 구성하고 있는 사진들
Figure 112019096463248-pat00088
Figure 112019096463248-pat00089
의 촬영된 위치 l들을 갖는 관심 지역
Figure 112019096463248-pat00090
를 생성함으로써 간단히
Figure 112019096463248-pat00091
를 반환할 수 있다.
이하에서는 외향적 어트랙션 지역을 발견하는 방법에 대해서 설명하도록 한다. 실시예에서는, 도 3을 참조할 수 있다.
실시예에서, 외향적 어트랙션 지역을 발견하는 방법은 사용자들이 바라보는 방향의 반대쪽에서 관심 영역을 찾는 방법이다. 실시예에 따른 방법은 POI를 향해서 찍는 사진들 말고도 POI 밖에서 주변 경관을 찍는 경우에 대해서 검출할 수 있다. 예를 들어, 엠파이어 스테이트 빌딩 전망대에서 맨해튼 풍경을 담고 싶을 때나, 높은 산에 올라가 주변의 멋진 자연을 찍고 싶을 때의 경우를 생각해볼 수 있다. 외향적 어트랙션 지역을 찾는 방법은 내향적 어트랙션 지역의 보조적인 관점에서 사용할 수 있다. 외향적 어트랙션 지역은 내향적 어트랙션 지역을 찾으면서 놓칠 수 있는 어트랙션 지역을 찾는데 유용하다.
단계(320)에서, 사진 정보를 참조하여 지오 태그 사진들 각각의 뷰 방향의 역방향으로 선분들을 획득한다.
실시예에서, 어떤 지오 태그 사진
Figure 112019096463248-pat00092
=
Figure 112019096463248-pat00093
에서 뷰 방향
Figure 112019096463248-pat00094
와 방향이 정반대인 방향은 뷰 역방향
Figure 112019096463248-pat00095
으로 정의할 수 있다. 사용자가 뷰 방향
Figure 112019096463248-pat00096
을 향해 사진을 촬영했다고 할 때 그 사진 촬영자의 등 쪽을 향하는 역방향을 뷰 역방향
Figure 112019096463248-pat00097
이라 할 수 있다.
단계(330)에서, 지오 태그 사진들 각각의 역방향 선분들이 교차하는 교차점들을 생성한다.
실시예에서, 발견하고자 하는 흥미 있는 어트랙션의 기원 지점(origin point)가 존재할 수 있는 거리를 어떤 사진
Figure 112019096463248-pat00098
의 최대 역 뷰 거리(maximum reverse view distance)
Figure 112019096463248-pat00099
라 한다.
Figure 112019096463248-pat00100
의 크기는 일반적으로
Figure 112019096463248-pat00101
의 크기보다 작게 정의할 수 있다.
Figure 112019096463248-pat00102
의 크기가
Figure 112019096463248-pat00103
보다 커지는 것은 사용자의 관심이 사진을 촬영한 방향보다 뒤에 있다는 의미이다.
도 6은 일실시예에 있어서, 원 관심 지점(Origin interesting point)를 설명하기 위한 도면이다.
서로 다른 사용자의 지오 태그 사진
Figure 112019096463248-pat00104
Figure 112019096463248-pat00105
가 있고
Figure 112019096463248-pat00106
가 두 사진의 시간 차 한계점이라 가정할 때, 각
Figure 112019096463248-pat00107
Figure 112019096463248-pat00108
가 최대 역 뷰 거리
Figure 112019096463248-pat00109
내의 어떤 위치
Figure 112019096463248-pat00110
에서 교차할 때, 이 위치는 두 사진간의 원 관심 지점 orgIP는 다음과 같이 정의된다.
Figure 112019096463248-pat00111
서로 다른 두 명이 촬영한 근접한 지점에서 외부를 향하여 사진을 촬영했다고 할 때, 두 사진의 역 뷰방향
Figure 112019096463248-pat00112
이 교차하는 지점에 적어도 두 명의 사용자를 공통적으로 묶을 수 있는 기원이 되는 지점이 될 수 있는 후보가 있다고 가정할 수 있다. 이러한 교차점에 대해서 두 사진간의 원 관심 지점 orgIP으로 정의할 수 있다. 원 관심 지점은 두 역 뷰 방향(reverse view direction)이 교차하는 지점으로 (lat, long)의 형태를 갖는 위치
Figure 112019096463248-pat00113
에 존재하며, 공통 관심 지점와 비슷하게 교차하는 두 사진
Figure 112019096463248-pat00114
Figure 112019096463248-pat00115
을 연결하는 튜플
Figure 112019096463248-pat00116
형태를 갖는다.
단계(340)에서, 교차점들 중 적어도 N개의 선분들이 교차하는 교차점들을 클러스터링하여 어트랙션 지역을 지정한다.
실시예에서, 외향적 어트랙션 지역을 찾기 위해 뷰 역방향
Figure 112019096463248-pat00117
를 사용함으로써 도 2(b)에서 보인 것과 같이 사용자의 위치(GPS 좌표) 만으로 클러스터를 형성할 수 없는 어트랙션 지역을 발견할 수 있다.
외향적 어트랙션 지역을 발견하기 위해서는 내향적 어트랙션 지역과 동일하게 DBSCAN을 확장한 알고리즘을 이용할 수 있다. 이웃 공통 관심 지점 및 핵심 공통 관심 지점에 대한 정의를 원 관심 지점에 확장하여 이웃 원 관심 지점 및 핵심 원 관심 지점을 정의한다 가정한다.
원 관심 지점들의 집합으로 구성된 한 외향적 어트랙션 지역
Figure 112019096463248-pat00118
가 있을 때, 그
Figure 112019096463248-pat00119
는 핵심 원 관심 지점들의 이웃 원 관심 지점들 중 적어도 하나 이상에 의해 연결된 핵심 원 관심 지점들의 합집합이다.
실시예에서, 하나의 핵심 원 관심 지점이 있고, 해당 핵심 원 관심 지점을 구성하는 다른 원 관심 지점을 통해 동일한 최소 밀도를 갖는 핵심 원 관심 지점으로 확장할 수 있으며, 한 어트랙션 지역
Figure 112019096463248-pat00120
를 구성하는 모든 원 관심 지점들 간에는 반경 한계값
Figure 112019096463248-pat00121
내의 다른 핵심 원 관심 지점을 통해 다른 원 관심 지점에 연결될 수 있는 특성을 갖는다.
실시예에서, 어떤 어트랙션 지역
Figure 112019096463248-pat00122
가 있다고 할 때, 해다 어트랙션 지역
Figure 112019096463248-pat00123
에 포함된 지오 태그 사진들이 촬영된 원 위치들은 관심 지역
Figure 112019096463248-pat00124
으로 정의될 수 있다.
앞서 내향적 어트랙션 지역의 관심 지역에 대해 설명을 참조하면, 방향성
Figure 112019096463248-pat00125
와 비슷하게 우리는 어트랙션 지역
Figure 112019096463248-pat00126
에 포함된 지오 태그 사진들의 원래 위치의 집합을 이용하여 기존의 POI/ROI와 비슷한 관심 지역
Figure 112019096463248-pat00127
를 생성할 수 있다. 관심 지역
Figure 112019096463248-pat00128
를 이용함으로써 도 2에서 보이는 것과 같이 공간에 분포하는 다양한
Figure 112019096463248-pat00129
Figure 112019096463248-pat00130
들간의 방향성
Figure 112019096463248-pat00131
설명적인 지식을 얻을 수 있다.
아래의 알고리즘 3(Algorithm 3)은 외향적 어트랙션 지역을 찾기 위한 알고리즘이다.
Figure 112019096463248-pat00132
알고리즘의 구성은 Algorithm 1과 유사하므로 자세한 설명은 생략한다. 또한, 이를 이용하여 관심 지역
Figure 112019096463248-pat00133
를 발견하기 위한 알고리즘도 Algorithm 2와 거의 동일하므로 알고리즘과 설명은 생략한다.
이하에서는, 추출된 어트랙션 지역 집합
Figure 112019096463248-pat00134
의 중요성을 평가하기 위한 방법으로 랭킹(Ranking) 기법을 설명한다.
실시예에서, 사용자에게 검출된 집합
Figure 112019096463248-pat00135
를 추천하기 위해 집합
Figure 112019096463248-pat00136
안의 각 어트랙션 지역
Figure 112019096463248-pat00137
에 대하여 우선 순위를 선정할 수 있다. 본 발명에서는 우선 순위를 설정하는 방법으로 밀도에 기반한 방법을 사용한다. 랭킹 기법은 우선 순위를 선정하기 위한 기본적인 방법으로 집합
Figure 112019096463248-pat00138
를 구성하는 어트랙션 지역
Figure 112019096463248-pat00139
를 대상으로 각각의 점수를 계산한 뒤 순위를 정하는 방법이다. 각 어트랙션 지역
Figure 112019096463248-pat00140
의 점수를 계산하는 방법은 수학식 3과 같다.
Figure 112019096463248-pat00141
수학식 3에 의하면, 어트랙션 지역을 구성하는 공통 관심 지점의 개수를 어트랙션 지역의 면적으로 나눈 값이 클러스터의 밀도 값이 된다. 어트랙션 지역을 구성하는 원소 사이의 거리가 가까울수록 밀도 값이 높아진다. 모든 어트랙션 지역들에 대한 점수를 1~0 사이로 정규화할 수 있다. 정규화에 대한 방법은 아래 수학식 4와 같다.
Figure 112019096463248-pat00142
Figure 112019096463248-pat00143
는 집합
Figure 112019096463248-pat00144
에서 Score(c)를 이용하여 정렬된 집합을 의미한다. 밀도에 의해 정렬된 집합
Figure 112019096463248-pat00145
의 각 원소
Figure 112019096463248-pat00146
= (
Figure 112019096463248-pat00147
, score(
Figure 112019096463248-pat00148
)이다. 아래의 알고리즘 4은
Figure 112019096463248-pat00149
Figure 112019096463248-pat00150
를 보이고 있다.
집합
Figure 112019096463248-pat00151
의 모든 원소에 대해서 랭킹 점수를 구하여
Figure 112019096463248-pat00152
집합에 저장하고, 다시
Figure 112019096463248-pat00153
를 내림차순으로 정렬하여 리턴한다.
실시예에서, 정규화된 값은 분석된 지역에서 어떤 지역이 가장 관심을 많이 받았고 많이 공유되었는지를 알 수 있다. 이러한 값은 여행자에게 관광지를 추천할 때 우선순위로 활용될 수 있다.
이하에서는 소셜 네트워크 서비스(SNS)에서 공간 태그 된 데이터의 수집과 수집된 데이터에서 FoV 태그 사진의 추출 방법을 설명하고 본 발명에서 제안한 방법으로 POI를 추출한 방법과 기존의 GPS 좌표를 사용하여 POI를 추출한 방법을 밀도 기반 군집화 방법을 사용하여 비교 분석할 수 있다.
실시예에 따른 SNS에서는 사용자들이 공유한 사진 데이터를 API를 통해서 제공한다. 제공된 API에는 다양한 사용 방법들이 있다. 실시예에서는 수집할 사진의 지리적 범위를 지정하는 bbox 옵션을 사용하고, 임의로 선정한 뉴욕 중심 좌표(latitude, longitude: 40.730610, -73.935242)로부터 반경 100km를 지정하여 사진을 수집한다. 실시예에서, SNS API는 실험 당시 한 번의 API콜에 4000장의 사진 URI만 제공하기 때문에 모든 사진을 수집하지는 못할 수 있다. 예를 들어, SNS API를 사용하여 수집된 지오 태그 사진의 데이터는 총 578,155장으로 가정한다.
수집된 공간 태그 된 사진에서 FoV 태그 사진의 비율은 만족할 만큼 많지 않다. 자이로 센서가 있는 기기 또는 방향 정보를 EXIF 포맷에 저장하는 기기에서 FoV 태그 사진 데이터를 구할 수 있다. 우리는 위에서 수집된 공간 태그된 사진에서 EXIF의 GPSImgDirection 태그 정보(GPS 위치, 방향 정보)가 있는 사진만을 추출하여 FoV 태그 사진 데이터를 추출할 수 있다. 예를 들어, 추출된 FoV 태그 사진이 총 87,442장이면, 공간 태그된 사진에서 추출된 FoV 태그 사진의 비율은 약 15% 정도이다.
도 7은 일실시예에서, POI를 찍은 사진들의 위치와 방향 및 공통 관심 지점들을 도시한 것이다.
실시예에서, 자유의 여신상을 찍은 사진들의 위치와 방향, 추출된 공통 관심 지점을 보여주고 있다. 도 7에서 분홍색 동그라미는 사진을 찍은 위치를 나타낸다. 분홍색 동그라미에서 출발하는 화살표는 약 200m의 크기를 가지고 있는 뷰 방향
Figure 112019096463248-pat00154
이다. 파란색 별모양은 사진들로부터 추출된 공통 관심 지점을 나타낸다.
도 7에서 보이는 것과 같이 사진을 찍은 위치 보다 공통 관심 지점이 POI 중심점으로부터 대부분 더 가깝게 형성될 수 있다. 이는 POI 중심점으로부터 각각의 위치 평균을 구하는 방법으로 성능을 측정하더라도 유리한 점이다.
도 8은 Google Map에서 John F. Kennedy International Airport를 보여주고 있다.
도 9-11은 같은 위치에서 공통 관심 지점과 사진 좌표의 클러스터링 결과를 보여주고 있다. 도 9-11에 적용된 DBSCAN의 파라미터 ε는 각각 100m, 200m, 300m이고 k는 모두 5개로 동일하다. 하늘색 영역은 사진 좌표의 클러스터링 영역을 블록 껍질(Convex hull)로 표현한 것이고, 주황색 영역은 공통 관심 지점의 클러스터링 영역을 Convex hull로 표현한 것이다. 또한 같은 색으로 표시된 숫자는 해당 클러스터의 면적을
Figure 112019096463248-pat00155
으로 표현하였다.
도 9는 일실시예에서, ε=100, k=5의 DBSCAN 결과를 도시한 것이다.
도 9에서 사진 좌표의 클러스터링 영역은 총 9개의 영역이 검출되었다. 공통 관심 지점은 총 3개의 영역이 검출되었다. 공통 관심 지점의 경우 거리 100m의 경우에도 관심 지점을 거의 다 커버할 수 있다.
도 9에서 보여주고 있는 속성 값들을 표 1에 정리하였다. 공통 관심 지점을 사용한 클러스터가 더 높은 밀집도를 보인다.
Figure 112019096463248-pat00156
도 10은 일실시예에서, ε=200, k=5의 DBSCAN 결과를 도시한 것이다.
도 10에서 사진 좌표의 클러스터링 영역은 총 1개의 영역이 검출되었다. CoIP는 총 3개의 영역이 검출되었다.
도 10에서 보여주고 있는 속성 값들을 표 2에 정리하였다.
Figure 112019096463248-pat00157
도 11은 일실시예에서, ε=300, k=5의 DBSCAN 결과를 도시한 것이다.
도 11에서 사진 좌표의 클러스터링 영역은 총 1개의 영역이 검출되었다. 공통 관심 지점은 총 1개의 영역이 검출되었다.
도 11에서 보여주고 있는 속성 값들을 표 3에 정리하였다.
Figure 112019096463248-pat00158
도 12는 일실시예에서, 자유의 여신상 DBSCAN 결과를 비교한 것이다.
도 13은 일실시예에서, 시티필드 DBSCAN 결과를 비교한 것이다.
도 14는 일실시예에서, 레드불 아레나 DBSCAN 결과를 비교한 것이다.
도 15는 일실시예에서, 뉴욕 911 메모리얼 DBSCAN 결과를 비교한 것이다.
도 12~15의 경우에서 DBSCAN의 거리 파라미터 값이 커지더라도 GPS 좌표를 이용한 클러스터링 방법보다 공통 관심 지점을 이용한 클러스터링 방법이 비교적 덜 영향을 받는다는 것을 확인할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (14)

  1. 삭제
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 장치에서 지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법에 있어서,
    상기 지오 태그 사진들 각각의 사진 정보를 획득하는 단계;
    상기 사진 정보를 참조하여 상기 지오 태그 사진들 각각의 뷰 방향의 역방향으로 선분들을 획득하는 단계;
    상기 사진 정보를 참조하여, 상기 지오 태그 사진들 각각의 역방향 선분들이 교차하는 교차점들을 생성하는 단계; 및
    상기 교차점들 중 적어도 N개의 선분들이 교차하는 교차점들을 클러스터링하여 어트랙션 지역을 지정하는 단계
    를 포함하는,
    지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법.
  8. 제7항에 있어서,
    상기 지오 태그 사진들 각각의 역방향 선분들이 교차하는 교차점들을 생성하는 단계는,
    상기 사진 정보를 참조하여 상기 지오 태그 사진들의 소유자 식별자를 확인하는 단계; 및
    상기 소유자 식별자가 동일한 지오 태그 사진들에 대해서는 상기 교차점들을 생성하지 않는 단계
    를 포함하는,
    지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법.
  9. 제7항에 있어서,
    상기 지오 태그 사진들 각각의 역방향 선분들이 교차하는 교차점들을 생성하는 단계는,
    상기 사진 정보를 참조하여 상기 지오 태그 사진들의 촬영 시간을 확인하는 단계; 및
    상기 촬영 시간의 시간차가 미리 정해진 시간 이내인 지오 태그 사진들에 대해서 상기 교차점들을 생성하는 단계
    를 포함하는,
    지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법.
  10. 제7항에 있어서,
    상기 어트랙션 지역 내 교차점들을 형성하는 지오 태그 사진들의 사진 정보를 참조하여 촬영 위치 정보들을 확인하는 단계; 및
    상기 촬영 위치 정보들을 참조하여 상기 어트랙션 지역의 교차점들을 형성하는 지오 태그 사진들의 촬영 위치의 집합인 관심 지역을 형성하는 단계
    를 더 포함하는,
    지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법.
  11. 제7항에 있어서,
    상기 어트랙션 지역을 형성하는 지오 태그 사진들의 밀도를 계산하는 단계; 및
    상기 밀도를 기준으로 상기 어트랙션 지역을 포함하는 어트랙션 지역 집합의 랭킹을 선정하는 단계
    를 더 포함하는,
    지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법.
  12. 하드웨어와 결합되어 제7항 내지 제11항 중 어느 하나의 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능 매체에 저장된 컴퓨터 프로그램.
  13. 삭제
  14. 지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법을 실행하는 장치에 있어서,
    하나 이상의 프로세서;
    메모리; 및
    상기 메모리에 저장되어 있으며 상기 하나 이상의 프로세서에 의하여 실행되도록 구성되는 하나 이상의 프로그램을 포함하고,
    상기 프로그램은,
    상기 지오 태그 사진들 각각의 사진 정보를 획득하는 단계;
    상기 사진 정보를 참조하여 상기 지오 태그 사진들 각각의 뷰 방향의 역방향으로 선분들을 획득하는 단계;
    상기 사진 정보를 참조하여, 상기 지오 태그 사진들 각각의 역방향 선분들이 교차하는 교차점들을 생성하는 단계; 및
    상기 교차점들 중 적어도 N개의 선분들이 교차하는 교차점들을 클러스터링하여 어트랙션 지역을 지정하는 단계
    를 포함하는,
    장치.
KR1020190116090A 2019-04-25 2019-09-20 지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법 및 이를 수행하는 장치 KR102249383B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200180184A KR102308864B1 (ko) 2019-04-25 2020-12-21 지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법 및 이를 수행하는 장치

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190048679 2019-04-25
KR1020190048679 2019-04-25

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020200180184A Division KR102308864B1 (ko) 2019-04-25 2020-12-21 지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법 및 이를 수행하는 장치

Publications (2)

Publication Number Publication Date
KR20200125383A KR20200125383A (ko) 2020-11-04
KR102249383B1 true KR102249383B1 (ko) 2021-05-07

Family

ID=73571542

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190116090A KR102249383B1 (ko) 2019-04-25 2019-09-20 지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법 및 이를 수행하는 장치
KR1020200180184A KR102308864B1 (ko) 2019-04-25 2020-12-21 지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법 및 이를 수행하는 장치

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020200180184A KR102308864B1 (ko) 2019-04-25 2020-12-21 지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법 및 이를 수행하는 장치

Country Status (1)

Country Link
KR (2) KR102249383B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116049579B (zh) * 2023-03-06 2023-06-02 中南大学 基于视觉偏好特征的个性化旅游路线推荐方法及装置
CN116775788B (zh) * 2023-06-19 2024-03-26 重庆市规划和自然资源信息中心 一种基于geotools工具修复多面中若干面相交的地理图像生成方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001021351A (ja) 1999-07-07 2001-01-26 Asahi Optical Co Ltd 写真測量画像処理装置、写真測量画像処理方法、および写真測量画像処理プログラムを格納した記憶媒体
KR101536830B1 (ko) * 2010-08-08 2015-07-15 퀄컴 인코포레이티드 컨텐츠 관리 장치 및 방법
JP2015535932A (ja) 2012-09-24 2015-12-17 クゥアルコム・インコーポレイテッドQualcomm Incorporated ジオタグなしアクセスポイント測位
US20160246468A1 (en) 2015-02-25 2016-08-25 Environmental Systems Research Institute (ESRI) Systems and methods for smart cartography

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050112363A1 (en) * 2003-11-21 2005-05-26 Xin Ning Biodegradable polymer compositions for a breathable film
JP4507991B2 (ja) * 2005-06-09 2010-07-21 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US8280405B2 (en) * 2005-12-29 2012-10-02 Aechelon Technology, Inc. Location based wireless collaborative environment with a visual user interface
CA2829597C (en) * 2011-03-07 2015-05-26 Kba2, Inc. Systems and methods for analytic data gathering from image providers at an event or geographic location
US20130022282A1 (en) * 2011-07-19 2013-01-24 Fuji Xerox Co., Ltd. Methods for clustering collections of geo-tagged photographs
US20130117266A1 (en) * 2011-11-09 2013-05-09 Microsoft Corporation Geo-fence based on geo-tagged media
US9367811B2 (en) * 2013-03-15 2016-06-14 Qualcomm Incorporated Context aware localization, mapping, and tracking
US10318884B2 (en) * 2015-08-25 2019-06-11 Fuji Xerox Co., Ltd. Venue link detection for social media messages

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001021351A (ja) 1999-07-07 2001-01-26 Asahi Optical Co Ltd 写真測量画像処理装置、写真測量画像処理方法、および写真測量画像処理プログラムを格納した記憶媒体
KR101536830B1 (ko) * 2010-08-08 2015-07-15 퀄컴 인코포레이티드 컨텐츠 관리 장치 및 방법
JP2015535932A (ja) 2012-09-24 2015-12-17 クゥアルコム・インコーポレイテッドQualcomm Incorporated ジオタグなしアクセスポイント測位
US20160246468A1 (en) 2015-02-25 2016-08-25 Environmental Systems Research Institute (ESRI) Systems and methods for smart cartography

Also Published As

Publication number Publication date
KR102308864B1 (ko) 2021-10-06
KR20200125383A (ko) 2020-11-04
KR20210004918A (ko) 2021-01-13

Similar Documents

Publication Publication Date Title
CN107133325B (zh) 一种基于街景地图的互联网照片地理空间定位方法
Luo et al. Geotagging in multimedia and computer vision—a survey
US8831352B2 (en) Event determination from photos
Kim et al. Mediaq: mobile multimedia management system
US20140343984A1 (en) Spatial crowdsourcing with trustworthy query answering
US9600932B2 (en) Three dimensional navigation among photos
Jain et al. FOCUS: Clustering crowdsourced videos by line-of-sight
Chen et al. Clues from the beaten path: Location estimation with bursty sequences of tourist photos
KR102308864B1 (ko) 지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법 및 이를 수행하는 장치
US9529803B2 (en) Image modification
Shirai et al. A method of Area of Interest and Shooting Spot Detection using Geo-tagged Photographs
Han et al. Video data model and retrieval service framework using geographic information
Hirota et al. Detecting relations of hotspots using geo-tagged photographs in social media sites
Park et al. Estimating the camera direction of a geotagged image using reference images
Zhang et al. Dynamic multi-video summarization of sensor-rich videos in geo-space
Lacerda et al. Compass clustering: A new clustering method for detection of points of interest using personal collections of georeferenced and oriented photographs
Hao et al. Point of interest detection and visual distance estimation for sensor-rich video
Joshi et al. Exploring user image tags for geo-location inference
US10976179B1 (en) Geolocating contents of a video with device orientation, and application thereof
Nam et al. Realroi: Discovering real regions of interest from geotagged photos
US20150379040A1 (en) Generating automated tours of geographic-location related features
Hirota et al. A proposal for discovering hotspots using 3d coordinates from geo-tagged photographs
Liang et al. Efficient match pair selection for matching large-scale oblique UAV images using spatial priors
Deeksha et al. A spatial clustering approach for efficient landmark discovery using geo-tagged photos
Chang et al. Augmented reality services of photos and videos from filming sites using their shooting locations and attitudes

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right