KR101383238B1 - 이벤트 또는 지리적 위치에 있는 이미지 제공자들로부터의 분석 데이터 수집을 위한 시스템 및 방법 - Google Patents
이벤트 또는 지리적 위치에 있는 이미지 제공자들로부터의 분석 데이터 수집을 위한 시스템 및 방법 Download PDFInfo
- Publication number
- KR101383238B1 KR101383238B1 KR1020137025660A KR20137025660A KR101383238B1 KR 101383238 B1 KR101383238 B1 KR 101383238B1 KR 1020137025660 A KR1020137025660 A KR 1020137025660A KR 20137025660 A KR20137025660 A KR 20137025660A KR 101383238 B1 KR101383238 B1 KR 101383238B1
- Authority
- KR
- South Korea
- Prior art keywords
- event
- data
- image
- delete delete
- location
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/587—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/787—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/421—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation by analysing segments intersecting the pattern
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Abstract
본 발명은 그들의 이미지 캡처 디바이스들을 에이밍(aiming)하는 디바이스 조작자들로부터 데이터를 수집 및 분석하고, 이에 의해 예를 들어, 이벤트 또는 지리적 위치의 사진, 비디오 또는 다른 디지털 이미지를 획득하는 프로세스를 통해 관심 대상에 대한 시선을 생성하는 시스템 및 방법에 관한 것이고, 여기서 상기 실시간 또는 임베딩된 위치, 콤파스 헤딩(compass heading), 및 각각의 복수의 이미지 제공자들로부터의 시간데이터는 상기 이벤트 또는 위치에서 각각의 이미지 타겟 또는 서브-타겟에 초점을 맞추고 있는 제공자들의 비율 양의 통계 분석을 위해 상기 복수의 이미지-캡처 디바이스들로부터 하나 이상의 서버들로 전달된다.
Description
본 특허 출원은 2011년 9월 27일에 출원된 미국 가출원 번호 61/539,718, 2011년 6월 9일에 출원된 가출원 번호 61/495,335, 2011년 3월 7일에 출원된 가출원 번호 61/450,092를 우선권으로 주장하며, 이들 모두는 모든 목적을 위해 그 전체 내용이 참조에 의해서 명백히 본 명세서에 포함된다.
발명의 분야
본 발명은 이미지 캡처 디바이스들에 의해 생성되고 또한 자신의 이미지 캡처 디바이스들을 에이밍(aiming)하는 디바이스 조작자들로부터 모인 데이터를 수집 및 분석하며, 이에 의해 예를 들어, 이벤트 또는 위치의 사진, 비디오, 다른 디지털 이미지의 처리를 통해 관심 대상에 대한 시선을 생성하는 시스템 및 방법에 관한 것이다.
또한, 본 발명의 실시예들은 이벤트들 또는 위치들에 있는 관심 대상들을 결정하는 시스템으로서, 원격 휴대용 이미지 캡처 디바이스들로부터 실시간 데이터 스트림을 수신할 수 있는 적어도 하나의 애플리케이션 프로그램을 실행하고 또한 상기 데이터를 분석하는 컴퓨터 시스템과, 수신된 데이터의 적어도 일부를 저장할 수 있는 데이터베이스를 포함하고, 상기 애플리케이션 프로그램은, 상기 디바이스들이 그들의 디바이스들의 이미지 캡처링 기능들을 사용하고 있는 경우 상기 디바이스들의 콤파스 헤딩(compass heading) 및 지리적 위치를 상기 애플리케이션 프로그램이 그로부터 결정하게 하는 상기 휴대용 이미지 캡처 디바이스들 정보로부터의 상시 실시간 데이터 스트림을 수신하고, 2개 이상의 디바이스들의 각각으로부터의 시선이 가로지르는 위치를 계산하여 잠재적 관심 대상을 식별하고, 상기 잠재적 관심 대상과 연관된 사용자들의 클러스터의 계산으로부터 식별하고, 상기 클러스터 및 특정 관심 대상과의 연관을 저장하도록 구성되는 시스템에 관한 것이다.
또한, 본 발명의 실시예들은 상기 2개 이상의 디바이스들로부터 지리적으로 분리되어 있으며, 상기 디바이스들은 모바일 텔레폰 디바이스들인 시스템에 관한 것이다.
또한, 본 발명의 실시예들은 상기 실시간 데이터 스트림은 상기 디바이스들로부터의 GPS 좌표들과 콤파스 헤딩을 포함하고, 상기 애플리케이션 프로그램은 상기 디바이스들로부터의 GPS 좌표들과 콤파스 헤딩을 사용하는 삼각 측량에 의해 상기 잠재적 관심 대상의 위치를 계산하여 상기 디바이스들 사이의 거리와 각도를 결정하는 시스템에 관한 것이다.
또한, 본 발명의 실시예들은 상기 서버 시스템은 상기 잠재적 관심 대상들의 위치(들)을 저장하고, 상기 애플리케이션 프로그램의 알고리즘은 상기 저장된 위치들을 분석하여 상기 클러스터의 동적 상태를 결정하는 시스템에 관한 것이며, 상기 클러스터는 2개 이상의 시선들이 교차하는 공간의 영역일 수 있다.
또한, 본 발명의 실시예들인, 상기 서버 시스템은 상기 클러스터의 위치 또는 상기 클러스터 내의 사용자들의 급속한 증가를 제 3 당사자에게 전송하여 그들에게 자신의 존재를 알리고, 이에 따라 상기 제 3 당사자가 상기 클러스터에 반응할 수 있는 시스템에 관한 것이다.
또한, 본 발명의 실시예들은 복수의 이미지 캡처 디바이스들로부터 정보를 획득하는 컴퓨터 구현 방법으로서, 복수의 이미지 캡처 디바이스들의 각각으로부터 연속적인 데이터 스트림을 수신하는 단계로서, 상기 데이터 스트림은 GPS 포지션 데이터, 콤파스 헤딩 데이터, 및 시간 데이터를 포함하는, 상기 수신하는 단계와, 각각의 전자 디바이스가 초점 맞추고 있는 위치들을 결정하는 소프트웨어 애플리케이션을 사용하여 상기 데이터를 처리하는 단계와, 거의 동일한 시간에 각각의 위치에 초점을 맞추고 있는 전자 디바이스들의 개수를 상기 처리된 데이터로부터 결정하는 단계와, 특정 위치에 초점을 맞추고 있는 것으로 결정된 디바이스들의 개수로부터 사용자의 클러스터를 식별하는 단계와, 특정 시간 또는 시간 구간에 각각의 위치에 초점을 맞추고 있는 전자 디바이스들의 비율 수의 통계적 계산들을 수행하는 것에 의해 각각의 위치에서의 관심 양 또는 관심 모멘텀을 나타내는 정보를 생성하는 단계를 포함하는 컴퓨터 구현 방법에 관한 것이다.
추가적인 본 발명의 실시예들은 소정 시간들에서 타겟에 대한 위치들에 관한 장래 결정들에 대한 상기 통계적 계산들의 결과들을 저장하는 단계에 관한 것이다.
다른 본 발명의 실시예들은 이벤트 또는 위치에 있는 대상의 관심 레벨을 결정하는 컴퓨터 구현 방법으로서, 하나 이상의 전자 디바이스들로부터 전송되는 컴퓨터 시스템에서의 실시간 데이터 스트림을 수신하는 단계로서, 상기 전자 디바이스들은 상기 시스템으로부터 원격인, 상기 수신하는 단계와, 상기 시스템 상에 상기 전자 디바이스들의 각각으로부터의 상기 데이터 스트림을 포함하는 데이터 값들을 저장하는 단계로서, 상기 데이터 값들은 상기 전송하고 있는 전자 디바이스의 적어도 GPS 좌표들 및 콤파스 헤딩을 포함하는, 상기 저장하는 단계와, 상기 GPS 포지션 및 콤파스 헤딩에 기초하여 상기 전자 디바이스들의 각각으로부터의 시선을 결정하는 단계와, 한 쌍의 전자 디바이스들 사이의 거리 및 방향을 결정하는 단계와, 삼각 측량을 통해 상기 한 쌍의 전자 디바이스들에 대한 시선들의 교차 지점을 계산하는 단계와, 각각의 가능한 쌍의 전자 디바이스들에 대한 거리 및 방향을 결정하고 삼각 측량을 통해 각 가능한 쌍의 전자 디바이스들의 시선들에 대한 교차 지점을 계산하는 것을 반복하여 그러한 지점들의 세트를 생성하는 단계와, 상기 세트의 교차 지점 사이의 거리를 분석하여 상기 지점들의 서브세트가 클러스터를 형성하는 곳을 결정하는 단계로서, 상기 클러스터는 모든 다른 지점들로부터의 미리결정된 거리 이내에 위치해 있는 지점들의 세트인, 상기 결정하는 단계와, 클러스터들의 형성을 모니터링하는 제 3 당사자에게 클러스터의 위치를 전송하는 단계를 포함하는 컴퓨터 구현 방법에 관한 것이다.
또한, 본 발명의 실시예들은 상기 지점들의 세트의 분석을 반복하여 특정 시간에 클러스터들을 형성하는 모든 서브세트들을 식별하는 단계와, 특정 클러스터와 연관된 관심 대상을 식별하는 단계와, 상기 세트를 형성하는 교차 지점들의 전체 개수와 비교되는 특정 연관된 클러스터를 형성하는 서브세트의 지점들의 개수의 비율에 기초하여 상기 식별된 대상의 관심 레벨을 결정하는 단계를 갖는 컴퓨터 구현 방법에 관한 것이다.
다른 실시예는 상기 제 3 당사자는 브로드캐스터이고, 상기 브로드캐스터는 하나 이상의 관심 대상들의 위치 및 관심 레벨을 수신함으로써 관람중인 청중에 대한 브로드캐스팅을 위해 어떤 대상에 초점이 맞추어지고 있는지의 결정에 도움을 주는 컴퓨터 구현 방법에 관한 것이다.
또한, 본 발명의 실시예들은 시간 동안 교차 지점의 변화를 트래킹(tracking)하여 클러스터들의 포지션 및 사이즈의 변화를 결정하는 단계에 관한 것이고, 클러스터를 형성하는 지점들의 개수의 변화는 대상들 사이의 관심 레벨들의 이동을 식별시키는 컴퓨터 구현 방법에 관한 것이다.
다른 실시예는 상기 제 3 당사자는 보안 기관이며, 일 대상에서의 특정 위치 및 관심 레벨의 이동의 비율은 그 위치에서 가능한 보안 위험을 나타내며 이에 의해 상기 보안 기관에게 그러한 위험을 알리는 컴퓨터 구현 방법에 관한 것이다.
다른 실시예들은 클러스터를 상기 클러스터를 형성하는 지점들의 서브세트를 계산하는데 사용되는 데이터와 연관시키는 단계와,
상기 클러스터와 연관된 데이터를 전송한 상기 전자 디바이스들을 식별하는 단계와, 식별된 상기 전자 디바이스들로 다시 메시지를 전송하는 단계를 갖는 컴퓨터 구현 방법에 관한 것이다.
다른 실시예는 식별된 상기 전자 디바이스들로 전송된 메시지는 상기 전자 디바이스들 사이의 논의 그룹을 형성하기 위한 초대(invitation)인 컴퓨터 구현 방법에 관한 것이다.
또한, 일 실시예는 식별된 상기 전자 디바이스들로 전송된 메시지는 상기 관심 대상에 관한 정보를 포함하는 컴퓨터 구현 방법에 관한 것이다.
또 다른 실시예는 식별된 상기 전자 디바이스들로 전송된 메시지는 제품 또는 서비스에 대한 광고인 컴퓨터 구현 방법에 관한 것이다.
또한, 본 발명의 실시예들은 서버 리소스들이 시선들 및 교차 지점을 계산하는데 불규칙한 데이터를 사용하기 이전에, 상기 서버에 의해 수신된 데이터 스트림을 필터링하여 상기 불규칙한 데이터 값을 제거하는 단계를 갖는 컴퓨터 구현 방법에 관한 것이다.
본 발명의 실시예들은 이벤트 또는 위치에 있는 대상의 관측자들의 관심 레벨을 식별하는 컴퓨터 구현 방법으로서, 통신 네트워크를 통해 데이터를 전달할 수 있고 또한 이미지들을 캡처할 수 있는 활성화된 전자 디바이스들을 구비하는 이벤트 또는 위치에 있는 복수의 관측자들을 식별하는 단계와, 그들의 GPS 포지션들 및 방위 대향에 관하여 상기 활성화된 전자 디바이스들에 의해 하나 이상의 서버(들)로 전송되고 있는 상기 데이터 및 이미지들을 모니터링하는 단계와, 상기 하나 이상의 서버들에 상기 전자 디바이스들에 의해 생성된 상기 전송된 데이터 및 이미지들을 컴파일하는 단계와, 수집된 상기 이미지들의 메타데이터 및 상기 전자 디바이스들의 포지션 및 초점의 방향에 관한 데이터를 분석하여 상기 이벤트 또는 위치에서 발생한 상이한 상황들의 관측자의 관심 레벨을 결정하고 상기 분석을 통해 클러스터들 또는 패턴들을 인식하는 단계를 포함하는 컴퓨터 구현 방법에 관한 것이다.
또 다른 실시예는 상기 이벤트 또는 위치에 관한 정보에 기초하여 데이터베이스를 생성하는 단계와, 상기 서버(들)에 상기 데이터베이스를 저장하는 단계와, 특정 시간 또는 시간 구간 동안 상기 이벤트의 하나 이상의 이미지들 또는 비디오들을 캡처하는 단계와, 상기 캡처된 이미지들 또는 비디오들에 상기 이벤트 또는 위치 및 시간 스탬프를 식별시키는 정보를 태깅하는 단계와, 상기 태깅된 이미지 및 메타데이터를 상기 서버로 전송하는 단계와, 상기 시간 스탬프를 포함하는 상기 메타데이터에 기초하여 상기 태깅된 이미지를 식별하고, 또한 상기 이미지를 상기 데이터베이스에서 정확한 이벤트 또는 위치와 연관시키는 단계와, 상기 정확한 이벤트 또는 위치를 위해 상기 데이터베이스에 상기 이미지를 저장하는 단계와, 상기 캡처된 이미지를 웹사이트에 디스플레이하는 단계를 갖는 컴퓨터 구현 방법에 관한 것이다.
다른 실시예는 컴퓨터 처리 시스템에 의해 실행가능한 컴퓨터-판독가능 명령어들을 구비하는 비-일시적 컴퓨터 판독가능 저장매체로서, 상기 컴퓨터-판독가능 명령어들은, 이동 디바이스들로부터 위치, 방향, 및 시간 데이터를 수신하는 컴퓨터 시스템으로 하여금 분석을 위해 상기 위치, 방향, 및 시간 데이터를 컴파일하게 하는 명령어들과, 상기 시스템으로 하여금 상기 컴파일된 데이터를 분석하여 원격 디바이스들 중의 적어도 2개의 방향 데이터에 기초하여 시선이 복수의 원격 디바이스들의 각각에 대한 초점 타겟을 식별하도록 가로지를 수 있는 곳을 결정하게 하는 명령어들과, 상기 시스템으로 하여금 상기 타겟의 특정 위치에 있는 교차 지점의 개수에 기초하여 특정 시간에서 특정 타겟에 초점을 맞추고 있는 원격 디바이스들의 개수를 계산하게 하는 명령어들과, 상기 시스템으로 하여금 다른 타겟들에 비교되는 특정 시간에서 특정 타겟에 초점을 맞추고 있는 원격 디바이스의 비율 수의 통계적 계산들의 결과들로부터 각 타겟의 관심 양을 결정하게 하는 명령어들을 포함하는 컴퓨터 판독가능 저장매체에 관한 것이다.
또 다른 실시예는 시스템으로서, 하나 이상의 애플리케이션들을 실행하는 컴퓨터 시스템을 포함하고, 상기 컴퓨터 시스템은, 개인이 대상들에 있는 지점에 대해 그들의 휴대용 카메라들을 사용하고 있는 경우, 네트워크를 통해 휴대용 카메라들로부터 데이터를 수신하고, 실시간으로 데이터를 수집 및 처리하여 상기 카메라들의 하나 이상의 시선으로부터 둘 이상의 사용자들 사이에 공유되는 관심을 갖는 위치를 결정하도록 구성되고, 일 위치에서 공유되는 관심에 기초하여 각 클러스터에 포함된 사용자들의 복수의 클러스터들을 식별하고, 또한 각 클러스터와 연관된 사용자 데이터를 저장하는 시스템에 관한 것이다.
또한 상기 시스템의 일 실시예는 상기 위치(들)을 저장하고, 상기 2개의 원격 전자 디바이스들의 각각으로부터의 시선은 상기 데이터베이스에서 교차하게 되며, 또한 상기 애플리케이션 프로그램의 알고리즘은 상기 저장된 위치들을 분석하여 상기 클러스터의 동적 상태를 결정하는 서버 시스템에 관한 것이다.
본 발명의 다른 실시예는 한 쌍의 전자 디바이스들 사이의 거리 및 방향을 결정하는 것과, 삼각 측량을 통해 상기 한 쌍의 전자 디바이스들에 대한 시선들의 교차 지점을 계산하는 것과, 각각의 가능한 쌍의 전자 디바이스들에 대한 거리 및 방향을 결정하고 삼각 측량을 통해 각 가능한 쌍의 전자 디바이스들의 시선들에 대한 교차 지점을 계산하는 것을 반복하여 그러한 지점들의 세트를 생성하는 것과, 상기 세트의 교차 지점 사이의 거리를 분석하여 상기 지점들의 서브세트가 클러스터를 형성하는 곳을 결정하는 단계로서, 상기 클러스터는 모든 다른 지점들로부터의 미리결정된 거리 이내에 위치해 있는 지점들의 세트인, 상기 결정하는 것과, 클러스터들의 형성을 모니터링하는 제 3 당사자에게 클러스터의 위치를 전송하는 것에 관한 것이다. 또한, 본 발명의 일 실시예는 시간 동안 교차 지점의 변화를 트래킹(tracking)하여 클러스터들의 포지션 및 사이즈의 변화를 결정하는 것에 관한 것이고, 클러스터를 형성하는 지점들의 개수의 변화는 대상들 사이의 관심 레벨들의 이동을 식별시키는 것에 관한 것이다.
본 발명의 다른 실시예는 식별된 상기 전자 디바이스들로 전송된 메시지는 상기 전자 디바이스들 사이의 논의 그룹을 형성하기 위한 초대(invitation)고 또는 식별된 상기 전자 디바이스들로 전송된 메시지는 관심 대상에 관한 정보를 포함하며, 상기 정보는 배경 정보 또는 통계 자료일 수 있다.
또한, 본 발명의 일 실시예는 원격 디바이스들의 대향 및 포지션을 결정할 수 있고 또한 이러한 2개의 원격 디바이스들로부터의 광선이 삼각 측량을 통해 가로지르고 또한 잠재적 관심 대상들을 식별시키는 곳을 계산할 수 있는 서버 애플리케이션 프로그램을 실행할 수 있는 시스템에 관한 것이다. 상기 시스템은 상기 시스템의 관심 대상들의 위치(들), 계산된 값들, 수신된 값을 저장할 수 있으며, 상기 시스템은 상기 수신된 데이터, 계산된 값들, 및 위치들, 그리고 그 데이터, 값들, 및 대상들에 관련된 추가 정보를 저장하는 데이터베이스 프로그램을 실행할 수 있다. 또한, 상기 애플리케이션 프로그램은 클러스터들이 존재하는 곳을 결정하는 값들 및 데이터를 분석할 수 있다. 또한, 상기 시스템은 상기 시스템과 통신하며 시간, 포지션 및 방향 데이터를 포함할 수 있는 데이터를 분석을 위해 상기 시스템으로 전송하는 2개 이상의 원격 디바이스들을 구비할 수 있다. 상기 데이터는 실시간 데이터 스트림으로서 상기 서버 시스템으로 전송된다. 상기 원격 디바이스들은 디지털 이미지 또는 영화를 찍을 수 있는 이미지 캡처 하드웨어 및 상기 데이터를 전송하는 통신 하드웨어를 구비한다. 또한, 상기 애플리케이션은 특정 시간들에서 상기클러스터들을 식별할 수 있으며, 통계적 계산들을 수행하여 각 관심 대상의 관심 량을 결정할 수 있다.
본 발명의 추가 특징들, 그것의 본래 및 여러가지의 이점들이 첨부 도면들과 함께 취해진 다음의 상세한 설명을 고려하여 명백해질 것이며, 여기서 명세서 전반에 걸쳐 유사한 참조부호들은 유사한 부품들을 지칭한다.
도 1은 예를 들어 풋볼 게임과 같은 이벤트를 개최하는 스타디움의 다이어그램이다.
도 2는 예를 들어 대시보드 상에서 보여지는 아카데미 시상식과 같은 이벤트를 개최하는 인근의 다이어그램이다.
도 3은 예를 들어 도 2에 나타낸 것의 이후 시간의 아카데미 시상식과 같은 이벤트를 개최하는 인근의 다이어그램이다.
도 4는 이벤트의 이미지들이나 비디오들을 획득하도록 원격 디바이스들과 주최자 사이의 통신을 처리하는 바람직한 실시예의 단계들을 나타낸 흐름도이다.
도 5는 본 발명의 일 실시예를 구현함에 있어서 포함되는 예시적 시스템의 다이어그램이다.
도 6은 본 발명의 일 실시예의 일반적 동작의 흐름도이다.
도 7은 관심 대상을 삼각 측량하여 클러스터를 형성하는데 실행되는 단계들의 일 예를 도시하는 흐름도이다.
도 8은 본 발명의 방법의 일 실시예에 대한 단계들의 일 예를 도시하는 흐름도이다.
도 9는 본 발명의 방법의 다른 실시예에 대한 단계들의 일 예를 도시하는 흐름도이다.
도 10은 위치나 대상에서의 모멘텀과 관심 량을 결정하는 단계들의 일 예를 도시하는 흐름도이다.
도 11은 위치나 대상에서의 모멘텀과 관심 량을 삼각 측량하여 결정하는 다른 방법을 도시하는 흐름도이다.
도 12는 패턴들이나 클러스터들을 인식하는 방법의 단계들의 일 예를 도시하는 흐름도이다.
도 1은 예를 들어 풋볼 게임과 같은 이벤트를 개최하는 스타디움의 다이어그램이다.
도 2는 예를 들어 대시보드 상에서 보여지는 아카데미 시상식과 같은 이벤트를 개최하는 인근의 다이어그램이다.
도 3은 예를 들어 도 2에 나타낸 것의 이후 시간의 아카데미 시상식과 같은 이벤트를 개최하는 인근의 다이어그램이다.
도 4는 이벤트의 이미지들이나 비디오들을 획득하도록 원격 디바이스들과 주최자 사이의 통신을 처리하는 바람직한 실시예의 단계들을 나타낸 흐름도이다.
도 5는 본 발명의 일 실시예를 구현함에 있어서 포함되는 예시적 시스템의 다이어그램이다.
도 6은 본 발명의 일 실시예의 일반적 동작의 흐름도이다.
도 7은 관심 대상을 삼각 측량하여 클러스터를 형성하는데 실행되는 단계들의 일 예를 도시하는 흐름도이다.
도 8은 본 발명의 방법의 일 실시예에 대한 단계들의 일 예를 도시하는 흐름도이다.
도 9는 본 발명의 방법의 다른 실시예에 대한 단계들의 일 예를 도시하는 흐름도이다.
도 10은 위치나 대상에서의 모멘텀과 관심 량을 결정하는 단계들의 일 예를 도시하는 흐름도이다.
도 11은 위치나 대상에서의 모멘텀과 관심 량을 삼각 측량하여 결정하는 다른 방법을 도시하는 흐름도이다.
도 12는 패턴들이나 클러스터들을 인식하는 방법의 단계들의 일 예를 도시하는 흐름도이다.
본 발명의 일반적 원리들은 어떤 이벤트에 있거나 소정의 지리적 위치 내에 있는 둘 이상의 사용자들에 의해 사용되는 이미지 캡처 디바이스들로부터 시간, 포지션, 및 방향 속성을 포함하는 데이터를 수집하고; (i) 사용자들이 초점을 맞추고 있는 대상이나 영역을 결정하고; (ii) 초점이 맞추어진 각각의 대상이나 영역이 초점이 맞추어진 다른 대상들이나 영역들에 연관되어 수신되는 주목 비율 또는 관심 크기를 정량화하고; (iii) 초점이 맞추어진 각각의 대상이나 영역에 대한 주목-레벨 또는 관심-레벨이 시간에 따라 이동되고 있는 방식을 분석하고; 또한 (iv) 기업, 사업, 또는 소비자 애플리케이션들에서의 각종 사용들을 위하여 데이터를 통합 및 분석하는 것에 관한 것이다.
또한, 본 발명의 원리들은 이벤트 또는 위치로부터 이미지들과 시간, 포지션, 및 방향 데이터를 제공하기 위하여 서버 시스템과 통신하는 이미지 캡처 디바이스들을 구비하고, 그 데이터 및 이미지들을 사용하여 각 대상이 수신하고 있는 주목 비율, 및 그 주목이 시간에 따라 이동하고 있는 방식을 결정하는(여기서, 이러한 정보는 잠재적인 타겟 광고들을 알아보게 하는데 사용될 수 있음) 하나 이상의 사용자들에 관한 것이다.
본 발명의 원리들은 이미지 제공자들이 어떤 위치나 이벤트에 있는 특정한 사람, 대상, 서버-이벤트에 초점을 맞춤에 따라 실시간으로 이미지들을 캡처하고 이미지 캡처 디바이스들로부터의 정보 및 상기 이미지들과 연관된 컴파일된 메타데이터를 획득하는 시스템 및 방법에 관한 것이다.
또한, 본 발명의 원리들은 이미지들을 캡처하고 통신 네트워크를 통해 전달할 수 있는 전자 디바이스들을 가진, 어떤 이벤트 또는 위치에 있는 사람들을 식별하고, 그 포지션들과 향하고 있는 방향에 관하여 상기 전자 디바이스에 의해 서버로 전송되고 있는 이미지들과 데이터를 모니터링하고, 상기 전송된 이미지들과 데이터 즉, 하나 이상의 서버들에 대해 상기 전자 디바이스들에 의해 생성된 이미지들과 데이터를 수집하고, 분석을 위해 상기 서버(들)에 대한 이미지들과 데이터를 저장하고, 상기 이벤트 또는 위치에서 발생하는 상이한 상황들에서 사람들의 관심 레벨을 결정하기 위하여 상기 수집된 이미지들의 메타데이터 및 상기 전자 디바이스들의 초점이 맞추어진 포지션과 방향에 관한 데이터를 분석하며, 그 분석을 통해 패턴들 또는 클러스터들을 인식하는 것을 포함하는 시스템 및 방법에 관한 것이다. 데이터가 실시간으로 전송되므로, 특정 시간 또는 시간 구간에서의 사람들의 관심은, 어떤 상황들이 상기 이벤트나 상기 위치 동안의 특정 시간에서 가장 큰 관심을 갖는지를 식별하도록 결정될 수 있다. 특히, 수신되는 데이터가 일정하게 값이 변화하는 경우, 실시간 디바이스들과 소프트웨어는 수신되는 것과 동일한 속도로 그 정보를 업데이트하고, 전달하고, 처리한다.
또한, 본 발명의 원리들은 캡처 동시 이미지들 및 이벤트, 위치 또는 원격 애플리케이션 프로그램을 사용하는 것에 의한 사진 타겟의 정밀한 시간과 위치에 관련된 2개의 원격 전자 디바이스들을 사용하는 것에 관한 것일 수 있으며, 상기 애플리케이션 프로그램은 캡처된 이미지의 타겟에 대한 삼각 측량을 위해 2개 이상의 디바이스들의 시간, GPS 좌표들 및 방위 모두를 캡처하게 된다. 함께 작동하는 2개의 원격 디바이스들의 각각에 의해 캡처된 GPS 포지션, 콤파스 헤딩(compass heading), 및 시간 데이터는 캡처된 이미지(들)을 태깅하고 식별하는데 사용될 수 있다. 데이터는 타겟에 초점이 맞추어지는 동안이나 이미지(들)을 생성할 시에 그 이벤트에 있는 관측자들에 의해 사용되는 이미지 캡처 디바이스들의 달라지는 초점 방향 및 지속시간을 포함할 수 있다.
또한, 본 발명의 원리들은 캡처 동시 이미지들 및 이벤트, 위치 또는 원격 애플리케이션 프로그램을 사용하는 것에 의한 사진 타겟의 정밀한 시간과 위치에 관련된 2개의 원격 전자 디바이스들을 사용하는 것에 관한 것일 수 있으며, 상기 애플리케이션 프로그램은 캡처된 이미지의 타겟에 대한 삼각 측량을 위해 2개 이상의 디바이스들의 시간, GPS 좌표들 및 방위 모두를 캡처하게 된다. 함께 작동하는 2개의 원격 디바이스들의 각각에 의해 캡처된 GPS, 콤파스, 및 시간 데이터는 캡처된 이미지(들)을 태깅하고 식별하는데 사용될 수 있다. 데이터는 상기 이벤트에 있는 관측자들에 의해 사용되는 이미지 캡처 디바이스들의 초점 방향 및 지속시간을 포함할 수 있다. 상기 이미지들은 소정 시간 이상 캡처되며, 그 사진, 비디오, 및 이미지들과 연관된 이미지 캡처 디바이스들로부터 전달되는 수집 데이터가 컴파일된다. 상기 방법은 통계적 계산들을 통해 정보를 추출하고, 그 정보를 활용하여 이벤트에서 광고함으로써 생성되거나 또는 초점이 맞추어진 대상의 관심 레벨을 순위화하는 것을 통해 이미지 제공자들로 향해지는 수익을 보장 또는 증대시키는 것을 포함한다.
또한, 본 발명의 원리들은 이벤트들이나 위치들의 이미지들을 획득하는 방법에 관한 것이며, 이것은 특정 시간 또는 특정 시간 구간 이상 어떤 위치나 위치의 사진 이미지를 캡처하는 전자 요청을 생성하고; 상기 이벤트 또는 위치를 식별하는 정보와 상기 요청을 적어도 하나의 서버로부터 제 1 전자 디바이스로 전달함으로써 사진 이미지의 갭처를 개시하는 것을 포함한다. 본 발명의 실시예들은 또한 2개의 원격 디바이스들에 관한 것일 수 있으며, 여기서 제 1 원격 디바이스와 제 2 원격 디바이스는 지리적으로 분리되어 상기 이벤트 또는 위치의 이미지들을 획득할 수 있으며, 또한 캡처 이미지(들) 및 삼각 측량 데이터에 대한 요청을 양쪽 모두의 디바이스들에게 동시에 전송할 수 있다.
또한, 본 발명의 원리들은 디바이스가 향하고 있는 방향에 관한 연속적인 데이터 스트림을 생성할 수 있는 원격 애플리케이션을 실행하는 복수의 제 1 원격 전자 디바이스들; 사진 이미지의 캡처; 애플리케이션 프로그램과 데이터베이스 프로그램을 실행하는 적어도 하나의 서버에 관한 것이고, 여기서 상기 서버는 상기 복수의 제 1 원격 전자 디바이스들과 지리적으로 분리되어 상기 제 1 원격 전자 디바이스들과 통신하며, 상기 서버는 각각의 이미지 캡처 디바이스가 소정 시간 향하고 있는 방향 및/또는 하나 이상의 캡처된 이미지(들)에 관한 데이터 스트림을 수신하도록 제 1 원격 전자 디바이스와 통신한다.
본 발명의 원리들은 또한 시간, GPS 위치, 및 콤파스 데이터를 사용하여 초점이 맞추어진 타겟을 삼각 측량하고 이에 의해 특정 시간 또는 시 구간 이상 상기 타겟의 정확한 포지션, 방향, 움직임 및 위치를 결정하는 것에 관한 것이다. 임의의 2개 원격 전자 디바이스들로부터의 시간 데이터, 방향 데이터, 및 포지션 데이터를 포함하는 디바이스들의 속성의 조합은, 삼각측량 계산을 통해 타겟의 속도와 모션 방향과 포지션에 관한 정보를 생성하는 2개의 교차 라인들을 생성하는데 사용될 수 있다. 타겟을 향하거나 본질적으로는 대상으로 삼은 타겟과 동일한 위치에 있는 원격 디바이스들의 각각으로부터의 GPS, 시간 및 방향 정보의 순차적이며 반복적인 캡처는 동일하게 반복되는 삼각측량 계산 및 방법을 사용하여 이미지 캡처 디바이스들이 캡처에 대해 초점이 맞추어진 시간 동안 타겟 대상의 정확한 위치, 모션 방향, 및 속도를 플롯(plot)하는데 사용될 수 있다. 이들 반복 계산들은 분석될 수 있는 시간 동안 본질적으로 동일한 위치를 향하는 이미지 캡처 디바이스들에 대한 초점 방향의 교차 지점으로부터 데이터 지점들의 클러스터를 생성한다. 이미지 캡처 디바이스들로부터 자동 전달되는 실시간 데이터 이외에, 어느 한쪽 또는 양쪽 모두의 원격 디바이스 사용자들은 추가의 정보 예컨대 사진 이미지(들)을 더욱 식별하도록 디바이스들의 어느 한쪽 또는 양쪽 모두에 의해 캡처되는 이미지(들)에 대한 이벤트 설명을 또한 할당할 수 있다. 소명한다면, 몇몇 실시예들에서, 시스템들 또는 프로세서의 하나 이상의 특징들은 실시간 데이터 스트림들이나 처리없이도 동작할 수 있다.
클러스터 형성은 두개 이상의 관측자들이 동일한 관심 대상에 대해 그들의 이미지 캡처 디바이스들을 집중시킬 때 발생한다. 클러스터들은 디바이스 속성을 처리하는 알고리즘을 사용하여 결정된다. 추가 알고리즘들이 클러스터를 분석하여 예를 들어 밀도에 의해 중요도를 결정하는데 사용될 수 있다. 클러스터들은 그것들을 액션가능한 항목들(actionable items), 예를 들면, 소셜 미디어, 뉴스 자료, 광고, 또는 데이터로서 식별하도록 태깅될 수 있으며, 그 후에 그 태그(들)을 사용하여 배포할 수 있다. 이상적인 상황은 클러스터들이 정밀한 지점에 다 함께 초점이 맞추어지는 것이지만, 그 위치의 사이즈가 클 수도 있고 또는 관측자들은 그 위치에 대한 약간 상이한 측면들 또는 특징들에 초점을 맞출 수 있기 때문에 그러한 경우는 흔한 것이 아니다. 이러한 이유로, 관련 지점들의 클러스터 밀도는 일반적인 관심 위치 또는 관심 위치의 사이즈 모두를 결정하는데 사용될 수 있다. 예를 들어, 어떤 배우가 공연 이후에 극장을 빠져나오는 경우, 초점이 맞추어진 지점들의 클러스터는 그 배우의 위치 또는 그것과 매우 가까운 위치에 형성되겠지만, 대형 빌딩에 화재가 발생한 경우, 그 지점들의 클러스터는 불타고 있는 빌딩의 여러 부분들에 대한 관측자들의 초점만큼 훨씬 크게 될 것이다. 양쪽 예들 모두에서, 클러스터의 밀도는 관심 위치의 사이즈를 나타내며, 배우 주위의 클러스터는 불타고 있는 빌딩 주위 또는 그것에 초점이 맞추어진 클러스터보다 훨씬 작다. 관측자들의 관심은 시간에 따라 진전되므로, 그들 시선들의 방향은 특정 관심 대상을 따르도록 새로운 위치들로 이동되며, 이에 의해 시선들과 교차 지점 사이의 각도 변화를 야기하게 된다. 이러한 이동은 클러스터의 사이즈 및 밀도가 또한 시간에 따라 변화하도록 할 수 있다. 관측자의 관심이 새로운 관심 대상으로 이동하는 경우, 그들의 시선은 그 교차 지점이 더 이상 본래의 클러스터와 연관되지 않게 되도록 충분히 달라질 수 있다. 더욱 많은 관측자들이 새로운 관심 대상들을 발견하게 되므로, 본래의 클러스터는 교차 지점이 본래의 대상과 연관된 다른 교차 지점으로부터 클러스터의 계산된 영역 또는 최대 거리를 빠져나오게 됨에 따라 교차 시선들의 개수 감소 및 이에 상응하는 밀도 드롭을 나타나게 된다. 마찬가지로, 새로운 관측자들이 특정 관심 대상에 초점을 맞추게 되므로, 교차 시선들의 개수가 증가하여 클러스터 밀도를 증가시키며, 그 시간 동안 클러스터에 부여되는 중요도도 그렇게 될 것이다. 이러한 변화들은 교차 지점의 위치를 결정하는 삼각측량 계산과 클러스터들 및 그들의 밀도와 중요도를 결정하는 통계 분석의 조합을 통해 계산될 수 있다.
또한, 본 발명의 원리는 원격 전자 이미지 캡처 디바이스를 각각 활용하여 복수의 관측자들 또는 이미지 제공자들을 통해 획득되는 데이터를 컴파일하고(여기서 데이터는 실시간 피드들로서 전달되거나 메타데이터로서 수집된 사진, 비디오 및 이미지와 연관되거나 또는 양쪽 모두 일 수 있음), 어떤 이벤트 또는 위치에 있는 각종 서브-타겟들의 관심 레벨에 관한 통계적 계산들을 통해 상기 컴파일된 데이터로부터 실시간으로 정보를 추출하고, 어떤 이벤트에 있는 위치들의 결정된 관심 레벨 또는 참석자의 초점이나 관측자들의 초점의 통계 분석으로부터 결정된 이벤트 동안의 특정 시간들에서의 특정 사람들이나 대상의 관심 레벨을 활용하여, 분석으로부터의 이벤트에 광고를 포지셔닝하는 스타팅 비드(starting bid) 양들을 더욱 보장하는데 사용되는 시스템 및 방법에 관한 것이다.
본 발명의 원리들은 또한 어떤 이벤트에 있는 사람이나 대상에 초점을 맞추고 있는 복수의 관측자들에 의해 사용되는 이미지 캡처 디바이스들로부터 실시간으로 전달되는 데이터를 수집하고; 그 수집된 데이터를 처리하는 것에 의해 이벤트 동안의 상기 사람이나 대상의 관심 레벨들을 결정하고; 또한 상기 복수의 이미지 캡처 디바이스들로부터 획득된 데이터로부터 통계적으로 결정된 관심 레벨에 기초하여, 그 이벤트가 진행함에 따라, 실시간으로 광고 비더들(advertising bidders)에게 그 이벤트의 부분들을 경매에 부치는 방법에 관한 것이다. 또한, 관심 레벨은 이벤트에서의 특정한 사람이나 대상에 대하여 캡처된 이미지들의 개수로부터 결정될 수 있다. 일반적으로 실시간 처리는 관심 활동의 발생이나 언더라잉 데이터의 생성으로, 거의 동일한 시간 또는 거의 순간적인 관계로 처리 출력을 생성하는 것을 지칭한다.
본 발명의 원리는 이미지 캡처 디바이스가 향하고 있는 방향과 포지션, 그리고 이미지 캡처 디바이스가 대략적으로 동일한 방향을 향하고 있는 시간의 양을 식별할 수 있는 애플리케이션(들)을 실행할 수 있는 복수의 이동 디바이스들로부터 데이터를 사용하는 것에 관한 것이다. 바람직한 실시예에서, 대향(facing) 방향 및 포지션에 관한 데이터는 실시간 피드로서 이동 디바이스에서 원격 컴퓨터 시스템으로 전송된다.
전자 디바이스가 활성 상태인 경우, 상기 디바이스가 사진을 찍을 필요가 없이 정보가 얻어진다. 상기 기술은 뷰파인더 오픈(viewfmder open)을 가지고 몇몇 대상쪽으로 이미지 캡처 하드웨어를 가진 디바이스를 향하게 하는 것에 의해 활성화된다. 상기 애플리케이션을 실행하는 디바이스는 그것이 향하고 있는 디바이스의 포지션 및 방향을 결정할 수 있게 하는 데이터 스트림을 획득 및 전송한다. 각각의 이미지 캡처 디바이스들의 대략적인 방향에 관한 데이터는 이벤트가 각각의 이미지 캡처 디바이스들로부터 수집되어 처리를 위해 원격 컴퓨터 시스템(예컨대 서버)으로 전송되는 각각의 특정 시간을 나타내고 있다. 상기 수집된 데이터는 각 관측자의 이미지 캡처 디바이스가 향하고 있는 방향에 기초하여 가장 많은 개수의 관측자들의 시야를 결정하도록 처리된다. 상기 데이터는 관측자들에 의해 사용되는 이미지 캡처 디바이스들의 초점 방향 및 이미지 캡처 디바이스들이 대략적으로 동일한 방향으로 초점을 맞춘 상태를 유지하고 있는 지속 시간을 포함한다. 또한, 특정 이미지 캡처 디바이스의 포지션이 수집됨으로써 그 특정 이미지 캡처 디바이스를 사용하는 관측자에 대한 특정 시야를 더욱 양호하게 결정할 수 있다.
본 발명의 원리는 콘서트, 연극, 스포츠 이벤트, 마라톤, 정치 집회, 서커스, 박람회, 또는 임의의 다른 공적 또는 사적 모임과 같은 이벤트에 있는 다수의 참석자들이 필요한 모바일 애플리케이션을 실행시키고 그들의 스마트폰들을 사용함으로써 그 이벤트 동안의 이미지들 또는 영화들을 캡쳐하는 것이다. 이들 아마추어 사진가들과 비디오 예술가들은 그 이벤트에 등록하여 애플리케이션을 획득하거나 또는 이러한 방식으로 그 이벤트를 기록하는 것이 허용될 필요가 있으며, 그러나, 상기 이벤트가 사용될 시간에 각 참석자가 그들의 주목을 집중하는 것에 관한 데이터는 상기 이벤트의 구내 주변에 위치된 상이한 광고 위치에 대한 적절한 수수료를 결정한다. 각 참석자들의 사진 활동들은 이동 디바이스에 의해 수집되고 컴퓨터 시스템으로 전달되어 그 이벤트의 어떤 시간 구간이 가장 더 높은 관심을 갖는지를 결정하며, 이 정보는 네트워크를 통해 그 이벤트 중의 광고 시간을 비딩할 수 있는 하나 이상의 잠재적 광고주들에게 전달된다. 또한, 동일 구간에 캡처된 동일 위치의 실제 이미지들의 개수는 특정한 사람이나 대상에서의 참석자의 관심 레벨을 결정하는 기준으로서 사용될 수 있다. 그러면, 광고주들은 참석자들에게 더 높은 관심을 갖는 시간 구간동안 더 높은 비드를 만들게 되며, 이벤트 주최자들은 그 이벤트로부터 도출되는 광고 수익의 양을 증가시키도록 하는 더 높은 비드들을 받아들일 수 있다. 또한, 본 발명의 원리들은 어떤 이벤트의 하나 이상의 사진, 비디오 또는 디지털 이미지, 물리적 위치, 또는 다른 사진 타겟 , 및 더욱 바람직하게는 특정 시간 또는 시간 구간 동안 어떤 이벤트 또는 위치에서의 개개의 서브-타겟들을 획득하고, 그 하나 이상의 사진, 비디오 또는 디지털 이미지를 제 2 당사자 예컨대, 대중에 의한 관람용으로 데이터베이스에 그 이미지들과 비디오들을 저자아는 주최자에게 제공하거나, 또는 그들의 이동 디바이스들, 또는 전통적인 브로드캐스트 매체, 예컨대 텔레비전, 웹캐스트, 또는 케이블 서비스들을 통해 제 3 당사자로 수집 이미지들을 브로드캐스팅하는 것에 관한 것이다. 상기 이미지들 및 비디오들은 또한 서비스 가입자들에게 전파되거나, 웹사이트에 포스팅거나, 소셜 네트워크들을 통해 공유될 수 있다.
또한, 본 발명의 원리들은 이벤트 주최자 또는 다른 리퀘스터들을 위해 이벤트, 대상, 사람, 또는 위치의 디지털 이미지들이나 비디오들을 획득하는 방법에 관한 것이다. 리퀘스터는 사업주, 이벤트 프로모터, 또는 연기자(들)과 같은 개인 또는 단체일 수 있다. 바람직한 일 실시예에서, 요청은 특정 위치나 위치들에서 그리고 특정 시간동안 취해지는 특정 이벤트 또는 이벤트들의 세트의 사진(들), 비디오(들) 또는 디지털 이미지(들), 및 사진 분야에서의 당업자에게 알려진 각종 사진 효과들을 사용하여 이미지(들)을 캐처하는 것에 관한 것이다. 다른 실시예에서, 요청은 시간의 구간 동안 하나 또는 복수의 사진 제공자들에 의한 다수의 상이한 관측 지점들로부터 취해진 특정 위치의 사진(들), 디지털 이미지(들) 또는 비디오들에 관한 것일 수 있다. 다른 실시예에서는, 2명의 사진 제공자들이 동일한 대상, 사람, 이벤트, 또는 위치의 이미지들을 캡처하도록 요청될 수 있으며, 각 제공자로부터의 상기 정보는 사진의 대상을 삼각 측량하는데 사용될 수 있다. 또 다른 실시예에서, 요청은 복수의 지리적으로 분리된 위치들의 사진(들), 디지털 이미지(들) 또는 비디오드에 관한 것일 수 있으며, 이들 모두는 거의 동시에, 또는 시간에 따라 순차적으로 취해질 수 있다.
또한, 본 발명의 원리들은 이미지 캡처 하드웨어가 서버(들)과 통신하는 시간 동안 어떤 이벤트 또는 위치에 존재하는 각 타겟 또는 서브-타겟에 초점을 맞추고 있는 이미지 제공자들의 퍼센티지의 통계 분석을 위해서, 복수의 이미지 제공자들의 이미지 캡처 하드웨어의 각각으로부터 하나 이상의 서버들로 실시간 GPS, 콤파스 헤딩(compass heading), 알려진 상대적 인기도, 및 시간 데이터를 전달하는 시스템 및 방법에 관한 것이다. 예를 들어, 이러한 실시간 데이터 통신 및 바람직하게는 수집은 데이터 필드들의 각각에 대해 초당 1 데이터 값의 샘플링 비율을 가짐으로써, 당업자에게 알려진 바와 같이, 적어도 하나의 GPS 데이터 지점, 하나의 콤파스 헤딩(compass heading) 데이터 지점, 및 하나의 시간 스탬프가 각 초마다 수집되도록 하며, 또한 GPS, 방향, 및 시간 데이터 지점들 모두는 상호 연관되도록 한다. 또한, 이러한 데이터 통신은 바람직하게는 독립적으로 행해지며, 이미지들이 실시간 데이터 수집의 일부로서 캡처되거나 태깅될 것을 필요로 하지 않는다. 데이터 샘플링은 관측되고 있는 이벤트의 요구사항 및 시스템의 제약에 따라 더 고속이거나 더 저속일 수 있다. 실시간으로 데이터를 수신한다는 것은 데이터가 생성되고 그것이 수신되는 시간 사이에 감지할 수 있는 레이턴시가 거의 없거나 아예 존재하지 않는(예컨대, 거의 순간적이거나 레이턴시가 지각 한계 미만인) 원격 송신기로부터의 데이터 수신을 지칭한다. 본 발명의 원리들은 원격 전자 디바이스들과 통신하며, 원격 전자 이미지-캡처 디바이스를 각각 사용하는 복수의 관측자들이나 이미지 제공자들을 통해 획득된 데이터를 컴파일하고(여기서 상기 데이터는 이미지 캡처 디바이스(들)로부터 실시간 피드들로서 전달되거나 메타데이터로서 수집된 사진, 비디오, 및 디지털 이미지와 연관되거나 양쪽 모두일 수 있음), 상기 컴파일된 데이터로부터 어떤 이벤트 또는 위치에 있는 각종 서브-타겟들의 관심 레벨에 관한 통계적 계산들을 통해 실시간으로 정보를 추출하는데 사용되는 시스템에 관한 것이다. 또한, 본 발명의 원리들은 이벤트 중에 특정 시간에 있는 특정한 사람들이나 대상들의 관심 레벨이나 이벤트의 위치들의 결정된 관심 레벨을 활용함으로써, 그 이벤트 동안 그들 전자 디바이스들의 참석자들 또는 관측자들의 초점 방향의 통계 분석으로부터 그 이벤트에서 광고들을 포지셔닝하는 스타팅 비드 양을 보장하는 것에 관한 것이다. 본 발명의 원리들은 특정 시간 구간에서의 이벤트 또는 위치의 사진들, 비디오들 또는 다른 디지털 이미지들을 획득하는 프로세스에서 이미지 제공자들로부터 모이게 되는 데이터를 수집 및 분석하고, 상기 사진들, 비디오들 및 이미지들과 연관된 수집 데이터를 컴파일하고, 통계적 계산들을 통해 정보를 추출하고, 그 정보를 활용하여 이벤트에 광고하거나 또는 캡처된 이미지들의 관심 레벨을 순위화하는 것을 통해 생성되는 수익의 양을 증대시키거나 보장하는 시스템 및 방법에 관한 것이다. 또한, 본 발명의 원리들은 특정 시간에서의 2개 이상의 디바이스들의 대향 방향의 변화를 식별하고 또한 특정 시간에서 신규하거나 상이한 사람, 대상, 또는 위치로의 초점 변화에 따라 초기의 초점과 상이한 신규의 초점을 결정하는 것에 의해 특정 시간에서의 하나 이상의 이미지 캡처 디바이스들의 초점 방향의 변화를 인식하는 것에 관한 것이다. 예를 들어, 이벤트 동안의 제 1 특정 시간에서 본래 특정 GPS 포지션 및 콤파스 대향을 갖는 제 1 이미지 캡처 디바이스는 자신의 포지션 및 방향 데이터를 서버 시스템으로 전송하고, 상이한 GPS 포지션 및 상이한 방향 대향을 갖는 제 2 이미지 캡처 디바이스도 또한 자신의 포지션 및 방향 데이터를 서버 시스템으로 전송하며, 각각의 이미지 캡처 디바이스들로부터 전송된 실시간 데이터는 서버 시스템에 의해 사용되어 2개의 교차 라인을 생성하고 그 교차 지점을 계산함으로써 제 1 시간에서 이미지 캡처 디바이스들을 갖는 2 개의 관측자들의 초점 대상을 삼각 측량하도록 한다. 상이한 이후의 시간에서, 제 1 이미지 캡처 디바이스는 방향 대향이 변경되며 이에 의해 제 1 교차 라인들의 세트에 지장을 준다. 본질적으로 동일한 본래의 GPS 포지션을 갖는 제 1 이미지 캡처 디바이스는 새로운 콤파스 대향(compass facing)을 확립한다. 제 1 이미지 캡처 디바이스와 상이한 방향 대향 및 제 1 GPS 포지션을 갖는 제 2 이미지 캡처 디바이스는 제 1 이미지 캡처 디바이스에 의한 대향 변화와 본질적으로 동일한 이후의 시간에서 자신의 대향 변화에 의해 식별된다. 이후의 시간에서의 제 1 및 제 2 이미지 캡처 디바이스 각각의 신규 대향들 및 포지션들은 2개의 이미지 캡처 디바이스들의 초점의 새로운 지점을 삼각 측량하기 위해 사용된다. 이러한 특정 시간에서의 새로운 또는 상이한 사람, 대상, 또는 위치로의 초점 변화의 인식은, 이벤트 또는 위치에서의 관측자들의 관심 레벨 이동을 식별하기 위해 사용될 수 있다. 본 발명의 원리들은 거의 동시에 거의 동일한 위치를 향하는 이미지 캡처 디바이스들의 개수에 기초하여 이벤트의 관측자들에 의해 사용되는 이미지 캡처 디바이스들의 사용에 기초하는 이벤트의 모멘텀을 결정하는 방법에 관한 것이고, 여기서 상기 모멘텀은 특정 시간에 특정 사람이나 대상에 집중하고 있는 거의 동시에 모든 위치를 향하고 있는 이미지 캡처 디바이스들의 전체 개수에 대한 거의 동일한 위치를 향하고 있는 이미지 캡처 디바이스들의 비율에 의해 결정된다. 상기 이벤트의 모멘텀은 실시간으로 결정된다. 상기 모멘텀은 거의 동시에 모든 위치들을 향하고 있는 이미지 캡처 디바이스들의 전체 개수에 대한 거의 동일한 위치를 향하고 있는 이미지 캡처 디바이스들의 비율에 의해 결정된다.
또한, 본 발명의 원리들은 이벤트에서의 광고로부터 수익을 증가시키는 시스템에 관한 것이며, 이것은 이미지 캡처 디바이스의 포커스 방향 및 포지션에 관한 데이터를 전송하는 애플리케이션을 실행하는 복수의 이미지 캡처 디바이스들과, 이미지지 캡처 디바이스들에 관한 정보를 수신하고 이벤트 주최자의 컴퓨터 시스템으로 광고를 위한 비드(bid)들을 부르는 하나 이상의 광고주 컴퓨터 시스템들 및 애플리케이션을 실행하는 복수의 이미지 캡처 디바이스들과 통신하는 적어도 하나의 컴퓨터 시스템을 포함한다. 또한, 본 발명의 원리들은 이미지 캡처 방법들을 구현하는 컴퓨터-판독가능 매체를 제공하는 것에 관한 것이며, 여기서 상기 컴퓨터-판독가능 매체는 이미지들을 캡처하는 것에 대해 여기에서 기술된 바와 같은 방법들 프로세스들을 수행하는 컴퓨터-판독가능 명령어들을 저장한다.
또한, 본 발명의 원리들은 여기에 개시된 방법들 중의 어느 하나를 수행하도록 구성된 비-일시적 컴퓨터 판독가능 매체에 관한 것이다. 상기 애플리케이션은 프로세서에 의해 판독가능하고 비-일시적 컴퓨터 판독가능 매체에 저장될 수 있는 일련의 명령어들일 수 있다. 이러한 매체는 당업자에게 알려져 있는 바와 같이, 영구적 또는 반-영구적 메모리 예컨대 하드 드라이브, 플로피 드라이브, 광 디스크, 플래시 메모리, ROM, EPROM, EEPROM 등일 수 있다. 본 발명의 실시예들에서, 전자 디바이스들은 월드 와이드 웹을 포함하는 인터넷 또는 텔레통신 네트워크를 통해 통신할 수 있는, 셀 폰, 스마트폰, 태블릿 컴퓨터, 및 PDA(personal 디지털 assistant)와 같은 모바일 텔레폰 디바이스들일 수 있다. 상기 전자 디바이스들은 또한 월드 와이드 웹을 포함하는 인터넷 또는 텔레통신 네트워크를 통해 통신할 수 있는 랩탑 또는 노트북 컴퓨터들일 수 있다. 전자 디바이스들은 디지털 사진 이미지 또는 비디오를 캡처가능하고, 또한 전자 디바이스의 GPS 좌표들을 결정할 수 있는 GPS 포지션 프로그램 및 전자 디바이스의 대향 방향을 결정할 수 있는 콤파스 애플리케이션 프로그램을 포함할 수 있는 원격 애플리케이션 프로그램을 실행가능하다. 원격 애플리케이션은 전자 디바이스의 이미지 캡처 하드웨어의 초점을 결정할 수 있다. 물리적인 장소 또는 이벤트의 위치는 콤파스 헤딩(compass heading)에 의한 대향 또는 모션 방향 및 그것의 GPS 좌표들에 의해 정의될 수 있다. 이벤트들은 예를 들어 뉴스, 스포츠, 또는 엔터테인먼트 이벤트들일 수 있다.
전자 디바이스들은 영구적 및/또는 반-영구적 메모리 예컨대 CMOS 메모리, 및 플래시 메모리 또는 EEPROM일 수 있는 비-일시적 컴퓨터 판독가능 매체 및 RAM(random access memory)을 포함할 수 있다. 또한 전자 디바이스들은 컴퓨터 판독가능 매체로부터 명령어들을 판독하고 그 전자 디바이스로 하여금 본 발명의 상이한 실시예들의 단계들을 수행하게 하며 또한 여기에 개시된 방법들 주의 임의의 방법을 수행하게 할 수 있는 프로세서를 포함할 수 있다. 또한, 전자 디바이스는 본 기술 분야에서 알려진 바와 같이, 전화 또는 컴퓨터 네트워크를 통한 통신이 필요한 전자 장치를 포함할 수 있다. 본 발명의 실시예들에서, 상기 서버는 복수의 상기 전자 장치 및 가상 서버로 동작하는 서버 디바이스들, 또는 가상 서버로 동작하는 대형 서버일 수 있으며, 당업자에게 잘 알려진 바와 같이, 이것은 가상 머신일 수 있다. 이러한 가능한 배열들의 컴퓨터들(들), 분산 리소스들, 및 가상 머신들은 서버 또는 서버 시스템으로 지칭될 수 있다.
컴퓨터 또는 컴퓨터 시스템은 서버 또는 서버 시스템을 포함할 수 있으며, 이러한 컴퓨터(들) 또는 서버(들)은 하나 이상의 컴퓨터 또는 마이크로프로세서를 포함할 수 있다. 또한, 컴퓨터(들)은 본 기술 분야에서 알려진 바와 같은, 저장, 처리, 및 다른 각종 디바이스들과의 통신을 위해 필요한 하드웨어, 소프트웨어 및 펌웨어를 포함할 수 있다. 이것은 휘발성 및 비-휘발성 메모리, 프로세서들, 확장 카드들, 모뎀들, 이더넷 어댑터들 등을 포함할 수 있다.
원격 디바이스는 서버나 다른 이동 디바이스와 상이한 지리적 위치에 로케이팅된 이동 디바이스이며, 임의의 2 디바이스들은 몇몇 형태의 전화 또는 컴퓨터 네트워크, 예컨대 무선, PSTN, 광대역, 또는 인터넷 네트워크를 통해 통신할 필요가 있다. 또한, 원격 디바이스는 당업자에 의해 인식되는 바와 같이 필드 내의 이동 디바이스이다. 이미지 캡처 디바이스들 및 컴퓨터 서버 시스템으로부터(에 대한) 정보의 전달 및 데이터 전송은 예를 들어 전화 네트워크, 위성 네트워크, 무선 네트워크, 광섬유 네트워크, 케이블 네트워크, 또는 임의의 다른 네트워크나 통신 분야의 당업자에게 알려진 네트워크들의 조합과 같은 네트워크를 통해 행해질 수 있다.
원격 서버(들)로 정보를 전송하는 다수의 원격 디바이스들은 인커밍 데이터를 처리하고 삼각측량 계산들을 분포시키며 분산 시스템을 통해 통계 분석을 하는데 필요한 컴퓨팅 전력 및 대역폭의 양을 결정하는데 사용될 수 있다. 비한정적 예로서, 하나의 서버는 복수의 원격 디바이스들과의 통신을 처리할 수 있고, 다른 서버는 포지션 및 방향 데이터의 인커밍 흐름으로부터 삼각 측량 정보를 계산할 수 있으며, 다른 서버는 각종 계산들로부터 획득된 정보의 클러스터(들)에 대한 통계 분석을 수행할 수 있다.
또한, 이동 디바이스들과 모바일 애플리케이션들은 서버, 중앙 컴퓨터, 또는 다른 컴퓨터 시스템(예컨대, 수집, 결정, 식별 등)에서 수행되는 것으로 기술된 처리의 일부 또는 전부를 수행할 수 있다. 상기 예시적 방법들 또는 프로세스들은 컴퓨터들, 메모리, 프로세서들, 이동 디바이스들, 소프트웨어, 디스플레이들, 통신 디바이스들, 입력 디바이스들, 및 당업자에게 알려진 다른 컴퓨터 시스템 컴포넌트들을 사용하여 구현된다.
원격 애플리케이션 프로그램은 디바이스의 비-일시적 컴퓨터 판독가능 매체에 저장되거나 서버로부터 원격 디바이스의 일시적 메모리로 다운로드될 수 있거나, 또는 클라우드에 위치될 수 있으며, 처리 시스템에 의해 실행될 수 있는 일련의 컴퓨터 판독가능 명령어들이며, 상기 명령어들 및/또는 처리 시스템은 단일 컴퓨터나 서버에 대한 원격 디바이스들 중의 하나에 위치되거나 또는 복수의 원격 디바이스들, 컴퓨터들 또는 서버들을 통해 분산될 수 있다. 애플리케이션 프로그램은 하나 이상의 애플리케이션 프로그램들을 포함할 수 있다. 애플리케이션 프로그램은 본 발명의 상이한 실시예들을 구현하는 상이한 프로세스들을 수행하는 복수의 함수들을 포함할 수 있다.
컴퓨터 판독가능 명령어들은 이미지 캡처 디바이스가 이미지 캡처를 위해 사용되는 시간에서 이미지-캡처 디바이스의 시간 스탬프, GPS 좌표들 및 콤파스 헤딩(compass heading)을 획득하기 위한 명령어들, 캡처된 이미지(들)을 이용하여 상기 디바이스의 시간 스탬프, GPS 좌표들 및 콤파스 헤딩을 임베딩하는 명령어들을 더 포함한다. 컴퓨터 판독가능 명령어들을 저장하는 컴퓨터 판독가능 매체는 비-일시적이며, 예를 들어 자기 또는 광학 디스크, 자기 테이프, PROM(programmable read-only memory), EPROM(erasable programmable read-only memory) 예컨대 플래시 드라이브, 또는 당업자에게 알려진 다른 형태의 롱 텀 메모리일 수 있다. 또한, 컴퓨터 명령어들은 컴퓨터 처리 시스템에 의한 실행을 위한 랜덤 액세스 메모리나 캐시 메모리와 같은 일시적 컴퓨터 메모리로 로딩될 수도 있다. 특정 프로세스들은 특정 디바이스들에서 반드시 실행될 필요가 없으며, 이동 디바이스들은 서버나 중앙 컴퓨터에 의해 수행되는 것으로 기술된 처리의 일부 또는 전부를 (예컨대, 집합적으로) 수행할 수도 있다. 또한, 상기 처리는 몇몇 컴퓨터들 또는 클라우드에 분산될 수도 있으며, 여기서 상기 예시적 방법들 또는 프로세스들은 컴퓨터들, 소프트웨어, 이동 디바이스들, 메모리 또는 저장소를 사용하여 구현되며, 또한 상기 애플리케이션들 및/또는 데이터 저장소는 복수의 처리 시스템들을 통해 분산될 수 있다.
원격 디바이스들은 지리적으로 서로 분리되어 물리적으로 별개의 디바이스들인 모바일 텔레폰 또는 컴퓨터 디바이스들이다. 원격 디바이스는 다른 원격 디바이스들 및 서버들의 네트워크 주소들과 상이한 네트워크 주소를 가지며, 네트워크를 통해 통신하는 각 디바이스는 네트워크 통신 분야에서 알려진 바와 같이, 그들 네트워크 주소에 의해 구별될 수 있다.
원격 디바이스는 서버나 다른 이동 디바이스와 상이한 지리적 위치에 로케이팅된 이동 전자 디바이스이며, 임의의 2개의 디바이스는 몇몇 형태의 전화 또는 컴퓨터 네트워크, 예를 들어 무선, PSTN, 광대역, 또는 인터넷 네트워크를 통해 통신할 필요가 있다. 또한, 원격 디바이스는 당업자에게 알려진 바와 같이, 필드 내의 이동 디바이스일 수 있다. 원격 디바이스는 다른 원격 디바이스들 및 서버들의 네트워크 주소들과 상이한 네트워크 주소를 가지며, 네트워크를 통해 통신하는 각 디바이스는, 네트워크 통신 분에서 알려진 바와 같이, 그들의 네트워크 주소에 의해 구별될 수 있다.
데이터는 통신 네트워크를 통해 전자 디바이스로부터 서버 시스템으로 실시간으로 전달되는 피드로서 전자 디바이스들로부터 수집되며, 여기서 상기 전자 디바이스를 실행하는 애플리케이션 프로그램은 상기 디바이스의 콤파스 대향과 GPS 포지션에 관한 데이터를 수집하여 그 데이터를 시스템 서버로 전송한다(또는 서버 시스템으로 전송되고 있는 이미지들을 가지고 메타 데이터로서 콤파스 대향 데이터와 포지션을 임베딩).
신규 데이터의 축적은 이전에 저장된 데이터와 결합됨으로써 정확성을 개선하고 추가 계산들에 대한 데이터 포인트들의 개수를 증가시킬 수 있으며, 또는 플롯 트렌드들에 대한 데이터 포인트들의 시간 진행을 보장할 수 있다. 이러한 형태의 휴리스틱스를 사용하는 것으로, 상기 시스템은 시간에 따른 장래 결과들을 학습 및 예측할 수 있다.
상기 서버는 이미지 캡처 디바이스들로부터 전송되고 있는 이미지들 및 피드들로부터의 데이터를 분석하여 하나 이상의 전자 디바이스들의 위치(들) 및 전자 디바이스가 대향하고 있는 방향을 결정하고, 또한 전자 디바이스(들)이 초점을 맞추고 있는 대상의 위치, 방향 및 속도를 계산한다. 주목의 대상은 동일한 포지션을 향하고 있는 전자 디바이스들의 개수를 분석하는 서버에 의해 결정된다. 또한, 상기 서버 소프트웨어는 2개의 전달된 이미지들이 임베딩된 정보를 사용하여 이미지의 대상의 위치, 방향 및 속도를 계산할 수 있다. 상기 서버는 적어도 2개의 전자 디바이스들의 GPS 좌표들을 식별함으로써 관측자들에 의해 타겟이 되고 있는 대상의 포지션을 결정하고, 콤파스 헤딩에 의해 결정된 각 디바이스에 대해 전자 디바이스가 대향하고 있는 방향으로 GPS 포지션으로부터의 시선을 플로팅하고, 2개의 전자 디바이스들의 초점 방향을 나타내는 선들이 가로지르는 지점들을 결정하고, 그 2개의 전자 디바이스들의 시선 사이의 각도와 그 디바이스들로부터 교차 지점까지의 거리를 계산하여 2개 이상의 전자 디바이스들의 콤파스 대향과 포지션을 삼각 측량한다. 베이스라인은 당업자에게 알려진 바와 같이, 타겟에 대한 거리 및 각도들을 계산하도록 2개의 전자 디바이스들의 GPS 포지션들 사이에서 측정될 수 있다.
교차 지점의 삼각측량 계산들은 어떤 이벤트에 존재하는 복수의 관측자들에 대해 반복되어 이벤트 또는 위치에 있는 관측자들의 관심 대상들을 나타낼 수 있는 하나 이상의 교차 지점들의 그룹을 생성할 수 있다.
관심 대상에 초점을 맞추고 있는 2개의 관측자들만이 클러스터를 생성할 필요가 있다. 초점 방향의 가로지름에 의해 형성되는 하나의 지점은 관심 대상을 식별시키며, 그 대상에 초점을 맞추고 있는 100 퍼센트의 관측자들을 나타낸다.
어떤 이벤트에서 복수의 전자 디바이스들의 가능한 조합 각각에 대한 교차 지점을 계산하는 것에 의해, 일련의 지점들이 생성된다. 상기 일련의 지점들이 분석되어 상기 교차 지점들이 어디에서 클러스터링되고 있는 지를 결정할 수 있다. 상기 교차 지점은 이벤트에 존재하는 상이한 주목 대상들을 나타내는 하나 이상의 클러스터들을 형성할 수 있다. 대상들이 이동하고 또한 관측자들의 관심과 초점 방향이 이동하는 대상들을 따르도록 이동하거나 새로운 관심 대상들로 이동하므로, 이러한 클러스터들은 동적이며 시간에 따라 달라진다. 전자 디바이스의 콤파스 대향의 변화로 인하여 다른 전자 디바이스들로부터 얻은 모든 선들에 대한 계산된 교차 지점들이 이동하게 되며, 일련의 계산된 교차 지점들이 이에 상응하게 변경된다. 또한, 본 발명의 다른 실시예는 특정 시간 또는 시간 구간 동안에 이벤트, 물리적 위치, 또는 다른 사진 타겟(들)의 사진들, 비디오들 또는 디지털 이미지들로 수집되고 태깅된 메타데이터를 컴파일하고, 상기 이미지들로부터 컴파일된 메타데이터를 분석하여 특정 시간 또는 특정 시간 구간에 특정 타겟의 수집된 다수의 이미지들에 관한 정보를 추출함으로써 이미지 제공자들에 의한 주목의 초점을 결정하는 것에 관한 것일 수 있다. GPS, 방향 및 시간 데이터로 캡처된 이미지들을 태깅하는 것은 자동으로 및 애플리케이션 프로그램에 의해 실시간으로 행해질 수 있으며 또한 서버(들)로 전달될 수 있고, 또는 추가적인 태깅이나 커스터마이제이션을 가능하게 하도록 이미지(들)을 전달하기 이전에 이미지 제공자에 의해 수동으로 행해질 수도 있다. 또한, 원격 디바이스의 초점 대상의 인기도에 관한 데이터 값은 위치/방향/시간 데이터과 상호 연관될 수 있으며, 여기서 상기 인기도 데이터는 상대적인 인기도에 기초하여 어떤 이벤트에 존재하는 다른 타겟들과 초점의 대상을 구별하는 것을 의미하는 주관적인 값일 수 있으며, 또는 이전의 관측자수, 출현에 대한 금전 보상, 또는 다른 측정가능한 기준으로부터 결정된 객관적 값일 수도 있다. 위치, 방향, 인기도, 및 시간은 초점의 대상을 식별하고 또한 동시에 그 이벤트에 존재하는 다른 잠재적 타겟들로부터 초점 대상을 구별하게 하는 핑거프린트(fingerprint)로서 사용될 수 있다. 특정한 초점 대상을 향하는 2개 이상의 원격 이미지 캡처 디바이스들로부터 전송된 데이터로부터의 삼각측량 계산들은 존질적으로 동일한 위치에서 선들이 가로지르는 지점들의 클러스터 및 복수의 교차 라인들을 생성할 수 있다.
동시에 공간적으로 별개인 위치들에서 가로지르는 상이한 선들로부터 발생한 지점들의 상이한 클러스터들은 서로로부터 초점 대상들을 구별하도록 하는데 사용될 수 있다. 동시에 동일한 영역에서의 상대적인 개수의 데이터 지점들 또는 클러스터 사이즈의 통계 분석은 각 초점 대상의 상대적 인기도를 확립하는데 사용될 수 있다. 클러스터는 관측자들이 초점을 맞추고 있는 영역 내의 실제 관심 대상들에 대응한다. 2개 이상의 시선들이 가로지르는 공간 영역인 클러스터들은 서로에 대한 교차 지점의 상대적 근접도 및 배열을 결정하고, 그 교차 지점을 둘러싸는 영역이 변화함에 따라 소정 영역의 지점들의 밀도를 계산하는 것에 분석될 수 있다. 또한, 상기 클러스터 밀도는 중심 지점으로부터 미리결정된 거리 영역 내에 속하는 지점들로서 정의될 수 있다. 또한, 상기 클러스터는 포인트들의 세트로 정의될 수 있으며, 여기서 각 포인트는 상기 세트를 형성하는 모든 다른 포인트들로부터 특정 최대 거리 이내에 존재하며, 상기 최대 거리는 미리결정되거나 또는 이벤트의 타입에 기초하여 동적으로 계산될 수 있다.
이러한 방식으로, 서로에 대한 소정 근접도 내에 존재하는 지점들은, 관측되고 있는 대상의 타입에 의존하는 클러스터로서 인식될 수 있다. 시선을 가로지르는(또는 그 근처의) 클러스터는 잠재적인 관심 대상 또는 영역을 나타낼 수 있으며, 사용자들의 클러스터는 특정 대상에 초점을 맞추고 있는 연관 그룹의 사용자들일 수 있다. 적어도 2개의 데이터 세트가 컴파일 및 분석을 통해 얻어질 수 있으며, 이것은 관심 대상과 관련된 데이터와 클러스터로부터 형성된 사용자 그룹과 관련된 데이터를 포함하며, 관심 대상이 더 이상 주목을 갖는 초점이 아닌 이후에 지속될 수 있다. 클러스터(들)은 그 클러스터의 대상에 초점을 맞추고 있는 관측자들의 퍼센티지 및 사이즈를 결정하도록 더 분석될 수 있다.
클러스터는 알려진 관심 대상, 사이즈(예컨대, 반경, 직경, 단위 영역, 구 체적 등), 중심 위치, 밀도(즉, 단위 영역당 교차 지점들의 개수), 데이터를 전송하는 관측자들 또는 활성화된 디바이스들의 퍼센티지 등과 연관된 다수의 지점들을 포함하는 일련의 특성들을 가질 수 있다. 특정 클러스터의 적절성은 이벤트에서 다른 관심 대상들에 초점을 맞추고 있는 관측자들의 수에 비교되는 특정 관심 대상들에 초점을 맞추고 있는 관측자들의 비율에 의해 결정될 수 있다. 또한, 상기 적절성은 클러스터의 밀도에 기초할 수 있으며, 소형 영역에서의 많은 개수의 교차 지점들은 대형 영역에서의 유사한 개수의 유사한 개수의 지점들 또는 소형 영역에서의 더 적은 개수의 지점들에 비해 더 적절한 것으로 인식된다. 이벤트에 있는 관측자들의 개수가 클수록 그리고 샘플 사이즈가 클수록, 인원통계를 결정하고자 하는 소비자와 같이 다른 인원들에 대한 적절성 및 관심 레벨을 추출하는 능력 및 적절성의 결정(들)은 더욱 정확해 진다. 예를 들어, 크라우드 포커스(crowd focus)는 그 인원에 대한 제품 홍보를 위해 사용될 수 있는 소정 인원에 대해 특정 연예인이 더욱 많은 관심을 유지하고 있다는 것을 나타낼 수 있다.
이벤트에서 생성된 각 클러스터는 특정 시간에서의 이벤트의 대상들에 초점을 맞추고 있는 가장 많은 수의 활성화된 디바이스들 및 소정 시간에 어느 대상에서 다른 대상으로 관심을 이동시키는 것에 기초하여, 그 이벤트의 피크 구간, 가장 큰 관심 대상들을 식별할 수 있게 하는데 사용될 수 있는 고유의 정보 세트를 나타낸다.
일단 지점들의 클러스터가 결정되면, 상기 클러스터는 그 지정된 클러스터 내에서 대상들에 어떤 관측자들이 관심이 있는지를 결정하는데 사용될 수 있으며, 클러스터를 형성하는 대상에 초점을 맞추고 있는 각 관측자들에게 상기 클러스터를 생성하는 다른 관측자들을 알릴 수 있다. 또한, 클러스터는 관심 대상을 더욱 식별하게 하거나 그것의 적절성을 결정하는 정보와 함께 태깅될 수 있다. 상기 정보는 그 대상에 관한 메타데이터와 함께 태깅된 이미지들을 전송하는 관측자들에 의해 제공될 수 있다. 또한, 정보는 그 관심 대상에 초점을 맞추고 있는 관측자들을 알리기 위해, 특정 클러스터를 형성하는 것으로 식별된 전자 디바이스에게 다시 전송될 수 있다. 상기 정보는 서버로부터 전자 디바이스로 전송될 수 있으며, 그 이벤트가 발생하고 있는 장소나 대상, 및/또는 관심 대상에 의해 지지될 수 있는 제품들이나 그 이벤트와 관련된 아이템들에 대한 광고들에 관한 추가적인 배경 정보에 기초하고 있는 관심 대상 또는 대상들의 식별을 포함한다. 예를 들어, 자동차 제조사는 카 레이스에서 운행되고 있는 자동차의 브랜드에 대한 광고를 전송할 수 있다. 관측자에게 전송되는 이러한 추가 정보는 전자 디바이스들로부터 서버 시스템으로 전송되는 실제 이미지들에 부가되는 메타데이터 태그들로 통합될 수 있다. 클러스터의 형성은 관측자들 또는 다른 당사자들에게 관측자들의 관심의 이동이나 새로운 상황을 알리고, 그 이벤트에 포함된 것에 새로운 클러스터를 브로드캐스팅하는 것에 의해 그 관심 대상들로 관심을 끌어내는데 사용될 수 있다. 알림(alert)은 관심 대상(들)로 다른 매체를 안내하도록 사용될 수 있다. 예를 들어, 텔레비전 브로드캐스터들에게는 관심이 이동되었음이 알려질 수 있으며, 관측자들의 관심을 끄는 새로운 활동에 그들이 카메라들이 초점을 맞출 수 있으며, 대형 일반 디스플레이들에 매우 관련이 높은 상황들을 디스플레이할 수 있다.
다른 예로서, 이벤트가 있는 스테이지 또는 필드로부터 스탠드로의 관심의 이동은 이례적인 것으로 인식될 수 있으며, 발생 상황, 안전 위험, 또는 응답이 요구될 수 있는 위기를 보안 업체에게 알릴 수 있다. 상기 이례적 상황은 예기치 않은 위치에 대한 유의미한 양의 크라우드 포커스(crowd focus)에 기초하여 인식된다.
또한, 상기 서버 애플리케이션은 각각의 전자 디바이스들로부터 수신되고 있는 데이터를 필터링할 수 있으며, 불규칙한 포지션 및 콤파스 헤딩을 나타내는 데이터는 삼각측량 계산에 사용되지 않도록 함으로써 유용한 교차 지점을 생성하지 않는 데이터에 대한 컴퓨터 리소스들의 낭비를 방지하도록 한다. 예를 들어, 디바이스의 콤파스 헤딩을 위해 매초마다 한번씩 수집되는 데이터 값은, 만일 그 콤파스 헤딩이 이전에 전달된 값으로부터 미리결정된 각도(예컨대, 30도)보다 많이 변하는 경우 계산으로부터 배제될 수 있다. 이러한 값은 이벤트의 타입 또는 관측자가 있는 위치 및 활동으로부터의 거리를 고려하여 조정될 수 있다. 예를 들어, 만일 방향 데이터의 변화가 시선이 계속 변화했으며 스테이지를 커버하는 범위 밖으로 떨어진 것을 나타내는 경우, 서버는 수평 또는 수직으로 45도 각도 범위 내에 속하는 스테이지의 시야를 가진 관측자로부터 전송되는 데이터를 차단하게 된다.
또한, 상기 서버는 일관된 패턴을 나타내는데 실패한 계산된 클러스터 지점들을 필터링할 수 있으며, 위치 및 방향 데이터의 반복된 샘플링은 각각의 후속적으로 계산된 클러스터 지점이 이전에 결정된 클러스터의 영역 밖에 속한다는 것을 나타낸다. 또한, 서버는 특정한 원격 거리에 대한 시선을 추정하는데 방해 또는 차단하는 대상들을 식별하기 위해 지형 또는 고도 데이터를 포함할 수 있으며 이에 의해 스트레이 데이터(stray data)를 더욱 필터링할 수 있다. 또한, 필터링은 클러스터 위치로부터 특정 전자 디바이스의 거리에 기초하여 이루어질 수 있다. 또한, 서버 애플리케이션 프로그램, 원격 애플리케이션 프로그램, 또는 양쪽 모두는, 이미지들의 캡처, 관측자의 이동, 및/또는 원격 디바이스에서 서버로의 전송 지연 그리고 전송된 데이터로부터 교차 지점을 계산함에 있어서의 지연과 같은 아티팩트들이, 당업자에게 알려진 바와 같이, 각종 계산 및 분석에 영향을 주지 않는 경우, 전화 속성을 감안하여 관측자의 손 흔들림과 같은 것들을 보상할 수 있다.
이들 각종 스무딩 알고리즘(smoothing algorithm)들은 본 기술 분야에 공지되어 있다. 또한, 서버 애플리케이션 프로그램, 원격 애플리케이션 프로그램, 또는 양쪽 모두는, 그것들이 원격 디바이스(들)에 의해 전송되는 데이터로부터 실시간으로 발생함에 따라, 당사자로 하여금 시선들의 사진 및 클러스터들의 형성을 볼 수 있게 하는 대시보드 사용자 인터페이스를 구비할 수도 있다.
또한, 대시보드는 이벤트에 있는 각종 활동들을 관측하는 제 3 당사자에 의해 온라인으로 보여질 수도 있다. 이러한 제 3 당사자는 예를 들어 광고주, 판매회사, 보안 업체, 브로드캐스터, 이벤트 프로모터, 또는 시청자일 수 있다. 또한, 캡처된 이미지들은 그 이벤트에 있는 판매회사들, 또는 지역 사업들 및 서비스 제공자들을 위한 광고 제공자에 의한 광고 내용의 전파를 위해 사용될 수 있다. 다른 실시예에서, 시스템은 함께 작업하는 2개의 제 1 당사자인 이미지 제공자들을 포함하며, 그 각각은 이미지(들), 그리고 그 이미지(들)을 태깅하기 위한 GPS, 방향, 및 시간 정보를 획득하는 것에 의해 동일한 이벤트의 디지털 또는 비디오 이미지들, 대상, 사람, 또는 이벤트를 캡처하는 애플리케이션 소프트웨어를 실행하는 이동 디바이스를 가지며, 상기 추가 정보를 사용하여 이미지(들)의 타겟을 식별하여 삼각측량한다.
원격 서버는 이동 디바이스들의 각각으로부터 전달되는 정보 및 캡처 이미지(들)을 수신하고, 이후의 전파를 위해 연관 정보와 함께 그 이미지(들)을 저장하며, 또한 GPS, 방향, 및 시간 스탬프를 사용하여 이미지 캡처의 대상을 삼각측량한다. 원격 애플리케이션은 이미지 캡처 및 전송 능력들을 포함하는 셀 폰, 스마트폰, PDA, 랩탑 컴퓨터, 태블릿 등과 같은 원격 또는 이동 전자 디바이스를 실행하는 것을 의미한다. 상기 이미지는 디바이스에 의해 캡처되며, 애플리케이션을 사용하여 서버로 전송된다. 또한, 상기 이미지는 디지털 또는 비디오 카메라와 같은 일 디바이스에 의해 캡처될 수 있으며, 서버에 대한 필요 통신 링크를 가지고 애플리케이션을 실행하는 랩탑 컴퓨터 또는 태블릿과 같은 별개의 디바이스로 다운로드될 수 있다. 상기 컴퓨터는 이벤트를 선택하고, 다운로드된 이미지를 태깅하며, 그 이미지 및 연관 메타데이터를 서버로 전송하는 애플리케이션의 사용자 인터페이스를 통해 사용된다. 원격 또는 이동 디바이스들 사이의 통신 및 원격 디바이스들과 서버 사이의 통신은, 두개 이상의 분리된 디바이스들 사이에서 정보와 신호들을 운반하는 기술 분야의 당업자에게 알려진 바와 같이, 무선 전화 네트워크, 인터넷, 또는 유선 통신 네트워크, 그리고 상기의 임의 조합을 통해 이루어질 수 있다.
또한, 상기 전송은, 두개 이상의 분리된 디바이스들 사이에서 정보와 신호들을 운반하는 기술 분야의 당업자에게 알려진 바와 같이, 동기식 또는 비동기식일 수 있다. 일 실시예에서, 상기 시스템은 또한 제 2 당사자인 이벤트 주최자 또는 광고 회사에 의해 작동될 수도 있고, 주최자의 사업장에 위치되거나 몇몇 다른 서비스 제공자, 예컨대 자신의 서버를 운영 및 유지하며 웹사이트 호스팅 및 또한 가능하게는 온라인 저장소를 제공하는 ISP(Internet Service Provider)에 의해 원격으로 작동될 수도 있는 서버를 포함한다.
상기 서버는 애플리케이션 및 데이터베이스 소프트웨어를 실행시키고 수집된 이미지들과 필요한 통신 하드웨어 및 소프트웨어를 저장하여 원격 디바이스들과 통신하고 전송된 이미지들을 수신하기에 충분한 메모리 및 처리 전력을 구비해야 한다. 상기 서버 및 상기 서버에서 실행되는 애플리케이션은 주최자 또는 광고주에 등록된 위치들과 모든 이벤트들 그리고 그렇게 등록된 각각의 개별 이벤트 및 위치를 고유하게 식별하는데 사용되는 데이터 필드를 기록 및 저장할 수 있으며, 이것은 이벤트의 시간, 서버에 저장되어 데이터베이스에 기록되는 캡처 이미지들의 시간 스탬프를 포함한다.
상기 데이터베이스는 사용가능한 상용 데이터베이스 프로그램, 예컨대 SQL 또는 더욱 바람직하게는 MySQL®을 사용하여 구성 및 프로그래밍될 수 있다. 상기 데이터베이스는 상이한 이벤트들과 위치들을 식별 및 구별하기 위해 각 등록된 이벤트에 대해 주최자에 의해 할당된 데이터 필드들을 포함한다. 상기 데이터베이스는 본 기술 분야의 당업자에게 알려진 데이터베이스 구조들, 탐색들 및 메모리 할당 방법들을 사용하여 이벤트 정보와 캡처 이미지들을 저장 및 구조화하는데 사용될 수 있다. 또한, 상기 데이터베이스는 분석 및 통계적 계산용 분석 엔진을 사용하기 위해 각각의 복수의 이미지 제공자 이미지 캡처 하드웨어에 의해 제공되는 실시간 전달되거나 임베딩된 메타데이터를 컴파일 및 저장하는데 사용될 수 있다. 상기 서버 애플리케이션 소프트웨어는 서버에서 실행되며, 리퀘스터들, 이벤트들 및 위치들을 등록하고, 이러한 이벤트들과 위치들을 식별하는데 사용될 정보의 리스트를 구성하며, 그 정보를 원격 디바이스들에 전달하여 서버에서의 저장과 분석을 위해 원격 디바이스로부터 전송되는 이미지들과 데이터를 수신하는 것을 제공한다. 또한, 상기 서버 애플리케이션 소프트웨어는 상기 서비스 또는 원격 애플리케이션 소프트웨어의 업데이트 및 빌링(billing)하는 것을 제공할 수 있다(예컨대, 뉴스 버전의 자동 다운로딩에 의해). 또한, 상기 애플리케이션 소프트웨어는 성능 및 시스템 처리 그리고 메모리 리소스들을 더욱 최적화하는 기술 분야의 당업자에게 알려진 바와 같이, 멀티플 서버들, 또는 서버들 및 원격 디바이스들을 통해 분산될 수 있다. 원격 서버는 서버 시스템과 하나 이상의 원격 디바이스들에 배치되는 애플리케이션(들)의 기능적 소프트웨어 컴포넌트들의 동작을 집합적으로 지원하는 복수의 연동 컴퓨터 서버들을 포함하는 분산 시스템일 수 있다. 상기 서버들의 분산 시스템은 무선 접속 및/또는 인터넷을 통해 통신할 수 있다.
다른 실시예에서, 원격 애플리케이션은 또한 당업자에게 알려진 바와 같이, 브라우저의 컴포넌트, 브라우저-기반 애플리케이션으로서 구현될 수도 있고, 또는 이와 유사하게 구현되거나 지원될 수 있다. 다른 실시예에서는, 클라우드 컴퓨팅은 데이터를 저장하는 기능들, 통신 드라이버와 같은 지원 소프트웨어나 애플리케이션을 위한 기술 또는 데이터와 이미지 제공자 정보의 수집과 통신을 동기화함에 있어서의 사용을 위한 기술의 일부로서 구현될 수 있다.
또한, 애플리케이션 소프트웨어는 실시간으로 원격 디바이스들로부터 정보를 수집하고 그 수집된 데이터를 분석하여 특정 시간에 특정 타겟에 대해 초점을 맞추고 있는 이미지 제공자들의 수를 결정할 수 있고, 동시에 또는 동일한 시간 구간 동안에 상이한 타겟들에 초점을 맞추고 있는 상응하는 원격 디바이스들의 수를 계산할 수 있으며, 또한 본 기술 분야에서 알려진 통계적 계산법들을 사용하여 그 시간 또는 그 구간 동안에 각 타겟 또는 서브-타겟에 관심이 있는 청중의 상대적 양을 결정할 수 있는 분석 엔진을 포함한다.
신뢰 구간들 및 당업자에게 알려진 다른 통계 값들은 청중 초점의 양 및 새롭게 결정된 각 타겟들의 인기도의 정확성을 결정하는데 사용될 수 있다. 상기 분석 엔진은 수집된 데이터 및 추출된 정보를 판독하여, 그 이벤트에서의 실시간 사용이나 동일 또는 유사한 참여자들에 의한 후속적으로 조직된 이벤트들에서의 이후의 사용을 위해 그 정보를 저장할 수 있다.
다음의 실시예들 및 예들은 고려되는 다양한 방법들의 단계들 또는 다양한 시스템들의 컴포넌트들의 상이한 가능 구성들을 나타내며, 이것은 본 발명의 원리와 범위 내에서 고려되는 발명의 개념을 설명하는데 도움을 주는 예시적이고 비한정적인 것으로 의도된다. 또한, 모든 변형사항들과 수정사항들은 청구범위에 기술된 본 발명의 범위 내인 것으로 고려되어야 한다. 본 발명의 실시예들은 사진을 찍을 타겟에 있는 그들의 이미지 캡처 디바이스들(예컨대, 스마트폰)을 향하는 이벤트에서의 군중을 포함한다. 동일한 타겟에 초점을 맞추고 있는 복수의 사람들은 초점의 지점들을 생성하는 교차 시선들로 인하여 야기된 클러스터를 생성한다. 동일한 대상에 초점을 맞추고 있는 사람들은 신원이 알려져 있을 수 있으며, 그들의 사진, 비디오, 및 코멘트를 올리기 위해 즉석 소셜 네트워크나 논의 그룹에 참여할 사람들을 초대하는 메시지를 그들의 스마트폰으로 전송한다. 올려진 사진, 비디오, 및 코멘트는 논의 그룹이나 소셜 네트워크에 참여하는 다른 사람들과 공유될 수 있으며, 그룹 외부의 당사자들에게 배부될 수도 있고, 또는 웹 페이지에 포스팅될 수도 있다. 통계적 계산에 기초하는 상당한 중요도 또는 매우 유의미한 것으로 태깅된 사진, 비디오, 코멘트는 뉴스 공급 자료로서 온라인에 포스팅될 수 있다. 다른 실시예에서, 클러스터에 태깅된 속성은 예를 들어 잠재적 관심 대상과 연관되는 것으로 결정되거나 그 클러스터의 멤버로부터 수신되는 것으로 결정되는 디바이스 사용자들의 클러스터들로 정보 콘텐츠와 소셜 미디어를 전달하는 것과 같이 현실-세계 애플리케이션들을 전개하기 위해 활용된다. 또한, 상기 클러스터 속성은 특정 지리적 영역에서의 관측자들의 관심 레벨의 통계적 표현들 또는 그들의 중요도를 그래픽으로 나타내는 클러스터들의 맵을 생성하도록 더 분석될 수 있다.
또한, 이러한 매핑(mapping)들은 대시보드로 나타내는 것과 같이, 시간에 따른 중요도와 관심 패턴 이동을 동적으로 나타내도록 디스플레이될 수 있다. 또한, 관심과 중요도의 동적 변경들은 제 3 당사자 방송 및 광고를 연관된 디바이스 사용자들의 클러스터(들)로 안내하는데 사용될 수 있다.
다른 실시예에서, 상기 클러스터 분석적 및 통계적 정보는 저장될 수 있고 다른 기업과 사업 사용들을 위해 패키징될 수 있다.
일 실시예에서, 이벤트에 있는 사람들은 그 이벤트에 있는 판매회사와 통신함으로써 다른 사람을 위한 음식, 음료, 기념품을 구매할 수 있다.
본 발명의 이러한 일 실시예는 이미지 캡처 하드웨어를 포함하는 적어도 제 1 원격 전자 디바이스, 이미지 캡처 하드웨어를 포함하는 제 2 원격 전자 디바이스, 서버 상기 제 1 및 제 2 전자 디바이스들로부터 멀리 지리적으로 분리되어 있으며 네트워크를 통해 상기 제 1 및 제 2 원격 전자 디바이스들과 통신하는 서버를 포함한다.
시스템들 및 방법들은 예를 들어, 복수의 원격 전자 디바이스들과 상기 복수의 원격 전자 디바이스들로부터 지리적으로 분리된 적어도 하나의 서버를 포함하고, 상기 복수의 원격 전자 디바이스들 모두는 특정 이벤트에 존재하며, 상기 원격 디바이스들은 적어도 하나의 지리적으로 먼 서버와 통신하는 것으로 제공된다. 본 발명의 몇몇 실시예들은 이미지들을 캡처하고, 이벤트에서의 특정 사람들, 대상들, 또는 서브-이벤트들에 초점을 맞추고 있는 이미지 제공자들로서 그 이미지들과 연관된 컴파일된 메타데이터로부터 실시간으로 정보를 획득하는 시스템 및 방법에 관한 것이다.
다른 실시예에서, 상기 데이터에는 각각의 캡처되어 원격 컴퓨터 시스템으로 전송된 이미지가 메타데이터로서 임베딩될 수 있다.
일 실시예에서, 상기 복수의 캡처된 이미지들에는 이미지들 포지션, 방향을 식별시키는 메타데이터가 각각 태깅될 수 있으며, 상기 캡처된 이미지들은 컴파일을 위해 적어도 하나의 서버로 전달될 수 있다.
시스템의 다른 실시예는 디지털 이미지나 비디오를 캡처하고 또는 이벤트 또는 위치에 관한 정보를 수신할 수 있는 애플리케이션 프로그램을 바람직하게 실행시킬 수 있으며 이동 전자 디바이스를 구비한 적어도 하나의 제 1 당사자인 이미지 제공자를 포함하고, 바람직하게는 캡처된 이미지에 그 이미지가 캡처된 위치나 이벤트를 식별하기에 충분한 메타데이터를 태깅하고, 그 이미지가 캡처된 시점을 명시하는 시간 스탬프를 적용하고, 태깅된 이미지 및 메타데이터의 적어도 일 부분을 제 2 당사자(예컨대 이벤트 주최자, 웹페이지나 다른 사이트에의 포스팅 및 컴필레이션을 위한 프로모터 또는 광고 제공자, 제 3 당사자에 의한 감상을 위한 분포)에 의해 운영되는 원격 서버로 전송한다.
또한, 시스템은 원격 디바이스로 하여금 GPS 포지셔닝에 의해 원격 디바이스의 위치를 획득하게 하고, 콤파스 소프트웨어나 방향 소프트웨어를 사용하여 원격 디바이스가 향하고 있는 방향을 결정하게 하고, 디바이스가 GPS 및 방위 데이터를 수집하고 있는 시간을 결정하게 하며, 또한 시간 스탬프를 상기 수집된 GPS 및 방향 데이터와 연관시키게 할 수 있는 애플리케이션을 실행하며 또한 이미지-캡처 하드웨어를 구비하는 원격 디바이스를 바람직하게 포함한다.
또한, 상기 애플리케이션은 원격 디바이스로 하여금 상기 상호 연관된 위치/방향/시간 데이터를 관련 애플리케이션을 실행시키는 원격 서버로 전달할 수 있게 한다.
일 실시예들에서, 시스템들 및 방법들은 예를 들어, 제 1 원격 전자 디바이스와, 상기 원격 전자 디바이스로부터 지리적으로 분리된 적어도 하나의 서버(여기서, 상기 서버와 원격 디바이스는 서로 통신하고 있음)와, 상기 서버와 통신하여 디지털 사진 이미지를 캡처할 수 있는 제 2 전자 디바이스와, 상기 제 1 전자 디바이스에서 상기 적어도 하나의 서버로 전달되고 또한 상기 적어도 하나의 서버에서 상기 제 2 통신 디바이스로 전달되어 사진 이미지의 캡처를 개시시키는 전자 요청을 포함하는 것으로, 제공된다.
또한, 시스템의 일 실시예는 상기 제 1 전자 딥아ㅣ스에서 상기 적어도 하나의 서버로 전달되고, 또한 상기 적어도 하나의 서버에서 상기 제 2 통신 디바이스로 전달되어 사진 이미지의 캡처를 개시시키는 전자 요청을 포함한다.
몇몇 실시예들에서, 처리 시스템에 의해 실행되는 컴퓨터-판독가능 명령어들을 저장하는 컴퓨터-판독가능 매체는, 이미지 캡처링 프로세스를 수행하며, 상기 프로세스는 (a) 특정 시간에서 또는 시간 구간 동안 이벤트 또는 위치의 사진 이미지를 캡처하는 전자 요청을 생성하는 단계와, (b) 상기 요청 및 상기 이벤트 또는 위치를 식별시키는 정보를 적어도 하나의 서버로부터 제 1 전자 디바이스로 전달하고 이에 따라 사진 이미지의 캡처를 개시시키는 단계와, (c) 상기 이벤트 또는 위치에 관한 정보에 기초하여 데이터베이스를 생성하는 단계와, (d) 특정 시간에서 또는 시간 구간 동안 상기 요청된 이벤트의 하나 이상의 이미지들 또는 비디오들을 캡처하는 단계와, (e) 상기 캡처된 이미지들 또는 비디오들에 상기 이벤트 또는 위치를 식별시키는 정보 및 시간 스탬프를 태깅하는 단계로서, 상기 정보는 상기 이벤트의 식별 및 태깅을 위해 사용되는 것이며, 상기 이미지들은 상기 이벤트의 명칭, 상기 이벤트의 프로모터 또는 주최자, 상기 이벤트의 채널, 이벤트 설명, 상기 이벤트의 날짜, 상기 이벤트의 특정 시간, 및/또는 상기 이벤트의 특정 위치를 포함할 수 있는, 상기 태깅하는 단계와, (f) 상기 태깅된 이미지 및 메타데이터를 상기 서버로 전송하는 단계와, (g) 상기 스탬프를 적어도 포함하는 상기 메타데이터에 기초하여 상기 태깅된 이미지를 식별하고, 상기 이미지를 상기 데이터베이스 내의 정확한 이벤트 또는 위치와 연관시키는 단계와, (h) 정확한 이벤트 또는 위치를 상기 이미지를 상기 데이터베이스에 저장하는 단계와, (i) 웹사이트 상에 상기 캡처된 이미지를 디스플레이하는 단계를 포함한다.
여러 가지 실시예들에서, 임의의 주어진 시점에서의 초점의 방향 및 이미지 제공자들의 물리적 위치에 기초하는 실시간 GPS, 방향, 및 시간 데이터는 상기 이벤트에 존재하는 각각의 복수의 이미지 제공자들로부터 샘플링되며, 적어도 하나의 서버로 전달되어 상호 연관 및 컴파일된다.
상기 실시간 데이터는 상기 적어도 하나의 서버에 의해 모니터링 및 컴파일될 수 있다.
예를 들어, 본 발명의 일 실시예는 상기 디바이스가 향하는 방향에 관한 연속적인 데이터 스트림을 생성할 수 있는 원격 애플리케이션을 실행하고, 상기 데이터를 애플리케이션 프로그램 및 데이터베이스 프로그램을 실행하는 적어도 하나의 서버로 전송하는 복수의 원격 전자 디바이스들을 포함하고, 상기 서버는 상기 복수의 원격 전자 디바이스들로부터 지리적으로 분리되어 있으면서 상기 원격 전자 디바이스들과 통신하고, 상기 서버는 상기 원격 전자 디바이스와 통신하여 소정 시간에 각각의 이미지 캡처 디바이스가 향하고 있는 방향에 관한 데이터 스트림 및/또는 적어도 1초마다 하나의 속도로 캡처되는 하나 이상의 이미지(들)을 수신하는, 시스템들 및 방법들을 제공한다.
상기 방법은 상기 이벤트 또는 위치에 관한 정보에 기초하여 데이터베이스를 생성하고, 특정 시간에 또는 시간 구간 동안의 상기 요청된 이벤트의 하나 이상의 이미지들 또는 비디오들을 캡처하고, 상기 캡처된 이미지들 또는 비디오들에 상기 이벤트 또는 위치를 식별시키는 정보와 시간 스탬프를 태깅하고, 상기 태깅된 이미지 및 상기 이미지와 연관된 메타데이터의 적어도 일부분을 상기 서버로 전송하고, 상기 시간 스탬프를 포함하는 메타데이터에 기초하여 상기 태깅된 이미지를 식별하고, 또한 상기 이미지를 상기 데이터베이스 내의 상기 정확한 이벤트 또는 위치와 연관시키고, 상기 정확한 이벤트 또는 위치를 위해 상기 데이터베이스에 상기 이미지를 저장하며, 또한 웹사이트 상에 상기 캡처된 이미지를 디스플레이한다.
상기 이벤트 및 이미지들을 식별하고 태깅하는데 사용되는 정보는 상기 이벤트의 명칭, 상기 이벤트의 프로모터 또는 주최자, 상기 이벤트의 채널, 이벤트 설명, 상기 이벤트의 날짜, 상기 이벤트의 특정 시간, 및 상기 이벤트의 특정 위치를 포함한다.
상기 방법은 상기 이벤트 또는 위치에 관한 상기 이벤트 또는 위치에 관한 정보에 기초하여 데이터베이스를 생성하는 것과, 특정 시간에 또는 특정 시간 동안 요청된 이벤트의 하나 이상의 이미지들 또는 비디오들을 캡처하는 것과, 상기 캡처된 이미지들 또는 비디오들에 상기 이벤트 또는 위치를 식별시키는 정보와 시간 스탬프를 태깅하는 것과, 상기 태깅된 이미지 및 상기 이미지와 연관된 메타데이터의 적어도 일 부분을 상기 서버로 전송하는 것과, 상기 시간 스탬프를 포함하는 메타데이터에 기초하여 상기 태깅된 이미지를 식별시키고, 상기 이미지를 상기 데이터베이스 내의 정확한 이벤트 또는 위치와 연관시키는 것과, 상기 정확한 이벤트 또는 위치를 위해 상기 데이터베이스 내에 상기 이미지를 저장하는 것과, 웹사이트 상에 상기 캡처된 이미지를 디스플레이하는 것을 더 포함할 수 있다.
상기 이벤트 및 이미지들을 식별하고 태깅하는데 사용되는 정보는 상기 이벤트의 명칭, 상기 이벤트의 프로모터 또는 주최자, 상기 이벤트의 채널, 이벤트 설명, 상기 이벤트의 날짜, 상기 이벤트의 특정 시간, 및 상기 이벤트의 특정 위치를 포함한다.
다른 양태는 이벤트 또는 위치의 사진 이미지들을 캡처하는 요청을 제 1 원격 전자 디바이스로부터 주최자로 전송하는 것을 포함하는, 이벤트 또는 원격 위치로부터의 하나 이상의 사진 이미지들의 캡처를 요청하고(여기서, 상기 요청은 상기 이벤트 또는 위치를 고유하게 식별시키기에 충분한 정보를 포함함), 상기 요청 및 식별 정보에 기초하여 데이터베이스를 생성하고, 상기 요청 및 식별 정보를 사진 이미지를 캡처할 수 있는 하나 이상의 제 2 원격 전자 디바이스(들)로 전달하고, 상기 요청, 식별 정보, 및 상기 이미지가 캡처된 시간에 기초하여 상기 사진 이미지를 캡처하는 것을 결정하고, 하나 이상의 제 2 원격 전자 디바이스(들)을 가지고 하나 이상의 사진 이미지들을 캡처하는 것에 의해 상기 전달된 요청에 응답하고, 공공 디스플레이를 위해 상기 캡처된 이미지들을 상기 서버로 전송하는 방법에 관한 것이다.
다른 비한정적 실시예들에서, 상기 이벤트에 존재하는 각각의 이미지 캡처 디바이스들로부터 전송되는 실시간 데이터는 상기 원격 서버들에 전달될 수 있으며, 상기 서버들에 수집 및 전송된 상기 이미지들 및 메타데이터와 별개로 저장될 수 있다.
다른 실시예에서, 특정 타겟을 향하고 있는 이미지 캡처 디바이스들로부터 생성되는 실시간 데이터는 다른 이미지의 이미지 캡처 디바이스들에게 전달되어 각 이미지 제공자에게 동일 타겟에 초점을 맞추고 있는 다른 이미지 제공자들을 알리는 것을 제공하며, 또한 상기 타겟의 관심 레벨에 관한 정보를 상기 이미지 제공자들에게 전달한다.
본 발명의 다른 실시예들에서, 시스템들 및 방법들은 예를 들어 소프트웨어 애플리케이션들을 실행할 수 있는 이미지 캡처 하드웨어를 포함하는 복수의 원격 전자 디바이스들과, 상기 복수의 원격 전자 디바이스들로부터 지리적으로 분리된 적어도 하나의 원격 서버 시스템을 포함하며, 상기 복수의 원격 전자 디바이스들 모두는 동일한 특정 이벤트 또는 이벤트의 동일한 근처에 존재하고,
상기 원격 전자 디바이스들 모두는 상기 원격 서버 시스템과 통신하여 상기 원격 전자 디바이스로부터 상기 서버 시스템으로 데이터를 정송할 수 있으며, 상기 서버 시스템은 각각의 원격 전자 디바이스로 다시 정보를 전달할 수 있는 것으로 제공된다.
타겟을 삼각측량하는 방법의 일 실시예는 상기 애플리케이션을 실행하는 제 1 활성 원격 전자 디바이스에 의해 전달되고 있는 실시간 피드를 식별하는 것과(상기 실시간 피드는 동일한 특정 시간에 상기 디바이스의 콤파스 헤딩(compass heading)에 기초하여 대향 방향 및 상기 전자 디바이스의 GPS 좌표를 적어도 갖는 전자 디바이스들 속성을 포함함), 상기 제 1 전자 디바이스의 상기 GPS 포지션 및 콤파스 대향(compass facing)에 기초하여 초점의 방향을 플로팅(plotting)하는 것을 포함한다.
상기 제 2 디바이스의 GPS 좌표들 및 콤파스 대향을 포함하는, 제 2 전자 디바이스로부터 상기 서버로 전달되는 제 2 실시간 피드를 식별하고, 또한 상기 포지션 및 대향의 실시간 피드에 기초하여 초점의 방향을 플로팅한다.
상기 제 2 전자 디바이스의 초점의 방향이 상기 제 1 전자 디바이스의 초점의 방향과 교차하는지의 여부를 결정하고, 또한 두 선들의 교차 지점 및 초점의 상기 두 선들의 교차 지점의 관련 GPS 위치를 결정한다.
상기 초점 대상은 타겟의 결정된 GPS 포지션과 그 시간에서의 사람들 또는 대상들의 알려진 위치를 상호 연관시키거나, 상기 원격 전자 디바이스들의 제 1 사용자 및/또는 제 2 사용자가 초점을 맞추고 있는 타겟을 식별하거나, 또는 상기 서버를 실행하는 조작자 또는 이미지 인식 소프트웨어에 의한 이미지 인식에 의해 식별하는 것으로 식별될 수 있다.
방법의 일 실시예는 특정한 사람 또는 대상에 주목하고 있는 관측자들의 집중도 및/또는 각 관측자가 상기 특정한 사람 또는 대상에 초점을 유지하고 있는 시간의 길이를 결정하기 위한, 이미지 캡처 디바이스들의 적어도 통계적으로 적절한 샘플에 대한 초점을 맞추고 있는 지점의 통계 분석을 포함한다.
상기 이벤트 동안 더 높은 관심을 갖는 시간의 길이는 또한 상기 이벤트 동안 어떤 특정한 사람 또는 대상에 초점을 맞추고 있는 이미지 캡처 디바이스들의 비율에 의해 결정될 수 있다.
마찬가지로, 상기 이벤트의 모멘텀은 시간에 따른 집중도의 증가 및 감소, 그리고 시간에 따른 어떤 사람 또는 대상으로부터 다른 사람 또는 대상으로의 집중의 이동에 의해 결정되고 이에 따르게 된다.
또한, 추가 정보는 동일한 사람 또는 대상이 상기 관측자들의 집중을 끄는 빈도를 모니터링하고/하거나 각 사람 또는 대상이 상기 이벤트 동안 관측자들의 집중을 유지하는 총 양을 합산하는 것에 의해 획득될 수도 있다.
시간의 길이 또는 관측자들의 수의 비교는 어떤 사람 또는 대상의 관심 레벨들을 결정하는데 사용될 수 있다.
다른 실시예에서, 상기 관심 대상들은 상기 이벤트 동안 스테이지 또는 다른 정의된 영역 주변을 연속적으로 이동할 수 있다.
이러한 예들에서, 상기 이벤트가 진행함에 따라, 상기 이벤트의 모멘텀은 관측자들의 주목을 끌고 있는 어떤 사람 또는 대상으로부터 다른 사람 또는 대상으로 이동할 수 있다.
상기 모멘텀은 특정 시간에 특정한 사람 또는 대상을 향하고 있는 이미지 캡처 디바이스들의 수 또는 상기 이벤트 중의 특정 시간 구간 동안 사람 또는 대상의 캡처된 실제 이미지들의 수에 의해 결정된다.
상기 이미지 캡처 디바이스들로부터 전송되는 데이터는 어떤 디바이스들이 거의 동시에 거의 동일한 위치를 향하고 있는지를 나타낸다.
또한, 이 데이터는 사람 또는 대상이 이동중인 경우일 지라도 어떤 사람 또는 대상이 관측되고 있는지를 식별하는데 사용될 수 있다.
이러한 예들에서는, 고정된 시야가 존재하지 않지만, 관심을 갖고 있는 사람 또는 대상은 고정된다.
특정 사람들 또는 대상들에 집중하는 관측자들의 수의 변동들 및 시간에 따른 상이한 사람들 및 대상들 사이에서의 집중의 이동에 의해, 더 높은 집중의 구간 동안의 광고행위에 대해 비용청구되는 양은 증가될 수 있으며, 이에 따라 전체 광고행위 수익을 증가시킬 수 있다.
그러므로, 모멘텀은 시간에 따라 집중도가 어떻게 달라지는지를 반영하며, 거의 동시에 모든 위치를 향하는 이미지 캡처 디바이스들의 총 개수에 대한 거의 동일한 위치를 향하는 이미지 캡처 디바이스들의 비율에 의해 결정될 수 있다.
관측자들이 사용하는 이미지 캡처 디바이스의 총 개수는 데이터를 원격 컴퓨터 시스템 또는 통신 플랫폼으로 전송하는 애플리케이션들의 개수로부터 획득될 수 있으며, 이것은 각 디바이스가 고유의 데이터 스트림을 전송할 수 있기 때문이다.
네트워크를 통해 전송되고 있는 이들 실시간 데이터 스트림들의 수집은 컴퓨터 시스템에 의해 처리되어 집중도 및 모멘텀에 대한 필수 정보를 결정한다.
상기 데이터는 상기 원격 전자 디바이스를 실행하는 원격 애플리케이션과 상기 통신 플랫폼 사이에서 연속적으로 흐르며, 상기 데이터가 처리되어 군중의 거동에서의 중요한 이동사항들을 추적하고 클러스터들로 지칭되는 크라우드 포커스(crowd focus)의 영역들을 식별한다.
상기 데이터는 각 전자 디바이스의 위치 및 시선을 포함하며, 시간에 따른 포지션 및 방향의 변경들은 익명으로 저장되어 처리된다.
본 발명의 일 실시예에서, 특정 광고들은 관측자들에 의해 사용되고 있는 이미지 캡처 디바이스드들의 디스플레이 화면들로 다시 전송될 수 있다. 광고주들은 이에 따라 상기 이벤트의 특정 시간에 관측자가 집중하고 있는 장소에 기초하여 이미지 캡처 디바이스들을 통해 특정 관측자들에 대해 그들의 선택된 광고들을 제공할 수 있다. 예를 들어, 어떤 연기자에 초점을 맞추고 있는 관측자는 광고자에 의해 연기자가 입고 있는 특정 의류 또는 신발에 대한 광고를 수신할 수 있다.
마찬가지로, 상기 이벤트의 스폰서는 관심 대상에 초점을 맞추고 있는 특정 관측자들에게 그들의 제품을 광고하기를 소망할 수 있다. 예를 들어, 자동차 제조사는 관측자가 그 제조사의 자동차에 초점을 맞추고 있는 경우 레이스 트랙에 있는 관측자에게 광고를 제공하기를 원할 수 있다. 상기 광고는 상기 관측자의 디스플레이 화면의 일 부분만을 차지할 수 있으며, 또는 짧은 시간 구간 동안에만 제공될 수 있다.
광고주들은 특정 시점에 관측자들에 대해 누구의 광고가 전송될 것인지에 대해 비딩할 수 있으며, 비드(bid) 양의 비율에 기초하여 그에 상응하는 수의 광고가 이미지 캡처 디바이스들의 일 부분에 디스플레이될 수 있다. 이 전송 및 디스플레이는 상기 이벤트 동안 실시간으로 일어나게 된다.
본 발명의 일 실시예는 이벤트 동안 광고행위의 비용을 증가시키는 방법에 관한 것이며, 이것은 상기 이벤트의 관측자들에 의한 이미지 캡처 디바이스들의 사용에 기초하여 이벤트의 모멘텀을 결정하고, 또한 특정 시간 구간에 상기 이벤트의 모멘텀에 기초하여 더 높은 모멘텀의 시간 구간 동안의 광고행위에 대해 비용청구되는 양을 증가시키는 것을 포함한다. 상기 모멘텀은 거의 동시에 거의 동일한 위치를 향하는 이미지 캡처 디바이스들의 수에 기초하여 결정된다. 상기 모멘텀은 상기 이벤트의 특정 시간 동안 취해진 이미지들의 수에 기초하여 결정된다. 상기 모멘텀은 상기 디바이스들이 초점을 맞추고 있는 사람 또는 대상에 관한 상기 디바이스들의 초점에 기초하여 결정된다. 상기 이벤트의 모멘텀은 실시간으로 결정되며, 광고행위에 대한 비용은 상기 이벤트의 현재 모멘텀에 기초하여 실시간으로 변동된다. 상기 모멘텀은 거의 동일한 시간에 모든 위치들을 향하고 있는 이미지 캡처 디바이스들의 총 수에 대한 거의 동일한 위치를 향하고 있는 이미지 캡처 디바이스들으 비율에 의해 결정된다.
본 발명의 일 실시예는 경매에 의해 광고 시간을 분재하는 방법에 관한 것이며, 이것은 이벤트 동안 특정 시간에 특정한 사람 또는 대상에 집중하고 있는 관측자들의 비율을 결정하는 것의 일부로서 이벤트에 존재하는 이동 디바이스들로부터 수집된 정보를 적용하는 것과, 특정 시간에 특정한 사람 또는 대상에 집중하고 있는 관측자들의 비율을 하나 이상의 광고주들에게 전송하는 것과, 각각의 이미지 캡처 디스플레이들로 상기 관측자들에게 광고를 제공하기 위해 상기 하나 이상의 광고주들로부터 네트워크를 통해 비드들을 수신하는 것과, 각 광고주의 비드 양의 비율에 기초하여 특정 광고주의 광고를 디스플레이하는 상응하는 개수의 이미지 캡처 디바이스들을 결정하는 것과, 상기 이벤트 동안 실시간으로 디스플레이를 위해, 특정 광고주로부터의 광고를 상기 비율의 이미지 캡처 디바이스들에게 전송하는 것을 포함한다.
상기 광고는 관측자의 이미지 캡처 디바이스로 전달되며, 상기 이미지 캡처 디바이스의 시청자의 적어도 일 부분에게 디스플레이된다. 전달된 특정 광고를 수신하는 이미지 캡처 디바이스들은 상기 이벤트에 존재하는 모든 이미지 캡처 디바이스들 중에서 램덤으로 선택된다. 광고주들에 의한 비딩은 실간으로 일어나는 자동 프로세스이다.
본 발명의 일 실시예는 이벤트의 광고행위로부터 수익을 증가시키는 시스템에 관한 것이며, 이것은 애플리케이션을 실행하는 복수의이미지 캡처 디바이스들과, 상기 애플리케이션을 실행하는 복수의 이미지 캡처 디바이스들과 통신하는 적어도 하나의 컴퓨터 시스템(상기 컴퓨터 시스템은 이미지 캡처 디바이스가 향하고 있는 방향을 식별하는 각각의 이미지 캡처 디바이스들로부터 데이터를 수집하고, 적어도 하나의 광고주 컴퓨터 시스템들과 통신하여 광고들의 배치 및 타이밍을 위한 비드 양을 받아들일 수 있음)과, 상기 복수의 이미지 캡처 디바이스들이 향하고 있는 현재의 방향에 대한 정보를 수신하는 적어도 하나의 서버와 통신하며 상기 컴퓨터 시스템과의 광고 포지셔닝을 위한 금전 비드들을 지시하는 하나 이상의 광고주 컴퓨터 시스템들을 포함한다.
본 발명의 일 실시예는 이벤트의 광고행위로부터 수익을 증가시키는 방법에 관한 것이며, 이것은 하나 이상의 이벤트 참석자들의 이동 디바이스들로부터 입력에 기초하여 더 높은 관심을 갖는 상기 이벤트의 시간 구간을 결정하고, 더 높은 관심을 갖는 상기 시간 구간에 관한 정보를 하나 이상의 잠재적 광고주들에게 전달하고, 더 높은 관심을 갖는 상기 시간 구간에 또는 그 근처에 상기 이벤트 동안의 광고 시간에 대한 상기 하나 이상의 잠재적 광고주들로부터 네트워크를 통해 비드들을 수신하는 것과, 하나 이상의 비드들을 받아들임으로써 상기 이벤트로부터 광고 수익을 얻는 것을 포함한다. 높은 관심 구간의 결정, 높은 관심 구간에 대한 정보를 잠재적 광고주들에게 제공하는 것, 잠재적 광고주들로부터 비드들을 수신하는 것, 및 잠재적 광고주들로부터 비드들을 받아들이는 것은 모두 상기 이벤트 동안 실시간으로 행해진다. 하나 이상의 참석자들로부터의 입력은 각 참석자들의 사진 활동에 기초하여 이루어진다. 상기 사진 활동들은 특정 시간에 사진을 찍는 참석자들의 수, 특정 시간에 거의 동일한 위치에 초점을 맞추고 잇는 이미지 캡처 디바이스들의 수, 및/또는 거의 동일한 시간에 거의 동일한 위치의 캡처된 이미지들의 수를 포함한다. 더 높은 관심의 시간 구간의 결정은 상기 이벤트의 발생 이전에 발생하는 비드들의 수신 및 수락으로 상기 이벤트에 앞서 예상된다. 시간 구간들은 두개 이상의 가장 높은 비딩 광고주들 사이에서 분배 또는 할당될 수 있으며, 이러한 할당은 광고가 특정 디스플레이에 제공되는 시간의 양 또는 동일한 시간 구간 동안 각 광고주에게 제공되는 뷰잉 영역의 양의 함수일 수 있다. 즉, 두개 이상의 광고들은 동시에 동일한 디스플레이 상에 보여질 수 있지만, 비딩된 각 양에 기초하여 특정 광고를 나타낸느 영역의 비율에 따라, 더 높은 비더가 디스플레이 뷰잉 영역 중의 더 많은 양을 차지하는 더 큰 광고를 제공하게 된다.
다른 실시예에서, 상기 방법은 곧 있을 이벤트에서 광고들의 배치에 대한 포지션들을 경매처분하는 것에 관한 것이며, 이것은 이전 이벤트의 지속시간 동안 복수의 이미지 캡처 디바이스들로부터 데이터를 수집하는 것과, 상기 이전 이벤트의 각 특정 시간 구간동안 가장 큰 관측자들의 수에 의해 유지된 시야를 결정하기 위해 컴퓨터 시스템의 사용을 통해 상기 데이터를 처리하는 것과, 상기 처리에 대응하여, 상기 이벤트의 상이한 구간들 동안 가장 큰 관측자들의 수의 시야를 식별하는 것을 포함한다. 가장 큰 관측자들의 수의 시야를 식별하는 것에 의해, 광고들 또는 디스플레이 디바이스들의 배치는 그들이 관측자들에게 더욱 효율적으로 제공되는 장소에 위치될 수 있다. 이들 식별되는 시야들의 위치는 관심을 가진 자들에게 전송될 수 있다.
본 발명의 일 실시예는 이벤트에서 광고의 배치를 위한 포지션들을 경매처분하는 방법에 관한 것이며, 이것은 이벤트의 지속시간 동안 상기 이벤트에 있는 복수의 관측자들에 의해 조작되는 복수의 이미지 캡처 디바이스들로부터 전달되는 데이터를 수집하는 것과, 상기 이벤트의 각 특정 시간 구간 동안 가장 큰 관측자들의 수의 시야를 결정하기 위해 수집된 데이터를 처리하는 것과, 상기 처리에 대응하여, 상기 이벤트의 상이한 구간 동안 가장 큰 관측자들의 수의 시야를 식별하는 것을 포함한다. 상기 방법은 관심이 있는 자들에게 상기 식별된 시야들을 전송하는 것을 더 포함한다. 상기 데이터는 상기 이벤트의 각 특정 시간 구간에서 각각의 이미지 캡처 디바이스들이 향하고 있는 대략적인 방향에 관하여 각 이미지 캡처 디바이스들로부터 수집된다. 상기 데이터는 상기 디바이스들이 초점을 맞추고 있는 사람 또는 대상에 관하여 각 이미지 캡처 디바이스들로부터 수집된다. 상기 데이터는 상기 이벤트의 특정 시간 동안 취해지는 이미지들의 수에 관하여 각 이미지 캡처 디바이스들로부터 수집된다. 상기 방법은 후속 이벤트에 대한 각 식별된 시야 내의 광고행위의 배치를 경매하는 시작 가격(starting price)을 설정하는 것을 더 포함한다. 상기 방법은 실시간으로 비드들을 수집하는 것에 의해 상기 이벤트 동안 실시간으로 각 식별된 시야를 경매 처분하는 것과, 상기 이벤트의 특정 구간 동안 실시간으로 경매된 시야에서의 디스플레이 상에 가장 높은 비더의 광고를 디스플레이하는 것을 포함한다. 다른 실시예에서, 어떤 이벤트로부터 획득된 정보는 동일 또는 유사한 초점의 집중도들 및/또는 모멘텀을 가진 후속 이벤트들에 대한 광고 비용 또는 스타팅 비드 양들을 설정하는데 사용될 수 있다. 더 높은 관심의 시간 구간은 이벤트의 발생 이전에 비드들의 수신 및 수락이 또한 발생하기 때문에 상기 이벤트에 앞서 예상된다. 이러한 방식으로, 광고주들은 이벤트에 앞서 발생 광고 비용들을 알게 되며, 어떠한 놀라움 없이도 그 비용을 계산할 수 있다. 상기 데이터를 처리하는 것에 의해 획득되는 정보는 상기 이벤트에서의 광고행위로부터 생성되는 수익을 증가시키는데 사용될 수 있다. 이벤트 동안 관측자들의 시야에 기초하여 광고를 위한 최상의 위치를 식별하는 것에 의해, 그리고 어떤 광고들이 언제, 어디서, 얼마 동안 디스플레이될지를 결정하는 비딩 프로세스의 사용에 의해, 일률 가격 및 고정된 광고 디스플레이들을 제공하는 것에 비해서, 더 높은 수수료가 생성될 수 있다.
본 발명의 이러한 실시예들을 사용하면, 광고들이 적절한 배치 수수료와 매칭될 수 있다. 시야의 정확성은 초점 방향이 광고 또는 메시지의 포지션과 얼마나 근접하게 일치하는지에 의해 결정된다. 관측자들의 시야의 중심에 가까울수록, 광고의 배치는 더욱 정확해진다. 또한, 관측자들의 초점 방향이 광고의 위치로 접근하는 빈도는(관측자들 시야 내에 속하도록 하는 것) 또한 광고 포지셔닝의 유효성을 결정하는데 사용될 수 있다. 상기 빈도, 관측자들의 시야 내의 시간 양, 및 광고 또는 메시지의 적절한 시야를 가진 관측자들의 수는 이들 식별되는 전략적 위치들에 그들의 광고를 배치하기를 원하는 광고주들에 대한 적절한 배치 수수료 또는 스타팅 비드를 결정하는데 사용될 수 있다.
몇몇 실시예들에서, 개개의 이벤트들 및 위치들은 주최자에게 등록되며, 특정 이벤트, 대상, 또는 위치 정보와 매칭되는 메타데이터 식별자들, 그리고 상기 이벤트의 특정 시간 또는 시간 구간으로 매칭되는 시간 스탬프를 가진 제출된 이미지들의 후속 추적을 위해 데이터베이스에 저장된다.
각 분리된 이벤트 및 위치를 식별하기 위해 주최자 또는 광고주에 의해 사용되는 정보는 상기 이벤트의 명칭, 상기 주최자의 이름, 이벤트의 채널, 이벤트 설명, 상기 이벤트의 날짜 및 시간, 상기 이벤트가 발생되는 특정 위치를 포함할 수 있다.
상기 이벤트의 위치는 실제 위치의 GPS 좌표들, 예컨대 소형 빌딩, 박람회장이나 대형 콘벤션 센터와 같은 지리적으로 분산된 영역의 경계의 좌표들로 명시될 수 있다. 이들 데이터 필드들은 제 1 당사자인 사진사가 조작하는 원격 디바이스로 제공되어 각 캡처된 이미지에 특정 이벤트에 대한 전송된 이미지를 링크하는데 필요한 메타데이터를 태깅한다. 또한, 제 1 당사자인 이미지 제공자의 위치는 상기 원격 디바이스 또는 이미지 캡처 디바이스에 기초하여 설정될 수 있으며, 상기 이미지 제공자의 실제 위치 또는 상기 이벤트 또는 위치까지의 이동 거리를 결정하는데 사용될 수 있다. 각 이미지와 연관된 시간 스탬프는 상기 이미지가 특정 시간 동안, 예컨대 실제 이벤트 동안이나 리퀘스터가 특정 이벤트 또는 위치에서 사진 이미지들 또는 비디오들을 찍기를 원하는 시간 범위 이내에서 캡처되도록 보장하는데 사용된다. 상기 시간 스탬프는 각각의 특정 이벤트, 그리고 GPS 포지션, 및 가능하게는 이동 디바이스 또는 카메라의 이미지 캡처 하드웨어의 초점이 맞추어진 지점 및 방향의 시작과 종료 시간과 비교됨으로써 그 캡처된 이미지가 적절한 시간에 취해진 정확한 이벤트를 갖는 것을 보장할 수 있다. 상기 시간 스탬프는 요청되는 시간 프레임 밖에서 취해진 이미지들 및 비디오들을 스크리닝하는데 사용될 수 있다.
제 2 당사자인 주최자의 서버에 저장되는 이미지들은, 특정 이벤트에 대해 설계된 웹 페이지 상에 디스플레이 되며, 또한 상기 주최자에 의해 공급되는 리스트로부터 이벤트 또는 위치를 선택하는 것에 의해 공중에 의해 액세스될 수 있으며, 또는 상기 이미지들은 상기 주최자로부터 이러한 이미지들을 수신하는 요청에 기초하여 상기 디바이스에 뷰잉하는 제 3 당사자의 원격 디바이스들로 전송 또는 다운로드될 수도 있다. 또한, 상기 제 3 당사자는 오리지널 리퀘스터일 수 있다. 또한, 상기 이미지들은 소셜 네트워크를 통해 공유되거나, 등록된 시청자들 또는 이러한 캡처된 이미지들을 요청한 시청자들에게 전달될 수 있다. 또한, 상기 수집된 데이터는 특정 시야로 복수의 관측자들의 주목을 유도하고/하거나 특정 시간 길이 동안 특정 위치에 집중을 유지하게 하는 이벤트의 양태들을 조정하는데 사용될 수 있다. 또한, 광고주들은 참석자들의 집중을 이끌어 내는 대상에 동적 광고를 배치할 수 있다. 상기 정보가 복수의 이미지 캡처 디바이스들로부터 실시간으로 수집되는 경우, 상기 방법은 또한 가장 높은 관심 레벨을 이끌어내는 특정 위치들, 및/또는 관측자들의 집중이 가장 특정 위치들을 향하게 되는 시간의 구간에 대해 광고주들이 비딩하게 하는 것에 의해 상기 이벤트의 일 부분들을 경매처분하는 것을 포함할 수 있다.
상기 비딩은 실시간 데이터가 처리되어 각 위치 및 시간 구간에 대한 관심 레벨들이 결정됨에 따라, 미리결정된 비딩될 양 또는 범위를 설정한 광고주들에 의해 자동으로 수행될 수 있다. 실시간으로 제공되고 있는 정보 또는 이미지들을 변경시킬 수 있는 LED 신호 또는 텔레비전 화면과 같은 디스플레이들은, 각 광고주가 비딩한 양에 기초하여 상이한 광고주들의 광고 사이에서 이동하는데 사용될 수 있다. 높은 관심 구간의 결정, 잠재적 광고주들에 대한 높은 관심 기간 상에 정보를 제공하는 것, 광고주들로부터 비드 양을 생성 및 수신하는 것, 각종 디스플레이들 상에 가장 높은 비딩 광고들을 나타내는 것 모두는, 청중이 그 이벤트를 뷰잉함에 따라, 예컨대 자동화된 시스템 또는 경매/비딩 애플리케이션에 의해 실시간으로 행해질 수 있다. 원하는 경우, 각각의 예시된 방법들은 경매 단계 또는 제 3 당사자인 컴퓨팅 시스템들과 통신을 포함하거나 포함하지 않고서 구현될 수 있으며,
각 방법은 데이터의 수집과 처리에 관련되지 않는 제 3 당사자들의 개입 없이 관심 정보를 획득하기 위하여 데이터를 수집 및 처리하는 것만을 포함할 수 있다. 원하는 경우, 임의의 경매 또는 비딩 단계는 자동 전자 수락 및 비드 양의 처리를 포함할 수 있으며, 또한 하나 이상의 네트워크(들)을 통하여 및/또는 온라인으로 경매 또는 비딩 모두 또는 거의 모두를 구현하는 것을 포함할 수 있다.
본 발명의 일 실시예는 앞서의 방법들 중의 어느 하나를 수행하도록 구성된 비-일시적 컴퓨터 판독가능 매체에 관한 것이다. 몇몇 실시예들에서, 서비스는 사용자들에게 배포되는 또는 사용가능하도록 이루어진 하나 이상의 이벤트 태그 또는 식별자를 발행할 수 있다. 이러한 태그들은 상기 태그에 대응하는 이벤트의 특정 시간 윈도우 동안 특정 지리적 영역에 있는 개인들에게만 배포될 수 있거나 또는 사용가능할 수 있다. 예를 들어, 디바이스 및 시간은 그들이 콘서트에 있다는 것을 표시하기 때문에, 콘서트에 존재하는 개인들에게만 특정 태그에 대한 액세스가 주어지게 된다.
다른 접근 방식은 제한 없이 태그가 사용될 수 있게 하는 것이며, 예를 들어, 서버의 방식에 의한 서비스 제공자(예컨대, 모바일 상에서 실행되는 애플리케이션 및 서버 장비)는 소정 시간 또는 위치 기준을 충족하지 않는 제공자들로부터의 이미지들이나 다른 매체를 차단 또는 필터링할 수 있다. 몇몇 실시예들에서는, 개인용 태그가 구현될 수 있다. 예를 들어, 웨딩은 참석자들에 의해 사용되며 그들 참석자들에게 사용가능한 예식 및 리셉션용 태그를 발행할 수 있다(오직 참석자들에게만, 예컨대, 다른 사람들은 태그를 확인하는 것이 차단될 수 있음). 참석자들은 하나 이상의 개인용 태그를 이용하여 사진을 찍음으로써, 예를 들어 제공자 또는 웹 서버 또는 다른 장비로 그 이벤트의 인스턴트 앨범을 제조할 수 있다.
복수의 표준 또는 편집된 태그들을 사용하는 것은 더욱 소팅(sorting) 및 조직할 수 있게 할 수 있다.
몇몇 실시예들에서, 상기 이벤트는 위치에서 일시적이거나 분산될 수 있으며, 그 서비스는 이미지들을 취하거나 이벤트의 이동을 갖는 개인들에 관계없이 그 이벤트를 따를 수 있다. 예를 들어, 마란톤을 관람하는 개인들은 상이한 위치들에서 관람하고 있을 수 있으며, 또는 상이한 위치들로 이동할 수도 있다. 각종 청중 구성원들로부터의 이미지들은 그 이벤트를 관람하는 팬들을 위해 사용가능한 리소스들에 부가된 위치 및 시간에 의해 조직화될 수 있다.
바람직한 실시예에서, 2개의 분리된 원격 디바이스 사용자들은 2개의 상이한 위치들로부터 동일한 런너의 이미지들을 획득하고 각 원격 디바이스로부터 시간, GPS, 및 방향 데이터를 상호 연관시켜서 특정 런너를 실시간으로 삼각측량하는 것을 함께 작업하도록 조정될 수 있다.
이미지들을 식별시키는 메타데이터가 태깅된 실시간 정보 및 이미지들은 각 원격 디바이스로부터 서버로 전달되어 저장될 수 있다. GPS 좌표들, 시간, 방향 및 이미지 데이터의 조합은 그 코스 상의 런너의 위치, 신원, 방향 및 속도를 결정하는데 사용될 수 있다. 상기 삼각측량 계산은 이미지 캡처 디바이스들로부터 전송되는 데이터에 대해 서버에 의해 행해질 수 있다. 상기 서버는 다수의 분리된 원겨 디바이스 사용자들로부터 복수의 런터들에 대한 정보를 컴파일하고, 모든 GPS, 방향 및 시간 데이터를 상호 연관시켜서 런너들에 대한 맵을 제공할 수 있다.
이 정보는 그들의 원격 디바이스들로 다른 시청자들에게 제공될 수 있으며, 그들은 런너들의 이미지들을 관측할 수 있으며 코스 상의 상대적 포지션들을 실시간으로 알 수 있다. 상기 이미지들은 원격 디바이스 사용자들에 의해 예를 들면 "런너 X 20 마일 마커, ESPN에서 제공"으로 라벨링될 수 있다. 또한, 이 실시예에 관하여, 레이스 루트를 따라 특정 위치에 있는 런너들의 그룹에 상대적 근접도로 위치된 복수의 이미지 제공자들 모두는 런너들이 보이는 시간 구간 동안 그 그룹의 이미지들을 제공할 수 있으며, 각각의 이미지에는 제공자의 GPS 위치, 이미지가 찍힌 초점 방향, 시간 스탬프, 및 이미지의 타겟을 표시하는 식별자가 적어도 태깅된다. 이러한 메타데이터는 관련 이미지들로부터 추출되고 실시간 분석을 위해 데이터베이스에 컴파일되어서 레이스의 특정 스테이지에서 어떤 런너들이 주목을 받고 있는지를 결장하고, 상기 레이스 루트 더 아래의 다른 이미지 제공자들에게 실시간으로 정보를 제공함으로써 그들이 관측자 수를 증가시키는 관심 런너들 또는 더욱 인기있는 런너들을 식별하고 초점을 맞출 수 있도록 한다.
광고주들 또는 이벤트 프로모터들은 또한 거의 실시간으로 이미지들 및 비디오들을 포스팅할 수 있으며 이에 의해 이벤트가 발생한 특정 이벤트 또는 위치를 홍보하거나, 또는 캡처된 이미지들을 다운로드하여 광고 및 마케팅 자료를 생성하고 더 많은 이벤트들 및 홍보들에 대한 서비스를 판매할 수 있게 한다. 상기 이벤트에 존재하는 각 타겟 또는 서브-타겟에 대한 초점 양 및 상대적 인기도와 관련된 분석 데이터가 또한 광고주들 또는 이벤트 프로모터들에게 제공됨으로써 다른 이벤트들에 있는 리소스들에게 더욱 용이하게 할당할 수 있으며, 이러한 정보는 유료로 제공될 수 있다. 또한, 본 발명의 실시예들은 제 1 당사자인 이미지 제공자들에 의해 이벤트들, 대상들, 또는 위치들의 하나 이상의 이미지들을 캡처하는 방법에 관한 것이며, 이것은 하나 이상의 특정 이벤트들 또는 위치들에 주최자를 등록하는 것과, 각각의 분리된 이벤트, 서브-이벤트 또는 위치에 대해 특정 데이터 필드들을 생성 및 할당하여 어떤 특정 이벤트 또는 위치를 고유하게 식별시키기 위해 데이터베이스에 저장하며 모든 다른 등록된 이벤트들과 위치들로부터 상기 이벤트, 서브-이벤트 또는 위치를 구별하는 것과, 상기 등록된 이벤트 및 상기 이벤트 또는 위치와 연관된 할당된 특정 데이터 필드들을 저장하기 위한 데이터베이스를 생성하는 것(상기 데이터베이스에 임의의 이벤트 등록 데이터를 저장하는 것을 포함하며 상기 데이터베이스는 주최자에 의해 운영되거나 또는 서버, 데이터베이스 및/또는 웹사이트를 운영 및 유지하는 별개의 서비스 제공자에 의해 운영될 수 있음)과, 원격 디바이스들 상에서 실행되는 애플리케이션 프로그램들을 이벤트 또는 위치들의 이미지들을 캡처하는 아마추어 및 프로 사진사들 그리고 개인들에게 제공하는 것과, 특정 이벤트 또는 위치를 식별시키는 애플리케이션을 실행하는 원격 디바이스로 데이터 필드들의 리스트를 전송하는 것과, 상기 제 1 당사자인 이미지 제공자에 의해 캡처 또는 사진 찍히고 있는 이벤트 또는 위치를 고유하게 식별시키는 특정 데이터 필드들의 세트를 선택하는 것과, 상기 이벤트 또는 위치의 캡처된 이미지들에 특정 메타데이터와 시간 스탬프를 태깅하는 것과, 상기 태깅된 이미지(들)을 상기 서버 또는 제 2 당사자인 주최자에게 전송하는 것과, 각각의 캡처된 이미지에 부가된 메타데이터에 기초하여 각각의 전송된 이미지를 상기 정확한 이벤트 또는 위치와 연관시키는 것과, 식별된 특정 이벤트 또는 위치를 위해 상기 데이터베이스 내의 모든 전송된 이미지들을 수집 및 저장하는 것과, 공공 디스플레이 또는 선택되거나 권한이 부여된 제 3 당사자에 의한 관람, 또는 상기 공공 또는 선택 제 3 당사자에 의한 다운로딩용으로 웹페이지 또는 다른 웹사이드 상의 디스플레이 또는 공개를 위한 태깅된 메타데이터 및 시간 스탬프에 기초하여 모든 이러한 수집된 이미지들을 상호 연관시키는 것을 포함한다.
상기 이벤트 및 이미지들을 식별하고 태깅하기 위해 사용되는 정보는 이벤트의 명칭, 이벤트의 프로모터 또는 주최자, 이벤트의 채널, 이벤트 설명, 이벤트의 날짜, 이벤트의 특정 시간, 이벤트의 특정 위치를 포함할 수 있다. 또한, 다른 정보, 예컨대 초기 인기도 또는 상대적 인기도는 이미지 제공자들이 초점을 맞출 수 있는 상이한 타겟들을 식별 및 구별하는데 사용될 수 있다. 특정 시간, 특정 위치, 및 인기도의 사용은 일반 이벤트 내의 개개의 서브-이벤트를 분류하는데 사용될 수 있다. 이러한 서브-이벤트들은 상이한 위치들에서 동시에 제공되거나, 동일한 위치이지만 상이한 시간들로 순차적으로 제공되는 별개의 디스플레이들, 표현들 또는 공연들일 수 있다. 그러므로, 각각의 서브-이벤트는 일반 이벤트 하에서 연관되는 특정 위치 및 시간을 포함하는 그들 자신의 식별 정보를 가지게 된다. 상기 제 1 당사자인 이미지 제공자들은 그들의 상용, 원격 디바이스들을 실행하는 원격 애플리케이션을 가진 일반 개인들(예컨대, 아마추어 사진가들)일 수 있으며, 또는 그들은 고품질 사진 또는 비디오 장비를 가지고 그 이벤트들을 저장 및 기록하도록 고용된 전문가들일 수 있다. 상기 제 1 당사자인 이미지 제공자들이 전문가드인 실시예에서, 그들은 사전등록하거나 이벤트 주최자와의 거래를 가지고 있을 수 있으며, 주최자에 의해 설정된 미리결정된 가격 비드 또는 그들 자신의 카운터-비용 비드를 위해 고품질 이미지들 및 비디오를 제공할 수 있다.
다른 변형에서, 상기 이미지 제공자는 이미지(들) 또는 비디오(들)의 샘플을 제공하고, 주최자가 캡처된 이미지(들) 또는 비디오(들)을 획득할 수 있는 비드 가격을 설정할 수 있다. 그 가격 범위 내에서 유사한 사진들을 제공함에 따라 이전에 식별된 그 전문 사진사들에 의한 비드 양은 바람직하게 미리-확립된 계좌를 통해 지불된다. 이러한 예들에서, 미리결정된 가격 또는 비드 가격의 지급은 전문 제공자의 계좌에 대해 컴퓨터 시스템 또는 다른 인터넷 지급 옵션들에 의해 처리될 수 있다.
몇몇 실시예들에서, 주최자 또는 리퀘스터의 계좌의 양이 사진사의 비드 가격을 지급하기에 충분하지 않은 경우, 크라우드 소싱 서비스(crowdsourcing service)는 계좌가 부족한 양을 커버하기에 충분한 예치금을 리퀘스터에게 요청하는 메시지를 전송하게 되며, 이에 의해 지급 양을 커버하게 되어 상기 이미지 제공자와의 거래가 계속된다.
상기 제 2 당사자인 주최자 또는 서비스 제공자는 인터넷, 웹 또는 텔레통신 링크를 통해 이벤트 프로모터, 위치 오우너, 또는 마케터와 같은 리퀘스터로부터 정보를 수신할 수 있고, 특정 리퀘스터의 계좌에 대한 요청, 홍보 목적이나 실시간 광고 목적의 이미지들과 비디오들을 캡처하기를 원하는 곧 있을 이벤트에 관하여 기록할 수 있고, 이에 따라 잠재적 소비자 및 참여자들은 그 이벤트에서 일어나고 있는 것을 직접 확인할 수 있다.
또한, 상기 제 2 당사자인 이벤트 주최자는 서버에 링크된 웹사이트를 통해 또는 서버와 링크된 사용자 인터페이스를 구비한 애플리케이션을 실행하는 이동 디바이스에 의해, 다른 서비스 제공자가 운영하고 있는 시스템 또는 자신의 시스템으로 이벤트 정보를 기입할 수 있다.
상기 주최자는 데이터베이스 내의 일반 이벤트 및 서브-이벤트들을 위한 엔트리를 생성할 수 있다. 이러한 엔트리들은 콘서트 및 공연, 시사회 또는 홍보 이벤트, 사업 그랜드-오프닝, 거리 박람회, 게임 또는 스포츠 이벤트, 시상식 또는 다른 의식, 집회 및 정치 이벤트, 무력 충돌, 라이브 뉴스 및 그 밖의 미디어 이벤트들일 수 있으며, 이에 한정되지 않는다. 이벤트는 정확한 시간 또는 시간 구간 동안 정확한 위치에서 찍힌 연속적인 일련의 이미지들과 같이 일반적으로 캡처될 수 있는 임의의 상황에 따라 정의되며, 여기서 상기 이미지는 시각적, 물리적 또는 전자적 매체를 사용하여 캡처될 수 있다. 제 2 당사자인 이벤트 주최자 또는 서비스 제공자는 인터넷, 웹 또는 텔레커뮤니케이션 링크를 통해 리퀘스터로부터 이벤트 또는 위치를 식별시키는 정보를 수신하며, 특정 리퀘스터(사용자 또는 서비스 가입자로도 지칭됨)의 계좌에 대한 요청을 기록한다. 상기 요청은 이러한 요청들의 기록 및 추적을 위해 필요한 소프트웨어를 실행하는 컴퓨터 서버 또는 텔레커뮤니케이션 디바이스에 의해 수신될 수 있으며, 이것은 서비스 가입자들의 계좌, 및 후에 제공될 이미지에 관한 정보 및 요청이 제공되는 상기 정보를 저장하기에 충분한 영구적 메모리를 구비한다.
상기 서비스 제공자는 요청들에 대응하여 제공되는 이미지들을 관리하기 위해 사용될 수 있는 서버에 저장된 영구적 기록들에 상기 요청에 제공된 필수 정보를 기입한다. 또한, 상기 리퀘스터는 제 3 당사자인 상기 이미지들의 시청자일 수 있다. 이벤트 주최자 또는 서비스 제공자는 상기 요청에 기초하여 사진 찍을 위치의 GPS 좌표들 및 이벤트(들)의 시간을 수신하고, 상기 요청 및 정보를 그 요청된 위치의 근처에 있을 수 있는 이미지 제공자들에게 전달한다. 요청된 사진 이미지를 캡처할 수 잇는 상기 이미지 제공자들의 식별은 상기 제공자들의 원격 디바이스들의 GPS 좌표들에 기초하여 실시간 검색될 수 있다. 전자 신호는 상기 사진을 위해 요청된 위치 근처에 있는 사진 제공자들로 전송됨으로써 그들의 모바일 또는 컴퓨팅 디바이스들을 핑(ping)하여 그들의 현재 위치들에 대한 정보, 예컨대 GPS 좌표들을 획득하게 한다. 이들 기준에 의해 식별되는 사진사들 또는 이미지 제공자들은 그들 자신의 모바일 또는 컴퓨팅 디바이스들을 실행하는 애플리케이션 소프트웨어를 통해 바람직하게 접촉된다. 이러한 스크리닝 프로세스(screening process)는 이미지 제공자들이 그들의 포지션으로부터 합리적인 거리 내에 있는 이벤트들 또는 위치들의 이미지들을 캡처하는 요청들만을 수신할 수 있게 하며, 주최자로 하여금 각각의 이러한 이벤트 또는 요청에 대해 접촉된느 제공자들 또는 그 수를 관리할 수 있게 한다. 상기 사진사(들) 또는 이미지 제공자(들)은 적절한 이미지-캡처링 하드웨어 및 메모리를 구비한 이동 전자 디바이스를 사용하여 요청된 이미지를 캡처하고, 서버에 대한 각종 통신 링크들을 통해 상기 캡처된 이미지를 다시 주최자에게 전송하게 된다. 이들 통신 링크들은 고정 배선, 무선 또는 인터넷 프로토콜 또는 이의 임의 조합일 수 있다.
다른 바람직한 실시예에서, 상기 이미지 제공자 또는 사진사는 상시-온 모드로 애플리케이션 소프트웨어를 실행하는 이미지-캡처링 하드웨어를 셋업할 수 있고(상기 이미지 캡처링 하드웨어는 액세스 가능하며 이벤트 주최자와 통신하고 있음), 이에 따라 이미지의 캡처 요청들이 상기 애플리케이션 소프트웨어에 의한 승인에 의해 특정 하드웨어로 전송될 수 있도록 한다. 상기 이미지-캡처링 하드웨어의 위치 및 방향은 이벤트 주최자에게 전송될 수 있으며, 이에 따라 GPS 좌표들에 기초하여 위치를 명시하는 요청이 수신되는 경우, 상기 애플리케이션이 그 요청된 이미지(들) 또는 비디오(들)을 자동으로 캡처할 수 있도록 한다. GPS 및 방향 정보(예컨대, 콤파스 애플리케이션으로부터의)를 포함하는, 모든 필수 지리적 정보는 이미지 제공자들에게 전송된다. 상기 요청으로부터의 지리적 정보는 그들의 모바일 또는 컴퓨터 디바이스를 실행하는 이미지 제공자들의 애플리케이션 소프트웨어로 입력되며, 상기 사진사 또는 이미지 제공자에게 상기 애플리케이션이 실제의 사진을 위해 방향 정확성, 고도, 관측 각도, 조명, 시각, 초점이 맞추어진 지점 등을 가이드 및 보장할 수 있게 하는 정확한 위치를 알리는데 사용될 수 있다. 또한, 상기 하드웨어 및 애플리케이션 소프트웨어는 디지털 이미지를 캡처할 수 있고 저장을 위해 데이터를 압축할 수 있으며 서비스 제공자들 및 주최자에게 다시 전달할 수 있다. 상기 이미지 또는 비디오 요청 가격(어떤 것이라도 제공된 경우), 및 제공된 이미지와 관련된 메타데이터는 주최자 또는 서비스 제공자에게 전달되며, 이것은 GPS 좌표들, 시간 스탬프 및 사진 이미지가 캡처된 시간에 캡처된 다른 메타데이터의 비교에 기초하여 정확한 시간에서 정확한 위치로 디지털 이미지가 찍히는 것을 유효화한다.
몇몇 실시예들에서, 상기 사진들은 자체적으로 분명하게 되며(즉, 러쉬모어 산(Mount Rushmore)의 사진), 태그를 필요로 하지 않을 수도 있다. 또한, GPS 단독 또는 시간 스탬프와의 조합은 그 사진이 어디에서(언제) 찍혔는지를 식별함으로써 그들에 대해 이루어진 요청에 따라 찍혔는지의 여부를 확인하기에 충분하다. 위에서 제공된 이미지 캡처 설명은 또한 디지털 비디오 카메라, 비디오 설정을 구비한 디지털 카메라 또는 이동 사진으로 어셈블링될 수 있는 일련의 스틸 프레임들을 순식간에 캡처할 수 있는 스틸 모션 카메라를 사용하여 비디오 이미지들을 캡처하는 것에도 적용될 수 있다는 것에 유의해야 한다.
다른 실시예에서, 요청들은 동일한 이벤트에 존재하는 복수의 사진 제공자들에게 전송될 수 있지만, 동일한 대상 또는 이벤트를 향하는 이미지-캡처 하드웨어에 따라 상이한 GPS 위치들로 위치될 수 있다. 이러한 방식으로, 원격 디바이스 사용자들 A 및 B 는 원격 디바이스 애플리케이션(들)로부터의 콤파스 데이터 및 GPS를 사용하여 동시에 타겟 대상 또는 이벤트 C의 이미지(들)을 캡처함으로써 타겟 C를 삼각측량할 수 있다. 이동하는 타겟의 위치, 방향, 속도, 및 배향은 적절한 간격들에 있는 시간 구간 동안 캡처되는 콤파스 정보 및 GPS 로부터 삼각 측량에 의해 계산될 수 있으며 각각의 이미지에 대해 태깅된다. 각각의 원격 디바이스 사용자들은 타겟 대상의 움직임을 따르거나 추적하게 되고, 캡처된 이미지들과 연관된 메타데이터로서 시간, GPS 및 방향 정보를 저장하며, 또는 그 정보를 서버로 전달하여 그 후의 시간에서의 계산들에 사용 및 저장된다. 상기 GPS 및 방향 정보는 매 초마다 수집될 수 있고, 더욱 바람직하게는 매 초마다 복수의 배로 수집될 수 있으며, 상기 적절한 간격은 캡처될 필요가 있는 상세 양 또는 대상의 속도에 기초하여 결정된다. 그러므로, 타겟 C의 GPS 및 콤파스 위치는 삼각 측량으로부터 초래된다. 또한, 이것은 셀 폰 사용자들이 그 타겟을 따르는 경우 이동 타겟에 대해 참이다(즉, 우리는 매 초마다 서버에 대해 삼각 측량을 위한 좌표를 조사한다). 이동 디바이스 사용자들의 어느 한쪽 또는 양쪽 모두는 이미지 또는 일련의 이미지들에 대한 명칭 또는 설명을 할당함으로써 이에 의해 타겟 C를 이벤트 D로서 라벨링할 수 있다. 상기 이벤트 정보 및 라벨은 임베딩되거나 그렇지 않으면 캡처된 이미지(들)에 첨부된다. 모든 다른 제 3 당자인 시청자들은 타겟 C를 찍거나 뷰잉한 경우 이벤트 D로 라벨링된 이미지들을 수신할 수 있다. 또한, 이 실시예에 관하여, 동일한 이벤트에 존재하는 복수의 이미지 제공자들은 동일한 이벤트에 있는 별개의 사람 또는 대상들에 그들의 이미지 캡처 하드웨어를 초점 맞출 수 있으며(예컨대, 연기자, 뮤지션, 운동선수, 말, 경주용 자동차, 열기구 등), 여기서 각각의 사람 또는 대상은 별개의 타겟 C를 구성하며, 각각의 별개의 타겟 Ci-Cn의 이미지들이 상기 이미지 제공자들에 의해 캡처된다. 상기 복수의 이미지들은 상기 이벤트 중의 시간 구간 동안 또는 동시에 캡처될 수 있다.
본 발명의 각종 비한정적 실시예들에서, 상기 태깅된 이미지 및 식별 정보는 원격 디바이스들 중의 어느 한쪽 또는 양쪽 모두로부터 지리적으로 분리될 수 있는 서버에 저장될 수 있으며, 상기 서버는 임베딩할 수 있고 그렇지 않은 경우 소셜 네트워크를 통한 데이터베이스에의 저장, 웹 사이트에의 포스팅, 쿼링, 및 상기 이미지 및 정보를 시청자들과 공유하기 위해 상기 이미지에 대해 식별 사진 정보를 첨부할 수 있다. 상기 서버는 상기 캡처된 이미지 및 임베딩된 정보를 원격 애플리케이션을 실행하는 다른 사용자들 또는 통지나 업데이팅 서비스에 가입한 다른 사용자들에게 전달할 수 있다.
이제 도 1에 도시된 흐름도를 참조하여 바람직한 실시예의 비한정적 예를 설명하도록 한다. 이벤트 주최자는 이벤트를 등록하고 다음을 포함하는 이벤트 정보를 기입한다: 이벤트 명칭, 이벤트 채널, 이벤트 설명, 이벤트 날짜, 이벤트 시간, 및 이벤츠 위치. 상기 이벤트 정보는 서버 상에서 실행되는 데이터베이스 프로그램으로 기록된다. 스마트폰과 같은(예컨대, Droid®, iPhone®) 원격 디바이스를 구비한 제 1 당사자는 디바이스 상에서 애플리케이션 프로그램을 턴 온한다. 상기 애플리케이션은 원격 디바이스가 액티브 상태에 있으며 그것의 GPS 포지션을 서버들로 전송하는 것에 의해 그 디바이스의 위치를 제공한다는 것을 서버 시스템에게 통지한다. 상기 서버는 원격 디바이스의 GPS 좌표들의 명시된 근처 내의 이벤트들을 식별하고, 그러한 이벤트들의 리스트를 원격 디바이스 및 제 1 당사자인 이미지 제공자에게 전달한다. 상기 이벤트 정보는 원격 디바이스로 전송되어 사용자 인터페이스의 태깅 특징을 파퓰레이팅(populating)한다. 상기 제 1 당사자는 이벤트의 사진을 찍고, 선택적으로 그 사진에 이벤트 명칭, 타이틀, 및 사진과 이벤트의 설명을 태깅한다. 지리적 데이터, 제 1 당사자 데이터, 이벤트 명칭, 타이틀, 및 설명을 포함하는 태깅된 메타데이터 및 사진은 서버들에 기록 및 저장된다. 공중 또는 다른 제 3 당사자들은 그 후에 이벤트 시청자를 사용하고 또한 명칭, 날짜, 위치 및/또는 채널에 의해 특정 이벤트를 선택하는 것에 의해 사진들을 선택하는 것에 의해 저장된 사진을 관람할 수 있다. 제 3 당사자들은 웹상에 저장된 사진들을 관람할 수 있고 또는 선택된 것들을 휴대폰 또는 다른 원격 또는 이동 디바이스로 다운로드할 수 있다.
본 발명인 방법의 바람직한 실시예의 비한정적이고 예시적인 예에서, 서비스 제공자는 CrowdOptic 이며, 이벤트 주최자는 공공 이벤트를 주최하는 프로모터이다. 상기 이벤트 주최자는 인터넷, 이메일, 텍스트 메시징, 인스턴트 메시징, 웹페이지 로그온, 텔레커뮤니케이션 또는 당업자에게 알려진 다른 통신 방법에 의해 CrowdOptic 와 통신하여 곧 있을 이벤트를 등록한다. CrowdOptic 는 프로모터 계좌에 대한 요청을 기록하며, 데이터베이스에 그 이벤트를 등록한다. 이벤트를 고유하게 식별하고 특정 이벤트에 대해 제출된 모든 이미지들 또는 비디오들에 태깅하는데 사용될 특정 데이터 필드들이 상기 이벤트에 할당되는데, 상기 이벤트 및 이미지들을 식별하고 태깅하는데 사용되는 정보는 다음을 포함한다: 이벤트 명칭, 이벤트 프로모터 또는 주최자, 이벤트 채널, 이벤트 설명, 이벤트 날짜, 이벤트의 특정 시간, 이벤트의 특정 위치, 개개의 서브-이벤트를 분류하기 위한 특정 시간 및 특정 위치, 예컨대 일반 또는 전체 이벤트를 구성하는 개별 동작들 또는 표현들. 개개의 연기자들, 스폰서들, 회사들, 제품들, 시위들 등의 명칭과 같은 추가 정보가 또한 각 서브-이벤트를 식별하기 위해 제공될 수 있다. CrowdOptic 는 인터넷 또는 텔레커뮤니케이션 채널, 예컨대 이메일 알림, 텍스트 메시지, 인스턴트 메시지, 웹-포스팅, 또는 당업자에게 알려진 다른 수단에 의해 그들의 원격 또는 이동 디바이스들 상의 연관된 모바일 애플리케이션을 실행하고 있는 사진사들 및 이미지 제공자들에게 곧 있을 이벤트의 통지를 전달함으로써 이미지 제공자들에게 그 이벤트의 이미지들 또는 비디오들을 캡처할 기회를 알린다.
또한, 상기 통신은 특정 이벤트를 식별하는데 사용되는 모든 정보를 포함하고, 이에 따라 이미지 제공자는 그것의 시간, 위치 및 설명에 의해 상기 이벤트를 식별할 수 있고, 그 후에 이미지가 캡처된 경우 각각의 캡처된 이미지에 메타데이터로서 이벤트 정보 및 시간 스탬프를 태깅하며, 이에 따라 정확한 이벤트와 연관되어 정밀하게 식별될 수 있고 또한 CrowdOptic 데이터베이스에 적절히 저장될 수 있다. 상기 이미지 제공자는 상기 이벤트에 존재하고 있으며, 상기 이벤트의 하나 이상의 이미지들 및/또는 비디오들을 캡처한다. 각각의 캡처된 이미지에는 애플리케이션 프로그램에 의한 식별 정보가 태깅되며, CrowdOptic 에 의해 운영되는 서버로 다시 자동 전송된다. 상기 서버 프로그램은 수신된 이미지 또는 비디오에 대해 원격 애플리케이션에 의해 부여된 메타데이터를 사용하여 이미지 또는 비디오가 연관된 정확한 이벤트를 식별하고, 그 식별된 이벤트에 할당된 데이터베이스에 이미지 또는 비디오 데이터를 저장한다. 상기 시간 스탬프는 데이터베이스에의 저장을 위해 수신된 이미지들을 적절한 순서로 조직화하는데 사용된다.
예시적 예의 다른 변형에서, CrowdOptics 는 원격 애플리케이션 프로그램 또는 이미지 제공자로 통지를 전송하지 않으며, 대신에 이미지 제공자는 원격 디바이스 애플리케이션을 활성화시키고 애플리케이션 사용자 인터페이스를 사용하여 이벤트들의 리스트를 파퓰레이팅하도록 업데이트들을 다운로드하며(이것은 스크롤-다운 리스트로 제공될 수 있음), 또한 서버로부터 추가 정보를 획득하기 위해 모든 사용가능한 이벤트들의 리스트로부터 특정 이벤트 또는 이벤트들을 선택한다. 추가의 식별 정보가 사용자 인터페이스의 태깅 부분을 파퓰레이팅하고, 이것은 전술한 바와 같이 전송 및 데이터베이스에의 저장을 위해 각각의 캡처된 이미지를 태깅하는데 사용된다.
다음의 예들은 현재 청구된 본 발명의 범위를 제한하는 것을 의미하지 않으며, 여기에 기술된 방법 및 시스템의 바람직한 실시예들의 특정 특징들 또는 애플리케이션들을 더욱 기술하기 위한 것으로 의도된다.
제 1 예는 12:00 AM 에 타임 스퀘어를 들르는 New Years Ball 의 이미지들 및 비디오들을 요청하는 주최자에 관한 것이다. 상기 요청은 필수 애플리케이션을 실행하는 모든 제 1 당사자 및 타임 스퀘어의 바로 인근에 있는 것으로 결정되는 모든 등록된 전문 사진사들에게 전달된다. 모든 이미지 제공자들은 상기 요청을 수신하면, 따라서 본 이벤트의 하나 이상의 이미지들 또는 비디오들이 획득되어 상기 주최자에게 다시 전달될 수 있다. 상기 주최자는 아마도 그 주최자의 서버에 다시 전달된 몇몇 이미지들을 수집 및 저장할 수 있으며, 전문 이미지 제공자로부터 얻은 각 이미지에 대해 비드 가격을 지급할 수 있다. 하나의 이벤트에 대한 복수의 이미지들이 애플리케이션 및 서버 소프트웨어에 의해 결정되는, 그것의 위치, 설명, 및 시간을 나타내는 각 태깅된 이미지의 메타데이터에 기초하여 모자이크 또는 콜라주 또는 시간 순서로 컴파일 될 수 있다.
제 2 예에서, 원격 전자 디바이스는 백그라운드에서 실행하는 애플리케이션 소프트웨어를 가지고 New Years Eve 상의 타임 스퀘어와 같은 일 위치를 향하는 것으로 유지되어, 그 위치, 설명 및 실시간과 일치하는 요청 또는 통지가 수신될 때마다 원격 디바이스의 이미지 캡처 하드웨어를 활성화시킬 수 있다. 이미지 캡처는 연산자 "체킹 인(checking in)"의 관여 없이 자동으로 처리될 수 있으며 또는 이미지 캡처를 트리거링할 수 있다.
제 3 예에서, 동일한 이벤트(예컨대, NASA에 의한 우주 발사)에 존재하는 복수의 사진 제공자들은 복수의 뷰들을 사용하는 것에 의해 상이한 시간에서, 상이한 각도들로, 상이한 위치들로부터 복수의 이미지들을 캡처함으로써 그 이벤트의 더욱 양호한 커버리지를 제공할 수 있으며, 일 방향으로부터 캡처되는 이미지의 품질을 감소시킬 수 있는 간섭의 영향, 예컨대 조명의 변화, 날씨 또는 물리적 방해물의 영향들을 방지할 수 있다.
제 4 예에서, 상기 이벤트는 빌딩 또는 운동장을 통해 위치된 복수의 판매회사 부스를 구비한 시사회 또는 박람회이며, 전시품들 및 시연이 매일 상이한 시간에 존재하게 된다. 이벤트 프로모터는 그 이벤트에 주최자를 등록하고 전시품의 위치의 상세 리스트 및 그러한 전시품 각각에 대한 이벤트들의 스케줄을 주최자에게 제공한다. 상기 등록은 등록 페이지를 포함하는 주최자의 웹사이트를 사용하여 또는 등록 정보를 주최자에게 전송하는 원격 디바이스를 사용하여 달성될 수 있다. 주최자는 이벤트 명칭, 이벤트 채널, 이벤트 설명(예컨대, 전자 쇼, 자동차 쇼, 골동품 쇼 등), 이벤트 날짜 및 시간, 그리고 이벤트 위치(예컨대, 특정 호텔, 콘벤션 센터, 박람회장 등)를 포함하는 일반적인 이벤트 정보를 등록하며, 전시품의 명칭, 특정 위치, 전시의 설명, 및 날짜, 특정 시연 또는 프리젠테이션의 시간 및 위치를 포함하는 각각의 서브-이벤트 및 일반 이벤트에 대한 데이터베이스 엔트리들을 생성한다. 상기 컴파일된 정보는 애플리케이션을 실행하는 복수의 이미지 디바이스들로 전달되며, 실행 애플리케이션을 구비한 제 1 당사자인 이미지 제공자들에 대한 리스트로 제공된다. 상기 원격 디바이스들 그들의 각각의 GPS 데이터를 주최자에게 전송하여 하나 이상의 이미지 제공자들에게 그 위치를 명시하고, 이에 따라 이벤트에 관한 정보는 서버 애플리케이션에 의해 프리스크리닝될 수 있으며 로컬 이벤트들에 관한 정보만이 원격 디바이스들로 전달된다. 하나 이상의 이미지 제공자들은 그 이벤트의 전체에 걸쳐 동시에 그러나 상이한 위치에 발생하는 상이한 전시 또는 시연에 관한 이미지들을 캐처할 수 있으며, 또는 상이한 시간이지만 동일한 위치에 있는 전시 또는 시연을 캡처할 수도 있다. 각각의 원격 디바이스를 실행하는 각각의 애플리케이션은 각각의 캡처된 이미지에 특정 서브-이벤트 시간 및 위치에 관한 적절한 식별 정보를 태깅하고, 그 태깅된 이미지(들)을 주최자의 서버로 전송한다. 물리적 배치 또는 이벤트의 위치는 GPS 좌표, 및 모션의 방향 또는 콤파스 헤딩에 의한 대향에 의해 정의될 수 있다. 상기 서버 애플리케이션은 각 이미지에 태깅된 메타데이터에 기초하여 상이한 제 1 당사자 이미지 제공자들에 의해 제공되는 모든 이미지들을 소팅하고, 상기 이미지들을 상기 정보에 기초하여 생성된 연관된 데이터베이스들과 상호 연관시키고, 또한 적절한 데이터베이스들에 정확한 이미지들을 저장한다. 상기 서버는 다른 시청자들을 위한 특정 웹 페이지들에 저장된 이미지들을 포스팅함으로써 그들의 관심에 기초하여 실시간으로 특정 전시 부스들 또는 관심 또는 특정 시연들에서 일어나는 것을 확인할 수 있다. 또한, 이러한 이미지들 또는 비디오들은 전시품 회사 본사에서 다운로드되어서 현장에서 지연된 레포트를 수신하는 것을 기다리는 대신에 시장에서 수신되는 신규 제품에 대한 평가를 확인할 수 있다. 또한, 이 예에 관하여, 실시간 데이터 수집 또는 상기 수집된 이미지들 또는 비디오들의 각각의 메타데이터 태깅은 주최자 또는 제 3 당사자에 의해 수집되며 또한 애플리케이션 프로그램에 의해 추출된다. 상기 추출된 데이터는 시간, 날짜, GPS 위치, 초점 방향, 및 임의의 다른 선택된 데이터 필드들 또는 태그들, 예컨대 초기 인기도에 의해 컴파일되며, 분석을 위해 저장된다. 동일 애플리케이션 프로그램 또는 별개의 애플리케이션 프로그램이 상기 컴파일된 데이터를 분석하여 이벤트의 코스에 따라 각 벤더 부스에서 수집된 각 대상 또는 이미지들에 초점이 맞추어진 이미지 제공자들의 수를 결정할 수 있으며, 또는 상기 데이터를 더욱 정교하게 분석함으로써 각 판매회사 부스에서의 각 전시품 또는 시연을 위해 수집된 이미지들의 개수를 결정할 수 있다. 상기 정보는 각 부스, 이벤트 또는 시연에 참여한 이미지 제공자들의 비율, 및/또는 이미지 제공자들 및/또는 수집된 이미지들의 총 개수에 비해 각 부스, 이벤트, 또는 시연의 수집된 각 대상 또는 이미지들 및 오디오들에 초점을 맞추고 있는 이미지 제공자들의 수에 기초하여 가장 인기있는 판매회사 이벤트들, 및 시연들을 결정하는데 사용될 수 있다. 상기 수집된 데이터는 상기 판매회사들로 제공되어서 어떤 것들이 가장 큰 군중들을 이끌고 있으며 어떤 이벤트들 및 시연들이 가장 주목을 끌고 있는지를 식별할 수 있다.
제 5 예에서, 상기 이벤트는 동시에 스테이지에 복수의 밴드 멤버들을 갖는 콘서트이며, 쇼 도중에 각종 지점들에서는 상기 스테이지를 돌거나, 진입하거나 떠나고 있다. 복수의 이미지 제공자들은 동시에 스테이지에 존재하는 개개의 밴드 멤버들의 이미지들 및 비디오를 획득할 수 있으며, 그 이미지들을 애플리케이션 서버로 전달할 수 있다. 상기 이미지 캡처 디바이스들로부터 전송되는 실시간 데이터 수집은 애플리케이션 프로그램에 의해 실시간으로 서버 시스템으로 수집될 수 있다. 상기 수집된 데이터는 시간, 날짜, GPS 위치, 초점 방향, 및 임의의 다른 선택된 데이터 필드들 또는 태그들, 예컨대 초기 인기도에 의해 컴파일된다. 상기 이미지 캡처 디바이스들의 GPS 위치 및 초점 방향은 삼각 측량을 통해 상기 이미지 캡처 디바이스들의 초점의 지점을 계산하는데 사용된다. 본질적으로 동일한 위치 또는 연기자에 초점을 맞추고 있는 이미지 제공자들의 수는 통계적으로 분석될 수 있는 클러스터 지점들을 생성하여 상기 특정 시간에 각 밴드 멤버에서의 군중의 관심 레벨을 결정한다. 동일 애플리케이션 프로그램 또는 별개의 애플리케이션 프로그램이 상기 실시간 데이터를 분석하여 이벤트의 코스에 따라 각 연기자에 초점이 맞추어진 이미지 제공자들의 수를 결정할 수 있으며, 또는 상기 데이터를 더욱 정교하게 분석함으로써 상기 이벤트 도중의 특정 시간에 특정 위치를 향하는 이미지 제공자들의 수를 결정할 수 있다. 상기 정보는 상기 쇼에서 상이한 대상들에 초점을 맞추고 있는 시간 구간 동안 존재하는 이미지 제공자들의 총 수와 비교되는 각 연기자에 초점을 맞추고 있는 이미지 제공자들의 비율에 기초하여 가장 인기있는 연기자를 결정하는데 사용될 수 있다. 상기 데이터는 판매회사 또는 광고주에게 제공되어 어떤 연기자가 가장 주목을 끌고 있는지를 식별하게 할 수 있다.
제 6 예에서, 상기 이미지 제공자들은 테니스 시합의 청중에 있을 수 있으며, 시함에 참여하는 각 테니스 선수들은 코드의 특정 사이드에서 시작하게 되고, 이것은 시함의 시작에서 이미지 제공자들의 GPS 위치 및 초점 방향을 통해 판정가능하며, 시합의 상대방에 비교되는 상대적 인기도를 갖는다. 일 시점에서 복수의 이미지 제공자들 중의 2 제공자의 초점을 삼각측량하고, 시간에 따른 각 선수의 위치를 추적하고, 특정 시간에 또는 시간 구간 동안 각 선수들에 초점을 맞추고 있는 이미지 제공자들의 수를 결정하는 것에 의해, 그 시합 중의 관심 지점들 및 특정 시간들이 결정될 수 있고, 통계 분석이 행해져서 각 선수들에 대한 새로운 상대적 인기도들을 결정할 수 있다. 상기 상대적 인기도들은 이벤트 주최자들에 의해 사용됨으로써 상기 새로운 상대적 인기도들에 기초하여 후속 시합들에서 각 선수에게 주어질 광고 시간의 양을 결정할 수 있다. 또한, 광고 시간의 양은 이미지 제공자들의 이미지 캡처 디바이스들로부터 전송되는 데이터의 분석에 의해 실시간으로 결정되는 청중 선호도에 기초하여 실시간으로 조정될 수 있다. 또한, 그들이 시합을 관람하고 있는 동안 상기 이미지 제공자들에게 다시 정보가 전송될 수 있으며, 상기 정보는 시합의 스코어, 운동선수에 관한 배경 사실들, 코트 또는 이벤트 위치에 관한 정보, 공공 서비스 및 안전 알림, 또는 이벤트에서 팔리고 있는 제품 또는 운동선수들에 의해 홍보되고 있는 제품에 관한 광고들을 포함한다.
다른 예는 개인적 수집들, 예를 들어, 오후에 상이한 레스토랑들 또는 위치들에 관련될 수 있는 친구들일 수 있다. 상기 참석자는 이벤트 동안 이미지들의 사진을 찍을 수 있으며, 태깅 및 링킹에 의해 서비스 및 애플리케이션이 그 수집에 따라 참석자들에 대한 집합적 부분(collective piece)을 자동으로 생성할 수 있다. 유사한 아메리카 컵 요트 경주(America's Cup Yacht race)와 같은 보트 경우와 관련될 수 있으며, 원격 디바이스 사용자 A는 텍스트 "결승선까지 X 미터, ESPN 에 의해 당신에게 전달됨" 이라는 문구로 나타나는 요트의 실시간 GPS 위치를 포함하는 이벤트 D를 할당한다. 사용자 C는 이벤트 D를 실시간으로 수신하는 셀 폰으로 아메리카 컵 요트를 관람한다. 또한, 상기 애플리케이션 또는 서비스는 상기 이벤트에 있는 다른 참석자들의 식별자 또는 다른 식별 정보 예컨대 급작스럽게 추가적인 사회적 상호작용을 나타나게 할 수 있다(예컨대, 별개의 또는 통합적인 소셜 네트워킹 애플리케이션을 검색하는 것에 의해). 풀다운 메뉴 또는 다른 상호작용 옵션은 이미지가 찍히기 이전에, 도중에 또는 이후에 이미지들을 태깅하기 위해 하나 이상의 태그들 또는 식별자들을 개인이 선택할 수 있는 애플리케이션을 사용하여 생성될 수 있다. 또한, 상기 옵션은 태그를 사용하는 옵션을 이용하여 팝-업으로서 자동 디스플레이될 수 있으며, 원하는 경우, 서비스 제공자에게 이미지 또는 미디어를 제출하는 추가 옵션으로(예컨대, 공개를 위해) 자동 디스플레이될 수 있다.
이 기술의 양태들은 이벤트와 함께 이미지들 또는 다른 매체를 수집 및 조직화할 수 있는 이점을 제공한다(예컨대, 명시된 타임 윈도우를 구비하는 것, 명시된 지속시간을 갖는 것, 지속시간에 무제한 적인 것, 개인에 의해 수행되는 계획된 행동들로 링크되는 것 등). GPS나 다른 위치 식별 또는 추적 기술들은 상기 방법들 또는 시스템들의 일부로서 구현될 수 있다.
컴퓨터, 이동 디바이스, 또는 서버와 같은 하드웨어 상에 실행되는 소프트웨어가 구현되어 예시적으로 위에서 기술한 시스템들 및 방법들을 제공할 수 있다.
컴퓨터 판독가능 매체(예컨대, 이동 디바이스들, 서버들 상의 일 위치 또는 복수의 위치들 등)에는 여기에서 예시적으로 기술된 하나 이상의 방법들 및 여기에서 고려된 비한정적 변형들로 구성되는 컴퓨터 실행가능한 명령어들을 포함하는 하나 이상의 실행가능한 애플리케이션들이 기록될 수 있는 것으로 구현될 수 있다.
본 발명의 실시예의 일 예는 관측자들이 지리적으로 분산되어 있는 이벤트에 존재하는 복수의 개인들과 관련되며, 예를 들어, 퍼레이드, 마라톤에 있어서 거리를 따르는 것이 되고, 또는 블록 파티(block party)나 아카데미 시상식과 같은 이벤트의 인근 전반이 된다.
이러한 경우들에서, 각 관측자의 활성 이미지 캡처 디바이스는 다른 관측자들로부터의 복수의 다른 시선들과 교차하는 상기 디바이스의 콤파스 헤딩을 따라 그들의 GPS 포지션으로부터 시선을 형성하고, 이에 의해 모든 활성 이미지 캡처 디바이스들로부터의 모든 교차 시선들에 의해 형성되는 클러스터의 일 부분으로서 해석될 수 있는 복수의 교차 지점을 생성한다. 이러한 케이스에서는, 제 1 관측자의 시선을 따르는 어떤 복수의 교차 지점들 중의 어떤 것이 실제의 초점 대상을 결정하는지를 결정하는 것이 곤란하다.
상기 서버 애플리케이션은 넓은 지리적 영역 위에 위치되는 복수의 디바이스들로부터 시간, 포지션 및 방향 데이터를 수신하고, 상기 복수의 교차 지점을 계산하고, 또한 서로에 대한 교차 지점들의 근접도로 인하여 클러스터가 빠져나가는지를 결정하지만, 추가의 필터링 및 분석은 어떤 것이 상기 계산들의 노이즈 및 아티팩트들을 구성하는지와 어떤 것이 실제 관심 대상들인지를 결정할 필요가 없다. 상기 데이터를 저장하고 시간 구간 동안 상기 시선들을 따르는 것에 의해, 상기 서버는 어떤 교차 지점이 예상된 방식으로 거동하고 있는지와 어떤 교차 지점이 불규칙한 방식으로 이동하고 있는지 또는 전체적으로 상기 클러스터로부터 사라지고 있는지를 결정할 수 있다. 상기 서버 애플리케이션은 이러한 후속적인 관측들을 사용하여 어떤 지점이 노이즈 였는지를 결정할 수 있으며, 다시 계산하여 부적절하게 일찍 형성되어 식별된 그들 교차 지점을 계산할 수 있고 또한 관측자들과 적절성의 퍼센티지를 위해 통계적 계산들로부터 그것들을 제거할 수 있다.
다른 예에서, 활성 이미지 캡처 디바이스들을 가진 복수의 관측자들은 풋볼 게임과 같은 이벤트에 있을 수 있으며, 대다수의 관측자들은 스탠드 내에 위치해 있고 필드에 초점을 맞추고 있지만, 스타디움의 통로 내와 주차장 바깥쪽에는 스트래글러(straggler)들이 존재한다. 대부분의 시간 동안, 스타디움의 안쪽에 존재하는 디바이스들은 필드에 존재하는 상이한 플레이어들에 초점을 맞추게 되며, 그보다 정도는 덜하지만 사이드라인에 있는 플레이어들과 코치들과 치어리더들에게 초점을 맞추게 된다. 주차장에 있는 이미지 캡처 디바이스들은 램덤하게 흩어지는 것으로 나타나게 될 수 있고 이것은 교차 지점이 되며, 이에 따라 높은 밀도의 영역은 존재하지 않게 된다. 필드를 향해 초점을 맞추고 있는 모든 이미지 캡처 디바이스들은 다른 이미지 캡처 디바이스들로부터의 시선들과 복수의 교차 지점을 형성하게 된다. 상기 서버 소프트웨어는 상기 복수의 이미지 캡처 디바이스들로부터 전송되고 있는 데이터를 컴파일할 수 있고 그 교차 지점의 세트를 계산할 수 있다. 상기 교차 지점의 세트는 특정 영역들에 위치해 있는 상기 교차 지점들의 밀도에 기초하여 실제 관심 대상들 주위의 클러스터들을 식별하도록 분석될 수 있다. 이들 높은 밀도 클러스터들은 실제 초점을 맞추고 있는 타겟들을 식별하기 위해 사용될 수 있다. 쿼터 백, 와이드 리시버들 및 러닝 백들과 같은 몇몇 플레이어들은 랜덤 라인맨보다 더욱 많은 주목을 받게 되며, 이에 따라 이 정보는 노이즈를 필터링하고 실제의 관심 대상들을 식별하는데 도움을 주기 위해 또한 사용될 수 있음이 인지된다.
도 1에 도시된 바와 같이, 더욱 많은 라인들이 패스를 잡기 위해 다운필드를 향하는 와이드 리시버에서 그리고 러닝 백 및 쿼터 백에서 교차하지만, 다수의 다른 교차 지점들은 어떤 플레이어 또는 눈에 띄는 이벤트와 관련이 없는 필드에서 발생하게 된다. 상기 교차 지점들은 의도하지 않은 교차 지점들 주위보다 실제의 관심 대상 주위에서 훨씬 더 고밀도로 채워져 있으며, 이에 따라 상기 서버는 클러스터들의 밀도의 통계 분석에 의해 이러한 아티팩트들 사이를 구별할 수 있다.
도 1에는 작은 수의 관측자들 및 교차 라인들만이 나타나 있지만, 실제 이벤트에서는 훨씬 많은 개수가 존재하게 되며, 훨씬 많은 통계 관련 세트의 데이터가 시선들 및 계산된 교차 지점들에 의해 생성되어 실제의 관심 대상들에 초점이 맞추어진 훨씬 큰 비율의 관측자들 및 훨씬 높은 클러스터 밀도를 만들게 된다. 플레이는 시선들을 발생시키게 되므로, 교차 지점은 그 플레이를 따라가도록 이동되며, 서버는 이미지 캡처 디바이스들로부터 수신되는 데이터를 필터링하여 모든 교차 시선들에 대한 삼각측량 계산들을 반복 수행하게 된다. 관련되지 않는 지점들이 결정되어 서버 리소들에 대한 계산들로부터 드롭될 수있다. 또한, 다른 당사자들은 통계 정보를 수신할 수 있으며, 그것을 사용하여 그 이벤트의 다른 측면들, 예컨대 가장 높은 클러스터 밀도를 나타내는 위치에 대한 TV 카메라들을 포커싱하는 것과 전체 관중이 보고 있는 스타디움 와이드-스크린 디스플레이 상에 특정 이미지를 디스플레이하는 것을 지시할 수 있다. 마찬가지로, 팀, 스폰서, 및 광고주는 관련 클러스터들에 관한 정보를 수신하여 플레이어의 이름 및 및 통계와 같은 정보를 관측자들이 보게 될 이미지 캡처 디바이스들로 다시 전송할 수 있으며, 또는 특정 광고들이 관측자 디바이스들로 전송될 수 있다. 광고주들은 가장 인기있는 플레이어들에 관한 광고 시간의 분량에 대해 미리 비딩할 수 있으며, 또는 플레이어가 특정 플레이에 대해 현재 받고 있는 관심 량에 기초하여 실시간으로 비딩할 수도 있다.
다른 예에서, 적은 개수의 디바이스들에 대한 포커스의 방향은 포커스의 일 지점에서 다른 위치로, 예컨대 갑자기 일어나 몇몇 새로운 이벤트나 소란으로 인해서 필드에서 스탠드로 갑자기 이동할 수 있다. 갑자기 바뀌는 포커스의 방향 때문에, 서버는 이러한 디바이스들로부터 데이터 스트림을 초기에 필터링할 수도 있고, 콤파스 헤딩(compass heading)이 다시 상대적으로 일정하게 된 경우에는, 그들 디바이스들로부터 GPS 및 방향 데이터 스트림을 받아들이게 되어 새로운 교차 지점을 결정하기 위한 삼각측량 계산을 수행하게 된다. 더욱 많은 관측자들이 필드에서 스탠드로 그들의 관심 및 포커스를 변환함에 따라, 서버 애플리케이션은 그 위치에 대한 클러스터 밀도의 급격한 증가를 검출하게 되며, 그 이동이 스탠드에서의 통계적으로 유의미한 발생을 나타내고 있는 것으로 결정할 것이다. 기대되는 관심 영역 바깥쪽의 위치에서의 새로운 이벤트의 발생은 다른 당사자, 예컨대 보안 단체에게 정보와 이미지들을 전송하도록 하는 플래그(flag)로서 사용되어, 필요한 경우 그 정보를 스크리닝하여 조사하도록 할 수 있다. 관측자들의 디바이스로부터 전송되는 이미지들 및 메타데이터가 스탠드에서의 싸움과 같은 위기 사태를 묘사하고 있는 경우, 그 클러스터의 위치에 대응하는 위치로 보안 업체가 즉시 파견될 수 있다. 이러한 상이한 발생들을 식별하기 위한 동적 클러스터들의 사용은, 그 이벤트의 바로 인근에 있는 관측자들이 그 상황을 알아채고서 훨씬 더 빠르게 그들의 초점을 변경시키기 때문에, 훨씬 더 빠른 대응을 생성하는 이점을 가지며, 보안 업체는 전체 관중 및 스탠드들을 스캐닝하여 이러한 상황을 인식하게 된다. 또한, 이벤트가 전개됨에 따라, 관심 레벨은 직접적인 위치로부터 훨씬 멀리있는 관측자들로 전파해 나가게 된다. 이러한 포커스 이동의 전파는 또한 통계적으로 분석되어 그 상황이 시작된 곳, 관측자들의 관심이 그 새로운 상황으로 이동한 비율, 및 생성된 클러스트의 사이즈에 기초하는 그 상황의 중요도를 결정할 수 있다.
다른 예로서, 거리에 있는 사람들은 화재가 난 빌딩을 인식할 수 있다. 다수의 관측자들은 자신의 전자 디바이스들을 활성화하여 그 이벤트의 이미지들을 캡처하게 된다. 애플리케이션 프로그램은 서버 시스템과의 통신 연결을 확립하게 되며, GPS 포지션 및 방위 데이터를 서버로 실시간 전송하기 시작한다. 그 이벤트에 초점을 맞추고 있는 2 명의 관측자들은 클러스터를 형성하는 교차 시선들을 생성한다. 그 위치에는 한정된 개수의 활성화된 전자 디바이스들만이 존재하고 있고 통계적으로 유의미한 개수의 활성화된 디바이스들이 동일한 대상에 대해 초점을 맞추고 있기 때문에, 서버 애플리케이션은 상기 데이터를 수신하여 그 클러스터의 형성을 유의미한 이벤트로 인식하게 된다. 또한, 추가적인 관측자들이 조인(join)하여 추가 교차 지점을 생성하는 비율은 그 이벤트의 중요도를 표시하기도 한다. 이전에는 존재하지 않았던 클러스트의 대량 증가를 나타내는 신규의 유의미한 이벤트의 발생은, 그것이 위기 사태인지의 여부를 결정하여 적절하게 대응할 수 있는 업체일 수 있는 다른 당사자에게 통신하도록 하는 경계 경보를 야기할 수 있다. 그 결정은 관측자들의 이미지 캡처 디바이스들로부터 전송되고 있는 이미지들 및 관측자(들)에 의해 그 이미지들에 메타데이터로서 태깅된 정보(예컨대 어떤 위치에서의 "화재" 또는 "강도" 등)에 기초하여 이루어질 수 있다. 상기 이미지들과 태그 정보는 그 후에 예를 들어 화재, 강도, 자살, 또는 유명인사의 존재와 같은 것들 사이에서 이벤트를 구별하기 위해 사용될 수도 있다. 그 이벤트에 존재하여 클러스터를 생성하는 관측자들은 서로의 존재에 대해 서버에 의해 통지되어 논의 형성 옵션이 주어질 수 있으며, 또는 즉석 소셜 네트워크를 생성할 수 있다. 시간, 위치, 및 방향 데이터를 가지고 서버로 전달되는 이미지들은 또한 온라인으로 포스팅되거나 이러한 뉴스 피드들을 수신하도록 등록된 다른 사람들에게 전달될 수 있다.
도시된 도면들을 참조하여 몇몇 실시예들의 예를 더 설명하도록 한다. 도 1에는 스포츠 이벤트의 일 예가 도시되어 있으며, 여기서 관측자들(101)은 스타디움(100)의 내부 및 외부에 모두 위치되어 있다. 게임 중의 여러 시간들에서, 원격 애플리케이션을 실행하는 원격 전자 디바이스들(예컨대, 스마트폰들)을 가진 관측자들(101)은 필드 안과 필드 바깥 모두의 상이한 대상들에 초점이 맞추어져 있다. 각각의 원격 전자 디바이스들은 특정 GPS 좌표들을 가지고 있으며, 예를 들어 콤파스 헤딩(compass heading)에 의해 결정된 특정 방향을 향하고 있다. 그 속성은 각각의 전자 디바이스에 대해 고유하며, 디바이스의 위치 및 향한 방향을 실시간으로 반영하는 연속적인 데이터 스트림으로서 원격 서버에 전달될 수 있다. 서버 또는 서버 시스템은 각각의 원격 전자 디바이스들로부터 연속적인 데이터 피드들을 수신하며, 후속적인 계산들을 위해 데이터베이스 내의 데이터를 컴파일한 후 각종 알고리즘을 사용하여 분석할 수 있다. 관측자(101)에 의해 초점이 맞추어지고 있는 대상은 관측자의 디바이스로부터 멀리 전파되고 있는 시선(105)을 계산하고, 다른 원격 디바이스들로부터 나오고 있는 어떤 시선들이 상기 관측자의 시선(105)과 교차하는지를 결정하는 것에 의해 결정될 수 있다. 교차 지점(110)은 삼각 측량을 통해 계산될 수 있다. 이러한 방식으로, 복수의 교차 지점(110)이 도 1의 검은 원들로 표시된 바와 같이 식별될 수 있다. 일단 교차 지점(110)이 결정되면, 랜덤하게 흩어져 있는 개별 지점들에 비해 어떤 교차 지점이 근접하게 함께 채워져 있는 클러스터(120)가 식별될 수 있다. 예를 들어, 4개의 선들이 다운필드를 이동하면서 특정 클러스터를 생성하고 있는 와이드 리시버(150)를 가로지르고 있으며, 여기서 3개의 선은 러닝 백(160)을 가로지르고 있고 2개의 선은 쿼터 백(170)을 가로지르고 있다. 3개의 교차 라인들을 가진 추가적인 클러스터가 스크리미지 선(180)에서 발생하지만, 교차 라인들의 랜덤 배열은 특정 관심 대상들보다 통계적으로 낮은 밀도를 가지는 것으로 인식된다. 관측자의 시선과 마주치는 가장 밀집하게 채워진 클러스터를 식별하는 것은 통계적으로 관측자의 관심 대상인 것으로 고려된다. 플레이어들(140)이 필드에서 이동하기 때문에, 그 플레이가 펼쳐져서 상이한 플레이어들이 다른 액션들에 관여하는 시간에 따라 교차 지점(110)이 이동하게 된다. 상기 시스템은 교차 지점을 추적하여 상이한 플레이어와 연관된 클러스터들의 밀도의 변화를 측정하는 것에 의해, 어떤 플레이어 또는 위치에서 다른 것으로의 관심의 이동과 플레이어의 움직임 양쪽 모두를 따를 수 있다. 예를 들어, 관중들의 관심은 일단 패스가 이루어지면 쿼터 백(170)에서 와이드 리시버(150)로 갑자기 이동하게 된다. 이것은 와이드 리시버(150)의 위치에서 발생하는 교차 라인들의 개수에서의 대량 증가에 의해 표시되게 되며, 밀도의 대량 증가 및 이에 따른 그 클러스터의 관련성으로 인식되게 된다.
클러스터들의 밀도를 분석하는 것에 의해, 다른 당사자들은 관중들의 포커스 지점을 따를 수 있으며 또한 이것을 사용하여 그들 자신의 액션들, 예컨대 동일한 플레이어에 대해 텔레비전 카메라들을 동시에 포커싱하거나, 또는 그 플레이어에 초점이 맞추어진 관측자들에게 그의 이름과 통계 자료와 같은 추가 정보를 디스플레이하는 디스플레이하는 것을 지시할 수 있다.
또한, 관측자들 전자 디바이스들로 광고가 전송될 수도 있다. 예를 들어, 러닝 백이 특정 브랜드의 신발을 지원하는 경우, 러닝 백에 초점이 맞추어진 관측자들은 그 플레이어에 대해 초점이 맞추어진 시간동안에 그 신발에 대한 광고를 수신할 수 있다.
도 2에는 아카데미 시상식과 같은 실외의 이벤트의 다른 예가 도시되어 있다. 다수의 관측자들(201)이 여러 가지 거리를 따라 위치해 있으며, 다른 사람(220)에게 초점을 맞추고 있다. 상이한 클러스터들(230)이 라벨링된 원들(1527, 1193, 1541, 1530, 및 1542)로 식별되어 있다. 클러스터들은 상이한 관측자들로부터 나오는 교차 라인들(210)에 의해 생성되어 있으며, 여기서 클러스터의 밀도는 각 원의 사이즈 및 각 원에 속하는 지점의 숫자로 나타나 있다. 단위 영역마다의 지점들의 숫자는 클러스터의 밀도를 제공하며, 또한 다른 것들과 비교되는 각 클러스터의 중요도를 표시한다.
도 3은 동일한 인근에서 시간이 지나고, 이에 의해 사람들과 포커스의 방향 모두가 이동된 상황을 도시하고 있다. 각각의 클러스터들(230)은 도 2에 나타낸 것으로부터 위치, 사이즈 및 밀도가 변경되었다. 사이즈 및 밀도의 변경은 클러스터들의 중요도가 변경된 것을 나타낸다.
도 4는 데이터베이스에 필드들을 정의하고, 스마트 폰과 같은 원격 디바이스와 통신하고, 디지털 이미지를 캡처하여 서버로 전달하고, 또한 그 이미지에 태깅된 메타데이터에 기초하여 상기 데이터베이스에 이미지를 저장하는 처리를 나타내는 흐름도이다.
도 5는 본 발명의 각종 실시예들을 구현함에 있어서 포함되는 시스템의 일 예를 도시하고 있다. 컴퓨터 시스템은 데스크탑 컴퓨터들(510), 또는 멀티-프로세서 컴퓨터들 및 대형 메인프레임 타입 컴퓨터들(520), 또는 통신에 따라 결정되는 이러한 컴퓨터 시스템들의 조합을 포함하며, 데이터 수신에 필요한 전력을 처리하고, 각종 계산들을 수행한다. 데이터 스트림은 하나 이상의 휴대용 또는 이동 디바이스들(530), 예를 들어 스마트폰들, 디지털 카메라들(540) 및 비디오-리코더들과 같은 이미지 캡처 디바이스들, 또는 랩탑(550) 및 네트워크를 통해 다른 디바이스들과 통신할 수 있는 이미지 캡처 하드웨어를 구비한 태블릿 컴퓨터들로부터 전송될 수 있다. 디지털 카메라들은 랩탑 컴퓨터에 연결되어서 네트워크를 통해 컴퓨터 시스템으로 정보 및 이미지들을 전송할 수 있다. 원격 디바이스들은 무선 통신 시스템(560, 예컨대 셀룰러 네트워크, 또는 WiFi 또는 WiMax를 통해 통신할 수 있다. 디바이스는 케이블, 광섬유, 또는 PSTN과 같은 유선 네트워크(570)를 통해 컴퓨터 시스템에 연결될 수 있으며, 모든 디바이스들은 컴퓨터 네트워크 예를 들어 인터넷을 통해 상호연결될 수도 있다. 각종 원격 디바이스들은 하나 이상의 통신 네트워크들에 걸친 시간 데이터, 방향 데이터, 및 포지션 데이터를 포함하는 그들의 속성을, 적어도 애플리케이션 프로그램과 데이터베이스 프로그램을 실행시키는 컴퓨터 시스템으로 전송할 수 있다. 고정된 디바이스들, 예컨대 디지털 텔레비전 카메라들(미도시)이 또한 네트워크를 통해 컴퓨터 시스템에 연결될 수도 있다.
도 6의 흐름도에는 본 발명의 실시예의 일반 동작이 나타나 있다. 본 시스템은 컴퓨터 시스템과 통신하고 있는 하나 이상의 원격 디바이스들을 식별하며, 그 디바이스가 활성 상태이어서(즉, 전원이 공급되어 애플리케이션을 실행하고 있어서) 컴퓨터 시스템으로 데이터를 전송하고 있는지의 여부를 결정한다. 디바이스가 데이터를 전송하고 있지 않은 경우에, 예를 들어 그것이 폰으로 사용되고 있다면, 본 시스템은 다른 활성화된 디바이스들이 데이터를 전송하고 있는지를 확인하도록 체크한다. 컴퓨터 시스템이 인커밍 데이터 스트림을 검출하는 경우, 컴퓨터는 데이터 스트림을 모니터링하여 그 데이터가 계산에 사용하기에 충분히 일관성이 있는지의 여부를 결정한다. 전송된 데이터 값들이 불규칙한 경우, 그 데이터는 필터링된다. 데이터가 일관성이 있는 경우, 그 데이터는 컴퓨터 시스템에 의해 컴파일되어 분석을 위해 저장된다. 애플리케이션 프로그램은 수신 데이터를 분석하여 시선들이 가로지르는 지점들을 식별한다. 교차 지점은 추가적인 분석을 위해 컴퓨터에 의해 저장된다. 애플리케이션 프로그램은 교차 지점을 분석하여 백그라운드에 비해 더 높은 밀도의 지점들이 존재하는 곳에 위치된 관심 대상들을 나타내는 클러스터들을 식별한다. 클러스터(들)에 대한 정보는 컴퓨터 시스템에 저장되며, 상기 정보는 클러스터의 위치, 밀도, 클러스터가 나타내는 실제 대상의 타입이나 상황의 종류, 교차 지점들의 총개수와 비교되는 클러스터를 형성하는 교차 지점들의 비율, 시간 스탬프 등을 포함할 수 있으며, 상기 클러스터를 태깅 및 식별하는데 사용된다. 클러스터들은 상황이 종료하고 신규 이벤트들이 시작되거나, 관심 대상들이 이동하거나, 또는 대상이나 상황의 관심 레벨이 변경되는 시간에 따라 달라지기 때문에, 이들 변경들이 또한 저장 및 모니터링될 수 있다. 클러스터를 태깅하는 정보는 그 데이터에 관심이 있는 다른 당사자들에게 전달될 수 있다. 상기 파티들은 보안 업체 또는 뉴스 업체와 같은, 클러스터들의 이동 및 정보를 모니터링하도록 태스킹된 파티들일 수 있으며, 그 정보에 기초하여 결정을 하게 될 수도 있다(예컨대, 브로드캐스터들 및 광고주들).
도 7은 관심 대상을 삼각 측량하여 클러스터를 형성하도록 실행되는 단계들의 일 예를 도시하고 있다. 본 시스템은 원격 디바이스로부터 실시간으로 데이터를 수신하며, 그 데이터를 분석하여 그 디바이스의 시선의 방향 및 포지션을 결정한다. 상기 데이터는 디바이스에 대한 콤파스 헤딩(compass heading) 및 GPS 좌표들을 포함한다. 본 시스템은 다른 원격 디바이스에 대한 시선의 방향 및 포지션을 결정한다. 일단 시스템이 2개의 포지션들과 2개의 시선들을 가진 경우, 그 시스템은 시스템들 사이의 각도를 결정하여 그 2개의 시선들에 대한 교차 지점을 계산한다. 본 시스템은 이전의 시선들 중의 하나를 가로지르는 시선을 가진 추가 디바이스들이 존재하는지를 결정할 수 있다.
본 시스템은 각 쌍의 디바이스들에 대한 계산을 반복함으로써 시선들이 가로지르는 장소를 결정하여 지점들의 세트를 형성한다. 복수의 교차 지점이 분석되어 하나 이상의 클러스터들을 식별하며, 상기 클러스터(들)에 관한 정보가 시스템에 저장된다.
도 8은 본 발명의 방법의 다른 실시예의 단계들을 도시하고 있다.
도 9는 본 발명의 방법의 다른 실시예의 단계들을 도시하고 있으며, 본 시스템은 실시간으로 데이터 스트림을 수신하고, 그 데이터로부터 위치와 콤파스 헤딩(compass heading)을 결정하며, 시선들의 교차 지점들을 계산하고, 상기 애플리케이션 전체에 걸쳐 기술한 바와 같이 교차 지점으로부터 관심 대상들을 식별하며, 관심 대상과 연관된 사용자들의 클러스터들을 식별하고, 또한 특정 관심 대상과의 연관성 및 클러스터를 저장한다.
도 10은 위치나 대상에서의 모멘텀과 관심 량을 결정하는 단계들의 일 예를 도시하고 있다.
도 11은 위치나 대상에서의 모멘텀과 관심 량을 결정하기 위한 분석을 수행하는 삼각 측량의 다른 방법을 도시하고 있다.
도 12는 패턴들이나 클러스터들을 인식하는 방법의 단계들을 도시하고 있다.
소정의 바람직한 버전들을 참조하여 고려가능한 상세로 본 발명을 설명하였지만, 다른 실시예들이 가능하다. 그러므로, 본 발명의 사상 및 범위는 여기에 포함된 바람직한 실시예들의 설명으로 한정되지 않는다. 또한, 각각의 제공된 예들은 특정 개수의 단계들을 기술하고 있지만, 더 많거나 더 적은 단계들과 상기 기술된 순서의 변형들이 또한 고려되며, 본 발명의 원리 및 범위 이내인 것으로 고려되어야 한다. 일반적으로 여기에 기술된 예시적 통신들은 스토리지, 프로세싱, 및 인터랙션을 위한 당사자에 대한 정형 메시지들, 패킷들, 또는 데이터를 전달하는 다른 전자 신호들, 커맨드들, 또는 신호들을 포함한다는 것을 컴퓨터와 텔레커뮤니케이션 기술 분야의 당업자는 이해해야 한다. 이러한 정보는 전자 필드 및 그 필드에 저장된 데이터를 사용하여, 예컨대 데이터베이스에서, 수신 및 저장된다는 것이 또한 이해된다. 위에서 기술된 특징들, 컴포넌트들 및 방법 단계들의 전부 또는 일부는 상이한 방식으로 조합될 수 있으며, 예시된 것들 이외의 다른 변형들 및 수정들이 당업자에게 명백하다는 것이 이해되어야 한다.
특히, 본 발명의 여러 가지 실시예들은 하드웨어, 및 상이한 하드웨어 컴포넌트들 상에 분산된 소프트웨어 또는 컴퓨팅 클라우드, 그리고 전술한 기준 및 실시예들에 따른 데이터의 저장 및 처리 중의 다른 선택들로 구현될 수도 있다. 당업자는 여기에 개시된 실시예들과 함께 기술된 다양한 예시적 논리 블록들, 모듈들, 회로들, 및 알고리즘 단계들이 전자적 하드웨어, 컴퓨터 소프트웨어, 또는 양쪽 모두의 조합으로 구현될 수도 있다는 것을 더 인식할 것이다. 여기에 개시된 실시예들과 함께 기술된 다양한 예시적 논리 블록들, 모듈들, 처리들 및 기능들은 범용 프로세서(예컨대, 컴퓨터나 서버 중의 하나와 같은), 또는 다른 타입의 프로세서로 구현 또는 수행될 수 있다. 하나 이상의 예시적 실시예들에서, 설명된 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합으로 구현될 수도 있다. 소프트웨어로 구현되면, 상기 기능들은 하나 이상의 명령어들을 통해 전송되어 저장되거나 비-일시적 컴퓨터 판독가능 매체와 같은 컴퓨터-판독가능 매체 상의 코드로 저장될 수 있다. 컴퓨터-판독가능 매체는 한 장소에서 다른 장소로 컴퓨터 프로그램의 전송을 용이하게 하는 임의의 매체를 포함하는 통신 매체와 컴퓨터 저장소 모두를 포함한다. 저장 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 사용가능한 매체일 수 있다. 제한이 아닌 예로서, 그러한 컴퓨터-판독가능 매체는 RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크 저장부, 자기 디스크 저장부 또는 다른 자기 저장 디바이스들, 또는 명령들 또는 데이터 구조들의 형태로 원하는 프로그램 코드를 운반 또는 저장하는데 사용될 수 있고 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다
또한, 임의의 접속 수단(connection)이 컴퓨터-판독가능 매체로 적절히 명칭된다. 예를 들어, 소프트웨어가 동축 케이블, 광섬유 케이블, 연선(twisted pair), 디지털 가입자 라인(DSL), 또는 (적외선(IR), 무선, 및 마이크로파와 같은) 무선 기술들을 사용하여 웹사이트, 서버, 또는 다른 원격 소스로부터 송신되면, 동축 케이블, 광섬유 케이블, 연선, DSL, 또는 (적외선, 무선, 및 마이크로파와 같은) 무선 기술들은 매체의 정의 내에 포함된다. 여기에 사용된 바와 같이, 디스크(disk) 및 디스크(disc)는 컴팩트 디스크(disc)(CD), 레이저 디스크(disc), 광학 디스크(disc), DVD(digital versatile disc), 플로피 디스크(disk), 및 블루-레이 디스크(disc)를 포함하며, 여기서, 디스크(disk)들은 일반적으로 데이터를 자기적으로 재생하지만, 디스크(disc)들은 레이저들을 이용하여 광학적으로 데이터를 재생한다. 상기 조합들은 또한 컴퓨터-판독가능 매체의 범위 내에 포함되어야 한다.
이들 치환들 및 조합들의 일부 및 전부는 개별적으로 권리에 있어서 본 발명의 실시예인 것으로 고려되며, 엔지니어링 요구조건들 및/또는 컴포넌트들 사이의 통신과 전송에 적절한 통제 코드, 그리고 애플리케이션(들)의 구현은 상기 실시예들의 배치 및 사용을 통제하며 여기에서의 개별적인 실시예들을 확립함으로써 각각의 모든 것이 본 실시예이도록 한다. 그러므로, 이들 실시예들 모두는 예를 들어, 그 변형물 및 수정물은 다음의 청구범위들에 진술된 바와 같이 본 발명의 사상 및 범위 내에 속하는 것을 의미하는 것으로 의도된다.
Claims (41)
- 이벤트 또는 위치에 있는 대상의 관심 이동 레벨을 결정하는 컴퓨터 구현 방법으로서,
한 이벤트 또는 위치에서 관심 특정 대상을 컴퓨터 시스템에서 식별하는 단계;
상기 관심 대상에 관한 상기 컴퓨터 시스템에서 실시간 데이터 스트림을 수신하는 단계로서, 상기 데이터는 상기 특정 이벤트에 존재하는 하나 이상의 전자 디바이스들로부터 전송되고, 상기 전자 디바이스들은 상기 컴퓨터 시스템으로부터 원격이 되는, 수신하는 단계;
상기 컴퓨터 시스템 상에 상기 전자 디바이스들의 각각으로부터 상기 데이터 스트림을 포함하는 데이터 값들을 저장하는 단계로서, 상기 데이터 값들은 적어도 상기 전송 전자 디바이스의 콤파스 헤딩(compass heading)과 GPS 좌표를 포함하는, 저장하는 단계;
상기 GPS 포지션과 콤파스 헤딩에 기초하여 상기 전자 디바이스들의 각각으로부터의 시선을 결정하는 단계;
한 쌍의 전자 디바이스들 사이의 거리 및 방향을 결정하는 단계;
삼각 측량을 통하여 상기 쌍의 전자 디바이스들에 대한 상기 시선의 교차 지점을 계산하는 단계;
상기 이벤트에서 각각 가능한 쌍의 전자 디바이스들에 대한 거리 및 방향의 결정과 상기 지점들의 하나의 세트를 구성하기 위한 삼각 측량을 통하여 각각 가능한 쌍의 전자 디바이스들의 시선들에 대한 교차 지점들의 계산을 반복하는 단계;
상기 지점들의 서브세트가 하나 이상의 교차 클러스터들을 형성하는 장소를 결정하기 위한 세트의 교차 지점들 사이의 거리를 분석하는 단계로서, 상기 교차 클러스터는 다른 모든 지점들로부터 미리 결정된 거리 이내에 위치된 지점들의 서브세트이고, 각각의 교차 클러스터들은 관심 특정 대상과 연관되는, 분석하는 단계;
상기 교차 클러스터들의 포지션과 사이즈의 변화를 결정하기 위하여 시간에 걸쳐 상기 교차 지점들의 변화를 트래킹하는 단계로서, 상기 교차 클러스터를 형성하는 지점들의 개수의 변화들이 특정 관심 대상들 사이에서 관심 이동 레벨을 식별하는, 트래킹하는 단계; 및
상기 이벤트에서 상기 클러스터들의 형성을 모니터링하기 위한 제3 당사자에게 클러스터의 위치를 전송하는 단계를 포함하는, 컴퓨터 구현 방법. - 제 1 항에 있어서,
특정 시간에 클러스터들을 형성하는 모든 서브세트들을 식별하기 위한 지점들의 상기 세트의 상기 분석을 반복하는 단계;
특정 클러스터와 연관된 관심 대상을 식별하는 단계;
상기 세트를 형성하는 교차 지점들의 전체 개수와 비교되는 특정 연관된 클러스터를 형성하는 서브세트의 지점들의 개수의 비율에 기초하여 상기 식별된 대상의 관심 레벨을 결정하는 단계를 더 포함하는, 컴퓨터 구현 방법. - 제 2 항에 있어서,
상기 제 3 당사자는 브로드캐스터이고,
상기 브로드캐스터는 하나 이상의 관심 대상들의 위치 및 관심 레벨을 수신함으로써 관람중인 청중에게 실시간으로 브로드캐스팅을 위해 어떤 대상에 초점이 맞추어지고 있는지의 결정에 도움을 주는, 컴퓨터 구현 방법. - 제 2 항에 있어서,
상기 제 3 당사자는 보안 기관이며,
일 대상에서의 특정 위치 및 관심 레벨의 이동의 비율은 그 위치에서 가능한 보안 위험을 나타내며 이에 의해 상기 보안 기관에게 그러한 위험을 알리는, 컴퓨터 구현 방법. - 제 1 항에 있어서,
클러스터를 상기 클러스터를 형성하는 지점들의 서브세트를 계산하는데 사용되는 데이터와 연관시키는 단계;
상기 클러스터와 연관된 데이터를 전송한 상기 전자 디바이스들을 식별하는 단계; 및
식별된 상기 전자 디바이스들로 다시 메시지를 전송하는 단계를 더 포함하는, 컴퓨터 구현 방법. - 제 5 항에 있어서,
식별된 상기 전자 디바이스들로 전송된 메시지는 상기 전자 디바이스들 사이의 논의 그룹을 형성하기 위한 초대(invitation)인, 컴퓨터 구현 방법. - 제 5 항에 있어서,
식별된 상기 전자 디바이스들로 전송된 메시지는 상기 관심 대상에 관한 정보를 포함하는, 컴퓨터 구현 방법. - 제 5 항에 있어서,
식별된 상기 전자 디바이스들로 전송된 메시지는 제품 또는 서비스에 대한 광고인, 컴퓨터 구현 방법. - 제 3 항에 있어서,
서버 리소스들이 시선들 및 교차 지점을 계산하는데 불규칙한 데이터를 사용하기 이전에,
상기 서버에 의해 수신된 데이터 스트림을 필터링하여 상기 불규칙한 데이터 값을 제거하는 단계를 더 포함하는, 컴퓨터 구현 방법. - 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161450092P | 2011-03-07 | 2011-03-07 | |
US61/450,092 | 2011-03-07 | ||
US201161495335P | 2011-06-09 | 2011-06-09 | |
US61/495,335 | 2011-06-09 | ||
US201161539718P | 2011-09-27 | 2011-09-27 | |
US61/539,718 | 2011-09-27 | ||
PCT/US2012/028074 WO2012122269A2 (en) | 2011-03-07 | 2012-03-07 | Systems and methods for analytic data gathering from image providers at an event or geographic location |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130130060A KR20130130060A (ko) | 2013-11-29 |
KR101383238B1 true KR101383238B1 (ko) | 2014-04-08 |
Family
ID=46796937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020137025660A KR101383238B1 (ko) | 2011-03-07 | 2012-03-07 | 이벤트 또는 지리적 위치에 있는 이미지 제공자들로부터의 분석 데이터 수집을 위한 시스템 및 방법 |
Country Status (8)
Country | Link |
---|---|
US (3) | US9020832B2 (ko) |
EP (1) | EP2684145A4 (ko) |
JP (2) | JP5530572B2 (ko) |
KR (1) | KR101383238B1 (ko) |
CN (2) | CN104765801A (ko) |
AU (1) | AU2012225536B9 (ko) |
CA (1) | CA2829597C (ko) |
WO (1) | WO2012122269A2 (ko) |
Families Citing this family (418)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7480512B2 (en) * | 2004-01-16 | 2009-01-20 | Bones In Motion, Inc. | Wireless device, program products and methods of using a wireless device to deliver services |
US8554868B2 (en) | 2007-01-05 | 2013-10-08 | Yahoo! Inc. | Simultaneous sharing communication interface |
US9298007B2 (en) | 2014-01-21 | 2016-03-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9965681B2 (en) | 2008-12-16 | 2018-05-08 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9400390B2 (en) | 2014-01-24 | 2016-07-26 | Osterhout Group, Inc. | Peripheral lighting for head worn computing |
US9952664B2 (en) | 2014-01-21 | 2018-04-24 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9715112B2 (en) | 2014-01-21 | 2017-07-25 | Osterhout Group, Inc. | Suppression of stray light in head worn computing |
US9229233B2 (en) | 2014-02-11 | 2016-01-05 | Osterhout Group, Inc. | Micro Doppler presentations in head worn computing |
US20150205111A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | Optical configurations for head worn computing |
IL202460A (en) * | 2009-12-01 | 2013-08-29 | Rafael Advanced Defense Sys | Method and system for creating a 3D view of real arena for military planning and operations |
US8698762B2 (en) | 2010-01-06 | 2014-04-15 | Apple Inc. | Device, method, and graphical user interface for navigating and displaying content in context |
WO2014145728A2 (en) * | 2013-03-15 | 2014-09-18 | Innovative Timing Systems, Llc | System and method of an event timing system having integrated geodetic timing points |
US9384408B2 (en) | 2011-01-12 | 2016-07-05 | Yahoo! Inc. | Image analysis system and method using image recognition and text search |
US8810598B2 (en) | 2011-04-08 | 2014-08-19 | Nant Holdings Ip, Llc | Interference based augmented reality hosting platforms |
US8918463B2 (en) * | 2011-04-29 | 2014-12-23 | Facebook, Inc. | Automated event tagging |
US9098529B1 (en) * | 2011-05-25 | 2015-08-04 | Google Inc. | Determining content for delivery based on imagery |
WO2013008238A1 (en) | 2011-07-12 | 2013-01-17 | Mobli Technologies 2010 Ltd. | Methods and systems of providing visual content editing functions |
US9087058B2 (en) * | 2011-08-03 | 2015-07-21 | Google Inc. | Method and apparatus for enabling a searchable history of real-world user experiences |
US8635519B2 (en) | 2011-08-26 | 2014-01-21 | Luminate, Inc. | System and method for sharing content based on positional tagging |
US9762524B2 (en) | 2011-09-28 | 2017-09-12 | Elwha Llc | Multi-modality communication participation |
US9503550B2 (en) | 2011-09-28 | 2016-11-22 | Elwha Llc | Multi-modality communication modification |
US9699632B2 (en) | 2011-09-28 | 2017-07-04 | Elwha Llc | Multi-modality communication with interceptive conversion |
US9788349B2 (en) | 2011-09-28 | 2017-10-10 | Elwha Llc | Multi-modality communication auto-activation |
US9002937B2 (en) | 2011-09-28 | 2015-04-07 | Elwha Llc | Multi-party multi-modality communication |
US9906927B2 (en) | 2011-09-28 | 2018-02-27 | Elwha Llc | Multi-modality communication initiation |
US9477943B2 (en) | 2011-09-28 | 2016-10-25 | Elwha Llc | Multi-modality communication |
US20130079029A1 (en) * | 2011-09-28 | 2013-03-28 | Royce A. Levien | Multi-modality communication network auto-activation |
US20130086112A1 (en) | 2011-10-03 | 2013-04-04 | James R. Everingham | Image browsing system and method for a digital content platform |
US8737678B2 (en) | 2011-10-05 | 2014-05-27 | Luminate, Inc. | Platform for providing interactive applications on a digital content platform |
USD737290S1 (en) | 2011-10-10 | 2015-08-25 | Yahoo! Inc. | Portion of a display screen with a graphical user interface |
USD736224S1 (en) | 2011-10-10 | 2015-08-11 | Yahoo! Inc. | Portion of a display screen with a graphical user interface |
US20130095855A1 (en) * | 2011-10-13 | 2013-04-18 | Google Inc. | Method, System, and Computer Program Product for Obtaining Images to Enhance Imagery Coverage |
US8494838B2 (en) | 2011-11-10 | 2013-07-23 | Globili Llc | Systems, methods and apparatus for dynamic content management and delivery |
US8761523B2 (en) * | 2011-11-21 | 2014-06-24 | Intellectual Ventures Fund 83 Llc | Group method for making event-related media collection |
US9823080B2 (en) * | 2011-12-22 | 2017-11-21 | At&T Intellectual Property I, L.P. | Method, system, and computer program product for providing a facility map |
US9137308B1 (en) | 2012-01-09 | 2015-09-15 | Google Inc. | Method and apparatus for enabling event-based media data capture |
US9406090B1 (en) | 2012-01-09 | 2016-08-02 | Google Inc. | Content sharing system |
US20130191219A1 (en) * | 2012-01-19 | 2013-07-25 | Zumobi, Inc. | System and Method for User Generated Content in Media Advertisements |
US9615015B2 (en) * | 2012-01-27 | 2017-04-04 | Disney Enterprises, Inc. | Systems methods for camera control using historical or predicted event data |
US11734712B2 (en) | 2012-02-24 | 2023-08-22 | Foursquare Labs, Inc. | Attributing in-store visits to media consumption based on data collected from user devices |
US8972357B2 (en) | 2012-02-24 | 2015-03-03 | Placed, Inc. | System and method for data collection to validate location data |
US20130226926A1 (en) * | 2012-02-29 | 2013-08-29 | Nokia Corporation | Method and apparatus for acquiring event information on demand |
US20130246396A1 (en) * | 2012-03-08 | 2013-09-19 | Blue Waters Holdings Llc | Multi-Source Decision Support System |
US8255495B1 (en) | 2012-03-22 | 2012-08-28 | Luminate, Inc. | Digital image and content display systems and methods |
TWI519167B (zh) * | 2012-04-23 | 2016-01-21 | 廣達電腦股份有限公司 | 運用後設資料來進行目標辨識與事件重現之系統 |
WO2013166588A1 (en) | 2012-05-08 | 2013-11-14 | Bitstrips Inc. | System and method for adaptable avatars |
US8495489B1 (en) | 2012-05-16 | 2013-07-23 | Luminate, Inc. | System and method for creating and displaying image annotations |
US10430404B2 (en) * | 2012-05-22 | 2019-10-01 | Nitin Gambhir | System and method for tracking events |
US10489389B2 (en) | 2012-06-07 | 2019-11-26 | Wormhole Labs, Inc. | Experience analytic objects, systems and methods |
US10700944B2 (en) | 2012-06-07 | 2020-06-30 | Wormhole Labs, Inc. | Sensor data aggregation system |
US10649613B2 (en) | 2012-06-07 | 2020-05-12 | Wormhole Labs, Inc. | Remote experience interfaces, systems and methods |
US8861804B1 (en) * | 2012-06-15 | 2014-10-14 | Shutterfly, Inc. | Assisted photo-tagging with facial recognition models |
US9531993B1 (en) * | 2012-06-22 | 2016-12-27 | Google Inc. | Dynamic companion online campaign for television content |
US9584834B1 (en) | 2012-06-25 | 2017-02-28 | Google Inc. | Video broadcasting with geolocation |
US9020835B2 (en) * | 2012-07-13 | 2015-04-28 | Facebook, Inc. | Search-powered connection targeting |
US20140025755A1 (en) * | 2012-07-20 | 2014-01-23 | Google Inc. | Inferring events based on mob source video |
US9460205B2 (en) | 2012-07-20 | 2016-10-04 | Google Inc. | Crowdsourced video collaboration |
JP6004807B2 (ja) * | 2012-07-24 | 2016-10-12 | キヤノン株式会社 | 画像処理装置、その制御方法、プログラム |
JP5888172B2 (ja) * | 2012-08-02 | 2016-03-16 | ソニー株式会社 | データ記憶装置およびプログラム |
WO2014031899A1 (en) | 2012-08-22 | 2014-02-27 | Goldrun Corporation | Augmented reality virtual content platform apparatuses, methods and systems |
US20140067542A1 (en) * | 2012-08-30 | 2014-03-06 | Luminate, Inc. | Image-Based Advertisement and Content Analysis and Display Systems |
US9171015B2 (en) * | 2012-09-14 | 2015-10-27 | At&T Intellectual Property I, L.P. | Sharing asserted media |
US20140108340A1 (en) * | 2012-10-17 | 2014-04-17 | Capture Media, Inc. | Targeted media capture platforms, networks, and software |
US20140122352A1 (en) * | 2012-10-31 | 2014-05-01 | Garrett William Gleim | Method and system for reporting hunting harvests to reporting agency |
US8775972B2 (en) | 2012-11-08 | 2014-07-08 | Snapchat, Inc. | Apparatus and method for single action control of social network profile access |
US9223932B1 (en) * | 2012-11-24 | 2015-12-29 | Mach 7 Technologies, Inc. | Handheld medical imaging mobile modality |
US9210477B2 (en) * | 2012-11-29 | 2015-12-08 | Fanvision Entertainment Llc | Mobile device with location-based content |
US9703807B2 (en) * | 2012-12-10 | 2017-07-11 | Pixia Corp. | Method and system for wide area motion imagery discovery using KML |
US8837906B2 (en) | 2012-12-14 | 2014-09-16 | Motorola Solutions, Inc. | Computer assisted dispatch incident report video search and tagging systems and methods |
KR20150100795A (ko) | 2012-12-19 | 2015-09-02 | 팬픽스, 엘엘씨 | 그룹 이벤트에서의 영상 캡처, 처리 및 전달 |
US9066009B2 (en) | 2012-12-20 | 2015-06-23 | Google Inc. | Method for prompting photographs of events |
US9424280B2 (en) * | 2012-12-28 | 2016-08-23 | Animoto Inc. | Organizing media items based on metadata similarities |
KR20140109563A (ko) * | 2013-03-04 | 2014-09-16 | 건국대학교 산학협력단 | Ucc업로드 이벤트를 이용한 가시화 및 서비스 방법과 시스템 |
US9538725B2 (en) * | 2013-03-08 | 2017-01-10 | Eb Partners | Mobile telephone dog training tool and method |
US20140258850A1 (en) * | 2013-03-11 | 2014-09-11 | Mathew R. Carey | Systems and Methods for Managing the Display of Images |
US9648129B2 (en) | 2013-03-13 | 2017-05-09 | Facebook, Inc. | Image filtering based on social context |
US9461958B1 (en) * | 2013-03-13 | 2016-10-04 | Greenfly, Inc. | Methods and system for distributing information via multiple forms of delivery services |
US8782140B1 (en) | 2013-03-13 | 2014-07-15 | Greenfly Digital, LLC | Methods and system for distributing information via multiple forms of delivery services |
US8844050B1 (en) * | 2013-03-15 | 2014-09-23 | Athoc, Inc. | Personnel crisis communications management and personnel status tracking system |
US10365945B2 (en) | 2013-03-27 | 2019-07-30 | International Business Machines Corporation | Clustering based process deviation detection |
US9564175B2 (en) * | 2013-04-02 | 2017-02-07 | International Business Machines Corporation | Clustering crowdsourced videos by line-of-sight |
US20140327779A1 (en) * | 2013-05-01 | 2014-11-06 | Nokia Corporation | Method and apparatus for providing crowdsourced video |
US9014726B1 (en) * | 2013-05-03 | 2015-04-21 | Google Inc. | Systems and methods for recommending photogenic locations to visit |
US9514491B2 (en) * | 2013-05-10 | 2016-12-06 | Cellco Partnership | Associating analytics data with an image |
US9589189B2 (en) * | 2013-05-23 | 2017-03-07 | Cellco Partnership | Device for mapping physical world with virtual information |
US10439972B1 (en) | 2013-05-30 | 2019-10-08 | Snap Inc. | Apparatus and method for maintaining a message thread with opt-in permanence for entries |
US9705831B2 (en) | 2013-05-30 | 2017-07-11 | Snap Inc. | Apparatus and method for maintaining a message thread with opt-in permanence for entries |
US9742713B2 (en) | 2013-05-30 | 2017-08-22 | Snap Inc. | Apparatus and method for maintaining a message thread with opt-in permanence for entries |
RU2538941C1 (ru) * | 2013-06-14 | 2015-01-10 | Общество с ограниченной ответственностью "Аби Девелопмент" | Улучшения качества распознавания за счет повышения разрешения изображений |
CN105230113B (zh) * | 2013-06-26 | 2019-06-14 | 英特尔Ip公司 | 优化无线设备中的分布式位置管理实体 |
US20150046194A1 (en) * | 2013-08-07 | 2015-02-12 | Hartford Fire Insurance Company | System and method for using crowd sourced data for insurance claims based analysis |
WO2015031863A1 (en) * | 2013-08-29 | 2015-03-05 | FanPix, LLC | Imaging attendees at event venues |
US9208171B1 (en) * | 2013-09-05 | 2015-12-08 | Google Inc. | Geographically locating and posing images in a large-scale image repository and processing framework |
JP6187811B2 (ja) * | 2013-09-09 | 2017-08-30 | ソニー株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
US10049413B2 (en) * | 2013-09-20 | 2018-08-14 | Vulcan Technologies Llc | Automatically creating a hierarchical storyline from mobile device data |
US20150106195A1 (en) * | 2013-10-10 | 2015-04-16 | Elwha Llc | Methods, systems, and devices for handling inserted data into captured images |
US10346624B2 (en) | 2013-10-10 | 2019-07-09 | Elwha Llc | Methods, systems, and devices for obscuring entities depicted in captured images |
US20150104004A1 (en) | 2013-10-10 | 2015-04-16 | Elwha Llc | Methods, systems, and devices for delivering image data from captured images to devices |
US10013564B2 (en) | 2013-10-10 | 2018-07-03 | Elwha Llc | Methods, systems, and devices for handling image capture devices and captured images |
US9799036B2 (en) | 2013-10-10 | 2017-10-24 | Elwha Llc | Devices, methods, and systems for managing representations of entities through use of privacy indicators |
US10185841B2 (en) | 2013-10-10 | 2019-01-22 | Elwha Llc | Devices, methods, and systems for managing representations of entities through use of privacy beacons |
US9582516B2 (en) | 2013-10-17 | 2017-02-28 | Nant Holdings Ip, Llc | Wide area augmented reality location-based services |
FR3012279B1 (fr) * | 2013-10-23 | 2017-02-17 | Vogo | Procede de diffusion multipoints |
CN103595992B (zh) * | 2013-11-08 | 2016-10-12 | 深圳市奥拓电子股份有限公司 | 一种球场led显示屏系统及其实现广告精准投放的插播方法 |
US20150139601A1 (en) * | 2013-11-15 | 2015-05-21 | Nokia Corporation | Method, apparatus, and computer program product for automatic remix and summary creation using crowd-sourced intelligence |
US20150142537A1 (en) * | 2013-11-18 | 2015-05-21 | Verizon Patent And Licensing Inc. | Receiving product/service information and content based on a captured image |
US9450771B2 (en) * | 2013-11-20 | 2016-09-20 | Blab, Inc. | Determining information inter-relationships from distributed group discussions |
US9986140B2 (en) * | 2013-11-21 | 2018-05-29 | International Business Machines Corporation | Utilizing metadata for automated photographic setup |
US9083770B1 (en) | 2013-11-26 | 2015-07-14 | Snapchat, Inc. | Method and system for integrating real time communication features in applications |
CA2863124A1 (en) | 2014-01-03 | 2015-07-03 | Investel Capital Corporation | User content sharing system and method with automated external content integration |
US9628950B1 (en) | 2014-01-12 | 2017-04-18 | Investment Asset Holdings Llc | Location-based messaging |
US20150199380A1 (en) * | 2014-01-16 | 2015-07-16 | Microsoft Corporation | Discovery of viewsheds and vantage points by mining geo-tagged data |
US9760954B2 (en) * | 2014-01-16 | 2017-09-12 | International Business Machines Corporation | Visual focal point composition for media capture based on a target recipient audience |
US9448409B2 (en) | 2014-11-26 | 2016-09-20 | Osterhout Group, Inc. | See-through computer display systems |
US11103122B2 (en) | 2014-07-15 | 2021-08-31 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US10191279B2 (en) | 2014-03-17 | 2019-01-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US10684687B2 (en) | 2014-12-03 | 2020-06-16 | Mentor Acquisition One, Llc | See-through computer display systems |
US20160019715A1 (en) | 2014-07-15 | 2016-01-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US9529195B2 (en) | 2014-01-21 | 2016-12-27 | Osterhout Group, Inc. | See-through computer display systems |
US9594246B2 (en) | 2014-01-21 | 2017-03-14 | Osterhout Group, Inc. | See-through computer display systems |
US9841599B2 (en) | 2014-06-05 | 2017-12-12 | Osterhout Group, Inc. | Optical configurations for head-worn see-through displays |
US11227294B2 (en) | 2014-04-03 | 2022-01-18 | Mentor Acquisition One, Llc | Sight information collection in head worn computing |
US9575321B2 (en) | 2014-06-09 | 2017-02-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US10254856B2 (en) | 2014-01-17 | 2019-04-09 | Osterhout Group, Inc. | External user interface for head worn computing |
US9671613B2 (en) | 2014-09-26 | 2017-06-06 | Osterhout Group, Inc. | See-through computer display systems |
US9939934B2 (en) | 2014-01-17 | 2018-04-10 | Osterhout Group, Inc. | External user interface for head worn computing |
US20150294156A1 (en) * | 2014-04-14 | 2015-10-15 | Osterhout Group, Inc. | Sight information collection in head worn computing |
US20150277118A1 (en) | 2014-03-28 | 2015-10-01 | Osterhout Group, Inc. | Sensor dependent content position in head worn computing |
US9299194B2 (en) | 2014-02-14 | 2016-03-29 | Osterhout Group, Inc. | Secure sharing in head worn computing |
US10649220B2 (en) | 2014-06-09 | 2020-05-12 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US9810906B2 (en) | 2014-06-17 | 2017-11-07 | Osterhout Group, Inc. | External user interface for head worn computing |
US9746686B2 (en) | 2014-05-19 | 2017-08-29 | Osterhout Group, Inc. | Content position calibration in head worn computing |
US9829707B2 (en) | 2014-08-12 | 2017-11-28 | Osterhout Group, Inc. | Measuring content brightness in head worn computing |
US9494800B2 (en) | 2014-01-21 | 2016-11-15 | Osterhout Group, Inc. | See-through computer display systems |
US9753288B2 (en) | 2014-01-21 | 2017-09-05 | Osterhout Group, Inc. | See-through computer display systems |
US9766463B2 (en) | 2014-01-21 | 2017-09-19 | Osterhout Group, Inc. | See-through computer display systems |
US9532714B2 (en) | 2014-01-21 | 2017-01-03 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9651784B2 (en) | 2014-01-21 | 2017-05-16 | Osterhout Group, Inc. | See-through computer display systems |
US11487110B2 (en) | 2014-01-21 | 2022-11-01 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US9523856B2 (en) | 2014-01-21 | 2016-12-20 | Osterhout Group, Inc. | See-through computer display systems |
US11892644B2 (en) | 2014-01-21 | 2024-02-06 | Mentor Acquisition One, Llc | See-through computer display systems |
US20150205135A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | See-through computer display systems |
US9811159B2 (en) | 2014-01-21 | 2017-11-07 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US11737666B2 (en) | 2014-01-21 | 2023-08-29 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US11669163B2 (en) | 2014-01-21 | 2023-06-06 | Mentor Acquisition One, Llc | Eye glint imaging in see-through computer display systems |
US9836122B2 (en) | 2014-01-21 | 2017-12-05 | Osterhout Group, Inc. | Eye glint imaging in see-through computer display systems |
US9846308B2 (en) | 2014-01-24 | 2017-12-19 | Osterhout Group, Inc. | Haptic systems for head-worn computers |
US9473745B2 (en) | 2014-01-30 | 2016-10-18 | Google Inc. | System and method for providing live imagery associated with map locations |
US9661260B2 (en) * | 2014-02-03 | 2017-05-23 | Synchronoss Technologies, Inc. | Photograph or video tagging based on peered devices |
US9401540B2 (en) | 2014-02-11 | 2016-07-26 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US20150241963A1 (en) | 2014-02-11 | 2015-08-27 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US10082926B1 (en) | 2014-02-21 | 2018-09-25 | Snap Inc. | Apparatus and method for alternate channel communication initiated through a common message thread |
US9462054B2 (en) | 2014-02-27 | 2016-10-04 | Dropbox, Inc. | Systems and methods for providing a user with a set of interactivity features locally on a user device |
US9112936B1 (en) | 2014-02-27 | 2015-08-18 | Dropbox, Inc. | Systems and methods for ephemeral eventing |
US9912743B2 (en) * | 2014-02-28 | 2018-03-06 | Skycapital Investors, Llc | Real-time collection and distribution of information for an event organized according to sub-events |
US10979249B1 (en) * | 2014-03-02 | 2021-04-13 | Twitter, Inc. | Event-based content presentation using a social media platform |
US8909725B1 (en) | 2014-03-07 | 2014-12-09 | Snapchat, Inc. | Content delivery network for ephemeral objects |
JP5940579B2 (ja) * | 2014-03-20 | 2016-06-29 | ヤフー株式会社 | 移動制御装置、移動制御方法及び移動制御システム |
US9992246B2 (en) * | 2014-03-27 | 2018-06-05 | Tvu Networks Corporation | Methods, apparatus, and systems for instantly sharing video content on social media |
US20160187651A1 (en) | 2014-03-28 | 2016-06-30 | Osterhout Group, Inc. | Safety for a vehicle operator with an hmd |
US10482658B2 (en) * | 2014-03-31 | 2019-11-19 | Gary Stephen Shuster | Visualization and control of remote objects |
US9351118B2 (en) * | 2014-04-11 | 2016-05-24 | Keith Crutchfield | Apparatus, systems and methods for visually connecting people |
US11026046B2 (en) | 2014-04-11 | 2021-06-01 | Flaregun Inc. | Apparatus, systems and methods for visually connecting people |
US10453328B2 (en) * | 2014-04-14 | 2019-10-22 | Vivint, Inc. | Systems and methods for crowdsourcing detected events |
US9423842B2 (en) | 2014-09-18 | 2016-08-23 | Osterhout Group, Inc. | Thermal management for head-worn computer |
US9672210B2 (en) | 2014-04-25 | 2017-06-06 | Osterhout Group, Inc. | Language translation with head-worn computing |
US9651787B2 (en) | 2014-04-25 | 2017-05-16 | Osterhout Group, Inc. | Speaker assembly for headworn computer |
US10853589B2 (en) | 2014-04-25 | 2020-12-01 | Mentor Acquisition One, Llc | Language translation with head-worn computing |
US9276886B1 (en) | 2014-05-09 | 2016-03-01 | Snapchat, Inc. | Apparatus and method for dynamically configuring application component tiles |
US20150331930A1 (en) * | 2014-05-16 | 2015-11-19 | Here Global B.V. | Method and apparatus for classification of media based on metadata |
WO2015179866A1 (en) * | 2014-05-23 | 2015-11-26 | Life Music Integration, LLC | System and method for organizing artistic media based on cognitive associations with personal memories |
US9537811B2 (en) | 2014-10-02 | 2017-01-03 | Snap Inc. | Ephemeral gallery of ephemeral messages |
US9396354B1 (en) | 2014-05-28 | 2016-07-19 | Snapchat, Inc. | Apparatus and method for automated privacy protection in distributed images |
EP3153976A4 (en) * | 2014-06-03 | 2018-01-31 | Sony Corporation | Information processing device, photographing device, image sharing system, information processing method, and program |
EP2953085A1 (en) | 2014-06-05 | 2015-12-09 | Mobli Technologies 2010 Ltd. | Web document enhancement |
US10663740B2 (en) | 2014-06-09 | 2020-05-26 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US9113301B1 (en) | 2014-06-13 | 2015-08-18 | Snapchat, Inc. | Geo-location based event gallery |
US9854015B2 (en) * | 2014-06-25 | 2017-12-26 | International Business Machines Corporation | Incident data collection for public protection agencies |
US9225897B1 (en) | 2014-07-07 | 2015-12-29 | Snapchat, Inc. | Apparatus and method for supplying content aware photo filters |
US10572902B2 (en) | 2014-07-11 | 2020-02-25 | ProSports Technologies, LLC | Camera-based digital content distribution |
KR102150703B1 (ko) | 2014-08-14 | 2020-09-01 | 한화테크윈 주식회사 | 지능형 비디오 분석 시스템에서 비디오를 분석하는 방법 및 시스템 |
US9414197B2 (en) * | 2014-08-15 | 2016-08-09 | Google Technology Holdings LLC | Identifying personalized meaningful locations |
US10055717B1 (en) | 2014-08-22 | 2018-08-21 | Snap Inc. | Message processor with application prompts |
US9417090B2 (en) | 2014-09-11 | 2016-08-16 | ProSports Technologies, LLC | System to offer coupons to fans along routes to game |
US10423983B2 (en) | 2014-09-16 | 2019-09-24 | Snap Inc. | Determining targeting information based on a predictive targeting model |
US10824654B2 (en) | 2014-09-18 | 2020-11-03 | Snap Inc. | Geolocation-based pictographs |
US11216869B2 (en) | 2014-09-23 | 2022-01-04 | Snap Inc. | User interface to augment an image using geolocation |
US20170155970A1 (en) * | 2014-09-24 | 2017-06-01 | Jianhua Cao | Plug and Play Method and System of Viewing Live and Recorded Contents |
US20160092930A1 (en) * | 2014-09-29 | 2016-03-31 | Kast Inc. | Method and system for gathering data for targeted advertisements |
US10284508B1 (en) | 2014-10-02 | 2019-05-07 | Snap Inc. | Ephemeral gallery of ephemeral messages with opt-in permanence |
US20160111127A1 (en) * | 2014-10-16 | 2016-04-21 | International Business Machines Corporation | Generating a Composite Video of an Event Having a Moving Point of Attraction |
WO2016069498A1 (en) | 2014-10-26 | 2016-05-06 | Galileo Group, Inc. | Temporal processes for aggregating multi dimensional data collection from discrete and distributed collectors using machine-to-machine networks and smartphones to provide enhanced space-time perspective for monitoring changes using algorithmic techniques |
EP3016005A1 (en) * | 2014-10-31 | 2016-05-04 | Korea Advanced Institute Of Science And Technology | Method and system for offering of similar photos in real time based on photographing context information of a geographically proximate user group |
US10148993B2 (en) * | 2014-11-10 | 2018-12-04 | Swarms Ventures, Llc | Method and system for programmable loop recording |
US9015285B1 (en) | 2014-11-12 | 2015-04-21 | Snapchat, Inc. | User interface for accessing media at a geographic location |
US10931769B2 (en) * | 2014-11-12 | 2021-02-23 | Stringr Inc. | Location-based method and system for requesting and obtaining images |
US9684172B2 (en) | 2014-12-03 | 2017-06-20 | Osterhout Group, Inc. | Head worn computer display systems |
US9854219B2 (en) | 2014-12-19 | 2017-12-26 | Snap Inc. | Gallery of videos set to an audio time line |
US10311916B2 (en) | 2014-12-19 | 2019-06-04 | Snap Inc. | Gallery of videos set to an audio time line |
US9385983B1 (en) | 2014-12-19 | 2016-07-05 | Snapchat, Inc. | Gallery of messages from individuals with a shared interest |
USD743963S1 (en) | 2014-12-22 | 2015-11-24 | Osterhout Group, Inc. | Air mouse |
US9576120B2 (en) * | 2014-12-29 | 2017-02-21 | Paypal, Inc. | Authenticating activities of accounts |
USD751552S1 (en) | 2014-12-31 | 2016-03-15 | Osterhout Group, Inc. | Computer glasses |
EP3243181B1 (en) * | 2015-01-05 | 2021-10-20 | PicPocket Labs, Inc. | Use of a dynamic geofence to control media sharing and aggregation associated with a mobile target |
USD753114S1 (en) | 2015-01-05 | 2016-04-05 | Osterhout Group, Inc. | Air mouse |
US9754355B2 (en) | 2015-01-09 | 2017-09-05 | Snap Inc. | Object recognition based photo filters |
US11388226B1 (en) | 2015-01-13 | 2022-07-12 | Snap Inc. | Guided personal identity based actions |
US10133705B1 (en) | 2015-01-19 | 2018-11-20 | Snap Inc. | Multichannel system |
US9521515B2 (en) | 2015-01-26 | 2016-12-13 | Mobli Technologies 2010 Ltd. | Content request by location |
US10152480B2 (en) | 2015-01-31 | 2018-12-11 | Splunk Inc. | Archiving indexed data |
US20160239985A1 (en) | 2015-02-17 | 2016-08-18 | Osterhout Group, Inc. | See-through computer display systems |
US11080977B2 (en) | 2015-02-24 | 2021-08-03 | Hiroshi Aoyama | Management system, server, management device, and management method |
EP3264751A4 (en) * | 2015-02-24 | 2018-03-28 | Hiroshi Aoyama | Management system, server, management device, and management method |
US10223397B1 (en) | 2015-03-13 | 2019-03-05 | Snap Inc. | Social graph based co-location of network users |
KR102035405B1 (ko) | 2015-03-18 | 2019-10-22 | 스냅 인코포레이티드 | 지오-펜스 인가 프로비저닝 |
US9692967B1 (en) | 2015-03-23 | 2017-06-27 | Snap Inc. | Systems and methods for reducing boot time and power consumption in camera systems |
US9881094B2 (en) | 2015-05-05 | 2018-01-30 | Snap Inc. | Systems and methods for automated local story generation and curation |
US10135949B1 (en) | 2015-05-05 | 2018-11-20 | Snap Inc. | Systems and methods for story and sub-story navigation |
US9390323B1 (en) | 2015-05-18 | 2016-07-12 | International Business Machines Corporation | Recommending sites through metadata analysis |
EP4198626A1 (en) | 2015-05-27 | 2023-06-21 | GoPro, Inc. | Camera system using stabilizing gimbal |
US10691661B2 (en) | 2015-06-03 | 2020-06-23 | Xilinx, Inc. | System and method for managing the storing of data |
US10733167B2 (en) | 2015-06-03 | 2020-08-04 | Xilinx, Inc. | System and method for capturing data to provide to a data analyser |
US9916075B2 (en) | 2015-06-05 | 2018-03-13 | Apple Inc. | Formatting content for a reduced-size user interface |
RU2015125820A (ru) * | 2015-06-30 | 2017-01-10 | Общество С Ограниченной Ответственностью "Яндекс" | Способ и сервер обработки пользовательского запроса на предоставление рекомендованной области интереса |
JP6785305B2 (ja) | 2015-07-15 | 2020-11-18 | 15 セカンズ オブ フェイム,インコーポレイテッド | 顔認識及びコンテキストビデオストリームで個人を識別するためのビデオ解析技術のための装置及び方法 |
US10993069B2 (en) | 2015-07-16 | 2021-04-27 | Snap Inc. | Dynamically adaptive media content delivery |
US10817898B2 (en) | 2015-08-13 | 2020-10-27 | Placed, Llc | Determining exposures to content presented by physical objects |
US10270820B2 (en) * | 2015-08-18 | 2019-04-23 | Microsoft Technology Licensing, Llc | Impromptu community streamer |
WO2017036953A1 (en) * | 2015-09-02 | 2017-03-09 | Thomson Licensing | Method, apparatus and system for facilitating navigation in an extended scene |
US9832504B2 (en) | 2015-09-15 | 2017-11-28 | Google Inc. | Event-based content distribution |
ITUB20153981A1 (it) * | 2015-09-29 | 2017-03-29 | Hera S P A | Metodo e sistema per la segnalazione di anomalie relative al servizio di raccolta rifiuti. |
US9984309B2 (en) * | 2015-09-30 | 2018-05-29 | International Business Machines Corporation | Classifying and grouping electronic images |
SG11201909024XA (en) * | 2015-10-19 | 2019-11-28 | Skansense S L U | Obtaining data from targets using imagery and other remote sensing data |
AU2016342028B2 (en) | 2015-10-21 | 2020-08-20 | 15 Seconds of Fame, Inc. | Methods and apparatus for false positive minimization in facial recognition applications |
US9652896B1 (en) | 2015-10-30 | 2017-05-16 | Snap Inc. | Image based tracking in augmented reality systems |
US9984499B1 (en) | 2015-11-30 | 2018-05-29 | Snap Inc. | Image and point cloud based tracking and in augmented reality systems |
US10474321B2 (en) | 2015-11-30 | 2019-11-12 | Snap Inc. | Network resource location linking and visual content sharing |
US10623371B2 (en) * | 2015-12-01 | 2020-04-14 | Cisco Technology, Inc. | Providing network behavior visibility based on events logged by network security devices |
EP3384678B1 (en) * | 2015-12-04 | 2023-09-20 | Sling Media L.L.C. | Network-based event recording |
US10397208B2 (en) * | 2015-12-11 | 2019-08-27 | Paypal, Inc. | Authentication via item recognition |
US10354425B2 (en) | 2015-12-18 | 2019-07-16 | Snap Inc. | Method and system for providing context relevant media augmentation |
CN105630993A (zh) * | 2015-12-25 | 2016-06-01 | 北京金山安全软件有限公司 | 一种图片获取方法及装置 |
US11115785B2 (en) | 2016-01-14 | 2021-09-07 | Motorola Solutions, Inc. | Managing communication groups based on objects in image feeds |
IL243772B (en) * | 2016-01-25 | 2018-03-29 | Everysight Ltd | Dynamic ad-hoc networks for content sharing, based on line of sight |
US11050845B2 (en) | 2016-02-25 | 2021-06-29 | At&T Intellectual Property I, L.P. | Method and apparatus for providing configurable event content |
US10285001B2 (en) | 2016-02-26 | 2019-05-07 | Snap Inc. | Generation, curation, and presentation of media collections |
US11023514B2 (en) | 2016-02-26 | 2021-06-01 | Snap Inc. | Methods and systems for generation, curation, and presentation of media collections |
US10679389B2 (en) | 2016-02-26 | 2020-06-09 | Snap Inc. | Methods and systems for generation, curation, and presentation of media collections |
US10445364B2 (en) * | 2016-03-16 | 2019-10-15 | International Business Machines Corporation | Micro-location based photograph metadata |
US20170286994A1 (en) * | 2016-03-29 | 2017-10-05 | SETA International LLC | Power buy system |
US10339365B2 (en) | 2016-03-31 | 2019-07-02 | Snap Inc. | Automated avatar generation |
US11900418B2 (en) | 2016-04-04 | 2024-02-13 | Snap Inc. | Mutable geo-fencing system |
CN107276782B (zh) * | 2016-04-07 | 2020-10-16 | 中国移动通信集团福建有限公司 | 一种信息处理方法、设备和系统 |
US10346466B2 (en) * | 2016-04-18 | 2019-07-09 | International Business Machines Corporation | Methods and systems of personalized photo albums based on social media data |
GB201607825D0 (en) | 2016-05-04 | 2016-06-15 | King Com Ltd | A method and apparatus for processing data |
JP6259864B2 (ja) * | 2016-05-18 | 2018-01-10 | 株式会社オーエムアイ | 多面的機能支払支援装置、多面的機能支払支援方法、およびプログラム |
US20170357644A1 (en) | 2016-06-12 | 2017-12-14 | Apple Inc. | Notable moments in a collection of digital assets |
DK201670608A1 (en) | 2016-06-12 | 2018-01-02 | Apple Inc | User interfaces for retrieving contextually relevant media content |
AU2017100670C4 (en) | 2016-06-12 | 2019-11-21 | Apple Inc. | User interfaces for retrieving contextually relevant media content |
US10638256B1 (en) | 2016-06-20 | 2020-04-28 | Pipbin, Inc. | System for distribution and display of mobile targeted augmented reality content |
US11785161B1 (en) | 2016-06-20 | 2023-10-10 | Pipbin, Inc. | System for user accessibility of tagged curated augmented reality content |
US10805696B1 (en) | 2016-06-20 | 2020-10-13 | Pipbin, Inc. | System for recording and targeting tagged content of user interest |
US11876941B1 (en) | 2016-06-20 | 2024-01-16 | Pipbin, Inc. | Clickable augmented reality content manager, system, and network |
US11201981B1 (en) | 2016-06-20 | 2021-12-14 | Pipbin, Inc. | System for notification of user accessibility of curated location-dependent content in an augmented estate |
US11044393B1 (en) | 2016-06-20 | 2021-06-22 | Pipbin, Inc. | System for curation and display of location-dependent augmented reality content in an augmented estate system |
US10334134B1 (en) | 2016-06-20 | 2019-06-25 | Maximillian John Suiter | Augmented real estate with location and chattel tagging system and apparatus for virtual diary, scrapbooking, game play, messaging, canvasing, advertising and social interaction |
US10430838B1 (en) | 2016-06-28 | 2019-10-01 | Snap Inc. | Methods and systems for generation, curation, and presentation of media collections with automated advertising |
US9681265B1 (en) | 2016-06-28 | 2017-06-13 | Snap Inc. | System to track engagement of media items |
US10733255B1 (en) | 2016-06-30 | 2020-08-04 | Snap Inc. | Systems and methods for content navigation with automated curation |
CN106028128A (zh) * | 2016-07-14 | 2016-10-12 | 中青冠岳科技(北京)有限公司 | 一种基于视频公告进行图文速记的方法和系统 |
US10348662B2 (en) | 2016-07-19 | 2019-07-09 | Snap Inc. | Generating customized electronic messaging graphics |
JP6460064B2 (ja) * | 2016-08-24 | 2019-01-30 | トヨタ自動車株式会社 | 移動体の位置情報共通管理システム |
US10922823B2 (en) * | 2016-08-25 | 2021-02-16 | Nec Corporation | Motion analyis device, motion analysis method, and program recording medium |
KR102267482B1 (ko) | 2016-08-30 | 2021-06-22 | 스냅 인코포레이티드 | 동시 로컬화 및 매핑을 위한 시스템 및 방법 |
CN117193617A (zh) | 2016-09-23 | 2023-12-08 | 苹果公司 | 头像创建和编辑 |
US10390374B2 (en) * | 2016-09-30 | 2019-08-20 | Disney Enterprises, Inc. | Configurable communication infrastructure for event spaces |
US10432559B2 (en) | 2016-10-24 | 2019-10-01 | Snap Inc. | Generating and displaying customized avatars in electronic messages |
GB2555779B (en) * | 2016-10-25 | 2020-06-03 | Openworks Eng Ltd | Acquisition and/or tracking of remote object |
US10757221B2 (en) * | 2016-10-28 | 2020-08-25 | International Business Machines Corporation | Rendering a portion of an image corresponding to an interest of a user |
KR102219304B1 (ko) | 2016-11-07 | 2021-02-23 | 스냅 인코포레이티드 | 이미지 변경자들의 선택적 식별 및 순서화 |
US9924324B1 (en) * | 2016-11-28 | 2018-03-20 | International Business Machines Corporation | Locating multiple handheld devices |
US10445565B2 (en) * | 2016-12-06 | 2019-10-15 | General Electric Company | Crowd analytics via one shot learning |
US10203855B2 (en) | 2016-12-09 | 2019-02-12 | Snap Inc. | Customized user-controlled media overlays |
US10665024B2 (en) * | 2016-12-12 | 2020-05-26 | Fyusion, Inc. | Providing recording guidance in generating a multi-view interactive digital media representation |
US11455593B2 (en) * | 2016-12-14 | 2022-09-27 | Ford Global Technologies, Llc | Delivering items to unattended vehicles |
US10580146B2 (en) * | 2016-12-22 | 2020-03-03 | Motorola Solutions, Inc. | Method and system for tracking an object of interest in a talkgroup |
US11616745B2 (en) | 2017-01-09 | 2023-03-28 | Snap Inc. | Contextual generation and selection of customized media content |
US10554909B2 (en) | 2017-01-10 | 2020-02-04 | Galileo Group, Inc. | Systems and methods for spectral imaging with a transmitter using a plurality of light sources |
US10893182B2 (en) | 2017-01-10 | 2021-01-12 | Galileo Group, Inc. | Systems and methods for spectral imaging with compensation functions |
US10454857B1 (en) | 2017-01-23 | 2019-10-22 | Snap Inc. | Customized digital avatar accessories |
US10915911B2 (en) | 2017-02-03 | 2021-02-09 | Snap Inc. | System to determine a price-schedule to distribute media content |
US11250075B1 (en) | 2017-02-17 | 2022-02-15 | Snap Inc. | Searching social media content |
US10319149B1 (en) | 2017-02-17 | 2019-06-11 | Snap Inc. | Augmented reality anamorphosis system |
US10074381B1 (en) | 2017-02-20 | 2018-09-11 | Snap Inc. | Augmented reality speech balloon system |
US10565795B2 (en) | 2017-03-06 | 2020-02-18 | Snap Inc. | Virtual vision system |
US10523625B1 (en) | 2017-03-09 | 2019-12-31 | Snap Inc. | Restricted group content collection |
US11128675B2 (en) | 2017-03-20 | 2021-09-21 | At&T Intellectual Property I, L.P. | Automatic ad-hoc multimedia conference generator |
US10582277B2 (en) | 2017-03-27 | 2020-03-03 | Snap Inc. | Generating a stitched data stream |
US10581782B2 (en) | 2017-03-27 | 2020-03-03 | Snap Inc. | Generating a stitched data stream |
WO2018183618A1 (en) * | 2017-03-30 | 2018-10-04 | Wang Kevin Sunlin | System and method for healthcare billing verification |
US11170393B1 (en) | 2017-04-11 | 2021-11-09 | Snap Inc. | System to calculate an engagement score of location based media content |
US10387730B1 (en) | 2017-04-20 | 2019-08-20 | Snap Inc. | Augmented reality typography personalization system |
US10382372B1 (en) | 2017-04-27 | 2019-08-13 | Snap Inc. | Processing media content based on original context |
US10212541B1 (en) | 2017-04-27 | 2019-02-19 | Snap Inc. | Selective location-based identity communication |
US11893647B2 (en) | 2017-04-27 | 2024-02-06 | Snap Inc. | Location-based virtual avatars |
CN110800018A (zh) | 2017-04-27 | 2020-02-14 | 斯纳普公司 | 用于社交媒体平台的朋友位置共享机制 |
US10467147B1 (en) | 2017-04-28 | 2019-11-05 | Snap Inc. | Precaching unlockable data elements |
US10803120B1 (en) | 2017-05-31 | 2020-10-13 | Snap Inc. | Geolocation based playlists |
US10157476B1 (en) * | 2017-06-15 | 2018-12-18 | Satori Worldwide, Llc | Self-learning spatial recognition system |
WO2018232412A1 (en) * | 2017-06-16 | 2018-12-20 | Skycam, Llc | Infinite virtual pan tilt zoom camera |
US10311616B2 (en) * | 2017-06-30 | 2019-06-04 | Intel Corporation | Methods and apparatus to define augmented content regions for augmented reality systems |
US10402698B1 (en) * | 2017-07-10 | 2019-09-03 | Gopro, Inc. | Systems and methods for identifying interesting moments within videos |
US10740612B2 (en) * | 2017-07-20 | 2020-08-11 | International Business Machines Corporation | Location determination |
US10546384B2 (en) * | 2017-07-21 | 2020-01-28 | Blackberry Limited | Method and system for mapping to facilitate dispatching |
CN110019027B (zh) * | 2017-07-28 | 2022-10-04 | 华为终端有限公司 | 一种文件夹命名的方法及终端 |
US20190043120A1 (en) * | 2017-08-02 | 2019-02-07 | William Ryu | Database search-based network communication |
US10574715B2 (en) | 2017-08-03 | 2020-02-25 | Streaming Global, Inc. | Method and system for aggregating content streams based on sensor data |
US10740446B2 (en) | 2017-08-24 | 2020-08-11 | International Business Machines Corporation | Methods and systems for remote sensing device control based on facial information |
US11475254B1 (en) | 2017-09-08 | 2022-10-18 | Snap Inc. | Multimodal entity identification |
US10740974B1 (en) | 2017-09-15 | 2020-08-11 | Snap Inc. | Augmented reality system |
US10499191B1 (en) | 2017-10-09 | 2019-12-03 | Snap Inc. | Context sensitive presentation of content |
WO2019075428A1 (en) | 2017-10-12 | 2019-04-18 | Shouty, LLC | SYSTEMS AND METHODS FOR DIRECT CONTINUOUS DIFFUSION OF CLOUD STORAGE |
US10573043B2 (en) | 2017-10-30 | 2020-02-25 | Snap Inc. | Mobile-based cartographic control of display content |
US11265273B1 (en) | 2017-12-01 | 2022-03-01 | Snap, Inc. | Dynamic media overlay with smart widget |
US11017173B1 (en) | 2017-12-22 | 2021-05-25 | Snap Inc. | Named entity recognition visual context and caption data |
US10678818B2 (en) | 2018-01-03 | 2020-06-09 | Snap Inc. | Tag distribution visualization system |
US10827123B1 (en) | 2018-01-05 | 2020-11-03 | Gopro, Inc. | Modular image capture systems |
US11113887B2 (en) * | 2018-01-08 | 2021-09-07 | Verizon Patent And Licensing Inc | Generating three-dimensional content from two-dimensional images |
US11507614B1 (en) | 2018-02-13 | 2022-11-22 | Snap Inc. | Icon based tagging |
US10885136B1 (en) | 2018-02-28 | 2021-01-05 | Snap Inc. | Audience filtering system |
US10979752B1 (en) | 2018-02-28 | 2021-04-13 | Snap Inc. | Generating media content items based on location information |
US10327096B1 (en) | 2018-03-06 | 2019-06-18 | Snap Inc. | Geo-fence selection system |
WO2019178361A1 (en) | 2018-03-14 | 2019-09-19 | Snap Inc. | Generating collectible media content items based on location information |
US11163941B1 (en) | 2018-03-30 | 2021-11-02 | Snap Inc. | Annotating a collection of media content items |
US20190318043A1 (en) * | 2018-04-11 | 2019-10-17 | Donald LEKA | System and method of correlating multiple data points to create a new single data point |
US10219111B1 (en) | 2018-04-18 | 2019-02-26 | Snap Inc. | Visitation tracking system |
EP3557559A1 (en) * | 2018-04-20 | 2019-10-23 | TMRW Foundation IP & Holding S.A.R.L. | Sports events broadcasting systems and methods |
JP6921031B2 (ja) * | 2018-04-27 | 2021-08-18 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 制御装置及び撮影方法 |
US10699140B2 (en) * | 2018-05-04 | 2020-06-30 | Qualcomm Incorporated | System and method for capture and distribution of information collected from signs |
US11243996B2 (en) | 2018-05-07 | 2022-02-08 | Apple Inc. | Digital asset search user interface |
DK180171B1 (en) | 2018-05-07 | 2020-07-14 | Apple Inc | USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT |
US11086935B2 (en) | 2018-05-07 | 2021-08-10 | Apple Inc. | Smart updates from historical database changes |
US10896197B1 (en) | 2018-05-22 | 2021-01-19 | Snap Inc. | Event detection system |
US10679393B2 (en) | 2018-07-24 | 2020-06-09 | Snap Inc. | Conditional modification of augmented reality object |
US11399137B2 (en) * | 2018-08-10 | 2022-07-26 | Aurora Flight Sciences Corporation | Object-tracking system |
GB2576211A (en) * | 2018-08-10 | 2020-02-12 | Sony Corp | A method for mapping an object to a location in virtual space |
US10936856B2 (en) | 2018-08-31 | 2021-03-02 | 15 Seconds of Fame, Inc. | Methods and apparatus for reducing false positives in facial recognition |
US10997760B2 (en) | 2018-08-31 | 2021-05-04 | Snap Inc. | Augmented reality anthropomorphization system |
US10846343B2 (en) | 2018-09-11 | 2020-11-24 | Apple Inc. | Techniques for disambiguating clustered location identifiers |
US10803135B2 (en) | 2018-09-11 | 2020-10-13 | Apple Inc. | Techniques for disambiguating clustered occurrence identifiers |
JP7099925B2 (ja) * | 2018-09-27 | 2022-07-12 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、プログラムおよび記録媒体 |
US10698583B2 (en) | 2018-09-28 | 2020-06-30 | Snap Inc. | Collaborative achievement interface |
US10778623B1 (en) | 2018-10-31 | 2020-09-15 | Snap Inc. | Messaging and gaming applications communication platform |
US10939236B1 (en) | 2018-11-30 | 2021-03-02 | Snap Inc. | Position service to determine relative position to map features |
US11199957B1 (en) | 2018-11-30 | 2021-12-14 | Snap Inc. | Generating customized avatars based on location information |
GB201820541D0 (en) * | 2018-12-17 | 2019-01-30 | Spelfie Ltd | Imaging method and system |
EP3675483A1 (en) * | 2018-12-28 | 2020-07-01 | Ricoh Company, Ltd. | Content server, information sharing system, communication control method, and carrier means |
US11032670B1 (en) | 2019-01-14 | 2021-06-08 | Snap Inc. | Destination sharing in location sharing system |
US10939246B1 (en) | 2019-01-16 | 2021-03-02 | Snap Inc. | Location-based context information sharing in a messaging system |
US11294936B1 (en) | 2019-01-30 | 2022-04-05 | Snap Inc. | Adaptive spatial density based clustering |
US10936066B1 (en) | 2019-02-13 | 2021-03-02 | Snap Inc. | Sleep detection in a location sharing system |
US10838599B2 (en) | 2019-02-25 | 2020-11-17 | Snap Inc. | Custom media overlay system |
US10964082B2 (en) | 2019-02-26 | 2021-03-30 | Snap Inc. | Avatar based on weather |
CN109902681B (zh) * | 2019-03-04 | 2022-06-21 | 苏州达家迎信息技术有限公司 | 用户群体关系确定方法、装置、设备及存储介质 |
US11010596B2 (en) | 2019-03-07 | 2021-05-18 | 15 Seconds of Fame, Inc. | Apparatus and methods for facial recognition systems to identify proximity-based connections |
US10852918B1 (en) | 2019-03-08 | 2020-12-01 | Snap Inc. | Contextual information in chat |
US11868414B1 (en) | 2019-03-14 | 2024-01-09 | Snap Inc. | Graph-based prediction for contact suggestion in a location sharing system |
US11852554B1 (en) | 2019-03-21 | 2023-12-26 | Snap Inc. | Barometer calibration in a location sharing system |
US11249614B2 (en) | 2019-03-28 | 2022-02-15 | Snap Inc. | Generating personalized map interface with enhanced icons |
US10810782B1 (en) | 2019-04-01 | 2020-10-20 | Snap Inc. | Semantic texture mapping system |
US10693956B1 (en) | 2019-04-19 | 2020-06-23 | Greenfly, Inc. | Methods and systems for secure information storage and delivery |
KR102249383B1 (ko) * | 2019-04-25 | 2021-05-07 | 군산대학교 산학협력단 | 지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법 및 이를 수행하는 장치 |
US10560898B1 (en) | 2019-05-30 | 2020-02-11 | Snap Inc. | Wearable device location systems |
US10582453B1 (en) | 2019-05-30 | 2020-03-03 | Snap Inc. | Wearable device location systems architecture |
US10893385B1 (en) | 2019-06-07 | 2021-01-12 | Snap Inc. | Detection of a physical collision between two client devices in a location sharing system |
US11270338B2 (en) * | 2019-06-19 | 2022-03-08 | International Business Machines Corporation | Optimizing a digital display |
US11307747B2 (en) | 2019-07-11 | 2022-04-19 | Snap Inc. | Edge gesture interface with smart interactions |
CN112396441B (zh) * | 2019-08-14 | 2023-08-22 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置以及可读存储介质 |
US11821742B2 (en) | 2019-09-26 | 2023-11-21 | Snap Inc. | Travel based notifications |
US11218838B2 (en) | 2019-10-31 | 2022-01-04 | Snap Inc. | Focused map-based context information surfacing |
US11023729B1 (en) * | 2019-11-08 | 2021-06-01 | Msg Entertainment Group, Llc | Providing visual guidance for presenting visual content in a venue |
US11128715B1 (en) | 2019-12-30 | 2021-09-21 | Snap Inc. | Physical friend proximity in chat |
US10880496B1 (en) | 2019-12-30 | 2020-12-29 | Snap Inc. | Including video feed in message thread |
US11429618B2 (en) | 2019-12-30 | 2022-08-30 | Snap Inc. | Surfacing augmented reality objects |
KR102312523B1 (ko) * | 2019-12-31 | 2021-10-13 | 주식회사 포스코아이씨티 | 대량의 데이터 수집을 위한 인터페이스 미들웨어 시스템 |
US11343323B2 (en) | 2019-12-31 | 2022-05-24 | Snap Inc. | Augmented reality objects registry |
US11169658B2 (en) | 2019-12-31 | 2021-11-09 | Snap Inc. | Combined map icon with action indicator |
US11341351B2 (en) | 2020-01-03 | 2022-05-24 | 15 Seconds of Fame, Inc. | Methods and apparatus for facial recognition on a user device |
WO2021154418A1 (en) * | 2020-01-31 | 2021-08-05 | Tuckman Jonah Tal | System and method for mobile advertising |
US11228551B1 (en) | 2020-02-12 | 2022-01-18 | Snap Inc. | Multiple gateway message exchange |
US11516167B2 (en) | 2020-03-05 | 2022-11-29 | Snap Inc. | Storing data based on device location |
US11619501B2 (en) | 2020-03-11 | 2023-04-04 | Snap Inc. | Avatar based on trip |
CN111488799B (zh) * | 2020-03-13 | 2020-12-15 | 安徽小眯当家信息技术有限公司 | 一种基于图像识别的坠落物识别方法及系统 |
US11430091B2 (en) | 2020-03-27 | 2022-08-30 | Snap Inc. | Location mapping for large scale augmented-reality |
US10956743B1 (en) | 2020-03-27 | 2021-03-23 | Snap Inc. | Shared augmented reality system |
US11503432B2 (en) | 2020-06-15 | 2022-11-15 | Snap Inc. | Scalable real-time location sharing framework |
US11483267B2 (en) | 2020-06-15 | 2022-10-25 | Snap Inc. | Location sharing using different rate-limited links |
US11314776B2 (en) | 2020-06-15 | 2022-04-26 | Snap Inc. | Location sharing using friend list versions |
US11290851B2 (en) | 2020-06-15 | 2022-03-29 | Snap Inc. | Location sharing using offline and online objects |
US11308327B2 (en) | 2020-06-29 | 2022-04-19 | Snap Inc. | Providing travel-based augmented reality content with a captured image |
US11349797B2 (en) | 2020-08-31 | 2022-05-31 | Snap Inc. | Co-location connection service |
TWI737479B (zh) * | 2020-09-03 | 2021-08-21 | 國立勤益科技大學 | 動態廣告顯示系統 |
CN112036387B (zh) * | 2020-11-06 | 2021-02-09 | 成都索贝数码科技股份有限公司 | 基于门控卷积神经网络的新闻画面拍摄角度识别方法 |
EP4248336A4 (en) * | 2020-11-19 | 2024-04-10 | Pixellot Ltd | SYSTEM AND METHOD FOR AUTOMATIC VIDEO PRODUCTION BASED ON A READY-TO-USE VIDEO CAMERA |
CA3201122A1 (en) * | 2020-12-04 | 2022-06-09 | Andrea Gibb JACOBS | System and method for bi-directional communication for performances |
KR102320628B1 (ko) * | 2021-01-08 | 2021-11-02 | 강승훈 | 머신러닝 기반 정밀 위치 정보 제공 시스템 및 그 제공 방법 |
CN112836088B (zh) * | 2021-02-24 | 2023-07-18 | 腾讯科技(深圳)有限公司 | 用于生成与视频对应的标签的方法、设备和介质 |
US11610224B2 (en) * | 2021-03-16 | 2023-03-21 | International Business Machines Corporation | Electronic display systems |
KR102561252B1 (ko) * | 2021-03-18 | 2023-07-28 | 인하대학교 산학협력단 | 자동품질확인이 가능한 블록체인기반 크라우드 소싱방법 |
US11606756B2 (en) | 2021-03-29 | 2023-03-14 | Snap Inc. | Scheduling requests for location data |
US11645324B2 (en) | 2021-03-31 | 2023-05-09 | Snap Inc. | Location-based timeline media content system |
US20220393896A1 (en) * | 2021-06-08 | 2022-12-08 | International Business Machines Corporation | Multi-user camera switch icon during video call |
US20230109923A1 (en) * | 2021-10-12 | 2023-04-13 | cultureNow, Inc. | Systems and methods for electronic information presentation |
US11829834B2 (en) | 2021-10-29 | 2023-11-28 | Snap Inc. | Extended QR code |
WO2023182022A1 (ja) * | 2022-03-25 | 2023-09-28 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、端末装置及び出力方法 |
US11842510B2 (en) | 2022-05-07 | 2023-12-12 | Pano AI, Inc. | Systems and methods for true north orientation |
CN114915727B (zh) * | 2022-05-12 | 2023-06-06 | 北京国基科技股份有限公司 | 一种视频监控画面构建方法及装置 |
CN115527180B (zh) * | 2022-11-03 | 2023-05-23 | 北京贝能达信息技术股份有限公司 | 一种基于图像识别技术的车厢拥挤度识别系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090319166A1 (en) | 2008-06-20 | 2009-12-24 | Microsoft Corporation | Mobile computing services based on devices with dynamic direction information |
Family Cites Families (90)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7448063B2 (en) | 1991-11-25 | 2008-11-04 | Actv, Inc. | Digital interactive system for providing full interactivity with live programming events |
CA2127765C (en) | 1993-08-24 | 2000-12-12 | James Gifford Evans | Personalized image recording system |
EP0715453B1 (en) | 1994-11-28 | 2014-03-26 | Canon Kabushiki Kaisha | Camera controller |
US5729471A (en) | 1995-03-31 | 1998-03-17 | The Regents Of The University Of California | Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene |
US5850352A (en) | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
US6002995A (en) | 1995-12-19 | 1999-12-14 | Canon Kabushiki Kaisha | Apparatus and method for displaying control information of cameras connected to a network |
US5917958A (en) | 1996-10-31 | 1999-06-29 | Sensormatic Electronics Corporation | Distributed video data base with remote searching for image data features |
JP3710257B2 (ja) | 1997-06-10 | 2005-10-26 | キヤノン株式会社 | カメラ制御システムおよびその制御方法およびその制御を実行するプログラムを記憶した記憶媒体 |
US6697103B1 (en) | 1998-03-19 | 2004-02-24 | Dennis Sunga Fernandez | Integrated network for monitoring remote objects |
JP2000069346A (ja) | 1998-06-12 | 2000-03-03 | Canon Inc | カメラ制御装置、方法、カメラ、追尾カメラシステム及びコンピュ―タ読み取り可能な記憶媒体 |
US7576770B2 (en) | 2003-02-11 | 2009-08-18 | Raymond Metzger | System for a plurality of video cameras disposed on a common network |
US7106360B1 (en) | 1999-08-10 | 2006-09-12 | U'r There! Entertainment, Ltd. | Method for distributing sports entertainment |
US6507802B1 (en) * | 2000-02-16 | 2003-01-14 | Hrl Laboratories, Llc | Mobile user collaborator discovery method and apparatus |
JP2001236350A (ja) | 2000-02-21 | 2001-08-31 | E Web:Kk | 告知広告生成チャットシステム |
EP1269754A4 (en) | 2000-03-14 | 2009-03-11 | Joseph Robert Marchese | DIGITAL VIDEO SYSTEM USING NETWORKED CAMERAS |
AU2001264723A1 (en) | 2000-05-18 | 2001-11-26 | Imove Inc. | Multiple camera video system which displays selected images |
US7782363B2 (en) | 2000-06-27 | 2010-08-24 | Front Row Technologies, Llc | Providing multiple video perspectives of activities through a data network to a remote multimedia server for selective display by remote viewing audiences |
JP3992909B2 (ja) | 2000-07-03 | 2007-10-17 | 富士フイルム株式会社 | 本人画像提供システム |
US7199817B2 (en) | 2000-07-26 | 2007-04-03 | Smiths Detection Inc. | Methods and systems for networked camera control |
US7193645B1 (en) | 2000-07-27 | 2007-03-20 | Pvi Virtual Media Services, Llc | Video system and method of operating a video system |
US6591068B1 (en) | 2000-10-16 | 2003-07-08 | Disney Enterprises, Inc | Method and apparatus for automatic image capture |
US7031875B2 (en) * | 2001-01-24 | 2006-04-18 | Geo Vector Corporation | Pointing systems for addressing objects |
US7027083B2 (en) | 2001-02-12 | 2006-04-11 | Carnegie Mellon University | System and method for servoing on a moving fixation point within a dynamic scene |
US6834266B2 (en) * | 2001-10-11 | 2004-12-21 | Profitlogic, Inc. | Methods for estimating the seasonality of groups of similar items of commerce data sets based on historical sales data values and associated error information |
WO2003041411A1 (en) | 2001-11-08 | 2003-05-15 | Revolution Company, Llc | Video system and methods for operating a video system |
US8611919B2 (en) * | 2002-05-23 | 2013-12-17 | Wounder Gmbh., Llc | System, method, and computer program product for providing location based services and mobile e-commerce |
US7447380B2 (en) | 2002-09-12 | 2008-11-04 | Inoe Technologies, Llc | Efficient method for creating a viewpoint from plurality of images |
US7631261B2 (en) | 2002-09-12 | 2009-12-08 | Inoue Technologies, LLC | Efficient method for creating a visual telepresence for large numbers of simultaneous users |
US20040075752A1 (en) | 2002-10-18 | 2004-04-22 | Eastman Kodak Company | Correlating asynchronously captured event data and images |
GB2397908A (en) | 2003-01-31 | 2004-08-04 | Hewlett Packard Co | Image-capture event monitoring |
US7242423B2 (en) | 2003-06-16 | 2007-07-10 | Active Eye, Inc. | Linking zones for object tracking and camera handoff |
JP4195991B2 (ja) | 2003-06-18 | 2008-12-17 | パナソニック株式会社 | 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ |
KR20050042399A (ko) | 2003-11-03 | 2005-05-09 | 삼성전자주식회사 | 게이즈 디텍션을 이용한 비디오 데이터 처리 장치 및 방법 |
KR100458459B1 (ko) * | 2004-01-27 | 2004-11-26 | 엔에이치엔(주) | 검색자의 검색 요청에 응답하여 검색 결과 목록을생성하고 검색어 광고를 제공하는 방법 및 검색어 광고제공 시스템 |
EP1757087A4 (en) | 2004-04-16 | 2009-08-19 | James A Aman | AUTOMATIC VIDEO RECORDING OF EVENTS, PURSUIT AND CONTENT PRODUCTION SYSTEM |
WO2006046234A2 (en) | 2004-10-25 | 2006-05-04 | Magal Security Systems Ltd. | System and apparatus for multi media surveillance |
US7460150B1 (en) | 2005-03-14 | 2008-12-02 | Avaya Inc. | Using gaze detection to determine an area of interest within a scene |
EP2498210A1 (en) | 2005-07-22 | 2012-09-12 | Kangaroo Media, Inc. | System and methods for enhancing the experience of spectators attending a live sporting event |
US7495687B2 (en) | 2005-09-07 | 2009-02-24 | F4W, Inc. | System and methods for video surveillance in networks |
JP2007102343A (ja) * | 2005-09-30 | 2007-04-19 | Fujifilm Corp | 関心度測定装置および方法並びに関心度算出プログラム |
US20070146484A1 (en) | 2005-11-16 | 2007-06-28 | Joshua Horton | Automated video system for context-appropriate object tracking |
US7856360B2 (en) | 2006-01-30 | 2010-12-21 | Hoozware, Inc. | System for providing a service to venues where people aggregate |
EP1999674A4 (en) | 2006-03-28 | 2010-10-06 | Hewlett Packard Development Co | SYSTEM AND METHOD FOR SOCIAL NAVIGATION IN A NETWORK TIME MEDIA |
CN101467454A (zh) | 2006-04-13 | 2009-06-24 | 科汀科技大学 | 虚拟观测器 |
JP5130421B2 (ja) * | 2006-06-18 | 2013-01-30 | 雅英 田中 | 通信機能を有するデジタルカメラ |
US8115812B2 (en) | 2006-09-20 | 2012-02-14 | Panasonic Corporation | Monitoring system, camera, and video encoding method |
US8531521B2 (en) * | 2006-10-06 | 2013-09-10 | Sightlogix, Inc. | Methods and apparatus related to improved surveillance using a smart camera |
US20090012868A1 (en) * | 2006-11-09 | 2009-01-08 | Deangelis Douglas J | Systems And Methods For Real-Time Allocation Of Digital Content |
US20080147484A1 (en) * | 2006-12-13 | 2008-06-19 | Xero Mobile Inc. | High speed advertising to mobile transceivers |
US7840130B2 (en) | 2007-03-28 | 2010-11-23 | Honeywell International Inc. | Mesh communication wireless camera system and method |
US7672937B2 (en) * | 2007-04-11 | 2010-03-02 | Yahoo, Inc. | Temporal targeting of advertisements |
US8527655B2 (en) | 2007-05-22 | 2013-09-03 | Vidsys, Inc. | Optimal routing of audio, video, and control data through heterogeneous networks |
US10116904B2 (en) | 2007-07-13 | 2018-10-30 | Honeywell International Inc. | Features in video analytics |
US20090044235A1 (en) | 2007-08-07 | 2009-02-12 | Davidson Daniel L | Method and system for on-line content acquisition and distribution |
US8522289B2 (en) | 2007-09-28 | 2013-08-27 | Yahoo! Inc. | Distributed automatic recording of live event |
US8250616B2 (en) | 2007-09-28 | 2012-08-21 | Yahoo! Inc. | Distributed live multimedia capture, feedback mechanism, and network |
US20090089162A1 (en) | 2007-09-28 | 2009-04-02 | Yahoo!, Inc. | Distributed live multimedia monetization mechanism and network |
US8180396B2 (en) * | 2007-10-18 | 2012-05-15 | Yahoo! Inc. | User augmented reality for camera-enabled mobile devices |
US20090113505A1 (en) | 2007-10-26 | 2009-04-30 | At&T Bls Intellectual Property, Inc. | Systems, methods and computer products for multi-user access for integrated video |
US8275419B2 (en) * | 2007-11-14 | 2012-09-25 | Yahoo! Inc. | Advertisements on mobile devices using integrations with mobile applications |
US8204273B2 (en) | 2007-11-29 | 2012-06-19 | Cernium Corporation | Systems and methods for analysis of video content, event notification, and video content provision |
US7836093B2 (en) | 2007-12-11 | 2010-11-16 | Eastman Kodak Company | Image record trend identification for user profiles |
US8588816B2 (en) * | 2007-12-21 | 2013-11-19 | Qualcomm Incorporated | Systems and methods for targeted advertising on wireless devices based on device location and current user interests |
AU2008200926B2 (en) | 2008-02-28 | 2011-09-29 | Canon Kabushiki Kaisha | On-camera summarisation of object relationships |
EP2107761A1 (en) | 2008-03-31 | 2009-10-07 | Sony Corporation | Method to determine a subgroup of users |
JP5186984B2 (ja) * | 2008-04-08 | 2013-04-24 | 株式会社ニコン | 電子カメラ |
US20090315766A1 (en) * | 2008-06-19 | 2009-12-24 | Microsoft Corporation | Source switching for devices supporting dynamic direction information |
JP2010020718A (ja) * | 2008-07-14 | 2010-01-28 | Oki Electric Ind Co Ltd | 情報処理装置及び情報処理方法 |
US20100030706A1 (en) * | 2008-07-29 | 2010-02-04 | Ramakrishnan Kannan | Efficient auctioning of electronic billboards by using traffic estimation data from mobile phone service |
JP4282091B1 (ja) * | 2008-09-04 | 2009-06-17 | 株式会社モバイルビジネスプロモート | 端末装置、情報処理方法及びプログラム |
US20100153861A1 (en) | 2008-09-26 | 2010-06-17 | Deep Rock Drive Partners Inc. | Interactive events |
JP5147761B2 (ja) * | 2009-03-02 | 2013-02-20 | セコム株式会社 | 画像監視装置 |
CN101510913A (zh) * | 2009-03-17 | 2009-08-19 | 山东师范大学 | 基于三维电子罗盘的智能手机增强现实系统及实现方法 |
CA2755774C (en) | 2009-03-19 | 2015-01-06 | Azuki Systems, Inc. | Method for scalable live streaming delivery for mobile audiences |
US20100262497A1 (en) * | 2009-04-10 | 2010-10-14 | Niklas Karlsson | Systems and methods for controlling bidding for online advertising campaigns |
US10679251B2 (en) * | 2009-06-18 | 2020-06-09 | Microsoft Technology Licensing, Llc | Controlling ad delivery to mobile clients |
US8473512B2 (en) * | 2009-11-06 | 2013-06-25 | Waldeck Technology, Llc | Dynamic profile slice |
US8335522B2 (en) * | 2009-11-15 | 2012-12-18 | Nokia Corporation | Method and apparatus for mobile assisted event detection and area of interest determination |
US8577083B2 (en) | 2009-11-25 | 2013-11-05 | Honeywell International Inc. | Geolocating objects of interest in an area of interest with an imaging system |
US8386620B2 (en) * | 2009-12-15 | 2013-02-26 | Apple Inc. | Ad hoc networking based on content and location |
US20110191151A1 (en) | 2010-02-01 | 2011-08-04 | Rodney Boyd Rosa | System for serving advertisements that allows compensation for user viewing |
US9602776B2 (en) | 2010-02-02 | 2017-03-21 | Verizon Patent And Licensing Inc. | Accessing web-based cameras arranged by category |
US9488488B2 (en) | 2010-02-12 | 2016-11-08 | Apple Inc. | Augmented reality maps |
US8311279B2 (en) | 2010-02-23 | 2012-11-13 | Fuji Xerox Co., Ltd. | System and method for improved image analysis through gaze data feedback |
US20110271213A1 (en) | 2010-05-03 | 2011-11-03 | Alcatel-Lucent Canada Inc. | Event based social networking application |
WO2012020510A1 (en) | 2010-08-11 | 2012-02-16 | Telefonaktiebolaget L M Ericsson (Publ) | Face-directional recognition driven display control |
US8874538B2 (en) * | 2010-09-08 | 2014-10-28 | Nokia Corporation | Method and apparatus for video synthesis |
US20120114307A1 (en) | 2010-11-09 | 2012-05-10 | Jianchao Yang | Aligning and annotating different photo streams |
US8688520B2 (en) * | 2010-12-09 | 2014-04-01 | Nec Laboratories America, Inc. | Opportunistic alignment of advertisement delivery with cellular basestation overloads |
US8786680B2 (en) | 2011-06-21 | 2014-07-22 | Disney Enterprises, Inc. | Motion capture from body mounted cameras |
-
2012
- 2012-03-07 US US13/414,513 patent/US9020832B2/en active Active
- 2012-03-07 CN CN201510143937.9A patent/CN104765801A/zh active Pending
- 2012-03-07 JP JP2013557831A patent/JP5530572B2/ja active Active
- 2012-03-07 CA CA2829597A patent/CA2829597C/en active Active
- 2012-03-07 EP EP12755489.7A patent/EP2684145A4/en not_active Ceased
- 2012-03-07 AU AU2012225536A patent/AU2012225536B9/en active Active
- 2012-03-07 WO PCT/US2012/028074 patent/WO2012122269A2/en unknown
- 2012-03-07 KR KR1020137025660A patent/KR101383238B1/ko active IP Right Grant
- 2012-03-07 CN CN201280020614.5A patent/CN103502986B/zh active Active
- 2012-10-16 US US13/653,228 patent/US8527340B2/en active Active
-
2014
- 2014-04-18 JP JP2014086609A patent/JP5775196B2/ja not_active Expired - Fee Related
-
2015
- 2015-03-27 US US14/671,341 patent/US20150206027A1/en not_active Abandoned
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090319166A1 (en) | 2008-06-20 | 2009-12-24 | Microsoft Corporation | Mobile computing services based on devices with dynamic direction information |
Also Published As
Publication number | Publication date |
---|---|
AU2012225536A1 (en) | 2013-10-03 |
US20120233000A1 (en) | 2012-09-13 |
AU2012225536B9 (en) | 2014-01-09 |
CN103502986B (zh) | 2015-04-29 |
US8527340B2 (en) | 2013-09-03 |
EP2684145A4 (en) | 2014-09-03 |
CN103502986A (zh) | 2014-01-08 |
EP2684145A2 (en) | 2014-01-15 |
WO2012122269A3 (en) | 2013-03-14 |
US20150206027A1 (en) | 2015-07-23 |
US9020832B2 (en) | 2015-04-28 |
JP5775196B2 (ja) | 2015-09-09 |
JP2014146378A (ja) | 2014-08-14 |
US20130040660A1 (en) | 2013-02-14 |
CA2829597C (en) | 2015-05-26 |
JP2014514632A (ja) | 2014-06-19 |
JP5530572B2 (ja) | 2014-06-25 |
WO2012122269A2 (en) | 2012-09-13 |
AU2012225536B2 (en) | 2013-11-07 |
KR20130130060A (ko) | 2013-11-29 |
CN104765801A (zh) | 2015-07-08 |
CA2829597A1 (en) | 2012-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101383238B1 (ko) | 이벤트 또는 지리적 위치에 있는 이미지 제공자들로부터의 분석 데이터 수집을 위한 시스템 및 방법 | |
US11496814B2 (en) | Method, system and computer program product for obtaining and displaying supplemental data about a displayed movie, show, event or video game | |
JP5649303B2 (ja) | メディア・ストリームに注釈を付ける方法および装置 | |
JP6485969B2 (ja) | ビデオコンテンツの動的バインド | |
US9661462B2 (en) | Location-based digital media platform | |
CN103942694B (zh) | 用于提供基于地点数据的内容的方法和系统 | |
CN101809972B (zh) | 使用元数据流来发现点对点内容 | |
JP6904954B2 (ja) | ネットワークベースのイベント記録 | |
KR20150113974A (ko) | 동적 홍보 배치 관리와 배포 규칙 | |
WO2019192424A1 (zh) | 短视频处理方法、装置及移动终端 | |
US20130232435A1 (en) | Map based event navigation and venue recommendation system | |
US20150341541A1 (en) | Methods and systems of remote acquisition of digital images or models | |
US10841028B2 (en) | System and method for analyzing user-supplied media at a sporting event | |
AU2013257431B2 (en) | Systems and methods for analytic data gathering from image providers at an event or geographic location | |
US11245947B1 (en) | Device and method for capturing, processing, linking and monetizing a plurality of video and audio recordings from different points of view (POV) | |
JP6804968B2 (ja) | 情報配信装置、情報配信方法および情報配信プログラム | |
US20190139151A1 (en) | Crowdfunded travel based on entertainment value | |
CN115988228A (zh) | 直播画面的热区显示方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20170317 Year of fee payment: 4 |