KR101383238B1 - 이벤트 또는 지리적 위치에 있는 이미지 제공자들로부터의 분석 데이터 수집을 위한 시스템 및 방법 - Google Patents

이벤트 또는 지리적 위치에 있는 이미지 제공자들로부터의 분석 데이터 수집을 위한 시스템 및 방법 Download PDF

Info

Publication number
KR101383238B1
KR101383238B1 KR1020137025660A KR20137025660A KR101383238B1 KR 101383238 B1 KR101383238 B1 KR 101383238B1 KR 1020137025660 A KR1020137025660 A KR 1020137025660A KR 20137025660 A KR20137025660 A KR 20137025660A KR 101383238 B1 KR101383238 B1 KR 101383238B1
Authority
KR
South Korea
Prior art keywords
event
data
image
delete delete
location
Prior art date
Application number
KR1020137025660A
Other languages
English (en)
Other versions
KR20130130060A (ko
Inventor
존 피셔
제프 브로데릭
더글라스 반 블레어컴
알렉스 말리노프스키
안소니 에스. 우
Original Assignee
케이비에이2, 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 케이비에이2, 인코포레이티드 filed Critical 케이비에이2, 인코포레이티드
Publication of KR20130130060A publication Critical patent/KR20130130060A/ko
Application granted granted Critical
Publication of KR101383238B1 publication Critical patent/KR101383238B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/787Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/421Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation by analysing segments intersecting the pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

본 발명은 그들의 이미지 캡처 디바이스들을 에이밍(aiming)하는 디바이스 조작자들로부터 데이터를 수집 및 분석하고, 이에 의해 예를 들어, 이벤트 또는 지리적 위치의 사진, 비디오 또는 다른 디지털 이미지를 획득하는 프로세스를 통해 관심 대상에 대한 시선을 생성하는 시스템 및 방법에 관한 것이고, 여기서 상기 실시간 또는 임베딩된 위치, 콤파스 헤딩(compass heading), 및 각각의 복수의 이미지 제공자들로부터의 시간데이터는 상기 이벤트 또는 위치에서 각각의 이미지 타겟 또는 서브-타겟에 초점을 맞추고 있는 제공자들의 비율 양의 통계 분석을 위해 상기 복수의 이미지-캡처 디바이스들로부터 하나 이상의 서버들로 전달된다.

Description

이벤트 또는 지리적 위치에 있는 이미지 제공자들로부터의 분석 데이터 수집을 위한 시스템 및 방법{SYSTEMS AND METHODS FOR ANALYTIC DATA GATHERING FROM IMAGE PROVIDERS AT AN EVENT OR GEOGRAPHIC LOCATION}
본 특허 출원은 2011년 9월 27일에 출원된 미국 가출원 번호 61/539,718, 2011년 6월 9일에 출원된 가출원 번호 61/495,335, 2011년 3월 7일에 출원된 가출원 번호 61/450,092를 우선권으로 주장하며, 이들 모두는 모든 목적을 위해 그 전체 내용이 참조에 의해서 명백히 본 명세서에 포함된다.
발명의 분야
본 발명은 이미지 캡처 디바이스들에 의해 생성되고 또한 자신의 이미지 캡처 디바이스들을 에이밍(aiming)하는 디바이스 조작자들로부터 모인 데이터를 수집 및 분석하며, 이에 의해 예를 들어, 이벤트 또는 위치의 사진, 비디오, 다른 디지털 이미지의 처리를 통해 관심 대상에 대한 시선을 생성하는 시스템 및 방법에 관한 것이다.
또한, 본 발명의 실시예들은 이벤트들 또는 위치들에 있는 관심 대상들을 결정하는 시스템으로서, 원격 휴대용 이미지 캡처 디바이스들로부터 실시간 데이터 스트림을 수신할 수 있는 적어도 하나의 애플리케이션 프로그램을 실행하고 또한 상기 데이터를 분석하는 컴퓨터 시스템과, 수신된 데이터의 적어도 일부를 저장할 수 있는 데이터베이스를 포함하고, 상기 애플리케이션 프로그램은, 상기 디바이스들이 그들의 디바이스들의 이미지 캡처링 기능들을 사용하고 있는 경우 상기 디바이스들의 콤파스 헤딩(compass heading) 및 지리적 위치를 상기 애플리케이션 프로그램이 그로부터 결정하게 하는 상기 휴대용 이미지 캡처 디바이스들 정보로부터의 상시 실시간 데이터 스트림을 수신하고, 2개 이상의 디바이스들의 각각으로부터의 시선이 가로지르는 위치를 계산하여 잠재적 관심 대상을 식별하고, 상기 잠재적 관심 대상과 연관된 사용자들의 클러스터의 계산으로부터 식별하고, 상기 클러스터 및 특정 관심 대상과의 연관을 저장하도록 구성되는 시스템에 관한 것이다.
또한, 본 발명의 실시예들은 상기 2개 이상의 디바이스들로부터 지리적으로 분리되어 있으며, 상기 디바이스들은 모바일 텔레폰 디바이스들인 시스템에 관한 것이다.
또한, 본 발명의 실시예들은 상기 실시간 데이터 스트림은 상기 디바이스들로부터의 GPS 좌표들과 콤파스 헤딩을 포함하고, 상기 애플리케이션 프로그램은 상기 디바이스들로부터의 GPS 좌표들과 콤파스 헤딩을 사용하는 삼각 측량에 의해 상기 잠재적 관심 대상의 위치를 계산하여 상기 디바이스들 사이의 거리와 각도를 결정하는 시스템에 관한 것이다.
또한, 본 발명의 실시예들은 상기 서버 시스템은 상기 잠재적 관심 대상들의 위치(들)을 저장하고, 상기 애플리케이션 프로그램의 알고리즘은 상기 저장된 위치들을 분석하여 상기 클러스터의 동적 상태를 결정하는 시스템에 관한 것이며, 상기 클러스터는 2개 이상의 시선들이 교차하는 공간의 영역일 수 있다.
또한, 본 발명의 실시예들인, 상기 서버 시스템은 상기 클러스터의 위치 또는 상기 클러스터 내의 사용자들의 급속한 증가를 제 3 당사자에게 전송하여 그들에게 자신의 존재를 알리고, 이에 따라 상기 제 3 당사자가 상기 클러스터에 반응할 수 있는 시스템에 관한 것이다.
또한, 본 발명의 실시예들은 복수의 이미지 캡처 디바이스들로부터 정보를 획득하는 컴퓨터 구현 방법으로서, 복수의 이미지 캡처 디바이스들의 각각으로부터 연속적인 데이터 스트림을 수신하는 단계로서, 상기 데이터 스트림은 GPS 포지션 데이터, 콤파스 헤딩 데이터, 및 시간 데이터를 포함하는, 상기 수신하는 단계와, 각각의 전자 디바이스가 초점 맞추고 있는 위치들을 결정하는 소프트웨어 애플리케이션을 사용하여 상기 데이터를 처리하는 단계와, 거의 동일한 시간에 각각의 위치에 초점을 맞추고 있는 전자 디바이스들의 개수를 상기 처리된 데이터로부터 결정하는 단계와, 특정 위치에 초점을 맞추고 있는 것으로 결정된 디바이스들의 개수로부터 사용자의 클러스터를 식별하는 단계와, 특정 시간 또는 시간 구간에 각각의 위치에 초점을 맞추고 있는 전자 디바이스들의 비율 수의 통계적 계산들을 수행하는 것에 의해 각각의 위치에서의 관심 양 또는 관심 모멘텀을 나타내는 정보를 생성하는 단계를 포함하는 컴퓨터 구현 방법에 관한 것이다.
추가적인 본 발명의 실시예들은 소정 시간들에서 타겟에 대한 위치들에 관한 장래 결정들에 대한 상기 통계적 계산들의 결과들을 저장하는 단계에 관한 것이다.
다른 본 발명의 실시예들은 이벤트 또는 위치에 있는 대상의 관심 레벨을 결정하는 컴퓨터 구현 방법으로서, 하나 이상의 전자 디바이스들로부터 전송되는 컴퓨터 시스템에서의 실시간 데이터 스트림을 수신하는 단계로서, 상기 전자 디바이스들은 상기 시스템으로부터 원격인, 상기 수신하는 단계와, 상기 시스템 상에 상기 전자 디바이스들의 각각으로부터의 상기 데이터 스트림을 포함하는 데이터 값들을 저장하는 단계로서, 상기 데이터 값들은 상기 전송하고 있는 전자 디바이스의 적어도 GPS 좌표들 및 콤파스 헤딩을 포함하는, 상기 저장하는 단계와, 상기 GPS 포지션 및 콤파스 헤딩에 기초하여 상기 전자 디바이스들의 각각으로부터의 시선을 결정하는 단계와, 한 쌍의 전자 디바이스들 사이의 거리 및 방향을 결정하는 단계와, 삼각 측량을 통해 상기 한 쌍의 전자 디바이스들에 대한 시선들의 교차 지점을 계산하는 단계와, 각각의 가능한 쌍의 전자 디바이스들에 대한 거리 및 방향을 결정하고 삼각 측량을 통해 각 가능한 쌍의 전자 디바이스들의 시선들에 대한 교차 지점을 계산하는 것을 반복하여 그러한 지점들의 세트를 생성하는 단계와, 상기 세트의 교차 지점 사이의 거리를 분석하여 상기 지점들의 서브세트가 클러스터를 형성하는 곳을 결정하는 단계로서, 상기 클러스터는 모든 다른 지점들로부터의 미리결정된 거리 이내에 위치해 있는 지점들의 세트인, 상기 결정하는 단계와, 클러스터들의 형성을 모니터링하는 제 3 당사자에게 클러스터의 위치를 전송하는 단계를 포함하는 컴퓨터 구현 방법에 관한 것이다.
또한, 본 발명의 실시예들은 상기 지점들의 세트의 분석을 반복하여 특정 시간에 클러스터들을 형성하는 모든 서브세트들을 식별하는 단계와, 특정 클러스터와 연관된 관심 대상을 식별하는 단계와, 상기 세트를 형성하는 교차 지점들의 전체 개수와 비교되는 특정 연관된 클러스터를 형성하는 서브세트의 지점들의 개수의 비율에 기초하여 상기 식별된 대상의 관심 레벨을 결정하는 단계를 갖는 컴퓨터 구현 방법에 관한 것이다.
다른 실시예는 상기 제 3 당사자는 브로드캐스터이고, 상기 브로드캐스터는 하나 이상의 관심 대상들의 위치 및 관심 레벨을 수신함으로써 관람중인 청중에 대한 브로드캐스팅을 위해 어떤 대상에 초점이 맞추어지고 있는지의 결정에 도움을 주는 컴퓨터 구현 방법에 관한 것이다.
또한, 본 발명의 실시예들은 시간 동안 교차 지점의 변화를 트래킹(tracking)하여 클러스터들의 포지션 및 사이즈의 변화를 결정하는 단계에 관한 것이고, 클러스터를 형성하는 지점들의 개수의 변화는 대상들 사이의 관심 레벨들의 이동을 식별시키는 컴퓨터 구현 방법에 관한 것이다.
다른 실시예는 상기 제 3 당사자는 보안 기관이며, 일 대상에서의 특정 위치 및 관심 레벨의 이동의 비율은 그 위치에서 가능한 보안 위험을 나타내며 이에 의해 상기 보안 기관에게 그러한 위험을 알리는 컴퓨터 구현 방법에 관한 것이다.
다른 실시예들은 클러스터를 상기 클러스터를 형성하는 지점들의 서브세트를 계산하는데 사용되는 데이터와 연관시키는 단계와,
상기 클러스터와 연관된 데이터를 전송한 상기 전자 디바이스들을 식별하는 단계와, 식별된 상기 전자 디바이스들로 다시 메시지를 전송하는 단계를 갖는 컴퓨터 구현 방법에 관한 것이다.
다른 실시예는 식별된 상기 전자 디바이스들로 전송된 메시지는 상기 전자 디바이스들 사이의 논의 그룹을 형성하기 위한 초대(invitation)인 컴퓨터 구현 방법에 관한 것이다.
또한, 일 실시예는 식별된 상기 전자 디바이스들로 전송된 메시지는 상기 관심 대상에 관한 정보를 포함하는 컴퓨터 구현 방법에 관한 것이다.
또 다른 실시예는 식별된 상기 전자 디바이스들로 전송된 메시지는 제품 또는 서비스에 대한 광고인 컴퓨터 구현 방법에 관한 것이다.
또한, 본 발명의 실시예들은 서버 리소스들이 시선들 및 교차 지점을 계산하는데 불규칙한 데이터를 사용하기 이전에, 상기 서버에 의해 수신된 데이터 스트림을 필터링하여 상기 불규칙한 데이터 값을 제거하는 단계를 갖는 컴퓨터 구현 방법에 관한 것이다.
본 발명의 실시예들은 이벤트 또는 위치에 있는 대상의 관측자들의 관심 레벨을 식별하는 컴퓨터 구현 방법으로서, 통신 네트워크를 통해 데이터를 전달할 수 있고 또한 이미지들을 캡처할 수 있는 활성화된 전자 디바이스들을 구비하는 이벤트 또는 위치에 있는 복수의 관측자들을 식별하는 단계와, 그들의 GPS 포지션들 및 방위 대향에 관하여 상기 활성화된 전자 디바이스들에 의해 하나 이상의 서버(들)로 전송되고 있는 상기 데이터 및 이미지들을 모니터링하는 단계와, 상기 하나 이상의 서버들에 상기 전자 디바이스들에 의해 생성된 상기 전송된 데이터 및 이미지들을 컴파일하는 단계와, 수집된 상기 이미지들의 메타데이터 및 상기 전자 디바이스들의 포지션 및 초점의 방향에 관한 데이터를 분석하여 상기 이벤트 또는 위치에서 발생한 상이한 상황들의 관측자의 관심 레벨을 결정하고 상기 분석을 통해 클러스터들 또는 패턴들을 인식하는 단계를 포함하는 컴퓨터 구현 방법에 관한 것이다.
또 다른 실시예는 상기 이벤트 또는 위치에 관한 정보에 기초하여 데이터베이스를 생성하는 단계와, 상기 서버(들)에 상기 데이터베이스를 저장하는 단계와, 특정 시간 또는 시간 구간 동안 상기 이벤트의 하나 이상의 이미지들 또는 비디오들을 캡처하는 단계와, 상기 캡처된 이미지들 또는 비디오들에 상기 이벤트 또는 위치 및 시간 스탬프를 식별시키는 정보를 태깅하는 단계와, 상기 태깅된 이미지 및 메타데이터를 상기 서버로 전송하는 단계와, 상기 시간 스탬프를 포함하는 상기 메타데이터에 기초하여 상기 태깅된 이미지를 식별하고, 또한 상기 이미지를 상기 데이터베이스에서 정확한 이벤트 또는 위치와 연관시키는 단계와, 상기 정확한 이벤트 또는 위치를 위해 상기 데이터베이스에 상기 이미지를 저장하는 단계와, 상기 캡처된 이미지를 웹사이트에 디스플레이하는 단계를 갖는 컴퓨터 구현 방법에 관한 것이다.
다른 실시예는 컴퓨터 처리 시스템에 의해 실행가능한 컴퓨터-판독가능 명령어들을 구비하는 비-일시적 컴퓨터 판독가능 저장매체로서, 상기 컴퓨터-판독가능 명령어들은, 이동 디바이스들로부터 위치, 방향, 및 시간 데이터를 수신하는 컴퓨터 시스템으로 하여금 분석을 위해 상기 위치, 방향, 및 시간 데이터를 컴파일하게 하는 명령어들과, 상기 시스템으로 하여금 상기 컴파일된 데이터를 분석하여 원격 디바이스들 중의 적어도 2개의 방향 데이터에 기초하여 시선이 복수의 원격 디바이스들의 각각에 대한 초점 타겟을 식별하도록 가로지를 수 있는 곳을 결정하게 하는 명령어들과, 상기 시스템으로 하여금 상기 타겟의 특정 위치에 있는 교차 지점의 개수에 기초하여 특정 시간에서 특정 타겟에 초점을 맞추고 있는 원격 디바이스들의 개수를 계산하게 하는 명령어들과, 상기 시스템으로 하여금 다른 타겟들에 비교되는 특정 시간에서 특정 타겟에 초점을 맞추고 있는 원격 디바이스의 비율 수의 통계적 계산들의 결과들로부터 각 타겟의 관심 양을 결정하게 하는 명령어들을 포함하는 컴퓨터 판독가능 저장매체에 관한 것이다.
또 다른 실시예는 시스템으로서, 하나 이상의 애플리케이션들을 실행하는 컴퓨터 시스템을 포함하고, 상기 컴퓨터 시스템은, 개인이 대상들에 있는 지점에 대해 그들의 휴대용 카메라들을 사용하고 있는 경우, 네트워크를 통해 휴대용 카메라들로부터 데이터를 수신하고, 실시간으로 데이터를 수집 및 처리하여 상기 카메라들의 하나 이상의 시선으로부터 둘 이상의 사용자들 사이에 공유되는 관심을 갖는 위치를 결정하도록 구성되고, 일 위치에서 공유되는 관심에 기초하여 각 클러스터에 포함된 사용자들의 복수의 클러스터들을 식별하고, 또한 각 클러스터와 연관된 사용자 데이터를 저장하는 시스템에 관한 것이다.
또한 상기 시스템의 일 실시예는 상기 위치(들)을 저장하고, 상기 2개의 원격 전자 디바이스들의 각각으로부터의 시선은 상기 데이터베이스에서 교차하게 되며, 또한 상기 애플리케이션 프로그램의 알고리즘은 상기 저장된 위치들을 분석하여 상기 클러스터의 동적 상태를 결정하는 서버 시스템에 관한 것이다.
본 발명의 다른 실시예는 한 쌍의 전자 디바이스들 사이의 거리 및 방향을 결정하는 것과, 삼각 측량을 통해 상기 한 쌍의 전자 디바이스들에 대한 시선들의 교차 지점을 계산하는 것과, 각각의 가능한 쌍의 전자 디바이스들에 대한 거리 및 방향을 결정하고 삼각 측량을 통해 각 가능한 쌍의 전자 디바이스들의 시선들에 대한 교차 지점을 계산하는 것을 반복하여 그러한 지점들의 세트를 생성하는 것과, 상기 세트의 교차 지점 사이의 거리를 분석하여 상기 지점들의 서브세트가 클러스터를 형성하는 곳을 결정하는 단계로서, 상기 클러스터는 모든 다른 지점들로부터의 미리결정된 거리 이내에 위치해 있는 지점들의 세트인, 상기 결정하는 것과, 클러스터들의 형성을 모니터링하는 제 3 당사자에게 클러스터의 위치를 전송하는 것에 관한 것이다. 또한, 본 발명의 일 실시예는 시간 동안 교차 지점의 변화를 트래킹(tracking)하여 클러스터들의 포지션 및 사이즈의 변화를 결정하는 것에 관한 것이고, 클러스터를 형성하는 지점들의 개수의 변화는 대상들 사이의 관심 레벨들의 이동을 식별시키는 것에 관한 것이다.
본 발명의 다른 실시예는 식별된 상기 전자 디바이스들로 전송된 메시지는 상기 전자 디바이스들 사이의 논의 그룹을 형성하기 위한 초대(invitation)고 또는 식별된 상기 전자 디바이스들로 전송된 메시지는 관심 대상에 관한 정보를 포함하며, 상기 정보는 배경 정보 또는 통계 자료일 수 있다.
또한, 본 발명의 일 실시예는 원격 디바이스들의 대향 및 포지션을 결정할 수 있고 또한 이러한 2개의 원격 디바이스들로부터의 광선이 삼각 측량을 통해 가로지르고 또한 잠재적 관심 대상들을 식별시키는 곳을 계산할 수 있는 서버 애플리케이션 프로그램을 실행할 수 있는 시스템에 관한 것이다. 상기 시스템은 상기 시스템의 관심 대상들의 위치(들), 계산된 값들, 수신된 값을 저장할 수 있으며, 상기 시스템은 상기 수신된 데이터, 계산된 값들, 및 위치들, 그리고 그 데이터, 값들, 및 대상들에 관련된 추가 정보를 저장하는 데이터베이스 프로그램을 실행할 수 있다. 또한, 상기 애플리케이션 프로그램은 클러스터들이 존재하는 곳을 결정하는 값들 및 데이터를 분석할 수 있다. 또한, 상기 시스템은 상기 시스템과 통신하며 시간, 포지션 및 방향 데이터를 포함할 수 있는 데이터를 분석을 위해 상기 시스템으로 전송하는 2개 이상의 원격 디바이스들을 구비할 수 있다. 상기 데이터는 실시간 데이터 스트림으로서 상기 서버 시스템으로 전송된다. 상기 원격 디바이스들은 디지털 이미지 또는 영화를 찍을 수 있는 이미지 캡처 하드웨어 및 상기 데이터를 전송하는 통신 하드웨어를 구비한다. 또한, 상기 애플리케이션은 특정 시간들에서 상기클러스터들을 식별할 수 있으며, 통계적 계산들을 수행하여 각 관심 대상의 관심 량을 결정할 수 있다.
본 발명의 추가 특징들, 그것의 본래 및 여러가지의 이점들이 첨부 도면들과 함께 취해진 다음의 상세한 설명을 고려하여 명백해질 것이며, 여기서 명세서 전반에 걸쳐 유사한 참조부호들은 유사한 부품들을 지칭한다.
도 1은 예를 들어 풋볼 게임과 같은 이벤트를 개최하는 스타디움의 다이어그램이다.
도 2는 예를 들어 대시보드 상에서 보여지는 아카데미 시상식과 같은 이벤트를 개최하는 인근의 다이어그램이다.
도 3은 예를 들어 도 2에 나타낸 것의 이후 시간의 아카데미 시상식과 같은 이벤트를 개최하는 인근의 다이어그램이다.
도 4는 이벤트의 이미지들이나 비디오들을 획득하도록 원격 디바이스들과 주최자 사이의 통신을 처리하는 바람직한 실시예의 단계들을 나타낸 흐름도이다.
도 5는 본 발명의 일 실시예를 구현함에 있어서 포함되는 예시적 시스템의 다이어그램이다.
도 6은 본 발명의 일 실시예의 일반적 동작의 흐름도이다.
도 7은 관심 대상을 삼각 측량하여 클러스터를 형성하는데 실행되는 단계들의 일 예를 도시하는 흐름도이다.
도 8은 본 발명의 방법의 일 실시예에 대한 단계들의 일 예를 도시하는 흐름도이다.
도 9는 본 발명의 방법의 다른 실시예에 대한 단계들의 일 예를 도시하는 흐름도이다.
도 10은 위치나 대상에서의 모멘텀과 관심 량을 결정하는 단계들의 일 예를 도시하는 흐름도이다.
도 11은 위치나 대상에서의 모멘텀과 관심 량을 삼각 측량하여 결정하는 다른 방법을 도시하는 흐름도이다.
도 12는 패턴들이나 클러스터들을 인식하는 방법의 단계들의 일 예를 도시하는 흐름도이다.
본 발명의 일반적 원리들은 어떤 이벤트에 있거나 소정의 지리적 위치 내에 있는 둘 이상의 사용자들에 의해 사용되는 이미지 캡처 디바이스들로부터 시간, 포지션, 및 방향 속성을 포함하는 데이터를 수집하고; (i) 사용자들이 초점을 맞추고 있는 대상이나 영역을 결정하고; (ii) 초점이 맞추어진 각각의 대상이나 영역이 초점이 맞추어진 다른 대상들이나 영역들에 연관되어 수신되는 주목 비율 또는 관심 크기를 정량화하고; (iii) 초점이 맞추어진 각각의 대상이나 영역에 대한 주목-레벨 또는 관심-레벨이 시간에 따라 이동되고 있는 방식을 분석하고; 또한 (iv) 기업, 사업, 또는 소비자 애플리케이션들에서의 각종 사용들을 위하여 데이터를 통합 및 분석하는 것에 관한 것이다.
또한, 본 발명의 원리들은 이벤트 또는 위치로부터 이미지들과 시간, 포지션, 및 방향 데이터를 제공하기 위하여 서버 시스템과 통신하는 이미지 캡처 디바이스들을 구비하고, 그 데이터 및 이미지들을 사용하여 각 대상이 수신하고 있는 주목 비율, 및 그 주목이 시간에 따라 이동하고 있는 방식을 결정하는(여기서, 이러한 정보는 잠재적인 타겟 광고들을 알아보게 하는데 사용될 수 있음) 하나 이상의 사용자들에 관한 것이다.
본 발명의 원리들은 이미지 제공자들이 어떤 위치나 이벤트에 있는 특정한 사람, 대상, 서버-이벤트에 초점을 맞춤에 따라 실시간으로 이미지들을 캡처하고 이미지 캡처 디바이스들로부터의 정보 및 상기 이미지들과 연관된 컴파일된 메타데이터를 획득하는 시스템 및 방법에 관한 것이다.
또한, 본 발명의 원리들은 이미지들을 캡처하고 통신 네트워크를 통해 전달할 수 있는 전자 디바이스들을 가진, 어떤 이벤트 또는 위치에 있는 사람들을 식별하고, 그 포지션들과 향하고 있는 방향에 관하여 상기 전자 디바이스에 의해 서버로 전송되고 있는 이미지들과 데이터를 모니터링하고, 상기 전송된 이미지들과 데이터 즉, 하나 이상의 서버들에 대해 상기 전자 디바이스들에 의해 생성된 이미지들과 데이터를 수집하고, 분석을 위해 상기 서버(들)에 대한 이미지들과 데이터를 저장하고, 상기 이벤트 또는 위치에서 발생하는 상이한 상황들에서 사람들의 관심 레벨을 결정하기 위하여 상기 수집된 이미지들의 메타데이터 및 상기 전자 디바이스들의 초점이 맞추어진 포지션과 방향에 관한 데이터를 분석하며, 그 분석을 통해 패턴들 또는 클러스터들을 인식하는 것을 포함하는 시스템 및 방법에 관한 것이다. 데이터가 실시간으로 전송되므로, 특정 시간 또는 시간 구간에서의 사람들의 관심은, 어떤 상황들이 상기 이벤트나 상기 위치 동안의 특정 시간에서 가장 큰 관심을 갖는지를 식별하도록 결정될 수 있다. 특히, 수신되는 데이터가 일정하게 값이 변화하는 경우, 실시간 디바이스들과 소프트웨어는 수신되는 것과 동일한 속도로 그 정보를 업데이트하고, 전달하고, 처리한다.
또한, 본 발명의 원리들은 캡처 동시 이미지들 및 이벤트, 위치 또는 원격 애플리케이션 프로그램을 사용하는 것에 의한 사진 타겟의 정밀한 시간과 위치에 관련된 2개의 원격 전자 디바이스들을 사용하는 것에 관한 것일 수 있으며, 상기 애플리케이션 프로그램은 캡처된 이미지의 타겟에 대한 삼각 측량을 위해 2개 이상의 디바이스들의 시간, GPS 좌표들 및 방위 모두를 캡처하게 된다. 함께 작동하는 2개의 원격 디바이스들의 각각에 의해 캡처된 GPS 포지션, 콤파스 헤딩(compass heading), 및 시간 데이터는 캡처된 이미지(들)을 태깅하고 식별하는데 사용될 수 있다. 데이터는 타겟에 초점이 맞추어지는 동안이나 이미지(들)을 생성할 시에 그 이벤트에 있는 관측자들에 의해 사용되는 이미지 캡처 디바이스들의 달라지는 초점 방향 및 지속시간을 포함할 수 있다.
또한, 본 발명의 원리들은 캡처 동시 이미지들 및 이벤트, 위치 또는 원격 애플리케이션 프로그램을 사용하는 것에 의한 사진 타겟의 정밀한 시간과 위치에 관련된 2개의 원격 전자 디바이스들을 사용하는 것에 관한 것일 수 있으며, 상기 애플리케이션 프로그램은 캡처된 이미지의 타겟에 대한 삼각 측량을 위해 2개 이상의 디바이스들의 시간, GPS 좌표들 및 방위 모두를 캡처하게 된다. 함께 작동하는 2개의 원격 디바이스들의 각각에 의해 캡처된 GPS, 콤파스, 및 시간 데이터는 캡처된 이미지(들)을 태깅하고 식별하는데 사용될 수 있다. 데이터는 상기 이벤트에 있는 관측자들에 의해 사용되는 이미지 캡처 디바이스들의 초점 방향 및 지속시간을 포함할 수 있다. 상기 이미지들은 소정 시간 이상 캡처되며, 그 사진, 비디오, 및 이미지들과 연관된 이미지 캡처 디바이스들로부터 전달되는 수집 데이터가 컴파일된다. 상기 방법은 통계적 계산들을 통해 정보를 추출하고, 그 정보를 활용하여 이벤트에서 광고함으로써 생성되거나 또는 초점이 맞추어진 대상의 관심 레벨을 순위화하는 것을 통해 이미지 제공자들로 향해지는 수익을 보장 또는 증대시키는 것을 포함한다.
또한, 본 발명의 원리들은 이벤트들이나 위치들의 이미지들을 획득하는 방법에 관한 것이며, 이것은 특정 시간 또는 특정 시간 구간 이상 어떤 위치나 위치의 사진 이미지를 캡처하는 전자 요청을 생성하고; 상기 이벤트 또는 위치를 식별하는 정보와 상기 요청을 적어도 하나의 서버로부터 제 1 전자 디바이스로 전달함으로써 사진 이미지의 갭처를 개시하는 것을 포함한다. 본 발명의 실시예들은 또한 2개의 원격 디바이스들에 관한 것일 수 있으며, 여기서 제 1 원격 디바이스와 제 2 원격 디바이스는 지리적으로 분리되어 상기 이벤트 또는 위치의 이미지들을 획득할 수 있으며, 또한 캡처 이미지(들) 및 삼각 측량 데이터에 대한 요청을 양쪽 모두의 디바이스들에게 동시에 전송할 수 있다.
또한, 본 발명의 원리들은 디바이스가 향하고 있는 방향에 관한 연속적인 데이터 스트림을 생성할 수 있는 원격 애플리케이션을 실행하는 복수의 제 1 원격 전자 디바이스들; 사진 이미지의 캡처; 애플리케이션 프로그램과 데이터베이스 프로그램을 실행하는 적어도 하나의 서버에 관한 것이고, 여기서 상기 서버는 상기 복수의 제 1 원격 전자 디바이스들과 지리적으로 분리되어 상기 제 1 원격 전자 디바이스들과 통신하며, 상기 서버는 각각의 이미지 캡처 디바이스가 소정 시간 향하고 있는 방향 및/또는 하나 이상의 캡처된 이미지(들)에 관한 데이터 스트림을 수신하도록 제 1 원격 전자 디바이스와 통신한다.
본 발명의 원리들은 또한 시간, GPS 위치, 및 콤파스 데이터를 사용하여 초점이 맞추어진 타겟을 삼각 측량하고 이에 의해 특정 시간 또는 시 구간 이상 상기 타겟의 정확한 포지션, 방향, 움직임 및 위치를 결정하는 것에 관한 것이다. 임의의 2개 원격 전자 디바이스들로부터의 시간 데이터, 방향 데이터, 및 포지션 데이터를 포함하는 디바이스들의 속성의 조합은, 삼각측량 계산을 통해 타겟의 속도와 모션 방향과 포지션에 관한 정보를 생성하는 2개의 교차 라인들을 생성하는데 사용될 수 있다. 타겟을 향하거나 본질적으로는 대상으로 삼은 타겟과 동일한 위치에 있는 원격 디바이스들의 각각으로부터의 GPS, 시간 및 방향 정보의 순차적이며 반복적인 캡처는 동일하게 반복되는 삼각측량 계산 및 방법을 사용하여 이미지 캡처 디바이스들이 캡처에 대해 초점이 맞추어진 시간 동안 타겟 대상의 정확한 위치, 모션 방향, 및 속도를 플롯(plot)하는데 사용될 수 있다. 이들 반복 계산들은 분석될 수 있는 시간 동안 본질적으로 동일한 위치를 향하는 이미지 캡처 디바이스들에 대한 초점 방향의 교차 지점으로부터 데이터 지점들의 클러스터를 생성한다. 이미지 캡처 디바이스들로부터 자동 전달되는 실시간 데이터 이외에, 어느 한쪽 또는 양쪽 모두의 원격 디바이스 사용자들은 추가의 정보 예컨대 사진 이미지(들)을 더욱 식별하도록 디바이스들의 어느 한쪽 또는 양쪽 모두에 의해 캡처되는 이미지(들)에 대한 이벤트 설명을 또한 할당할 수 있다. 소명한다면, 몇몇 실시예들에서, 시스템들 또는 프로세서의 하나 이상의 특징들은 실시간 데이터 스트림들이나 처리없이도 동작할 수 있다.
클러스터 형성은 두개 이상의 관측자들이 동일한 관심 대상에 대해 그들의 이미지 캡처 디바이스들을 집중시킬 때 발생한다. 클러스터들은 디바이스 속성을 처리하는 알고리즘을 사용하여 결정된다. 추가 알고리즘들이 클러스터를 분석하여 예를 들어 밀도에 의해 중요도를 결정하는데 사용될 수 있다. 클러스터들은 그것들을 액션가능한 항목들(actionable items), 예를 들면, 소셜 미디어, 뉴스 자료, 광고, 또는 데이터로서 식별하도록 태깅될 수 있으며, 그 후에 그 태그(들)을 사용하여 배포할 수 있다. 이상적인 상황은 클러스터들이 정밀한 지점에 다 함께 초점이 맞추어지는 것이지만, 그 위치의 사이즈가 클 수도 있고 또는 관측자들은 그 위치에 대한 약간 상이한 측면들 또는 특징들에 초점을 맞출 수 있기 때문에 그러한 경우는 흔한 것이 아니다. 이러한 이유로, 관련 지점들의 클러스터 밀도는 일반적인 관심 위치 또는 관심 위치의 사이즈 모두를 결정하는데 사용될 수 있다. 예를 들어, 어떤 배우가 공연 이후에 극장을 빠져나오는 경우, 초점이 맞추어진 지점들의 클러스터는 그 배우의 위치 또는 그것과 매우 가까운 위치에 형성되겠지만, 대형 빌딩에 화재가 발생한 경우, 그 지점들의 클러스터는 불타고 있는 빌딩의 여러 부분들에 대한 관측자들의 초점만큼 훨씬 크게 될 것이다. 양쪽 예들 모두에서, 클러스터의 밀도는 관심 위치의 사이즈를 나타내며, 배우 주위의 클러스터는 불타고 있는 빌딩 주위 또는 그것에 초점이 맞추어진 클러스터보다 훨씬 작다. 관측자들의 관심은 시간에 따라 진전되므로, 그들 시선들의 방향은 특정 관심 대상을 따르도록 새로운 위치들로 이동되며, 이에 의해 시선들과 교차 지점 사이의 각도 변화를 야기하게 된다. 이러한 이동은 클러스터의 사이즈 및 밀도가 또한 시간에 따라 변화하도록 할 수 있다. 관측자의 관심이 새로운 관심 대상으로 이동하는 경우, 그들의 시선은 그 교차 지점이 더 이상 본래의 클러스터와 연관되지 않게 되도록 충분히 달라질 수 있다. 더욱 많은 관측자들이 새로운 관심 대상들을 발견하게 되므로, 본래의 클러스터는 교차 지점이 본래의 대상과 연관된 다른 교차 지점으로부터 클러스터의 계산된 영역 또는 최대 거리를 빠져나오게 됨에 따라 교차 시선들의 개수 감소 및 이에 상응하는 밀도 드롭을 나타나게 된다. 마찬가지로, 새로운 관측자들이 특정 관심 대상에 초점을 맞추게 되므로, 교차 시선들의 개수가 증가하여 클러스터 밀도를 증가시키며, 그 시간 동안 클러스터에 부여되는 중요도도 그렇게 될 것이다. 이러한 변화들은 교차 지점의 위치를 결정하는 삼각측량 계산과 클러스터들 및 그들의 밀도와 중요도를 결정하는 통계 분석의 조합을 통해 계산될 수 있다.
또한, 본 발명의 원리는 원격 전자 이미지 캡처 디바이스를 각각 활용하여 복수의 관측자들 또는 이미지 제공자들을 통해 획득되는 데이터를 컴파일하고(여기서 데이터는 실시간 피드들로서 전달되거나 메타데이터로서 수집된 사진, 비디오 및 이미지와 연관되거나 또는 양쪽 모두 일 수 있음), 어떤 이벤트 또는 위치에 있는 각종 서브-타겟들의 관심 레벨에 관한 통계적 계산들을 통해 상기 컴파일된 데이터로부터 실시간으로 정보를 추출하고, 어떤 이벤트에 있는 위치들의 결정된 관심 레벨 또는 참석자의 초점이나 관측자들의 초점의 통계 분석으로부터 결정된 이벤트 동안의 특정 시간들에서의 특정 사람들이나 대상의 관심 레벨을 활용하여, 분석으로부터의 이벤트에 광고를 포지셔닝하는 스타팅 비드(starting bid) 양들을 더욱 보장하는데 사용되는 시스템 및 방법에 관한 것이다.
본 발명의 원리들은 또한 어떤 이벤트에 있는 사람이나 대상에 초점을 맞추고 있는 복수의 관측자들에 의해 사용되는 이미지 캡처 디바이스들로부터 실시간으로 전달되는 데이터를 수집하고; 그 수집된 데이터를 처리하는 것에 의해 이벤트 동안의 상기 사람이나 대상의 관심 레벨들을 결정하고; 또한 상기 복수의 이미지 캡처 디바이스들로부터 획득된 데이터로부터 통계적으로 결정된 관심 레벨에 기초하여, 그 이벤트가 진행함에 따라, 실시간으로 광고 비더들(advertising bidders)에게 그 이벤트의 부분들을 경매에 부치는 방법에 관한 것이다. 또한, 관심 레벨은 이벤트에서의 특정한 사람이나 대상에 대하여 캡처된 이미지들의 개수로부터 결정될 수 있다. 일반적으로 실시간 처리는 관심 활동의 발생이나 언더라잉 데이터의 생성으로, 거의 동일한 시간 또는 거의 순간적인 관계로 처리 출력을 생성하는 것을 지칭한다.
본 발명의 원리는 이미지 캡처 디바이스가 향하고 있는 방향과 포지션, 그리고 이미지 캡처 디바이스가 대략적으로 동일한 방향을 향하고 있는 시간의 양을 식별할 수 있는 애플리케이션(들)을 실행할 수 있는 복수의 이동 디바이스들로부터 데이터를 사용하는 것에 관한 것이다. 바람직한 실시예에서, 대향(facing) 방향 및 포지션에 관한 데이터는 실시간 피드로서 이동 디바이스에서 원격 컴퓨터 시스템으로 전송된다.
전자 디바이스가 활성 상태인 경우, 상기 디바이스가 사진을 찍을 필요가 없이 정보가 얻어진다. 상기 기술은 뷰파인더 오픈(viewfmder open)을 가지고 몇몇 대상쪽으로 이미지 캡처 하드웨어를 가진 디바이스를 향하게 하는 것에 의해 활성화된다. 상기 애플리케이션을 실행하는 디바이스는 그것이 향하고 있는 디바이스의 포지션 및 방향을 결정할 수 있게 하는 데이터 스트림을 획득 및 전송한다. 각각의 이미지 캡처 디바이스들의 대략적인 방향에 관한 데이터는 이벤트가 각각의 이미지 캡처 디바이스들로부터 수집되어 처리를 위해 원격 컴퓨터 시스템(예컨대 서버)으로 전송되는 각각의 특정 시간을 나타내고 있다. 상기 수집된 데이터는 각 관측자의 이미지 캡처 디바이스가 향하고 있는 방향에 기초하여 가장 많은 개수의 관측자들의 시야를 결정하도록 처리된다. 상기 데이터는 관측자들에 의해 사용되는 이미지 캡처 디바이스들의 초점 방향 및 이미지 캡처 디바이스들이 대략적으로 동일한 방향으로 초점을 맞춘 상태를 유지하고 있는 지속 시간을 포함한다. 또한, 특정 이미지 캡처 디바이스의 포지션이 수집됨으로써 그 특정 이미지 캡처 디바이스를 사용하는 관측자에 대한 특정 시야를 더욱 양호하게 결정할 수 있다.
본 발명의 원리는 콘서트, 연극, 스포츠 이벤트, 마라톤, 정치 집회, 서커스, 박람회, 또는 임의의 다른 공적 또는 사적 모임과 같은 이벤트에 있는 다수의 참석자들이 필요한 모바일 애플리케이션을 실행시키고 그들의 스마트폰들을 사용함으로써 그 이벤트 동안의 이미지들 또는 영화들을 캡쳐하는 것이다. 이들 아마추어 사진가들과 비디오 예술가들은 그 이벤트에 등록하여 애플리케이션을 획득하거나 또는 이러한 방식으로 그 이벤트를 기록하는 것이 허용될 필요가 있으며, 그러나, 상기 이벤트가 사용될 시간에 각 참석자가 그들의 주목을 집중하는 것에 관한 데이터는 상기 이벤트의 구내 주변에 위치된 상이한 광고 위치에 대한 적절한 수수료를 결정한다. 각 참석자들의 사진 활동들은 이동 디바이스에 의해 수집되고 컴퓨터 시스템으로 전달되어 그 이벤트의 어떤 시간 구간이 가장 더 높은 관심을 갖는지를 결정하며, 이 정보는 네트워크를 통해 그 이벤트 중의 광고 시간을 비딩할 수 있는 하나 이상의 잠재적 광고주들에게 전달된다. 또한, 동일 구간에 캡처된 동일 위치의 실제 이미지들의 개수는 특정한 사람이나 대상에서의 참석자의 관심 레벨을 결정하는 기준으로서 사용될 수 있다. 그러면, 광고주들은 참석자들에게 더 높은 관심을 갖는 시간 구간동안 더 높은 비드를 만들게 되며, 이벤트 주최자들은 그 이벤트로부터 도출되는 광고 수익의 양을 증가시키도록 하는 더 높은 비드들을 받아들일 수 있다. 또한, 본 발명의 원리들은 어떤 이벤트의 하나 이상의 사진, 비디오 또는 디지털 이미지, 물리적 위치, 또는 다른 사진 타겟 , 및 더욱 바람직하게는 특정 시간 또는 시간 구간 동안 어떤 이벤트 또는 위치에서의 개개의 서브-타겟들을 획득하고, 그 하나 이상의 사진, 비디오 또는 디지털 이미지를 제 2 당사자 예컨대, 대중에 의한 관람용으로 데이터베이스에 그 이미지들과 비디오들을 저자아는 주최자에게 제공하거나, 또는 그들의 이동 디바이스들, 또는 전통적인 브로드캐스트 매체, 예컨대 텔레비전, 웹캐스트, 또는 케이블 서비스들을 통해 제 3 당사자로 수집 이미지들을 브로드캐스팅하는 것에 관한 것이다. 상기 이미지들 및 비디오들은 또한 서비스 가입자들에게 전파되거나, 웹사이트에 포스팅거나, 소셜 네트워크들을 통해 공유될 수 있다.
또한, 본 발명의 원리들은 이벤트 주최자 또는 다른 리퀘스터들을 위해 이벤트, 대상, 사람, 또는 위치의 디지털 이미지들이나 비디오들을 획득하는 방법에 관한 것이다. 리퀘스터는 사업주, 이벤트 프로모터, 또는 연기자(들)과 같은 개인 또는 단체일 수 있다. 바람직한 일 실시예에서, 요청은 특정 위치나 위치들에서 그리고 특정 시간동안 취해지는 특정 이벤트 또는 이벤트들의 세트의 사진(들), 비디오(들) 또는 디지털 이미지(들), 및 사진 분야에서의 당업자에게 알려진 각종 사진 효과들을 사용하여 이미지(들)을 캐처하는 것에 관한 것이다. 다른 실시예에서, 요청은 시간의 구간 동안 하나 또는 복수의 사진 제공자들에 의한 다수의 상이한 관측 지점들로부터 취해진 특정 위치의 사진(들), 디지털 이미지(들) 또는 비디오들에 관한 것일 수 있다. 다른 실시예에서는, 2명의 사진 제공자들이 동일한 대상, 사람, 이벤트, 또는 위치의 이미지들을 캡처하도록 요청될 수 있으며, 각 제공자로부터의 상기 정보는 사진의 대상을 삼각 측량하는데 사용될 수 있다. 또 다른 실시예에서, 요청은 복수의 지리적으로 분리된 위치들의 사진(들), 디지털 이미지(들) 또는 비디오드에 관한 것일 수 있으며, 이들 모두는 거의 동시에, 또는 시간에 따라 순차적으로 취해질 수 있다.
또한, 본 발명의 원리들은 이미지 캡처 하드웨어가 서버(들)과 통신하는 시간 동안 어떤 이벤트 또는 위치에 존재하는 각 타겟 또는 서브-타겟에 초점을 맞추고 있는 이미지 제공자들의 퍼센티지의 통계 분석을 위해서, 복수의 이미지 제공자들의 이미지 캡처 하드웨어의 각각으로부터 하나 이상의 서버들로 실시간 GPS, 콤파스 헤딩(compass heading), 알려진 상대적 인기도, 및 시간 데이터를 전달하는 시스템 및 방법에 관한 것이다. 예를 들어, 이러한 실시간 데이터 통신 및 바람직하게는 수집은 데이터 필드들의 각각에 대해 초당 1 데이터 값의 샘플링 비율을 가짐으로써, 당업자에게 알려진 바와 같이, 적어도 하나의 GPS 데이터 지점, 하나의 콤파스 헤딩(compass heading) 데이터 지점, 및 하나의 시간 스탬프가 각 초마다 수집되도록 하며, 또한 GPS, 방향, 및 시간 데이터 지점들 모두는 상호 연관되도록 한다. 또한, 이러한 데이터 통신은 바람직하게는 독립적으로 행해지며, 이미지들이 실시간 데이터 수집의 일부로서 캡처되거나 태깅될 것을 필요로 하지 않는다. 데이터 샘플링은 관측되고 있는 이벤트의 요구사항 및 시스템의 제약에 따라 더 고속이거나 더 저속일 수 있다. 실시간으로 데이터를 수신한다는 것은 데이터가 생성되고 그것이 수신되는 시간 사이에 감지할 수 있는 레이턴시가 거의 없거나 아예 존재하지 않는(예컨대, 거의 순간적이거나 레이턴시가 지각 한계 미만인) 원격 송신기로부터의 데이터 수신을 지칭한다. 본 발명의 원리들은 원격 전자 디바이스들과 통신하며, 원격 전자 이미지-캡처 디바이스를 각각 사용하는 복수의 관측자들이나 이미지 제공자들을 통해 획득된 데이터를 컴파일하고(여기서 상기 데이터는 이미지 캡처 디바이스(들)로부터 실시간 피드들로서 전달되거나 메타데이터로서 수집된 사진, 비디오, 및 디지털 이미지와 연관되거나 양쪽 모두일 수 있음), 상기 컴파일된 데이터로부터 어떤 이벤트 또는 위치에 있는 각종 서브-타겟들의 관심 레벨에 관한 통계적 계산들을 통해 실시간으로 정보를 추출하는데 사용되는 시스템에 관한 것이다. 또한, 본 발명의 원리들은 이벤트 중에 특정 시간에 있는 특정한 사람들이나 대상들의 관심 레벨이나 이벤트의 위치들의 결정된 관심 레벨을 활용함으로써, 그 이벤트 동안 그들 전자 디바이스들의 참석자들 또는 관측자들의 초점 방향의 통계 분석으로부터 그 이벤트에서 광고들을 포지셔닝하는 스타팅 비드 양을 보장하는 것에 관한 것이다. 본 발명의 원리들은 특정 시간 구간에서의 이벤트 또는 위치의 사진들, 비디오들 또는 다른 디지털 이미지들을 획득하는 프로세스에서 이미지 제공자들로부터 모이게 되는 데이터를 수집 및 분석하고, 상기 사진들, 비디오들 및 이미지들과 연관된 수집 데이터를 컴파일하고, 통계적 계산들을 통해 정보를 추출하고, 그 정보를 활용하여 이벤트에 광고하거나 또는 캡처된 이미지들의 관심 레벨을 순위화하는 것을 통해 생성되는 수익의 양을 증대시키거나 보장하는 시스템 및 방법에 관한 것이다. 또한, 본 발명의 원리들은 특정 시간에서의 2개 이상의 디바이스들의 대향 방향의 변화를 식별하고 또한 특정 시간에서 신규하거나 상이한 사람, 대상, 또는 위치로의 초점 변화에 따라 초기의 초점과 상이한 신규의 초점을 결정하는 것에 의해 특정 시간에서의 하나 이상의 이미지 캡처 디바이스들의 초점 방향의 변화를 인식하는 것에 관한 것이다. 예를 들어, 이벤트 동안의 제 1 특정 시간에서 본래 특정 GPS 포지션 및 콤파스 대향을 갖는 제 1 이미지 캡처 디바이스는 자신의 포지션 및 방향 데이터를 서버 시스템으로 전송하고, 상이한 GPS 포지션 및 상이한 방향 대향을 갖는 제 2 이미지 캡처 디바이스도 또한 자신의 포지션 및 방향 데이터를 서버 시스템으로 전송하며, 각각의 이미지 캡처 디바이스들로부터 전송된 실시간 데이터는 서버 시스템에 의해 사용되어 2개의 교차 라인을 생성하고 그 교차 지점을 계산함으로써 제 1 시간에서 이미지 캡처 디바이스들을 갖는 2 개의 관측자들의 초점 대상을 삼각 측량하도록 한다. 상이한 이후의 시간에서, 제 1 이미지 캡처 디바이스는 방향 대향이 변경되며 이에 의해 제 1 교차 라인들의 세트에 지장을 준다. 본질적으로 동일한 본래의 GPS 포지션을 갖는 제 1 이미지 캡처 디바이스는 새로운 콤파스 대향(compass facing)을 확립한다. 제 1 이미지 캡처 디바이스와 상이한 방향 대향 및 제 1 GPS 포지션을 갖는 제 2 이미지 캡처 디바이스는 제 1 이미지 캡처 디바이스에 의한 대향 변화와 본질적으로 동일한 이후의 시간에서 자신의 대향 변화에 의해 식별된다. 이후의 시간에서의 제 1 및 제 2 이미지 캡처 디바이스 각각의 신규 대향들 및 포지션들은 2개의 이미지 캡처 디바이스들의 초점의 새로운 지점을 삼각 측량하기 위해 사용된다. 이러한 특정 시간에서의 새로운 또는 상이한 사람, 대상, 또는 위치로의 초점 변화의 인식은, 이벤트 또는 위치에서의 관측자들의 관심 레벨 이동을 식별하기 위해 사용될 수 있다. 본 발명의 원리들은 거의 동시에 거의 동일한 위치를 향하는 이미지 캡처 디바이스들의 개수에 기초하여 이벤트의 관측자들에 의해 사용되는 이미지 캡처 디바이스들의 사용에 기초하는 이벤트의 모멘텀을 결정하는 방법에 관한 것이고, 여기서 상기 모멘텀은 특정 시간에 특정 사람이나 대상에 집중하고 있는 거의 동시에 모든 위치를 향하고 있는 이미지 캡처 디바이스들의 전체 개수에 대한 거의 동일한 위치를 향하고 있는 이미지 캡처 디바이스들의 비율에 의해 결정된다. 상기 이벤트의 모멘텀은 실시간으로 결정된다. 상기 모멘텀은 거의 동시에 모든 위치들을 향하고 있는 이미지 캡처 디바이스들의 전체 개수에 대한 거의 동일한 위치를 향하고 있는 이미지 캡처 디바이스들의 비율에 의해 결정된다.
또한, 본 발명의 원리들은 이벤트에서의 광고로부터 수익을 증가시키는 시스템에 관한 것이며, 이것은 이미지 캡처 디바이스의 포커스 방향 및 포지션에 관한 데이터를 전송하는 애플리케이션을 실행하는 복수의 이미지 캡처 디바이스들과, 이미지지 캡처 디바이스들에 관한 정보를 수신하고 이벤트 주최자의 컴퓨터 시스템으로 광고를 위한 비드(bid)들을 부르는 하나 이상의 광고주 컴퓨터 시스템들 및 애플리케이션을 실행하는 복수의 이미지 캡처 디바이스들과 통신하는 적어도 하나의 컴퓨터 시스템을 포함한다. 또한, 본 발명의 원리들은 이미지 캡처 방법들을 구현하는 컴퓨터-판독가능 매체를 제공하는 것에 관한 것이며, 여기서 상기 컴퓨터-판독가능 매체는 이미지들을 캡처하는 것에 대해 여기에서 기술된 바와 같은 방법들 프로세스들을 수행하는 컴퓨터-판독가능 명령어들을 저장한다.
또한, 본 발명의 원리들은 여기에 개시된 방법들 중의 어느 하나를 수행하도록 구성된 비-일시적 컴퓨터 판독가능 매체에 관한 것이다. 상기 애플리케이션은 프로세서에 의해 판독가능하고 비-일시적 컴퓨터 판독가능 매체에 저장될 수 있는 일련의 명령어들일 수 있다. 이러한 매체는 당업자에게 알려져 있는 바와 같이, 영구적 또는 반-영구적 메모리 예컨대 하드 드라이브, 플로피 드라이브, 광 디스크, 플래시 메모리, ROM, EPROM, EEPROM 등일 수 있다. 본 발명의 실시예들에서, 전자 디바이스들은 월드 와이드 웹을 포함하는 인터넷 또는 텔레통신 네트워크를 통해 통신할 수 있는, 셀 폰, 스마트폰, 태블릿 컴퓨터, 및 PDA(personal 디지털 assistant)와 같은 모바일 텔레폰 디바이스들일 수 있다. 상기 전자 디바이스들은 또한 월드 와이드 웹을 포함하는 인터넷 또는 텔레통신 네트워크를 통해 통신할 수 있는 랩탑 또는 노트북 컴퓨터들일 수 있다. 전자 디바이스들은 디지털 사진 이미지 또는 비디오를 캡처가능하고, 또한 전자 디바이스의 GPS 좌표들을 결정할 수 있는 GPS 포지션 프로그램 및 전자 디바이스의 대향 방향을 결정할 수 있는 콤파스 애플리케이션 프로그램을 포함할 수 있는 원격 애플리케이션 프로그램을 실행가능하다. 원격 애플리케이션은 전자 디바이스의 이미지 캡처 하드웨어의 초점을 결정할 수 있다. 물리적인 장소 또는 이벤트의 위치는 콤파스 헤딩(compass heading)에 의한 대향 또는 모션 방향 및 그것의 GPS 좌표들에 의해 정의될 수 있다. 이벤트들은 예를 들어 뉴스, 스포츠, 또는 엔터테인먼트 이벤트들일 수 있다.
전자 디바이스들은 영구적 및/또는 반-영구적 메모리 예컨대 CMOS 메모리, 및 플래시 메모리 또는 EEPROM일 수 있는 비-일시적 컴퓨터 판독가능 매체 및 RAM(random access memory)을 포함할 수 있다. 또한 전자 디바이스들은 컴퓨터 판독가능 매체로부터 명령어들을 판독하고 그 전자 디바이스로 하여금 본 발명의 상이한 실시예들의 단계들을 수행하게 하며 또한 여기에 개시된 방법들 주의 임의의 방법을 수행하게 할 수 있는 프로세서를 포함할 수 있다. 또한, 전자 디바이스는 본 기술 분야에서 알려진 바와 같이, 전화 또는 컴퓨터 네트워크를 통한 통신이 필요한 전자 장치를 포함할 수 있다. 본 발명의 실시예들에서, 상기 서버는 복수의 상기 전자 장치 및 가상 서버로 동작하는 서버 디바이스들, 또는 가상 서버로 동작하는 대형 서버일 수 있으며, 당업자에게 잘 알려진 바와 같이, 이것은 가상 머신일 수 있다. 이러한 가능한 배열들의 컴퓨터들(들), 분산 리소스들, 및 가상 머신들은 서버 또는 서버 시스템으로 지칭될 수 있다.
컴퓨터 또는 컴퓨터 시스템은 서버 또는 서버 시스템을 포함할 수 있으며, 이러한 컴퓨터(들) 또는 서버(들)은 하나 이상의 컴퓨터 또는 마이크로프로세서를 포함할 수 있다. 또한, 컴퓨터(들)은 본 기술 분야에서 알려진 바와 같은, 저장, 처리, 및 다른 각종 디바이스들과의 통신을 위해 필요한 하드웨어, 소프트웨어 및 펌웨어를 포함할 수 있다. 이것은 휘발성 및 비-휘발성 메모리, 프로세서들, 확장 카드들, 모뎀들, 이더넷 어댑터들 등을 포함할 수 있다.
원격 디바이스는 서버나 다른 이동 디바이스와 상이한 지리적 위치에 로케이팅된 이동 디바이스이며, 임의의 2 디바이스들은 몇몇 형태의 전화 또는 컴퓨터 네트워크, 예컨대 무선, PSTN, 광대역, 또는 인터넷 네트워크를 통해 통신할 필요가 있다. 또한, 원격 디바이스는 당업자에 의해 인식되는 바와 같이 필드 내의 이동 디바이스이다. 이미지 캡처 디바이스들 및 컴퓨터 서버 시스템으로부터(에 대한) 정보의 전달 및 데이터 전송은 예를 들어 전화 네트워크, 위성 네트워크, 무선 네트워크, 광섬유 네트워크, 케이블 네트워크, 또는 임의의 다른 네트워크나 통신 분야의 당업자에게 알려진 네트워크들의 조합과 같은 네트워크를 통해 행해질 수 있다.
원격 서버(들)로 정보를 전송하는 다수의 원격 디바이스들은 인커밍 데이터를 처리하고 삼각측량 계산들을 분포시키며 분산 시스템을 통해 통계 분석을 하는데 필요한 컴퓨팅 전력 및 대역폭의 양을 결정하는데 사용될 수 있다. 비한정적 예로서, 하나의 서버는 복수의 원격 디바이스들과의 통신을 처리할 수 있고, 다른 서버는 포지션 및 방향 데이터의 인커밍 흐름으로부터 삼각 측량 정보를 계산할 수 있으며, 다른 서버는 각종 계산들로부터 획득된 정보의 클러스터(들)에 대한 통계 분석을 수행할 수 있다.
또한, 이동 디바이스들과 모바일 애플리케이션들은 서버, 중앙 컴퓨터, 또는 다른 컴퓨터 시스템(예컨대, 수집, 결정, 식별 등)에서 수행되는 것으로 기술된 처리의 일부 또는 전부를 수행할 수 있다. 상기 예시적 방법들 또는 프로세스들은 컴퓨터들, 메모리, 프로세서들, 이동 디바이스들, 소프트웨어, 디스플레이들, 통신 디바이스들, 입력 디바이스들, 및 당업자에게 알려진 다른 컴퓨터 시스템 컴포넌트들을 사용하여 구현된다.
원격 애플리케이션 프로그램은 디바이스의 비-일시적 컴퓨터 판독가능 매체에 저장되거나 서버로부터 원격 디바이스의 일시적 메모리로 다운로드될 수 있거나, 또는 클라우드에 위치될 수 있으며, 처리 시스템에 의해 실행될 수 있는 일련의 컴퓨터 판독가능 명령어들이며, 상기 명령어들 및/또는 처리 시스템은 단일 컴퓨터나 서버에 대한 원격 디바이스들 중의 하나에 위치되거나 또는 복수의 원격 디바이스들, 컴퓨터들 또는 서버들을 통해 분산될 수 있다. 애플리케이션 프로그램은 하나 이상의 애플리케이션 프로그램들을 포함할 수 있다. 애플리케이션 프로그램은 본 발명의 상이한 실시예들을 구현하는 상이한 프로세스들을 수행하는 복수의 함수들을 포함할 수 있다.
컴퓨터 판독가능 명령어들은 이미지 캡처 디바이스가 이미지 캡처를 위해 사용되는 시간에서 이미지-캡처 디바이스의 시간 스탬프, GPS 좌표들 및 콤파스 헤딩(compass heading)을 획득하기 위한 명령어들, 캡처된 이미지(들)을 이용하여 상기 디바이스의 시간 스탬프, GPS 좌표들 및 콤파스 헤딩을 임베딩하는 명령어들을 더 포함한다. 컴퓨터 판독가능 명령어들을 저장하는 컴퓨터 판독가능 매체는 비-일시적이며, 예를 들어 자기 또는 광학 디스크, 자기 테이프, PROM(programmable read-only memory), EPROM(erasable programmable read-only memory) 예컨대 플래시 드라이브, 또는 당업자에게 알려진 다른 형태의 롱 텀 메모리일 수 있다. 또한, 컴퓨터 명령어들은 컴퓨터 처리 시스템에 의한 실행을 위한 랜덤 액세스 메모리나 캐시 메모리와 같은 일시적 컴퓨터 메모리로 로딩될 수도 있다. 특정 프로세스들은 특정 디바이스들에서 반드시 실행될 필요가 없으며, 이동 디바이스들은 서버나 중앙 컴퓨터에 의해 수행되는 것으로 기술된 처리의 일부 또는 전부를 (예컨대, 집합적으로) 수행할 수도 있다. 또한, 상기 처리는 몇몇 컴퓨터들 또는 클라우드에 분산될 수도 있으며, 여기서 상기 예시적 방법들 또는 프로세스들은 컴퓨터들, 소프트웨어, 이동 디바이스들, 메모리 또는 저장소를 사용하여 구현되며, 또한 상기 애플리케이션들 및/또는 데이터 저장소는 복수의 처리 시스템들을 통해 분산될 수 있다.
원격 디바이스들은 지리적으로 서로 분리되어 물리적으로 별개의 디바이스들인 모바일 텔레폰 또는 컴퓨터 디바이스들이다. 원격 디바이스는 다른 원격 디바이스들 및 서버들의 네트워크 주소들과 상이한 네트워크 주소를 가지며, 네트워크를 통해 통신하는 각 디바이스는 네트워크 통신 분야에서 알려진 바와 같이, 그들 네트워크 주소에 의해 구별될 수 있다.
원격 디바이스는 서버나 다른 이동 디바이스와 상이한 지리적 위치에 로케이팅된 이동 전자 디바이스이며, 임의의 2개의 디바이스는 몇몇 형태의 전화 또는 컴퓨터 네트워크, 예를 들어 무선, PSTN, 광대역, 또는 인터넷 네트워크를 통해 통신할 필요가 있다. 또한, 원격 디바이스는 당업자에게 알려진 바와 같이, 필드 내의 이동 디바이스일 수 있다. 원격 디바이스는 다른 원격 디바이스들 및 서버들의 네트워크 주소들과 상이한 네트워크 주소를 가지며, 네트워크를 통해 통신하는 각 디바이스는, 네트워크 통신 분에서 알려진 바와 같이, 그들의 네트워크 주소에 의해 구별될 수 있다.
데이터는 통신 네트워크를 통해 전자 디바이스로부터 서버 시스템으로 실시간으로 전달되는 피드로서 전자 디바이스들로부터 수집되며, 여기서 상기 전자 디바이스를 실행하는 애플리케이션 프로그램은 상기 디바이스의 콤파스 대향과 GPS 포지션에 관한 데이터를 수집하여 그 데이터를 시스템 서버로 전송한다(또는 서버 시스템으로 전송되고 있는 이미지들을 가지고 메타 데이터로서 콤파스 대향 데이터와 포지션을 임베딩).
신규 데이터의 축적은 이전에 저장된 데이터와 결합됨으로써 정확성을 개선하고 추가 계산들에 대한 데이터 포인트들의 개수를 증가시킬 수 있으며, 또는 플롯 트렌드들에 대한 데이터 포인트들의 시간 진행을 보장할 수 있다. 이러한 형태의 휴리스틱스를 사용하는 것으로, 상기 시스템은 시간에 따른 장래 결과들을 학습 및 예측할 수 있다.
상기 서버는 이미지 캡처 디바이스들로부터 전송되고 있는 이미지들 및 피드들로부터의 데이터를 분석하여 하나 이상의 전자 디바이스들의 위치(들) 및 전자 디바이스가 대향하고 있는 방향을 결정하고, 또한 전자 디바이스(들)이 초점을 맞추고 있는 대상의 위치, 방향 및 속도를 계산한다. 주목의 대상은 동일한 포지션을 향하고 있는 전자 디바이스들의 개수를 분석하는 서버에 의해 결정된다. 또한, 상기 서버 소프트웨어는 2개의 전달된 이미지들이 임베딩된 정보를 사용하여 이미지의 대상의 위치, 방향 및 속도를 계산할 수 있다. 상기 서버는 적어도 2개의 전자 디바이스들의 GPS 좌표들을 식별함으로써 관측자들에 의해 타겟이 되고 있는 대상의 포지션을 결정하고, 콤파스 헤딩에 의해 결정된 각 디바이스에 대해 전자 디바이스가 대향하고 있는 방향으로 GPS 포지션으로부터의 시선을 플로팅하고, 2개의 전자 디바이스들의 초점 방향을 나타내는 선들이 가로지르는 지점들을 결정하고, 그 2개의 전자 디바이스들의 시선 사이의 각도와 그 디바이스들로부터 교차 지점까지의 거리를 계산하여 2개 이상의 전자 디바이스들의 콤파스 대향과 포지션을 삼각 측량한다. 베이스라인은 당업자에게 알려진 바와 같이, 타겟에 대한 거리 및 각도들을 계산하도록 2개의 전자 디바이스들의 GPS 포지션들 사이에서 측정될 수 있다.
교차 지점의 삼각측량 계산들은 어떤 이벤트에 존재하는 복수의 관측자들에 대해 반복되어 이벤트 또는 위치에 있는 관측자들의 관심 대상들을 나타낼 수 있는 하나 이상의 교차 지점들의 그룹을 생성할 수 있다.
관심 대상에 초점을 맞추고 있는 2개의 관측자들만이 클러스터를 생성할 필요가 있다. 초점 방향의 가로지름에 의해 형성되는 하나의 지점은 관심 대상을 식별시키며, 그 대상에 초점을 맞추고 있는 100 퍼센트의 관측자들을 나타낸다.
어떤 이벤트에서 복수의 전자 디바이스들의 가능한 조합 각각에 대한 교차 지점을 계산하는 것에 의해, 일련의 지점들이 생성된다. 상기 일련의 지점들이 분석되어 상기 교차 지점들이 어디에서 클러스터링되고 있는 지를 결정할 수 있다. 상기 교차 지점은 이벤트에 존재하는 상이한 주목 대상들을 나타내는 하나 이상의 클러스터들을 형성할 수 있다. 대상들이 이동하고 또한 관측자들의 관심과 초점 방향이 이동하는 대상들을 따르도록 이동하거나 새로운 관심 대상들로 이동하므로, 이러한 클러스터들은 동적이며 시간에 따라 달라진다. 전자 디바이스의 콤파스 대향의 변화로 인하여 다른 전자 디바이스들로부터 얻은 모든 선들에 대한 계산된 교차 지점들이 이동하게 되며, 일련의 계산된 교차 지점들이 이에 상응하게 변경된다. 또한, 본 발명의 다른 실시예는 특정 시간 또는 시간 구간 동안에 이벤트, 물리적 위치, 또는 다른 사진 타겟(들)의 사진들, 비디오들 또는 디지털 이미지들로 수집되고 태깅된 메타데이터를 컴파일하고, 상기 이미지들로부터 컴파일된 메타데이터를 분석하여 특정 시간 또는 특정 시간 구간에 특정 타겟의 수집된 다수의 이미지들에 관한 정보를 추출함으로써 이미지 제공자들에 의한 주목의 초점을 결정하는 것에 관한 것일 수 있다. GPS, 방향 및 시간 데이터로 캡처된 이미지들을 태깅하는 것은 자동으로 및 애플리케이션 프로그램에 의해 실시간으로 행해질 수 있으며 또한 서버(들)로 전달될 수 있고, 또는 추가적인 태깅이나 커스터마이제이션을 가능하게 하도록 이미지(들)을 전달하기 이전에 이미지 제공자에 의해 수동으로 행해질 수도 있다. 또한, 원격 디바이스의 초점 대상의 인기도에 관한 데이터 값은 위치/방향/시간 데이터과 상호 연관될 수 있으며, 여기서 상기 인기도 데이터는 상대적인 인기도에 기초하여 어떤 이벤트에 존재하는 다른 타겟들과 초점의 대상을 구별하는 것을 의미하는 주관적인 값일 수 있으며, 또는 이전의 관측자수, 출현에 대한 금전 보상, 또는 다른 측정가능한 기준으로부터 결정된 객관적 값일 수도 있다. 위치, 방향, 인기도, 및 시간은 초점의 대상을 식별하고 또한 동시에 그 이벤트에 존재하는 다른 잠재적 타겟들로부터 초점 대상을 구별하게 하는 핑거프린트(fingerprint)로서 사용될 수 있다. 특정한 초점 대상을 향하는 2개 이상의 원격 이미지 캡처 디바이스들로부터 전송된 데이터로부터의 삼각측량 계산들은 존질적으로 동일한 위치에서 선들이 가로지르는 지점들의 클러스터 및 복수의 교차 라인들을 생성할 수 있다.
동시에 공간적으로 별개인 위치들에서 가로지르는 상이한 선들로부터 발생한 지점들의 상이한 클러스터들은 서로로부터 초점 대상들을 구별하도록 하는데 사용될 수 있다. 동시에 동일한 영역에서의 상대적인 개수의 데이터 지점들 또는 클러스터 사이즈의 통계 분석은 각 초점 대상의 상대적 인기도를 확립하는데 사용될 수 있다. 클러스터는 관측자들이 초점을 맞추고 있는 영역 내의 실제 관심 대상들에 대응한다. 2개 이상의 시선들이 가로지르는 공간 영역인 클러스터들은 서로에 대한 교차 지점의 상대적 근접도 및 배열을 결정하고, 그 교차 지점을 둘러싸는 영역이 변화함에 따라 소정 영역의 지점들의 밀도를 계산하는 것에 분석될 수 있다. 또한, 상기 클러스터 밀도는 중심 지점으로부터 미리결정된 거리 영역 내에 속하는 지점들로서 정의될 수 있다. 또한, 상기 클러스터는 포인트들의 세트로 정의될 수 있으며, 여기서 각 포인트는 상기 세트를 형성하는 모든 다른 포인트들로부터 특정 최대 거리 이내에 존재하며, 상기 최대 거리는 미리결정되거나 또는 이벤트의 타입에 기초하여 동적으로 계산될 수 있다.
이러한 방식으로, 서로에 대한 소정 근접도 내에 존재하는 지점들은, 관측되고 있는 대상의 타입에 의존하는 클러스터로서 인식될 수 있다. 시선을 가로지르는(또는 그 근처의) 클러스터는 잠재적인 관심 대상 또는 영역을 나타낼 수 있으며, 사용자들의 클러스터는 특정 대상에 초점을 맞추고 있는 연관 그룹의 사용자들일 수 있다. 적어도 2개의 데이터 세트가 컴파일 및 분석을 통해 얻어질 수 있으며, 이것은 관심 대상과 관련된 데이터와 클러스터로부터 형성된 사용자 그룹과 관련된 데이터를 포함하며, 관심 대상이 더 이상 주목을 갖는 초점이 아닌 이후에 지속될 수 있다. 클러스터(들)은 그 클러스터의 대상에 초점을 맞추고 있는 관측자들의 퍼센티지 및 사이즈를 결정하도록 더 분석될 수 있다.
클러스터는 알려진 관심 대상, 사이즈(예컨대, 반경, 직경, 단위 영역, 구 체적 등), 중심 위치, 밀도(즉, 단위 영역당 교차 지점들의 개수), 데이터를 전송하는 관측자들 또는 활성화된 디바이스들의 퍼센티지 등과 연관된 다수의 지점들을 포함하는 일련의 특성들을 가질 수 있다. 특정 클러스터의 적절성은 이벤트에서 다른 관심 대상들에 초점을 맞추고 있는 관측자들의 수에 비교되는 특정 관심 대상들에 초점을 맞추고 있는 관측자들의 비율에 의해 결정될 수 있다. 또한, 상기 적절성은 클러스터의 밀도에 기초할 수 있으며, 소형 영역에서의 많은 개수의 교차 지점들은 대형 영역에서의 유사한 개수의 유사한 개수의 지점들 또는 소형 영역에서의 더 적은 개수의 지점들에 비해 더 적절한 것으로 인식된다. 이벤트에 있는 관측자들의 개수가 클수록 그리고 샘플 사이즈가 클수록, 인원통계를 결정하고자 하는 소비자와 같이 다른 인원들에 대한 적절성 및 관심 레벨을 추출하는 능력 및 적절성의 결정(들)은 더욱 정확해 진다. 예를 들어, 크라우드 포커스(crowd focus)는 그 인원에 대한 제품 홍보를 위해 사용될 수 있는 소정 인원에 대해 특정 연예인이 더욱 많은 관심을 유지하고 있다는 것을 나타낼 수 있다.
이벤트에서 생성된 각 클러스터는 특정 시간에서의 이벤트의 대상들에 초점을 맞추고 있는 가장 많은 수의 활성화된 디바이스들 및 소정 시간에 어느 대상에서 다른 대상으로 관심을 이동시키는 것에 기초하여, 그 이벤트의 피크 구간, 가장 큰 관심 대상들을 식별할 수 있게 하는데 사용될 수 있는 고유의 정보 세트를 나타낸다.
일단 지점들의 클러스터가 결정되면, 상기 클러스터는 그 지정된 클러스터 내에서 대상들에 어떤 관측자들이 관심이 있는지를 결정하는데 사용될 수 있으며, 클러스터를 형성하는 대상에 초점을 맞추고 있는 각 관측자들에게 상기 클러스터를 생성하는 다른 관측자들을 알릴 수 있다. 또한, 클러스터는 관심 대상을 더욱 식별하게 하거나 그것의 적절성을 결정하는 정보와 함께 태깅될 수 있다. 상기 정보는 그 대상에 관한 메타데이터와 함께 태깅된 이미지들을 전송하는 관측자들에 의해 제공될 수 있다. 또한, 정보는 그 관심 대상에 초점을 맞추고 있는 관측자들을 알리기 위해, 특정 클러스터를 형성하는 것으로 식별된 전자 디바이스에게 다시 전송될 수 있다. 상기 정보는 서버로부터 전자 디바이스로 전송될 수 있으며, 그 이벤트가 발생하고 있는 장소나 대상, 및/또는 관심 대상에 의해 지지될 수 있는 제품들이나 그 이벤트와 관련된 아이템들에 대한 광고들에 관한 추가적인 배경 정보에 기초하고 있는 관심 대상 또는 대상들의 식별을 포함한다. 예를 들어, 자동차 제조사는 카 레이스에서 운행되고 있는 자동차의 브랜드에 대한 광고를 전송할 수 있다. 관측자에게 전송되는 이러한 추가 정보는 전자 디바이스들로부터 서버 시스템으로 전송되는 실제 이미지들에 부가되는 메타데이터 태그들로 통합될 수 있다. 클러스터의 형성은 관측자들 또는 다른 당사자들에게 관측자들의 관심의 이동이나 새로운 상황을 알리고, 그 이벤트에 포함된 것에 새로운 클러스터를 브로드캐스팅하는 것에 의해 그 관심 대상들로 관심을 끌어내는데 사용될 수 있다. 알림(alert)은 관심 대상(들)로 다른 매체를 안내하도록 사용될 수 있다. 예를 들어, 텔레비전 브로드캐스터들에게는 관심이 이동되었음이 알려질 수 있으며, 관측자들의 관심을 끄는 새로운 활동에 그들이 카메라들이 초점을 맞출 수 있으며, 대형 일반 디스플레이들에 매우 관련이 높은 상황들을 디스플레이할 수 있다.
다른 예로서, 이벤트가 있는 스테이지 또는 필드로부터 스탠드로의 관심의 이동은 이례적인 것으로 인식될 수 있으며, 발생 상황, 안전 위험, 또는 응답이 요구될 수 있는 위기를 보안 업체에게 알릴 수 있다. 상기 이례적 상황은 예기치 않은 위치에 대한 유의미한 양의 크라우드 포커스(crowd focus)에 기초하여 인식된다.
또한, 상기 서버 애플리케이션은 각각의 전자 디바이스들로부터 수신되고 있는 데이터를 필터링할 수 있으며, 불규칙한 포지션 및 콤파스 헤딩을 나타내는 데이터는 삼각측량 계산에 사용되지 않도록 함으로써 유용한 교차 지점을 생성하지 않는 데이터에 대한 컴퓨터 리소스들의 낭비를 방지하도록 한다. 예를 들어, 디바이스의 콤파스 헤딩을 위해 매초마다 한번씩 수집되는 데이터 값은, 만일 그 콤파스 헤딩이 이전에 전달된 값으로부터 미리결정된 각도(예컨대, 30도)보다 많이 변하는 경우 계산으로부터 배제될 수 있다. 이러한 값은 이벤트의 타입 또는 관측자가 있는 위치 및 활동으로부터의 거리를 고려하여 조정될 수 있다. 예를 들어, 만일 방향 데이터의 변화가 시선이 계속 변화했으며 스테이지를 커버하는 범위 밖으로 떨어진 것을 나타내는 경우, 서버는 수평 또는 수직으로 45도 각도 범위 내에 속하는 스테이지의 시야를 가진 관측자로부터 전송되는 데이터를 차단하게 된다.
또한, 상기 서버는 일관된 패턴을 나타내는데 실패한 계산된 클러스터 지점들을 필터링할 수 있으며, 위치 및 방향 데이터의 반복된 샘플링은 각각의 후속적으로 계산된 클러스터 지점이 이전에 결정된 클러스터의 영역 밖에 속한다는 것을 나타낸다. 또한, 서버는 특정한 원격 거리에 대한 시선을 추정하는데 방해 또는 차단하는 대상들을 식별하기 위해 지형 또는 고도 데이터를 포함할 수 있으며 이에 의해 스트레이 데이터(stray data)를 더욱 필터링할 수 있다. 또한, 필터링은 클러스터 위치로부터 특정 전자 디바이스의 거리에 기초하여 이루어질 수 있다. 또한, 서버 애플리케이션 프로그램, 원격 애플리케이션 프로그램, 또는 양쪽 모두는, 이미지들의 캡처, 관측자의 이동, 및/또는 원격 디바이스에서 서버로의 전송 지연 그리고 전송된 데이터로부터 교차 지점을 계산함에 있어서의 지연과 같은 아티팩트들이, 당업자에게 알려진 바와 같이, 각종 계산 및 분석에 영향을 주지 않는 경우, 전화 속성을 감안하여 관측자의 손 흔들림과 같은 것들을 보상할 수 있다.
이들 각종 스무딩 알고리즘(smoothing algorithm)들은 본 기술 분야에 공지되어 있다. 또한, 서버 애플리케이션 프로그램, 원격 애플리케이션 프로그램, 또는 양쪽 모두는, 그것들이 원격 디바이스(들)에 의해 전송되는 데이터로부터 실시간으로 발생함에 따라, 당사자로 하여금 시선들의 사진 및 클러스터들의 형성을 볼 수 있게 하는 대시보드 사용자 인터페이스를 구비할 수도 있다.
또한, 대시보드는 이벤트에 있는 각종 활동들을 관측하는 제 3 당사자에 의해 온라인으로 보여질 수도 있다. 이러한 제 3 당사자는 예를 들어 광고주, 판매회사, 보안 업체, 브로드캐스터, 이벤트 프로모터, 또는 시청자일 수 있다. 또한, 캡처된 이미지들은 그 이벤트에 있는 판매회사들, 또는 지역 사업들 및 서비스 제공자들을 위한 광고 제공자에 의한 광고 내용의 전파를 위해 사용될 수 있다. 다른 실시예에서, 시스템은 함께 작업하는 2개의 제 1 당사자인 이미지 제공자들을 포함하며, 그 각각은 이미지(들), 그리고 그 이미지(들)을 태깅하기 위한 GPS, 방향, 및 시간 정보를 획득하는 것에 의해 동일한 이벤트의 디지털 또는 비디오 이미지들, 대상, 사람, 또는 이벤트를 캡처하는 애플리케이션 소프트웨어를 실행하는 이동 디바이스를 가지며, 상기 추가 정보를 사용하여 이미지(들)의 타겟을 식별하여 삼각측량한다.
원격 서버는 이동 디바이스들의 각각으로부터 전달되는 정보 및 캡처 이미지(들)을 수신하고, 이후의 전파를 위해 연관 정보와 함께 그 이미지(들)을 저장하며, 또한 GPS, 방향, 및 시간 스탬프를 사용하여 이미지 캡처의 대상을 삼각측량한다. 원격 애플리케이션은 이미지 캡처 및 전송 능력들을 포함하는 셀 폰, 스마트폰, PDA, 랩탑 컴퓨터, 태블릿 등과 같은 원격 또는 이동 전자 디바이스를 실행하는 것을 의미한다. 상기 이미지는 디바이스에 의해 캡처되며, 애플리케이션을 사용하여 서버로 전송된다. 또한, 상기 이미지는 디지털 또는 비디오 카메라와 같은 일 디바이스에 의해 캡처될 수 있으며, 서버에 대한 필요 통신 링크를 가지고 애플리케이션을 실행하는 랩탑 컴퓨터 또는 태블릿과 같은 별개의 디바이스로 다운로드될 수 있다. 상기 컴퓨터는 이벤트를 선택하고, 다운로드된 이미지를 태깅하며, 그 이미지 및 연관 메타데이터를 서버로 전송하는 애플리케이션의 사용자 인터페이스를 통해 사용된다. 원격 또는 이동 디바이스들 사이의 통신 및 원격 디바이스들과 서버 사이의 통신은, 두개 이상의 분리된 디바이스들 사이에서 정보와 신호들을 운반하는 기술 분야의 당업자에게 알려진 바와 같이, 무선 전화 네트워크, 인터넷, 또는 유선 통신 네트워크, 그리고 상기의 임의 조합을 통해 이루어질 수 있다.
또한, 상기 전송은, 두개 이상의 분리된 디바이스들 사이에서 정보와 신호들을 운반하는 기술 분야의 당업자에게 알려진 바와 같이, 동기식 또는 비동기식일 수 있다. 일 실시예에서, 상기 시스템은 또한 제 2 당사자인 이벤트 주최자 또는 광고 회사에 의해 작동될 수도 있고, 주최자의 사업장에 위치되거나 몇몇 다른 서비스 제공자, 예컨대 자신의 서버를 운영 및 유지하며 웹사이트 호스팅 및 또한 가능하게는 온라인 저장소를 제공하는 ISP(Internet Service Provider)에 의해 원격으로 작동될 수도 있는 서버를 포함한다.
상기 서버는 애플리케이션 및 데이터베이스 소프트웨어를 실행시키고 수집된 이미지들과 필요한 통신 하드웨어 및 소프트웨어를 저장하여 원격 디바이스들과 통신하고 전송된 이미지들을 수신하기에 충분한 메모리 및 처리 전력을 구비해야 한다. 상기 서버 및 상기 서버에서 실행되는 애플리케이션은 주최자 또는 광고주에 등록된 위치들과 모든 이벤트들 그리고 그렇게 등록된 각각의 개별 이벤트 및 위치를 고유하게 식별하는데 사용되는 데이터 필드를 기록 및 저장할 수 있으며, 이것은 이벤트의 시간, 서버에 저장되어 데이터베이스에 기록되는 캡처 이미지들의 시간 스탬프를 포함한다.
상기 데이터베이스는 사용가능한 상용 데이터베이스 프로그램, 예컨대 SQL 또는 더욱 바람직하게는 MySQL®을 사용하여 구성 및 프로그래밍될 수 있다. 상기 데이터베이스는 상이한 이벤트들과 위치들을 식별 및 구별하기 위해 각 등록된 이벤트에 대해 주최자에 의해 할당된 데이터 필드들을 포함한다. 상기 데이터베이스는 본 기술 분야의 당업자에게 알려진 데이터베이스 구조들, 탐색들 및 메모리 할당 방법들을 사용하여 이벤트 정보와 캡처 이미지들을 저장 및 구조화하는데 사용될 수 있다. 또한, 상기 데이터베이스는 분석 및 통계적 계산용 분석 엔진을 사용하기 위해 각각의 복수의 이미지 제공자 이미지 캡처 하드웨어에 의해 제공되는 실시간 전달되거나 임베딩된 메타데이터를 컴파일 및 저장하는데 사용될 수 있다. 상기 서버 애플리케이션 소프트웨어는 서버에서 실행되며, 리퀘스터들, 이벤트들 및 위치들을 등록하고, 이러한 이벤트들과 위치들을 식별하는데 사용될 정보의 리스트를 구성하며, 그 정보를 원격 디바이스들에 전달하여 서버에서의 저장과 분석을 위해 원격 디바이스로부터 전송되는 이미지들과 데이터를 수신하는 것을 제공한다. 또한, 상기 서버 애플리케이션 소프트웨어는 상기 서비스 또는 원격 애플리케이션 소프트웨어의 업데이트 및 빌링(billing)하는 것을 제공할 수 있다(예컨대, 뉴스 버전의 자동 다운로딩에 의해). 또한, 상기 애플리케이션 소프트웨어는 성능 및 시스템 처리 그리고 메모리 리소스들을 더욱 최적화하는 기술 분야의 당업자에게 알려진 바와 같이, 멀티플 서버들, 또는 서버들 및 원격 디바이스들을 통해 분산될 수 있다. 원격 서버는 서버 시스템과 하나 이상의 원격 디바이스들에 배치되는 애플리케이션(들)의 기능적 소프트웨어 컴포넌트들의 동작을 집합적으로 지원하는 복수의 연동 컴퓨터 서버들을 포함하는 분산 시스템일 수 있다. 상기 서버들의 분산 시스템은 무선 접속 및/또는 인터넷을 통해 통신할 수 있다.
다른 실시예에서, 원격 애플리케이션은 또한 당업자에게 알려진 바와 같이, 브라우저의 컴포넌트, 브라우저-기반 애플리케이션으로서 구현될 수도 있고, 또는 이와 유사하게 구현되거나 지원될 수 있다. 다른 실시예에서는, 클라우드 컴퓨팅은 데이터를 저장하는 기능들, 통신 드라이버와 같은 지원 소프트웨어나 애플리케이션을 위한 기술 또는 데이터와 이미지 제공자 정보의 수집과 통신을 동기화함에 있어서의 사용을 위한 기술의 일부로서 구현될 수 있다.
또한, 애플리케이션 소프트웨어는 실시간으로 원격 디바이스들로부터 정보를 수집하고 그 수집된 데이터를 분석하여 특정 시간에 특정 타겟에 대해 초점을 맞추고 있는 이미지 제공자들의 수를 결정할 수 있고, 동시에 또는 동일한 시간 구간 동안에 상이한 타겟들에 초점을 맞추고 있는 상응하는 원격 디바이스들의 수를 계산할 수 있으며, 또한 본 기술 분야에서 알려진 통계적 계산법들을 사용하여 그 시간 또는 그 구간 동안에 각 타겟 또는 서브-타겟에 관심이 있는 청중의 상대적 양을 결정할 수 있는 분석 엔진을 포함한다.
신뢰 구간들 및 당업자에게 알려진 다른 통계 값들은 청중 초점의 양 및 새롭게 결정된 각 타겟들의 인기도의 정확성을 결정하는데 사용될 수 있다. 상기 분석 엔진은 수집된 데이터 및 추출된 정보를 판독하여, 그 이벤트에서의 실시간 사용이나 동일 또는 유사한 참여자들에 의한 후속적으로 조직된 이벤트들에서의 이후의 사용을 위해 그 정보를 저장할 수 있다.
다음의 실시예들 및 예들은 고려되는 다양한 방법들의 단계들 또는 다양한 시스템들의 컴포넌트들의 상이한 가능 구성들을 나타내며, 이것은 본 발명의 원리와 범위 내에서 고려되는 발명의 개념을 설명하는데 도움을 주는 예시적이고 비한정적인 것으로 의도된다. 또한, 모든 변형사항들과 수정사항들은 청구범위에 기술된 본 발명의 범위 내인 것으로 고려되어야 한다. 본 발명의 실시예들은 사진을 찍을 타겟에 있는 그들의 이미지 캡처 디바이스들(예컨대, 스마트폰)을 향하는 이벤트에서의 군중을 포함한다. 동일한 타겟에 초점을 맞추고 있는 복수의 사람들은 초점의 지점들을 생성하는 교차 시선들로 인하여 야기된 클러스터를 생성한다. 동일한 대상에 초점을 맞추고 있는 사람들은 신원이 알려져 있을 수 있으며, 그들의 사진, 비디오, 및 코멘트를 올리기 위해 즉석 소셜 네트워크나 논의 그룹에 참여할 사람들을 초대하는 메시지를 그들의 스마트폰으로 전송한다. 올려진 사진, 비디오, 및 코멘트는 논의 그룹이나 소셜 네트워크에 참여하는 다른 사람들과 공유될 수 있으며, 그룹 외부의 당사자들에게 배부될 수도 있고, 또는 웹 페이지에 포스팅될 수도 있다. 통계적 계산에 기초하는 상당한 중요도 또는 매우 유의미한 것으로 태깅된 사진, 비디오, 코멘트는 뉴스 공급 자료로서 온라인에 포스팅될 수 있다. 다른 실시예에서, 클러스터에 태깅된 속성은 예를 들어 잠재적 관심 대상과 연관되는 것으로 결정되거나 그 클러스터의 멤버로부터 수신되는 것으로 결정되는 디바이스 사용자들의 클러스터들로 정보 콘텐츠와 소셜 미디어를 전달하는 것과 같이 현실-세계 애플리케이션들을 전개하기 위해 활용된다. 또한, 상기 클러스터 속성은 특정 지리적 영역에서의 관측자들의 관심 레벨의 통계적 표현들 또는 그들의 중요도를 그래픽으로 나타내는 클러스터들의 맵을 생성하도록 더 분석될 수 있다.
또한, 이러한 매핑(mapping)들은 대시보드로 나타내는 것과 같이, 시간에 따른 중요도와 관심 패턴 이동을 동적으로 나타내도록 디스플레이될 수 있다. 또한, 관심과 중요도의 동적 변경들은 제 3 당사자 방송 및 광고를 연관된 디바이스 사용자들의 클러스터(들)로 안내하는데 사용될 수 있다.
다른 실시예에서, 상기 클러스터 분석적 및 통계적 정보는 저장될 수 있고 다른 기업과 사업 사용들을 위해 패키징될 수 있다.
일 실시예에서, 이벤트에 있는 사람들은 그 이벤트에 있는 판매회사와 통신함으로써 다른 사람을 위한 음식, 음료, 기념품을 구매할 수 있다.
본 발명의 이러한 일 실시예는 이미지 캡처 하드웨어를 포함하는 적어도 제 1 원격 전자 디바이스, 이미지 캡처 하드웨어를 포함하는 제 2 원격 전자 디바이스, 서버 상기 제 1 및 제 2 전자 디바이스들로부터 멀리 지리적으로 분리되어 있으며 네트워크를 통해 상기 제 1 및 제 2 원격 전자 디바이스들과 통신하는 서버를 포함한다.
시스템들 및 방법들은 예를 들어, 복수의 원격 전자 디바이스들과 상기 복수의 원격 전자 디바이스들로부터 지리적으로 분리된 적어도 하나의 서버를 포함하고, 상기 복수의 원격 전자 디바이스들 모두는 특정 이벤트에 존재하며, 상기 원격 디바이스들은 적어도 하나의 지리적으로 먼 서버와 통신하는 것으로 제공된다. 본 발명의 몇몇 실시예들은 이미지들을 캡처하고, 이벤트에서의 특정 사람들, 대상들, 또는 서브-이벤트들에 초점을 맞추고 있는 이미지 제공자들로서 그 이미지들과 연관된 컴파일된 메타데이터로부터 실시간으로 정보를 획득하는 시스템 및 방법에 관한 것이다.
다른 실시예에서, 상기 데이터에는 각각의 캡처되어 원격 컴퓨터 시스템으로 전송된 이미지가 메타데이터로서 임베딩될 수 있다.
일 실시예에서, 상기 복수의 캡처된 이미지들에는 이미지들 포지션, 방향을 식별시키는 메타데이터가 각각 태깅될 수 있으며, 상기 캡처된 이미지들은 컴파일을 위해 적어도 하나의 서버로 전달될 수 있다.
시스템의 다른 실시예는 디지털 이미지나 비디오를 캡처하고 또는 이벤트 또는 위치에 관한 정보를 수신할 수 있는 애플리케이션 프로그램을 바람직하게 실행시킬 수 있으며 이동 전자 디바이스를 구비한 적어도 하나의 제 1 당사자인 이미지 제공자를 포함하고, 바람직하게는 캡처된 이미지에 그 이미지가 캡처된 위치나 이벤트를 식별하기에 충분한 메타데이터를 태깅하고, 그 이미지가 캡처된 시점을 명시하는 시간 스탬프를 적용하고, 태깅된 이미지 및 메타데이터의 적어도 일 부분을 제 2 당사자(예컨대 이벤트 주최자, 웹페이지나 다른 사이트에의 포스팅 및 컴필레이션을 위한 프로모터 또는 광고 제공자, 제 3 당사자에 의한 감상을 위한 분포)에 의해 운영되는 원격 서버로 전송한다.
또한, 시스템은 원격 디바이스로 하여금 GPS 포지셔닝에 의해 원격 디바이스의 위치를 획득하게 하고, 콤파스 소프트웨어나 방향 소프트웨어를 사용하여 원격 디바이스가 향하고 있는 방향을 결정하게 하고, 디바이스가 GPS 및 방위 데이터를 수집하고 있는 시간을 결정하게 하며, 또한 시간 스탬프를 상기 수집된 GPS 및 방향 데이터와 연관시키게 할 수 있는 애플리케이션을 실행하며 또한 이미지-캡처 하드웨어를 구비하는 원격 디바이스를 바람직하게 포함한다.
또한, 상기 애플리케이션은 원격 디바이스로 하여금 상기 상호 연관된 위치/방향/시간 데이터를 관련 애플리케이션을 실행시키는 원격 서버로 전달할 수 있게 한다.
일 실시예들에서, 시스템들 및 방법들은 예를 들어, 제 1 원격 전자 디바이스와, 상기 원격 전자 디바이스로부터 지리적으로 분리된 적어도 하나의 서버(여기서, 상기 서버와 원격 디바이스는 서로 통신하고 있음)와, 상기 서버와 통신하여 디지털 사진 이미지를 캡처할 수 있는 제 2 전자 디바이스와, 상기 제 1 전자 디바이스에서 상기 적어도 하나의 서버로 전달되고 또한 상기 적어도 하나의 서버에서 상기 제 2 통신 디바이스로 전달되어 사진 이미지의 캡처를 개시시키는 전자 요청을 포함하는 것으로, 제공된다.
또한, 시스템의 일 실시예는 상기 제 1 전자 딥아ㅣ스에서 상기 적어도 하나의 서버로 전달되고, 또한 상기 적어도 하나의 서버에서 상기 제 2 통신 디바이스로 전달되어 사진 이미지의 캡처를 개시시키는 전자 요청을 포함한다.
몇몇 실시예들에서, 처리 시스템에 의해 실행되는 컴퓨터-판독가능 명령어들을 저장하는 컴퓨터-판독가능 매체는, 이미지 캡처링 프로세스를 수행하며, 상기 프로세스는 (a) 특정 시간에서 또는 시간 구간 동안 이벤트 또는 위치의 사진 이미지를 캡처하는 전자 요청을 생성하는 단계와, (b) 상기 요청 및 상기 이벤트 또는 위치를 식별시키는 정보를 적어도 하나의 서버로부터 제 1 전자 디바이스로 전달하고 이에 따라 사진 이미지의 캡처를 개시시키는 단계와, (c) 상기 이벤트 또는 위치에 관한 정보에 기초하여 데이터베이스를 생성하는 단계와, (d) 특정 시간에서 또는 시간 구간 동안 상기 요청된 이벤트의 하나 이상의 이미지들 또는 비디오들을 캡처하는 단계와, (e) 상기 캡처된 이미지들 또는 비디오들에 상기 이벤트 또는 위치를 식별시키는 정보 및 시간 스탬프를 태깅하는 단계로서, 상기 정보는 상기 이벤트의 식별 및 태깅을 위해 사용되는 것이며, 상기 이미지들은 상기 이벤트의 명칭, 상기 이벤트의 프로모터 또는 주최자, 상기 이벤트의 채널, 이벤트 설명, 상기 이벤트의 날짜, 상기 이벤트의 특정 시간, 및/또는 상기 이벤트의 특정 위치를 포함할 수 있는, 상기 태깅하는 단계와, (f) 상기 태깅된 이미지 및 메타데이터를 상기 서버로 전송하는 단계와, (g) 상기 스탬프를 적어도 포함하는 상기 메타데이터에 기초하여 상기 태깅된 이미지를 식별하고, 상기 이미지를 상기 데이터베이스 내의 정확한 이벤트 또는 위치와 연관시키는 단계와, (h) 정확한 이벤트 또는 위치를 상기 이미지를 상기 데이터베이스에 저장하는 단계와, (i) 웹사이트 상에 상기 캡처된 이미지를 디스플레이하는 단계를 포함한다.
여러 가지 실시예들에서, 임의의 주어진 시점에서의 초점의 방향 및 이미지 제공자들의 물리적 위치에 기초하는 실시간 GPS, 방향, 및 시간 데이터는 상기 이벤트에 존재하는 각각의 복수의 이미지 제공자들로부터 샘플링되며, 적어도 하나의 서버로 전달되어 상호 연관 및 컴파일된다.
상기 실시간 데이터는 상기 적어도 하나의 서버에 의해 모니터링 및 컴파일될 수 있다.
예를 들어, 본 발명의 일 실시예는 상기 디바이스가 향하는 방향에 관한 연속적인 데이터 스트림을 생성할 수 있는 원격 애플리케이션을 실행하고, 상기 데이터를 애플리케이션 프로그램 및 데이터베이스 프로그램을 실행하는 적어도 하나의 서버로 전송하는 복수의 원격 전자 디바이스들을 포함하고, 상기 서버는 상기 복수의 원격 전자 디바이스들로부터 지리적으로 분리되어 있으면서 상기 원격 전자 디바이스들과 통신하고, 상기 서버는 상기 원격 전자 디바이스와 통신하여 소정 시간에 각각의 이미지 캡처 디바이스가 향하고 있는 방향에 관한 데이터 스트림 및/또는 적어도 1초마다 하나의 속도로 캡처되는 하나 이상의 이미지(들)을 수신하는, 시스템들 및 방법들을 제공한다.
상기 방법은 상기 이벤트 또는 위치에 관한 정보에 기초하여 데이터베이스를 생성하고, 특정 시간에 또는 시간 구간 동안의 상기 요청된 이벤트의 하나 이상의 이미지들 또는 비디오들을 캡처하고, 상기 캡처된 이미지들 또는 비디오들에 상기 이벤트 또는 위치를 식별시키는 정보와 시간 스탬프를 태깅하고, 상기 태깅된 이미지 및 상기 이미지와 연관된 메타데이터의 적어도 일부분을 상기 서버로 전송하고, 상기 시간 스탬프를 포함하는 메타데이터에 기초하여 상기 태깅된 이미지를 식별하고, 또한 상기 이미지를 상기 데이터베이스 내의 상기 정확한 이벤트 또는 위치와 연관시키고, 상기 정확한 이벤트 또는 위치를 위해 상기 데이터베이스에 상기 이미지를 저장하며, 또한 웹사이트 상에 상기 캡처된 이미지를 디스플레이한다.
상기 이벤트 및 이미지들을 식별하고 태깅하는데 사용되는 정보는 상기 이벤트의 명칭, 상기 이벤트의 프로모터 또는 주최자, 상기 이벤트의 채널, 이벤트 설명, 상기 이벤트의 날짜, 상기 이벤트의 특정 시간, 및 상기 이벤트의 특정 위치를 포함한다.
상기 방법은 상기 이벤트 또는 위치에 관한 상기 이벤트 또는 위치에 관한 정보에 기초하여 데이터베이스를 생성하는 것과, 특정 시간에 또는 특정 시간 동안 요청된 이벤트의 하나 이상의 이미지들 또는 비디오들을 캡처하는 것과, 상기 캡처된 이미지들 또는 비디오들에 상기 이벤트 또는 위치를 식별시키는 정보와 시간 스탬프를 태깅하는 것과, 상기 태깅된 이미지 및 상기 이미지와 연관된 메타데이터의 적어도 일 부분을 상기 서버로 전송하는 것과, 상기 시간 스탬프를 포함하는 메타데이터에 기초하여 상기 태깅된 이미지를 식별시키고, 상기 이미지를 상기 데이터베이스 내의 정확한 이벤트 또는 위치와 연관시키는 것과, 상기 정확한 이벤트 또는 위치를 위해 상기 데이터베이스 내에 상기 이미지를 저장하는 것과, 웹사이트 상에 상기 캡처된 이미지를 디스플레이하는 것을 더 포함할 수 있다.
상기 이벤트 및 이미지들을 식별하고 태깅하는데 사용되는 정보는 상기 이벤트의 명칭, 상기 이벤트의 프로모터 또는 주최자, 상기 이벤트의 채널, 이벤트 설명, 상기 이벤트의 날짜, 상기 이벤트의 특정 시간, 및 상기 이벤트의 특정 위치를 포함한다.
다른 양태는 이벤트 또는 위치의 사진 이미지들을 캡처하는 요청을 제 1 원격 전자 디바이스로부터 주최자로 전송하는 것을 포함하는, 이벤트 또는 원격 위치로부터의 하나 이상의 사진 이미지들의 캡처를 요청하고(여기서, 상기 요청은 상기 이벤트 또는 위치를 고유하게 식별시키기에 충분한 정보를 포함함), 상기 요청 및 식별 정보에 기초하여 데이터베이스를 생성하고, 상기 요청 및 식별 정보를 사진 이미지를 캡처할 수 있는 하나 이상의 제 2 원격 전자 디바이스(들)로 전달하고, 상기 요청, 식별 정보, 및 상기 이미지가 캡처된 시간에 기초하여 상기 사진 이미지를 캡처하는 것을 결정하고, 하나 이상의 제 2 원격 전자 디바이스(들)을 가지고 하나 이상의 사진 이미지들을 캡처하는 것에 의해 상기 전달된 요청에 응답하고, 공공 디스플레이를 위해 상기 캡처된 이미지들을 상기 서버로 전송하는 방법에 관한 것이다.
다른 비한정적 실시예들에서, 상기 이벤트에 존재하는 각각의 이미지 캡처 디바이스들로부터 전송되는 실시간 데이터는 상기 원격 서버들에 전달될 수 있으며, 상기 서버들에 수집 및 전송된 상기 이미지들 및 메타데이터와 별개로 저장될 수 있다.
다른 실시예에서, 특정 타겟을 향하고 있는 이미지 캡처 디바이스들로부터 생성되는 실시간 데이터는 다른 이미지의 이미지 캡처 디바이스들에게 전달되어 각 이미지 제공자에게 동일 타겟에 초점을 맞추고 있는 다른 이미지 제공자들을 알리는 것을 제공하며, 또한 상기 타겟의 관심 레벨에 관한 정보를 상기 이미지 제공자들에게 전달한다.
본 발명의 다른 실시예들에서, 시스템들 및 방법들은 예를 들어 소프트웨어 애플리케이션들을 실행할 수 있는 이미지 캡처 하드웨어를 포함하는 복수의 원격 전자 디바이스들과, 상기 복수의 원격 전자 디바이스들로부터 지리적으로 분리된 적어도 하나의 원격 서버 시스템을 포함하며, 상기 복수의 원격 전자 디바이스들 모두는 동일한 특정 이벤트 또는 이벤트의 동일한 근처에 존재하고,
상기 원격 전자 디바이스들 모두는 상기 원격 서버 시스템과 통신하여 상기 원격 전자 디바이스로부터 상기 서버 시스템으로 데이터를 정송할 수 있으며, 상기 서버 시스템은 각각의 원격 전자 디바이스로 다시 정보를 전달할 수 있는 것으로 제공된다.
타겟을 삼각측량하는 방법의 일 실시예는 상기 애플리케이션을 실행하는 제 1 활성 원격 전자 디바이스에 의해 전달되고 있는 실시간 피드를 식별하는 것과(상기 실시간 피드는 동일한 특정 시간에 상기 디바이스의 콤파스 헤딩(compass heading)에 기초하여 대향 방향 및 상기 전자 디바이스의 GPS 좌표를 적어도 갖는 전자 디바이스들 속성을 포함함), 상기 제 1 전자 디바이스의 상기 GPS 포지션 및 콤파스 대향(compass facing)에 기초하여 초점의 방향을 플로팅(plotting)하는 것을 포함한다.
상기 제 2 디바이스의 GPS 좌표들 및 콤파스 대향을 포함하는, 제 2 전자 디바이스로부터 상기 서버로 전달되는 제 2 실시간 피드를 식별하고, 또한 상기 포지션 및 대향의 실시간 피드에 기초하여 초점의 방향을 플로팅한다.
상기 제 2 전자 디바이스의 초점의 방향이 상기 제 1 전자 디바이스의 초점의 방향과 교차하는지의 여부를 결정하고, 또한 두 선들의 교차 지점 및 초점의 상기 두 선들의 교차 지점의 관련 GPS 위치를 결정한다.
상기 초점 대상은 타겟의 결정된 GPS 포지션과 그 시간에서의 사람들 또는 대상들의 알려진 위치를 상호 연관시키거나, 상기 원격 전자 디바이스들의 제 1 사용자 및/또는 제 2 사용자가 초점을 맞추고 있는 타겟을 식별하거나, 또는 상기 서버를 실행하는 조작자 또는 이미지 인식 소프트웨어에 의한 이미지 인식에 의해 식별하는 것으로 식별될 수 있다.
방법의 일 실시예는 특정한 사람 또는 대상에 주목하고 있는 관측자들의 집중도 및/또는 각 관측자가 상기 특정한 사람 또는 대상에 초점을 유지하고 있는 시간의 길이를 결정하기 위한, 이미지 캡처 디바이스들의 적어도 통계적으로 적절한 샘플에 대한 초점을 맞추고 있는 지점의 통계 분석을 포함한다.
상기 이벤트 동안 더 높은 관심을 갖는 시간의 길이는 또한 상기 이벤트 동안 어떤 특정한 사람 또는 대상에 초점을 맞추고 있는 이미지 캡처 디바이스들의 비율에 의해 결정될 수 있다.
마찬가지로, 상기 이벤트의 모멘텀은 시간에 따른 집중도의 증가 및 감소, 그리고 시간에 따른 어떤 사람 또는 대상으로부터 다른 사람 또는 대상으로의 집중의 이동에 의해 결정되고 이에 따르게 된다.
또한, 추가 정보는 동일한 사람 또는 대상이 상기 관측자들의 집중을 끄는 빈도를 모니터링하고/하거나 각 사람 또는 대상이 상기 이벤트 동안 관측자들의 집중을 유지하는 총 양을 합산하는 것에 의해 획득될 수도 있다.
시간의 길이 또는 관측자들의 수의 비교는 어떤 사람 또는 대상의 관심 레벨들을 결정하는데 사용될 수 있다.
다른 실시예에서, 상기 관심 대상들은 상기 이벤트 동안 스테이지 또는 다른 정의된 영역 주변을 연속적으로 이동할 수 있다.
이러한 예들에서, 상기 이벤트가 진행함에 따라, 상기 이벤트의 모멘텀은 관측자들의 주목을 끌고 있는 어떤 사람 또는 대상으로부터 다른 사람 또는 대상으로 이동할 수 있다.
상기 모멘텀은 특정 시간에 특정한 사람 또는 대상을 향하고 있는 이미지 캡처 디바이스들의 수 또는 상기 이벤트 중의 특정 시간 구간 동안 사람 또는 대상의 캡처된 실제 이미지들의 수에 의해 결정된다.
상기 이미지 캡처 디바이스들로부터 전송되는 데이터는 어떤 디바이스들이 거의 동시에 거의 동일한 위치를 향하고 있는지를 나타낸다.
또한, 이 데이터는 사람 또는 대상이 이동중인 경우일 지라도 어떤 사람 또는 대상이 관측되고 있는지를 식별하는데 사용될 수 있다.
이러한 예들에서는, 고정된 시야가 존재하지 않지만, 관심을 갖고 있는 사람 또는 대상은 고정된다.
특정 사람들 또는 대상들에 집중하는 관측자들의 수의 변동들 및 시간에 따른 상이한 사람들 및 대상들 사이에서의 집중의 이동에 의해, 더 높은 집중의 구간 동안의 광고행위에 대해 비용청구되는 양은 증가될 수 있으며, 이에 따라 전체 광고행위 수익을 증가시킬 수 있다.
그러므로, 모멘텀은 시간에 따라 집중도가 어떻게 달라지는지를 반영하며, 거의 동시에 모든 위치를 향하는 이미지 캡처 디바이스들의 총 개수에 대한 거의 동일한 위치를 향하는 이미지 캡처 디바이스들의 비율에 의해 결정될 수 있다.
관측자들이 사용하는 이미지 캡처 디바이스의 총 개수는 데이터를 원격 컴퓨터 시스템 또는 통신 플랫폼으로 전송하는 애플리케이션들의 개수로부터 획득될 수 있으며, 이것은 각 디바이스가 고유의 데이터 스트림을 전송할 수 있기 때문이다.
네트워크를 통해 전송되고 있는 이들 실시간 데이터 스트림들의 수집은 컴퓨터 시스템에 의해 처리되어 집중도 및 모멘텀에 대한 필수 정보를 결정한다.
상기 데이터는 상기 원격 전자 디바이스를 실행하는 원격 애플리케이션과 상기 통신 플랫폼 사이에서 연속적으로 흐르며, 상기 데이터가 처리되어 군중의 거동에서의 중요한 이동사항들을 추적하고 클러스터들로 지칭되는 크라우드 포커스(crowd focus)의 영역들을 식별한다.
상기 데이터는 각 전자 디바이스의 위치 및 시선을 포함하며, 시간에 따른 포지션 및 방향의 변경들은 익명으로 저장되어 처리된다.
본 발명의 일 실시예에서, 특정 광고들은 관측자들에 의해 사용되고 있는 이미지 캡처 디바이스드들의 디스플레이 화면들로 다시 전송될 수 있다. 광고주들은 이에 따라 상기 이벤트의 특정 시간에 관측자가 집중하고 있는 장소에 기초하여 이미지 캡처 디바이스들을 통해 특정 관측자들에 대해 그들의 선택된 광고들을 제공할 수 있다. 예를 들어, 어떤 연기자에 초점을 맞추고 있는 관측자는 광고자에 의해 연기자가 입고 있는 특정 의류 또는 신발에 대한 광고를 수신할 수 있다.
마찬가지로, 상기 이벤트의 스폰서는 관심 대상에 초점을 맞추고 있는 특정 관측자들에게 그들의 제품을 광고하기를 소망할 수 있다. 예를 들어, 자동차 제조사는 관측자가 그 제조사의 자동차에 초점을 맞추고 있는 경우 레이스 트랙에 있는 관측자에게 광고를 제공하기를 원할 수 있다. 상기 광고는 상기 관측자의 디스플레이 화면의 일 부분만을 차지할 수 있으며, 또는 짧은 시간 구간 동안에만 제공될 수 있다.
광고주들은 특정 시점에 관측자들에 대해 누구의 광고가 전송될 것인지에 대해 비딩할 수 있으며, 비드(bid) 양의 비율에 기초하여 그에 상응하는 수의 광고가 이미지 캡처 디바이스들의 일 부분에 디스플레이될 수 있다. 이 전송 및 디스플레이는 상기 이벤트 동안 실시간으로 일어나게 된다.
본 발명의 일 실시예는 이벤트 동안 광고행위의 비용을 증가시키는 방법에 관한 것이며, 이것은 상기 이벤트의 관측자들에 의한 이미지 캡처 디바이스들의 사용에 기초하여 이벤트의 모멘텀을 결정하고, 또한 특정 시간 구간에 상기 이벤트의 모멘텀에 기초하여 더 높은 모멘텀의 시간 구간 동안의 광고행위에 대해 비용청구되는 양을 증가시키는 것을 포함한다. 상기 모멘텀은 거의 동시에 거의 동일한 위치를 향하는 이미지 캡처 디바이스들의 수에 기초하여 결정된다. 상기 모멘텀은 상기 이벤트의 특정 시간 동안 취해진 이미지들의 수에 기초하여 결정된다. 상기 모멘텀은 상기 디바이스들이 초점을 맞추고 있는 사람 또는 대상에 관한 상기 디바이스들의 초점에 기초하여 결정된다. 상기 이벤트의 모멘텀은 실시간으로 결정되며, 광고행위에 대한 비용은 상기 이벤트의 현재 모멘텀에 기초하여 실시간으로 변동된다. 상기 모멘텀은 거의 동일한 시간에 모든 위치들을 향하고 있는 이미지 캡처 디바이스들의 총 수에 대한 거의 동일한 위치를 향하고 있는 이미지 캡처 디바이스들으 비율에 의해 결정된다.
본 발명의 일 실시예는 경매에 의해 광고 시간을 분재하는 방법에 관한 것이며, 이것은 이벤트 동안 특정 시간에 특정한 사람 또는 대상에 집중하고 있는 관측자들의 비율을 결정하는 것의 일부로서 이벤트에 존재하는 이동 디바이스들로부터 수집된 정보를 적용하는 것과, 특정 시간에 특정한 사람 또는 대상에 집중하고 있는 관측자들의 비율을 하나 이상의 광고주들에게 전송하는 것과, 각각의 이미지 캡처 디스플레이들로 상기 관측자들에게 광고를 제공하기 위해 상기 하나 이상의 광고주들로부터 네트워크를 통해 비드들을 수신하는 것과, 각 광고주의 비드 양의 비율에 기초하여 특정 광고주의 광고를 디스플레이하는 상응하는 개수의 이미지 캡처 디바이스들을 결정하는 것과, 상기 이벤트 동안 실시간으로 디스플레이를 위해, 특정 광고주로부터의 광고를 상기 비율의 이미지 캡처 디바이스들에게 전송하는 것을 포함한다.
상기 광고는 관측자의 이미지 캡처 디바이스로 전달되며, 상기 이미지 캡처 디바이스의 시청자의 적어도 일 부분에게 디스플레이된다. 전달된 특정 광고를 수신하는 이미지 캡처 디바이스들은 상기 이벤트에 존재하는 모든 이미지 캡처 디바이스들 중에서 램덤으로 선택된다. 광고주들에 의한 비딩은 실간으로 일어나는 자동 프로세스이다.
본 발명의 일 실시예는 이벤트의 광고행위로부터 수익을 증가시키는 시스템에 관한 것이며, 이것은 애플리케이션을 실행하는 복수의이미지 캡처 디바이스들과, 상기 애플리케이션을 실행하는 복수의 이미지 캡처 디바이스들과 통신하는 적어도 하나의 컴퓨터 시스템(상기 컴퓨터 시스템은 이미지 캡처 디바이스가 향하고 있는 방향을 식별하는 각각의 이미지 캡처 디바이스들로부터 데이터를 수집하고, 적어도 하나의 광고주 컴퓨터 시스템들과 통신하여 광고들의 배치 및 타이밍을 위한 비드 양을 받아들일 수 있음)과, 상기 복수의 이미지 캡처 디바이스들이 향하고 있는 현재의 방향에 대한 정보를 수신하는 적어도 하나의 서버와 통신하며 상기 컴퓨터 시스템과의 광고 포지셔닝을 위한 금전 비드들을 지시하는 하나 이상의 광고주 컴퓨터 시스템들을 포함한다.
본 발명의 일 실시예는 이벤트의 광고행위로부터 수익을 증가시키는 방법에 관한 것이며, 이것은 하나 이상의 이벤트 참석자들의 이동 디바이스들로부터 입력에 기초하여 더 높은 관심을 갖는 상기 이벤트의 시간 구간을 결정하고, 더 높은 관심을 갖는 상기 시간 구간에 관한 정보를 하나 이상의 잠재적 광고주들에게 전달하고, 더 높은 관심을 갖는 상기 시간 구간에 또는 그 근처에 상기 이벤트 동안의 광고 시간에 대한 상기 하나 이상의 잠재적 광고주들로부터 네트워크를 통해 비드들을 수신하는 것과, 하나 이상의 비드들을 받아들임으로써 상기 이벤트로부터 광고 수익을 얻는 것을 포함한다. 높은 관심 구간의 결정, 높은 관심 구간에 대한 정보를 잠재적 광고주들에게 제공하는 것, 잠재적 광고주들로부터 비드들을 수신하는 것, 및 잠재적 광고주들로부터 비드들을 받아들이는 것은 모두 상기 이벤트 동안 실시간으로 행해진다. 하나 이상의 참석자들로부터의 입력은 각 참석자들의 사진 활동에 기초하여 이루어진다. 상기 사진 활동들은 특정 시간에 사진을 찍는 참석자들의 수, 특정 시간에 거의 동일한 위치에 초점을 맞추고 잇는 이미지 캡처 디바이스들의 수, 및/또는 거의 동일한 시간에 거의 동일한 위치의 캡처된 이미지들의 수를 포함한다. 더 높은 관심의 시간 구간의 결정은 상기 이벤트의 발생 이전에 발생하는 비드들의 수신 및 수락으로 상기 이벤트에 앞서 예상된다. 시간 구간들은 두개 이상의 가장 높은 비딩 광고주들 사이에서 분배 또는 할당될 수 있으며, 이러한 할당은 광고가 특정 디스플레이에 제공되는 시간의 양 또는 동일한 시간 구간 동안 각 광고주에게 제공되는 뷰잉 영역의 양의 함수일 수 있다. 즉, 두개 이상의 광고들은 동시에 동일한 디스플레이 상에 보여질 수 있지만, 비딩된 각 양에 기초하여 특정 광고를 나타낸느 영역의 비율에 따라, 더 높은 비더가 디스플레이 뷰잉 영역 중의 더 많은 양을 차지하는 더 큰 광고를 제공하게 된다.
다른 실시예에서, 상기 방법은 곧 있을 이벤트에서 광고들의 배치에 대한 포지션들을 경매처분하는 것에 관한 것이며, 이것은 이전 이벤트의 지속시간 동안 복수의 이미지 캡처 디바이스들로부터 데이터를 수집하는 것과, 상기 이전 이벤트의 각 특정 시간 구간동안 가장 큰 관측자들의 수에 의해 유지된 시야를 결정하기 위해 컴퓨터 시스템의 사용을 통해 상기 데이터를 처리하는 것과, 상기 처리에 대응하여, 상기 이벤트의 상이한 구간들 동안 가장 큰 관측자들의 수의 시야를 식별하는 것을 포함한다. 가장 큰 관측자들의 수의 시야를 식별하는 것에 의해, 광고들 또는 디스플레이 디바이스들의 배치는 그들이 관측자들에게 더욱 효율적으로 제공되는 장소에 위치될 수 있다. 이들 식별되는 시야들의 위치는 관심을 가진 자들에게 전송될 수 있다.
본 발명의 일 실시예는 이벤트에서 광고의 배치를 위한 포지션들을 경매처분하는 방법에 관한 것이며, 이것은 이벤트의 지속시간 동안 상기 이벤트에 있는 복수의 관측자들에 의해 조작되는 복수의 이미지 캡처 디바이스들로부터 전달되는 데이터를 수집하는 것과, 상기 이벤트의 각 특정 시간 구간 동안 가장 큰 관측자들의 수의 시야를 결정하기 위해 수집된 데이터를 처리하는 것과, 상기 처리에 대응하여, 상기 이벤트의 상이한 구간 동안 가장 큰 관측자들의 수의 시야를 식별하는 것을 포함한다. 상기 방법은 관심이 있는 자들에게 상기 식별된 시야들을 전송하는 것을 더 포함한다. 상기 데이터는 상기 이벤트의 각 특정 시간 구간에서 각각의 이미지 캡처 디바이스들이 향하고 있는 대략적인 방향에 관하여 각 이미지 캡처 디바이스들로부터 수집된다. 상기 데이터는 상기 디바이스들이 초점을 맞추고 있는 사람 또는 대상에 관하여 각 이미지 캡처 디바이스들로부터 수집된다. 상기 데이터는 상기 이벤트의 특정 시간 동안 취해지는 이미지들의 수에 관하여 각 이미지 캡처 디바이스들로부터 수집된다. 상기 방법은 후속 이벤트에 대한 각 식별된 시야 내의 광고행위의 배치를 경매하는 시작 가격(starting price)을 설정하는 것을 더 포함한다. 상기 방법은 실시간으로 비드들을 수집하는 것에 의해 상기 이벤트 동안 실시간으로 각 식별된 시야를 경매 처분하는 것과, 상기 이벤트의 특정 구간 동안 실시간으로 경매된 시야에서의 디스플레이 상에 가장 높은 비더의 광고를 디스플레이하는 것을 포함한다. 다른 실시예에서, 어떤 이벤트로부터 획득된 정보는 동일 또는 유사한 초점의 집중도들 및/또는 모멘텀을 가진 후속 이벤트들에 대한 광고 비용 또는 스타팅 비드 양들을 설정하는데 사용될 수 있다. 더 높은 관심의 시간 구간은 이벤트의 발생 이전에 비드들의 수신 및 수락이 또한 발생하기 때문에 상기 이벤트에 앞서 예상된다. 이러한 방식으로, 광고주들은 이벤트에 앞서 발생 광고 비용들을 알게 되며, 어떠한 놀라움 없이도 그 비용을 계산할 수 있다. 상기 데이터를 처리하는 것에 의해 획득되는 정보는 상기 이벤트에서의 광고행위로부터 생성되는 수익을 증가시키는데 사용될 수 있다. 이벤트 동안 관측자들의 시야에 기초하여 광고를 위한 최상의 위치를 식별하는 것에 의해, 그리고 어떤 광고들이 언제, 어디서, 얼마 동안 디스플레이될지를 결정하는 비딩 프로세스의 사용에 의해, 일률 가격 및 고정된 광고 디스플레이들을 제공하는 것에 비해서, 더 높은 수수료가 생성될 수 있다.
본 발명의 이러한 실시예들을 사용하면, 광고들이 적절한 배치 수수료와 매칭될 수 있다. 시야의 정확성은 초점 방향이 광고 또는 메시지의 포지션과 얼마나 근접하게 일치하는지에 의해 결정된다. 관측자들의 시야의 중심에 가까울수록, 광고의 배치는 더욱 정확해진다. 또한, 관측자들의 초점 방향이 광고의 위치로 접근하는 빈도는(관측자들 시야 내에 속하도록 하는 것) 또한 광고 포지셔닝의 유효성을 결정하는데 사용될 수 있다. 상기 빈도, 관측자들의 시야 내의 시간 양, 및 광고 또는 메시지의 적절한 시야를 가진 관측자들의 수는 이들 식별되는 전략적 위치들에 그들의 광고를 배치하기를 원하는 광고주들에 대한 적절한 배치 수수료 또는 스타팅 비드를 결정하는데 사용될 수 있다.
몇몇 실시예들에서, 개개의 이벤트들 및 위치들은 주최자에게 등록되며, 특정 이벤트, 대상, 또는 위치 정보와 매칭되는 메타데이터 식별자들, 그리고 상기 이벤트의 특정 시간 또는 시간 구간으로 매칭되는 시간 스탬프를 가진 제출된 이미지들의 후속 추적을 위해 데이터베이스에 저장된다.
각 분리된 이벤트 및 위치를 식별하기 위해 주최자 또는 광고주에 의해 사용되는 정보는 상기 이벤트의 명칭, 상기 주최자의 이름, 이벤트의 채널, 이벤트 설명, 상기 이벤트의 날짜 및 시간, 상기 이벤트가 발생되는 특정 위치를 포함할 수 있다.
상기 이벤트의 위치는 실제 위치의 GPS 좌표들, 예컨대 소형 빌딩, 박람회장이나 대형 콘벤션 센터와 같은 지리적으로 분산된 영역의 경계의 좌표들로 명시될 수 있다. 이들 데이터 필드들은 제 1 당사자인 사진사가 조작하는 원격 디바이스로 제공되어 각 캡처된 이미지에 특정 이벤트에 대한 전송된 이미지를 링크하는데 필요한 메타데이터를 태깅한다. 또한, 제 1 당사자인 이미지 제공자의 위치는 상기 원격 디바이스 또는 이미지 캡처 디바이스에 기초하여 설정될 수 있으며, 상기 이미지 제공자의 실제 위치 또는 상기 이벤트 또는 위치까지의 이동 거리를 결정하는데 사용될 수 있다. 각 이미지와 연관된 시간 스탬프는 상기 이미지가 특정 시간 동안, 예컨대 실제 이벤트 동안이나 리퀘스터가 특정 이벤트 또는 위치에서 사진 이미지들 또는 비디오들을 찍기를 원하는 시간 범위 이내에서 캡처되도록 보장하는데 사용된다. 상기 시간 스탬프는 각각의 특정 이벤트, 그리고 GPS 포지션, 및 가능하게는 이동 디바이스 또는 카메라의 이미지 캡처 하드웨어의 초점이 맞추어진 지점 및 방향의 시작과 종료 시간과 비교됨으로써 그 캡처된 이미지가 적절한 시간에 취해진 정확한 이벤트를 갖는 것을 보장할 수 있다. 상기 시간 스탬프는 요청되는 시간 프레임 밖에서 취해진 이미지들 및 비디오들을 스크리닝하는데 사용될 수 있다.
제 2 당사자인 주최자의 서버에 저장되는 이미지들은, 특정 이벤트에 대해 설계된 웹 페이지 상에 디스플레이 되며, 또한 상기 주최자에 의해 공급되는 리스트로부터 이벤트 또는 위치를 선택하는 것에 의해 공중에 의해 액세스될 수 있으며, 또는 상기 이미지들은 상기 주최자로부터 이러한 이미지들을 수신하는 요청에 기초하여 상기 디바이스에 뷰잉하는 제 3 당사자의 원격 디바이스들로 전송 또는 다운로드될 수도 있다. 또한, 상기 제 3 당사자는 오리지널 리퀘스터일 수 있다. 또한, 상기 이미지들은 소셜 네트워크를 통해 공유되거나, 등록된 시청자들 또는 이러한 캡처된 이미지들을 요청한 시청자들에게 전달될 수 있다. 또한, 상기 수집된 데이터는 특정 시야로 복수의 관측자들의 주목을 유도하고/하거나 특정 시간 길이 동안 특정 위치에 집중을 유지하게 하는 이벤트의 양태들을 조정하는데 사용될 수 있다. 또한, 광고주들은 참석자들의 집중을 이끌어 내는 대상에 동적 광고를 배치할 수 있다. 상기 정보가 복수의 이미지 캡처 디바이스들로부터 실시간으로 수집되는 경우, 상기 방법은 또한 가장 높은 관심 레벨을 이끌어내는 특정 위치들, 및/또는 관측자들의 집중이 가장 특정 위치들을 향하게 되는 시간의 구간에 대해 광고주들이 비딩하게 하는 것에 의해 상기 이벤트의 일 부분들을 경매처분하는 것을 포함할 수 있다.
상기 비딩은 실시간 데이터가 처리되어 각 위치 및 시간 구간에 대한 관심 레벨들이 결정됨에 따라, 미리결정된 비딩될 양 또는 범위를 설정한 광고주들에 의해 자동으로 수행될 수 있다. 실시간으로 제공되고 있는 정보 또는 이미지들을 변경시킬 수 있는 LED 신호 또는 텔레비전 화면과 같은 디스플레이들은, 각 광고주가 비딩한 양에 기초하여 상이한 광고주들의 광고 사이에서 이동하는데 사용될 수 있다. 높은 관심 구간의 결정, 잠재적 광고주들에 대한 높은 관심 기간 상에 정보를 제공하는 것, 광고주들로부터 비드 양을 생성 및 수신하는 것, 각종 디스플레이들 상에 가장 높은 비딩 광고들을 나타내는 것 모두는, 청중이 그 이벤트를 뷰잉함에 따라, 예컨대 자동화된 시스템 또는 경매/비딩 애플리케이션에 의해 실시간으로 행해질 수 있다. 원하는 경우, 각각의 예시된 방법들은 경매 단계 또는 제 3 당사자인 컴퓨팅 시스템들과 통신을 포함하거나 포함하지 않고서 구현될 수 있으며,
각 방법은 데이터의 수집과 처리에 관련되지 않는 제 3 당사자들의 개입 없이 관심 정보를 획득하기 위하여 데이터를 수집 및 처리하는 것만을 포함할 수 있다. 원하는 경우, 임의의 경매 또는 비딩 단계는 자동 전자 수락 및 비드 양의 처리를 포함할 수 있으며, 또한 하나 이상의 네트워크(들)을 통하여 및/또는 온라인으로 경매 또는 비딩 모두 또는 거의 모두를 구현하는 것을 포함할 수 있다.
본 발명의 일 실시예는 앞서의 방법들 중의 어느 하나를 수행하도록 구성된 비-일시적 컴퓨터 판독가능 매체에 관한 것이다. 몇몇 실시예들에서, 서비스는 사용자들에게 배포되는 또는 사용가능하도록 이루어진 하나 이상의 이벤트 태그 또는 식별자를 발행할 수 있다. 이러한 태그들은 상기 태그에 대응하는 이벤트의 특정 시간 윈도우 동안 특정 지리적 영역에 있는 개인들에게만 배포될 수 있거나 또는 사용가능할 수 있다. 예를 들어, 디바이스 및 시간은 그들이 콘서트에 있다는 것을 표시하기 때문에, 콘서트에 존재하는 개인들에게만 특정 태그에 대한 액세스가 주어지게 된다.
다른 접근 방식은 제한 없이 태그가 사용될 수 있게 하는 것이며, 예를 들어, 서버의 방식에 의한 서비스 제공자(예컨대, 모바일 상에서 실행되는 애플리케이션 및 서버 장비)는 소정 시간 또는 위치 기준을 충족하지 않는 제공자들로부터의 이미지들이나 다른 매체를 차단 또는 필터링할 수 있다. 몇몇 실시예들에서는, 개인용 태그가 구현될 수 있다. 예를 들어, 웨딩은 참석자들에 의해 사용되며 그들 참석자들에게 사용가능한 예식 및 리셉션용 태그를 발행할 수 있다(오직 참석자들에게만, 예컨대, 다른 사람들은 태그를 확인하는 것이 차단될 수 있음). 참석자들은 하나 이상의 개인용 태그를 이용하여 사진을 찍음으로써, 예를 들어 제공자 또는 웹 서버 또는 다른 장비로 그 이벤트의 인스턴트 앨범을 제조할 수 있다.
복수의 표준 또는 편집된 태그들을 사용하는 것은 더욱 소팅(sorting) 및 조직할 수 있게 할 수 있다.
몇몇 실시예들에서, 상기 이벤트는 위치에서 일시적이거나 분산될 수 있으며, 그 서비스는 이미지들을 취하거나 이벤트의 이동을 갖는 개인들에 관계없이 그 이벤트를 따를 수 있다. 예를 들어, 마란톤을 관람하는 개인들은 상이한 위치들에서 관람하고 있을 수 있으며, 또는 상이한 위치들로 이동할 수도 있다. 각종 청중 구성원들로부터의 이미지들은 그 이벤트를 관람하는 팬들을 위해 사용가능한 리소스들에 부가된 위치 및 시간에 의해 조직화될 수 있다.
바람직한 실시예에서, 2개의 분리된 원격 디바이스 사용자들은 2개의 상이한 위치들로부터 동일한 런너의 이미지들을 획득하고 각 원격 디바이스로부터 시간, GPS, 및 방향 데이터를 상호 연관시켜서 특정 런너를 실시간으로 삼각측량하는 것을 함께 작업하도록 조정될 수 있다.
이미지들을 식별시키는 메타데이터가 태깅된 실시간 정보 및 이미지들은 각 원격 디바이스로부터 서버로 전달되어 저장될 수 있다. GPS 좌표들, 시간, 방향 및 이미지 데이터의 조합은 그 코스 상의 런너의 위치, 신원, 방향 및 속도를 결정하는데 사용될 수 있다. 상기 삼각측량 계산은 이미지 캡처 디바이스들로부터 전송되는 데이터에 대해 서버에 의해 행해질 수 있다. 상기 서버는 다수의 분리된 원겨 디바이스 사용자들로부터 복수의 런터들에 대한 정보를 컴파일하고, 모든 GPS, 방향 및 시간 데이터를 상호 연관시켜서 런너들에 대한 맵을 제공할 수 있다.
이 정보는 그들의 원격 디바이스들로 다른 시청자들에게 제공될 수 있으며, 그들은 런너들의 이미지들을 관측할 수 있으며 코스 상의 상대적 포지션들을 실시간으로 알 수 있다. 상기 이미지들은 원격 디바이스 사용자들에 의해 예를 들면 "런너 X 20 마일 마커, ESPN에서 제공"으로 라벨링될 수 있다. 또한, 이 실시예에 관하여, 레이스 루트를 따라 특정 위치에 있는 런너들의 그룹에 상대적 근접도로 위치된 복수의 이미지 제공자들 모두는 런너들이 보이는 시간 구간 동안 그 그룹의 이미지들을 제공할 수 있으며, 각각의 이미지에는 제공자의 GPS 위치, 이미지가 찍힌 초점 방향, 시간 스탬프, 및 이미지의 타겟을 표시하는 식별자가 적어도 태깅된다. 이러한 메타데이터는 관련 이미지들로부터 추출되고 실시간 분석을 위해 데이터베이스에 컴파일되어서 레이스의 특정 스테이지에서 어떤 런너들이 주목을 받고 있는지를 결장하고, 상기 레이스 루트 더 아래의 다른 이미지 제공자들에게 실시간으로 정보를 제공함으로써 그들이 관측자 수를 증가시키는 관심 런너들 또는 더욱 인기있는 런너들을 식별하고 초점을 맞출 수 있도록 한다.
광고주들 또는 이벤트 프로모터들은 또한 거의 실시간으로 이미지들 및 비디오들을 포스팅할 수 있으며 이에 의해 이벤트가 발생한 특정 이벤트 또는 위치를 홍보하거나, 또는 캡처된 이미지들을 다운로드하여 광고 및 마케팅 자료를 생성하고 더 많은 이벤트들 및 홍보들에 대한 서비스를 판매할 수 있게 한다. 상기 이벤트에 존재하는 각 타겟 또는 서브-타겟에 대한 초점 양 및 상대적 인기도와 관련된 분석 데이터가 또한 광고주들 또는 이벤트 프로모터들에게 제공됨으로써 다른 이벤트들에 있는 리소스들에게 더욱 용이하게 할당할 수 있으며, 이러한 정보는 유료로 제공될 수 있다. 또한, 본 발명의 실시예들은 제 1 당사자인 이미지 제공자들에 의해 이벤트들, 대상들, 또는 위치들의 하나 이상의 이미지들을 캡처하는 방법에 관한 것이며, 이것은 하나 이상의 특정 이벤트들 또는 위치들에 주최자를 등록하는 것과, 각각의 분리된 이벤트, 서브-이벤트 또는 위치에 대해 특정 데이터 필드들을 생성 및 할당하여 어떤 특정 이벤트 또는 위치를 고유하게 식별시키기 위해 데이터베이스에 저장하며 모든 다른 등록된 이벤트들과 위치들로부터 상기 이벤트, 서브-이벤트 또는 위치를 구별하는 것과, 상기 등록된 이벤트 및 상기 이벤트 또는 위치와 연관된 할당된 특정 데이터 필드들을 저장하기 위한 데이터베이스를 생성하는 것(상기 데이터베이스에 임의의 이벤트 등록 데이터를 저장하는 것을 포함하며 상기 데이터베이스는 주최자에 의해 운영되거나 또는 서버, 데이터베이스 및/또는 웹사이트를 운영 및 유지하는 별개의 서비스 제공자에 의해 운영될 수 있음)과, 원격 디바이스들 상에서 실행되는 애플리케이션 프로그램들을 이벤트 또는 위치들의 이미지들을 캡처하는 아마추어 및 프로 사진사들 그리고 개인들에게 제공하는 것과, 특정 이벤트 또는 위치를 식별시키는 애플리케이션을 실행하는 원격 디바이스로 데이터 필드들의 리스트를 전송하는 것과, 상기 제 1 당사자인 이미지 제공자에 의해 캡처 또는 사진 찍히고 있는 이벤트 또는 위치를 고유하게 식별시키는 특정 데이터 필드들의 세트를 선택하는 것과, 상기 이벤트 또는 위치의 캡처된 이미지들에 특정 메타데이터와 시간 스탬프를 태깅하는 것과, 상기 태깅된 이미지(들)을 상기 서버 또는 제 2 당사자인 주최자에게 전송하는 것과, 각각의 캡처된 이미지에 부가된 메타데이터에 기초하여 각각의 전송된 이미지를 상기 정확한 이벤트 또는 위치와 연관시키는 것과, 식별된 특정 이벤트 또는 위치를 위해 상기 데이터베이스 내의 모든 전송된 이미지들을 수집 및 저장하는 것과, 공공 디스플레이 또는 선택되거나 권한이 부여된 제 3 당사자에 의한 관람, 또는 상기 공공 또는 선택 제 3 당사자에 의한 다운로딩용으로 웹페이지 또는 다른 웹사이드 상의 디스플레이 또는 공개를 위한 태깅된 메타데이터 및 시간 스탬프에 기초하여 모든 이러한 수집된 이미지들을 상호 연관시키는 것을 포함한다.
상기 이벤트 및 이미지들을 식별하고 태깅하기 위해 사용되는 정보는 이벤트의 명칭, 이벤트의 프로모터 또는 주최자, 이벤트의 채널, 이벤트 설명, 이벤트의 날짜, 이벤트의 특정 시간, 이벤트의 특정 위치를 포함할 수 있다. 또한, 다른 정보, 예컨대 초기 인기도 또는 상대적 인기도는 이미지 제공자들이 초점을 맞출 수 있는 상이한 타겟들을 식별 및 구별하는데 사용될 수 있다. 특정 시간, 특정 위치, 및 인기도의 사용은 일반 이벤트 내의 개개의 서브-이벤트를 분류하는데 사용될 수 있다. 이러한 서브-이벤트들은 상이한 위치들에서 동시에 제공되거나, 동일한 위치이지만 상이한 시간들로 순차적으로 제공되는 별개의 디스플레이들, 표현들 또는 공연들일 수 있다. 그러므로, 각각의 서브-이벤트는 일반 이벤트 하에서 연관되는 특정 위치 및 시간을 포함하는 그들 자신의 식별 정보를 가지게 된다. 상기 제 1 당사자인 이미지 제공자들은 그들의 상용, 원격 디바이스들을 실행하는 원격 애플리케이션을 가진 일반 개인들(예컨대, 아마추어 사진가들)일 수 있으며, 또는 그들은 고품질 사진 또는 비디오 장비를 가지고 그 이벤트들을 저장 및 기록하도록 고용된 전문가들일 수 있다. 상기 제 1 당사자인 이미지 제공자들이 전문가드인 실시예에서, 그들은 사전등록하거나 이벤트 주최자와의 거래를 가지고 있을 수 있으며, 주최자에 의해 설정된 미리결정된 가격 비드 또는 그들 자신의 카운터-비용 비드를 위해 고품질 이미지들 및 비디오를 제공할 수 있다.
다른 변형에서, 상기 이미지 제공자는 이미지(들) 또는 비디오(들)의 샘플을 제공하고, 주최자가 캡처된 이미지(들) 또는 비디오(들)을 획득할 수 있는 비드 가격을 설정할 수 있다. 그 가격 범위 내에서 유사한 사진들을 제공함에 따라 이전에 식별된 그 전문 사진사들에 의한 비드 양은 바람직하게 미리-확립된 계좌를 통해 지불된다. 이러한 예들에서, 미리결정된 가격 또는 비드 가격의 지급은 전문 제공자의 계좌에 대해 컴퓨터 시스템 또는 다른 인터넷 지급 옵션들에 의해 처리될 수 있다.
몇몇 실시예들에서, 주최자 또는 리퀘스터의 계좌의 양이 사진사의 비드 가격을 지급하기에 충분하지 않은 경우, 크라우드 소싱 서비스(crowdsourcing service)는 계좌가 부족한 양을 커버하기에 충분한 예치금을 리퀘스터에게 요청하는 메시지를 전송하게 되며, 이에 의해 지급 양을 커버하게 되어 상기 이미지 제공자와의 거래가 계속된다.
상기 제 2 당사자인 주최자 또는 서비스 제공자는 인터넷, 웹 또는 텔레통신 링크를 통해 이벤트 프로모터, 위치 오우너, 또는 마케터와 같은 리퀘스터로부터 정보를 수신할 수 있고, 특정 리퀘스터의 계좌에 대한 요청, 홍보 목적이나 실시간 광고 목적의 이미지들과 비디오들을 캡처하기를 원하는 곧 있을 이벤트에 관하여 기록할 수 있고, 이에 따라 잠재적 소비자 및 참여자들은 그 이벤트에서 일어나고 있는 것을 직접 확인할 수 있다.
또한, 상기 제 2 당사자인 이벤트 주최자는 서버에 링크된 웹사이트를 통해 또는 서버와 링크된 사용자 인터페이스를 구비한 애플리케이션을 실행하는 이동 디바이스에 의해, 다른 서비스 제공자가 운영하고 있는 시스템 또는 자신의 시스템으로 이벤트 정보를 기입할 수 있다.
상기 주최자는 데이터베이스 내의 일반 이벤트 및 서브-이벤트들을 위한 엔트리를 생성할 수 있다. 이러한 엔트리들은 콘서트 및 공연, 시사회 또는 홍보 이벤트, 사업 그랜드-오프닝, 거리 박람회, 게임 또는 스포츠 이벤트, 시상식 또는 다른 의식, 집회 및 정치 이벤트, 무력 충돌, 라이브 뉴스 및 그 밖의 미디어 이벤트들일 수 있으며, 이에 한정되지 않는다. 이벤트는 정확한 시간 또는 시간 구간 동안 정확한 위치에서 찍힌 연속적인 일련의 이미지들과 같이 일반적으로 캡처될 수 있는 임의의 상황에 따라 정의되며, 여기서 상기 이미지는 시각적, 물리적 또는 전자적 매체를 사용하여 캡처될 수 있다. 제 2 당사자인 이벤트 주최자 또는 서비스 제공자는 인터넷, 웹 또는 텔레커뮤니케이션 링크를 통해 리퀘스터로부터 이벤트 또는 위치를 식별시키는 정보를 수신하며, 특정 리퀘스터(사용자 또는 서비스 가입자로도 지칭됨)의 계좌에 대한 요청을 기록한다. 상기 요청은 이러한 요청들의 기록 및 추적을 위해 필요한 소프트웨어를 실행하는 컴퓨터 서버 또는 텔레커뮤니케이션 디바이스에 의해 수신될 수 있으며, 이것은 서비스 가입자들의 계좌, 및 후에 제공될 이미지에 관한 정보 및 요청이 제공되는 상기 정보를 저장하기에 충분한 영구적 메모리를 구비한다.
상기 서비스 제공자는 요청들에 대응하여 제공되는 이미지들을 관리하기 위해 사용될 수 있는 서버에 저장된 영구적 기록들에 상기 요청에 제공된 필수 정보를 기입한다. 또한, 상기 리퀘스터는 제 3 당사자인 상기 이미지들의 시청자일 수 있다. 이벤트 주최자 또는 서비스 제공자는 상기 요청에 기초하여 사진 찍을 위치의 GPS 좌표들 및 이벤트(들)의 시간을 수신하고, 상기 요청 및 정보를 그 요청된 위치의 근처에 있을 수 있는 이미지 제공자들에게 전달한다. 요청된 사진 이미지를 캡처할 수 잇는 상기 이미지 제공자들의 식별은 상기 제공자들의 원격 디바이스들의 GPS 좌표들에 기초하여 실시간 검색될 수 있다. 전자 신호는 상기 사진을 위해 요청된 위치 근처에 있는 사진 제공자들로 전송됨으로써 그들의 모바일 또는 컴퓨팅 디바이스들을 핑(ping)하여 그들의 현재 위치들에 대한 정보, 예컨대 GPS 좌표들을 획득하게 한다. 이들 기준에 의해 식별되는 사진사들 또는 이미지 제공자들은 그들 자신의 모바일 또는 컴퓨팅 디바이스들을 실행하는 애플리케이션 소프트웨어를 통해 바람직하게 접촉된다. 이러한 스크리닝 프로세스(screening process)는 이미지 제공자들이 그들의 포지션으로부터 합리적인 거리 내에 있는 이벤트들 또는 위치들의 이미지들을 캡처하는 요청들만을 수신할 수 있게 하며, 주최자로 하여금 각각의 이러한 이벤트 또는 요청에 대해 접촉된느 제공자들 또는 그 수를 관리할 수 있게 한다. 상기 사진사(들) 또는 이미지 제공자(들)은 적절한 이미지-캡처링 하드웨어 및 메모리를 구비한 이동 전자 디바이스를 사용하여 요청된 이미지를 캡처하고, 서버에 대한 각종 통신 링크들을 통해 상기 캡처된 이미지를 다시 주최자에게 전송하게 된다. 이들 통신 링크들은 고정 배선, 무선 또는 인터넷 프로토콜 또는 이의 임의 조합일 수 있다.
다른 바람직한 실시예에서, 상기 이미지 제공자 또는 사진사는 상시-온 모드로 애플리케이션 소프트웨어를 실행하는 이미지-캡처링 하드웨어를 셋업할 수 있고(상기 이미지 캡처링 하드웨어는 액세스 가능하며 이벤트 주최자와 통신하고 있음), 이에 따라 이미지의 캡처 요청들이 상기 애플리케이션 소프트웨어에 의한 승인에 의해 특정 하드웨어로 전송될 수 있도록 한다. 상기 이미지-캡처링 하드웨어의 위치 및 방향은 이벤트 주최자에게 전송될 수 있으며, 이에 따라 GPS 좌표들에 기초하여 위치를 명시하는 요청이 수신되는 경우, 상기 애플리케이션이 그 요청된 이미지(들) 또는 비디오(들)을 자동으로 캡처할 수 있도록 한다. GPS 및 방향 정보(예컨대, 콤파스 애플리케이션으로부터의)를 포함하는, 모든 필수 지리적 정보는 이미지 제공자들에게 전송된다. 상기 요청으로부터의 지리적 정보는 그들의 모바일 또는 컴퓨터 디바이스를 실행하는 이미지 제공자들의 애플리케이션 소프트웨어로 입력되며, 상기 사진사 또는 이미지 제공자에게 상기 애플리케이션이 실제의 사진을 위해 방향 정확성, 고도, 관측 각도, 조명, 시각, 초점이 맞추어진 지점 등을 가이드 및 보장할 수 있게 하는 정확한 위치를 알리는데 사용될 수 있다. 또한, 상기 하드웨어 및 애플리케이션 소프트웨어는 디지털 이미지를 캡처할 수 있고 저장을 위해 데이터를 압축할 수 있으며 서비스 제공자들 및 주최자에게 다시 전달할 수 있다. 상기 이미지 또는 비디오 요청 가격(어떤 것이라도 제공된 경우), 및 제공된 이미지와 관련된 메타데이터는 주최자 또는 서비스 제공자에게 전달되며, 이것은 GPS 좌표들, 시간 스탬프 및 사진 이미지가 캡처된 시간에 캡처된 다른 메타데이터의 비교에 기초하여 정확한 시간에서 정확한 위치로 디지털 이미지가 찍히는 것을 유효화한다.
몇몇 실시예들에서, 상기 사진들은 자체적으로 분명하게 되며(즉, 러쉬모어 산(Mount Rushmore)의 사진), 태그를 필요로 하지 않을 수도 있다. 또한, GPS 단독 또는 시간 스탬프와의 조합은 그 사진이 어디에서(언제) 찍혔는지를 식별함으로써 그들에 대해 이루어진 요청에 따라 찍혔는지의 여부를 확인하기에 충분하다. 위에서 제공된 이미지 캡처 설명은 또한 디지털 비디오 카메라, 비디오 설정을 구비한 디지털 카메라 또는 이동 사진으로 어셈블링될 수 있는 일련의 스틸 프레임들을 순식간에 캡처할 수 있는 스틸 모션 카메라를 사용하여 비디오 이미지들을 캡처하는 것에도 적용될 수 있다는 것에 유의해야 한다.
다른 실시예에서, 요청들은 동일한 이벤트에 존재하는 복수의 사진 제공자들에게 전송될 수 있지만, 동일한 대상 또는 이벤트를 향하는 이미지-캡처 하드웨어에 따라 상이한 GPS 위치들로 위치될 수 있다. 이러한 방식으로, 원격 디바이스 사용자들 A 및 B 는 원격 디바이스 애플리케이션(들)로부터의 콤파스 데이터 및 GPS를 사용하여 동시에 타겟 대상 또는 이벤트 C의 이미지(들)을 캡처함으로써 타겟 C를 삼각측량할 수 있다. 이동하는 타겟의 위치, 방향, 속도, 및 배향은 적절한 간격들에 있는 시간 구간 동안 캡처되는 콤파스 정보 및 GPS 로부터 삼각 측량에 의해 계산될 수 있으며 각각의 이미지에 대해 태깅된다. 각각의 원격 디바이스 사용자들은 타겟 대상의 움직임을 따르거나 추적하게 되고, 캡처된 이미지들과 연관된 메타데이터로서 시간, GPS 및 방향 정보를 저장하며, 또는 그 정보를 서버로 전달하여 그 후의 시간에서의 계산들에 사용 및 저장된다. 상기 GPS 및 방향 정보는 매 초마다 수집될 수 있고, 더욱 바람직하게는 매 초마다 복수의 배로 수집될 수 있으며, 상기 적절한 간격은 캡처될 필요가 있는 상세 양 또는 대상의 속도에 기초하여 결정된다. 그러므로, 타겟 C의 GPS 및 콤파스 위치는 삼각 측량으로부터 초래된다. 또한, 이것은 셀 폰 사용자들이 그 타겟을 따르는 경우 이동 타겟에 대해 참이다(즉, 우리는 매 초마다 서버에 대해 삼각 측량을 위한 좌표를 조사한다). 이동 디바이스 사용자들의 어느 한쪽 또는 양쪽 모두는 이미지 또는 일련의 이미지들에 대한 명칭 또는 설명을 할당함으로써 이에 의해 타겟 C를 이벤트 D로서 라벨링할 수 있다. 상기 이벤트 정보 및 라벨은 임베딩되거나 그렇지 않으면 캡처된 이미지(들)에 첨부된다. 모든 다른 제 3 당자인 시청자들은 타겟 C를 찍거나 뷰잉한 경우 이벤트 D로 라벨링된 이미지들을 수신할 수 있다. 또한, 이 실시예에 관하여, 동일한 이벤트에 존재하는 복수의 이미지 제공자들은 동일한 이벤트에 있는 별개의 사람 또는 대상들에 그들의 이미지 캡처 하드웨어를 초점 맞출 수 있으며(예컨대, 연기자, 뮤지션, 운동선수, 말, 경주용 자동차, 열기구 등), 여기서 각각의 사람 또는 대상은 별개의 타겟 C를 구성하며, 각각의 별개의 타겟 Ci-Cn의 이미지들이 상기 이미지 제공자들에 의해 캡처된다. 상기 복수의 이미지들은 상기 이벤트 중의 시간 구간 동안 또는 동시에 캡처될 수 있다.
본 발명의 각종 비한정적 실시예들에서, 상기 태깅된 이미지 및 식별 정보는 원격 디바이스들 중의 어느 한쪽 또는 양쪽 모두로부터 지리적으로 분리될 수 있는 서버에 저장될 수 있으며, 상기 서버는 임베딩할 수 있고 그렇지 않은 경우 소셜 네트워크를 통한 데이터베이스에의 저장, 웹 사이트에의 포스팅, 쿼링, 및 상기 이미지 및 정보를 시청자들과 공유하기 위해 상기 이미지에 대해 식별 사진 정보를 첨부할 수 있다. 상기 서버는 상기 캡처된 이미지 및 임베딩된 정보를 원격 애플리케이션을 실행하는 다른 사용자들 또는 통지나 업데이팅 서비스에 가입한 다른 사용자들에게 전달할 수 있다.
이제 도 1에 도시된 흐름도를 참조하여 바람직한 실시예의 비한정적 예를 설명하도록 한다. 이벤트 주최자는 이벤트를 등록하고 다음을 포함하는 이벤트 정보를 기입한다: 이벤트 명칭, 이벤트 채널, 이벤트 설명, 이벤트 날짜, 이벤트 시간, 및 이벤츠 위치. 상기 이벤트 정보는 서버 상에서 실행되는 데이터베이스 프로그램으로 기록된다. 스마트폰과 같은(예컨대, Droid®, iPhone®) 원격 디바이스를 구비한 제 1 당사자는 디바이스 상에서 애플리케이션 프로그램을 턴 온한다. 상기 애플리케이션은 원격 디바이스가 액티브 상태에 있으며 그것의 GPS 포지션을 서버들로 전송하는 것에 의해 그 디바이스의 위치를 제공한다는 것을 서버 시스템에게 통지한다. 상기 서버는 원격 디바이스의 GPS 좌표들의 명시된 근처 내의 이벤트들을 식별하고, 그러한 이벤트들의 리스트를 원격 디바이스 및 제 1 당사자인 이미지 제공자에게 전달한다. 상기 이벤트 정보는 원격 디바이스로 전송되어 사용자 인터페이스의 태깅 특징을 파퓰레이팅(populating)한다. 상기 제 1 당사자는 이벤트의 사진을 찍고, 선택적으로 그 사진에 이벤트 명칭, 타이틀, 및 사진과 이벤트의 설명을 태깅한다. 지리적 데이터, 제 1 당사자 데이터, 이벤트 명칭, 타이틀, 및 설명을 포함하는 태깅된 메타데이터 및 사진은 서버들에 기록 및 저장된다. 공중 또는 다른 제 3 당사자들은 그 후에 이벤트 시청자를 사용하고 또한 명칭, 날짜, 위치 및/또는 채널에 의해 특정 이벤트를 선택하는 것에 의해 사진들을 선택하는 것에 의해 저장된 사진을 관람할 수 있다. 제 3 당사자들은 웹상에 저장된 사진들을 관람할 수 있고 또는 선택된 것들을 휴대폰 또는 다른 원격 또는 이동 디바이스로 다운로드할 수 있다.
본 발명인 방법의 바람직한 실시예의 비한정적이고 예시적인 예에서, 서비스 제공자는 CrowdOptic 이며, 이벤트 주최자는 공공 이벤트를 주최하는 프로모터이다. 상기 이벤트 주최자는 인터넷, 이메일, 텍스트 메시징, 인스턴트 메시징, 웹페이지 로그온, 텔레커뮤니케이션 또는 당업자에게 알려진 다른 통신 방법에 의해 CrowdOptic 와 통신하여 곧 있을 이벤트를 등록한다. CrowdOptic 는 프로모터 계좌에 대한 요청을 기록하며, 데이터베이스에 그 이벤트를 등록한다. 이벤트를 고유하게 식별하고 특정 이벤트에 대해 제출된 모든 이미지들 또는 비디오들에 태깅하는데 사용될 특정 데이터 필드들이 상기 이벤트에 할당되는데, 상기 이벤트 및 이미지들을 식별하고 태깅하는데 사용되는 정보는 다음을 포함한다: 이벤트 명칭, 이벤트 프로모터 또는 주최자, 이벤트 채널, 이벤트 설명, 이벤트 날짜, 이벤트의 특정 시간, 이벤트의 특정 위치, 개개의 서브-이벤트를 분류하기 위한 특정 시간 및 특정 위치, 예컨대 일반 또는 전체 이벤트를 구성하는 개별 동작들 또는 표현들. 개개의 연기자들, 스폰서들, 회사들, 제품들, 시위들 등의 명칭과 같은 추가 정보가 또한 각 서브-이벤트를 식별하기 위해 제공될 수 있다. CrowdOptic 는 인터넷 또는 텔레커뮤니케이션 채널, 예컨대 이메일 알림, 텍스트 메시지, 인스턴트 메시지, 웹-포스팅, 또는 당업자에게 알려진 다른 수단에 의해 그들의 원격 또는 이동 디바이스들 상의 연관된 모바일 애플리케이션을 실행하고 있는 사진사들 및 이미지 제공자들에게 곧 있을 이벤트의 통지를 전달함으로써 이미지 제공자들에게 그 이벤트의 이미지들 또는 비디오들을 캡처할 기회를 알린다.
또한, 상기 통신은 특정 이벤트를 식별하는데 사용되는 모든 정보를 포함하고, 이에 따라 이미지 제공자는 그것의 시간, 위치 및 설명에 의해 상기 이벤트를 식별할 수 있고, 그 후에 이미지가 캡처된 경우 각각의 캡처된 이미지에 메타데이터로서 이벤트 정보 및 시간 스탬프를 태깅하며, 이에 따라 정확한 이벤트와 연관되어 정밀하게 식별될 수 있고 또한 CrowdOptic 데이터베이스에 적절히 저장될 수 있다. 상기 이미지 제공자는 상기 이벤트에 존재하고 있으며, 상기 이벤트의 하나 이상의 이미지들 및/또는 비디오들을 캡처한다. 각각의 캡처된 이미지에는 애플리케이션 프로그램에 의한 식별 정보가 태깅되며, CrowdOptic 에 의해 운영되는 서버로 다시 자동 전송된다. 상기 서버 프로그램은 수신된 이미지 또는 비디오에 대해 원격 애플리케이션에 의해 부여된 메타데이터를 사용하여 이미지 또는 비디오가 연관된 정확한 이벤트를 식별하고, 그 식별된 이벤트에 할당된 데이터베이스에 이미지 또는 비디오 데이터를 저장한다. 상기 시간 스탬프는 데이터베이스에의 저장을 위해 수신된 이미지들을 적절한 순서로 조직화하는데 사용된다.
예시적 예의 다른 변형에서, CrowdOptics 는 원격 애플리케이션 프로그램 또는 이미지 제공자로 통지를 전송하지 않으며, 대신에 이미지 제공자는 원격 디바이스 애플리케이션을 활성화시키고 애플리케이션 사용자 인터페이스를 사용하여 이벤트들의 리스트를 파퓰레이팅하도록 업데이트들을 다운로드하며(이것은 스크롤-다운 리스트로 제공될 수 있음), 또한 서버로부터 추가 정보를 획득하기 위해 모든 사용가능한 이벤트들의 리스트로부터 특정 이벤트 또는 이벤트들을 선택한다. 추가의 식별 정보가 사용자 인터페이스의 태깅 부분을 파퓰레이팅하고, 이것은 전술한 바와 같이 전송 및 데이터베이스에의 저장을 위해 각각의 캡처된 이미지를 태깅하는데 사용된다.
다음의 예들은 현재 청구된 본 발명의 범위를 제한하는 것을 의미하지 않으며, 여기에 기술된 방법 및 시스템의 바람직한 실시예들의 특정 특징들 또는 애플리케이션들을 더욱 기술하기 위한 것으로 의도된다.
제 1 예는 12:00 AM 에 타임 스퀘어를 들르는 New Years Ball 의 이미지들 및 비디오들을 요청하는 주최자에 관한 것이다. 상기 요청은 필수 애플리케이션을 실행하는 모든 제 1 당사자 및 타임 스퀘어의 바로 인근에 있는 것으로 결정되는 모든 등록된 전문 사진사들에게 전달된다. 모든 이미지 제공자들은 상기 요청을 수신하면, 따라서 본 이벤트의 하나 이상의 이미지들 또는 비디오들이 획득되어 상기 주최자에게 다시 전달될 수 있다. 상기 주최자는 아마도 그 주최자의 서버에 다시 전달된 몇몇 이미지들을 수집 및 저장할 수 있으며, 전문 이미지 제공자로부터 얻은 각 이미지에 대해 비드 가격을 지급할 수 있다. 하나의 이벤트에 대한 복수의 이미지들이 애플리케이션 및 서버 소프트웨어에 의해 결정되는, 그것의 위치, 설명, 및 시간을 나타내는 각 태깅된 이미지의 메타데이터에 기초하여 모자이크 또는 콜라주 또는 시간 순서로 컴파일 될 수 있다.
제 2 예에서, 원격 전자 디바이스는 백그라운드에서 실행하는 애플리케이션 소프트웨어를 가지고 New Years Eve 상의 타임 스퀘어와 같은 일 위치를 향하는 것으로 유지되어, 그 위치, 설명 및 실시간과 일치하는 요청 또는 통지가 수신될 때마다 원격 디바이스의 이미지 캡처 하드웨어를 활성화시킬 수 있다. 이미지 캡처는 연산자 "체킹 인(checking in)"의 관여 없이 자동으로 처리될 수 있으며 또는 이미지 캡처를 트리거링할 수 있다.
제 3 예에서, 동일한 이벤트(예컨대, NASA에 의한 우주 발사)에 존재하는 복수의 사진 제공자들은 복수의 뷰들을 사용하는 것에 의해 상이한 시간에서, 상이한 각도들로, 상이한 위치들로부터 복수의 이미지들을 캡처함으로써 그 이벤트의 더욱 양호한 커버리지를 제공할 수 있으며, 일 방향으로부터 캡처되는 이미지의 품질을 감소시킬 수 있는 간섭의 영향, 예컨대 조명의 변화, 날씨 또는 물리적 방해물의 영향들을 방지할 수 있다.
제 4 예에서, 상기 이벤트는 빌딩 또는 운동장을 통해 위치된 복수의 판매회사 부스를 구비한 시사회 또는 박람회이며, 전시품들 및 시연이 매일 상이한 시간에 존재하게 된다. 이벤트 프로모터는 그 이벤트에 주최자를 등록하고 전시품의 위치의 상세 리스트 및 그러한 전시품 각각에 대한 이벤트들의 스케줄을 주최자에게 제공한다. 상기 등록은 등록 페이지를 포함하는 주최자의 웹사이트를 사용하여 또는 등록 정보를 주최자에게 전송하는 원격 디바이스를 사용하여 달성될 수 있다. 주최자는 이벤트 명칭, 이벤트 채널, 이벤트 설명(예컨대, 전자 쇼, 자동차 쇼, 골동품 쇼 등), 이벤트 날짜 및 시간, 그리고 이벤트 위치(예컨대, 특정 호텔, 콘벤션 센터, 박람회장 등)를 포함하는 일반적인 이벤트 정보를 등록하며, 전시품의 명칭, 특정 위치, 전시의 설명, 및 날짜, 특정 시연 또는 프리젠테이션의 시간 및 위치를 포함하는 각각의 서브-이벤트 및 일반 이벤트에 대한 데이터베이스 엔트리들을 생성한다. 상기 컴파일된 정보는 애플리케이션을 실행하는 복수의 이미지 디바이스들로 전달되며, 실행 애플리케이션을 구비한 제 1 당사자인 이미지 제공자들에 대한 리스트로 제공된다. 상기 원격 디바이스들 그들의 각각의 GPS 데이터를 주최자에게 전송하여 하나 이상의 이미지 제공자들에게 그 위치를 명시하고, 이에 따라 이벤트에 관한 정보는 서버 애플리케이션에 의해 프리스크리닝될 수 있으며 로컬 이벤트들에 관한 정보만이 원격 디바이스들로 전달된다. 하나 이상의 이미지 제공자들은 그 이벤트의 전체에 걸쳐 동시에 그러나 상이한 위치에 발생하는 상이한 전시 또는 시연에 관한 이미지들을 캐처할 수 있으며, 또는 상이한 시간이지만 동일한 위치에 있는 전시 또는 시연을 캡처할 수도 있다. 각각의 원격 디바이스를 실행하는 각각의 애플리케이션은 각각의 캡처된 이미지에 특정 서브-이벤트 시간 및 위치에 관한 적절한 식별 정보를 태깅하고, 그 태깅된 이미지(들)을 주최자의 서버로 전송한다. 물리적 배치 또는 이벤트의 위치는 GPS 좌표, 및 모션의 방향 또는 콤파스 헤딩에 의한 대향에 의해 정의될 수 있다. 상기 서버 애플리케이션은 각 이미지에 태깅된 메타데이터에 기초하여 상이한 제 1 당사자 이미지 제공자들에 의해 제공되는 모든 이미지들을 소팅하고, 상기 이미지들을 상기 정보에 기초하여 생성된 연관된 데이터베이스들과 상호 연관시키고, 또한 적절한 데이터베이스들에 정확한 이미지들을 저장한다. 상기 서버는 다른 시청자들을 위한 특정 웹 페이지들에 저장된 이미지들을 포스팅함으로써 그들의 관심에 기초하여 실시간으로 특정 전시 부스들 또는 관심 또는 특정 시연들에서 일어나는 것을 확인할 수 있다. 또한, 이러한 이미지들 또는 비디오들은 전시품 회사 본사에서 다운로드되어서 현장에서 지연된 레포트를 수신하는 것을 기다리는 대신에 시장에서 수신되는 신규 제품에 대한 평가를 확인할 수 있다. 또한, 이 예에 관하여, 실시간 데이터 수집 또는 상기 수집된 이미지들 또는 비디오들의 각각의 메타데이터 태깅은 주최자 또는 제 3 당사자에 의해 수집되며 또한 애플리케이션 프로그램에 의해 추출된다. 상기 추출된 데이터는 시간, 날짜, GPS 위치, 초점 방향, 및 임의의 다른 선택된 데이터 필드들 또는 태그들, 예컨대 초기 인기도에 의해 컴파일되며, 분석을 위해 저장된다. 동일 애플리케이션 프로그램 또는 별개의 애플리케이션 프로그램이 상기 컴파일된 데이터를 분석하여 이벤트의 코스에 따라 각 벤더 부스에서 수집된 각 대상 또는 이미지들에 초점이 맞추어진 이미지 제공자들의 수를 결정할 수 있으며, 또는 상기 데이터를 더욱 정교하게 분석함으로써 각 판매회사 부스에서의 각 전시품 또는 시연을 위해 수집된 이미지들의 개수를 결정할 수 있다. 상기 정보는 각 부스, 이벤트 또는 시연에 참여한 이미지 제공자들의 비율, 및/또는 이미지 제공자들 및/또는 수집된 이미지들의 총 개수에 비해 각 부스, 이벤트, 또는 시연의 수집된 각 대상 또는 이미지들 및 오디오들에 초점을 맞추고 있는 이미지 제공자들의 수에 기초하여 가장 인기있는 판매회사 이벤트들, 및 시연들을 결정하는데 사용될 수 있다. 상기 수집된 데이터는 상기 판매회사들로 제공되어서 어떤 것들이 가장 큰 군중들을 이끌고 있으며 어떤 이벤트들 및 시연들이 가장 주목을 끌고 있는지를 식별할 수 있다.
제 5 예에서, 상기 이벤트는 동시에 스테이지에 복수의 밴드 멤버들을 갖는 콘서트이며, 쇼 도중에 각종 지점들에서는 상기 스테이지를 돌거나, 진입하거나 떠나고 있다. 복수의 이미지 제공자들은 동시에 스테이지에 존재하는 개개의 밴드 멤버들의 이미지들 및 비디오를 획득할 수 있으며, 그 이미지들을 애플리케이션 서버로 전달할 수 있다. 상기 이미지 캡처 디바이스들로부터 전송되는 실시간 데이터 수집은 애플리케이션 프로그램에 의해 실시간으로 서버 시스템으로 수집될 수 있다. 상기 수집된 데이터는 시간, 날짜, GPS 위치, 초점 방향, 및 임의의 다른 선택된 데이터 필드들 또는 태그들, 예컨대 초기 인기도에 의해 컴파일된다. 상기 이미지 캡처 디바이스들의 GPS 위치 및 초점 방향은 삼각 측량을 통해 상기 이미지 캡처 디바이스들의 초점의 지점을 계산하는데 사용된다. 본질적으로 동일한 위치 또는 연기자에 초점을 맞추고 있는 이미지 제공자들의 수는 통계적으로 분석될 수 있는 클러스터 지점들을 생성하여 상기 특정 시간에 각 밴드 멤버에서의 군중의 관심 레벨을 결정한다. 동일 애플리케이션 프로그램 또는 별개의 애플리케이션 프로그램이 상기 실시간 데이터를 분석하여 이벤트의 코스에 따라 각 연기자에 초점이 맞추어진 이미지 제공자들의 수를 결정할 수 있으며, 또는 상기 데이터를 더욱 정교하게 분석함으로써 상기 이벤트 도중의 특정 시간에 특정 위치를 향하는 이미지 제공자들의 수를 결정할 수 있다. 상기 정보는 상기 쇼에서 상이한 대상들에 초점을 맞추고 있는 시간 구간 동안 존재하는 이미지 제공자들의 총 수와 비교되는 각 연기자에 초점을 맞추고 있는 이미지 제공자들의 비율에 기초하여 가장 인기있는 연기자를 결정하는데 사용될 수 있다. 상기 데이터는 판매회사 또는 광고주에게 제공되어 어떤 연기자가 가장 주목을 끌고 있는지를 식별하게 할 수 있다.
제 6 예에서, 상기 이미지 제공자들은 테니스 시합의 청중에 있을 수 있으며, 시함에 참여하는 각 테니스 선수들은 코드의 특정 사이드에서 시작하게 되고, 이것은 시함의 시작에서 이미지 제공자들의 GPS 위치 및 초점 방향을 통해 판정가능하며, 시합의 상대방에 비교되는 상대적 인기도를 갖는다. 일 시점에서 복수의 이미지 제공자들 중의 2 제공자의 초점을 삼각측량하고, 시간에 따른 각 선수의 위치를 추적하고, 특정 시간에 또는 시간 구간 동안 각 선수들에 초점을 맞추고 있는 이미지 제공자들의 수를 결정하는 것에 의해, 그 시합 중의 관심 지점들 및 특정 시간들이 결정될 수 있고, 통계 분석이 행해져서 각 선수들에 대한 새로운 상대적 인기도들을 결정할 수 있다. 상기 상대적 인기도들은 이벤트 주최자들에 의해 사용됨으로써 상기 새로운 상대적 인기도들에 기초하여 후속 시합들에서 각 선수에게 주어질 광고 시간의 양을 결정할 수 있다. 또한, 광고 시간의 양은 이미지 제공자들의 이미지 캡처 디바이스들로부터 전송되는 데이터의 분석에 의해 실시간으로 결정되는 청중 선호도에 기초하여 실시간으로 조정될 수 있다. 또한, 그들이 시합을 관람하고 있는 동안 상기 이미지 제공자들에게 다시 정보가 전송될 수 있으며, 상기 정보는 시합의 스코어, 운동선수에 관한 배경 사실들, 코트 또는 이벤트 위치에 관한 정보, 공공 서비스 및 안전 알림, 또는 이벤트에서 팔리고 있는 제품 또는 운동선수들에 의해 홍보되고 있는 제품에 관한 광고들을 포함한다.
다른 예는 개인적 수집들, 예를 들어, 오후에 상이한 레스토랑들 또는 위치들에 관련될 수 있는 친구들일 수 있다. 상기 참석자는 이벤트 동안 이미지들의 사진을 찍을 수 있으며, 태깅 및 링킹에 의해 서비스 및 애플리케이션이 그 수집에 따라 참석자들에 대한 집합적 부분(collective piece)을 자동으로 생성할 수 있다. 유사한 아메리카 컵 요트 경주(America's Cup Yacht race)와 같은 보트 경우와 관련될 수 있으며, 원격 디바이스 사용자 A는 텍스트 "결승선까지 X 미터, ESPN 에 의해 당신에게 전달됨" 이라는 문구로 나타나는 요트의 실시간 GPS 위치를 포함하는 이벤트 D를 할당한다. 사용자 C는 이벤트 D를 실시간으로 수신하는 셀 폰으로 아메리카 컵 요트를 관람한다. 또한, 상기 애플리케이션 또는 서비스는 상기 이벤트에 있는 다른 참석자들의 식별자 또는 다른 식별 정보 예컨대 급작스럽게 추가적인 사회적 상호작용을 나타나게 할 수 있다(예컨대, 별개의 또는 통합적인 소셜 네트워킹 애플리케이션을 검색하는 것에 의해). 풀다운 메뉴 또는 다른 상호작용 옵션은 이미지가 찍히기 이전에, 도중에 또는 이후에 이미지들을 태깅하기 위해 하나 이상의 태그들 또는 식별자들을 개인이 선택할 수 있는 애플리케이션을 사용하여 생성될 수 있다. 또한, 상기 옵션은 태그를 사용하는 옵션을 이용하여 팝-업으로서 자동 디스플레이될 수 있으며, 원하는 경우, 서비스 제공자에게 이미지 또는 미디어를 제출하는 추가 옵션으로(예컨대, 공개를 위해) 자동 디스플레이될 수 있다.
이 기술의 양태들은 이벤트와 함께 이미지들 또는 다른 매체를 수집 및 조직화할 수 있는 이점을 제공한다(예컨대, 명시된 타임 윈도우를 구비하는 것, 명시된 지속시간을 갖는 것, 지속시간에 무제한 적인 것, 개인에 의해 수행되는 계획된 행동들로 링크되는 것 등). GPS나 다른 위치 식별 또는 추적 기술들은 상기 방법들 또는 시스템들의 일부로서 구현될 수 있다.
컴퓨터, 이동 디바이스, 또는 서버와 같은 하드웨어 상에 실행되는 소프트웨어가 구현되어 예시적으로 위에서 기술한 시스템들 및 방법들을 제공할 수 있다.
컴퓨터 판독가능 매체(예컨대, 이동 디바이스들, 서버들 상의 일 위치 또는 복수의 위치들 등)에는 여기에서 예시적으로 기술된 하나 이상의 방법들 및 여기에서 고려된 비한정적 변형들로 구성되는 컴퓨터 실행가능한 명령어들을 포함하는 하나 이상의 실행가능한 애플리케이션들이 기록될 수 있는 것으로 구현될 수 있다.
본 발명의 실시예의 일 예는 관측자들이 지리적으로 분산되어 있는 이벤트에 존재하는 복수의 개인들과 관련되며, 예를 들어, 퍼레이드, 마라톤에 있어서 거리를 따르는 것이 되고, 또는 블록 파티(block party)나 아카데미 시상식과 같은 이벤트의 인근 전반이 된다.
이러한 경우들에서, 각 관측자의 활성 이미지 캡처 디바이스는 다른 관측자들로부터의 복수의 다른 시선들과 교차하는 상기 디바이스의 콤파스 헤딩을 따라 그들의 GPS 포지션으로부터 시선을 형성하고, 이에 의해 모든 활성 이미지 캡처 디바이스들로부터의 모든 교차 시선들에 의해 형성되는 클러스터의 일 부분으로서 해석될 수 있는 복수의 교차 지점을 생성한다. 이러한 케이스에서는, 제 1 관측자의 시선을 따르는 어떤 복수의 교차 지점들 중의 어떤 것이 실제의 초점 대상을 결정하는지를 결정하는 것이 곤란하다.
상기 서버 애플리케이션은 넓은 지리적 영역 위에 위치되는 복수의 디바이스들로부터 시간, 포지션 및 방향 데이터를 수신하고, 상기 복수의 교차 지점을 계산하고, 또한 서로에 대한 교차 지점들의 근접도로 인하여 클러스터가 빠져나가는지를 결정하지만, 추가의 필터링 및 분석은 어떤 것이 상기 계산들의 노이즈 및 아티팩트들을 구성하는지와 어떤 것이 실제 관심 대상들인지를 결정할 필요가 없다. 상기 데이터를 저장하고 시간 구간 동안 상기 시선들을 따르는 것에 의해, 상기 서버는 어떤 교차 지점이 예상된 방식으로 거동하고 있는지와 어떤 교차 지점이 불규칙한 방식으로 이동하고 있는지 또는 전체적으로 상기 클러스터로부터 사라지고 있는지를 결정할 수 있다. 상기 서버 애플리케이션은 이러한 후속적인 관측들을 사용하여 어떤 지점이 노이즈 였는지를 결정할 수 있으며, 다시 계산하여 부적절하게 일찍 형성되어 식별된 그들 교차 지점을 계산할 수 있고 또한 관측자들과 적절성의 퍼센티지를 위해 통계적 계산들로부터 그것들을 제거할 수 있다.
다른 예에서, 활성 이미지 캡처 디바이스들을 가진 복수의 관측자들은 풋볼 게임과 같은 이벤트에 있을 수 있으며, 대다수의 관측자들은 스탠드 내에 위치해 있고 필드에 초점을 맞추고 있지만, 스타디움의 통로 내와 주차장 바깥쪽에는 스트래글러(straggler)들이 존재한다. 대부분의 시간 동안, 스타디움의 안쪽에 존재하는 디바이스들은 필드에 존재하는 상이한 플레이어들에 초점을 맞추게 되며, 그보다 정도는 덜하지만 사이드라인에 있는 플레이어들과 코치들과 치어리더들에게 초점을 맞추게 된다. 주차장에 있는 이미지 캡처 디바이스들은 램덤하게 흩어지는 것으로 나타나게 될 수 있고 이것은 교차 지점이 되며, 이에 따라 높은 밀도의 영역은 존재하지 않게 된다. 필드를 향해 초점을 맞추고 있는 모든 이미지 캡처 디바이스들은 다른 이미지 캡처 디바이스들로부터의 시선들과 복수의 교차 지점을 형성하게 된다. 상기 서버 소프트웨어는 상기 복수의 이미지 캡처 디바이스들로부터 전송되고 있는 데이터를 컴파일할 수 있고 그 교차 지점의 세트를 계산할 수 있다. 상기 교차 지점의 세트는 특정 영역들에 위치해 있는 상기 교차 지점들의 밀도에 기초하여 실제 관심 대상들 주위의 클러스터들을 식별하도록 분석될 수 있다. 이들 높은 밀도 클러스터들은 실제 초점을 맞추고 있는 타겟들을 식별하기 위해 사용될 수 있다. 쿼터 백, 와이드 리시버들 및 러닝 백들과 같은 몇몇 플레이어들은 랜덤 라인맨보다 더욱 많은 주목을 받게 되며, 이에 따라 이 정보는 노이즈를 필터링하고 실제의 관심 대상들을 식별하는데 도움을 주기 위해 또한 사용될 수 있음이 인지된다.
도 1에 도시된 바와 같이, 더욱 많은 라인들이 패스를 잡기 위해 다운필드를 향하는 와이드 리시버에서 그리고 러닝 백 및 쿼터 백에서 교차하지만, 다수의 다른 교차 지점들은 어떤 플레이어 또는 눈에 띄는 이벤트와 관련이 없는 필드에서 발생하게 된다. 상기 교차 지점들은 의도하지 않은 교차 지점들 주위보다 실제의 관심 대상 주위에서 훨씬 더 고밀도로 채워져 있으며, 이에 따라 상기 서버는 클러스터들의 밀도의 통계 분석에 의해 이러한 아티팩트들 사이를 구별할 수 있다.
도 1에는 작은 수의 관측자들 및 교차 라인들만이 나타나 있지만, 실제 이벤트에서는 훨씬 많은 개수가 존재하게 되며, 훨씬 많은 통계 관련 세트의 데이터가 시선들 및 계산된 교차 지점들에 의해 생성되어 실제의 관심 대상들에 초점이 맞추어진 훨씬 큰 비율의 관측자들 및 훨씬 높은 클러스터 밀도를 만들게 된다. 플레이는 시선들을 발생시키게 되므로, 교차 지점은 그 플레이를 따라가도록 이동되며, 서버는 이미지 캡처 디바이스들로부터 수신되는 데이터를 필터링하여 모든 교차 시선들에 대한 삼각측량 계산들을 반복 수행하게 된다. 관련되지 않는 지점들이 결정되어 서버 리소들에 대한 계산들로부터 드롭될 수있다. 또한, 다른 당사자들은 통계 정보를 수신할 수 있으며, 그것을 사용하여 그 이벤트의 다른 측면들, 예컨대 가장 높은 클러스터 밀도를 나타내는 위치에 대한 TV 카메라들을 포커싱하는 것과 전체 관중이 보고 있는 스타디움 와이드-스크린 디스플레이 상에 특정 이미지를 디스플레이하는 것을 지시할 수 있다. 마찬가지로, 팀, 스폰서, 및 광고주는 관련 클러스터들에 관한 정보를 수신하여 플레이어의 이름 및 및 통계와 같은 정보를 관측자들이 보게 될 이미지 캡처 디바이스들로 다시 전송할 수 있으며, 또는 특정 광고들이 관측자 디바이스들로 전송될 수 있다. 광고주들은 가장 인기있는 플레이어들에 관한 광고 시간의 분량에 대해 미리 비딩할 수 있으며, 또는 플레이어가 특정 플레이에 대해 현재 받고 있는 관심 량에 기초하여 실시간으로 비딩할 수도 있다.
다른 예에서, 적은 개수의 디바이스들에 대한 포커스의 방향은 포커스의 일 지점에서 다른 위치로, 예컨대 갑자기 일어나 몇몇 새로운 이벤트나 소란으로 인해서 필드에서 스탠드로 갑자기 이동할 수 있다. 갑자기 바뀌는 포커스의 방향 때문에, 서버는 이러한 디바이스들로부터 데이터 스트림을 초기에 필터링할 수도 있고, 콤파스 헤딩(compass heading)이 다시 상대적으로 일정하게 된 경우에는, 그들 디바이스들로부터 GPS 및 방향 데이터 스트림을 받아들이게 되어 새로운 교차 지점을 결정하기 위한 삼각측량 계산을 수행하게 된다. 더욱 많은 관측자들이 필드에서 스탠드로 그들의 관심 및 포커스를 변환함에 따라, 서버 애플리케이션은 그 위치에 대한 클러스터 밀도의 급격한 증가를 검출하게 되며, 그 이동이 스탠드에서의 통계적으로 유의미한 발생을 나타내고 있는 것으로 결정할 것이다. 기대되는 관심 영역 바깥쪽의 위치에서의 새로운 이벤트의 발생은 다른 당사자, 예컨대 보안 단체에게 정보와 이미지들을 전송하도록 하는 플래그(flag)로서 사용되어, 필요한 경우 그 정보를 스크리닝하여 조사하도록 할 수 있다. 관측자들의 디바이스로부터 전송되는 이미지들 및 메타데이터가 스탠드에서의 싸움과 같은 위기 사태를 묘사하고 있는 경우, 그 클러스터의 위치에 대응하는 위치로 보안 업체가 즉시 파견될 수 있다. 이러한 상이한 발생들을 식별하기 위한 동적 클러스터들의 사용은, 그 이벤트의 바로 인근에 있는 관측자들이 그 상황을 알아채고서 훨씬 더 빠르게 그들의 초점을 변경시키기 때문에, 훨씬 더 빠른 대응을 생성하는 이점을 가지며, 보안 업체는 전체 관중 및 스탠드들을 스캐닝하여 이러한 상황을 인식하게 된다. 또한, 이벤트가 전개됨에 따라, 관심 레벨은 직접적인 위치로부터 훨씬 멀리있는 관측자들로 전파해 나가게 된다. 이러한 포커스 이동의 전파는 또한 통계적으로 분석되어 그 상황이 시작된 곳, 관측자들의 관심이 그 새로운 상황으로 이동한 비율, 및 생성된 클러스트의 사이즈에 기초하는 그 상황의 중요도를 결정할 수 있다.
다른 예로서, 거리에 있는 사람들은 화재가 난 빌딩을 인식할 수 있다. 다수의 관측자들은 자신의 전자 디바이스들을 활성화하여 그 이벤트의 이미지들을 캡처하게 된다. 애플리케이션 프로그램은 서버 시스템과의 통신 연결을 확립하게 되며, GPS 포지션 및 방위 데이터를 서버로 실시간 전송하기 시작한다. 그 이벤트에 초점을 맞추고 있는 2 명의 관측자들은 클러스터를 형성하는 교차 시선들을 생성한다. 그 위치에는 한정된 개수의 활성화된 전자 디바이스들만이 존재하고 있고 통계적으로 유의미한 개수의 활성화된 디바이스들이 동일한 대상에 대해 초점을 맞추고 있기 때문에, 서버 애플리케이션은 상기 데이터를 수신하여 그 클러스터의 형성을 유의미한 이벤트로 인식하게 된다. 또한, 추가적인 관측자들이 조인(join)하여 추가 교차 지점을 생성하는 비율은 그 이벤트의 중요도를 표시하기도 한다. 이전에는 존재하지 않았던 클러스트의 대량 증가를 나타내는 신규의 유의미한 이벤트의 발생은, 그것이 위기 사태인지의 여부를 결정하여 적절하게 대응할 수 있는 업체일 수 있는 다른 당사자에게 통신하도록 하는 경계 경보를 야기할 수 있다. 그 결정은 관측자들의 이미지 캡처 디바이스들로부터 전송되고 있는 이미지들 및 관측자(들)에 의해 그 이미지들에 메타데이터로서 태깅된 정보(예컨대 어떤 위치에서의 "화재" 또는 "강도" 등)에 기초하여 이루어질 수 있다. 상기 이미지들과 태그 정보는 그 후에 예를 들어 화재, 강도, 자살, 또는 유명인사의 존재와 같은 것들 사이에서 이벤트를 구별하기 위해 사용될 수도 있다. 그 이벤트에 존재하여 클러스터를 생성하는 관측자들은 서로의 존재에 대해 서버에 의해 통지되어 논의 형성 옵션이 주어질 수 있으며, 또는 즉석 소셜 네트워크를 생성할 수 있다. 시간, 위치, 및 방향 데이터를 가지고 서버로 전달되는 이미지들은 또한 온라인으로 포스팅되거나 이러한 뉴스 피드들을 수신하도록 등록된 다른 사람들에게 전달될 수 있다.
도시된 도면들을 참조하여 몇몇 실시예들의 예를 더 설명하도록 한다. 도 1에는 스포츠 이벤트의 일 예가 도시되어 있으며, 여기서 관측자들(101)은 스타디움(100)의 내부 및 외부에 모두 위치되어 있다. 게임 중의 여러 시간들에서, 원격 애플리케이션을 실행하는 원격 전자 디바이스들(예컨대, 스마트폰들)을 가진 관측자들(101)은 필드 안과 필드 바깥 모두의 상이한 대상들에 초점이 맞추어져 있다. 각각의 원격 전자 디바이스들은 특정 GPS 좌표들을 가지고 있으며, 예를 들어 콤파스 헤딩(compass heading)에 의해 결정된 특정 방향을 향하고 있다. 그 속성은 각각의 전자 디바이스에 대해 고유하며, 디바이스의 위치 및 향한 방향을 실시간으로 반영하는 연속적인 데이터 스트림으로서 원격 서버에 전달될 수 있다. 서버 또는 서버 시스템은 각각의 원격 전자 디바이스들로부터 연속적인 데이터 피드들을 수신하며, 후속적인 계산들을 위해 데이터베이스 내의 데이터를 컴파일한 후 각종 알고리즘을 사용하여 분석할 수 있다. 관측자(101)에 의해 초점이 맞추어지고 있는 대상은 관측자의 디바이스로부터 멀리 전파되고 있는 시선(105)을 계산하고, 다른 원격 디바이스들로부터 나오고 있는 어떤 시선들이 상기 관측자의 시선(105)과 교차하는지를 결정하는 것에 의해 결정될 수 있다. 교차 지점(110)은 삼각 측량을 통해 계산될 수 있다. 이러한 방식으로, 복수의 교차 지점(110)이 도 1의 검은 원들로 표시된 바와 같이 식별될 수 있다. 일단 교차 지점(110)이 결정되면, 랜덤하게 흩어져 있는 개별 지점들에 비해 어떤 교차 지점이 근접하게 함께 채워져 있는 클러스터(120)가 식별될 수 있다. 예를 들어, 4개의 선들이 다운필드를 이동하면서 특정 클러스터를 생성하고 있는 와이드 리시버(150)를 가로지르고 있으며, 여기서 3개의 선은 러닝 백(160)을 가로지르고 있고 2개의 선은 쿼터 백(170)을 가로지르고 있다. 3개의 교차 라인들을 가진 추가적인 클러스터가 스크리미지 선(180)에서 발생하지만, 교차 라인들의 랜덤 배열은 특정 관심 대상들보다 통계적으로 낮은 밀도를 가지는 것으로 인식된다. 관측자의 시선과 마주치는 가장 밀집하게 채워진 클러스터를 식별하는 것은 통계적으로 관측자의 관심 대상인 것으로 고려된다. 플레이어들(140)이 필드에서 이동하기 때문에, 그 플레이가 펼쳐져서 상이한 플레이어들이 다른 액션들에 관여하는 시간에 따라 교차 지점(110)이 이동하게 된다. 상기 시스템은 교차 지점을 추적하여 상이한 플레이어와 연관된 클러스터들의 밀도의 변화를 측정하는 것에 의해, 어떤 플레이어 또는 위치에서 다른 것으로의 관심의 이동과 플레이어의 움직임 양쪽 모두를 따를 수 있다. 예를 들어, 관중들의 관심은 일단 패스가 이루어지면 쿼터 백(170)에서 와이드 리시버(150)로 갑자기 이동하게 된다. 이것은 와이드 리시버(150)의 위치에서 발생하는 교차 라인들의 개수에서의 대량 증가에 의해 표시되게 되며, 밀도의 대량 증가 및 이에 따른 그 클러스터의 관련성으로 인식되게 된다.
클러스터들의 밀도를 분석하는 것에 의해, 다른 당사자들은 관중들의 포커스 지점을 따를 수 있으며 또한 이것을 사용하여 그들 자신의 액션들, 예컨대 동일한 플레이어에 대해 텔레비전 카메라들을 동시에 포커싱하거나, 또는 그 플레이어에 초점이 맞추어진 관측자들에게 그의 이름과 통계 자료와 같은 추가 정보를 디스플레이하는 디스플레이하는 것을 지시할 수 있다.
또한, 관측자들 전자 디바이스들로 광고가 전송될 수도 있다. 예를 들어, 러닝 백이 특정 브랜드의 신발을 지원하는 경우, 러닝 백에 초점이 맞추어진 관측자들은 그 플레이어에 대해 초점이 맞추어진 시간동안에 그 신발에 대한 광고를 수신할 수 있다.
도 2에는 아카데미 시상식과 같은 실외의 이벤트의 다른 예가 도시되어 있다. 다수의 관측자들(201)이 여러 가지 거리를 따라 위치해 있으며, 다른 사람(220)에게 초점을 맞추고 있다. 상이한 클러스터들(230)이 라벨링된 원들(1527, 1193, 1541, 1530, 및 1542)로 식별되어 있다. 클러스터들은 상이한 관측자들로부터 나오는 교차 라인들(210)에 의해 생성되어 있으며, 여기서 클러스터의 밀도는 각 원의 사이즈 및 각 원에 속하는 지점의 숫자로 나타나 있다. 단위 영역마다의 지점들의 숫자는 클러스터의 밀도를 제공하며, 또한 다른 것들과 비교되는 각 클러스터의 중요도를 표시한다.
도 3은 동일한 인근에서 시간이 지나고, 이에 의해 사람들과 포커스의 방향 모두가 이동된 상황을 도시하고 있다. 각각의 클러스터들(230)은 도 2에 나타낸 것으로부터 위치, 사이즈 및 밀도가 변경되었다. 사이즈 및 밀도의 변경은 클러스터들의 중요도가 변경된 것을 나타낸다.
도 4는 데이터베이스에 필드들을 정의하고, 스마트 폰과 같은 원격 디바이스와 통신하고, 디지털 이미지를 캡처하여 서버로 전달하고, 또한 그 이미지에 태깅된 메타데이터에 기초하여 상기 데이터베이스에 이미지를 저장하는 처리를 나타내는 흐름도이다.
도 5는 본 발명의 각종 실시예들을 구현함에 있어서 포함되는 시스템의 일 예를 도시하고 있다. 컴퓨터 시스템은 데스크탑 컴퓨터들(510), 또는 멀티-프로세서 컴퓨터들 및 대형 메인프레임 타입 컴퓨터들(520), 또는 통신에 따라 결정되는 이러한 컴퓨터 시스템들의 조합을 포함하며, 데이터 수신에 필요한 전력을 처리하고, 각종 계산들을 수행한다. 데이터 스트림은 하나 이상의 휴대용 또는 이동 디바이스들(530), 예를 들어 스마트폰들, 디지털 카메라들(540) 및 비디오-리코더들과 같은 이미지 캡처 디바이스들, 또는 랩탑(550) 및 네트워크를 통해 다른 디바이스들과 통신할 수 있는 이미지 캡처 하드웨어를 구비한 태블릿 컴퓨터들로부터 전송될 수 있다. 디지털 카메라들은 랩탑 컴퓨터에 연결되어서 네트워크를 통해 컴퓨터 시스템으로 정보 및 이미지들을 전송할 수 있다. 원격 디바이스들은 무선 통신 시스템(560, 예컨대 셀룰러 네트워크, 또는 WiFi 또는 WiMax를 통해 통신할 수 있다. 디바이스는 케이블, 광섬유, 또는 PSTN과 같은 유선 네트워크(570)를 통해 컴퓨터 시스템에 연결될 수 있으며, 모든 디바이스들은 컴퓨터 네트워크 예를 들어 인터넷을 통해 상호연결될 수도 있다. 각종 원격 디바이스들은 하나 이상의 통신 네트워크들에 걸친 시간 데이터, 방향 데이터, 및 포지션 데이터를 포함하는 그들의 속성을, 적어도 애플리케이션 프로그램과 데이터베이스 프로그램을 실행시키는 컴퓨터 시스템으로 전송할 수 있다. 고정된 디바이스들, 예컨대 디지털 텔레비전 카메라들(미도시)이 또한 네트워크를 통해 컴퓨터 시스템에 연결될 수도 있다.
도 6의 흐름도에는 본 발명의 실시예의 일반 동작이 나타나 있다. 본 시스템은 컴퓨터 시스템과 통신하고 있는 하나 이상의 원격 디바이스들을 식별하며, 그 디바이스가 활성 상태이어서(즉, 전원이 공급되어 애플리케이션을 실행하고 있어서) 컴퓨터 시스템으로 데이터를 전송하고 있는지의 여부를 결정한다. 디바이스가 데이터를 전송하고 있지 않은 경우에, 예를 들어 그것이 폰으로 사용되고 있다면, 본 시스템은 다른 활성화된 디바이스들이 데이터를 전송하고 있는지를 확인하도록 체크한다. 컴퓨터 시스템이 인커밍 데이터 스트림을 검출하는 경우, 컴퓨터는 데이터 스트림을 모니터링하여 그 데이터가 계산에 사용하기에 충분히 일관성이 있는지의 여부를 결정한다. 전송된 데이터 값들이 불규칙한 경우, 그 데이터는 필터링된다. 데이터가 일관성이 있는 경우, 그 데이터는 컴퓨터 시스템에 의해 컴파일되어 분석을 위해 저장된다. 애플리케이션 프로그램은 수신 데이터를 분석하여 시선들이 가로지르는 지점들을 식별한다. 교차 지점은 추가적인 분석을 위해 컴퓨터에 의해 저장된다. 애플리케이션 프로그램은 교차 지점을 분석하여 백그라운드에 비해 더 높은 밀도의 지점들이 존재하는 곳에 위치된 관심 대상들을 나타내는 클러스터들을 식별한다. 클러스터(들)에 대한 정보는 컴퓨터 시스템에 저장되며, 상기 정보는 클러스터의 위치, 밀도, 클러스터가 나타내는 실제 대상의 타입이나 상황의 종류, 교차 지점들의 총개수와 비교되는 클러스터를 형성하는 교차 지점들의 비율, 시간 스탬프 등을 포함할 수 있으며, 상기 클러스터를 태깅 및 식별하는데 사용된다. 클러스터들은 상황이 종료하고 신규 이벤트들이 시작되거나, 관심 대상들이 이동하거나, 또는 대상이나 상황의 관심 레벨이 변경되는 시간에 따라 달라지기 때문에, 이들 변경들이 또한 저장 및 모니터링될 수 있다. 클러스터를 태깅하는 정보는 그 데이터에 관심이 있는 다른 당사자들에게 전달될 수 있다. 상기 파티들은 보안 업체 또는 뉴스 업체와 같은, 클러스터들의 이동 및 정보를 모니터링하도록 태스킹된 파티들일 수 있으며, 그 정보에 기초하여 결정을 하게 될 수도 있다(예컨대, 브로드캐스터들 및 광고주들).
도 7은 관심 대상을 삼각 측량하여 클러스터를 형성하도록 실행되는 단계들의 일 예를 도시하고 있다. 본 시스템은 원격 디바이스로부터 실시간으로 데이터를 수신하며, 그 데이터를 분석하여 그 디바이스의 시선의 방향 및 포지션을 결정한다. 상기 데이터는 디바이스에 대한 콤파스 헤딩(compass heading) 및 GPS 좌표들을 포함한다. 본 시스템은 다른 원격 디바이스에 대한 시선의 방향 및 포지션을 결정한다. 일단 시스템이 2개의 포지션들과 2개의 시선들을 가진 경우, 그 시스템은 시스템들 사이의 각도를 결정하여 그 2개의 시선들에 대한 교차 지점을 계산한다. 본 시스템은 이전의 시선들 중의 하나를 가로지르는 시선을 가진 추가 디바이스들이 존재하는지를 결정할 수 있다.
본 시스템은 각 쌍의 디바이스들에 대한 계산을 반복함으로써 시선들이 가로지르는 장소를 결정하여 지점들의 세트를 형성한다. 복수의 교차 지점이 분석되어 하나 이상의 클러스터들을 식별하며, 상기 클러스터(들)에 관한 정보가 시스템에 저장된다.
도 8은 본 발명의 방법의 다른 실시예의 단계들을 도시하고 있다.
도 9는 본 발명의 방법의 다른 실시예의 단계들을 도시하고 있으며, 본 시스템은 실시간으로 데이터 스트림을 수신하고, 그 데이터로부터 위치와 콤파스 헤딩(compass heading)을 결정하며, 시선들의 교차 지점들을 계산하고, 상기 애플리케이션 전체에 걸쳐 기술한 바와 같이 교차 지점으로부터 관심 대상들을 식별하며, 관심 대상과 연관된 사용자들의 클러스터들을 식별하고, 또한 특정 관심 대상과의 연관성 및 클러스터를 저장한다.
도 10은 위치나 대상에서의 모멘텀과 관심 량을 결정하는 단계들의 일 예를 도시하고 있다.
도 11은 위치나 대상에서의 모멘텀과 관심 량을 결정하기 위한 분석을 수행하는 삼각 측량의 다른 방법을 도시하고 있다.
도 12는 패턴들이나 클러스터들을 인식하는 방법의 단계들을 도시하고 있다.
소정의 바람직한 버전들을 참조하여 고려가능한 상세로 본 발명을 설명하였지만, 다른 실시예들이 가능하다. 그러므로, 본 발명의 사상 및 범위는 여기에 포함된 바람직한 실시예들의 설명으로 한정되지 않는다. 또한, 각각의 제공된 예들은 특정 개수의 단계들을 기술하고 있지만, 더 많거나 더 적은 단계들과 상기 기술된 순서의 변형들이 또한 고려되며, 본 발명의 원리 및 범위 이내인 것으로 고려되어야 한다. 일반적으로 여기에 기술된 예시적 통신들은 스토리지, 프로세싱, 및 인터랙션을 위한 당사자에 대한 정형 메시지들, 패킷들, 또는 데이터를 전달하는 다른 전자 신호들, 커맨드들, 또는 신호들을 포함한다는 것을 컴퓨터와 텔레커뮤니케이션 기술 분야의 당업자는 이해해야 한다. 이러한 정보는 전자 필드 및 그 필드에 저장된 데이터를 사용하여, 예컨대 데이터베이스에서, 수신 및 저장된다는 것이 또한 이해된다. 위에서 기술된 특징들, 컴포넌트들 및 방법 단계들의 전부 또는 일부는 상이한 방식으로 조합될 수 있으며, 예시된 것들 이외의 다른 변형들 및 수정들이 당업자에게 명백하다는 것이 이해되어야 한다.
특히, 본 발명의 여러 가지 실시예들은 하드웨어, 및 상이한 하드웨어 컴포넌트들 상에 분산된 소프트웨어 또는 컴퓨팅 클라우드, 그리고 전술한 기준 및 실시예들에 따른 데이터의 저장 및 처리 중의 다른 선택들로 구현될 수도 있다. 당업자는 여기에 개시된 실시예들과 함께 기술된 다양한 예시적 논리 블록들, 모듈들, 회로들, 및 알고리즘 단계들이 전자적 하드웨어, 컴퓨터 소프트웨어, 또는 양쪽 모두의 조합으로 구현될 수도 있다는 것을 더 인식할 것이다. 여기에 개시된 실시예들과 함께 기술된 다양한 예시적 논리 블록들, 모듈들, 처리들 및 기능들은 범용 프로세서(예컨대, 컴퓨터나 서버 중의 하나와 같은), 또는 다른 타입의 프로세서로 구현 또는 수행될 수 있다. 하나 이상의 예시적 실시예들에서, 설명된 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합으로 구현될 수도 있다. 소프트웨어로 구현되면, 상기 기능들은 하나 이상의 명령어들을 통해 전송되어 저장되거나 비-일시적 컴퓨터 판독가능 매체와 같은 컴퓨터-판독가능 매체 상의 코드로 저장될 수 있다. 컴퓨터-판독가능 매체는 한 장소에서 다른 장소로 컴퓨터 프로그램의 전송을 용이하게 하는 임의의 매체를 포함하는 통신 매체와 컴퓨터 저장소 모두를 포함한다. 저장 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 사용가능한 매체일 수 있다. 제한이 아닌 예로서, 그러한 컴퓨터-판독가능 매체는 RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크 저장부, 자기 디스크 저장부 또는 다른 자기 저장 디바이스들, 또는 명령들 또는 데이터 구조들의 형태로 원하는 프로그램 코드를 운반 또는 저장하는데 사용될 수 있고 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다
또한, 임의의 접속 수단(connection)이 컴퓨터-판독가능 매체로 적절히 명칭된다. 예를 들어, 소프트웨어가 동축 케이블, 광섬유 케이블, 연선(twisted pair), 디지털 가입자 라인(DSL), 또는 (적외선(IR), 무선, 및 마이크로파와 같은) 무선 기술들을 사용하여 웹사이트, 서버, 또는 다른 원격 소스로부터 송신되면, 동축 케이블, 광섬유 케이블, 연선, DSL, 또는 (적외선, 무선, 및 마이크로파와 같은) 무선 기술들은 매체의 정의 내에 포함된다. 여기에 사용된 바와 같이, 디스크(disk) 및 디스크(disc)는 컴팩트 디스크(disc)(CD), 레이저 디스크(disc), 광학 디스크(disc), DVD(digital versatile disc), 플로피 디스크(disk), 및 블루-레이 디스크(disc)를 포함하며, 여기서, 디스크(disk)들은 일반적으로 데이터를 자기적으로 재생하지만, 디스크(disc)들은 레이저들을 이용하여 광학적으로 데이터를 재생한다. 상기 조합들은 또한 컴퓨터-판독가능 매체의 범위 내에 포함되어야 한다.
이들 치환들 및 조합들의 일부 및 전부는 개별적으로 권리에 있어서 본 발명의 실시예인 것으로 고려되며, 엔지니어링 요구조건들 및/또는 컴포넌트들 사이의 통신과 전송에 적절한 통제 코드, 그리고 애플리케이션(들)의 구현은 상기 실시예들의 배치 및 사용을 통제하며 여기에서의 개별적인 실시예들을 확립함으로써 각각의 모든 것이 본 실시예이도록 한다. 그러므로, 이들 실시예들 모두는 예를 들어, 그 변형물 및 수정물은 다음의 청구범위들에 진술된 바와 같이 본 발명의 사상 및 범위 내에 속하는 것을 의미하는 것으로 의도된다.

Claims (41)

  1. 이벤트 또는 위치에 있는 대상의 관심 이동 레벨을 결정하는 컴퓨터 구현 방법으로서,
    한 이벤트 또는 위치에서 관심 특정 대상을 컴퓨터 시스템에서 식별하는 단계;
    상기 관심 대상에 관한 상기 컴퓨터 시스템에서 실시간 데이터 스트림을 수신하는 단계로서, 상기 데이터는 상기 특정 이벤트에 존재하는 하나 이상의 전자 디바이스들로부터 전송되고, 상기 전자 디바이스들은 상기 컴퓨터 시스템으로부터 원격이 되는, 수신하는 단계;
    상기 컴퓨터 시스템 상에 상기 전자 디바이스들의 각각으로부터 상기 데이터 스트림을 포함하는 데이터 값들을 저장하는 단계로서, 상기 데이터 값들은 적어도 상기 전송 전자 디바이스의 콤파스 헤딩(compass heading)과 GPS 좌표를 포함하는, 저장하는 단계;
    상기 GPS 포지션과 콤파스 헤딩에 기초하여 상기 전자 디바이스들의 각각으로부터의 시선을 결정하는 단계;
    한 쌍의 전자 디바이스들 사이의 거리 및 방향을 결정하는 단계;
    삼각 측량을 통하여 상기 쌍의 전자 디바이스들에 대한 상기 시선의 교차 지점을 계산하는 단계;
    상기 이벤트에서 각각 가능한 쌍의 전자 디바이스들에 대한 거리 및 방향의 결정과 상기 지점들의 하나의 세트를 구성하기 위한 삼각 측량을 통하여 각각 가능한 쌍의 전자 디바이스들의 시선들에 대한 교차 지점들의 계산을 반복하는 단계;
    상기 지점들의 서브세트가 하나 이상의 교차 클러스터들을 형성하는 장소를 결정하기 위한 세트의 교차 지점들 사이의 거리를 분석하는 단계로서, 상기 교차 클러스터는 다른 모든 지점들로부터 미리 결정된 거리 이내에 위치된 지점들의 서브세트이고, 각각의 교차 클러스터들은 관심 특정 대상과 연관되는, 분석하는 단계;
    상기 교차 클러스터들의 포지션과 사이즈의 변화를 결정하기 위하여 시간에 걸쳐 상기 교차 지점들의 변화를 트래킹하는 단계로서, 상기 교차 클러스터를 형성하는 지점들의 개수의 변화들이 특정 관심 대상들 사이에서 관심 이동 레벨을 식별하는, 트래킹하는 단계; 및
    상기 이벤트에서 상기 클러스터들의 형성을 모니터링하기 위한 제3 당사자에게 클러스터의 위치를 전송하는 단계를 포함하는, 컴퓨터 구현 방법.
  2. 제 1 항에 있어서,
    특정 시간에 클러스터들을 형성하는 모든 서브세트들을 식별하기 위한 지점들의 상기 세트의 상기 분석을 반복하는 단계;
    특정 클러스터와 연관된 관심 대상을 식별하는 단계;
    상기 세트를 형성하는 교차 지점들의 전체 개수와 비교되는 특정 연관된 클러스터를 형성하는 서브세트의 지점들의 개수의 비율에 기초하여 상기 식별된 대상의 관심 레벨을 결정하는 단계를 더 포함하는, 컴퓨터 구현 방법.
  3. 제 2 항에 있어서,
    상기 제 3 당사자는 브로드캐스터이고,
    상기 브로드캐스터는 하나 이상의 관심 대상들의 위치 및 관심 레벨을 수신함으로써 관람중인 청중에게 실시간으로 브로드캐스팅을 위해 어떤 대상에 초점이 맞추어지고 있는지의 결정에 도움을 주는, 컴퓨터 구현 방법.
  4. 제 2 항에 있어서,
    상기 제 3 당사자는 보안 기관이며,
    일 대상에서의 특정 위치 및 관심 레벨의 이동의 비율은 그 위치에서 가능한 보안 위험을 나타내며 이에 의해 상기 보안 기관에게 그러한 위험을 알리는, 컴퓨터 구현 방법.
  5. 제 1 항에 있어서,
    클러스터를 상기 클러스터를 형성하는 지점들의 서브세트를 계산하는데 사용되는 데이터와 연관시키는 단계;
    상기 클러스터와 연관된 데이터를 전송한 상기 전자 디바이스들을 식별하는 단계; 및
    식별된 상기 전자 디바이스들로 다시 메시지를 전송하는 단계를 더 포함하는, 컴퓨터 구현 방법.
  6. 제 5 항에 있어서,
    식별된 상기 전자 디바이스들로 전송된 메시지는 상기 전자 디바이스들 사이의 논의 그룹을 형성하기 위한 초대(invitation)인, 컴퓨터 구현 방법.
  7. 제 5 항에 있어서,
    식별된 상기 전자 디바이스들로 전송된 메시지는 상기 관심 대상에 관한 정보를 포함하는, 컴퓨터 구현 방법.
  8. 제 5 항에 있어서,
    식별된 상기 전자 디바이스들로 전송된 메시지는 제품 또는 서비스에 대한 광고인, 컴퓨터 구현 방법.
  9. 제 3 항에 있어서,
    서버 리소스들이 시선들 및 교차 지점을 계산하는데 불규칙한 데이터를 사용하기 이전에,
    상기 서버에 의해 수신된 데이터 스트림을 필터링하여 상기 불규칙한 데이터 값을 제거하는 단계를 더 포함하는, 컴퓨터 구현 방법.
  10. 삭제
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
  26. 삭제
  27. 삭제
  28. 삭제
  29. 삭제
  30. 삭제
  31. 삭제
  32. 삭제
  33. 삭제
  34. 삭제
  35. 삭제
  36. 삭제
  37. 삭제
  38. 삭제
  39. 삭제
  40. 삭제
  41. 삭제
KR1020137025660A 2011-03-07 2012-03-07 이벤트 또는 지리적 위치에 있는 이미지 제공자들로부터의 분석 데이터 수집을 위한 시스템 및 방법 KR101383238B1 (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201161450092P 2011-03-07 2011-03-07
US61/450,092 2011-03-07
US201161495335P 2011-06-09 2011-06-09
US61/495,335 2011-06-09
US201161539718P 2011-09-27 2011-09-27
US61/539,718 2011-09-27
PCT/US2012/028074 WO2012122269A2 (en) 2011-03-07 2012-03-07 Systems and methods for analytic data gathering from image providers at an event or geographic location

Publications (2)

Publication Number Publication Date
KR20130130060A KR20130130060A (ko) 2013-11-29
KR101383238B1 true KR101383238B1 (ko) 2014-04-08

Family

ID=46796937

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137025660A KR101383238B1 (ko) 2011-03-07 2012-03-07 이벤트 또는 지리적 위치에 있는 이미지 제공자들로부터의 분석 데이터 수집을 위한 시스템 및 방법

Country Status (8)

Country Link
US (3) US9020832B2 (ko)
EP (1) EP2684145A4 (ko)
JP (2) JP5530572B2 (ko)
KR (1) KR101383238B1 (ko)
CN (2) CN104765801A (ko)
AU (1) AU2012225536B9 (ko)
CA (1) CA2829597C (ko)
WO (1) WO2012122269A2 (ko)

Families Citing this family (418)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7480512B2 (en) * 2004-01-16 2009-01-20 Bones In Motion, Inc. Wireless device, program products and methods of using a wireless device to deliver services
US8554868B2 (en) 2007-01-05 2013-10-08 Yahoo! Inc. Simultaneous sharing communication interface
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
IL202460A (en) * 2009-12-01 2013-08-29 Rafael Advanced Defense Sys Method and system for creating a 3D view of real arena for military planning and operations
US8698762B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface for navigating and displaying content in context
WO2014145728A2 (en) * 2013-03-15 2014-09-18 Innovative Timing Systems, Llc System and method of an event timing system having integrated geodetic timing points
US9384408B2 (en) 2011-01-12 2016-07-05 Yahoo! Inc. Image analysis system and method using image recognition and text search
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US8918463B2 (en) * 2011-04-29 2014-12-23 Facebook, Inc. Automated event tagging
US9098529B1 (en) * 2011-05-25 2015-08-04 Google Inc. Determining content for delivery based on imagery
WO2013008238A1 (en) 2011-07-12 2013-01-17 Mobli Technologies 2010 Ltd. Methods and systems of providing visual content editing functions
US9087058B2 (en) * 2011-08-03 2015-07-21 Google Inc. Method and apparatus for enabling a searchable history of real-world user experiences
US8635519B2 (en) 2011-08-26 2014-01-21 Luminate, Inc. System and method for sharing content based on positional tagging
US9762524B2 (en) 2011-09-28 2017-09-12 Elwha Llc Multi-modality communication participation
US9503550B2 (en) 2011-09-28 2016-11-22 Elwha Llc Multi-modality communication modification
US9699632B2 (en) 2011-09-28 2017-07-04 Elwha Llc Multi-modality communication with interceptive conversion
US9788349B2 (en) 2011-09-28 2017-10-10 Elwha Llc Multi-modality communication auto-activation
US9002937B2 (en) 2011-09-28 2015-04-07 Elwha Llc Multi-party multi-modality communication
US9906927B2 (en) 2011-09-28 2018-02-27 Elwha Llc Multi-modality communication initiation
US9477943B2 (en) 2011-09-28 2016-10-25 Elwha Llc Multi-modality communication
US20130079029A1 (en) * 2011-09-28 2013-03-28 Royce A. Levien Multi-modality communication network auto-activation
US20130086112A1 (en) 2011-10-03 2013-04-04 James R. Everingham Image browsing system and method for a digital content platform
US8737678B2 (en) 2011-10-05 2014-05-27 Luminate, Inc. Platform for providing interactive applications on a digital content platform
USD737290S1 (en) 2011-10-10 2015-08-25 Yahoo! Inc. Portion of a display screen with a graphical user interface
USD736224S1 (en) 2011-10-10 2015-08-11 Yahoo! Inc. Portion of a display screen with a graphical user interface
US20130095855A1 (en) * 2011-10-13 2013-04-18 Google Inc. Method, System, and Computer Program Product for Obtaining Images to Enhance Imagery Coverage
US8494838B2 (en) 2011-11-10 2013-07-23 Globili Llc Systems, methods and apparatus for dynamic content management and delivery
US8761523B2 (en) * 2011-11-21 2014-06-24 Intellectual Ventures Fund 83 Llc Group method for making event-related media collection
US9823080B2 (en) * 2011-12-22 2017-11-21 At&T Intellectual Property I, L.P. Method, system, and computer program product for providing a facility map
US9137308B1 (en) 2012-01-09 2015-09-15 Google Inc. Method and apparatus for enabling event-based media data capture
US9406090B1 (en) 2012-01-09 2016-08-02 Google Inc. Content sharing system
US20130191219A1 (en) * 2012-01-19 2013-07-25 Zumobi, Inc. System and Method for User Generated Content in Media Advertisements
US9615015B2 (en) * 2012-01-27 2017-04-04 Disney Enterprises, Inc. Systems methods for camera control using historical or predicted event data
US11734712B2 (en) 2012-02-24 2023-08-22 Foursquare Labs, Inc. Attributing in-store visits to media consumption based on data collected from user devices
US8972357B2 (en) 2012-02-24 2015-03-03 Placed, Inc. System and method for data collection to validate location data
US20130226926A1 (en) * 2012-02-29 2013-08-29 Nokia Corporation Method and apparatus for acquiring event information on demand
US20130246396A1 (en) * 2012-03-08 2013-09-19 Blue Waters Holdings Llc Multi-Source Decision Support System
US8255495B1 (en) 2012-03-22 2012-08-28 Luminate, Inc. Digital image and content display systems and methods
TWI519167B (zh) * 2012-04-23 2016-01-21 廣達電腦股份有限公司 運用後設資料來進行目標辨識與事件重現之系統
WO2013166588A1 (en) 2012-05-08 2013-11-14 Bitstrips Inc. System and method for adaptable avatars
US8495489B1 (en) 2012-05-16 2013-07-23 Luminate, Inc. System and method for creating and displaying image annotations
US10430404B2 (en) * 2012-05-22 2019-10-01 Nitin Gambhir System and method for tracking events
US10489389B2 (en) 2012-06-07 2019-11-26 Wormhole Labs, Inc. Experience analytic objects, systems and methods
US10700944B2 (en) 2012-06-07 2020-06-30 Wormhole Labs, Inc. Sensor data aggregation system
US10649613B2 (en) 2012-06-07 2020-05-12 Wormhole Labs, Inc. Remote experience interfaces, systems and methods
US8861804B1 (en) * 2012-06-15 2014-10-14 Shutterfly, Inc. Assisted photo-tagging with facial recognition models
US9531993B1 (en) * 2012-06-22 2016-12-27 Google Inc. Dynamic companion online campaign for television content
US9584834B1 (en) 2012-06-25 2017-02-28 Google Inc. Video broadcasting with geolocation
US9020835B2 (en) * 2012-07-13 2015-04-28 Facebook, Inc. Search-powered connection targeting
US20140025755A1 (en) * 2012-07-20 2014-01-23 Google Inc. Inferring events based on mob source video
US9460205B2 (en) 2012-07-20 2016-10-04 Google Inc. Crowdsourced video collaboration
JP6004807B2 (ja) * 2012-07-24 2016-10-12 キヤノン株式会社 画像処理装置、その制御方法、プログラム
JP5888172B2 (ja) * 2012-08-02 2016-03-16 ソニー株式会社 データ記憶装置およびプログラム
WO2014031899A1 (en) 2012-08-22 2014-02-27 Goldrun Corporation Augmented reality virtual content platform apparatuses, methods and systems
US20140067542A1 (en) * 2012-08-30 2014-03-06 Luminate, Inc. Image-Based Advertisement and Content Analysis and Display Systems
US9171015B2 (en) * 2012-09-14 2015-10-27 At&T Intellectual Property I, L.P. Sharing asserted media
US20140108340A1 (en) * 2012-10-17 2014-04-17 Capture Media, Inc. Targeted media capture platforms, networks, and software
US20140122352A1 (en) * 2012-10-31 2014-05-01 Garrett William Gleim Method and system for reporting hunting harvests to reporting agency
US8775972B2 (en) 2012-11-08 2014-07-08 Snapchat, Inc. Apparatus and method for single action control of social network profile access
US9223932B1 (en) * 2012-11-24 2015-12-29 Mach 7 Technologies, Inc. Handheld medical imaging mobile modality
US9210477B2 (en) * 2012-11-29 2015-12-08 Fanvision Entertainment Llc Mobile device with location-based content
US9703807B2 (en) * 2012-12-10 2017-07-11 Pixia Corp. Method and system for wide area motion imagery discovery using KML
US8837906B2 (en) 2012-12-14 2014-09-16 Motorola Solutions, Inc. Computer assisted dispatch incident report video search and tagging systems and methods
KR20150100795A (ko) 2012-12-19 2015-09-02 팬픽스, 엘엘씨 그룹 이벤트에서의 영상 캡처, 처리 및 전달
US9066009B2 (en) 2012-12-20 2015-06-23 Google Inc. Method for prompting photographs of events
US9424280B2 (en) * 2012-12-28 2016-08-23 Animoto Inc. Organizing media items based on metadata similarities
KR20140109563A (ko) * 2013-03-04 2014-09-16 건국대학교 산학협력단 Ucc업로드 이벤트를 이용한 가시화 및 서비스 방법과 시스템
US9538725B2 (en) * 2013-03-08 2017-01-10 Eb Partners Mobile telephone dog training tool and method
US20140258850A1 (en) * 2013-03-11 2014-09-11 Mathew R. Carey Systems and Methods for Managing the Display of Images
US9648129B2 (en) 2013-03-13 2017-05-09 Facebook, Inc. Image filtering based on social context
US9461958B1 (en) * 2013-03-13 2016-10-04 Greenfly, Inc. Methods and system for distributing information via multiple forms of delivery services
US8782140B1 (en) 2013-03-13 2014-07-15 Greenfly Digital, LLC Methods and system for distributing information via multiple forms of delivery services
US8844050B1 (en) * 2013-03-15 2014-09-23 Athoc, Inc. Personnel crisis communications management and personnel status tracking system
US10365945B2 (en) 2013-03-27 2019-07-30 International Business Machines Corporation Clustering based process deviation detection
US9564175B2 (en) * 2013-04-02 2017-02-07 International Business Machines Corporation Clustering crowdsourced videos by line-of-sight
US20140327779A1 (en) * 2013-05-01 2014-11-06 Nokia Corporation Method and apparatus for providing crowdsourced video
US9014726B1 (en) * 2013-05-03 2015-04-21 Google Inc. Systems and methods for recommending photogenic locations to visit
US9514491B2 (en) * 2013-05-10 2016-12-06 Cellco Partnership Associating analytics data with an image
US9589189B2 (en) * 2013-05-23 2017-03-07 Cellco Partnership Device for mapping physical world with virtual information
US10439972B1 (en) 2013-05-30 2019-10-08 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US9705831B2 (en) 2013-05-30 2017-07-11 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US9742713B2 (en) 2013-05-30 2017-08-22 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
RU2538941C1 (ru) * 2013-06-14 2015-01-10 Общество с ограниченной ответственностью "Аби Девелопмент" Улучшения качества распознавания за счет повышения разрешения изображений
CN105230113B (zh) * 2013-06-26 2019-06-14 英特尔Ip公司 优化无线设备中的分布式位置管理实体
US20150046194A1 (en) * 2013-08-07 2015-02-12 Hartford Fire Insurance Company System and method for using crowd sourced data for insurance claims based analysis
WO2015031863A1 (en) * 2013-08-29 2015-03-05 FanPix, LLC Imaging attendees at event venues
US9208171B1 (en) * 2013-09-05 2015-12-08 Google Inc. Geographically locating and posing images in a large-scale image repository and processing framework
JP6187811B2 (ja) * 2013-09-09 2017-08-30 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
US10049413B2 (en) * 2013-09-20 2018-08-14 Vulcan Technologies Llc Automatically creating a hierarchical storyline from mobile device data
US20150106195A1 (en) * 2013-10-10 2015-04-16 Elwha Llc Methods, systems, and devices for handling inserted data into captured images
US10346624B2 (en) 2013-10-10 2019-07-09 Elwha Llc Methods, systems, and devices for obscuring entities depicted in captured images
US20150104004A1 (en) 2013-10-10 2015-04-16 Elwha Llc Methods, systems, and devices for delivering image data from captured images to devices
US10013564B2 (en) 2013-10-10 2018-07-03 Elwha Llc Methods, systems, and devices for handling image capture devices and captured images
US9799036B2 (en) 2013-10-10 2017-10-24 Elwha Llc Devices, methods, and systems for managing representations of entities through use of privacy indicators
US10185841B2 (en) 2013-10-10 2019-01-22 Elwha Llc Devices, methods, and systems for managing representations of entities through use of privacy beacons
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
FR3012279B1 (fr) * 2013-10-23 2017-02-17 Vogo Procede de diffusion multipoints
CN103595992B (zh) * 2013-11-08 2016-10-12 深圳市奥拓电子股份有限公司 一种球场led显示屏系统及其实现广告精准投放的插播方法
US20150139601A1 (en) * 2013-11-15 2015-05-21 Nokia Corporation Method, apparatus, and computer program product for automatic remix and summary creation using crowd-sourced intelligence
US20150142537A1 (en) * 2013-11-18 2015-05-21 Verizon Patent And Licensing Inc. Receiving product/service information and content based on a captured image
US9450771B2 (en) * 2013-11-20 2016-09-20 Blab, Inc. Determining information inter-relationships from distributed group discussions
US9986140B2 (en) * 2013-11-21 2018-05-29 International Business Machines Corporation Utilizing metadata for automated photographic setup
US9083770B1 (en) 2013-11-26 2015-07-14 Snapchat, Inc. Method and system for integrating real time communication features in applications
CA2863124A1 (en) 2014-01-03 2015-07-03 Investel Capital Corporation User content sharing system and method with automated external content integration
US9628950B1 (en) 2014-01-12 2017-04-18 Investment Asset Holdings Llc Location-based messaging
US20150199380A1 (en) * 2014-01-16 2015-07-16 Microsoft Corporation Discovery of viewsheds and vantage points by mining geo-tagged data
US9760954B2 (en) * 2014-01-16 2017-09-12 International Business Machines Corporation Visual focal point composition for media capture based on a target recipient audience
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US20150294156A1 (en) * 2014-04-14 2015-10-15 Osterhout Group, Inc. Sight information collection in head worn computing
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US9532714B2 (en) 2014-01-21 2017-01-03 Osterhout Group, Inc. Eye imaging in head worn computing
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9523856B2 (en) 2014-01-21 2016-12-20 Osterhout Group, Inc. See-through computer display systems
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US9811159B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US9473745B2 (en) 2014-01-30 2016-10-18 Google Inc. System and method for providing live imagery associated with map locations
US9661260B2 (en) * 2014-02-03 2017-05-23 Synchronoss Technologies, Inc. Photograph or video tagging based on peered devices
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US20150241963A1 (en) 2014-02-11 2015-08-27 Osterhout Group, Inc. Eye imaging in head worn computing
US10082926B1 (en) 2014-02-21 2018-09-25 Snap Inc. Apparatus and method for alternate channel communication initiated through a common message thread
US9462054B2 (en) 2014-02-27 2016-10-04 Dropbox, Inc. Systems and methods for providing a user with a set of interactivity features locally on a user device
US9112936B1 (en) 2014-02-27 2015-08-18 Dropbox, Inc. Systems and methods for ephemeral eventing
US9912743B2 (en) * 2014-02-28 2018-03-06 Skycapital Investors, Llc Real-time collection and distribution of information for an event organized according to sub-events
US10979249B1 (en) * 2014-03-02 2021-04-13 Twitter, Inc. Event-based content presentation using a social media platform
US8909725B1 (en) 2014-03-07 2014-12-09 Snapchat, Inc. Content delivery network for ephemeral objects
JP5940579B2 (ja) * 2014-03-20 2016-06-29 ヤフー株式会社 移動制御装置、移動制御方法及び移動制御システム
US9992246B2 (en) * 2014-03-27 2018-06-05 Tvu Networks Corporation Methods, apparatus, and systems for instantly sharing video content on social media
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US10482658B2 (en) * 2014-03-31 2019-11-19 Gary Stephen Shuster Visualization and control of remote objects
US9351118B2 (en) * 2014-04-11 2016-05-24 Keith Crutchfield Apparatus, systems and methods for visually connecting people
US11026046B2 (en) 2014-04-11 2021-06-01 Flaregun Inc. Apparatus, systems and methods for visually connecting people
US10453328B2 (en) * 2014-04-14 2019-10-22 Vivint, Inc. Systems and methods for crowdsourcing detected events
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9276886B1 (en) 2014-05-09 2016-03-01 Snapchat, Inc. Apparatus and method for dynamically configuring application component tiles
US20150331930A1 (en) * 2014-05-16 2015-11-19 Here Global B.V. Method and apparatus for classification of media based on metadata
WO2015179866A1 (en) * 2014-05-23 2015-11-26 Life Music Integration, LLC System and method for organizing artistic media based on cognitive associations with personal memories
US9537811B2 (en) 2014-10-02 2017-01-03 Snap Inc. Ephemeral gallery of ephemeral messages
US9396354B1 (en) 2014-05-28 2016-07-19 Snapchat, Inc. Apparatus and method for automated privacy protection in distributed images
EP3153976A4 (en) * 2014-06-03 2018-01-31 Sony Corporation Information processing device, photographing device, image sharing system, information processing method, and program
EP2953085A1 (en) 2014-06-05 2015-12-09 Mobli Technologies 2010 Ltd. Web document enhancement
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
US9113301B1 (en) 2014-06-13 2015-08-18 Snapchat, Inc. Geo-location based event gallery
US9854015B2 (en) * 2014-06-25 2017-12-26 International Business Machines Corporation Incident data collection for public protection agencies
US9225897B1 (en) 2014-07-07 2015-12-29 Snapchat, Inc. Apparatus and method for supplying content aware photo filters
US10572902B2 (en) 2014-07-11 2020-02-25 ProSports Technologies, LLC Camera-based digital content distribution
KR102150703B1 (ko) 2014-08-14 2020-09-01 한화테크윈 주식회사 지능형 비디오 분석 시스템에서 비디오를 분석하는 방법 및 시스템
US9414197B2 (en) * 2014-08-15 2016-08-09 Google Technology Holdings LLC Identifying personalized meaningful locations
US10055717B1 (en) 2014-08-22 2018-08-21 Snap Inc. Message processor with application prompts
US9417090B2 (en) 2014-09-11 2016-08-16 ProSports Technologies, LLC System to offer coupons to fans along routes to game
US10423983B2 (en) 2014-09-16 2019-09-24 Snap Inc. Determining targeting information based on a predictive targeting model
US10824654B2 (en) 2014-09-18 2020-11-03 Snap Inc. Geolocation-based pictographs
US11216869B2 (en) 2014-09-23 2022-01-04 Snap Inc. User interface to augment an image using geolocation
US20170155970A1 (en) * 2014-09-24 2017-06-01 Jianhua Cao Plug and Play Method and System of Viewing Live and Recorded Contents
US20160092930A1 (en) * 2014-09-29 2016-03-31 Kast Inc. Method and system for gathering data for targeted advertisements
US10284508B1 (en) 2014-10-02 2019-05-07 Snap Inc. Ephemeral gallery of ephemeral messages with opt-in permanence
US20160111127A1 (en) * 2014-10-16 2016-04-21 International Business Machines Corporation Generating a Composite Video of an Event Having a Moving Point of Attraction
WO2016069498A1 (en) 2014-10-26 2016-05-06 Galileo Group, Inc. Temporal processes for aggregating multi dimensional data collection from discrete and distributed collectors using machine-to-machine networks and smartphones to provide enhanced space-time perspective for monitoring changes using algorithmic techniques
EP3016005A1 (en) * 2014-10-31 2016-05-04 Korea Advanced Institute Of Science And Technology Method and system for offering of similar photos in real time based on photographing context information of a geographically proximate user group
US10148993B2 (en) * 2014-11-10 2018-12-04 Swarms Ventures, Llc Method and system for programmable loop recording
US9015285B1 (en) 2014-11-12 2015-04-21 Snapchat, Inc. User interface for accessing media at a geographic location
US10931769B2 (en) * 2014-11-12 2021-02-23 Stringr Inc. Location-based method and system for requesting and obtaining images
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
US9854219B2 (en) 2014-12-19 2017-12-26 Snap Inc. Gallery of videos set to an audio time line
US10311916B2 (en) 2014-12-19 2019-06-04 Snap Inc. Gallery of videos set to an audio time line
US9385983B1 (en) 2014-12-19 2016-07-05 Snapchat, Inc. Gallery of messages from individuals with a shared interest
USD743963S1 (en) 2014-12-22 2015-11-24 Osterhout Group, Inc. Air mouse
US9576120B2 (en) * 2014-12-29 2017-02-21 Paypal, Inc. Authenticating activities of accounts
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
EP3243181B1 (en) * 2015-01-05 2021-10-20 PicPocket Labs, Inc. Use of a dynamic geofence to control media sharing and aggregation associated with a mobile target
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
US9754355B2 (en) 2015-01-09 2017-09-05 Snap Inc. Object recognition based photo filters
US11388226B1 (en) 2015-01-13 2022-07-12 Snap Inc. Guided personal identity based actions
US10133705B1 (en) 2015-01-19 2018-11-20 Snap Inc. Multichannel system
US9521515B2 (en) 2015-01-26 2016-12-13 Mobli Technologies 2010 Ltd. Content request by location
US10152480B2 (en) 2015-01-31 2018-12-11 Splunk Inc. Archiving indexed data
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
US11080977B2 (en) 2015-02-24 2021-08-03 Hiroshi Aoyama Management system, server, management device, and management method
EP3264751A4 (en) * 2015-02-24 2018-03-28 Hiroshi Aoyama Management system, server, management device, and management method
US10223397B1 (en) 2015-03-13 2019-03-05 Snap Inc. Social graph based co-location of network users
KR102035405B1 (ko) 2015-03-18 2019-10-22 스냅 인코포레이티드 지오-펜스 인가 프로비저닝
US9692967B1 (en) 2015-03-23 2017-06-27 Snap Inc. Systems and methods for reducing boot time and power consumption in camera systems
US9881094B2 (en) 2015-05-05 2018-01-30 Snap Inc. Systems and methods for automated local story generation and curation
US10135949B1 (en) 2015-05-05 2018-11-20 Snap Inc. Systems and methods for story and sub-story navigation
US9390323B1 (en) 2015-05-18 2016-07-12 International Business Machines Corporation Recommending sites through metadata analysis
EP4198626A1 (en) 2015-05-27 2023-06-21 GoPro, Inc. Camera system using stabilizing gimbal
US10691661B2 (en) 2015-06-03 2020-06-23 Xilinx, Inc. System and method for managing the storing of data
US10733167B2 (en) 2015-06-03 2020-08-04 Xilinx, Inc. System and method for capturing data to provide to a data analyser
US9916075B2 (en) 2015-06-05 2018-03-13 Apple Inc. Formatting content for a reduced-size user interface
RU2015125820A (ru) * 2015-06-30 2017-01-10 Общество С Ограниченной Ответственностью "Яндекс" Способ и сервер обработки пользовательского запроса на предоставление рекомендованной области интереса
JP6785305B2 (ja) 2015-07-15 2020-11-18 15 セカンズ オブ フェイム,インコーポレイテッド 顔認識及びコンテキストビデオストリームで個人を識別するためのビデオ解析技術のための装置及び方法
US10993069B2 (en) 2015-07-16 2021-04-27 Snap Inc. Dynamically adaptive media content delivery
US10817898B2 (en) 2015-08-13 2020-10-27 Placed, Llc Determining exposures to content presented by physical objects
US10270820B2 (en) * 2015-08-18 2019-04-23 Microsoft Technology Licensing, Llc Impromptu community streamer
WO2017036953A1 (en) * 2015-09-02 2017-03-09 Thomson Licensing Method, apparatus and system for facilitating navigation in an extended scene
US9832504B2 (en) 2015-09-15 2017-11-28 Google Inc. Event-based content distribution
ITUB20153981A1 (it) * 2015-09-29 2017-03-29 Hera S P A Metodo e sistema per la segnalazione di anomalie relative al servizio di raccolta rifiuti.
US9984309B2 (en) * 2015-09-30 2018-05-29 International Business Machines Corporation Classifying and grouping electronic images
SG11201909024XA (en) * 2015-10-19 2019-11-28 Skansense S L U Obtaining data from targets using imagery and other remote sensing data
AU2016342028B2 (en) 2015-10-21 2020-08-20 15 Seconds of Fame, Inc. Methods and apparatus for false positive minimization in facial recognition applications
US9652896B1 (en) 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
US9984499B1 (en) 2015-11-30 2018-05-29 Snap Inc. Image and point cloud based tracking and in augmented reality systems
US10474321B2 (en) 2015-11-30 2019-11-12 Snap Inc. Network resource location linking and visual content sharing
US10623371B2 (en) * 2015-12-01 2020-04-14 Cisco Technology, Inc. Providing network behavior visibility based on events logged by network security devices
EP3384678B1 (en) * 2015-12-04 2023-09-20 Sling Media L.L.C. Network-based event recording
US10397208B2 (en) * 2015-12-11 2019-08-27 Paypal, Inc. Authentication via item recognition
US10354425B2 (en) 2015-12-18 2019-07-16 Snap Inc. Method and system for providing context relevant media augmentation
CN105630993A (zh) * 2015-12-25 2016-06-01 北京金山安全软件有限公司 一种图片获取方法及装置
US11115785B2 (en) 2016-01-14 2021-09-07 Motorola Solutions, Inc. Managing communication groups based on objects in image feeds
IL243772B (en) * 2016-01-25 2018-03-29 Everysight Ltd Dynamic ad-hoc networks for content sharing, based on line of sight
US11050845B2 (en) 2016-02-25 2021-06-29 At&T Intellectual Property I, L.P. Method and apparatus for providing configurable event content
US10285001B2 (en) 2016-02-26 2019-05-07 Snap Inc. Generation, curation, and presentation of media collections
US11023514B2 (en) 2016-02-26 2021-06-01 Snap Inc. Methods and systems for generation, curation, and presentation of media collections
US10679389B2 (en) 2016-02-26 2020-06-09 Snap Inc. Methods and systems for generation, curation, and presentation of media collections
US10445364B2 (en) * 2016-03-16 2019-10-15 International Business Machines Corporation Micro-location based photograph metadata
US20170286994A1 (en) * 2016-03-29 2017-10-05 SETA International LLC Power buy system
US10339365B2 (en) 2016-03-31 2019-07-02 Snap Inc. Automated avatar generation
US11900418B2 (en) 2016-04-04 2024-02-13 Snap Inc. Mutable geo-fencing system
CN107276782B (zh) * 2016-04-07 2020-10-16 中国移动通信集团福建有限公司 一种信息处理方法、设备和系统
US10346466B2 (en) * 2016-04-18 2019-07-09 International Business Machines Corporation Methods and systems of personalized photo albums based on social media data
GB201607825D0 (en) 2016-05-04 2016-06-15 King Com Ltd A method and apparatus for processing data
JP6259864B2 (ja) * 2016-05-18 2018-01-10 株式会社オーエムアイ 多面的機能支払支援装置、多面的機能支払支援方法、およびプログラム
US20170357644A1 (en) 2016-06-12 2017-12-14 Apple Inc. Notable moments in a collection of digital assets
DK201670608A1 (en) 2016-06-12 2018-01-02 Apple Inc User interfaces for retrieving contextually relevant media content
AU2017100670C4 (en) 2016-06-12 2019-11-21 Apple Inc. User interfaces for retrieving contextually relevant media content
US10638256B1 (en) 2016-06-20 2020-04-28 Pipbin, Inc. System for distribution and display of mobile targeted augmented reality content
US11785161B1 (en) 2016-06-20 2023-10-10 Pipbin, Inc. System for user accessibility of tagged curated augmented reality content
US10805696B1 (en) 2016-06-20 2020-10-13 Pipbin, Inc. System for recording and targeting tagged content of user interest
US11876941B1 (en) 2016-06-20 2024-01-16 Pipbin, Inc. Clickable augmented reality content manager, system, and network
US11201981B1 (en) 2016-06-20 2021-12-14 Pipbin, Inc. System for notification of user accessibility of curated location-dependent content in an augmented estate
US11044393B1 (en) 2016-06-20 2021-06-22 Pipbin, Inc. System for curation and display of location-dependent augmented reality content in an augmented estate system
US10334134B1 (en) 2016-06-20 2019-06-25 Maximillian John Suiter Augmented real estate with location and chattel tagging system and apparatus for virtual diary, scrapbooking, game play, messaging, canvasing, advertising and social interaction
US10430838B1 (en) 2016-06-28 2019-10-01 Snap Inc. Methods and systems for generation, curation, and presentation of media collections with automated advertising
US9681265B1 (en) 2016-06-28 2017-06-13 Snap Inc. System to track engagement of media items
US10733255B1 (en) 2016-06-30 2020-08-04 Snap Inc. Systems and methods for content navigation with automated curation
CN106028128A (zh) * 2016-07-14 2016-10-12 中青冠岳科技(北京)有限公司 一种基于视频公告进行图文速记的方法和系统
US10348662B2 (en) 2016-07-19 2019-07-09 Snap Inc. Generating customized electronic messaging graphics
JP6460064B2 (ja) * 2016-08-24 2019-01-30 トヨタ自動車株式会社 移動体の位置情報共通管理システム
US10922823B2 (en) * 2016-08-25 2021-02-16 Nec Corporation Motion analyis device, motion analysis method, and program recording medium
KR102267482B1 (ko) 2016-08-30 2021-06-22 스냅 인코포레이티드 동시 로컬화 및 매핑을 위한 시스템 및 방법
CN117193617A (zh) 2016-09-23 2023-12-08 苹果公司 头像创建和编辑
US10390374B2 (en) * 2016-09-30 2019-08-20 Disney Enterprises, Inc. Configurable communication infrastructure for event spaces
US10432559B2 (en) 2016-10-24 2019-10-01 Snap Inc. Generating and displaying customized avatars in electronic messages
GB2555779B (en) * 2016-10-25 2020-06-03 Openworks Eng Ltd Acquisition and/or tracking of remote object
US10757221B2 (en) * 2016-10-28 2020-08-25 International Business Machines Corporation Rendering a portion of an image corresponding to an interest of a user
KR102219304B1 (ko) 2016-11-07 2021-02-23 스냅 인코포레이티드 이미지 변경자들의 선택적 식별 및 순서화
US9924324B1 (en) * 2016-11-28 2018-03-20 International Business Machines Corporation Locating multiple handheld devices
US10445565B2 (en) * 2016-12-06 2019-10-15 General Electric Company Crowd analytics via one shot learning
US10203855B2 (en) 2016-12-09 2019-02-12 Snap Inc. Customized user-controlled media overlays
US10665024B2 (en) * 2016-12-12 2020-05-26 Fyusion, Inc. Providing recording guidance in generating a multi-view interactive digital media representation
US11455593B2 (en) * 2016-12-14 2022-09-27 Ford Global Technologies, Llc Delivering items to unattended vehicles
US10580146B2 (en) * 2016-12-22 2020-03-03 Motorola Solutions, Inc. Method and system for tracking an object of interest in a talkgroup
US11616745B2 (en) 2017-01-09 2023-03-28 Snap Inc. Contextual generation and selection of customized media content
US10554909B2 (en) 2017-01-10 2020-02-04 Galileo Group, Inc. Systems and methods for spectral imaging with a transmitter using a plurality of light sources
US10893182B2 (en) 2017-01-10 2021-01-12 Galileo Group, Inc. Systems and methods for spectral imaging with compensation functions
US10454857B1 (en) 2017-01-23 2019-10-22 Snap Inc. Customized digital avatar accessories
US10915911B2 (en) 2017-02-03 2021-02-09 Snap Inc. System to determine a price-schedule to distribute media content
US11250075B1 (en) 2017-02-17 2022-02-15 Snap Inc. Searching social media content
US10319149B1 (en) 2017-02-17 2019-06-11 Snap Inc. Augmented reality anamorphosis system
US10074381B1 (en) 2017-02-20 2018-09-11 Snap Inc. Augmented reality speech balloon system
US10565795B2 (en) 2017-03-06 2020-02-18 Snap Inc. Virtual vision system
US10523625B1 (en) 2017-03-09 2019-12-31 Snap Inc. Restricted group content collection
US11128675B2 (en) 2017-03-20 2021-09-21 At&T Intellectual Property I, L.P. Automatic ad-hoc multimedia conference generator
US10582277B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
US10581782B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
WO2018183618A1 (en) * 2017-03-30 2018-10-04 Wang Kevin Sunlin System and method for healthcare billing verification
US11170393B1 (en) 2017-04-11 2021-11-09 Snap Inc. System to calculate an engagement score of location based media content
US10387730B1 (en) 2017-04-20 2019-08-20 Snap Inc. Augmented reality typography personalization system
US10382372B1 (en) 2017-04-27 2019-08-13 Snap Inc. Processing media content based on original context
US10212541B1 (en) 2017-04-27 2019-02-19 Snap Inc. Selective location-based identity communication
US11893647B2 (en) 2017-04-27 2024-02-06 Snap Inc. Location-based virtual avatars
CN110800018A (zh) 2017-04-27 2020-02-14 斯纳普公司 用于社交媒体平台的朋友位置共享机制
US10467147B1 (en) 2017-04-28 2019-11-05 Snap Inc. Precaching unlockable data elements
US10803120B1 (en) 2017-05-31 2020-10-13 Snap Inc. Geolocation based playlists
US10157476B1 (en) * 2017-06-15 2018-12-18 Satori Worldwide, Llc Self-learning spatial recognition system
WO2018232412A1 (en) * 2017-06-16 2018-12-20 Skycam, Llc Infinite virtual pan tilt zoom camera
US10311616B2 (en) * 2017-06-30 2019-06-04 Intel Corporation Methods and apparatus to define augmented content regions for augmented reality systems
US10402698B1 (en) * 2017-07-10 2019-09-03 Gopro, Inc. Systems and methods for identifying interesting moments within videos
US10740612B2 (en) * 2017-07-20 2020-08-11 International Business Machines Corporation Location determination
US10546384B2 (en) * 2017-07-21 2020-01-28 Blackberry Limited Method and system for mapping to facilitate dispatching
CN110019027B (zh) * 2017-07-28 2022-10-04 华为终端有限公司 一种文件夹命名的方法及终端
US20190043120A1 (en) * 2017-08-02 2019-02-07 William Ryu Database search-based network communication
US10574715B2 (en) 2017-08-03 2020-02-25 Streaming Global, Inc. Method and system for aggregating content streams based on sensor data
US10740446B2 (en) 2017-08-24 2020-08-11 International Business Machines Corporation Methods and systems for remote sensing device control based on facial information
US11475254B1 (en) 2017-09-08 2022-10-18 Snap Inc. Multimodal entity identification
US10740974B1 (en) 2017-09-15 2020-08-11 Snap Inc. Augmented reality system
US10499191B1 (en) 2017-10-09 2019-12-03 Snap Inc. Context sensitive presentation of content
WO2019075428A1 (en) 2017-10-12 2019-04-18 Shouty, LLC SYSTEMS AND METHODS FOR DIRECT CONTINUOUS DIFFUSION OF CLOUD STORAGE
US10573043B2 (en) 2017-10-30 2020-02-25 Snap Inc. Mobile-based cartographic control of display content
US11265273B1 (en) 2017-12-01 2022-03-01 Snap, Inc. Dynamic media overlay with smart widget
US11017173B1 (en) 2017-12-22 2021-05-25 Snap Inc. Named entity recognition visual context and caption data
US10678818B2 (en) 2018-01-03 2020-06-09 Snap Inc. Tag distribution visualization system
US10827123B1 (en) 2018-01-05 2020-11-03 Gopro, Inc. Modular image capture systems
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
US11507614B1 (en) 2018-02-13 2022-11-22 Snap Inc. Icon based tagging
US10885136B1 (en) 2018-02-28 2021-01-05 Snap Inc. Audience filtering system
US10979752B1 (en) 2018-02-28 2021-04-13 Snap Inc. Generating media content items based on location information
US10327096B1 (en) 2018-03-06 2019-06-18 Snap Inc. Geo-fence selection system
WO2019178361A1 (en) 2018-03-14 2019-09-19 Snap Inc. Generating collectible media content items based on location information
US11163941B1 (en) 2018-03-30 2021-11-02 Snap Inc. Annotating a collection of media content items
US20190318043A1 (en) * 2018-04-11 2019-10-17 Donald LEKA System and method of correlating multiple data points to create a new single data point
US10219111B1 (en) 2018-04-18 2019-02-26 Snap Inc. Visitation tracking system
EP3557559A1 (en) * 2018-04-20 2019-10-23 TMRW Foundation IP & Holding S.A.R.L. Sports events broadcasting systems and methods
JP6921031B2 (ja) * 2018-04-27 2021-08-18 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置及び撮影方法
US10699140B2 (en) * 2018-05-04 2020-06-30 Qualcomm Incorporated System and method for capture and distribution of information collected from signs
US11243996B2 (en) 2018-05-07 2022-02-08 Apple Inc. Digital asset search user interface
DK180171B1 (en) 2018-05-07 2020-07-14 Apple Inc USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT
US11086935B2 (en) 2018-05-07 2021-08-10 Apple Inc. Smart updates from historical database changes
US10896197B1 (en) 2018-05-22 2021-01-19 Snap Inc. Event detection system
US10679393B2 (en) 2018-07-24 2020-06-09 Snap Inc. Conditional modification of augmented reality object
US11399137B2 (en) * 2018-08-10 2022-07-26 Aurora Flight Sciences Corporation Object-tracking system
GB2576211A (en) * 2018-08-10 2020-02-12 Sony Corp A method for mapping an object to a location in virtual space
US10936856B2 (en) 2018-08-31 2021-03-02 15 Seconds of Fame, Inc. Methods and apparatus for reducing false positives in facial recognition
US10997760B2 (en) 2018-08-31 2021-05-04 Snap Inc. Augmented reality anthropomorphization system
US10846343B2 (en) 2018-09-11 2020-11-24 Apple Inc. Techniques for disambiguating clustered location identifiers
US10803135B2 (en) 2018-09-11 2020-10-13 Apple Inc. Techniques for disambiguating clustered occurrence identifiers
JP7099925B2 (ja) * 2018-09-27 2022-07-12 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
US10698583B2 (en) 2018-09-28 2020-06-30 Snap Inc. Collaborative achievement interface
US10778623B1 (en) 2018-10-31 2020-09-15 Snap Inc. Messaging and gaming applications communication platform
US10939236B1 (en) 2018-11-30 2021-03-02 Snap Inc. Position service to determine relative position to map features
US11199957B1 (en) 2018-11-30 2021-12-14 Snap Inc. Generating customized avatars based on location information
GB201820541D0 (en) * 2018-12-17 2019-01-30 Spelfie Ltd Imaging method and system
EP3675483A1 (en) * 2018-12-28 2020-07-01 Ricoh Company, Ltd. Content server, information sharing system, communication control method, and carrier means
US11032670B1 (en) 2019-01-14 2021-06-08 Snap Inc. Destination sharing in location sharing system
US10939246B1 (en) 2019-01-16 2021-03-02 Snap Inc. Location-based context information sharing in a messaging system
US11294936B1 (en) 2019-01-30 2022-04-05 Snap Inc. Adaptive spatial density based clustering
US10936066B1 (en) 2019-02-13 2021-03-02 Snap Inc. Sleep detection in a location sharing system
US10838599B2 (en) 2019-02-25 2020-11-17 Snap Inc. Custom media overlay system
US10964082B2 (en) 2019-02-26 2021-03-30 Snap Inc. Avatar based on weather
CN109902681B (zh) * 2019-03-04 2022-06-21 苏州达家迎信息技术有限公司 用户群体关系确定方法、装置、设备及存储介质
US11010596B2 (en) 2019-03-07 2021-05-18 15 Seconds of Fame, Inc. Apparatus and methods for facial recognition systems to identify proximity-based connections
US10852918B1 (en) 2019-03-08 2020-12-01 Snap Inc. Contextual information in chat
US11868414B1 (en) 2019-03-14 2024-01-09 Snap Inc. Graph-based prediction for contact suggestion in a location sharing system
US11852554B1 (en) 2019-03-21 2023-12-26 Snap Inc. Barometer calibration in a location sharing system
US11249614B2 (en) 2019-03-28 2022-02-15 Snap Inc. Generating personalized map interface with enhanced icons
US10810782B1 (en) 2019-04-01 2020-10-20 Snap Inc. Semantic texture mapping system
US10693956B1 (en) 2019-04-19 2020-06-23 Greenfly, Inc. Methods and systems for secure information storage and delivery
KR102249383B1 (ko) * 2019-04-25 2021-05-07 군산대학교 산학협력단 지오 태그 사진들로부터 어트랙션 지역을 발견하는 방법 및 이를 수행하는 장치
US10560898B1 (en) 2019-05-30 2020-02-11 Snap Inc. Wearable device location systems
US10582453B1 (en) 2019-05-30 2020-03-03 Snap Inc. Wearable device location systems architecture
US10893385B1 (en) 2019-06-07 2021-01-12 Snap Inc. Detection of a physical collision between two client devices in a location sharing system
US11270338B2 (en) * 2019-06-19 2022-03-08 International Business Machines Corporation Optimizing a digital display
US11307747B2 (en) 2019-07-11 2022-04-19 Snap Inc. Edge gesture interface with smart interactions
CN112396441B (zh) * 2019-08-14 2023-08-22 腾讯科技(深圳)有限公司 一种数据处理方法、装置以及可读存储介质
US11821742B2 (en) 2019-09-26 2023-11-21 Snap Inc. Travel based notifications
US11218838B2 (en) 2019-10-31 2022-01-04 Snap Inc. Focused map-based context information surfacing
US11023729B1 (en) * 2019-11-08 2021-06-01 Msg Entertainment Group, Llc Providing visual guidance for presenting visual content in a venue
US11128715B1 (en) 2019-12-30 2021-09-21 Snap Inc. Physical friend proximity in chat
US10880496B1 (en) 2019-12-30 2020-12-29 Snap Inc. Including video feed in message thread
US11429618B2 (en) 2019-12-30 2022-08-30 Snap Inc. Surfacing augmented reality objects
KR102312523B1 (ko) * 2019-12-31 2021-10-13 주식회사 포스코아이씨티 대량의 데이터 수집을 위한 인터페이스 미들웨어 시스템
US11343323B2 (en) 2019-12-31 2022-05-24 Snap Inc. Augmented reality objects registry
US11169658B2 (en) 2019-12-31 2021-11-09 Snap Inc. Combined map icon with action indicator
US11341351B2 (en) 2020-01-03 2022-05-24 15 Seconds of Fame, Inc. Methods and apparatus for facial recognition on a user device
WO2021154418A1 (en) * 2020-01-31 2021-08-05 Tuckman Jonah Tal System and method for mobile advertising
US11228551B1 (en) 2020-02-12 2022-01-18 Snap Inc. Multiple gateway message exchange
US11516167B2 (en) 2020-03-05 2022-11-29 Snap Inc. Storing data based on device location
US11619501B2 (en) 2020-03-11 2023-04-04 Snap Inc. Avatar based on trip
CN111488799B (zh) * 2020-03-13 2020-12-15 安徽小眯当家信息技术有限公司 一种基于图像识别的坠落物识别方法及系统
US11430091B2 (en) 2020-03-27 2022-08-30 Snap Inc. Location mapping for large scale augmented-reality
US10956743B1 (en) 2020-03-27 2021-03-23 Snap Inc. Shared augmented reality system
US11503432B2 (en) 2020-06-15 2022-11-15 Snap Inc. Scalable real-time location sharing framework
US11483267B2 (en) 2020-06-15 2022-10-25 Snap Inc. Location sharing using different rate-limited links
US11314776B2 (en) 2020-06-15 2022-04-26 Snap Inc. Location sharing using friend list versions
US11290851B2 (en) 2020-06-15 2022-03-29 Snap Inc. Location sharing using offline and online objects
US11308327B2 (en) 2020-06-29 2022-04-19 Snap Inc. Providing travel-based augmented reality content with a captured image
US11349797B2 (en) 2020-08-31 2022-05-31 Snap Inc. Co-location connection service
TWI737479B (zh) * 2020-09-03 2021-08-21 國立勤益科技大學 動態廣告顯示系統
CN112036387B (zh) * 2020-11-06 2021-02-09 成都索贝数码科技股份有限公司 基于门控卷积神经网络的新闻画面拍摄角度识别方法
EP4248336A4 (en) * 2020-11-19 2024-04-10 Pixellot Ltd SYSTEM AND METHOD FOR AUTOMATIC VIDEO PRODUCTION BASED ON A READY-TO-USE VIDEO CAMERA
CA3201122A1 (en) * 2020-12-04 2022-06-09 Andrea Gibb JACOBS System and method for bi-directional communication for performances
KR102320628B1 (ko) * 2021-01-08 2021-11-02 강승훈 머신러닝 기반 정밀 위치 정보 제공 시스템 및 그 제공 방법
CN112836088B (zh) * 2021-02-24 2023-07-18 腾讯科技(深圳)有限公司 用于生成与视频对应的标签的方法、设备和介质
US11610224B2 (en) * 2021-03-16 2023-03-21 International Business Machines Corporation Electronic display systems
KR102561252B1 (ko) * 2021-03-18 2023-07-28 인하대학교 산학협력단 자동품질확인이 가능한 블록체인기반 크라우드 소싱방법
US11606756B2 (en) 2021-03-29 2023-03-14 Snap Inc. Scheduling requests for location data
US11645324B2 (en) 2021-03-31 2023-05-09 Snap Inc. Location-based timeline media content system
US20220393896A1 (en) * 2021-06-08 2022-12-08 International Business Machines Corporation Multi-user camera switch icon during video call
US20230109923A1 (en) * 2021-10-12 2023-04-13 cultureNow, Inc. Systems and methods for electronic information presentation
US11829834B2 (en) 2021-10-29 2023-11-28 Snap Inc. Extended QR code
WO2023182022A1 (ja) * 2022-03-25 2023-09-28 ソニーグループ株式会社 情報処理装置、情報処理方法、端末装置及び出力方法
US11842510B2 (en) 2022-05-07 2023-12-12 Pano AI, Inc. Systems and methods for true north orientation
CN114915727B (zh) * 2022-05-12 2023-06-06 北京国基科技股份有限公司 一种视频监控画面构建方法及装置
CN115527180B (zh) * 2022-11-03 2023-05-23 北京贝能达信息技术股份有限公司 一种基于图像识别技术的车厢拥挤度识别系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090319166A1 (en) 2008-06-20 2009-12-24 Microsoft Corporation Mobile computing services based on devices with dynamic direction information

Family Cites Families (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7448063B2 (en) 1991-11-25 2008-11-04 Actv, Inc. Digital interactive system for providing full interactivity with live programming events
CA2127765C (en) 1993-08-24 2000-12-12 James Gifford Evans Personalized image recording system
EP0715453B1 (en) 1994-11-28 2014-03-26 Canon Kabushiki Kaisha Camera controller
US5729471A (en) 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
US5850352A (en) 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US6002995A (en) 1995-12-19 1999-12-14 Canon Kabushiki Kaisha Apparatus and method for displaying control information of cameras connected to a network
US5917958A (en) 1996-10-31 1999-06-29 Sensormatic Electronics Corporation Distributed video data base with remote searching for image data features
JP3710257B2 (ja) 1997-06-10 2005-10-26 キヤノン株式会社 カメラ制御システムおよびその制御方法およびその制御を実行するプログラムを記憶した記憶媒体
US6697103B1 (en) 1998-03-19 2004-02-24 Dennis Sunga Fernandez Integrated network for monitoring remote objects
JP2000069346A (ja) 1998-06-12 2000-03-03 Canon Inc カメラ制御装置、方法、カメラ、追尾カメラシステム及びコンピュ―タ読み取り可能な記憶媒体
US7576770B2 (en) 2003-02-11 2009-08-18 Raymond Metzger System for a plurality of video cameras disposed on a common network
US7106360B1 (en) 1999-08-10 2006-09-12 U'r There! Entertainment, Ltd. Method for distributing sports entertainment
US6507802B1 (en) * 2000-02-16 2003-01-14 Hrl Laboratories, Llc Mobile user collaborator discovery method and apparatus
JP2001236350A (ja) 2000-02-21 2001-08-31 E Web:Kk 告知広告生成チャットシステム
EP1269754A4 (en) 2000-03-14 2009-03-11 Joseph Robert Marchese DIGITAL VIDEO SYSTEM USING NETWORKED CAMERAS
AU2001264723A1 (en) 2000-05-18 2001-11-26 Imove Inc. Multiple camera video system which displays selected images
US7782363B2 (en) 2000-06-27 2010-08-24 Front Row Technologies, Llc Providing multiple video perspectives of activities through a data network to a remote multimedia server for selective display by remote viewing audiences
JP3992909B2 (ja) 2000-07-03 2007-10-17 富士フイルム株式会社 本人画像提供システム
US7199817B2 (en) 2000-07-26 2007-04-03 Smiths Detection Inc. Methods and systems for networked camera control
US7193645B1 (en) 2000-07-27 2007-03-20 Pvi Virtual Media Services, Llc Video system and method of operating a video system
US6591068B1 (en) 2000-10-16 2003-07-08 Disney Enterprises, Inc Method and apparatus for automatic image capture
US7031875B2 (en) * 2001-01-24 2006-04-18 Geo Vector Corporation Pointing systems for addressing objects
US7027083B2 (en) 2001-02-12 2006-04-11 Carnegie Mellon University System and method for servoing on a moving fixation point within a dynamic scene
US6834266B2 (en) * 2001-10-11 2004-12-21 Profitlogic, Inc. Methods for estimating the seasonality of groups of similar items of commerce data sets based on historical sales data values and associated error information
WO2003041411A1 (en) 2001-11-08 2003-05-15 Revolution Company, Llc Video system and methods for operating a video system
US8611919B2 (en) * 2002-05-23 2013-12-17 Wounder Gmbh., Llc System, method, and computer program product for providing location based services and mobile e-commerce
US7447380B2 (en) 2002-09-12 2008-11-04 Inoe Technologies, Llc Efficient method for creating a viewpoint from plurality of images
US7631261B2 (en) 2002-09-12 2009-12-08 Inoue Technologies, LLC Efficient method for creating a visual telepresence for large numbers of simultaneous users
US20040075752A1 (en) 2002-10-18 2004-04-22 Eastman Kodak Company Correlating asynchronously captured event data and images
GB2397908A (en) 2003-01-31 2004-08-04 Hewlett Packard Co Image-capture event monitoring
US7242423B2 (en) 2003-06-16 2007-07-10 Active Eye, Inc. Linking zones for object tracking and camera handoff
JP4195991B2 (ja) 2003-06-18 2008-12-17 パナソニック株式会社 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ
KR20050042399A (ko) 2003-11-03 2005-05-09 삼성전자주식회사 게이즈 디텍션을 이용한 비디오 데이터 처리 장치 및 방법
KR100458459B1 (ko) * 2004-01-27 2004-11-26 엔에이치엔(주) 검색자의 검색 요청에 응답하여 검색 결과 목록을생성하고 검색어 광고를 제공하는 방법 및 검색어 광고제공 시스템
EP1757087A4 (en) 2004-04-16 2009-08-19 James A Aman AUTOMATIC VIDEO RECORDING OF EVENTS, PURSUIT AND CONTENT PRODUCTION SYSTEM
WO2006046234A2 (en) 2004-10-25 2006-05-04 Magal Security Systems Ltd. System and apparatus for multi media surveillance
US7460150B1 (en) 2005-03-14 2008-12-02 Avaya Inc. Using gaze detection to determine an area of interest within a scene
EP2498210A1 (en) 2005-07-22 2012-09-12 Kangaroo Media, Inc. System and methods for enhancing the experience of spectators attending a live sporting event
US7495687B2 (en) 2005-09-07 2009-02-24 F4W, Inc. System and methods for video surveillance in networks
JP2007102343A (ja) * 2005-09-30 2007-04-19 Fujifilm Corp 関心度測定装置および方法並びに関心度算出プログラム
US20070146484A1 (en) 2005-11-16 2007-06-28 Joshua Horton Automated video system for context-appropriate object tracking
US7856360B2 (en) 2006-01-30 2010-12-21 Hoozware, Inc. System for providing a service to venues where people aggregate
EP1999674A4 (en) 2006-03-28 2010-10-06 Hewlett Packard Development Co SYSTEM AND METHOD FOR SOCIAL NAVIGATION IN A NETWORK TIME MEDIA
CN101467454A (zh) 2006-04-13 2009-06-24 科汀科技大学 虚拟观测器
JP5130421B2 (ja) * 2006-06-18 2013-01-30 雅英 田中 通信機能を有するデジタルカメラ
US8115812B2 (en) 2006-09-20 2012-02-14 Panasonic Corporation Monitoring system, camera, and video encoding method
US8531521B2 (en) * 2006-10-06 2013-09-10 Sightlogix, Inc. Methods and apparatus related to improved surveillance using a smart camera
US20090012868A1 (en) * 2006-11-09 2009-01-08 Deangelis Douglas J Systems And Methods For Real-Time Allocation Of Digital Content
US20080147484A1 (en) * 2006-12-13 2008-06-19 Xero Mobile Inc. High speed advertising to mobile transceivers
US7840130B2 (en) 2007-03-28 2010-11-23 Honeywell International Inc. Mesh communication wireless camera system and method
US7672937B2 (en) * 2007-04-11 2010-03-02 Yahoo, Inc. Temporal targeting of advertisements
US8527655B2 (en) 2007-05-22 2013-09-03 Vidsys, Inc. Optimal routing of audio, video, and control data through heterogeneous networks
US10116904B2 (en) 2007-07-13 2018-10-30 Honeywell International Inc. Features in video analytics
US20090044235A1 (en) 2007-08-07 2009-02-12 Davidson Daniel L Method and system for on-line content acquisition and distribution
US8522289B2 (en) 2007-09-28 2013-08-27 Yahoo! Inc. Distributed automatic recording of live event
US8250616B2 (en) 2007-09-28 2012-08-21 Yahoo! Inc. Distributed live multimedia capture, feedback mechanism, and network
US20090089162A1 (en) 2007-09-28 2009-04-02 Yahoo!, Inc. Distributed live multimedia monetization mechanism and network
US8180396B2 (en) * 2007-10-18 2012-05-15 Yahoo! Inc. User augmented reality for camera-enabled mobile devices
US20090113505A1 (en) 2007-10-26 2009-04-30 At&T Bls Intellectual Property, Inc. Systems, methods and computer products for multi-user access for integrated video
US8275419B2 (en) * 2007-11-14 2012-09-25 Yahoo! Inc. Advertisements on mobile devices using integrations with mobile applications
US8204273B2 (en) 2007-11-29 2012-06-19 Cernium Corporation Systems and methods for analysis of video content, event notification, and video content provision
US7836093B2 (en) 2007-12-11 2010-11-16 Eastman Kodak Company Image record trend identification for user profiles
US8588816B2 (en) * 2007-12-21 2013-11-19 Qualcomm Incorporated Systems and methods for targeted advertising on wireless devices based on device location and current user interests
AU2008200926B2 (en) 2008-02-28 2011-09-29 Canon Kabushiki Kaisha On-camera summarisation of object relationships
EP2107761A1 (en) 2008-03-31 2009-10-07 Sony Corporation Method to determine a subgroup of users
JP5186984B2 (ja) * 2008-04-08 2013-04-24 株式会社ニコン 電子カメラ
US20090315766A1 (en) * 2008-06-19 2009-12-24 Microsoft Corporation Source switching for devices supporting dynamic direction information
JP2010020718A (ja) * 2008-07-14 2010-01-28 Oki Electric Ind Co Ltd 情報処理装置及び情報処理方法
US20100030706A1 (en) * 2008-07-29 2010-02-04 Ramakrishnan Kannan Efficient auctioning of electronic billboards by using traffic estimation data from mobile phone service
JP4282091B1 (ja) * 2008-09-04 2009-06-17 株式会社モバイルビジネスプロモート 端末装置、情報処理方法及びプログラム
US20100153861A1 (en) 2008-09-26 2010-06-17 Deep Rock Drive Partners Inc. Interactive events
JP5147761B2 (ja) * 2009-03-02 2013-02-20 セコム株式会社 画像監視装置
CN101510913A (zh) * 2009-03-17 2009-08-19 山东师范大学 基于三维电子罗盘的智能手机增强现实系统及实现方法
CA2755774C (en) 2009-03-19 2015-01-06 Azuki Systems, Inc. Method for scalable live streaming delivery for mobile audiences
US20100262497A1 (en) * 2009-04-10 2010-10-14 Niklas Karlsson Systems and methods for controlling bidding for online advertising campaigns
US10679251B2 (en) * 2009-06-18 2020-06-09 Microsoft Technology Licensing, Llc Controlling ad delivery to mobile clients
US8473512B2 (en) * 2009-11-06 2013-06-25 Waldeck Technology, Llc Dynamic profile slice
US8335522B2 (en) * 2009-11-15 2012-12-18 Nokia Corporation Method and apparatus for mobile assisted event detection and area of interest determination
US8577083B2 (en) 2009-11-25 2013-11-05 Honeywell International Inc. Geolocating objects of interest in an area of interest with an imaging system
US8386620B2 (en) * 2009-12-15 2013-02-26 Apple Inc. Ad hoc networking based on content and location
US20110191151A1 (en) 2010-02-01 2011-08-04 Rodney Boyd Rosa System for serving advertisements that allows compensation for user viewing
US9602776B2 (en) 2010-02-02 2017-03-21 Verizon Patent And Licensing Inc. Accessing web-based cameras arranged by category
US9488488B2 (en) 2010-02-12 2016-11-08 Apple Inc. Augmented reality maps
US8311279B2 (en) 2010-02-23 2012-11-13 Fuji Xerox Co., Ltd. System and method for improved image analysis through gaze data feedback
US20110271213A1 (en) 2010-05-03 2011-11-03 Alcatel-Lucent Canada Inc. Event based social networking application
WO2012020510A1 (en) 2010-08-11 2012-02-16 Telefonaktiebolaget L M Ericsson (Publ) Face-directional recognition driven display control
US8874538B2 (en) * 2010-09-08 2014-10-28 Nokia Corporation Method and apparatus for video synthesis
US20120114307A1 (en) 2010-11-09 2012-05-10 Jianchao Yang Aligning and annotating different photo streams
US8688520B2 (en) * 2010-12-09 2014-04-01 Nec Laboratories America, Inc. Opportunistic alignment of advertisement delivery with cellular basestation overloads
US8786680B2 (en) 2011-06-21 2014-07-22 Disney Enterprises, Inc. Motion capture from body mounted cameras

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090319166A1 (en) 2008-06-20 2009-12-24 Microsoft Corporation Mobile computing services based on devices with dynamic direction information

Also Published As

Publication number Publication date
AU2012225536A1 (en) 2013-10-03
US20120233000A1 (en) 2012-09-13
AU2012225536B9 (en) 2014-01-09
CN103502986B (zh) 2015-04-29
US8527340B2 (en) 2013-09-03
EP2684145A4 (en) 2014-09-03
CN103502986A (zh) 2014-01-08
EP2684145A2 (en) 2014-01-15
WO2012122269A3 (en) 2013-03-14
US20150206027A1 (en) 2015-07-23
US9020832B2 (en) 2015-04-28
JP5775196B2 (ja) 2015-09-09
JP2014146378A (ja) 2014-08-14
US20130040660A1 (en) 2013-02-14
CA2829597C (en) 2015-05-26
JP2014514632A (ja) 2014-06-19
JP5530572B2 (ja) 2014-06-25
WO2012122269A2 (en) 2012-09-13
AU2012225536B2 (en) 2013-11-07
KR20130130060A (ko) 2013-11-29
CN104765801A (zh) 2015-07-08
CA2829597A1 (en) 2012-09-13

Similar Documents

Publication Publication Date Title
KR101383238B1 (ko) 이벤트 또는 지리적 위치에 있는 이미지 제공자들로부터의 분석 데이터 수집을 위한 시스템 및 방법
US11496814B2 (en) Method, system and computer program product for obtaining and displaying supplemental data about a displayed movie, show, event or video game
JP5649303B2 (ja) メディア・ストリームに注釈を付ける方法および装置
JP6485969B2 (ja) ビデオコンテンツの動的バインド
US9661462B2 (en) Location-based digital media platform
CN103942694B (zh) 用于提供基于地点数据的内容的方法和系统
CN101809972B (zh) 使用元数据流来发现点对点内容
JP6904954B2 (ja) ネットワークベースのイベント記録
KR20150113974A (ko) 동적 홍보 배치 관리와 배포 규칙
WO2019192424A1 (zh) 短视频处理方法、装置及移动终端
US20130232435A1 (en) Map based event navigation and venue recommendation system
US20150341541A1 (en) Methods and systems of remote acquisition of digital images or models
US10841028B2 (en) System and method for analyzing user-supplied media at a sporting event
AU2013257431B2 (en) Systems and methods for analytic data gathering from image providers at an event or geographic location
US11245947B1 (en) Device and method for capturing, processing, linking and monetizing a plurality of video and audio recordings from different points of view (POV)
JP6804968B2 (ja) 情報配信装置、情報配信方法および情報配信プログラム
US20190139151A1 (en) Crowdfunded travel based on entertainment value
CN115988228A (zh) 直播画面的热区显示方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170317

Year of fee payment: 4