KR102009629B1 - Event archiving, system and methods - Google Patents

Event archiving, system and methods Download PDF

Info

Publication number
KR102009629B1
KR102009629B1 KR1020197008853A KR20197008853A KR102009629B1 KR 102009629 B1 KR102009629 B1 KR 102009629B1 KR 1020197008853 A KR1020197008853 A KR 1020197008853A KR 20197008853 A KR20197008853 A KR 20197008853A KR 102009629 B1 KR102009629 B1 KR 102009629B1
Authority
KR
South Korea
Prior art keywords
event
timeline
item
data
user
Prior art date
Application number
KR1020197008853A
Other languages
Korean (ko)
Other versions
KR20190035963A (en
Inventor
패트릭 순-시옹
Original Assignee
난트 홀딩스 아이피, 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 난트 홀딩스 아이피, 엘엘씨 filed Critical 난트 홀딩스 아이피, 엘엘씨
Publication of KR20190035963A publication Critical patent/KR20190035963A/en
Application granted granted Critical
Publication of KR102009629B1 publication Critical patent/KR102009629B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/11File system administration, e.g. details of archiving or snapshots
    • G06F16/113Details of archiving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • G06F16/2228Indexing structures
    • G06F16/2272Management thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/41Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network

Abstract

이벤트 정보를 탐색하는 방법이 표현된다. 기념물 오브젝트는 아카이빙 엔진에 의해 인식될 수 있다. 인식에 기초하여, 아카이빙 엔진은 기념물 오브젝트와 관련된 정보, 아마도 하나 이상의 인식할 수 있는 특징을 획득하고, 상기 정보를 사용하여 대응하는 태그를 갖는 타임라인과 연관된 이벤트를 검색한다. 다음으로 아카이빙 엔진은 이벤트 정보를 결과 세트로서 사용자에게 반환할 수 있다.The method of searching for event information is represented. Monument objects can be recognized by the archiving engine. Based on the recognition, the archiving engine obtains information related to the monument object, perhaps one or more recognizable features, and uses the information to retrieve the event associated with the timeline with the corresponding tag. The archiving engine may then return the event information to the user as a result set.

Description

이벤트 아카이빙 시스템 및 방법{EVENT ARCHIVING, SYSTEM AND METHODS}EVENT ARCHIVING, SYSTEM AND METHODS}

본 발명의 분야는 정보 아카이빙 기술이다.The field of the present invention is information archiving technology.

<우선권 주장><Priority claim>

본 출원은 2012년 5월 24일에 출원된 미국 가출원 61/651179에 대한 우선권을 주장한다. 이것과 여기에 논의되는 모든 다른 외적인 재료는 여기에 전체적으로 참고문헌으로 인용된다.This application claims priority to US provisional application 61/651179, filed May 24, 2012. This and all other external materials discussed herein are incorporated herein by reference in their entirety.

최근에 페이스북®은 타임라인의 개념을 도입하였으며, 여기서 사용자 정보는 정보가 페이스북에 들어가는 시기에 따라서 또는 사용자가 타임라인에 정보를 링크하는 방법에 기초하여 정돈된다. 이러한 정보의 정돈은 사용자가 그들의 인생의 시간-관련 이벤트를 리뷰하도록 허용함으로써 사용자에게 유용할 수 있다. 불행하게도, 페이스북 타임라인에 저장되는 정보는 페이스북 없이는 접근할 수 없고 사용자에게 가용한 정보를 상기시킬 수 있는 메커니즘이 결여된다.Recently, Facebook ® introduced the concept of a timeline, where user information is organized based on when the information enters Facebook or based on how the user links the information to the timeline. This arrangement of information can be useful to the user by allowing the user to review their time-related events in their life. Unfortunately, the information stored on the Facebook timeline is inaccessible without Facebook and lacks a mechanism to remind users of the information available.

차후의 검색을 위하여 정보를 아카이빙하는 것을 지향하는 작업이 있어왔다. 예를 들면, 2003년 10월 27일에, "Method and System for Collaboration Recording"이라는 제목으로 출원된, Stephens 등에 의한 미국 특허출원 2004/0107270은 협업 세션이 아카이빙되는 시스템을 기술한다. 이러한 접근 방법은 통신 세션에서의 협업에 유용하다. 그러나, Stephens 시스템은 또한 메모리 큐를 개인 사용자에게 제공하지 못한다.There has been work aimed at archiving information for later retrieval. For example, US patent application 2004/0107270, filed on October 27, 2003, entitled “Method and System for Collaboration Recording,” describes a system in which collaboration sessions are archived. This approach is useful for collaboration in communication sessions. However, the Stephens system also does not provide memory queues to individual users.

작업은 또한 인식할 수 있는 오브젝트를 향하여 진행되어 왔다. 예를 들면, 2001년 11월 5일에, "Image capture and identification system and process"라는 제목으로 출원된 7,016,532와, 2004년 5월 20일에 "Image capture and identification system and process"라는 제목으로 출원된 7,477,780와, 2005년 8월 15일에 "Use of image-derived information as search criteria for internet and other search engines"라는 제목으로 출원된 7,680,324와, 그리고 2005년 1월 26일에 "Data capture and identification system and process"라는 제목으로 출원된 7,565,008의 Boncyk 등의 미국 공유 특허는, 오브젝트를 인식하고 인식된 오브젝트에 기초하여 콘텐츠 정보를 반환하는 다양한 측면을 기술한다. 그러나, 이들 특허는 또한 개인의 타임라인에 흥미있는 이벤트를 결속시키는 통찰력을 제공하지 못한다. Work has also progressed toward recognizable objects. For example, 7,016,532 filed on November 5, 2001, entitled "Image capture and identification system and process," and filed on May 20, 2004, titled "Image capture and identification system and process." 7,477,780 and 7,680,324 filed on August 15, 2005 entitled "Use of image-derived information as search criteria for internet and other search engines," and on January 26, 2005, "Data capture and identification system and U.S. Patent No. 7,565,008, filed under the title "process", describes various aspects of recognizing an object and returning content information based on the recognized object. However, these patents also do not provide insights that bind events of interest to an individual's timeline.

이들 및 여기에 논의되는 모든 다른 외적인 재료는 여기에 전체적으로 참고문헌으로 인용된다. 인용되는 참고 문헌 내의 용어의 정의나 사용이 여기에 제공되는 용어의 정의와 일치하지 않거나 모순적이라면, 여기서 제공되는 해당 용어의 정의가 적용되며, 참조 문헌 내의 용어의 정의는 적용하지 않는다.These and all other external materials discussed herein are incorporated herein by reference in their entirety. If the definition or use of a term in the cited reference does not match or contradict the definition of a term provided herein, the definition of the term provided herein applies, and the definition of the term in the reference does not apply.

만일 맥락상 다르게 지시하지 않는다면, 여기서 시작하는 모든 범위는 그들의 끝점을 포함하는 것으로 해석되어야 하며, 오픈 엔드(open-ended) 범위는 상업적으로 실현가능한 값을 포함하는 것으로 해석되어야 한다. 유사하게, 모든 값의 목록은 맥락상 다르게 지시하지 않는 한 중간값을 포함하는 것으로 간주되어야 한다.Unless otherwise indicated in context, all ranges beginning here should be construed to include their endpoints, and open-ended ranges should be construed to include commercially viable values. Similarly, lists of all values should be considered to include intermediate values unless otherwise indicated in context.

이상적으로 사람이나 기타 다른 엔티티들은 이벤트를 아카이빙할 수 있고 또한 이벤트를 회상하기 위하여 사용될 수 있는 기념물을 가질 수 있다. 따라서, 여전히 사용자에게 기억을 촉발하거나 회복시킬 수 있는 아카이빙 시스템에 대한 요구가 있다.Ideally, a person or other entity can have an monument that can be used to archive the event and also to recall the event. Thus, there is still a need for an archiving system that can trigger or restore memory to a user.

본 발명의 주제는 사람이 타임라인에 따라 그들의 인생에서 하나 이상의 이벤트를 추적하고 기념물을 통해 이벤트와 관련된 정보를 검색할 수 있는 장치, 시스템 및 방법을 제공한다. 본 발명의 기술의 일 측면은 이벤트 정보를 탐색(retrieve)하는 방법을 제공한다. 고려되는 방법은 사용자가 하나 이상의 인터페이스(예를 들면, 휴대폰, API, 브라우저, 소셜 네트워크, 검색 엔진 등)를 통해 이벤트 아카이빙 엔진에 접근하는 것을 허용한다. 아카이빙 엔진은, 아마도 네트워크를 통해, 이벤트 오브젝트를 수신하도록 구성되는 것이 좋으며, 이때 이벤트 오브젝트는 엔티티(예를 들면, 사람, 동물, 애완동물, 빌딩, 차량, 또는 기타 다른 아이템)의 인생에서의 사건을 표현하는 데이터를 포함한다. 예를 들면, 방법은 사용자의 휴대폰에 의해 캡처된 콘서트의 비디오를 수신하는 아카이빙 엔진을 포함할 수 있으며, 비디오는 이벤트 오브젝트로 생각될 수 있다. 아카이빙 엔진은 또한 이벤트 오브젝트를 엔티티와 연관된 타임라인에 결속시킬 수 있으며, 타임라인은 시간에 따라 정돈되는 복수의 이벤트 오브젝트를 표현한다. 방법의 또 따른 단계는 기념물 오브젝트와 결속되거나, 또는 연관되는 하나 이상의 이벤트 오브젝트를 선택하는 단계를 포함할 수 있다. 아카이빙 엔진은, 아마도 중간의 인덱싱 정보를 경유하여, 기념물(memento) 오브젝트의 하나 이상의 인식할수 있는 특징을 선택된 이벤트 오브젝트에 매핑함으로써 이벤트 오브젝트와 함께 기념물(memento) 오브젝트를 등록할 수 있다. 아카이빙 엔진은 상기 기념물 오브젝트의 디지털 표현으로부터 하나 이상의 도출된 특징을 도출하여 상기 도출된 특징을 선택된 이벤트의 검색의 기반으로 활용함으로써 상기 선택된 이벤트를 탐색할 수 있다. The subject matter of the present invention provides devices, systems, and methods that enable a person to track one or more events in their lives along a timeline and retrieve information related to the events through monuments. One aspect of the techniques of the present invention provides a method for retrieving event information. The method contemplated allows a user to access the event archiving engine through one or more interfaces (eg, mobile phones, APIs, browsers, social networks, search engines, etc.). The archiving engine is preferably configured to receive an event object, perhaps over a network, where the event object is an event in the life of an entity (eg, a person, animal, pet, building, vehicle, or other item). Contains data representing. For example, the method may include an archiving engine that receives a video of the concert captured by the user's mobile phone, which may be thought of as an event object. The archiving engine may also bind the event object to a timeline associated with the entity, which represents a plurality of event objects arranged over time. Another step of the method may include selecting one or more event objects associated with or associated with the monument object. The archiving engine may register a memo object with the event object by mapping one or more recognizable features of the memo object to the selected event object, possibly via intermediate indexing information. An archiving engine may search for the selected event by deriving one or more derived features from the digital representation of the monument object and using the derived features as a basis for searching for the selected event.

본 발명의 주제의 다양한 목적, 특징, 양상 및 이점은, 유사한 번호는 유사한 컴포넌트를 표현하는 첨부하는 도면의 특징과 더불어, 다음의 바람직한 실시예의 상세한 설명으로부터 좀 더 명백해질 것이다.Various objects, features, aspects and advantages of the subject matter of the present invention will become more apparent from the following detailed description of the preferred embodiments, together with the features of the accompanying drawings in which like numerals represent like components.

도 1은 이벤트 아카이빙 에코시스템에 대한 개요도이다.
도 2는 타임라인, 기념물 및 이벤트 오브젝트 간의 링크를 보여준다.
도 3은 기념물에 기초하여 이벤트 정보를 검색하는 가능한 방법을 표현한다.
1 is a schematic diagram of an event archiving ecosystem.
2 shows links between timelines, monuments, and event objects.
3 represents a possible way of retrieving event information based on the monument.

다음의 설명은 이벤트 아카이빙 시스템에 기초한 컴퓨터/서버에 대한 것이지만, 다양한 대안적인 구성도 역시 적합하다고 여겨지며 서버, 인터페이스, 시스템, 데이터베이스, 에이전트, 피어, 엔진, 컨트롤러, 또는 개별적으로나 통합하여 동작하는 기타 다른 유형의 컴퓨팅 장치를 포함하는 컴퓨팅 장치를 채용할 수 있다는 것이 주목되어야 한다. 이러한 용어들은 컴퓨팅 장치가 유형의, 비-일시적 컴퓨터 판독가능한 저장 매체(예를 들면, 하드 드라이브, 솔리드 상태 드라이브, RAM, 플래시, ROM 등)에 저장되는 소프트웨어 명령을 실행하도록 구성되는 프로세서를 포함하는 것을 표현한다고 간주된다는 것이 이해되어야 한다. 소프트웨어 명령은 개시되는 장치와 관련하여 이하 논의되는 역할, 책임이나, 기타 다른 기능성을 제공하는 컴퓨팅 장치를 구성하는 것이 바람직하다. 특히 바람직한 실시예에서, 다양한 서버, 시스템, 데이터베이스, 또는 인터페이스는, 아마도 HTTP, HTTPS, AES, 공개-개인 키 교환, 웹 서비스 APIs, 알려진 재무 트랜잭션 프로토콜, 또는 기타 다른 전자 정보 교환 방법에 기초하는, 표준 프로토콜이나 알고리즘을 사용하여 데이터를 교환한다. 데이터 교환은 바람직하게는 패킷 스위칭 네트워크, 인터넷, LAN, WAN, VPN, 또는 기타 다른 유형의 패킷 스위칭 네트워크를 통해 수행된다.The following description is for a computer / server based event archiving system, but various alternative configurations are also considered suitable, and may include servers, interfaces, systems, databases, agents, peers, engines, controllers, or any other individual or integrated operation. It should be noted that computing devices including tangible computing devices may be employed. These terms include a processor configured to execute software instructions stored on a tangible, non-transitory computer readable storage medium (eg, hard drive, solid state drive, RAM, flash, ROM, etc.). It should be understood that it is considered to express something. The software instructions preferably constitute a computing device that provides the roles, responsibilities, or other functionality discussed below in connection with the disclosed device. In a particularly preferred embodiment, various servers, systems, databases, or interfaces are based on presumably HTTP, HTTPS, AES, public-private key exchanges, web services APIs, known financial transaction protocols, or other electronic information exchange methods. Exchange data using standard protocols or algorithms. The data exchange is preferably performed via a packet switching network, the Internet, a LAN, a WAN, a VPN, or some other type of packet switching network.

개시되는 기술은 아카이빙 엔진으로 송신되는 인식 신호에 기초하여 이벤트 정보를 탐색하는 것을 포함하여 많은 이로운 기술적인 효과를 제공한다는 것이 이해되어야 한다.It is to be understood that the disclosed technology provides many beneficial technical effects, including searching for event information based on recognition signals sent to the archiving engine.

다음의 논의는 본 발명의 주제의 많은 실시예를 제공한다. 비록 각 실시예는 본 발명의 구성요소의 단일한 조합을 표현하지만, 본 발명의 주제는 개시되는 구성요소의 모든 가능한 조합을 포함하는 것이 고려된다. 따라서 만일 일 실시예가 구성요소 A, B 및 C를 포함하고 제2 실시예가 구성요소 B와 D를 포함한다면, 본 발명의 주제는 또한 A, B, C 또는 D의 다른 나머지 조합을 포함하는 것으로 간주된다.The following discussion provides many embodiments of the subject matter of the present invention. Although each embodiment represents a single combination of the components of the invention, it is contemplated that the subject matter of the invention encompasses all possible combinations of the components disclosed. Thus, if one embodiment includes components A, B and C and the second embodiment includes components B and D, the subject matter of the present invention is also deemed to include the other remaining combinations of A, B, C or D. do.

여기서 사용될 때, 그리고 맥락상 다르게 지시하지 않는다면, 용어 "에 연결되는"은 (서로 연결된 두 개의 구성요소가 서로 접촉하는) 양방향 직접 연결과, (적어도 하나의 추가적인 구성요소가 두 개의 구성요소 사이에 위치하는) 간접 연결을 포함하는 것으로 의도된다. 따라서, 용어 "에 연결되는"과 "와 연결되는"은 동의어로 사용된다. 네트워크 맥락에서, 용어 "에 연결되는"과 "와 연결되는"은 또한 "와 통신으로 연결되는"을 의미하도록 완곡하게 사용된다. As used herein, and unless otherwise indicated in the context, the term “connected to” refers to a bidirectional direct connection (in which two connected components are in contact with each other) and at least one additional component between two components. Indirect connections). Thus, the terms "linked to" and "linked to" are used synonymously. In the context of a network, the terms "connected to" and "connected with" are also used euphemistically to mean "connected with".

도 1은 타임라인에 따라서 하나 이상의 이벤트 오브젝트(145A 부터 145B)를 저장하도록 구성되거나 프로그래밍되는 이벤트 아카이빙 엔진(130)을 포함하는 아카이빙 시스템(100)을 보여준다. 본 발명의 주제에 맞게 적합하게 적응될 수 있는 컴퓨팅 시스템의 예는 검색 엔진, 소셜 네트워킹 사이트, 온라인 커뮤니티, CRM 데이터베이스, 소스 제어 엔진, 포럼, 제품 리뷰 사이트, 온라인 게임 플랫폼, 멀티플레이어 온라인 게임, 또는 정보를 저장하는 기타 다른 컴퓨팅 시스템을 포함한다. 1 shows an archiving system 100 that includes an event archiving engine 130 that is configured or programmed to store one or more event objects 145A through 145B according to a timeline. Examples of computing systems that may be suitably adapted to the subject matter of the present invention include search engines, social networking sites, online communities, CRM databases, source control engines, forums, product review sites, online game platforms, multiplayer online games, or Other computing systems for storing information.

다음의 논의는 이벤트 아카이빙 엔진(130)이 네트워크(115)를 통해 이벤트-기념물 수수료 청구 서비스(for-fee serivce)로의 접근을 제공하는 것으로서 설명되는데, 이벤트 아카이빙 엔진(130)은 서비스로서의 플랫폼(Platform-as-a-Service, PaaS), 서비스로서의 인프라스트럭처(Infrastructure-as-a-Service, IaaS), 서비스로서의 소프트웨어(Software-as-a-Service, SaaS), 또는 기타 다른 유형의 플랫폼으로서 동작하는 하나 이상의 서버를 포함할 수 있다. 그러나, 이벤트 아카이빙 엔진(130)은 휴대폰, 개인용 컴퓨터, 태블릿, 또는 기타 다른 장치를 포함하는 기타 다른 컴퓨팅 장치를 나타낼 수 있다는 것이 이해되어야 한다. 따라서, 어떤 실시예에서, 사용자는 스마트폰에 어플을 설치하여, 어플이 휴대폰을 이벤트 아카이빙 엔진(130)으로서 동작하도록 프로그래밍하게 할 수 있다. The following discussion is described as the event archiving engine 130 providing access to an event-monument for fee serivce through the network 115, where the event archiving engine 130 is a platform as a service. operating as an as-a-Service (PaaS), Infrastructure-as-a-Service (IaaS), Software as a Service (Software-as-a-Service, SaaS), or any other type of platform. It can include one or more servers. However, it should be understood that event archiving engine 130 may represent other computing devices, including mobile phones, personal computers, tablets, or other devices. Thus, in some embodiments, a user can install an app on a smartphone, allowing the app to program the cell phone to operate as the event archiving engine 130.

도시된 예에서, 장치(160A)의 사용자는 시간에 따른 사건을 표현하는 이벤트(110)의 데이터를 캡처한다. 예를 들면, 개인은 결혼이나 스포츠 이벤트에 참석하여 휴대폰의 카메라를 사용하여 결혼이나 스포츠 이벤트의 이미지나 기타 다른 콘텐츠를 캡처할 수 있다. 장치(160A)에 의해 캡처된 이벤트(110) 관련 콘텐츠는, 아마도 네트워크(115)(예를 들면, 네트워크 연결, 인터넷, LAN, WAN, VPN, PAN 등)를 통해, 이벤트 아카이빙 엔진(130)으로 제출될 수 있다. 도시된 예에서, 장치(160A)는 휴대폰으로 도시된다. 그러나, 다른 유형의 장치들이 태블릿, 컴퓨터, 보안 카메라, 또는 기타 다른 센서 장치를 포함하여 장치(160A)로서 동작할 수 있다. 또한, 이벤트(110)를 표현하는 콘텐츠는 이미지 데이터, 비디오 데이터, 오디오 데이터, 스피치 데이터, 모션 데이터, 가속 데이터, 온도 데이터, 텍스트 데이터, 바이오메트릭 데이터, 또는 기타 다른 유형의 양식 데이터를 포함하는 광범위한 스펙트럼의 데이터 양식을 포함한다. 이벤트 아카이빙 엔진(130)은 서비스 인터페이스(135)(예를 들면, 셀룰러 인터페이스, GUI, API, HTTP 서버, 등)를 통해 이벤트(110)에 관련된 콘텐츠를 수신하고, 이벤트 오브젝트들(145)로서 총칭되는, 하나 이상의 이벤트 오브젝트(145A-145B)를 구체화한다.In the example shown, the user of device 160A captures data of event 110 representing the event over time. For example, an individual may attend a wedding or sporting event and use the camera of the mobile phone to capture images or other content of the wedding or sporting event. The event 110 related content captured by the device 160A may be sent to the event archiving engine 130, perhaps over a network 115 (eg, network connection, Internet, LAN, WAN, VPN, PAN, etc.). May be submitted. In the example shown, device 160A is shown as a mobile phone. However, other types of devices may operate as device 160A, including tablets, computers, security cameras, or other sensor devices. In addition, the content representing event 110 may include a wide variety of data including image data, video data, audio data, speech data, motion data, acceleration data, temperature data, text data, biometric data, or other types of form data. Include the data form of the spectrum. Event archiving engine 130 receives content related to event 110 via service interface 135 (eg, cellular interface, GUI, API, HTTP server, etc.) and collectively as event objects 145. Materialize one or more event objects 145A-145B.

이벤트 아카이빙 엔진(130)은 사람의 일생 동안의 사건을 이벤트 오브젝트(145)로서 저장하며, 이벤트 오브젝트(145)는 사건이나 이벤트(110)를 표현하는 데이터를 포함한다. 각 이벤트 오브젝트(145)는 시스템 내의 다른 오브젝트에 비하여 구분되는 관리하기 쉬운 오브젝트가 고려될 수 있다. 예를 들면, 이벤트 오브젝트(145)는 앞에서 언급한 것처럼 추가적인 콘텐츠와 함께 캡처될 수 있는 이미지, 비디오, 또는 기타 다른 유형의 데이터로 고려될 수 있다. 이벤트 오브젝트(145)는 또한 이벤트나 사건의 성질을 서술하는 메타데이터(예를 들면, 속성, 성질, 특성 등)를 포함할 수 있다. 어떤 실시예에서, 사용자는 로컬 컴퓨팅 장치, 아마도 장치(160A)로부터 이미지를 선택할 수 있고, 또한 서비스 인터페이스(135)(예를 들면, FTP)를 통해 이벤트 아카이빙 엔진(130)으로 이미지 파일을 업로드할 수 있다. 사용자는 다음으로 이벤트 아카이빙 엔진(130)에게 명령하여 이미지 파일로부터 그리고 추가적으로 제공된 콘텐츠(예를 들면, 타임 스탬프, 코멘트 등)로부터 이벤트 오브젝트(145A)를 구체화하도록 할 수 있다. 메타데이터를 제공하는 것은 이벤트 아카이빙 엔진(130)이 이벤트 오브젝트(145)를 관리하거나, 분석하거나, 탐색하거나, 그렇지 않으면 조종하도록 허용한다. 이벤트 오브젝트(145)를 시간에 따라 관리하기 위하여, 이벤트 오브젝트(145)는 아카이빙 엔진이 이벤트 오브젝트(145)를 시간에 기초하여 정돈하여, 타임라인 오브젝트(155)에 의해 표현되는 타임라인을 구성하도록 허용하는 하나 이상의 타임 스탬프를 포함할 수 있다. The event archiving engine 130 stores the events of a person's lifetime as an event object 145, which contains data representing the event or event 110. Each event object 145 may be considered an easy-to-manage object that is distinguished from other objects in the system. For example, event object 145 may be considered as image, video, or other type of data that may be captured with additional content, as mentioned above. The event object 145 may also include metadata (eg, attributes, properties, properties, etc.) that describe the nature of the event or event. In some embodiments, a user may select an image from a local computing device, perhaps device 160A, and also upload an image file to event archiving engine 130 via service interface 135 (eg, FTP). Can be. The user may then instruct the event archiving engine 130 to materialize the event object 145A from the image file and additionally provided content (eg, time stamps, comments, etc.). Providing the metadata allows the event archiving engine 130 to manage, analyze, explore, or otherwise manipulate the event object 145. In order to manage the event object 145 over time, the event object 145 allows the archiving engine to arrange the event object 145 based on time to construct a timeline represented by the timeline object 155. It may include one or more time stamps to allow.

이벤트 오브젝트(145)는 광범위한 데이터 유형을 포함한다. 바람직한 이벤트 오브젝트는 미디어 오브젝트나 아마도 멀티미디어 오브젝트를 포함한다. 이벤트 오브젝트(145)에 통합될 수 있는 예제 데이터 유형은 오디오 데이터, 비디오 데이터, 이미지 데이터, 모션 데이터, 가속 데이터, 온도 데이터, 위치 데이터, 시간 데이터, 메타데이터, 식별 데이터, 선호 데이터, 게임 데이터, 센서 데이터, 보안 데이터, 또는 기타 다른 유형의 데이터를 포함한다.Event object 145 includes a wide variety of data types. Preferred event objects include media objects or perhaps multimedia objects. Example data types that can be integrated into the event object 145 include audio data, video data, image data, motion data, acceleration data, temperature data, position data, time data, metadata, identification data, preference data, game data, Sensor data, security data, or some other type of data.

이벤트 오브젝트(145)에 관하여 좀더 명확하게 하기 위하여, 이벤트 오브젝트(145)는 "회상될 수 있거나"나 "기억될 수 있는" 하나 이상의 이벤트나 사건의 표현으로 고려될 수 있다. 아카이빙되거나 탐색될 수 있는 예제 사건은 파티, 콘서트, 스포츠 이벤트, 뉴스 이벤트, 프로젝트 태스크, 사고, 또는 기타 다른 유형의 사건을 포함할 수 있다. 어떤 실시예에서, 이벤트 오브젝트(145)는 맥락적인 주변 데이터(예를 들면, 센서 데이터)에 기초하거나 또는 사용자-제공 데이터(예를 들면, 캘린더)에 기초하여 자동으로 분류될 수 있다. For greater clarity with respect to event object 145, event object 145 may be considered a representation of one or more events or events that may be "remembered" or "remembered." Example events that may be archived or explored may include parties, concerts, sporting events, news events, project tasks, accidents, or other types of events. In some embodiments, event object 145 may be automatically classified based on contextual ambient data (eg, sensor data) or based on user-provided data (eg, calendar).

이벤트 오브젝트(145)의 맥락적 자동 생성의 예로서, 사람이 결혼식에 참석하는 시나리오를 생각해보자. 이벤트 아카이빙 엔진(130)은 사람의 휴대폰으로부터 데이터 피드를 획득할 수 있으며, 이때 데이터 피드(feed)는 GPS 센서로부터의 지오-로케이션(geo-location) 데이터, 타임스탬프 데이터, 비디오 데이터, 사용자 ID(예를 들면, 전화 번호, IP 주소, 이메일 주소, 사용자 이름 등)나, 기타 다른 센서 피드 데이터를 포함한다. 이벤트 아카이빙 엔진(130)은 아마도 다른 소스로부터 얻을 수 있는 외부의 정보와 함께 데이터 피드를 수신한다. 예를 들면, 외부 정보는 "결혼식 참석" 형식의 텍스트를 갖는 개인의 캘린더 내의 기재를 포함할 수 있다. 데이터 피드와 외부 정보는 하나 이상의 이벤트 오브젝트(145)의 구체화를 자동으로 촉발할 수 있다. 대응하는 결혼 이벤트 오브젝트는 결혼 시간, 결혼식 장소, 그리고 해당 사건을 기념하는 하나 이상의 콘텐츠 부분을 포함할 수 있다. 따라서, 이벤트 아카이빙 엔진(130)은 사건 콘텐츠가 이벤트 오브젝트(145)로서 구체화되도록 유발하는 맥락적인 촉발 기준을 포함하는 메모리 내에 저장되는 하나 이상의 규칙 세트를 포함할 수 있다. As an example of contextual automatic creation of an event object 145, consider a scenario where a person attends a wedding. The event archiving engine 130 may obtain a data feed from the mobile phone of the person, wherein the data feed may include geo-location data, timestamp data, video data, and user ID (from a GPS sensor). For example, phone numbers, IP addresses, email addresses, user names, etc.) or other sensor feed data. The event archiving engine 130 receives the data feed with external information, possibly from other sources. For example, the external information may include a description in an individual's calendar with text in the form of “wedding attendance”. The data feed and external information can automatically trigger the specification of one or more event objects 145. The corresponding marriage event object may include a wedding time, a wedding venue, and one or more pieces of content commemorating the event. Accordingly, event archiving engine 130 may include one or more rule sets stored in memory that include contextual triggering criteria that cause event content to be materialized as event object 145.

이벤트 오브젝트(145)는 이벤트 데이터베이스(140)에 저장될 수 있다. 이벤트 데이터베이스(140)는 장치(160A) 내에, 이벤트 아카이빙 엔진(130) 내에, 두 장치 외부에 수용되거나, 또는 네트워크(115)를 통해 원격 장소에 배치될 수 있다. 어떤 실시예에서, 이벤트 데이터베이스(140)는 검색 엔진, CRM 시스템이나 기타 다른 데이터 탐색 시스템의 일부일 수 있다.The event object 145 may be stored in the event database 140. The event database 140 may be housed within the device 160A, within the event archiving engine 130, external to both devices, or located remotely via the network 115. In some embodiments, event database 140 may be part of a search engine, CRM system, or other data search system.

이벤트 아카이빙 엔진(130)은 타임라인이 시간-정렬된 이벤트 오브젝트(145)를 포함하는 타임라인 오브젝트(155)로 표현되는 별도의 오브젝트로서 타임라인을 관리할 수도 있다. 따라서, 타임라인 오브젝트(155)는 사람의 일생 동안 발생하는 흥미있는 이벤트를 표현할 수 있다. 몇 가지 포인트가 이해되어야 한다. 첫째, 타임라인은 필요시 세그멘트화될 수 있다. 예제 세그먼트는 라이프 스테이지, 연, 월, 일, 또는 기타 다른 범위나 기준에 기초하여 타임라인을 세그먼트화하는 단계를 포함할 수 있다. 둘째, 타임라인은, 아마도 애완동물, 사람, 장소, 빌딩, 차량, 회사, 동물, 조직, 그룹, 가족, 학교, 연감, 또는 기타 다른 유형의 엔티티를 포함하는, 여느 엔티티와 연관될 수 있다. 셋째, 타임라인 오브젝트(155)는 그들 자신의 속성을 포함하며, 이들에 의해서 정돈되거나, 관리되거나, 분석되거나, 그렇지 않으면 조정될 수 있다. 예를 들면, 타임라인은 위치 정보나 사용자 식별 정보에 의해서 분간될 수 있다. 그러한 경우에, 이벤트 아카이빙 엔진(130)은 GPS 좌표와 관련되거나 또는 공간-시간 라인을 발생시킬 수 있는 모든 타임라인 오브젝트(155)의 인구통계학적 분석을 제공할 수 있으며, 여기서 타임라인은 타임스탬프 좌표만이 아니라 공간이나 위치 좌표에 의해 정돈된다. The event archiving engine 130 may manage the timeline as a separate object represented by a timeline object 155 in which the timeline includes a time-aligned event object 145. Thus, the timeline object 155 may represent interesting events that occur during a person's lifetime. Several points should be understood. First, the timeline can be segmented if necessary. Example segments may include segmenting the timeline based on life stage, year, month, day, or other range or criteria. Second, the timeline may be associated with any entity, perhaps including a pet, person, place, building, vehicle, company, animal, organization, group, family, school, yearbook, or other type of entity. Third, the timeline objects 155 include their own attributes and can be arranged, managed, analyzed or otherwise adjusted by them. For example, the timeline can be differentiated by location information or user identification information. In such cases, event archiving engine 130 may provide demographic analysis of all timeline objects 155 that may be associated with GPS coordinates or may generate a space-time line, where the timeline is a timestamp. Not only coordinates but also space or position coordinates.

이벤트 오브젝트(145)에 유사하게, 타임라인 오브젝트(155)는 타임라인 데이터베이스(150)에 저장되어, 여기서 타임라인 오브젝트(155)가 탐색될 수 있다. 이벤트 아카이빙 엔진(130)이 이벤트 오브젝트(145)를 프로세싱할 때, 이벤트 아카이빙 엔진(130)은 타임라인 데이터베이스(150)를 쿼리하여 하나 이상의 타임라인 속성(예를 들면, 사용자 ID, 지오-로케이션, 타임라인 유형 등)에 기초하여 원하는 타임라인 오브젝트(155)를 검색할 수 있다. Similar to the event object 145, the timeline object 155 is stored in the timeline database 150, where the timeline object 155 can be searched. When the event archiving engine 130 processes the event object 145, the event archiving engine 130 queries the timeline database 150 to query one or more timeline attributes (eg, user ID, geo-location, The desired timeline object 155 may be retrieved based on the timeline type).

도시된 것처럼, 이벤트 오브젝트(145)는 하나 이상의 기념물 오브젝트(120)와 연관될 수 있으며, 이는 사용자에 의해 레버리지되어 이벤트 오브젝트(145)나 이벤트 오브젝트(145)에 연관된 정보를 탐색할 수 있다. 이벤트 아카이빙 엔진(130)은 하나 이상의 이벤트 오브젝트(145)를 선택하여 서로 다른 기술에 따라서 기념물 오브젝트(120)에 링크되거나 연관되도록 할 수 있다. 어떤 시나리오에서, 이벤트 오브젝트(145)는, 아마도 이벤트 오브젝트(145)가 타임라인상의 타임 스팬 내에 속하는 곳이나, 지오-로케이션 속성값에 기초하여, 임의로 선택된다. 다른 실시예에서, 이벤트 오브젝트(145)는 선호도, 사용자 선택, 투표, 랭킹, 또는 기타 다른 기법에 따라 선택될 수 있다.As shown, the event object 145 may be associated with one or more monument objects 120, which may be leveraged by the user to retrieve information associated with the event object 145 or the event object 145. Event archiving engine 130 may select one or more event objects 145 to be linked or associated with monument object 120 according to different techniques. In some scenarios, the event object 145 is arbitrarily selected based on the geo-location attribute value, perhaps where the event object 145 falls within a time span on the timeline. In other embodiments, event object 145 may be selected according to preference, user selection, voting, ranking, or other technique.

기념물 오브젝트(120)는 2D 오브젝트(예를 들면, 이미지, 사진, 카드, 포스터 등), 3D 오브젝트(예를 들면, 물체, 손가락, 차량 등) 또는 4D 오브젝트(예를 들면, 움직이는 손가락, 시간이 변화하는 오브젝트, 다차원 관련성을 갖는 오브젝트 등)를 포함하는 광범위한 스펙트럼의 오브젝트를 포함할 수 있다. 바람직하게는 기념물 오브젝트(120)는 기념물 오브젝트(120)의 디지털 표현(123)에 기초하여 이벤트 아카이빙 엔진(130)에 의해 인식될 수 있다. 디지털 표현(123)은 이미지 데이터, 비디오 데이터, 오디오 데이터, 센서 데이터 또는 기타 다른 데이터 양식을 포함하는 다양한 형태의 디지털 데이터를 포함할 수 있다. 본 발명의 주제에 맞게 적응될 수 있는 오브젝트를 인식하도록 사용될 수 있는 예제 기술은 미국 특허 7,016,532, 7,477,780, 7,680,324, 및 7,565,008에 개시된 것을 포함한다.  Monument object 120 may be a 2D object (e.g., image, photo, card, poster, etc.), 3D object (e.g., object, finger, vehicle, etc.) or 4D object (e.g., moving finger, time). A wide spectrum of objects, including changing objects, objects having multidimensional relevance, and the like. Preferably, monument object 120 may be recognized by event archiving engine 130 based on digital representation 123 of monument object 120. Digital representation 123 may include various forms of digital data, including image data, video data, audio data, sensor data, or other data formats. Example techniques that may be used to recognize objects that may be adapted to the subject matter of the present invention include those disclosed in US Pat. Nos. 7,016,532, 7,477,780, 7,680,324, and 7,565,008.

이벤트 아카이빙 엔진(130)은 기념물 오브젝트(120)의 하나 이상의 인식가능한 특징(125) 세트를 선택된 이벤트 오브젝트(145)와 함께 등록한다. 도시된 예에서, 이벤트 오브젝트(145A)는 등록되고 추후에 이벤트 오브젝트(145B)로서 탐색된다. 장치(160A)와 동일한 장치일 수 있는, 장치(160B)는 기념물 오브젝트(120)인 결혼 반지의 이미지를 캡처한다. 디지털 표현(123)은 이미지를 포함하며, 이벤트 아카이빙 엔진(130)에 의해 아마도 데이터 유형에 따라 분석되어 일련의 특징(125)을 생성한다. 일련의 특징(125)은 이벤트 오브젝트(145A)에 대한 인덱싱 정보가 되어 타임라인 오브젝트(155) 내에 기념물 오브젝트(120)와 함께 등록된다. 추후 이벤트 아카이빙 엔진(130)이 일련의 특징(125)의 적어도 일부를 다시 만나게 되면, 이벤트 아카이빙 엔진(130)은 이벤트 오브젝트(145B)를 탐색하여 대응하는 "기억되는" 정보를 장치(160B)로 반환할 수 있다. The event archiving engine 130 registers with the selected event object 145 one or more sets of recognizable features 125 of the monument object 120. In the example shown, event object 145A is registered and later retrieved as event object 145B. Device 160B, which may be the same device as device 160A, captures an image of a wedding ring that is a monument object 120. The digital representation 123 includes an image and is analyzed by the event archiving engine 130, perhaps according to the data type, to produce a series of features 125. The series of features 125 becomes indexing information for the event object 145A and is registered with the monument object 120 in the timeline object 155. If the event archiving engine 130 later encounters at least a portion of the series of features 125, the event archiving engine 130 searches for the event object 145B to send the corresponding “remembered” information to the device 160B. Can be returned.

기념물 오브젝트(120)가 크리스마스 카드를 포함하는 다른 유즈케이스(usecase)를 고려해보자. 엔진(130)은 카드의 특징을 분석하여 인식할 수 있는 일련의 특징(125)(예를 들면, 크기, 모양, 차원, 컬러, SIFT 특징, 바코드, 인코딩된 데이터, 비-인코딩된 데이터, 설명, 폰트, 컬러 히스토그램, 또는 다른 속성)을 생성할 수 있다. 특징은, 예를 들면, 이전의 크리스마스에 대응하는 이벤트 오브젝트(145)와 함께 등록될 수 있다. 인식할 수 있는 일련의 특징(125)은 이벤트 오브젝트(145)에 대한 인덱싱 정보를 생성하도록 사용될 수 있다. 어떤 실시예에서, 인식할 수 있는 특징이나 값은 인덱스로서 사용되는 한편, 다른 실시예에서, 인식할 수 있는 특징은 기념물 오브젝트(120)를 유효한 기념물 오브젝트로서 인식하는 기초로서 사용된다. 유효한 기념물 오브젝트는 인덱싱 정보와 연관되어 타임라인 오브젝트(155) 내의 관련된 이벤트 오브젝트(145)에 접근할 수 있다. Consider another usecase in which the monument object 120 includes a Christmas card. The engine 130 may analyze the card's features to recognize and recognize a series of features 125 (e.g., size, shape, dimension, color, SIFT feature, barcode, encoded data, non-encoded data, description). , Fonts, color histograms, or other attributes). The feature may be registered with, for example, the event object 145 corresponding to the previous Christmas. A recognizable set of features 125 can be used to generate indexing information for the event object 145. In some embodiments, recognizable features or values are used as indexes, while in other embodiments, recognizable features are used as a basis for recognizing monument object 120 as a valid monument object. A valid monument object can be associated with indexing information to access the related event object 145 in the timeline object 155.

이벤트 아카이빙 엔진(130)은 기념물 오브젝트(120)의 디지털 표현(123)을 분석함으로써 하나 이상의 이벤트 오브젝트(145)를 탐색하여 하나 이상의 일련의 특징(125)을 도출할 수 있다. 이전의 예에 계속해서, 크리스마스 카드를 받은 사람은 자신의 휴대폰(예를 들면, 장치 160B)으로 카드의 이미지를 볼 수 있다. 카드는 이전에 "활성화" 되어서 아카이빙 엔진(130)이 일련의 특징(125)을 통해 카드를 인식할 수 있는데, 특징은, 아마도 예측 신뢰도 내의, 기념물 카드 오브젝트의 하나 이상의 인식가능한 특징에 대응하는 도출된 특징을 포함할 수 있다. 아카이빙 엔진(130)은 일련의 특징(125)을 사용하거나, 또는 인식할 수 있는 기념물 오브젝트와 관련된 다른 정보를 사용하여, 대응하는 이벤트 오브젝트(145B)를 발견한다. 이벤트 오브젝트(145)는 출력 장치(160B)(예를 들면, 휴대폰, 브라우저, 키오스크, 어플라이언스, 텔레비전 등)에 표현될 수 있다. The event archiving engine 130 may search for one or more event objects 145 to derive one or more series of features 125 by analyzing the digital representation 123 of the monument object 120. Continuing the previous example, the person receiving the Christmas card can view the image of the card on his cell phone (eg, device 160B). The card has previously been “activated” so that the archiving engine 130 can recognize the card through a series of features 125, which features are derived that correspond to one or more recognizable features of the monument card object, perhaps within predicted reliability. It may include a feature. The archiving engine 130 finds the corresponding event object 145B using a series of features 125 or using other information related to the recognizable monument object. The event object 145 may be represented on the output device 160B (eg, mobile phone, browser, kiosk, appliance, television, etc.).

일련의 특징(125)은 이벤트(110)보다는 오히려 기념물 오브젝트(120)의 디지털 표현(123)으로부터 도출된다는 것이 이해되어야 한다. 이러한 접근방법은 기념물 오브젝트(120)로부터 온 일련의 특징(125)을 이벤트 오브젝트(145A)와 함께 타임라인 오브젝트(155) 내에 등록하는 단계를 제공한다. 아카이빙 엔진(130)이 유사한 특징을 다시 만나게 되면, 이벤트 오브젝트(145B)에 의해 표현되는 등록된 이벤트 오브젝트를 탐색할 수 있다. 따라서, 기념물 오브젝트(120)는 이벤트(110)를 "기억하거나" 또는 "회상하는" 기초로서 제공된다.It should be understood that the series of features 125 is derived from the digital representation 123 of the monument object 120 rather than the event 110. This approach provides for registering a series of features 125 from monument object 120 into timeline object 155 along with event object 145A. When the archiving engine 130 encounters a similar feature again, it may search for the registered event object represented by the event object 145B. Thus, monument object 120 serves as the basis for "remembering" or "recalling" event 110.

본 발명의 주제에 맞게 적응될 수 있는 이벤트 오브젝트(145)를 검색하거나 표현하는 적합한 기술은 스트림밍되는 콘텐츠를 검색하거나 탐색하는 것을 허용하는 Verizon®Viewdini™를 포함한다(URL news.cnet.com/8301-1023_3-57439056-93/verizon-unveils-viewdini-video-service-for-mobile-devices/ 참조). 뷰디니(Viewdini)는 기념물 오브젝트(120)의 특징을 인식하여 이벤트 오브젝트(145)를 탐색하는 것을 허용하도록 증강될 수 있다. 뷰디니는 타임라인 정보를 일련의 가용한 스트리밍되는 이벤트로서 사용자에게 표현하도록 적응될 수 있다. 또한, 기념물 오브젝트(120)를 인식하면, 뷰디니는 타임라인상의 특정 이벤트 오브젝트(145)로 점프하여 사용자가 상대적으로 더 이전 시간이나 미래 시간으로 이동하면서 타임라인상에 그들의 참조 포인트를 옮기도록 허용하는 "시간 이동(time shifting)" 능력을 제공하도록 적응될 수 있다. 예를 들면, 시간 이동을 위하여, 사용자는 기념물 오브젝트(120)를 장치(160B)의 뷰 필드와 관련하여 다양한 위치나 방위(orientation)로 이동시킬 수 있다. 아마도 기념물 오브젝트(120)를 뷰 필드의 우측에 놓게되면 아카이빙 엔진(130)이 타임라인 오브젝트(155) 내의 이벤트 오브젝트(145)를 통해 고속 전진하도록 유발할 수 있다. 유사하게, 기념물 오브젝트(120)를 뷰 필드의 좌측 근처에 놓게되면 아카이빙 엔진(130)이 타임라인 오브젝트(155) 내의 이벤트 오브젝트(145)를 통해 되감기를 하도록 유발할 수 있다. 더욱이, 사용자는 이벤트 오브젝트(145) 내에 표현되는 콘텐츠에 기초하여 타임라인 오브젝트(155)로부터 다른 것으로 점프할 수 있다. 예를 들면, 만일 두 사람이 비디오 이벤트 오브젝트 내에 표현된다면, 인터페이스는 사용자가 비디오 내의 일부 또는 모든 사람들과 연관된 타임라인으로 점프하도록 허용할 수 있다.Suitable techniques for retrieving or presenting an event object 145 that may be adapted to the subject matter of the present invention include Verizon® Viewdini ™, which allows for retrieving or browsing streamed content (URL news.cnet.com/ 8301-1023_3-57439056-93 / verizon-unveils-viewdini-video-service-for-mobile-devices /). Viewdini may be augmented to recognize the features of monument object 120 and to allow navigation of event object 145. Viewini can be adapted to present the timeline information to the user as a series of available streamed events. In addition, upon recognizing the monument object 120, Budini jumps to a particular event object 145 on the timeline, allowing the user to move their reference point on the timeline while moving to a relatively earlier or future time. Can be adapted to provide "time shifting" capability. For example, for time movement, the user may move the monument object 120 to various locations or orientations with respect to the field of view of the device 160B. Perhaps placing the monument object 120 to the right of the view field can cause the archiving engine 130 to advance rapidly through the event object 145 in the timeline object 155. Similarly, placing the monument object 120 near the left side of the view field can cause the archiving engine 130 to rewind through the event object 145 in the timeline object 155. Moreover, the user can jump from the timeline object 155 to another based on the content represented within the event object 145. For example, if two people are represented in a video event object, the interface may allow the user to jump to a timeline associated with some or all of the people in the video.

아카이빙 엔진(130)은 많은 기술을 통해 이벤트 오브젝트(145)를 구체화하도록 사용되는 이벤트(110)에 관련된 콘텐츠를 획득하거나 또는 수신한다. 어떤 시나리오에서, 이벤트 콘텐츠는 캡처 장치(160A)로부터 아카이빙 엔진(130)으로 푸시될 수 있다. 대안으로, 아카이빙 엔진(130)은 캡처 장치(160A)로부터 이벤트 콘텐츠를 끌어올 수 있다. 또한, 아카이빙 엔진(130)은, 아마도 네트워크(115)를 통해, 정기적으로 또는 다른 유발 조건에 기초하여, 이벤트 콘텐츠를 자동으로 탐색할 수 있다. 이러한 접근 방법은, 적절한 인가가 부여된다면, 최소한의 사용자 인터랙션을 갖는 타임라인 오브젝트(155)의 자동 구축을 허용한다. The archiving engine 130 obtains or receives content related to the event 110 that is used to materialize the event object 145 through many techniques. In some scenarios, event content may be pushed from capture device 160A to archiving engine 130. Alternatively, archiving engine 130 may draw event content from capture device 160A. In addition, the archiving engine 130 may automatically search for event content, perhaps via the network 115, periodically or based on other triggering conditions. This approach allows automatic construction of the timeline object 155 with minimal user interaction, if given appropriate authorization.

이벤트 오브젝트(145)는 하나 이상의 타임라인 오브젝트(155)에 결속될 수 있다는 것이 이해되어야 한다. 예를 들면, 생일 파티의 비디오는 몇몇 개인의 이미지를 포함할 수 있다. 아카이빙 엔진(130)은 비디오나 이벤트 콘텐츠 내의 개인이나 다른 오브젝트를 인식할 수 있으며, 사람들이 그들 자신의 타임라인을 갖는지 여부를 결정할 수 있다. 만일 그렇다면, 적절하게 인가된다면, 아카이빙 엔진(130)은 이벤트 오브젝트(145A)를 인식된 사람들의 타임라인에 결속시킬 수 있다.It should be understood that the event object 145 may be bound to one or more timeline objects 155. For example, a video of a birthday party may include some individual images. The archiving engine 130 can recognize individuals or other objects in the video or event content and can determine whether people have their own timeline. If so, and if properly applied, archiving engine 130 may bind event object 145A to the timeline of the recognized people.

비록 개시된 주제는 중앙 아카이빙 엔진과 관련하여 표현되었지만, 엔진의 다양한 역할이나 책임은 복수의 장치에 분배될 수 있다는 것이 이해되어야 한다. 예를 들면, 휴대폰은 인식 엔진으로서 작동하면서 기념물 오브젝트(120)로부터 일련의 특징(125)을 도출할 수 있다. 또한, 엔진(130)은 검색 엔진, 네트워크 인프라장비(예를 들면, 스위치, 라우터 등), 장치(160A나 160B), 소셜 네트워크 서비스, 클라우드 서비스, 셋톱 박스, 게임 장치, 또는 기타 다른 장치들을 포함하는 복수의 컴퓨팅 장치에 걸쳐 분산될 수 있다. Although the disclosed subject matter has been presented in connection with a central archiving engine, it is to be understood that the various roles or responsibilities of the engine may be distributed to a plurality of devices. For example, the mobile phone can derive a series of features 125 from monument object 120 while operating as a recognition engine. Engine 130 may also include a search engine, network infrastructure (e.g., switches, routers, etc.), devices 160A or 160B, social network services, cloud services, set-top boxes, game devices, or other devices. Can be distributed across a plurality of computing devices.

사람들이 콘서트나 기타 다른 이벤트에 참석하는 유즈케이스(use-case)를 고려해보자. 사용자는 그들의 스마트폰을 통해 콘서트와 연관된 데이터를 캡처한다. 캡처된 정보는 대화의 기록, 밴드의 비디오, 친구의 이미지나, 또는 기타 다른 이벤트 콘텐츠를 포함할 수 있다. 캡처된 데이터는 아카이빙 엔진(130)을 통해 이벤트 오브젝트(145)로 통합될 수 있다. 아카이빙 엔진(130)은, 아마도 타임 스탬프에 기초하여, 사용자의 타임라인에 이벤트 콘텐츠 데이터를 할당한다. 또한, 아카이빙 엔진(130)은, 만일 위치 데이터가 가용하다면, 이벤트 콘텐츠 데이터의 전부나 일부를 장소의 타임라인에 할당할 수 있다. 어떤 실시예에서, 사용자는 또한 그들의 콘서트 티켓의 이미지를 캡처하여 이벤트(110)에 대한 기념물 오브젝트(120)로서 티켓을 등록할 수 있다. 미래에, 사용자가 티켓을 다시 떠올릴 때는 언제나, 이들은 이벤트 정보(예를 들면, 대화, 비디오, 이미지 등)를 재빠르게 상기할 수 있다.Consider a use-case where people attend a concert or other event. Users capture data associated with the concert via their smartphones. The captured information may include a record of the conversation, a video of the band, an image of a friend, or other event content. The captured data can be integrated into the event object 145 via the archiving engine 130. Archiving engine 130 assigns event content data to the user's timeline, perhaps based on a time stamp. The archiving engine 130 may also assign all or part of the event content data to the timeline of the venue, if location data is available. In some embodiments, the user may also capture an image of their concert ticket and register the ticket as monument object 120 for event 110. In the future, whenever the user comes back to the ticket, they can quickly recall event information (eg, conversations, videos, images, etc.).

기념물 오브젝트는 아카이빙 엔진(130)과 연결되거나 아카이빙 엔진(130)을소유하거나 운영하는 기념물 서비스(예를 들면, 3D 프린터, CNC 머신, 제조자 웹사이트 등)에 의해 제작될 수 있다. 기념물 서비스는 이벤트 데이터를 사용하여 타임라인 오브젝트(155) 내의 이벤트 오브젝트(145)에 기초하여 기념물 오브젝트(120)를 구성하거나 제조할 수 있다. 예를 들면, 아마도 한 어린이의 생일을 위하여, "트레이딩 카드"가 제작되고, 각 카드는 해당 어린이의 그 전년도의 생활 동안의 이벤트에 대응하면서, "일년 리뷰"를 형성할 수 있다. 각 트레이딩 카드가 (예를 들면, 등록된 일련의 특징(125)에서 기념물 오브젝트(120)로) 활성화되어, 사람들이 카드의 이미지를 캡처하면 대응하는 이벤트 데이터를 획득하도록 허용할 수 있다. 카드는 대응하는 이벤트로부터 획득된 이미지를 포함할 수 있다. 다른 예는 기념품, 아마도 인형, 전투 인형, 장식물, 플레이트, 보석, 게임 토큰, 기타 다른 유형의 아이템의 제작을 포함할 수 있다. 어떤 실시예에서, 복수의 개인은 동일한 기념물 오브젝트(120), 예를 들면, 동일한 장식물을 수신할 수 있다. 이러한 경우에, 이벤트 오브젝트(145)나 타임라인 오브젝트(155)는 사용자 식별, 위치, 장치 식별이나 기타 다른 요인을 포함하는 시스템에 가용한 추가적인 정보에 기초하여 분간될 수 있다. 대안으로, 각 중복된 기념물 오브젝트는 동일한 이벤트 오브젝트를 단순히 지적할 수 있다.Monument objects may be produced by monument services (eg, 3D printers, CNC machines, manufacturer websites, etc.) that are connected to, or own or operate, the archiving engine 130. The monument service may use the event data to construct or manufacture the monument object 120 based on the event object 145 in the timeline object 155. For example, perhaps for a child's birthday, a "trading card" may be made, each card forming a "one year review", corresponding to the event during that year's life of that child. Each trading card may be activated (eg, from the registered set of features 125 to the monument object 120) to allow people to acquire corresponding event data once they capture an image of the card. The card may include an image obtained from the corresponding event. Other examples may include making souvenirs, perhaps dolls, combat dolls, ornaments, plates, jewellery, game tokens, or other types of items. In some embodiments, multiple individuals may receive the same monument object 120, eg, the same ornament. In this case, event object 145 or timeline object 155 may be differentiated based on additional information available to the system, including user identification, location, device identification or other factors. Alternatively, each duplicate monument object may simply point to the same event object.

도 2는 타임라인 오브젝트(255), 기념물 오브젝트(223), 이벤트 오브젝트(245)로 총칭되는 이벤트 오브젝트들(245A 내지 245N) 간의 관계를 보여준다. 타임라인 오브젝트(255)는 시간에 따라 정렬되고 엔티티(예를 들면, 사람, 차량, 빌딩, 위치 등)와 연관되는 이벤트를 표현한다. 타임라인 오브젝트(255)는 또한 타임라인 오브젝트(255)가 구체화되나, 움직이거나, 복제되거나, 분기하거나, 삭제되거나, 목록에 기재되거나, 그렇지 않으면 서술된 에코시스템 내의 별도의 관리될 수 있는 오브젝트일 수 있다. 또한, 타임라인 오브젝트(255)나 시스템 내의 기타 다른 오브젝트들은 비-휘발성 컴퓨터 판독가능한 매체에 저장될 수 있다.2 shows a relationship between event objects 245A through 245N collectively referred to as timeline object 255, monument object 223, and event object 245. Timeline object 255 represents an event that is aligned over time and associated with an entity (eg, person, vehicle, building, location, etc.). The timeline object 255 is also a separate manageable object within the ecosystem in which the timeline object 255 is embodied, moved, duplicated, branched, deleted, listed, or otherwise described. Can be. In addition, the timeline object 255 or other objects in the system may be stored on a non-volatile computer readable medium.

타임라인 오브젝트(255)는 타임라인 오브젝트(255)의 관리를 돕는 다양한 특징을 포함할 수 있다. 어떤 더 많은 바람직한 실시예에서, 타임라인 오브젝트(255)는 타임라인 오브젝트(255)의 본성을 서술하는 하나 이상의 타임라인 속성을 포함할 수 있다. 예제 속성은 타임라인의 식별자, 소유자 ID(예를 들면, 사용자 이름, 키(key), 토큰 등), 타임라인 유형 식별자(예를 들면, 개인적 타임라인, 빌딩 타임라인, 위치 타임라인 등), 다른 타임라인으로의 포인터나 참조, 사용자 인구통계학, 이벤트 오브젝트 카운트, 시간 범위, 위치나 장소, 또는 기타 다른 속성들을 포함할 수 있다. 엔티티들이 타임라인 오브젝트(255)에 접근하거나 관리함에 따라, 엔티티는 타임라인 데이터베이스에 하나 이상의 쿼리를 제출함으로써 타임라인 오브젝트(255)를 탐색할 수 있는데, 쿼리는 타임라인 속성의 용어로 정의될 수 있다. 예를 들면, 일련의 지오-로케이션 좌표와 연관되고 또한 나이가 18세에서 34세 사이에 있는 남자들과 연관되는 모든 타임라인 오브젝트(255)가 탐색될 수 있다. The timeline object 255 may include various features to help manage the timeline object 255. In some more preferred embodiments, timeline object 255 may include one or more timeline attributes that describe the nature of timeline object 255. Example attributes include the identifier of the timeline, the owner ID (e.g. username, key, token, etc.), the timeline type identifier (e.g., personal timeline, building timeline, location timeline, etc.), It can contain pointers or references to other timelines, user demographics, event object counts, time ranges, locations or locations, or other attributes. As the entities access or manage the timeline object 255, the entity may navigate the timeline object 255 by submitting one or more queries to the timeline database, which may be defined in terms of timeline attributes. have. For example, all timeline objects 255 associated with a series of geo-location coordinates and also with men aged between 18 and 34 may be searched.

타임라인 오브젝트(255)는 기념물 오브젝트(223)에 관련되는 하나 이상의 일련의 인식할 수 있는 특징을 표현하는 인덱스 정보를 더 포함할 수 있다. 인덱스 정보는 인식 특징에 대한 함수로서 정의되는 다양한 허용 인식 기준을 포함할 수 있으며, 여기서 기준은 대응하는 이벤트 오브젝트에 접근하기 위하여 부합해야 하는 만족 조건이나 요구사항을 지시한다. 따라서 타임라인 오브젝트(255)는 이벤트 오브젝트(245)를 포인팅하는 일련의 인식 특징을 저장하는 미니 또는 마이크로 오브젝트 인식 데이터베이스로 간주될 수 있다. 도해되는 것처럼, 인덱싱 정보는 스케일 불변 특징(예를 들면, SIFT, Lowe 등의 미국 특허 6,711,293 참조), 코너 탐지 특징(예를 들면, FAST; URL www.edwardrosten.com/work/fast.html 참조), 비주얼 패턴 인식 특징(예를 들면, Evolution Robotics의 ViPR®, vSLAM, Karlsson의 미국 특허 7,015,831 참조, 등), 오디오 패턴 인식 특징, 광 특성 인식 특징, 또는 기타 다른 인식 특징들을 포함할 수 있다. 각 일련의 특징은 타임라인 내의 대응하는 이벤트 오브젝트(245)를 참조하는 하나 이상의 포인터를 더 포함할 수 있다. 또한, 인덱싱 정보는 아카이빙 엔진이 대응하는 이벤트 오브젝트를 탐색하도록 만족시킬수 있는 조건을 포함할 수 있다.The timeline object 255 may further include index information representing one or more series of recognizable features associated with the monument object 223. The index information may include various accepted recognition criteria defined as a function of recognition characteristics, where the criteria indicate a satisfaction condition or requirement that must be met to access the corresponding event object. Thus, timeline object 255 may be considered a mini or micro object recognition database that stores a set of recognition features pointing to event object 245. As illustrated, the indexing information may include scale invariant features (see, eg, US Pat. No. 6,711,293 to SIFT, Lowe et al.), Corner detection features (eg, FAST; see URL www.edwardrosten.com/work/fast.html). , Visual pattern recognition features (eg, ViPR® from Evolution Robotics, vSLAM, see US Pat. No. 7,015,831 to Karlsson, etc.), audio pattern recognition features, optical characteristic recognition features, or other recognition features. Each series of features may further include one or more pointers that reference corresponding event objects 245 in the timeline. In addition, the indexing information may include a condition that may be satisfied by the archiving engine to search for the corresponding event object.

타임라인 오브젝트(255)는 이벤트가 시간에 따라 정렬되는 타임라인을 포함한다. 예시되는 쇼에서, 타임라인은 출생부터 사망까지의 개인의 타임라인을 표현하며, 여기에 어떤 이벤트는 이미 정의되어 있다. 타임라인 내의 이벤트는 타임라인 내의 실제의 데이터 구조로서 표현되거나, 또는 도시된 것처럼 이벤트 오브젝트(245)로서 외부에 저장될 수 있다. 이벤트 오브젝트(245)가 타임라인 오브젝트(255)의 외부에 있을 때, 타임라인은 이벤트 오브젝트(245)로 향하는 링크나 다른 포인터로 구성될 수 있다. 예를 들면, EO_LINK로 표현되는 포인터는 URLs, URIS, 네트워크 주소, 디지털 오브젝트 식별자(DOI), 이벤트 GUIDs, 인덱스 키, 또는 대응하는 이벤트 오브젝트(245)가 저장되는 위치로 귀결되는 기타 다른 주소를 포함할 수 있다.The timeline object 255 includes a timeline in which events are aligned over time. In the illustrated show, the timeline represents the individual's timeline from birth to death, where certain events are already defined. Events in the timeline may be represented as actual data structures in the timeline or externally stored as event objects 245 as shown. When the event object 245 is outside of the timeline object 255, the timeline may consist of a link or other pointer to the event object 245. For example, the pointer represented by EO_LINK includes URLs, URIS, network addresses, digital object identifiers (DOIs), event GUIDs, index keys, or any other address that results in the location where the corresponding event object 245 is stored. can do.

어떤 실시예에서, 타임라인 오브젝트(255)는, 아마도 엔티티의 유형에 대응하는, 템플릿 타임라인에 기초하여 구체화될 수 있다. 그러한 시나리오에서, 타임라인은 연역적으로 생성되어 이벤트 오브젝트에 대한 플레이스홀더(placeholder)를 갖는 적절한 묘사(예를 들면, 초, 분, 시간, 일, 주, 달, 년 등)를 가질 수 있다. 타임라인 오브젝트(255)는 타임라인에 대한 하나의 가능한 구조를 표현한다는 것 또한 이해되어야 한다. 대안은 이벤트 오브젝트의 정렬된 링크 리스트를 생성하거나 이벤트 오브젝트(245)로 향하는 포인터의 정렬된 리스트를 생성하는 것을 포함한다.In some embodiments, timeline object 255 may be embodied based on a template timeline, perhaps corresponding to the type of entity. In such a scenario, the timeline may be deduced and have a suitable description (eg, seconds, minutes, hours, days, weeks, months, years, etc.) with placeholders for the event objects. It should also be understood that timeline object 255 represents one possible structure for the timeline. Alternatives include generating an ordered list of links of event objects or an ordered list of pointers to event objects 245.

이벤트 오브젝트(245A)는 이벤트 오브젝트에 대한 하나의 가능한 구조로서 표현된다. 이벤트 오브젝트(245A)는 대응하는 이벤트의 성질을 설명하는 이벤트 속성을 포함할 수 있다. 타임라인 속성과 유사하게, 이벤트 속성은 다양한 컴퓨티 장치가 이벤트 속성-기반의 쿼리를 사용하여 이벤트 오브젝트(245)를 검색하도록 허용한다. 예제 이벤트 속성은 이벤트 ID, 이벤트 오브젝트 ID, 소유자 ID, 이벤트 유형 ID, 관련된 타임라인 오브젝트로 향하는 포인터나 링크, 기타 다른 이벤트 오브젝트로 향하는 포인터, 타임스탬프, 위치 스탬프 또는 기타 다른 유형의 속성을 포함할 수 있다. 또한, 이벤트 오브젝트(245)는 이벤트 콘텐츠나 이벤트 콘텐츠로의 링크를 포함할 수 있다. 예를 들면, 이벤트 오브젝트(245A)는 실제 콘텐츠로 구체화될 수 있으며, 이미지 데이터, 오디오 데이터, 비디오 데이터, 외부 콘텐츠로의 링크, 또는 기타 다른 유형의 콘텐츠 데이터를 포함할 수 있다.Event object 245A is represented as one possible structure for the event object. The event object 245A may include event attributes that describe the nature of the corresponding event. Similar to timeline attributes, event attributes allow various computing devices to retrieve event object 245 using event attribute-based queries. Example event attributes can include an event ID, event object ID, owner ID, event type ID, a pointer or link to a related timeline object, a pointer to another event object, a timestamp, a location stamp, or some other type of attribute. Can be. Event object 245 may also include event content or links to event content. For example, event object 245A may be embodied as actual content and may include image data, audio data, video data, links to external content, or some other type of content data.

도 3은 엔티티가 이벤트 콘텐츠와 함께 기념물 오브젝트의 일련의 인식 특징을 등록할 수 있는 이벤트 정보를 탐색하는 방법(300)을 표현한다. 엔티티는 기념물 오브젝트를 이벤트 콘텐츠를 탐색하는 기초로서 사용할 수 있다. 기념물 오브젝트는 적어도 2차원(예를 들면, 그림자, 이미지, 사진, 그림 등), 3차원(예를 들면, 전투 인형, 얼굴, 반지, 이동 비디오 등), 4차원(예를 들면, 이동 전투 인형, 이동 차량 등), 또는 좀 더 다차원의 관련성을 포함할 수 있는 실-세계 물리적 오브젝트를 표현한다는 것이 이해되어야 한다. 3 represents a method 300 for searching for event information that allows an entity to register a series of recognition features of a monument object with event content. The entity can use the monument object as a basis for searching for event content. Monument objects may be at least two-dimensional (e.g., shadows, images, photographs, pictures, etc.), three-dimensional (e.g., battle figurines, faces, rings, moving videos, etc.), four-dimensional (e.g., moving combat dolls , Moving vehicles, etc.), or more real-world physical objects that may include more multidimensional associations.

단계(310)은 이벤트 아카이빙 엔진으로 동작하도록 컴퓨팅 장치를 구성하는 단계를 포함한다. 예제 컴퓨팅 시스템은 서버, 워크스테이션, 휴대폰, 키오스크, 어플라이언스, 차량, 검색 엔진, CRM 시스템, 또는 기타 다른 유형의 컴퓨팅 장치를 포함할 수 있다. 컴퓨팅 장치는 컴퓨팅 장치의 메모리 내에 하나 이상의 명령 세트를 설치함으로써 구성될 수 있으며, 여기서 명령은 컴퓨팅 장치의 프로세서가 방법(300)의 여러 단계를 실행하도록 유발한다. 예를 들면, 휴대폰은 휴대폰에 적절하게 구성된 어플을 설치함으로써 개인용 이벤트 아카이빙 엔진으로 동작하도록 구성될 수 있다. 다른 실시예에서, 사용자는 그들의 개인용 컴퓨팅 장치를 사용하여 이벤트 정보를 아카이빙하고 탐색하는 수수료 징수 서비스로서 동작하는 원격 서버와 계약할 수 있다. 또한 하나 이상의 컴퓨팅 장치는 아카이빙 엔진의 서비스로의 접근을 지원하는 다음의 인터페이스 중에 적어도 하나에 접근하도록 프로그래밍될 수 있으며, 여기에는 어플리케이션 프로그램 인터페이스, 검색 엔진 인터페이스, 소셜 네트워크 인터페이스, 메모리 접근 인터페이스, 휴대폰 인터페이스, 브라우저 인터페이스, 센서 인터페이스, 또는 엔진에 접근할 수 있는 기타 다른 인터페이스가 있다. Step 310 includes configuring the computing device to operate as an event archiving engine. Example computing systems may include servers, workstations, mobile phones, kiosks, appliances, vehicles, search engines, CRM systems, or other types of computing devices. The computing device may be configured by installing one or more sets of instructions in the memory of the computing device, where the instructions cause the processor of the computing device to execute the various steps of the method 300. For example, the mobile phone may be configured to operate as a personal event archiving engine by installing a suitably configured application on the mobile phone. In another embodiment, a user may contract with a remote server operating as a fee collection service that uses their personal computing device to archive and retrieve event information. One or more computing devices may also be programmed to access at least one of the following interfaces that support access to the services of the archiving engine, including application program interfaces, search engine interfaces, social network interfaces, memory access interfaces, mobile phone interfaces. , Browser interface, sensor interface, or other interface to access the engine.

단계(320)는 시간에 따른 사건을 표현하는 이벤트 오브젝트를 수신하는 단계를 포함한다. 예제 이벤트는 파티, 콘서트, 스포츠 이벤트, 사고, 의료 비상, 가상 세계 내의 이벤트, 게임 이벤트, 또는 기타 다른 유형의 이벤트를 포함한다. 이벤트 오브젝트는 복수의 기술을 통해 획득될 수 있다. 어떤 실시예에서, 이벤트 오브젝트는 사건을 반영하는 이벤트 콘텐츠로부터 구체화될 수 있다. 다른 실시예에서, 이벤트 오브젝트는 이벤트 오브젝트의 데이터베이스로부터 탐색될 수 있다.Step 320 includes receiving an event object representing an event over time. Example events include parties, concerts, sporting events, accidents, medical emergencies, events within a virtual world, game events, or some other type of event. The event object may be obtained through a plurality of techniques. In some embodiments, an event object may be embodied from event content that reflects an event. In other embodiments, the event object may be retrieved from a database of event objects.

사람이 스포츠 이벤트를 "회상"하고자 하는 예를 생각해보자. 사람은 이벤트 아카이빙 엔진이 이벤트 오브젝트를 수신할 수 있는 복수의 선택을 갖는 것으로 표현될 수 있다. 앞에서 논의한 것처럼, 이벤트 오브젝트는 다양한 유형의 멀티-미디어 데이터를 갖는 미디어 오브젝트를 포함할 수 있다. 예제 멀티미디어 데이터는 오디오 데이터, 비디오 데이터, 이미지 데이터, 모션 데이터, 가속 데이터, 온도 데이터, 위치 데이터, 시간 데이터, 메타데이터, 식별 데이터, 선호 데이터, 게임 데이터, 보안 데이터, 또는 기타 다른 유형의 데이터를 포함한다. 단계(321)는 이벤트 오브젝트를 이벤트 아카이빙 엔진으로 푸시하는 단계를 포함할 수 있다. 예를 들면, 사람이 휴대폰을 통해 스포츠 이벤트로부터 이미지, 오디오 또는 기타 다른 데이터를 캡처할 때, 휴대폰은 이벤트 데이터를 이벤트 오브젝트로 패키징하여 이벤트 오브젝트를 그의 연관된 이벤트 콘텐트 데이터와 함께 이벤트 아카이빙 엔진으로 푸시할 수 있다. 대안으로, 단계(323)는 이벤트 아카이빙 엔진이 이벤트 오브젝트를 휴대폰이나 다른 컴퓨팅 장치로부터 끌어오는 단계를 포함할 수 있다. 단계(325)는 이벤트 오브젝트를 아마도 이벤트 데이터에 제출된 맥락적 쿼리에 기초하여 자동으로 수신하는 단계를 포함할 수 있다. 단계(327)에 제시되는 것처럼, 필요나 요구에 따라서, 이벤트 오브젝트는 네트워크를 통해 수신될 수 있다는 것이 이해되어야 한다. Consider the example where a person wishes to "recall" a sporting event. A person may be represented as having a plurality of choices for the event archiving engine to receive an event object. As discussed above, event objects may include media objects having various types of multi-media data. Example multimedia data may include audio data, video data, image data, motion data, acceleration data, temperature data, position data, time data, metadata, identification data, preference data, game data, security data, or some other type of data. Include. Step 321 may include pushing the event object to the event archiving engine. For example, when a person captures images, audio, or other data from a sporting event via a mobile phone, the mobile phone packages the event data into an event object to push the event object along with its associated event content data to the event archiving engine. Can be. Alternatively, step 323 may include the event archiving engine pulling the event object from the mobile phone or other computing device. Step 325 may include receiving the event object automatically based on a contextual query, possibly submitted to event data. As shown in step 327, it should be understood that event objects may be received over the network, as needed or desired.

단계(330)는 이벤트 오브젝트를 엔티티와 연관된 타임라인에 결속시키는 단계를 포함하며, 여기서 타임라인은 시간에 따라 정돈되는 복수의 이벤트 오브젝트를 포함한다. 엔티티는 사람, 동물, 회사, 조직, 그룹, 가족, 학교, 연감, 빌딩, 차량, 또는 기타 다른 유형의 엔티티를 포함할 수 있다. 이벤트 오브젝트는 아마도 사용자 인터페이스를 통해 타임라인에 자동으로 또는 수작업으로 결속될 수 있다. 각 타임라인은 생애, 라이프 스테이지, 연, 월, 주, 일, 시간, 기타 다른 시간적인 세그먼트에 기초하는 시간 구획을 포함할 수 있다. 한 개인의 태블릿 컴퓨터가, 아마도 일일 기반으로, 목격된 타임라인 오브젝트를 자동으로 구축하는 개인적인 목격자(예를 들면, 이벤트 아카이빙 엔진)로서 동작하는 시나리오를 고려해보자. 며칠, 몇 주, 몇 개월에 걸쳐서, 태블릿은 개인의 이벤트의 이미지를 캡처한다. 태블릿은 상기 이미지를 사용하여, 이벤트 오브젝트를 생성하고 이미지를 목격된 타임라인 오브젝트에 이벤트 오브젝트로서 결속함으로써 타임라인을 자동으로 구성할 수 있다. 이벤트 오브젝트가 도착함에 따라, 태블릿은 단계(335)에 제시되는 것처럼 타임라인 내의 이벤트 오브젝트들을 그들의 발생에 따라 배열할 수 있다. 따라서, 시간-정렬된, 또는 아마도 공간 정렬된, 이벤트의 리스트가 구축된다. 또한, 엔진은 이벤트 오브젝트의 이벤트 콘텐츠 데이터 내의 오브젝트의 인식에 기초하여 복수의 타임라인에 이벤트 오브젝트를 결속할 수 있다. 예로서, 이벤트 오브젝트는 몇몇 친구의 이미지나 사진을 포함할 수 있다. 인식 플랫폼으로 동작하는 이벤트 아카이빙 엔진은 각 친구의 얼굴을 인식하여, 각 인식된 친구의 타임라인으로 상기 이미지를 갖는 이벤트 오브젝트를 결속할 수 있다. Step 330 includes binding the event object to a timeline associated with the entity, where the timeline includes a plurality of event objects arranged over time. An entity may include a person, animal, company, organization, group, family, school, yearbook, building, vehicle, or other type of entity. Event objects may be automatically or manually bound to the timeline, perhaps through the user interface. Each timeline may include a time segment based on lifetime, life stage, year, month, week, day, time, and other temporal segments. Consider a scenario in which an individual tablet computer acts as a personal witness (eg, an event archiving engine) that automatically builds a witnessed timeline object on a daily basis. Over days, weeks, and months, the tablet captures images of personal events. The tablet can use the image to automatically construct a timeline by creating an event object and binding the image to the witnessed timeline object as an event object. As the event object arrives, the tablet may arrange the event objects in the timeline according to their occurrence, as shown in step 335. Thus, a list of events is constructed that are time-aligned, or perhaps spatially aligned. The engine may also bind the event object to a plurality of timelines based on the recognition of the object in the event content data of the event object. As an example, the event object may include images or photos of some friends. The event archiving engine operating as the recognition platform may recognize each friend's face and bind the event object having the image to the timeline of each recognized friend.

기념물을 갖는 이벤트 오브젝트를 등록하기 위한 준비에서, 단계(340)는 타임라인에 결속된 이벤트 오브젝트로부터 선택된 이벤트 오브젝트를 선택하는 단계를 포함할 수 있다. 선택된 이벤트 오브젝트는 선택 이전에 타임라인에 연역적으로 독립적일 수 있다는 것이 이해되어야 한다. 따라서, 단계(330)는 단계(340)의 선택 프로세스 이후에 발생할 수 있다. 이벤트 오브젝트는 다양한 기술을 통해 선택될 수 있다. 전형적으로 사용자는 이벤트 오브젝트가 이벤트 콘텐츠 데이터(예를 들면, 이미지, 오디오, 비디오, 온도, 바이오메트릭 등)에 기초하여 구체화되도록 할 것이다. 또한, 사용자나 기타 다른 엔티티는 단계(343)에서 제시하는 것처럼 이벤트 오브젝트를 검색할 수 있다. 예를 들면, 타임라인은 많은 연역적으로 결속되는 이벤트 오브젝트를 포함할 수 있다. 차후에, 사용자는 특정 타임 스탬프, 콘텐츠나 기타 다른 요구되는 속성을 갖는 타임라인 내의 이벤트 오브젝트를 검색할 수 있다. In preparation for registering an event object with a monument, step 340 may include selecting a selected event object from the event object bound to the timeline. It should be understood that the selected event object may be deductively independent of the timeline prior to selection. Thus, step 330 may occur after the selection process of step 340. The event object may be selected through various techniques. Typically the user will allow the event object to be specified based on event content data (eg, image, audio, video, temperature, biometrics, etc.). In addition, the user or other entity may retrieve the event object as presented in step 343. For example, a timeline may include many deductively bound event objects. Later, the user can search for event objects in the timeline that have a particular time stamp, content or other desired attributes.

선택된 이벤트 오브젝트는, 단계(341)에서 제시되는 것처럼, 제2의, 상이한 타임라인에 기초하여 선택될 수 있다는 것이 또한 고려되어야 한다. 두 개인이 별도의 분리된 타임라인을 가지며, 공통의 이벤트, 예를 들면, 의료 응급상황에 참여한다고 생각해보자. 두 개인은 그들 각각의 타임라인 내의 이벤트 오브젝트를 생성할 수 있다. 한 개인은 발생한 상처의 이미지에 기초하여 회상할 수 있는 이벤트를 생성하기를 원하고, 또한 두 개의 타임라인 간에 오버래핑되는 이벤트 오브젝트에 기초하여 이벤트를 선택하고자 할 수 있다. 이러한 접근 방법은 환자와 헬스케어 제공자 간에 공유되는 의료 타임라인을 구성할 때 이롭다고 생각될 수 있을 것이다. It should also be considered that the selected event object may be selected based on a second, different timeline, as shown in step 341. Suppose two individuals have separate timelines and participate in a common event, such as a medical emergency. Two individuals can create an event object in their respective timeline. An individual may wish to generate an event that can be recalled based on the image of the wound that occurred, and may also select an event based on an event object that overlaps between the two timelines. This approach may be considered beneficial when constructing a medical timeline shared between the patient and the healthcare provider.

어떤 타임라인은 이벤트와 연관된 실질적으로 유사한 타임스탬프를 갖는 많은 이벤트 오브젝트를 포함할 수 있다. 예를 들면, 생일 파티는 짧은 시간 스팬 내에 찍혀진 수백장의 사진을 포함할 수 있다. 이러한 상황에서, 단계(345)는 선택된 이벤트 오브젝트를 아마도 일련의 가용한 이벤트 오브젝트로부터 임의로 선택하는 단계를 포함할 수 있다. 추가로, 선택된 이벤트 오브젝트는 일련의 가용한 이벤트 오브젝트를 더 제한할 수 있는 추가적인 기준에 기초하여 선택될 수 있다. 아마도 선택된 이벤트 오브젝트는 단계(347)에서 제시되는 것처럼 타임라인 내의 특정 타임 스팬 내의 이벤트 오브젝트로로부터 선택된다. 생일의 예로 돌아가면, 사용자는 특정 흥미있는 서브-이벤트(예를 들면, 촛불을 불어서 끄기, 선물 열기 등) 근방의 타임 스팬을 명시할 수 있다. 타임 스팬은 관련된 시간(예를 들면, 어느 시점 근방의 플러스 마이너스)에 기초하거나 절대적 시간(예를 들면, 시작 시간부터 종료 시간까지)에 기초하여 정의될 수 있다.Some timelines may include many event objects having substantially similar timestamps associated with the event. For example, a birthday party can include hundreds of photos taken within a short span of time. In such a situation, step 345 may include randomly selecting the selected event object from a series of available event objects. In addition, the selected event object may be selected based on additional criteria that may further limit the set of available event objects. Perhaps the selected event object is selected from the event object in a particular time span in the timeline as presented in step 347. Returning to the example of a birthday, the user may specify a time span near a particular interesting sub-event (eg, blowing out candles, opening a gift, etc.). The time span can be defined based on the associated time (eg, plus or minus near some point in time) or based on an absolute time (eg, from start time to end time).

단계(360)는 기념물 오브젝트와 관련된 일련의 인식할 수 있는 특징에 기초하여 선택된 이벤트 오브젝트와 함께 타임라인 내의 인덱싱된 정보를 등록하는 단계를 포함할 수 있다. 일련의 인식할 수 있는 특징은 하나 이상의 인덱스로 간주되고, 이를 이용하여 선택된 이벤트 오브젝트가 타임라인으로부터 탐색될 수 있다. 일련의 인식할 수 있는 특징은 하나 이상의 알고리즘을 기념물 오브젝트의 디지털 표현에 적응함으로써 도출될 수 있다. 디지털 표현 내의 이미지 데이터에 대하여, 예제 알고리즘은 SIFT, FAST, ViPR, BRISK, OCR, 또는 기타 다른 이미지 프로세싱 알고리즘을 포함할 수 있다. 비디오 데이터는 유사한 이미지 프로세싱 알고리즘, vSLAM, 비디오 콘텐츠 분석(Vijverberg 등에 의한 "Two novel motion-based algorithms for surveillance video analysis on embedded platforms prohibited" 참조, URL dx.doi.org/10.1117/12.851371 참조), 또는 기타 다른 비디오 프로세싱 알고리즘에 의해 프로세싱될 수 있다. 디지털 표현 내의 오디오 데이터로부터의 특징은 동적 타임 와핑(Dynamic Time Warping)을 사용하는 자동 스피치 인식(automatic speech recognition, ASR), 히든 마르코브 모델(Hidden Markov models), 신경망, 또는 기타 다른 알고리즘에 기초하여 추출될 수 있다. 일련의 인식할 수 있는 특징은 기념물 오브젝트의 디지털 표현의 다양한 양식에 맞는 특징을 포함할 수 있다. 일련의 인식할 수 있는 특징은 오디오 데이터 특성, 이미지 데이터 특성, 컬러, 형태, 관련성의 차원, 메이크(make), 모델, 인코딩된 데이터, 비-인코딩된 정보, 텍스처, 또는 디지털 표현으로부터 도출되는 기타 다른 정보를 포함할 수 있다. 따라서, 일련의 인식할 수 있는 특징은 벡터의 각 멤버가 상이한 양식(예를 들면, 이미지, 오디오, 비디오, 공간, 시간, 온도 등)을 표현하는 벡터로서 표현될 수 있다. 또한 벡터의 각 멤버는 관련 특징의 리스팅을 포함할 수 있다. 일련의 인식할 수 있는 특징은 성공적인 인식 "히트"를 결정하기 위하여, 해당 특징에 관련하여 충족되어야 하는 하나 이상의 기준을 더 포함할 수 있다. 예를 들면, 만일 이미지 데이터만이 기념물 오브젝트로 표현되도록 사용되고 일련의 특징은 오직 SIFT 특징만을 포함한다면, 인식 기준은, 기념물 오브젝트가 인식되어서 대응하는 이벤트 오브젝트의 탐색을 촉발하도록 하기 위하여, 특징의 적어도 75%가 표현되어야 한다고 요구할 수 있다. 인식 기준은 이벤트 아카이빙 엔진이나, 사용자나, 또는 다른 기술에 의해 자동으로 결정될 수 있다. Step 360 may include registering indexed information in the timeline with the selected event object based on the series of recognizable features associated with the monument object. The set of recognizable features is considered one or more indices, whereby the selected event object can be retrieved from the timeline. A set of recognizable features can be derived by adapting one or more algorithms to the digital representation of the monument object. For image data in the digital representation, the example algorithm may include SIFT, FAST, ViPR, BRISK, OCR, or some other image processing algorithm. Video data can be similar image processing algorithms, vSLAM, video content analysis (see "Two novel motion-based algorithms for surveillance video analysis on embedded platforms prohibited" by Vijverberg et al., See URL dx.doi.org/10.1117/12.851371), or other May be processed by other video processing algorithms. Features from audio data in digital representations are based on automatic speech recognition (ASR), Hidden Markov models, neural networks, or other algorithms using dynamic time warping. Can be extracted. The set of recognizable features may include features that fit various forms of the digital representation of the monument object. A set of recognizable features may include audio data features, image data features, colors, shapes, dimensions of relevance, make, models, encoded data, non-encoded information, textures, or other derivations from digital representations. May contain other information. Thus, a set of recognizable features may be represented as a vector in which each member of the vector represents a different form (eg, image, audio, video, space, time, temperature, etc.). Each member of the vector can also contain a listing of related features. The set of recognizable features may further include one or more criteria that must be met with respect to the feature in order to determine a successful recognition “hit”. For example, if only image data is to be represented as a monument object and the series of features includes only SIFT features, then the recognition criteria may be such that the monument object is recognized so as to trigger a search of the corresponding event object. 75% may be required to be expressed. Recognition criteria may be automatically determined by the event archiving engine, the user, or other technology.

단계(365)는 일련의 인식할 수 있는 특징에 따라서 선택된 이벤트 오브젝트를 인덱싱하는 단계를 포함할 수 있다. 선택된 이벤트 오브젝트는 일련의 인식할 수 있는 특징의 하나 이상의 멤버를 인덱스로 사용하여 이벤트 데이터베이스 내에 선택된 이벤트 오브젝트를 저장함으로써 인덱싱될 수 있다. 추가로, 타임라인은 인덱스로서 일련의 인식할 수 있는 특징에 의해 갱신될 수 있으며, 타임라인 자신은, 적어도 어느 수준에서, 작은 인식 데이터베이스로서 동작하며, 유사한 인식할 수 있는 특징을 마주치면서 이벤트 아카이빙 엔진에 기초하여 이벤트 오브젝트를 탐색할 수 있다. 선택된 이벤트 오브젝트는 타임라인에 통합되거나, 또는 포인터나 링크(예를 들면, 네트워크 주소, GUIDs 등)를 통해 타임라인에 의해 참조될 수 있다.Step 365 may include indexing the selected event object according to a set of recognizable features. The selected event object may be indexed by storing the selected event object in the event database using one or more members of the set of recognizable features as an index. In addition, the timeline can be updated by a series of recognizable features as an index, the timeline itself acting as a small recognition database, at least at some level, archiving events while encountering similar recognizable features. You can search for event objects based on the engine. The selected event object can be integrated into the timeline or referenced by the timeline via a pointer or link (eg, network addresses, GUIDs, etc.).

단계(370)는 기념물 오브젝트의 디지털 표현으로부터 도출되는 적어도 하나의 도출된 표현으로부터 적어도 부분적으로 획득되는 인덱싱 정보를 통해 선택된 이벤트 오브젝트를 타임라인으로부터 탐색하는 단계를 포함하고, 상기 도출된 표현은 상기 일련의 인식할 수 있는 특징 내의 인식할 수 있는 특징에 대응한다. 예를 들면, 엔티티가 이벤트 오브젝트를 회상하거나 기억하기를 희망한 이후에, 그들은 해당 이벤트 오브젝트가 등록되었던 기념물 오브젝트의 새로운 디지털 표현을 캡처할 수 있다. 아카이빙 엔진은 하나 이상의 알고리즘(예를 들면, SIFT, BRISK, FAST, vSLAM 등)을 새로운 디지털 표현에 적용하여 하나 이상의 도출된 특징을 획득한다. 인식할 수 있는 특징과 유사하게, 도출된 특징은 오디오 데이터 특성, 이미지 데이터 특성, 컬러, 형태, 관련성의 차원, 메이크(make), 모델, 인코딩된 데이터, 비-인코딩된 정보, 속성, 텍스처, 위치, 시간, 또는 새로운 디지털 표현으로부터 도출될 수 있는 기타 다른 특징을 포함할 수 있다. 엔진은 다음으로 하나 이상의 도출된 특성을 사용하여 유사한 인식할 수 있는 특징에 기초하여 인덱싱된 등록된 이벤트 오브젝트를 위하여 타임라인을 쿼리한다. 어떤 실시예에서, 단계(375)에서 제시되는 것처럼, 타임라인은 이벤트 아카이빙 엔진을, 도출된 특징에 대응하는 등록된 인식할 수 있는 특징을 갖는 이벤트 오브젝트를 검색하는, 이벤트 검색 엔진으로서 구성하도록 고려될 수 있다. 따라서, 이벤트 아카이빙 엔진은 기념물에 기초하여 이벤트 오브젝트를 "회상" 또는 "기억"할 수 있다. 이벤트 오브젝트를 탐색하기 위해 사용되는 인덱싱 정보는 이벤트 오브젝트 자신의 콘텐츠보다는 오히려 기념물 오브젝트에 관련된다는 것이 이해되어야 한다.Step 370 includes searching the selected event object from the timeline via indexing information that is at least partially obtained from at least one derived representation derived from the digital representation of the monument object, wherein the derived representation is a series of symbols. Corresponds to a recognizable feature within a recognizable feature of the. For example, after an entity wishes to recall or remember an event object, they can capture a new digital representation of the monument object to which the event object was registered. The archiving engine applies one or more algorithms (eg SIFT, BRISK, FAST, vSLAM, etc.) to the new digital representation to obtain one or more derived features. Similar to recognizable features, derived features can include audio data features, image data features, colors, shapes, dimensions of relevance, make, models, encoded data, non-encoded information, attributes, textures, Location, time, or other features that may be derived from the new digital representation. The engine then queries the timeline for indexed registered event objects based on similar recognizable features using one or more derived properties. In some embodiments, as presented at step 375, the timeline is contemplated to configure the event archiving engine as an event search engine, retrieving an event object having a registered recognizable feature corresponding to the derived feature. Can be. Thus, the event archiving engine may "recall" or "remember" the event object based on the monument. It should be understood that the indexing information used to navigate the event object is related to the monument object rather than the content of the event object itself.

단계(350)는 선택된 이벤트 오브젝트에 기초하여 기념물 오브젝트를 제작하는 단계를 선택적으로 포함할 수 있다. 어떤 실시예에서, 이벤트 아카이빙 엔진은 제시된 기념물 오브젝트에 대하여 하나 이상의 추천을 제안할 수 있다. 예를 들면, 이벤트 아카이빙 엔진이 이벤트 콘텐츠 데이터, 아마도 이미지 데이터를 수신할 때, 이벤트 아카이빙 엔진은 하나 이상의 이미지를 선택하여 실세계 오브젝트를 구성할 수 있다. 아마도 이미지 데이터는 사진, 열쇠 고리, 이미지, 카드, 작은 조각상, 장치, 이동 오브젝트(예를 들면, 전투 인형, 버블헤드 등), 또는 사용자에게 보낼 수 있는 기타 다른 물리적 아이템을 생성하도록 사용될 수 있다. 이러한 접근 방법은 엔티티가 기억을 강화하기 위하여 명시된 이벤트에 대하여 그들의 기념물을 맞추거나 개인화하도록 허용하기 때문에 이롭다고 여겨진다.Step 350 may optionally include producing a monument object based on the selected event object. In some embodiments, the event archiving engine may propose one or more recommendations for the presented monument object. For example, when the event archiving engine receives event content data, perhaps image data, the event archiving engine may select one or more images to construct a real world object. Perhaps the image data can be used to create photos, key chains, images, cards, figurines, devices, moving objects (eg, combat dolls, bubbleheads, etc.), or other physical items that can be sent to the user. This approach is considered beneficial because it allows entities to tailor or personalize their monuments to specified events to enhance memory.

본 발명의 개념으로부터 벗어나지 않고도 이미 설명된 것들 이외의 많은 더 이상의 변경이 가능하다는 것이 본 발명이 속하는 기술 분야에서 통상의 지식을 갖는 자에게 명백할 것이다. 본 발명의 주제는, 따라서, 첨부되는 청구범위의 영역 이외에는 한정되지 않는다. 또한, 본 명세서와 청구범위를 모두 해석함에 있어서, 모든 용어는 맥락상 일치하는 가능한 가장 넓은 방식으로 해석되어야 한다. 특히, 용어 "포함한다"와 "포함하는"은, 구성요소, 컴포넌트, 또는 단계를 비-배타적인 방식으로 참조하며, 참조되는 구성요소, 컴포넌트, 또는 단계는 명시적으로 참조되지 않는 다른 구성요소, 컴포넌트 또는 단계와 함께 표현하거나, 활용되거나, 또는 결합된다는 것을 지시하는 것으로 해석되어야 한다. 특정 청구 범위가 A,B,C... 및 N으로 구성되는 그룹으로부터 선택된 것 중의 적어도 하나를 참조할 때, 상기 텍스트는, A 더하기 N도 아니고, B 더하기 N 등이 아닌, 상기 그룹으로부터 오직 하나의 구성요소만이 필수적인 것으로 해석되어야 한다.It will be apparent to those skilled in the art that many more modifications than those already described are possible without departing from the concept of the invention. Accordingly, the subject matter of the present invention is therefore not limited except as by the scope of the appended claims. In addition, in interpreting both the specification and the claims, all terms should be interpreted in the broadest possible manner consistent with the context. In particular, the terms "comprises" and "comprising" refer to a component, component, or step in a non-exclusive manner, and the referenced component, component, or step refers to another component that is not explicitly referenced. It is to be construed as indicating that it is represented, utilized or combined with a component or a step. When a particular claim refers to at least one selected from the group consisting of A, B, C ... and N, the text is only from the group, not A plus N, B plus N or the like. Only one component should be construed as essential.

Claims (26)

아이템 정보를 탐색하는(retrieve) 컴퓨터에서 구현되는 방법으로서,
아카이빙(archiving) 엔진으로 동작하도록 컴퓨팅 장치를 구성하는 단계;
상기 아카이빙 엔진에 의해, 시간에 따른 사건(occurence in time)을 표현하는 아이템 오브젝트를 제 1 사용자로부터 수신하는 단계;
상기 아카이빙 엔진에 의해, 상기 제 1 사용자의 엔티티와 연관되는 적어도 하나의 타임라인에 상기 아이템 오브젝트를 결속시키는 단계로서, 상기 타임라인은 시간에 따라 정돈되는 복수의 아이템 오브젝트들을 포함하는, 상기 결속시키는 단계;
상기 타임라인에 결속된 아이템 오브젝트들로부터 아이템 오브젝트를 제 2 사용자의 사용자 디바이스 상에 디스플레이하는 단계;
이미지 오브젝트에 관련된 일련의 인식할 수 있는 특징에 기초하여 인덱싱 정보를 생성하는 단계로서, 상기 일련의 인식할 수 있는 특징은 상기 이미지 오브젝트의 디지털 표현에 대응하는 정보 벡터를 포함하되, 상기 벡터의 각각의 멤버는 상이한 양식을 표현하고, (1) 해당 양식에 대한 하나 이상의 관련 특징 및 (2) 상기 하나 이상의 관련 특징에 대응하는 인식 임계(recognition threshold)를 포함하는 인식 기준들을 포함하는, 상기 생성하는 단계;
상기 제 1 사용자에 의한 적어도 하나의 인식할 수 있는 특징의 선택 시에, 상기 아카이빙 엔진에 의해, 상기 생성된 인덱싱 정보를 선택된 아이템 오브젝트와 함께 상기 타임라인에 등록하는 단계; 및
상기 제 2 사용자에 의한 상기 선택된 아이템 오브젝트의 선택 시에, 상기 아카이빙 엔진에 의해, 상기 이미지 오브젝트에 대응하는 상기 정보 벡터의 적어도 일부분을 탐색하는 단계를 포함하는 방법.
A computer implemented method of retrieving item information,
Configuring the computing device to operate with an archiving engine;
Receiving, by the archiving engine, an item object representing an occurrence in time from a first user;
Binding, by the archiving engine, the item object to at least one timeline associated with an entity of the first user, wherein the timeline includes a plurality of item objects arranged over time. step;
Displaying an item object on a user device of a second user from item objects bound to the timeline;
Generating indexing information based on a series of recognizable features associated with the image object, wherein the series of recognizable features includes an information vector corresponding to a digital representation of the image object, wherein each of the vectors A member of may represent a different modality, comprising: (1) one or more related features for that form and (2) recognition criteria including a recognition threshold corresponding to the one or more related features. step;
Upon selection of at least one recognizable feature by the first user, registering, by the archiving engine, the generated indexing information with the selected item object in the timeline; And
Upon selection of the selected item object by the second user, searching, by the archiving engine, at least a portion of the information vector corresponding to the image object.
제 1 항에 있어서,
상기 아카이빙 엔진으로 동작하도록 상기 장치를 구성하는 단계는,
어플리케이션 프로그램 인터페이스, 검색 엔진 인터페이스, 소셜 네트워크 인터페이스, 휴대폰 인터페이스, 브라우저 인터페이스 및 센서 인터페이스 중의 적어도 하나에 접근하는 단계를 포함하는, 방법.
The method of claim 1,
Configuring the device to operate with the archiving engine,
Accessing at least one of an application program interface, a search engine interface, a social network interface, a mobile phone interface, a browser interface, and a sensor interface.
제 1 항에 있어서,
상기 아이템 오브젝트를 수신하는 단계는,
상기 아이템 오브젝트를 푸시하는 단계, 상기 아이템 오브젝트를 끌어오는 단계, 상기 아이템 오브젝트를 자동으로 수신하는 단계, 및 상기 아이템 오브젝트를 네트워크를 통해 수신하는 단계 중의 적어도 하나를 포함하는, 방법.
The method of claim 1,
Receiving the item object,
Pushing the item object, dragging the item object, automatically receiving the item object, and receiving the item object over a network.
제 1 항에 있어서,
상기 아이템 오브젝트는 미디어 오브젝트를 포함하는, 방법.
The method of claim 1,
And the item object comprises a media object.
제 1 항에 있어서,
상기 아이템 오브젝트는 멀티미디어 오브젝트를 포함하는, 방법.
The method of claim 1,
And the item object comprises a multimedia object.
제 1 항에 있어서,
상기 아이템 오브젝트는 오디오 데이터, 비디오 데이터, 이미지 데이터, 모션 데이터, 가속 데이터, 온도 데이터, 위치 데이터, 시간 데이터, 메타데이터, 식별 데이터, 선호 데이터, 게임 데이터, 센서 데이터, 외부 콘텐츠로의 링크들, 다른 유형들의 콘텐츠 데이터 및 보안 데이터 중의 적어도 하나의 유형의 데이터를 포함하는, 방법.
The method of claim 1,
The item object may include audio data, video data, image data, motion data, acceleration data, temperature data, position data, time data, metadata, identification data, preference data, game data, sensor data, links to external content, At least one type of data of other types of content data and security data.
제 1 항에 있어서,
상기 엔티티는 사람, 동물, 회사, 조직, 그룹, 가족, 학교, 연감(yearbook), 브랜드, 빌딩, 및 차량 중의 적어도 하나를 포함하는, 방법.
The method of claim 1,
The entity comprises at least one of a person, animal, company, organization, group, family, school, yearbook, brand, building, and vehicle.
제 1 항에 있어서,
상기 아이템 오브젝트는 파티, 콘서트, 스포츠 이벤트, 카탈로그, 컨벤션, 컨퍼런스, 기념 행사, 패션 쇼, 및 축제 중의 적어도 하나를 나타내는, 방법.
The method of claim 1,
And the item object represents at least one of a party, concert, sporting event, catalog, convention, conference, memorial event, fashion show, and festival.
제 1 항에 있어서,
상기 타임라인은 라이프 스테이지, 일생(life time), 년, 월, 주, 및 일 중의 적어도 하나를 포함하는, 방법.
The method of claim 1,
The timeline comprises at least one of a life stage, life time, year, month, week, and day.
제 1 항에 있어서,
상기 제 2 사용자에 의한 상기 선택된 아이템 오브젝트의 선택은, 상기 아이템 오브젝트를 검색하는 것을 포함하는, 방법.
The method of claim 1,
Selection of the selected item object by the second user includes retrieving the item object.
제 1 항에 있어서,
상기 제 2 사용자에 의한 상기 선택된 아이템 오브젝트의 선택은, 상기 선택된 아이템 오브젝트를 누르는(tap on) 것을 포함하는, 방법.
The method of claim 1,
The selection of the selected item object by the second user includes tapping on the selected item object.
제 1 항에 있어서,
상기 제 2 사용자에 의한 선택은, 상기 타임라인상의 명시된 타임 스팬(time span) 내의 아이템 오브젝트들로부터 상기 선택된 아이템 오브젝트를 선택하는 것을 포함하는, 방법.
The method of claim 1,
The selection by the second user comprises selecting the selected item object from item objects within a specified time span on the timeline.
제 1 항에 있어서,
상기 일련의 인식할 수 있는 특징을 등록하는 단계는 상기 일련의 인식할 수 있는 특징에 따라 상기 선택된 아이템 오브젝트를 인덱싱하는 단계를 포함하는, 방법.
The method of claim 1,
Registering the series of recognizable features comprises indexing the selected item object according to the series of recognizable features.
제 1 항에 있어서,
상기 선택된 아이템 오브젝트를 탐색하는 단계는 연관된 특징에 대응하는 등록된 인식할 수 있는 특징들을 갖는 아이템 오브젝트들을 검색하는 단계를 포함하는, 방법.
The method of claim 1,
Searching for the selected item object comprises retrieving item objects having registered recognizable features corresponding to an associated feature.
제 1 항에 있어서,
상기 일련의 인식할 수 있는 특징은, 오디오 데이터 특성, 이미지 데이터 특성, 컬러, 형태, 관련성 차원, 메이크(make), 모델, 인코딩된 데이터, 비-인코딩된 정보, 속성 및 텍스처 중의 적어도 하나를 포함하는, 방법.
The method of claim 1,
The series of recognizable features includes at least one of audio data characteristics, image data characteristics, color, form, relevance dimension, make, model, encoded data, non-encoded information, attributes, and textures. How to.
제 1 항에 있어서,
연관된 특징 세트는, 오디오 데이터 특성, 이미지 데이터 특성, 컬러, 형태, 관련성 차원, 메이크(make), 모델, 인코딩된 데이터, 비-인코딩된 정보, 속성 및 텍스처 중의 적어도 하나를 포함하는, 방법.
The method of claim 1,
The associated feature set includes at least one of audio data characteristics, image data characteristics, color, shape, dimension of relevance, make, model, encoded data, non-encoded information, attributes, and textures.
제 1 항에 있어서,
상기 이미지 오브젝트는 적어도 실질적으로 2 차원 오브젝트를 포함하는, 방법.
The method of claim 1,
And the image object comprises at least substantially two-dimensional object.
제 17 항에 있어서,
상기 이미지 오브젝트는 적어도 3 차원 오브젝트를 포함하는, 방법.
The method of claim 17,
And the image object comprises at least a three dimensional object.
제 18 항에 있어서,
상기 이미지 오브젝트는 적어도 4 차원 오브젝트를 포함하는, 방법.
The method of claim 18,
And the image object comprises at least a four dimensional object.
제 1 항에 있어서,
상기 이미지 오브젝트에 관련된 상기 일련의 인식할 수 있는 특징은 하나 이상의 타임라인들과 연관된 과거 아이템 오브젝트들에 기초하는 속성들을 포함하는, 방법.
The method of claim 1,
And the series of recognizable features related to the image object include attributes based on past item objects associated with one or more timelines.
제 1 항에 있어서,
상기 이미지 오브젝트는 이미지, 사운드, 브랜드, 장치, 및 비디오 중의 하나를 포함하는, 방법.
The method of claim 1,
And the image object comprises one of an image, sound, brand, device, and video.
제 1 항에 있어서,
상기 제 2 사용자에 의한 상기 선택된 아이템 오브젝트의 선택은, 제2의, 상이한 타임라인에 기초하여 상기 선택된 아이템 오브젝트를 선택하는 것을 포함하는, 방법.
The method of claim 1,
The selection of the selected item object by the second user includes selecting the selected item object based on a second, different timeline.
제 1 항에 있어서,
상기 타임라인에 상기 아이템 오브젝트를 결속시키는 단계는 복수의 타임라인들에 상기 아이템 오브젝트를 결속시키는 단계를 포함하는, 방법.
The method of claim 1,
The step of binding the item object to the timeline comprises the step of binding the item object to a plurality of timelines.
제 1 항에 있어서,
상기 아이템 오브젝트를 결속시키는 단계는 상기 아이템 오브젝트 내의 오브젝트들을 인식하는 단계를 포함하는, 방법.
The method of claim 1,
Binding the item object includes recognizing objects in the item object.
아이템 정보를 탐색하기 위한 하나 이상의 명령들을 포함하는 컴퓨터 판독가능 매체로서, 상기 하나 이상의 명령들은 프로세서에 의해 실행시에,
아카이빙 엔진으로 동작하도록 컴퓨팅 장치를 구성하는 것;
상기 아카이빙 엔진에 의해, 시간에 따른 사건을 표현하는 아이템 오브젝트를 제 1 사용자로부터 수신하는 것;
상기 아카이빙 엔진에 의해, 상기 제 1 사용자의 엔티티와 연관되는 적어도 하나의 타임라인에 상기 아이템 오브젝트를 결속시키는 것으로서, 상기 타임라인은 시간에 따라 정돈되는 복수의 아이템 오브젝트들을 포함하는, 상기 결속시키는 것;
상기 타임라인에 결속된 아이템 오브젝트들로부터 아이템 오브젝트를 제 2 사용자의 사용자 디바이스 상에 디스플레이하는 것;
이미지 오브젝트에 관련된 일련의 인식할 수 있는 특징에 기초하여 인덱싱 정보를 생성하는 것으로서, 상기 일련의 인식할 수 있는 특징은 상기 이미지 오브젝트의 디지털 표현에 대응하는 정보 벡터를 포함하되, 상기 벡터의 각각의 멤버는 상이한 양식을 표현하고, (1) 해당 양식에 대한 하나 이상의 관련 특징 및 (2) 상기 하나 이상의 관련 특징에 대응하는 인식 임계를 포함하는 인식 기준들을 포함하는, 상기 생성하는 것;
상기 제 1 사용자에 의한 적어도 하나의 인식할 수 있는 특징의 선택 시에, 상기 아카이빙 엔진에 의해, 상기 생성된 인덱싱 정보를 선택된 아이템 오브젝트와 함께 상기 타임라인에 등록하는 것; 및
상기 제 2 사용자에 의한 상기 선택된 아이템 오브젝트의 선택 시에, 상기 아카이빙 엔진에 의해, 상기 이미지 오브젝트에 대응하는 상기 정보 벡터의 적어도 일부분을 탐색하는 것을 수행하는, 컴퓨터 판독가능 매체.
A computer readable medium comprising one or more instructions for retrieving item information, wherein the one or more instructions, when executed by a processor,
Configuring the computing device to operate as an archiving engine;
Receiving, by the archiving engine, an item object representing an event over time from a first user;
Binding, by the archiving engine, the item object to at least one timeline associated with an entity of the first user, wherein the timeline includes a plurality of item objects arranged over time. ;
Displaying an item object on a user device of a second user from item objects bound to the timeline;
Generating indexing information based on a set of recognizable features associated with an image object, the set of recognizable features comprising an information vector corresponding to a digital representation of the image object, wherein each of the vectors The member representing a different modality and comprising: (1) one or more related features for the modality and (2) recognition criteria comprising a recognition threshold corresponding to the one or more related features;
Upon selection of at least one recognizable feature by the first user, registering, by the archiving engine, the generated indexing information with the selected item object in the timeline; And
Upon selection of the selected item object by the second user, performing, by the archiving engine, searching for at least a portion of the information vector corresponding to the image object.
아이템 정보를 탐색하기 위한 시스템으로서,
시간에 따른 사건을 표현하는 아이템 오브젝트를 제 1 사용자로부터 수신하는 것;
상기 제 1 사용자의 엔티티와 연관되는 적어도 하나의 타임라인에 상기 아이템 오브젝트를 결속시키는 것으로서, 상기 타임라인은 시간에 따라 정돈되는 복수의 아이템 오브젝트들을 포함하는, 상기 결속시키는 것;
이미지 오브젝트에 관련된 일련의 인식할 수 있는 특징에 기초하여 인덱싱 정보를 생성하는 것으로서, 상기 일련의 인식할 수 있는 특징은 상기 이미지 오브젝트의 디지털 표현에 대응하는 정보 벡터를 포함하되, 상기 벡터의 각각의 멤버는 상이한 양식을 표현하고, (1) 해당 양식에 대한 하나 이상의 관련 특징 및 (2) 상기 하나 이상의 관련 특징에 대응하는 인식 임계를 포함하는 인식 기준들을 포함하는, 상기 생성하는것;
상기 제 1 사용자에 의한 적어도 하나의 인식할 수 있는 특징의 선택 시에, 상기 생성된 인덱싱 정보를 선택된 아이템 오브젝트와 함께 상기 타임라인에 등록하는 것;
상기 타임라인에 결속된 아이템 오브젝트들로부터 아이템 오브젝트를 제 2 사용자의 사용자 디바이스 상에 디스플레이하는 것; 및
상기 제 2 사용자에 의한 상기 선택된 아이템 오브젝트의 선택 시에, 상기 이미지 오브젝트에 대응하는 상기 정보 벡터의 적어도 일부분을 탐색하는 것
을 위해 구성된 아카이빙 엔진;
상기 아카이빙 엔진에 동작가능하게 연결되고 하나 이상의 아이템 오브젝트들을 저장하도록 구성된 아이템 데이터베이스; 및
상기 아카이빙 엔진에 동작가능하게 연결되고 상기 적어도 하나의 타임라인을 저장하도록 구성된 타임라인 데이터베이스
를 포함하는 시스템.
A system for searching item information,
Receiving from the first user an item object representing an event over time;
Binding the item object to at least one timeline associated with an entity of the first user, wherein the timeline includes a plurality of item objects arranged over time;
Generating indexing information based on a set of recognizable features associated with an image object, the set of recognizable features comprising an information vector corresponding to a digital representation of the image object, wherein each of the vectors The member representing a different modality and comprising: (1) one or more related features for the modality and (2) recognition criteria comprising a recognition threshold corresponding to the one or more related features;
Upon selection of at least one recognizable feature by the first user, registering the generated indexing information with the selected item object in the timeline;
Displaying an item object on a user device of a second user from item objects bound to the timeline; And
Upon selection of the selected item object by the second user, searching for at least a portion of the information vector corresponding to the image object
An archiving engine configured for;
An item database operatively coupled to the archiving engine and configured to store one or more item objects; And
A timeline database operatively coupled to the archiving engine and configured to store the at least one timeline
System comprising.
KR1020197008853A 2012-05-24 2013-05-24 Event archiving, system and methods KR102009629B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261651179P 2012-05-24 2012-05-24
US61/651,179 2012-05-24
PCT/US2013/042647 WO2013177515A1 (en) 2012-05-24 2013-05-24 Event archiving, systems and methods

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020187024832A Division KR101965136B1 (en) 2012-05-24 2013-05-24 Event archiving, system and methods

Publications (2)

Publication Number Publication Date
KR20190035963A KR20190035963A (en) 2019-04-03
KR102009629B1 true KR102009629B1 (en) 2019-08-09

Family

ID=49624376

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020187024832A KR101965136B1 (en) 2012-05-24 2013-05-24 Event archiving, system and methods
KR1020167029701A KR102086888B1 (en) 2012-05-24 2013-05-24 Event archiving, system and methods
KR1020197008853A KR102009629B1 (en) 2012-05-24 2013-05-24 Event archiving, system and methods
KR1020147032443A KR20150081411A (en) 2012-05-24 2013-05-24 Event archiving, system and methods

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020187024832A KR101965136B1 (en) 2012-05-24 2013-05-24 Event archiving, system and methods
KR1020167029701A KR102086888B1 (en) 2012-05-24 2013-05-24 Event archiving, system and methods

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020147032443A KR20150081411A (en) 2012-05-24 2013-05-24 Event archiving, system and methods

Country Status (5)

Country Link
US (4) US10133742B2 (en)
EP (2) EP2856335B1 (en)
JP (3) JP2015521324A (en)
KR (4) KR101965136B1 (en)
WO (1) WO2013177515A1 (en)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10133742B2 (en) 2012-05-24 2018-11-20 Nant Holdings Ip, Llc Event archiving, systems and methods
KR20150004623A (en) * 2013-07-03 2015-01-13 삼성전자주식회사 Apparatas and method for unified search of contents in an electronic device
US9471671B1 (en) * 2013-12-18 2016-10-18 Google Inc. Identifying and/or recommending relevant media content
US9628950B1 (en) 2014-01-12 2017-04-18 Investment Asset Holdings Llc Location-based messaging
US10057764B2 (en) * 2014-01-18 2018-08-21 Microsoft Technology Licensing, Llc Privacy preserving sensor apparatus
EP3105916A1 (en) * 2014-02-13 2016-12-21 Sony Corporation Method and system for adjusting camera settings using corneal reflection
US9537811B2 (en) 2014-10-02 2017-01-03 Snap Inc. Ephemeral gallery of ephemeral messages
US9396354B1 (en) 2014-05-28 2016-07-19 Snapchat, Inc. Apparatus and method for automated privacy protection in distributed images
US9113301B1 (en) 2014-06-13 2015-08-18 Snapchat, Inc. Geo-location based event gallery
US10824654B2 (en) 2014-09-18 2020-11-03 Snap Inc. Geolocation-based pictographs
US11216869B2 (en) 2014-09-23 2022-01-04 Snap Inc. User interface to augment an image using geolocation
US10284508B1 (en) 2014-10-02 2019-05-07 Snap Inc. Ephemeral gallery of ephemeral messages with opt-in permanence
US9015285B1 (en) 2014-11-12 2015-04-21 Snapchat, Inc. User interface for accessing media at a geographic location
US9385983B1 (en) 2014-12-19 2016-07-05 Snapchat, Inc. Gallery of messages from individuals with a shared interest
US10311916B2 (en) 2014-12-19 2019-06-04 Snap Inc. Gallery of videos set to an audio time line
US10133705B1 (en) 2015-01-19 2018-11-20 Snap Inc. Multichannel system
US20170277738A1 (en) * 2015-01-29 2017-09-28 Palantir Technologies Inc. Temporal representation of structured information in an object model
KR102163528B1 (en) 2015-03-18 2020-10-08 스냅 인코포레이티드 Geo-fence authorization provisioning
US10135949B1 (en) 2015-05-05 2018-11-20 Snap Inc. Systems and methods for story and sub-story navigation
US9843837B2 (en) * 2015-08-03 2017-12-12 At&T Intellectual Property I, L.P. Cross-platform analysis
KR102347887B1 (en) * 2015-10-30 2022-01-05 삼성에스디에스 주식회사 Method and apparatus for managing timeline using search engine
US10354425B2 (en) 2015-12-18 2019-07-16 Snap Inc. Method and system for providing context relevant media augmentation
US10582277B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
US10581782B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
JP6557285B2 (en) * 2017-05-26 2019-08-07 ファナック株式会社 Control device and machine learning device
US10649980B2 (en) * 2018-03-07 2020-05-12 Xanadu Big Data, Llc Methods and systems for resilient, durable, scalable, and consistent distributed timeline data store
US10643074B1 (en) 2018-06-08 2020-05-05 Amazon Technologies, Inc. Automated video ratings
US11153655B1 (en) 2018-09-26 2021-10-19 Amazon Technologies, Inc. Content appeal prediction using machine learning
US10897649B1 (en) 2018-09-26 2021-01-19 Amazon Technologies, Inc. Mature themes prediction for online content
US11641354B2 (en) 2020-03-09 2023-05-02 Nant Holdings Ip, Llc Enhanced access to media, systems and methods
US11290403B2 (en) 2020-04-15 2022-03-29 Snap Inc. Automatically generated personalized message
US11662938B2 (en) 2020-05-11 2023-05-30 Nantcell, Inc. Object storage and access management systems and methods

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060155757A1 (en) 2005-01-12 2006-07-13 Microsoft Corporation File management system employing time line based representation of data
US20110026853A1 (en) 2005-05-09 2011-02-03 Salih Burak Gokturk System and method for providing objectified image renderings using recognition information from images

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
GB2367158B (en) 2000-09-26 2004-10-20 6S Ltd Method and system for archiving and retrieving items based on episodic memory of groups of people
US7565008B2 (en) 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US7016532B2 (en) 2000-11-06 2006-03-21 Evryx Technologies Image capture and identification system and process
US20040107270A1 (en) 2002-10-30 2004-06-03 Jamie Stephens Method and system for collaboration recording
WO2004059900A2 (en) 2002-12-17 2004-07-15 Evolution Robotics, Inc. Systems and methods for visual simultaneous localization and mapping
US7831599B2 (en) * 2005-03-04 2010-11-09 Eastman Kodak Company Addition of new images to an image database by clustering according to date/time and image content and representative image comparison
US8260674B2 (en) * 2007-03-27 2012-09-04 David Clifford R Interactive image activation and distribution system and associate methods
US20070008321A1 (en) 2005-07-11 2007-01-11 Eastman Kodak Company Identifying collection images with special events
US7685175B2 (en) * 2005-08-12 2010-03-23 Michael Lee Carroll Content manager
JP4232774B2 (en) * 2005-11-02 2009-03-04 ソニー株式会社 Information processing apparatus and method, and program
CN101366029A (en) 2005-12-23 2009-02-11 费斯布克公司 Systems and methods for generating a social timeline
JP2007280309A (en) 2006-04-12 2007-10-25 Akira Ichikawa Automatic diary making system using cellphone with built-in contactless ic card
US8145677B2 (en) * 2007-03-27 2012-03-27 Faleh Jassem Al-Shameri Automated generation of metadata for mining image and text data
US8189880B2 (en) 2007-05-29 2012-05-29 Microsoft Corporation Interactive photo annotation based on face clustering
KR20100052676A (en) * 2008-11-11 2010-05-20 삼성전자주식회사 Apparatus for albuming contents and method thereof
US8750906B2 (en) * 2009-02-20 2014-06-10 T-Mobile Usa, Inc. Dynamic elements on a map within a mobile device, such as elements that facilitate communication between users
US9466050B2 (en) * 2009-05-22 2016-10-11 EVDense Holding Company, Inc. System and method for interactive visual representation of items along a timeline
US8694357B2 (en) * 2009-06-08 2014-04-08 E-Rewards, Inc. Online marketing research utilizing sentiment analysis and tunable demographics analysis
US20110099199A1 (en) * 2009-10-27 2011-04-28 Thijs Stalenhoef Method and System of Detecting Events in Image Collections
EP2558986A1 (en) * 2010-04-15 2013-02-20 Colin Dobell Methods and systems for capturing, measuring, sharing and influencing the behavioural qualities of a service performance
US8726142B2 (en) * 2011-09-21 2014-05-13 Facebook, Inc. Selecting social networking system user information for display via a timeline interface
US8620021B2 (en) * 2012-03-29 2013-12-31 Digimarc Corporation Image-related methods and arrangements
US10133742B2 (en) 2012-05-24 2018-11-20 Nant Holdings Ip, Llc Event archiving, systems and methods
US9377933B2 (en) * 2012-09-24 2016-06-28 Facebook, Inc. Displaying social networking system entity information via a timeline interface

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060155757A1 (en) 2005-01-12 2006-07-13 Microsoft Corporation File management system employing time line based representation of data
US20110026853A1 (en) 2005-05-09 2011-02-03 Salih Burak Gokturk System and method for providing objectified image renderings using recognition information from images

Also Published As

Publication number Publication date
KR20180099939A (en) 2018-09-05
US20210311906A1 (en) 2021-10-07
KR101965136B1 (en) 2019-04-03
KR20160126098A (en) 2016-11-01
WO2013177515A1 (en) 2013-11-28
US20200151138A1 (en) 2020-05-14
EP2856335B1 (en) 2020-03-11
US20190073369A1 (en) 2019-03-07
JP2017050021A (en) 2017-03-09
KR20150081411A (en) 2015-07-14
US20150142753A1 (en) 2015-05-21
EP3614277B1 (en) 2022-08-03
EP3614277A1 (en) 2020-02-26
EP2856335A4 (en) 2015-12-30
JP6896779B2 (en) 2021-06-30
US10133742B2 (en) 2018-11-20
KR20190035963A (en) 2019-04-03
US10540319B2 (en) 2020-01-21
EP2856335A1 (en) 2015-04-08
JP2015521324A (en) 2015-07-27
JP2019083053A (en) 2019-05-30
US11061855B2 (en) 2021-07-13
KR102086888B1 (en) 2020-03-09

Similar Documents

Publication Publication Date Title
KR102009629B1 (en) Event archiving, system and methods
JP6706647B2 (en) Method and apparatus for recognition and matching of objects represented in images
US11115724B2 (en) Visual hash tags via trending recognition activities, systems and methods
JP5801395B2 (en) Automatic media sharing via shutter click
US9081798B1 (en) Cloud-based photo management
US9473614B2 (en) Systems and methods for incorporating a control connected media frame
JP6396897B2 (en) Search for events by attendees
US9600720B1 (en) Using available data to assist in object recognition
CN104866520A (en) Methods, devices and systems for context-sensitive organization of media files
US9922052B1 (en) Custom image data store
JP7167318B2 (en) Automatic generation of groups of people and image-based creations

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant