KR20130060299A - 콘텐츠를 자동으로 태깅하기 위한 콘텐츠 캡처 장치 및 방법 - Google Patents

콘텐츠를 자동으로 태깅하기 위한 콘텐츠 캡처 장치 및 방법 Download PDF

Info

Publication number
KR20130060299A
KR20130060299A KR1020137006495A KR20137006495A KR20130060299A KR 20130060299 A KR20130060299 A KR 20130060299A KR 1020137006495 A KR1020137006495 A KR 1020137006495A KR 20137006495 A KR20137006495 A KR 20137006495A KR 20130060299 A KR20130060299 A KR 20130060299A
Authority
KR
South Korea
Prior art keywords
content
information
tagged
user
captured
Prior art date
Application number
KR1020137006495A
Other languages
English (en)
Other versions
KR101432457B1 (ko
Inventor
마드하브 모간티
아니쉬 산칼리아
Original Assignee
알까뗄 루슨트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 알까뗄 루슨트 filed Critical 알까뗄 루슨트
Publication of KR20130060299A publication Critical patent/KR20130060299A/ko
Application granted granted Critical
Publication of KR101432457B1 publication Critical patent/KR101432457B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • G06F16/748Hypervideo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot

Abstract

콘텐츠의 자동 태깅 및 태깅된 콘텐츠의 관리를 가능하게 하기 위한 콘텐츠 태깅 및 관리 기능이 제공된다. 장치는 객체를 포함하는 콘텐츠를 캡처하도록 구성된 콘텐츠 캡처 메커니즘 및 정보 구조를 콘텐츠 내에 포함된 객체와 자동으로 연관시켜 그에 의해 태깅된 콘텐츠를 생성하도록 구성된 프로세서를 포함한다. 콘텐츠를 자동으로 태깅하기 위해 사용자 장치를 이용하는 방법은 객체를 포함하는 콘텐츠를 캡처하는 단계, 객체와 연관된 센서가 검출될 때 객체와 연관된 객체 정보를 수신하는 단계, 및 정보 구조를 콘텐츠 내에 포함된 객체와 자동으로 연관시켜 그에 의해 태깅된 콘텐츠를 형성하되, 정보 구조는 객체와 연관된 객체 정보의 적어도 일부를 포함하는 단계를 포함한다.

Description

콘텐츠를 자동으로 태깅하기 위한 콘텐츠 캡처 장치 및 방법{CONTENT CAPTURE DEVICE AND METHODS FOR AUTOMATICALLY TAGGING CONTENT}
관련 출원에 대한 상호 참조
이 출원은 "콘텐츠를 자동으로 태깅하기 위한 방법 및 장치(METHOD AND APPARATUS FOR AUTOMATICALLY TAGGING CONTENT)"를 제목으로 하는 미국 특허 출원 제12/883315호(대리인 정리번호 제805935-US-NP호), "콘텐츠를 자동으로 태깅하기 위한 센서, 스캐너 및 방법(SENSORS, SCANNERS, AND METHODS FOR AUTOMATICALLY TAGGING CONTENT)"을 제목으로 하는 미국 특허 출원 제12/883343호(대리인 정리번호 제808127-US-NP호) 및 "METHOD AND APPARATUS FOR MANAGING CONTENT TAGGING AND TAGGED CONTENT(콘텐츠 태깅 및 태깅된 콘텐츠를 관리하기 위한 방법 및 장치)"를 제목으로 하는 미국 특허 출원 제12/883355호(대리인 정리번호 제808128-US-NP호)와 관련되며, 상기 특허 출원들 각각은 참조에 의해 전체적으로 이 명세서 내에 통합된다.
발명의 분야
본 발명은 일반적으로 콘텐츠 생성 및 관리에 관한 것으로서, 특히 그러나 비한정적으로 자동 콘텐츠 태깅 및 태깅된 콘텐츠의 관리에 관한 것이다.
오늘날 최종 사용자들은 화상 및 비디오 형식의 콘텐츠를 포함하는 막대한 양의 콘텐츠를 생성하며, 다양한 사용자 장치들(예를 들어, 데스크톱, 팜톱, 이-리더(e-readers), 핸드헬즈 및 유사 장치들)을 통해 그들의 다양한 미디어 네트워크(예를 들어, 콘텐츠 저장 네트워크, 클라우드 컴퓨팅 인프라, 소셜 네트워크 등)로 콘텐츠를 중계한다. 대부분의 경우, 이 화상 및 비디오들은 화상 및 비디오의 시각 및 종종 청각 상세 이외에 어떠한 정보도 전달하지 않는다. 종종 한 장의 그림이 천 마디의 말의 가치가 있다고 한다. 그러나, 대부분의 경우, 그러한 천 마디의 말들은 관련 화상이나 비디오를 찍었던 최종 사용자에 의한 설명 없이는 알려지지 못한다. 그러한 콘텐츠를 추가 정보로 증강시키려는 시도들이 이루어졌지만, 콘텐츠의 증강은 현재 콘텐츠가 인쇄 매체로 생산되는 방식 이상의 개선이 거의 없거나 전무한 고도의 수동 공정이다.
선행 기술의 다양한 결함들은 콘텐츠를 자동으로 태깅하며/하거나 태깅된 콘텐츠를 관리하기 위한 실시예들에 의해 다루어진다.
일 실시예에서, 장치는 객체를 포함하는 콘텐츠를 캡처하도록 구성된 콘텐츠 캡처 메커니즘 및 정보 구조를 상기 콘텐츠 내에 포함된 상기 객체와 자동으로 연관시켜 그에 의해 태깅된 콘텐츠를 형성하도록 구성된 프로세서를 포함한다.
일 실시예에서, 콘텐츠를 자동으로 태깅하기 위해 사용자 장치를 이용하기 위한 방법은 객체를 포함하는 콘텐츠를 캡처하는 단계, 상기 객체와 연관된 센서가 검출될 때 상기 객체와 연관된 객체 정보를 수신하는 단계, 및 정보 구조를 상기 콘텐츠 내에 포함된 상기 객체와 자동으로 연관시켜 그에 의해 태깅된 콘텐츠를 형성하되, 상기 정보 구조는 상기 객체와 연관된 상기 객체 정보의 적어도 일부를 포함하는 단계를 포함한다.
본 명세서의 교시는 첨부된 도면들과 연계하여 이하의 상세한 설명을 고려함으로써 용이하게 이해될 것이다.
도 1은 예시적인 콘텐츠 태깅 시스템의 고차 블록도룰 도시한다.
도 2는 도 1의 콘텐츠 캡처 장치의 일 실시예의 고차 블록도를 도시한다.
도 3은 태깅된 콘텐츠를 생성하기 위한 프로세스의 예시적 실시예를 도시한다.
도 4는 도 3의 태깅된 콘텐츠를 액세스하기 위한 프로세스의 예시적 실시예를 도시한다.
도 5는 정보 구조를 캡처된 콘텐츠 내에 포함된 객체와 자동 연관시키기 위한 방법의 일 실시예를 도시한다.
도 6은 정보 구조를 콘텐츠 캡처 장치에서 캡처된 콘텐츠 내에 포함된 객체와 자동 연관시키기 위한 방법의 일 실시예를 도시한다.
도 7은 콘텐츠 캡처 장치에 의한 콘텐츠 캡처 중에 센서에 의해 사용될 방법의 일 실시예를 도시한다.
도 8은 콘텐츠 캡처 장치에 의한 콘텐츠 캡처 중에 사용할 센서를 구성하기 위한 센서 스캐너에 의한 방법의 일 실시예를 도시한다.
도 9는 콘텐츠 관리 시스템이 콘텐츠 태깅 및 관리 능력의 다양한 기능들을 제공할 수 있게 하는 방법의 일 실시예를 도시한다.
도 10은 콘텐츠 관리 시스템이 사용자가 태깅된 콘텐츠를 생성할 수 있게 하기 위해 사용자를 등록시킬 수 있는 방법의 일 실시예를 도시한다.
도 11은 콘텐츠 관리 시스템이 자동 콘텐츠 태깅과 연관된 객체 정보 요청을 처리할 수 있게 하는 방법의 일 실시예를 도시한다.
도 12는 콘텐츠 관리 시스템이 태깅된 콘텐츠를 관리하게 하는 방법의 일 실시예를 도시한다.
도 13은 콘텐츠 관리 시스템이 내장된 객체 정보 요청을 처리할 수 있게 하는 방법의 일 실시예를 도시한다.
도 14는 본 명세서에 기술된 기능들을 수행하는데 사용하기 적합한 컴퓨터의 고차 블록도를 도시한다.
이해를 용이하게 하기 위해, 도면들에 공통되는 동일한 구성요소들을 지시하기 위해 가능한 한 동일한 참조 부호들을 사용하였다.
콘텐츠 태깅 및 관리 기능이 본 명세서에 도시되며 기술된다. 콘텐츠 태깅 및 관리 기능은 본 명세서에 도시되며 기술되는 바와 같은 다양한 콘텐츠 태깅 및/또는 태깅된 콘텐츠 관리 기능을 제공하기 위해 개별 및/또는 조합하여 동작할 수 있는 다양한 구성 기능들을 포함할 수 있다.
자동 콘텐츠 태깅 기능이 본 명세서에 도시되며 기술된다. 자동 콘텐츠 태깅 기능은 콘텐츠를 연관된 정보 구조를 가진 콘텐츠 태그로 자동 태깅하도록 되어 있다. 콘텐츠 태그는 태깅된 콘텐츠 안에 포함되는 객체와 연관되며, 여기서 객체는 태깅된 콘텐츠 안에 표현된 물리적 객체, 태깅된 콘텐츠와 연관된 콘텐츠 등을 포함할 수 있다. 정보 구조는 콘텐츠 태그와 연관되는 객체와 관련된 객체 정보(예를 들어, 객체에 대한 내용, 객체와 연관된 추가 정보에 대한 하나 이상의 포인터들 등과 이들의 다양한 조합)를 포함한다. 콘텐츠 태그의 선택은 상기 정보 구조의 객체 정보에 대한 액세스를 제공한다.
태깅된 콘텐츠 배포 기능이 본 명세서에 도시되며 기술된다. 태깅된 콘텐츠 배포 기능은 사설 사용자 플랫폼, 소셜 미디어 포털, 미디어 서버(예를 들어, 집, 직장 등에 있는) 등 및 이들의 다양한 조합과 같은 다양한 공개 및/또는 사설 플랫폼으로의 태깅된 콘텐츠 배포를 제공한다. 이러한 방식으로, 태깅된 콘텐츠 배포 기능은 저장부를 가진 어떤 컴퓨팅 플랫폼으로의 안전하며 허가를 기반으로 하는 태깅된 콘텐츠 배포가 태깅된 콘텐츠가 쉽게 입수될 수 있도록 보장하게 해준다.
태깅된 콘텐츠 관리 기능이 본 명세서에 도시되며 기술된다. 태깅된 콘텐츠 관리 기능은 콘텐츠 태깅의 관리 및/또는 태깅된 콘텐츠의 관리뿐만 아니라 다양한 다른 관련 관리 기능들을 포함할 수 있다. 예를 들어, 관리 기능들은 등록 관리 기능(예를 들어, 사용자, 센서, 스캐너, 개체, 제공자, 광고업자 등의 등록을 관리), 자동 콘텐츠 태깅 및 태깅된 콘텐츠 관리 기능(예를 들어, 센서 허가의 관리, 자동 콘텐츠 태깅 관련 활동 중의 허가 확인, 태깅된 콘텐츠 소유 관리 기능들, 태깅된 콘텐츠 허가의 관리 등), 태깅된 콘텐츠 전달 관리 기능(예를 들어, 태깅된 콘텐츠와 연관된 허가 관리, 태깅된 콘텐츠에 대한 액세스와 관련된 다른 기준 관리 등), 태깅된 콘텐츠 광고 관리 기능(예를 들어, 광고 관리 기능, 태깅된 콘텐츠 상연 추적 기능, 사용자 보상 관리 기능 등) 등뿐만 아니라 이들의 다양한 조합을 제공하는 것 중 하나 이상을 포함할 수 있다. 콘텐츠의 자동 태깅 및 태깅된 콘텐츠의 관리와 관련된 다양한 다른 실시예들이 본 명세서 내에 도시되며 기술된다.
본 명세서 내에서는 이미지 기반 콘텐츠(예를 들어, 이미지, 비디오 등)의 자동 태깅과 관련하여 주로 도시되고 기술되나, 콘텐츠 태깅 및 관리 기능은 다른 형식의 콘텐츠 및 정보를 자동 태깅하며/하거나 다른 형식의 태깅된 콘텐츠 및 정보(예를 들어, 텍스트 기반 콘텐츠, 오디오 기반 콘텐츠, 멀티미디어 콘텐츠, 위젯(widgets), 소프트웨어 정의 객체 등 및 이들의 다양한 조합)를 관리하기 위해 이용될 수 있다.
도 1은 예시적인 콘텐츠 태깅 시스템의 고차 블록도를 도시한다.
도 1에 도시된 바와 같이, 콘텐츠 태깅 시스템(100)은 콘텐츠 캡처 장치(110), 센서 환경(120), 센서 스캐너(130), 로컬 네트워크 환경(140) 및 원격 네트워크 환경(150)을 포함한다. 로컬 및 원격이라는 용어의 사용은 콘텐츠 캡처 장치(110)에 대한 그 네트워크들의 관계를 나타낼 수 있다는 점이 이해될 것이다(예를 들어, 로컬 네트워크 환경(140)은 콘텐츠 캡처 장치(110)와 인접하며 원격 네트워크 환경은 콘텐츠 캡처 장치(110)로부터 멀다).
콘텐츠 캡처 장치(110)는 텍스트 기반 콘텐츠, 이미지 기반 콘텐츠(예를 들어, 영상, 비디오 등), 멀티미디어 콘텐츠 등 및 이들의 다양한 조합과 같은 콘텐츠를 캡처하도록 구성된다. 예를 들어, 콘텐츠 캡처 장치(110)는 영상 카메라(예를 들어, 정지 화상만의 캡처를 지원하고, 정지 화상 및 오디오/비디오 둘 모두의 캡처를 지원하는 등의 카메라), 비디오 카메라(예를 들어, 오디오/비디오만의 캡처를 지원하고, 오디오/비디오 및 정지 화상 모두의 캡처를 지원하는 등의 카메라), 카메라 및/또는 오디오/비디오 캡처 기능을 가진 스마트폰, 또는 콘텐츠를 캡처할 수 있는 어떤 다른 유사 장치일 수 있다. 기존의 콘텐츠 캡처 장치들에서, 그러한 콘텐츠 캡처 메커니즘들은 서로 독자적으로 사용된다; 그러나, 자동 콘텐츠 태깅 기능에 대한 적어도 일부 실시예들에서, 다수의 그러한 콘텐츠 캡처 메커니즘들은 (여기에서 기술된 바와 같이 안정적이고/거나 즉시 응답 방식으로 수행될 수 있는) 콘텐츠 기반 객체들의 자동 태깅을 지원하기 위해 서로 연계되어 사용될 수 있다.
콘텐츠 캡처 장치(110)는 (1) 캡처된 콘텐츠를 자동 태깅하기 위해 캡처된 콘텐츠를 처리하며/하거나 (2) 캡처된 콘텐츠를 자동 태깅하기 위해 캡처된 콘텐츠를 처리하도록 구성된 하나 이상의 장치들로 캡처된 콘텐츠를 전달하도록 구성될 수 있다.
예시적 콘텐츠 캡처 장치가 도 2와 관해 도시되며 기술된다.
센서 환경(120)은 복수의 객체들(1221-122N, 집합적으로 객체들(122))을 포함하며, 각각의 객체(1221-122N)는 그와 관련된 하나 이상의 센서들(예시적으로 복수의 센서들(1241-124N, 집합적으로 센서들(124)로 표현됨)을 가진다.
도 1에 도시된 바와 같이, 각각의 객체(122)는 그와 관련된 하나 이상의 센서들을 가질 수 있다. 기본적으로 객체들(122)과 센서들(124) 사이의 1:1 관계로서 도시되고 기술되어 있으나, 다른 유형의 객체-센서 관계가 사용될 수 있다. 예들 들어, 한 객체가 그와 관련된 센서 집합(즉, 여러 센서들)을 가질 수 있고, 객체 집합(즉, 여러 객체들)이 그와 관련된 하나의 센서(124)를 가질 수 있으며, 객체 집합이 그와 관련된 센서 집합을 가질 수 있는(즉, N:N 관계) 등의 관계뿐만 아니라 이들의 다양한 조합 관계를 가질 수 있다.
객체들(122)은 캡처되어 캡처된 콘텐츠(예를 들어, 영상, 비디오 등)로 표현될 수 있는 어떤 객체들을 나타낸다.
일 실시예에서, 예를 들어 객체들(122)은 물리적 객체, 물리적 객체의 일부 등을 포함할 수 있다. 이러한 실시예에서, 센서 환경(120)은 센서들(124)이 배치될 수 있는 물리적 객체들을 가진 실질적인 어떠한 환경이라도 포함할 수 있으며, 이러한 맥락에서 물리적 객체들(122)은 콘텐츠가 캡처될 수 있는 실질적인 어떠한 물리적 객체들이라도 포함할 수 있다.
예를 들어 센서들(124)은 통상적으로 건물 안에 위치되는 물리적 객체들(122) 상에 배치될 수 있다. 예를 들어 물리적 객체들(122)은 집 안의 객체들(예를 들어, 가구, 가전장치, 가정 오락 장치, 제품, 장식물, 보석 등), 사무실 안의 객체들(예를 들어, 사무소 설비, 사무소 장식 등), 박물관 안의 객체들(예를 들어, 유물, 전시물, 유물 및 전시물과 관련된 정보 플래카드 등)이나 관련 센서들(124)을 가질 수 있는 물리적 객체들(122)을 가지는 어떠한 다른 건물들이라도 포함할 수 있다.
예를 들어, 센서들(124)은 통상적으로 밖에서 사용되는 소비 제품(예를 들어, 스포트 장비, 잔디 깎이 장비 등), 운송 장치(예를 들어, 오토바이, 자가용, 버스, 배, 비행기 등) 등과 같이 통상적으로 건물 밖에 위치하는 물리적 객체들(122) 상에 배치될 수 있다.
예를 들어, 센서들(124)은 구조물 상에 배치될 수 있는 바, 여기서 구조물 자체가 물리적 객체들(122)이다. 예를 들어, 센서들(124)은 (예를 들어, 건물에 대한 정보를 나타내고, 건물 안에 위치한 사람들, 사업체, 및/또는 조직 등을 나태낼 뿐만 아니라 이들의 다양한 조합을 나타내기 위해) 가족, 회사, 조직 등을 수용하는 건물들 상에 배치될 수 있다. 예를 들어, 센서들(124)은 박물관, 경기장 등과 같은 건물들 상에 배치될 수 있다. 예를 들어, 센서들(124)은 다리, 기념물(예를 들어, 워싱턴 기념비, 제퍼슨 추모관 등) 등과 같은 구조물들 상에 배치될 수 있다. 센서들(124)은 물리적 객체들(122)이 다른 유형의 구조물들을 포함할 수 있도록 어떤 다른 유형의 구조물들 상에 배치될 수 있다.
예를 들어, 센서들(124)은 자연 발생 물리 객체들(122)(예를 들어, 인간, 동물, 나무, 산위의 관심 지점, 그랜드 캐년 상의 관심 지점 등) 상에 배치될 수 있다.
따라서, 물리 객체들(122)의 상술한 예들로부터, 객체들(122)이 콘텐처 캡처 장치(110)에 의해 캡처될 수 있는 실질적인 모든 객체들(예를 들어, 텔레비전, 건물, 차량, 전시물, 기념물, 지리적 특성 등뿐만 아니라 이들의 다양한 조합)을 포괄할 수 있다는 것이 자명해진다.
일 실시예에서 객체들(122)은 콘텐츠 객체들을 포함할 수 있다. 이 실시예에서 센서 환경(120)은 콘텐츠 객체들(122)이 캡처될 수 있는 실질적인 모든 환경을 포함할 수 있으며, 이러한 맥락에서 콘텐츠 객체들(122)은 콘텐츠 캡처 도중에 캡처될 수 있는 실질적인 모든 타입의 콘텐츠 객체들을 포함할 수 있다.
일 실시예에서, 예를 들어 콘텐츠 객체들은 캡처된 콘텐츠의 일부로서 캡처된 물리적 객체들과 관련되거나 그렇지 않고 콘텐츠의 캡처와 관련되는 콘텐츠(예를 들어, 영상, 오디오, 비디오, 멀티미디어 등)을 포함할 수 있다.
예를 들어, 사용자가 영화를 재생중인 텔레비전을 포함하는 방의 사진을 찍을 때, 텔레비전은 그와 관련된 센서를 가짐으로써 텔레비전이 사진 안에 표현된 물리적 객체가 되어 여기에서 기술된 바와 같이 자동 태깅될 수 있으며, 더 나아가 텔레비전의 영화 재생은 사진 안에 표현된 콘텐츠 객체로서 식별되어 역시 여기에 기술된 것과 같이 자동 태깅될 수 있다.
예를 들어, 사용자가 관련 센서들이 있는 물리적 객체들을 가진 첫 번째 방에서 사진을 촬영하며 음악이 두 번째 방의 라디오로부터 재생될 때, 첫 번째 방의 물리적 객체들이 사진 안에 표현되고 여기에서 기술된 바와 같이 자동 태깅될 수 있으며, 더 나아가 두 번째 방에서 라디오 상에서 재생되는 음악은 그 사진과 관련된 콘텐츠 객체로서 식별되며 역시 여기에 기술된 바와 같이 자동 태깅될 수 있다.
이러한 맥락에서 콘텐츠 객체는 캡처된 콘텐츠 안에 포함되거나(예를 들어, 텔레비전 예) 단지 콘텐츠 캡처 프로세스 중에 캡처된 콘텐츠와 연관된(예를 들어, 라디오 예) 물리적 객체에 의해 제시될 수 있다.
객체들(122)은 콘텐츠 캡처 프로세스의 일부로서 캡처되어 (예를 들어, 캡처된 콘텐츠 안에 나타낸 객체, 캡처된 콘텐츠와 연관된 콘텐츠 태그 등뿐만 아니라 이들의 다양한 조합으로서) 캡처된 콘텐츠 안에 나타낼 수 있는 어떤 다른 물리적 객체들, 콘텐츠 객체들 및/또는 기타 객체들을 포함할 수 있다.
객체들(122)이라는 용어는 여기에서 논의되는 예시적 객체들에 국한되지 않는다는 점이 이해될 것이다.
도 1에 도시된 바와 같이, 각각의 객체(122)는 그와 관련된 하나 이상의 센서들을 가질 수 있다.
객체들(122)과 관련된 센서들(124)은 센서들(124)이 연관되는 객체들(122)을 포함하는 콘텐츠의 자동 태깅을 가능하게 하도록 구성/프로비저닝된다(단순성을 위해 여기에서는 기본적으로 구성된다라고 칭함).
일반적으로 연관되는 센서들(124)을 가질 수 있는 것은 물리적 객체들(122)이나, 콘텐츠 객체들(122) 역시 연관된 센서들(124)을 가질 수 있다고 간주된다. 예를 들어 콘텐츠 객체(122)(예를 들어, 비디오나 오디오 콘텐츠)가 그와 연관된 센서(124)를 가진 물리적 객체(122)(예를 들어, 텔레비전이나 라디오)로 제시되는 경우, 센서(124)는 물리적 객체(122) 및 콘텐츠 객체(124) 둘 모두와 연관되는 것으로 간주될 수 있다. 예를 들어 콘텐츠 객체(122)가 단지 콘텐츠의 캡처와 연관되고 (콘텐츠 캡처의 일부로서 캡처되는 어떤 특정 물리적 객체(122)와 반드시 연관되는 것은 아니라고) 할 때, 콘텐츠 객체(122)는 그와 연관된 센서(124)를 가지거나 가지지 않을 수 있다.
객체들(122)과 연관된 센서들(124)은 어떤 적절한 센서들을 포함할 수 있다.
일 실시예에서, 예를 들어 객체(122)는 적어도 그와 연관된 정보 센서(124)를 가지며, 또한 그와 연관된 하나 이상의 위치 센서들(124)을 가질 수 있다.
일반적으로 정보 센서(124)는 객체(122)와 연관된 객체 정보가 획득될 수 있도록 구성된다.
일 실시예에서, 예를 들어 객체(122)와 연관된 정보 센서(124)는 객체(122)와 연관된 객체 정보를 저장하고 콘텐츠 캡처 도중에 콘텐츠 캡처 장치(110)로 객체 정보를 제공한다.
일 실시예에서, 예를 들어 객체(122)와 연관된 정보 센서(124)는 객체와 연관된 객체 정보를 검색할 때 사용하도록 구성된 정보(예를 들어, 객체(122)와 연관된 객체 정보의 위치(들)에 대한 포인터, 객체(122)와 연관된 객체 정보가 검색될 수 있는 네트워크 위치의 어드레스를 판단하는데 사용될 수 있는 센서(124) 및/또는 객체(122)의 식별자 등뿐만 아니라 이들의 조합)를 저장한다. 그러한 실시예들에서, 정보 센서(124)는 객체(122)와 연관된 객체 정보를 검색 시 사용하도록 구성된 정보를 콘텐츠 캡처 도중에 콘텐츠 캡처 장치(110)로 제공하도록 구성된다.
일 실시예에서, 예를 들어 객체(122)와 연관된 정보 센서(124)는 객체(122)와 연관된 다른 유형의 정보(예를 들어, 캡처된 콘텐츠 안에 표현된 객체(122)와 콘텐츠 태그를 연관시킬 때 사용하도록 구성된 정보, 어떤 정보 구조를 객체(122)를 포함하는 캡처 콘텐츠 안에 내장된 콘텐츠 태그와 연관시킬 때 사용하도록 구성된 정보 등뿐만 아니라 이들의 다양한 조합)를 전달하도록 구성될 수 있다
정보 센서(124)는 객체(122)와 연관된 객체 정보가 획득될 수 있도록 하기 적합한 어떤 다른 방식으로 구성될 수 있다는 점이 이해될 것이다.
일반적으로 위치 센서는 캡처된 콘텐츠 안에 객체(122)를 자동 태깅하는데 사용되는 콘텐츠 태그가 캡처된 콘텐츠 안에서 객체(122)와 연관될 수 있도록, 캡처된 콘텐츠 안에서 객체(122)의 식별을 가능하게 하도록 구성된 센서이다.
예를 들어, 위치 센서(124)는 객체(122)의 객체 치수, 객체(122)와 관련된 객체 거리(예를 들어, 콘텐츠 캡처 장치(110)로부터 객체(122)까지의 거리) 등과 같은 정보의 결정을 가능하게 하도록 구성될 수 있으며, 상기 정보는 (예를 들어, 내장된 콘텐츠 태그들이 캡처된 콘텐츠 안에서 객체들(122)과 나란히 정렬될 수 있도록) 캡처된 콘텐츠 안에서 객체(122)의 위치를 판단하기 위해 처리될 수 있다.
정보 센서들(124) 및 위치 센서들(124)이 별개의 물리적 센서들인 실시예와 관련하여 본 명세서에서 기본적으로 도시되며 기술되었으나, 적어도 일부 센서들(124)은 정보 및 위치 센서들(124) 양자 모두로서 동작될 수 있다는 점이 이해될 것이다.
센서들(124)은 여기에 기술된 바와 같이 정보 및/또는 위치 센서들로서 동작하기 적합한 어떤 센서들일 수 있다. 예를 들어 센서들(124)은 하드웨어 기반, 소프트웨어 기반, 자료 기반 중 하나 이상일 수 있다. 예를 들어, 센서들(124)은 바코드, 보코드(Bokodes), QR 코드, 능동 및/또는 수동 RFID(Radio Frequency Identifiers), 화학적 태그 및/또는 감광 태그, 티끌, 음성 색인, 오디오 색인, 비디오 색인 등뿐만 아니라 이들의 다양한 조합과 같은 센서들을 포함할 수 있다.
센서들(124)은 이러한 것들 및 콘텐츠 태깅 및 관리 기능과 관련된 다른 다양한 기능들을 제공하는 데 사용하기 적합한 어떤 다른 센서들을 포함할 수 있다.
센서들(124)은 어떤 적합한 방식(예를 들어, 객체들(122) 안에 내장되고, 객체들(122)에 부착되는 등)에 따라 객체들(122)과 연관될 수 있다. 당업자가 이해할 수 있다시피, 센서들(124)은 어떤 적합한 방식으로 객체들(122) 안에 내장될 수 있으며, 어떤 적절한 방식으로 객체들에 부착될 수 있다.
센서들(124)은 센서들(124)이 연관되는 객체들(122)의 유형에 따라 좌우될 수 있는 어떤 적절한 시점에 객체들과 연관될 수 있다.
예를 들어 제조된 객체들(122)에 대해 센서들(124)이 그 제조된 객체들(122)과 제조 도중에, 제조 이후 객체들(122)의 판매 이전에(예를 들어, 판매자가 고객에게 판매하기 전 객체들(122)에 센서들(124)을 부착하는 것과 같은 경우), 객체들(122)의 판매 이후(예를 들어, 객체들(22)의 소유자가 센서(124)를 구매하여 그 센서(124)를 객체(122)에 부착하는 것과 같은 경우), 객체들(122)의 판매 이후(예를 들어, 제3의 공급자가 센서(124)를 제공하고 그 센서(124)를 객체(122)에 부착하는 것과 같은 경우) 등 및 이들의 다양한 조합 시점에 연관될 수 있다.
예를 들어, 기존의 객체들(122)(예를 들어, 제조된 객체들, 구조들, 자연 객체들 등)에 대해, 센서들(124)이 객체들(122)을 담당하는 사람들(예를 들어, 객체(122)의 소유자, 객체(122)의 제어를 담당하거나 관리하는 사람(들)(예를 들어 객체들(122)이 박물관에 전시되는 박물관의 큐레이터, 객체들(122)이 공원과 같은 자연 객체들인 경우의 공원 관리자 등) 등에 의해 객체들(122)과 연관될 수 있다.
센서들(124)은 객체들(122)과 (예를 들어, 객체들(122)의 제조 중에 기계들에 의해, 객체들(122)의 제조 이후 기계들에 의해, 그외 기타에 의해) 자동으로 객체들(122)과 연관될 수 있다.
센서들(124)은 센서들(124)이 연관되는 객체들(122)의 유형에 따라 좌우될 수 있는 어떤 적절한 사람에 의해 수동으로 객체들과 연관될 수 있다.
예를 들어 콘텐츠 캡처 장치(110)의 소유자가 센서들(124)을 획득하여 콘텐츠 캡처 장치(110)의 소유자가 센서들을 그 소유자의 다양한 객체들(122)(예를 들어, 가구, 가전장치, 차량 등)에 부착할 수 있게 할 수 있다. 이것은 콘텐츠 캡처 장치(110)의 소유자에 의해 소유되거나, 혹은 적어도 그 소유자의 관리하에 있는 객체들에 대해 콘텐츠 캡처 장치(110)의 소유자에 의해 생성된 콘텐츠의 자동 태깅을 가능하게 할 것이다. 이것은 소정 객체들(122)을 포함하는 콘텐츠의 태깅이 다른 사용자들에 의해 보여지는 경우 콘텐츠 캡처 장치(110) 및 센서들(124)의 소유자가 보상받게 할 수 있다.
예를 들어 콘텐츠 캡처 장치(110)를 소유하지 않는 사람이 센서들(124)을 획득하여 그 센서들을 그 사람의 객체들(122)(예를 들어, 가구, 가전장치, 차량 등)에 부착할 수 있다. 이것이 사용자의 객체들(122)을 포함하는 콘텐츠를 캡처하기 위해 콘텐츠 캡처 장치(110)를 이용하는 사람들(예를 들어, 그 사람의 집에서 콘텐츠 캡처 장치(110)를 이용하여 사진이나 비디오들을 촬영하는 친구들)에 의해 생성된 콘텐츠의 자동 태깅을 가능하게 할 것이다. 이것은 소정 객체들(122)을 포함하는 콘텐츠의 태깅이 다른 사용자들에 의해 보여지는 경우 센서들(124)의 소유자가 보상받게 할 수 있다.
그러한 실시예들에서 센서들(124)은 어떤 적절한 방식에 따라 획득될 수 있다. 예를 들어 센서들(124)은 구매 시 객체들(122)과 함게 포함되거나, 객체(122)가 획득되는 개체에 의해 그 사람에게 제공되거나, 객체들(122)과 무관한 사람에 의해 구매되거나(예를 들어, 센서 제공자가 객체들(122)과 사용하기 적합한 센서들을 판매하는 것과 같은 경우) 등뿐만 아니라 이들의 다양한 조합의 경우가 있을 수 있다.
센서들(124)이 어느 객체들(122)과도 무관한 사람에 의해 구매될 수 있는 일 실시예에서, 어떤 적합한 수의 센서 유형들이 지원될 수 있다. 일 실시예에서, 예를 들어, 한 유형의 센서(124)는 객체(122)의 유형과 독립적으로 입수될 수 있다. 일 실시예에서 여러 유형의 센서들(124)이 (예를 들어, 하나 이상의 센서 제공자들로부터) 입수될 수 있다. 그러한 일 실시예에서, 특정 객체(122)나 객체(122)의 유형과 사용되어야 하는 센서의 유형이 객체(122)의 제공자에 의해 추천될 수 있고, 센서들(124)의 특정 유형들이 사용되어야 하는 객체(122)나 객체(122)의 유형이 센서들(124)의 제공자(들)에 의해 추천될 수 있는 등의 경우 뿐만 아니라 이들의 다양한 조합의 경우들이 있을 수 있다. 즉, 어떤 적절한 유형(들)의 센서들(124)이 콘텐츠 태깅 및 관리 기능을 제공하기 위해 사용될 수 있다.
센서들(124)은 어떤 다른 적절한 방식에 따라 객체들(122)과 연관될 수 있다.
센서들(124)은 센서들(124)이 각각 연관되는 객체들(122)과 연관되는 객체 데이터를 안전하게 저장한다. 여기에 기술된 바와 같이, 객체(122)와 연관된 센서(124) 상에 저장되는 객체 데이터는 객체(122)와 관련된 위치 정보 및/또는 객체(122)와 관련된 객체 정보를 포함할 수 있다.
객체(122)와 관련된 객체 데이터는 어떤 적절한 시점(들)에 연관된 센서(124) 안으로 입력된다(어떤 적절한 시점(들)에 객체(122)와 연관될 센서(124)의 기능과 유사).
예를 들어 센서(124)가 특정 객체(122)와 연관되도록 예정된 경우(예를 들어, 센서(124)가 제조 도중에 객체(122) 안에 내장되며, 객체의 제조자나 객체의 판매자에 의해 객체(122)와 연관되는 등의 경우), 객체(122)와 연관되는 객체 데이터가 센서(124)가 제조되는 시점이나, 센서(124)가 제조되고 나서 센서(124)가 객체(객체(122)의 제조자나 판매자에게 제공되기 전에 객체(122)의 제조자나 판매자 등에 의해 센서(124) 안에 입력될 수 있다.
예를 들어, 센서(124)가 특정 객체(122)와 연관되도록 예정된 경우(예를 들어, 센서(124)가 객체(122)를 소유하거나 관리하는 사람이 입수 가능한 일반 센서인 경우), 객체(122)와 연관되는 객체 데이터는 객체(122)와 연관되기 전이나 객체(122)와 연관된 이후 등 센서(124) 안에 입력될 수 있다. 예를 들어, 어떤 사람이 센서들(124)을 구매하고, 센서들(124)이 연관되어야 하는 객체들(122)에 기반하여 센서들(124) 안에 객체 데이터를 로딩하며, 그런 다음 센서들(124)을 객체들(122)에 부착할 수 있다. 마찬가지로, 예를 들어 어떤 사람이 센서들(124)을 구매하고, 센서들(124)을 객체들(122)에 부착하며, 그런 다음 센서들(124)이 연관될 객체들(122)에 기반하여 센서들(124) 안에 객체 데이터를 로딩할 수 있다.
객체(122)와 연관되는 객체 데이터는 어떤 다른 적절한 시점(들)에서 연관 센서(124) 안에 입력될 수 있다.
객체(122)와 연관되는 객체 데이터는 (예를 들어 센서(124)로의 객체 데이터의 기계에서 기계로의 전송을 통해) 자동으로 연관 센서(124) 안에 입력될 수 있다.
객체(122)와 연관되는 객체 데이터는 어떤 적절한 사람에 의해 수동적으로 연관 센서(124) 안에 입력될 수 있으며, 이것은 센서들(124)이 연관되는 객체들(122)의 유형에 좌우될 수 있다(어떤 적절한 사람에 의해 수동적으로 객체(122)에 연관되어야 하는 센서(124)의 기능과 유사).
일 실시예에서, 객체(122)와 연관되는 객체 데이터는 센서 스캐너(130)를 이용하여 관련 센서(124) 안에 입력될 수 있다.
센서 스캐너(130)는 안정적 읽기 및 쓰기 기능들을 가지고 센서들(124)과 인터페이스하는 예를 들어 센서들(124) 안에 입력된 데이터에 대해 센서들(124)로부터 데이터를 판독하기 적합한 어떤 스캐너 등뿐만 아니라 이들의 다양한 조합들일 수 있다.
센서 스캐너(130)는 객체(122)와 연관되고 객체(122)와 연관되는 센서(124) 안에 입력되도록 예정된 객체 데이터를 어떤 적절한 방식을 통해 획득할 수 있다.
일 실시예에서 센서 스캐너(130)는 사용자가 안전하게, 그리고 주문에 따라 센서들(124) 안에 안전하게 로딩되도록 예정된 객체 데이터를 입력시킬 수 있는 사용자 인터페이스를 포함한다.
일 실시예에서 센서 스캐너(130)는 센서들(124) 안에 안전하게 로딩되도록 예정된 객체 데이터가 획득될 수 있는 하나 이상의 장치들과 인터페이싱하기 위한 하나 이상의 통신 인터페이스들을 포함한다.
그러한 일 실시예에서, 센서 스캐너(130)는 센서 스캐너(130)가 하나 이상의 사용자 장치들과 안전하게 통신할 수 있게 하기 위해 비네트워크화 및/또는 네트워크화된 접속 기능들을 포함하는 하나 이상의 유선 및/또는 무선 접속 기능들을 포함할 수 있다. 예를 들어, 센서 스캐너(130)는 (예를 들어, PCI(Peripheral Component Interconnect), USB(Universal Serial bus) 등뿐만 아니라 이들의 조합 중 하나 이상을 이용하여) 하나 이상의 사용자 장치들에 직접 연결될 수 있다. 예를 들어, 센서 스캐너(130)는 유선 네트워크 접속을 통해(예를 들어, 이더넷이나 어떤 다른 적절한 유선 네트워크 접속을 통해) 하나 이상의 사용자 장치들에 연결될 수 있다. 예를 들어 센서 스캐너(130)는 (예를 들어, 블루투스, WiFi, RF(Radio Frequency), UV(Ultraviolet), VS(visual Spectrum) 등을 이용하여) 무선으로 하나 이상의 사용자 장치들에 연결될 수 있다. 이러한 것들 및 다른 접속 기능들이 도 1의 통신 경로(131)로서 표현된다.
그러한 일 실시예에서, 센서 스캐너(130)는 센서 스캐너(130)가 하나 이상의 네트워크 장치들(예를 들어, 객체들(122)에 대한 객체 데이터를 저장하는 네트워크 서버들, 객체들(122)에 대한 객체 데이터를 저장하는 네트워크 데이터페이스들 등뿐만 아니라 이들의 다양한 조합)과 통신할 수 있도록 하나 이상의 유선 및/또는 무선 접속 기능들을 포함할 수 있다. 예를 들어, 센서 스캐너(130)는 이더넷, WiFi, 셀룰라 등뿐만 아니라 이들의 다양한 조합을 통해 하나 이상의 네트워크 장치들과 통신할 수 있다. 이러한 것 및 다른 접속 기능들이 도 1의 통신 경로들(131 및/또는 132)로서 표현된다(예를 들어, 콘텐츠 캡처 장치(110)가 로컬 네트워크 환경(140)을 통해 원격 네트워크 환경(150)을 액세스하는 경우 경로 131; 콘텐츠 캡처 장치(100)가 원격 네트워크 환경(150)에 직접 액세스하는 경우 경로 132).
객체(122)에 대한 객체 데이터는 센서 스캐너(130)에 의해 안전하게 획득되고 센서 스캐너(130)를 사용하여 어떤 적절한 방식을 통해 센서(124) 안에 안전하게 로딩될 수 있다.
일 실시예에서, 예를 들어 사용자는 사용자의 사용자 장치(예를 들어, 컴퓨터) 안에 객체(122)에 대한 객체 데이터를 입력한다. 그런 다음, 사용자는 어떤 적절한 통신/인터페이싱 기술을 이용하여 컴퓨터로부터 센서 스캐너(130) 안으로 객체 데이터를 다운로드한다. 사용자는 그리고 나서 객체(122)와 연관되는 센서(124) 안에 객체 데이터를 입력하기 위해 센서 스캐너(130)를 이용할 수 있다.
사용자가 객체(122)에 대한 객체 데이터를 사용자 장치(예를 들어, 센서 스캐너(130), 컴퓨터(142) 등) 안에 입력하는 일 실시예에서, 하나 이상의 템플릿이 정보 입력을 위해 사용자에게 이용될 수 있다. 템플릿들은 어떤 적절한 소스(예를 들어, 객체(122)의 제공자/관리자, 하나 이상의 제3자 템플릿 제공자들 등뿐만 아니라 이들의 다양한 조합들)에 의해 생성될 수 있다. 템플릿들은 어떤 적절한 소스(예를 들어, 객체(122)의 제공자/관리자, 하나 이상의 제3자 템플릿 제공자들 등뿐만 아니라 이들의 다양한 조합들)에 의해 사용자에게 제공될 수 있다. 템플릿들은 어떤 적절한 시점에 (예를 들어, 사용자가 객체(122)를 구매할 때와 같은 경우 객체(122)와 함께, 객체의 소유자가 객체(122)에 대한 하나 이상의 센서들(124)을 사용자가 하나 이상의 템플릿들을 다운로드할 수 있는 하나 이상의 네트워크 서버들로부터 구매했을 때와 같은 경우 센서(124)와 함께, 기타 이들의 다양한 조합을 통해) 사용자에게 제공될 수 있다. 예를 들어 템플릿들이 상용 개체(1531), 제3자 브로커들(1532), 애플리케이션 제공자들(1533) 및 연합 에이전시(1534) 중 하나 이상을 통해 운용되는 서버들 상에 저장될 수 있다. 템플릿들은 어떤 적절한 수준의 세분도로 제공될 수 있다(예를 들어, 하나 이상의 템플릿들이 특정 객체들(122)에 대해 제공될 수 있고, 하나 이상의 템플릿들이 특정 객체 유형들에 대해 제공될 수 있으며, 하나 이상의 템플릿들이 모든 혹은 적어도 일부 유형의 객체들에 대한 객체 데이터를 캡처할 수 있는 일반 템플릿들로서 제공될 수 있는 등의 경우를 포함하여 이들의 다양한 조합적 경우가 있을 수 있다). 템플릿들은 (예를 들어, 하나 이상의 형식을 이용하거나, 사용자가 객체 정보를 이끌어내기 위해 고안된 질문에 답변하는 서베이 형식을 이용하거나, 객체 정보를 입력하도록 사용자에게 촉구되는 프롬프트 형식을 이용하는 등의 경우 뿐만 아니라 이들의 다양한 조합을 통해) 사용자가 정보를 입력할 수 있게 하기 위한 어떤 적절한 방식으로 구성될 수 있다. 센서(124) 안에 안전하게 로딩되도록 객체 정보를 입력하기 위한 그러한 템플릿들을 이용할 수 있는 사용자들은 어떤 적절한 사용자들(예를 들어, 객체 정보가 센서(124) 안에 안전하게 로딩되도록 하는 객체(122) 제공자의 직원, 객체(122) 제공자를 대표하여 센서(124) 안에 안전하게 로딩될 객체 정보를 입력하는 제3자 서비스의 직원, 센서(124) 안에 입력되는 객체 정보를 로딩하기 위해 센서 스캐너(130)를 이용하는 객체(122)의 소유자/관리자 등뿐만 아니라 이들의 다양한 조합) 포함할 수 있다.
일 실시예에서, 예를 들어, 객체 데이터가 사용자 장치나 네트워크 장치 상에 안전하게 저장된 경우 사용자는 센서 스캐너(130)를 통해 객체(122)에 대한 객체 데이터 요청을 발한다. 센서 스캐너(130)는 요청된 객체 데이터를 수신하여 저장한다. 사용자는 그리고 나서, 객체(122)와 연관되는 센서(124) 안에 객체 데이터를 입력하기 위해 센서 스캐너(130)를 이용할 수 있다.
이런 방식으로 센서들(124) (및 그에 따라 센서들(124)에 의해 저장된 객체 데이터)이 예정된 장치들에 의해서만 기입 및 판독될 수 있는(예를 들어, 센서들(124) 및 센서들(124) 상에 저장되는 관련 객체 데이터가 허락에 기반하여 위임되도록 정해진 장치들만이 센서들(124)과 상호작용할 수 있도록 확보될 수 있는) 다양한 실시예들이 제공된다.
마찬가지로, 이런 방식으로 센서 스캐너(130)가 다양한 할당 허가들에 기반하여 센서들(124)의 소정 집합, 장치들(컴퓨터(142), 부속 장치(143) 등) 및/또는 네트워크 환경(예를 들어, 로컬 네트워크 환경(140) 및/또는 원격 네트워크 환경(150))과 어울려 동작하게 할 수 있는 다양한 실시예들이 제공된다.
객체(122)에 대한 객체 데이터가 센서 스캐너(130)에 의해 안전하게 획득되고 센서 스캐너(130)를 이용하여 센서(124) 안에 안전하게 로딩될 수 있는 다양한 방식의 상기 내용들로부터, 콘텐츠 태깅 및 관리 기능이 객체(122)에 대한 객체 데이터가 센서 스캐너(130)에 의해 안전하게 획득되고 센서 스캐너(130)를 이용하여 센서(124) 안에 안전하게 로딩될 수 있게 하는 어떤 특정 메커니즘이나 방법에 한정되도록 의도되지 않는다는 점이 이해될 것이다.
센서(124) 상에 저장되는 객체(122)에 대한 객체 데이터는 객체(122)와 연관된 어떤 적절한 유형들 및/또는 크기의 데이터를 포함할 수 있다.
일 실시예에서 센서(124) 상에 저장되는 객체(122)에 대한 객체 데이터는 객체(122)에 대한 위치 정보(예를 들어, 위치 센서(124)나 위치/정보 결합 센서(124)에 저장됨)를 포함한다. 객체(122)에 대한 위치 정보는 캡처된 콘텐츠 안의 객체(122) 위치를 판단할 때 이용하기 적합한 어떤 정보를 포함할 수 있다. 예를 들어 위치 정보는 객체(122)의 GPS 위치, 하나 이상의 참조 지점들(예를 들어, 그와 관련된 센서들(124)을 가지거나 가지지 않을 수 있는 하나 이상의 다른 객체들(122) 및/또는 어떤 다른 적절한 참조 지점(들) 대비 객체(122)의 위치를 나타내는 정보, 객체(122)의 하나 이상의 치수들을 나타내는 정보 등 및 이들의 다양한 조합을 포함할 수 있다.
일 실시예에서 센서(124) 상에 저장되는 객체(122)에 대한 객체 데이터는 객체(122)를 포함하는 캡처된 콘텐츠와 연관된 정보 구조 안에 포함하도록 된 객체 정보를 포함한다(예를 들어, 정보 센서(124)나 정보/위치 결합 센서(124)에 저장됨).
센서(124) 상에 저장된 객체(122)에 대한 객체 정보는 각종 유형의 객체들(122)에 대해 가변될 객체(122)와 관련된 어떤 적절한 정보를 포함할 수 있다. 객체 정보는 객체(122)의 제공자/관리자에 의해 제공되는 정보, 객체(122)의 소유자에 의해 제공되는 정보 등뿐만 아니라 이들의 다양한 조합을 포함할 수 있다. 센서(124) 상에 저장될 수 있는 객체 정보의 유형들은 어떤 특정 예들을 참조함으로써 보다 잘 이해될 것이다.
일 실시예에서, 예를 들어 센서(124) 상에 저장되는 객체(122)의 객체 정보는 객체(122)를 기술하는 객체 정보를 포함한다. 예를 들어 객체(122)가 냉장고인 경우, 냉장고와 연관된 센서(24) 안에 포함된 객체 정보는 냉장고에 대한 정보를 검토하는 사람들에게 가장 흥미로울 가능성이 높은 정보의 유형들(예를 들어, 냉장고의 치수, 냉장고의 용량, 냉장고의 특징 등뿐만 아니라 이들의 다양한 조합)을 포함할 수 있다. 예를 들어 객체(122)가 텔레비전인 경우, 텔레비전에 부착된 센서(124) 안에 포함된 객체 정보는 텔레비전에 대한 정보를 검토하는 사람들에게 가장 흥미로울 가능성이 높은 정보의 유형들(예를 들어, 사용된 기술 유형(예를 들어, 플라즈마, LCD 등), 치수, 디스플레이 정보(예를 들어, 대각선 사이즈, 기술, 해상도 등), 비디오 특성들, 멀티미디어 지원 기능, 비디오 서비스 연결과 관련된 EPG(Electronic Programming Guide) 정보, 보증서 정보 등뿐만 아니라 이들의 다양한 조합)을 포함할 수 있다. 예를 들어 객체(122)가 박물관에 전시된 그림인 경우, 그림과 연관된 센서(124) 안에 포함된 객체 정보는 그림을 보는 사람들에게 가장 흥미로울 가능성이 높은 정보의 유형들(예를 들어, 화가의 이름, 그림의 명칭, 화가나 그림에 대한 간략한 이력 등뿐만 아니라 이들의 다양한 조합)을 포함할 수 있다. 상술한 예들은 단지 센서들(124) 상에 저장될 수 있는 객체 정보 유형들의 몇 가지 예들에 불과하다. 객체들의 다른 유형들과 관련하여 고려될 수 있는 다양한 유형의 객체 정보가 이해될 것이다.
일 실시예에서, 예를 들어 센서(124) 상에 저장되는 객체(122)의 객체 정보는 객체(122)와 연관된 주관적이고/이거나 사적인 정보를 포함한다. 예를 들어 객체(122)가 텔레비전인 경우, 텔레비전에 부착되는 센서(124) 안에 포함된 객체 정보는 텔레비전의 소유자에 의한 구매 날짜, 텔레비전 소유자에 의한 구매 장소, 텔레비전에 대해 소유자가 수행한 거래, 소유자에 의한 텔레비전의 리뷰, 소유자가 텔레비전 상에서 시청하고 싶어하는 콘텐츠 유형들 등뿐만 아니라 이들의 다양한 조합과 같은 정보를 포함할 수 있다. 예를 들어 객체(122)가 박물관에 전시된 그림인 경우, 그림과 연관된 센서(124) 안에 포함된 객체 정보는 그림의 중요성에 대한 큐레이터의 의견, 그림의 품질에 대한 큐레이터의 의견, 어떤 사람이 그 그림을 좋아하는 경우 그 사람이 좋아할 수 있는 다른 그림들에 대한 큐레이터의 의견 등뿐만 아니라 이들의 다양한 조합과 같은 정보를 포함할 수 있다. 객체들의 다른 유형들과 관련하여 고려될 수 있는 다양한 유형의 주관적이고/이거나 사적인 정보가 이해될 것이다.
적어도 상기 예들로부터, 실질적으로 어떤 객체 정보(예를 들어, 객체에 대한 설명, 객체 및/또는 관련 객체들에 대한 광고, 객체에 대한 의견, 객체들에 대한 추가 정보로의 링크 등뿐만 아니라 이들의 다양한 조합)가 관련 객체(122)에 대한 센서(124) 상에 저장될 수 있다는 점이 이해될 것이다.
마찬가지로, 적어도 상기 예들로부터, 객체 정보가 하나 이상의 콘텐츠 유형들(예를 들어, 텍스트, 이미지, 오디오, 비디오, 멀티미디어 등뿐만 아니라 이들의 다양한 조합)을 포함할 수 있다는 점이 이해될 것이다.
객체(122)를 위한 센서(124) 상에 저장되는 객체 정보는 그러한 정보의 어떤 적절한 소스(들), 예를 들어 객체(122)의 제공자/관리자, 객체(122)의 제공자/관리자를 대표하는 개체(예를 들어, 객체(122)를 판매하는 회사가 센서(124) 상에 포함될 객체(122)의 제조자에게 객체 정보를 제공하는 경우, 객체(122)를 판매하는 회사가 센서(124) 상으로 객체 정보를 로딩할 책임이 있는 제3자에게 정보를 제공하는 등과 같은 경우), 센서 스캐너(130)를 통한 객체(122)의 소유자/관리자(예를 들어, 소유자/관리자가 센서(124) 상에 이미 저장된 객체 정보를 보충하고/거나 센서(124) 상에 저장된 객체 정보 전체를 제공하는 것과 같은 경우) 등 및 그 다양한 조합에 의해 센서 상에 설정될 수 있다.
센서(124) 상에 저장되는 객체(122)에 대한 객체 정보는 어떤 다른 적절한 정보를 포함할 수 있다.
센서(124) 상에 저장되는 객체(122)에 대한 객체 데이터는 어떤 다른 적절한 객체 데이터를 포함할 수 있다.
객체(122)에 대한 객체에 데이터가 객체(122)와 연관된 센서 상에 저장되는 실시예들과 관련하여 도시되며 기술되었지만, 객체(122)에 대한 객체 데이터의 일부나 전부(예를 들어, 위치 정보, 객체 정보 등뿐만 아니라 이들의 다양한 조합들 중 하나 이상)는 그러한 객체 데이터의 하나 이상의 다른 소스들로부터 획득될 수 있다. 이러한 방식으로, 객체들(122)에 대한 센서들(124) 내에 포함된 것으로서 본 명세서에 기술된 다양한 유형의 객체 데이터는 보다 일반적으로 센서들(124)과 연관되는 것으로 간주될 수 있는 바, 이는 객체 데이터가 그러한 객체 데이터의 어떤 적절한 소스(들)로부터 획득될 수 있기 때문이다.
일 실시예에서, 예를 들어 센서(124) 상에 저장되는 (객체(122)의) 객체 데이터는 객체(122)와 연관된 객체 데이터를 검색하는 데(예를 들어 정보 구조 안에 포함될 객체 정보, 위치 정보 등뿐만 아니라 이들의 다양한 조합 중 하나 이상을 검색하는데) 사용하도록 된 데이터를 포함한다. 예를 들어 객체(122)와 연관된 객체 데이터 검색 시 사용하도록 된 데이터는 객체(122)와 연관된 객체 데이터를 검색하는 데 사용될 수 있는 객체(122)의 식별자를 포함할 수 있다. 예를 들어, 객체(122)와 연관된 객체 데이터 검색 시 사용하도록 된 데이터는 객체 데이터가 검색될 장치들(예를 들어, 컴퓨터(142), 하나 이상의 부속 장치들(143), 원격 네트워크 환경(150)의 하나 이상의 네트워크 장치들 등뿐만 아니라 이들의 다양한 조합)의 하나 이상의 식별자들 및/또는 주소들을 포함할 수 있다. 객체(122)와 연관된 객체 데이터 검색에 사용하도록 된 데이터는 연관된 센서(124)가 아닌 객체(122)에 대한 객체 데이터를 소스로부터 검색하는데 사용하기 적합한 어떤 다른 정보를 포함할 수 있다. 그러한 실시예에서, 객체 데이터의 검색이 안정저으로 수행될 수 있다는 점이 이해될 것이다.
객체(122)와 연관된 객체 데이터는 그러한 정보의 어떤 적절한 소스(예를 들어, 콘텐츠 캡처 장치(110) 상의 메모리, 로컬 네트워크 환경(140) 내 하나 이상의 장치들, 원격 네트워크 환경(150) 내 하나 이상의 장치들 등뿐만 아니라 이들의 다양한 조합)로부터 검색될 수 있다.
객체 데이터가 센서들(124) 상에 저장된 다양한 실시예들과 관련하여 기본적으로 묘사 및 기술되지만, 적어도 하나의 다른 실시예에서 센서들(124)은 센서를 고유하게 식별하는 데 사용하기 적합한 센서 식별 정보만을 저장한다. 그러한 실시예들에서 센서 식별 정보는 센서(124)와 연관된 객체(122)에 대한 관련 객체 데이터를 검색하는 데 사용될 수 있다(본 명세서에서 기술된 것과 같은 객체 데이터 검색을 위한 객체 식별 정보의 사용과 유사). 그러한 실시예들에서, 예를 들어 센서가 연관되는 객체(122)가 결정될 수 있고 객체(122)의 관련 객체 데이터가 그 객체(122)를 포함하는 자동 태깅 콘텐츠 안에서 사용되도록 획득될 수 있도록, 센서(124)의 그 객체(122)로의 매핑이 (예를 들어, 콘텐츠 캡처 장치(110) 상에서와 같은 어떤 적절한 소스, 로컬 네트워크 환경(140)의 장치, 원격 네트워크 환경(150)의 장치 등뿐만 아니라 이들의 다양한 조합 안에서) 유지될 수 있다. 다른 유사한 구성들이 고려된다는 점이 이해될 것이다.
센서들(124)은 객체 데이터를 암호화된 형식으로 안전하게 저장할 수 있다. 일 실시예에서 센서(124) 상에 저장되는 객체 데이터 전체가 암호화된다. 일 실시예에서 센서(24) 상에 저장되는 객체 데이터의 부분 집합이 암호화된다. 그러한 실시예들에서 객체 데이터는 콘텐츠 소유자(예를 들어, 객체(122)의 제공자가 객체(122) 관련 객체 데이터를 통제하는 경우의 그 제공자, 객체(122)의 소유자나 관리자 등)에게만 이용될 수 있다. 그러한 실시예들에서 객체 데이터 암호화는 위임된 사람에 의해 센서(124)의 활성화 이후에 완전히, 혹은 부분적으로 거둬질 수 있다.
센서들(124)은 그와 연관된 하나 이상의 허가 레벨을 가질 수 있다. 센서들(124)에 대한 허가 레벨은 센서들(124) 상의 객체 데이터 저장 및/또는 센서들(124)로부터의 객체 데이터 판독을 저장하는 데 사용될 수 있으며, 그에 따라 센서들(124) 상의 객체 데이터의 안정적 저장 및/또는 센서들(124)로부터의 객체 데이터의 안정적 판독이 가능할 수 있다. 허가(들)은 (예를 들어, 센서(124), 센서(124) 상에 저장되는 모든 객체 데이터, 센서(124) 상에 저장되는 객체 데이터의 하나 이상의 부분 집합들 등뿐만 아니라 이들의 다양한 조합에 대해) 어떤 적절한 레벨로 설정될 수 있다. 센서들(124)에 대한 허가 레벨들은 어떤 적절한 레벨들을 포함할 수 있다. 일 실시예에서, 예를 들어 소유자, 그룹, 및 공중의 세 허가 레벨이 지원될 수 있다. 이 실시예에서 '소유자' 허가 레벨은 센서(124)의 소유자만이 객체 데이터를 센서(124) 상에 안전하게 저장하고/거나 센서(124)로부터 객체 데이터를 안전하게 가져올 수 있다는 것을 나타내고, '그룹' 허가 레벨은 센서(124) 상에 안전하게 객체 데이터를 저장하며/하거나 센서(124)로부터 안전하게 객체 데이터를 가져올 수 있는 하나 이상의 사용자 그룹들(각각의 그룹이 한 명 이상의 사용자들을 포함함)을 특정하는 데 사용될 수 있으며, '공중' 허가 레벨은 임의의 사용자가 센서(124) 상에 객체 데이터를 안전하게 저장하며/하거나 센서(124)로부터 객체 데이터를 안전하게 가져올 수 있다는 것을 나타낸다. 이러한 허가 레벨들은 단지 예로 든 것으로 어떤 다른 적절한 개수 및/또는 유형의 허가 레벨들이 지원될 수 있다는 점이 이해될 것이다. 다른 개수 및/또는 유형의 허가 레벨들이 다른 센서들(124)에 대해 사용될 수 있다는 점이 이해될 것이다.
센서(124)는 캡처된 콘텐츠가 객체(122)를 포함할 때 콘텐츠 캡처 장치(110)에 의한 콘텐츠 캡처 중이나 그와 동시에 콘텐츠 캡처 장치(110)로 객체(122)에 대해 저장된 객체 데이터를 제공할 수 있다. 센서들(124)은 센서들(124)의 유형에 따라 좌우될 수 있는 어떤 적절한 방식에 따라 콘텐츠 캡처 장치(110)로 객체들(122)에 대해 저장된 객체 데이터를 제공할 수 있다. 일 실시예에서 센서들(124)은 센서들(124)의 하나 이상의 허가 레벨 집합에 따라 콘텐츠 캡처 장치로 객체들(122)에 대해 저장된 객체 데이터를 제공한다(또는 제공하지 않는다).
본 명세서에 기술된 바와 같이, 자동 태깅 기능이 로컬 네트워크 환경(140) 및/또는 원격 네트워크 환경(150)에 의해 제공 및/또는 지원될 수 있다.
로컬 네트워크 환경(140)은 콘텐츠 캡처 장치(110)의 사용자를 위해 하나 이상의 사용자 장치들 및 관련된 통신 기능들을 포함한다. 예를 들어, 로컬 네트워크 환경(140)은 사용자의 댁내 환경, 사용자의 사무소 환경 등일 수 있다.
도 1에 도시된 바와 같이, 로컬 네트워크 환경(140)은 로컬 네트워크(141), 컴퓨터(142), 부속 장치(143), 및 로컬 저장부(144)를 포함한다.
로컬 네트워크(141)는 로컬 네트워크 환경(140) 안에서의(예를 들어 컴퓨터(142) 및 부속 장치들(143) 사이의) 통신 및/또는 로컬 네트워크 환경(140) 및 원격 네트워크 환경(150) 사이의 통신(예를 들어 컴퓨터(142) 및/또는 부속 장치가 원격 네트워크 환경(150)을 통해 통신할 수 있게 함)을 촉진시킬 수 있다.
컴퓨터(142)는 콘텐츠 태깅 기능과 연계하여 사용자에 의해 사용될 수 있는 어떤 컴퓨터를 포함한다. 예를 들어 컴퓨터(142)는 사용자의 집이나 사무소 내 데스크톱 또는 랩톱일 수 있다.
컴퓨터(142)는 사용자가 소유하거나 최소한 통제하는 객체들(122) 상에 배치되는 센서들(124)을 구성하기 위해 사용자에 의해 사용될 수 있다. 예를 들어 사용자는 센서들(124)과 관련된 허가들, 센서들(124) 상에 객체 데이터로서 저장될 입력 정보 등을 설정할 수 있다. 사용자는 그런 다음 구성된 정보를 센서 스캐너(130) 안으로 다운로드하며, 관련 센서들(124)을 구성하기 위해 센서 스캐너(130)를 사용할 수 있다.
컴퓨터(142)는 사용자 및/또는 다른 사람들에 의해 캡처된 콘텐츠를 포함할 수 있는 캡처된 콘텐츠 안의 객체들과 관련된 정보 구조들과 연관되는 정보를 구성하기 위해 사용자에 의해 사용될 수 있다.
예를 들어 컴퓨터(142)는 사용자가 객체들(122)에 대한 정보를 입력할 수 있게 하는 하나 이상의 로컬 프로그램들을 실행하여 그 입력된 정보가 캡처된 콘텐츠 내 객체들(122)과 자동으로 관련되는 정보 구조들 안에 저장될 수 있도록 한다. 이 예에서, 입력된 객체 정보는 어떤 적절한 위치(예를 들어, 컴퓨터, 부속 장치들(143), 로컬 저장부(144), 콘텐츠 캡처 장치(110), 원격 네트워크 환경(150)의 하나 이상의 네트워크 장치들 등뿐만 아니라 이들의 다양한 조합) 상에 저장될 수 있다.
예를 들어, 컴퓨터(142)는 사용자가 객체들(122)에 대한 정보를 입력할 수 있게 하는 하나 이상의 온라인 정보 관리 시스템을 액세스하여 그 입력된 정보가 캡처된 콘텐츠 내 객체들(122)과 자동으로 관련되는 정보 구조들 안에 저장될 수 있도록 이용될 수 있다. 이 예에서, 이전의 예에서와 같이 입력된 객체 정보는 어떤 적절한 위치에 저장될 수 있다.
상술한 예들에서 사용자는 캡처된 콘텐츠 내 객체들(122)과 자동 연관될 객체 정보를 안전하게 정의하는 데 컴퓨터(142)를 사용할 수 있다. 본 명세서에 기술된 바와 같이, 센서들(124)은 엄청난 수 및 유형의 객체들(122) 상에 배치될 수 있고, 그에 따라 각양각색의 사용자들이 이러한 목적을 위해 여러 다양한 방식으로 컴퓨터(142)를 사용할 수 있다. 예를 들어 사용자는 객체들(122)의 소유자일 수 있으며 객체들(122)에 대한 정보를 입력하고 싶어할 수 있다. 예를 들어, 사용자는 박물관에서 일할 수 있고(예를 들어, 객체들(122)이 박물관의 전시물이고) 박물관 전시물에 대한 정보를 입력하고 싶어할 수 있다. 이러한 예들은 단지 캡처된 콘텐츠 내 객체들(122)과 자동 연관될 정보를 안전하게 정의하기 위한 몇 가지 예시적인 컴퓨터(142) 용법들에 불과하다.
컴퓨터(142)는 사용자에 의해 콘텐츠 태깅 기능의 다양한 다른 기능들을 수행하기 위해 사용될 수 있다.
부속 장치들(143)은 콘텐츠 태깅 기능과 연계하여 사용자에 의해 사용될 수 있는 임의의 장치나 장치들을 포함한다. 예를 들어, 부속 장치들(142)은 컴퓨터, 세톱박스, 액세스 포인트, 저장/캐시 소자, SAN(storage area network) 등뿐만 아니라 이들의 다양한 조합 중 하나 이상을 포함할 수 있다.
컴퓨터(142) 및 부속 장치들(143)은 각각, 컴퓨터(142) 및/또는 부속 장치들(143) 중 하나 이상에서 사용 가능한 어떤 저장부에 부가 및/또는 대신하여 제공될 수 있는 로컬 저장부(144)를 액세스할 수 있다.
로컬 네트워크 환경(140)은 더 적거나 많은 장치들 및/또는 통신 기능들을 포함할 수 있고 다른 적절한 방식으로 구성될 수 있다는 점이 이해될 것이다.
다양한 실시예들에서 로컬 네트워크 환경(140)의 장치들 중 하나 이상은 콘텐츠 태깅 기능의 다양한 기능들(예를 들어, 정보 구조(들)을 관련 객체(들)(122)에 대한 정보와 함께 존재시키기 위한 프로세싱의 수행, 정보 구조(들)을 캡처된 콘텐츠와 연관시키기 위한 프로세싱 수행, 다른 장치들에 의해 자동 태깅되었던 콘텐츠를 저장하는 등뿐만 아니라 이들의 조합)을 수행할 수 있다.
원격 네트워크 환경(150)은 서비스 제공자 네트워크(151), 인터넷(152), 여러 개체들(153), 클라우드 컴퓨팅 인프라(154), 및 CMS(155)를 포함한다.
서비스 제공자 네트워크(151)는 로컬 네트워크 환경(140)으로부터 인터넷(150)에 대한 액세스를 제공함으로써, 로컬 네트워크 환경(140)의 장치들 및 원격 네트워크 환경(150)의 개체들(153)이 통신할 수 있게 한다.
개체들은 상용 개체들(1531), 제3자 중개자(1532), 애플리케이션 제공자들(1533) 및 연합 에이전시(1534)(집합적으로 개체들(153))을 포함한다. 개체들(153)은 더 적거나 더 많은 개체들(153)을 포함할 수 있다.
상용 개체들(1531)은 콘텐츠 태깅 및 관리 기능과 연관될 수 있는 어떤 상용 개체들을 포함할 수 있다. 예를 들어 상용 개체들(1531)은 그와 연관된 센서(124)이거나 센서(124)를 가질 수 있는 객체들(122)의 제공자들을 포함할 수 있다. 상용 개체들(1531)은 콘텐츠 태깅 및 관리 기능과 연계하여 정보(예를 들어, 센서들(124) 상에 저장될 객체 정보, 객체(122)를 포함하는 캡처된 콘텐츠가 자동 태깅될 때 객체(122)와 관련된 정보 구조에 저장될 객체 정보, 객체들(122)을 포함하는 태깅된 콘텐츠 안에 내장되는 태그들의 선택에 응하여 사용가능한 객체 정보 등뿐만 아니라 이들의 다양한 조합)가 액세스될 수 있는 시스템들을 운용할 수 있다. 명료성의 목적으로 생략되었지만, 상용 개체들(1531) 중 일부나 전체가 콘텐츠 태깅 및 관리 기능과 함께 사용하기 위한 정보를 이용 가능하게 하기 위해 그들 자체 시스템들을 운용할 수 있다는 점이 이해될 것이다.
제3자 중개자들(1532)은 콘텐츠 태깅 및 관리 기능과 연관될 수 있는 어떤 제3자 개체들을 포함할 수 있다. 예를 들어, 제3자 중개자들(1532)은 센서들(124)을 제공하는 중개자들, 센서들(124)을 객체들과 연관시키는 브로커들, (예를 들어, 센서들(124)의 구성, 캡처된 콘텐츠 안에 삽입된 태그들의 선택에 대한 응답 등을 위해) 콘텐츠 태깅 및 관리 기능과 함께 사용할 객체 정보를 제공하는 중개자들, 태깅된 콘텐츠의 보기에 기반하는 보상을 촉진하는 중개자들 등뿐만 아니라 그러한 서비스들의 다양한 조합들을 제공하는 중개자들을 포함할 수 있다. 제3자 중개자들(1532)은 콘텐츠 태깅 및 관리 기능과 연계하여 정보가 액세스될 수 있는 시스템들을 운용할 수 있다. 명료성의 목적으로 생략되었지만, 제3자 중개자들(1532) 중 일부나 전체가 콘텐츠 태깅 및 관리 기능에 사용하기 위한 정보를 이용 가능하게 하기 위해 그들 자체 시스템들을 운용할 수 있다는 점이 이해될 것이다.
애플리케이션 제공자들(1533)은 콘텐츠 태깅 및 관리 기능의 이행 시 사용하기 적합한 애플리케이션들을 제공할 수 있는 어떤 애플리케이션 제공자들을 포함할 수 있다. 예를 들어, 애플리케이션 제공자들(1533)은 센서들(124) 상에 저장할 객체 정보를 정의하는 데 사용하도록 구성된 애플리케이션들, 캡처된 콘텐츠 안에서 콘텐츠 태그들과 연관될 정보 구조들의 포맷을 정의하는 데 사용하도록 구성된 애플리케이션들, 정보 구조들이 연관되는 콘텐츠 태그들을 통해 액세스 가능한 객체 정보와 함께 정보 구조들을 주재시키는 데 사용하도록 구성된 애플리케이션들, 자동 태깅된 콘텐츠를 관리(예를 들어, 자동 태깅된 콘텐츠의 조직화, 자동 태깅된 콘텐츠나 자동 태깅된 콘텐츠의 일부에 대한 액세스를 통제하기 위한 허가들의 설정 등)함에 있어 콘텐츠 소유자들에 의해 사용하도록 구성된 애플리케이션들, 자동 태깅된 콘텐츠의 보기에 기반하는 사용자들의 보상과 연관된 당사자들(예를 들어, 그들의 보상 계정을 관리하는 사용자들, 사용자들의 보상을 관리하기 위한 상용 개체들 등)에 의해 사용하기 위한 애플리케이션들 등이나 콘텐츠 태깅 및 관리 기능과 함께 사용하기 적합한 어떤 다른 애플리케이션들 뿐만 아니라 이들의 다양한 조합들을 제공할 수 있다.
연합 에이전시(1534)는 콘텐츠 태깅 및 관리 기능을 제공하여 사용자들 및 개체들이 콘텐츠 태깅 및 관리 기능을 지원하는 방법으로 인터페이스할 수 있게 해주는 매우 중요한 제어 및 관리 기능들을 제공하도록 운용될 수 있다.
클라우드 컴퓨팅 인프라(154)는 관리되거나, 호스팅되거나 공유되는 데이터 센터 기반의 인프라이며, 이는 사설 또는 공개 클라우드일 수 있다. 클라우드 컴퓨팅 인프라(154)에서 다양한 태깅된 콘텐츠 관리 기능들이 제공될 수 있다. 예를 들어, 태깅된 콘텐츠는 서비스 제공자 네트워크/액세스 메커니즘들을 통해 전달되고, 태깅된 콘텐츠가 사용자나 자신의 확장된 연락처 그룹에 의해 안전하게 저장 또는 액세스되고, 태깅된 콘텐츠 자체가 태깅된 콘텐츠가 액세스될 때 태깅된 콘텐츠를 사용자 장치들로 "푸싱(push)"할 수 있는 등 및 이들의 다양한 조합이 있을 수 있다.
CMS(155)는 콘텐츠 태깅의 관리 및/또는 태깅된 콘텐츠의 관리를 제공하는 것을 포함하여 콘텐츠 태깅 및 관리 기능의 다양한 관리 기능들을 제공하도록 구성된다. 예를 들어, CMS(155)는 등록 관리 기능(예를 들어, 사용자, 센서, 스캐너, 개체, 제공자, 광고업자 등의 등록을 관리함), 자동 콘텐츠 태깅 및 태깅된 콘텐츠 관리 기능(예를 들어, 센서 허가의 관리, 자동 콘텐츠 태깅 관련 활동 중의 허가 확인, 태깅된 콘텐츠 소유 관리 기능들, 태깅된 콘텐츠 허가의 관리 등), 태깅된 콘텐츠 전달 관리 기능(예를 들어, 태깅된 콘텐츠와 연관된 허가 관리, 태깅된 콘텐츠에 대한 액세스와 관련된 다른 기준 관리 등), 태깅된 콘텐츠 광고 관리 기능(예를 들어, 광고 관리 기능, 태깅된 콘텐츠 상연 추적 기능, 사용자 보상 관리 기능 등) 등뿐만 아니라 이들의 다양한 조합을 제공하는 것과 같은 관리 기능들을 제공할 수 있다. CMS(155)에 의해 수행되는 다양한 기능들이 여러 가지 그러한 관리 기능들의 카테고리 안에 들어올 수 있다는 점이 이해될 것이다. 본 명세서에 기술된 다양한 관리 기능들은 다양한 다른 방식으로 조직될 수 있다는 점이 더 이해될 것이다.
일 실시예에서 CMS(155)는 등록 관리 기능들을 제공하도록 구성된다.
일 실시예에서 사용자들은 CMS(155)에 등록될 수 있다. 예를 들어, 사용자들은 태깅된 콘텐츠를 생성하기 위해 사용된 콘텐츠 캡처 장치들의 사용자들, 로컬 네트워크 환경들의 장치들의 사용자들, 센서들이 태깅된 객체들을 소유하거나 담당하는 사용자들, 객체들과 연관된 센서들을 소유하거나 담당하는 사용자들, 센서들로 데이터를 로딩하는 데 사용되는 센서 스캐너들의 사용자들, 태깅된 콘텐츠를 액세스하는 사용자들 등일 수 있다. 사용자들은 계정 관리, 허가 관리, 콘텐츠 관리, 사용자들의 보상 등뿐만 아니라 이들의 다양한 조합과 같은 어떤 적절한 목적들을 위해 등록될 수 있다. 등록된 사용자들은 연관된 사용자 계정들을 가질 수 있으며, 그 사용자 계정들은 사용자들과 관련된 사용자 프로파일들, 사용자들에 의해 생성된 사용자 콘텐츠 등을 포함할 수 있다.
일 실시예에서 개체들은 CMS(155)에 등록될 수 있다. 예를 들어, 개체들은 상용 개체들(1531), 제3자 중개자들(1532), 애플리케이션 제공자들(1533), 객체 제공자들/제어기들, 센서 제공자들, 센서 스캐너 제공자들, 객체 데이터 템플릿 제공자들, 정보 구조 템플릿 제공자들, 태깅된 콘텐츠에 기반한 보상에 개입될 수 있는 개체들 등뿐만 아니라 이들의 다양한 조합과 같은 개체들을 포함할 수 있다.
일 실시예에서 센서들(124)이 CMS(155)에 등록될 수 있다. 일 실시예에서 센서들(124)은 센서(124)의 제공자에 의해 CMS(155)에 등록될 수 있다. 일 실시예에서 센서들(24)은 센서(124)가 연관된 객체(122)의 제공자에 의해 CMS(155)에 등록될 수 있다. 일 실시예에서 센서들(124)은 객체(122)의 소유자에 의해 (예를 들어, 센서 스캐너(130)를 이용하여 센서(124)를 활성화하기 전이나 후에) CMS(155)에 등록될 수 있다. 일 실시예에서 센서들(124)은 다수의 그러한 당사자들에 의해 CMS(155)에 등록될 수 있으며, 센서가 한 당사자에서 다음 당사자에게 건네지면서 센서(124)의 등록이 업데이트된다. 예를 들어 센서(124)는 센서(124)가 연관되는 객체(122)의 제공자에 의해 초기에 CMS(155)로 등록될 수 있고, 그런 다음 객체(122)의 소유자가 센서(124)의 등록을 액세스하여 센서(124)에 대한 액세스를 통제할 목적으로 그 등록을 통제할 수 있다. 일 실시예에서 제조자들이 센서들(124)의 작동을 가능 및 불능화하는 기능을 가질 수 있고, 사용자가 센서(124)나 센서(124)가 연관된 객체(122)를 구매한 후, 이제 그 사용자가 자신의 등록된 사용자 프로파일에 기반하여 센서(124)를 기능하게 할 수 있다. 센서들(124)은 센서(124) 상의 객체 데이터 로딩, 콘텐츠 캡처 도중에 어떤 사용자(들)이 센서(124) 상의 객체 데이터를 액세스할 수 있는지를 제어 하는 등의 기능 뿐만 아니라 이들의 다양한 조합과 같은 관리 기능들을 이행하기 위해 등록될 수 있다. CMS(150)를 이용한 센서들(124)의 관리는 어떤 다른 적절한 방식으로 제공될 수 있다.
일 실시예에서 센서 스캐너들(예를 들어, 센서 스캐너(130))이 CMS(155)에 등록될 수 있다. 센서 스캐너들은 (예를 들어, 센서 스캐너들의 판매나 배치 전) 센서 스캐너의 제공자들, (예를 들어, 센서 스캐너들의 구매 및 활성화 후) 센서 스캐너들의 소유자들 등뿐만 아니라 이들의 다양한 조합에 의해 CMS(155)에 등록될 수 있다. 센서 스캐너들은 센서들(124)로의 액세스 제어, 센서들(124) 상의 객체 데이터의 로딩 제어 등뿐만 아니라 이들의 다양한 조합과 같은 관리 기능들을 이행하기 위해 등록될 수 있다. CMS(150)를 이용한 센서 스캐너(130)의 관리는 어떤 다른 적절한 방식으로 제공될 수 있다.
사용자들, 개체들, 장치들 등의 등록 및 관리가 CMS(155)를 통해 수행되는 실시예들과 관련하여 본 명세서 내에 도시되며 기술되었으나, 사용자들, 개체들, 장치들 등의 등록 및 관리는 어떤 다른 관리 시스템들 및/또는 다른 개체들에 의해 수행될 수 있다는 점이 이해될 것이다.
일 실시예에서 CMS(155)는 자동 콘텐츠 태깅 및 태깅된 콘텐츠 관리 기능들을 제공하도록 구성된다.
자동 콘텐츠 태깅 관리 기능들은 태깅된 콘텐츠를 자동으로 생성하는 프로세스와 관련된 어떤 기능들을 포함할 수 있다. 예를 들어 자동 콘텐츠 태깅 관리 기능들은 자동 태깅된 콘텐츠의 생성과 관련된 다양한 허가 검사 기능들의 제공, 자동 콘텐츠 태깅 도중 정보 구조들 내에 마침내 포함되는 객체 정보(예를 들어, 객체 서술 정보, 광고 정보 등)을 수정하기 위한 객체 제공자들/통제자들의 액세스 이행, 관련된 제3자 정보 및 서비스 관리를 위한 제3자 제공자들의 액세스 이행 등뿐만 아니라 이들의 다양한 조합을 포함할 수 있다.
태깅된 콘텐츠 관리 기능들은 태깅된 콘텐츠를 관리하는 프로세스와 관련된 어떤 기능들을 포함할 수 있다.
일 실시예에서, 태깅된 콘텐츠 관리 기능들은 태깅된 콘텐츠의 저장 관리를 포함할 수 있다(태깅된 콘텐츠, 콘텐츠 태그들 및/또는 정보 구조들이 별개의 콘텐츠 구조들로서 보유되는 경우와 같이, 태깅된 콘텐츠의 구성 요소들 중 일부나 전부에 대한 관리를 포함할 수 있음).
일 실시예에서, 태깅된 콘텐츠 관리 기능들은 자신들의 태깅된 콘텐츠를 관리하기(예를 들어, 허가 수정, 태깅된 콘텐츠의 배포 통제 등) 위한 태깅된 콘텐츠 소유자들의 액세스 이행을 포함할 수 있다.
일 실시예에서, 태깅된 콘텐츠 관리 기능들은 태깅된 콘텐츠 소유권 관리 기능들을 포함할 수 있다.
일 실시예에서, 태깅된 콘텐츠 항목이 사용자에 의해 생성될 때, 그 태깅된 콘텐츠 항목은 그 배포와도 무관하게 상기 사용자가 콘텐츠 항목의 소유자로서 항상 식별되도록 사용자와 연관된다. 이것은 그러한 태깅된 콘텐츠가 복사되어 콘텐츠 게시 사이트(예를 들어, 플리커(Flickr), 유튜브 등), 소셜 네트워킹 사이트(예를 들어, 페이스북, 트위터 등)과 같은 다양한 배포 메커니즘을 통해 배포되는 경우라도, 사용자가 생성한 태깅된 콘텐츠에 대한 사용자의 보상을 가능하게 할 것이다. 이것은 적어도 사용자들은 콘텐츠 소유권의 적절한 추적이 그들이 적당한 정도의 보상을 받을 수 있게 보장 받을 것이기 때문에 그러한 콘텐츠가 "입 소문이 난(goes viral)" 경우 사용자들이 보상을 받을 수 있게 하는 흥미로운 방식으로 캡처 콘텐츠에 대한 사용자들의 상당한 동기부여를 제공한다. 이러한 방식에 따른 태깅된 콘텐츠의 관리 역시 다양한 다른 이점들을 제공할 수 있다.
일 실시예에서, 콘텐츠 소유자는 CMS(155)를 통해, 태깅된 콘텐츠의 소유권을 수정할 수 있다. 이것은 태깅된 콘텐츠의 소유자가 태깅된 콘텐츠의 소유권을 한 명 이상의 다른 사용자들에게 양도할 수 있게 한다(예를 들어, 비즈니스 협의의 일부로서 그 사용자들이 태깅된 콘텐츠를 관리할 수 있게 하거나 어떤 다른 목적(들)을 위해).
일 실시예에서 CMS(155)는 태깅된 콘텐츠의 전송을 관리하기 위한 태깅된 콘텐츠 전송 관리 기능들을 제공하도록 구성된다.
일 실시예에서 콘텐츠 소유자는 CMS(155)를 통해, 태깅된 콘텐츠의 콘텐츠 사용 허가를 수정할 수 있다. 콘텐츠 사용 허가는 태깅된 콘텐츠의 배포를 통제한다. 콘텐츠 사용 허가는 태깅된 콘텐츠에 대한 세분도(예를 들어, 콘텐츠 소유자에 의해 소유되는 콘텐츠 항목들의 그룹들, 콘텐츠 소유자에 의해 소유되는 모든 콘텐츠 항목들 등에 대해서는 콘텐츠 항목당), 사용자들에 대한 세분도(예를 들어, 콘텐츠 소유자가 허가를 설정한 사용자들의 그룹, 콘텐츠 소유자가 허가를 설정한 모든 사용자들 등에 대해서는 사용자당) 등뿐만 아니라 이들의 다양한 조합을 이용하여 수정될 수 있다.
일 실시예에서, 태깅된 콘텐츠의 소유자가 아닌 사용자에 의한 태깅된 콘텐츠로의 액세스는 사용자가 그 콘텐츠를 액세스하려고 시도하고 있을 때 사용자가 오프라인인지 온라인인지 여부(예를 들어, 사용자가 태깅된 콘텐츠에 대한 액세스를 시도하는 중에 사용하는 사용자 장치가 네트워크 접속을 하는지 하지 않는지 여부)를 기반으로 통제된다.
이 실시예에서, 사용자가 오프라인일 때 태깅된 콘텐츠에 대한 액세스는 어떤 적절한 수준의 세분도에서 제공될 수 있다. 일 실시예에서, 예를 들어, 사용자가 오프라인일 때, 태깅된 콘텐츠는 태깅된 콘텐츠가 사용자에 의해 액세스될 수 없도록 암호화된다. 일 실시예에서, 예를 들어 사용자가 오프라인일 때, 태깅된 콘텐츠 항목 안에 내장된 태그(들)은 사용자가 오프라인 중에 그 콘텐츠 항목을 액세스할 수 있지만 내장된 태그는 액세스할 수 없고 그에 따라 콘텐츠 태그(들)과 관련된 정보 구조(들)을 액세스할 수 없도록 암호화된다. 일 실시예에서, 예를 들어 사용자가 오프라인일 때, 콘텐츠 항목의 내장된 태그(들)과 연관된 정보 구조(들)의 일부는 사용자가 콘텐츠 항목의 정보 구조(들)과 연관된 정보의 전체가 아닌 일부를 포함하는 콘텐츠 항목을 오프라인 중에 액세스할 수 있도록 암호화된다.
이 실시예에서, 사용자가 온라인일 때, 태깅된 콘텐츠에 대한 액세스는 가능하게 되지만 그 액세스는 다른 방식들로(예를 들어, 콘텐츠 항목이나 콘텐츠 항목의 일부와 관련된 허가들에 기반하거나, 사용자에 대해 설정된 허가에 기반하는 등뿐만 아니라 이들의 다양한 조합에 기반하여) 제한될 수 있다.
그러한 실시예들에서, 태깅된 콘텐츠에 대한 액세스를 요청한 사용자가 온라인인지 오프라인인지 여부에 대한 판단이 어떤 적절한 방식(예를 들어, 온라인/오프라인 지시자가 CMS(155)에 의해 각각의 사용자에 대해 유지될 수 있고 사용자가 온라인 및 오프라인으로 가면서 업데이트될 수 있으며, 네트워크 접속에 대해 테스트하기 위해 사용자의 사용자 장치를 핑(ping)하는 등의 방식뿐만 아니라 이들의 조합)을 통해 수행될 수 있다.
일 실시예에서 온라인/오프라인 상태 업데이트 지시자는 태깅된 콘텐츠의 관리를 위한 촉진자로서 사용된다. 그러한 한 실시예에서, 온라인/오프라인 상태 업데이트 지시자는 (i) CMS(155)와 동기하여 자신의 로컬 업데이트에 대한 소유자로부터 최초의 콘텐츠 허가들에 대한 로컬 업데이트 및 (ii) 요청한 사용자들이 온라인이 될 때 발생하도록 동기 태깅된 콘텐츠 오프라인 요청들을 유지하는데 사용된다.
일 실시예에서, CMS(155)는 태깅된 콘텐츠 광고 관리 기능들(예를 들어, 광고 관리 기능들, 태깅된 콘텐츠 상연 추적 기능들, 사용자 보상 관리 기능들 등)을 제공하도록 구성된다.
일 실시예에서, CMS(155)는 광고업자들이 태깅된 콘텐츠를 통해 광고를 통제할 수 있도록 광고업자 관리 기능들을 제공하도록 구성된다.
일 실시예에서, 예를 들어, 객체의 제공자는 CMS(155)를 통해 특정 객체 유형과 연관된 객체 정보를 수정할 수 있다. 그러한 객체 정보의 중앙집중화된 방식의 제어는 객체의 제공자가 객체 유형과 관련된 내장 태그들의 선택 시 사용자들에게 제공되는 객체 정보의 적어도 일부를 수정할 수 있게 한다. 이것은 특정 객체에 대해 타깃화된 광고를 제공하는 데 유용할 수 있다. 예를 들어, 차량 제조자는 광고 관리를 제공할 목적으로 CMS(155) 상의 계정을 유지할 수 있다. 이 예에서, 그 차량 제조자에 의해 생산된 차의 각각의 메이커와 모델 마다 CMS(155)는 차의 그 특정 메이커와 모델에 대한 정보를 포함하는 웹페이지로의 링크를 저장할 수 있어서, 차량 제조자가 CMS(155) 상에 저장된 링크들을 수정함으로써 자동 태깅된 콘텐츠가 사용자들에게 차량 제조자에 의해 제조된 다양한 차량들 각각에 대한 최신 정보로 인도하도록 구성된 최신 링크들을 이용하여 생성된다는 것을 보장할 수 있다. 이것은 차량 제조자가 태깅된 콘텐츠와 연관된 객체 정보를 보는 누군가를 그 차량의 최신 버전을 구매하도록 유인하게 할 수 있다.
일 실시예에서, 예를 들어 제품(들)의 제공자가 CMS(155)를 통해 제공자가 판촉하고 싶어할 수 있는 제품(들)에 관한 정보를 광고할 수 있다. 광고업자는 이때 CMS(155)의 사용자들(예를 들어, CMS(155) 상에 계정을 가진 사용자들 및 콘텐츠 태깅 및 관리 기능을 이용하여 콘텐츠를 생성하고/거나 CMS(155)를 통해 태깅된 콘텐츠를 관리하는 사용자들)에게 제공자가 제공자의 관련 제품(들)을 포함하는 태깅된 콘텐츠의 상연에 기반하여 기꺼이 제공하고 싶어하는 보상의 유형들을 나타낼 수 있을 것이다. 이런 방식으로 제공자는 사용자들에게 궁극적으로 제품(들)을 구매할지 모를 많은 수의 다른 사용자들에 의해 보여질 가능성이 있는 자신들의 제품들을 흥미로운 방식으로 피처링하는 태깅된 콘텐츠를 생성하기를 시도하기 위한 동기를 부여할 수 있다. 제품 제공자들은 이때, 통상적으로 어떤 특정 수의 사람들에게 제공된다고 보장되지도 않는 전통적 광고에 통상적으로 사용되는 그들의 전체 광고 예산을 절감하면서 자신들의 제품들을 판촉하는 사용자들을 보상해줄 수 있을 것이다.
일 실시예에서 CMS(155)는 태깅된 콘텐츠의 상연을 추적하도록 구성된다. 일 실시예에서, 예를 들어 CMS(155)는 태깅된 콘텐츠 상연 정보, 예를 들어 태깅된 콘텐츠의 각각의 항목이 보여지는 횟수, 태깅된 콘텐츠의 각각의 항목에 대한 고유한 보기 횟수 등뿐만 아니라 이들의 다양한 조합을 추적하도록 구성될 수 있다.
일 실시예에서 CMS(155)는 태깅된 콘텐츠의 상연에 기초하여 태깅된 콘텐츠의 소유자들에 대한 보상을 관리하도록(예를 들어, 콘텐츠 소유자에 대해 부여되는 보상 정도 업데이트, 그러한 보상이 부여되는 콘텐츠 소유자들을 대표하여 다양한 소스들로부터 보상 크레딧들을 수집 하는 등의 관리뿐만 아니라 이들의 다양한 조합을 관리하도록) 구성된다. 그러한 실시예들에서, CMS(155) 상에서 관리되는 다양한 계정들은 다양한 다른 계정들(예를 들어, 크레딧 계정들, 은행 계정 등뿐만 아니라 이들의 다양한 조합)에 연결될 수 있다.
CMS(155)는 콘텐츠 태깅 및 관리 기능을 지원하기 위한 다양한 다른 관리 기능들을 제공하도록 구성될 수 있다는 점이 이해될 것이다.
단독형의 시스템으로서 도시되며 기술되었으나, 일 실시예에서 CMS(155)는 개체들(153) 중 하나 이상에 의해 관리될 수 있다. 일 실시예에서, 예를 들어 CMS(155)는 연합 에이전시(1534)에 의해 관리될 수 있다.
본 명세서에 도시되며 기술된 CMS(155)의 관리 기능들 중 어느 하나는 그러한 기능들을 제공하기 위한 어떤 적절한 알고리즘들을 사용하여 본 명세서에 도시 및 기술된 CMS(155)의 다양한 관리 기능들이 CMS(155)가 그러한 관리 기능들을 제공하기 위해 실행하도록 구성된 알고리즘들의 단계들이 되게 고려될 수 있도록 구현될 수 있다.
여기에 기술된 바와 같이, 콘텐츠 태깅 시스템(100)에 의해 지원되는 것과 같은 콘텐츠 태깅 및 관리 기능은 캡처된 콘텐츠 내 객체의 자동 태깅을 가능하게 한다.
여기에 기술된 바와 같이, 캡처된 콘텐츠 내 객체의 자동 태깅은 콘텐츠 태그가 캡처된 콘텐츠 안의 객체와 연관되도록 캡처된 콘텐츠 안으로의 콘텐츠 태그의 내장이라는 결과를 가져오며, 여기서 콘텐츠 태그는 태깅된 콘텐츠와 관련된 정보를 저장하는 정보 구조와 연관되어 있다.
일 실시예에서 캡처된 콘텐츠 내 객체의 자동 태깅은 (1) 캡처된 콘텐츠 안의 객체와 콘텐츠 태그의 연관, 및 (2) 객체와 연관된 콘텐츠 태그로의 정보 구조의 연관을 통해 캡처된 콘텐츠 내 객체에 대한 정보 구조의 연관을 포함한다.
일 실시예에서, 캡처된 콘텐츠 내 객체의 자동 태깅은 (1) 콘텐츠 태그로의 정보 구조의 연관, 및 (2) 콘텐츠 태그가 캡처된 콘텐츠 안의 객체와 연관되도록 캡처된 콘텐츠 안의 콘텐츠 태그의 연관을 포함함으로써 정보 구조와 연관된 태깅된 콘텐츠를 형성한다.
그러한 실시예들에서, 콘텐츠 태그의 캡처된 콘텐츠 내 객체와의 연관은 어떤 적절한 방식을 통해 수행될 수 있다. 일 실시예에서, 캡처된 콘텐츠 안의 콘텐츠 태그는 캡처된 콘텐츠 안의 객체(122)의 위치 판단 및 캡처된 콘텐츠 안의 객체(122)의 위치에 있거나 그 근처에 있는 객체(122)와 콘텐츠 태그의 연관을 포함한다. 캡처된 콘텐츠 안의 객체(122)의 위치는 어떤 적절한 정보(예를 들어, 객체(122)의 위치를 가리키는 위치 정보, 객체(122)의 하나 이상의 치수를 가리키는 치수 정보 등뿐만 아니라 이들의 조합)를 이용하여 판단될 수 있으며, 그 정보는 그러한 정보의 어떤 적절한 소스로부터 획득될 수 있다(예를 들어, 센서(들)(124)로부터 객체 데이터의 일부로서 수신되거나, 센서(124)로부터 수신된 객체 데이터를 이용하여 획득되는 등의 방식 뿐만 아니라 이들의 다양한 조합을 통해 획득됨). 캡처된 콘텐츠 안의 콘텐츠 태그의 실제적 내장은 당업자에 의해 이해될 수 있는 어떤 적절한 방식을 통해 수행될 수 있다.
그러한 실시예들에서, 콘텐츠 태그들은 콘텐츠 유형, 객체들의 유형, 마켓 세그먼트 등뿐만 아니라 이들의 다양한 조합과 같은 하나 이상의 요인들에 기반하여 가변될 수 있는 어떤 적절한 유형의 콘텐츠 태그들을 포함할 수 있다. 콘텐츠 태그들은 그와 관련된 어떤 적절한 특징을 가질 수 있다. 예를 들어 콘텐츠 태그들은 어떤 적절한 모양, 크기 등을 이용할 수 있다. 예를 들어 콘텐츠 태그들은 항시 보여지거나, 마우스가 위에 있는 동안에만 보여지거나 할 뿐만 아니라 이들의 다양한 조합의 경우에 보여질 수 있다. 태킹된 콘텐츠를 형성하기 위해 캡처된 콘텐츠 내 객체들과 연관된 콘텐츠 태그들은 어떤 다른 적절한 유형의 콘텐츠 태그들을 포함할 수 있다.
그러한 실시예들에서, 객체(122)와 연관된 콘텐츠 태그로의 정보 구조의 연관을 통해, 캡처된 콘텐츠 내 객체(122)에 대한 정보 구조의 자동 결합이 어떤 적절한 방식으로 수행될 수 있다.
정보 구조는 어떤 적절한 소스(예를 들어, 콘텐츠 태그와 정보 구조의 연관을 위한 프로세싱을 수행하는 장치의 로컬 메모리, 콘텐츠 태그와 정보 구조 연관을 위한 프로세싱을 수행하는 장치로부터 원격지에 있는 장치 등뿐만 아니라 이들의 다양한 결합)로부터 획득될 수 있다. 정보 구조는 콘텐츠 캡처 전이나 캡처된 콘텐츠를 자동 태깅하기 위한 프로세싱 도중에 원격 소스로부터 수신될 수 있다.
정보 구조는 사용이 가능한 유일한 정보 구조 뿐이거나, 사용이 가능한 복수의 정보 구조들로부터 선택될 수 있다.
예를 들어, 단일 정보 구조가 사용 가능한 실시예에서, 정보 구조는 어떤 유형의 객체(또는 자동 콘텐츠 태깅이 수행될 것이거나 수행되도록 예상되는 적어도 어떤 유형의 객체)에 대한 객체 정보를 저장할 때 사용하기 적합한 템플릿을 제공할 수 있다.
예를 들어 여러 정보 구조가 사용될 수 있는 일 실시예에서, 사용되는 정보 구조는 어떤 적절한 방식으로 선택될 수 있다. 그러한 일 실시예에서, 예를 들어 정보 구조는 태깅될 객체(122)의 객체 유형, 태깅될 객체(122)와 연관되는 센서(124)의 센서 유형, 태깅될 객체(122)에 고유한 객체 식별자, 태깅될 객체와 연관되는 센서(124)에 고유한 센서 식별자 등 중 하나 이상에 기반하여 선택될 수 있는 복수의 정보 구조 템플릿들이다. 그러한 일 실시예에서, 예를 들어 정보 구조는 거기 저장되는 객체 정보를 가진 복수의 정보 구조들 중 하나이고, 그 정보 구조는 태깅될 객체(122)의 객체 유형, 태깅될 객체(122)에 고유한 객체 식별자, 태깅될 객체와 연관되는 센서(124)에 고유한 센서 식별자 등 중 하나 이상에 기반하여 선택될 수 있다. 여러 이용 가능한 정보 구조들 중 하나가 어떤 다른 적절한 방식으로 선택될 수 있다는 점이 이해될 것이다.
그러한 실시예들에서, 정보 구조는 캡처된 콘텐츠 안에 내장된 콘텐츠 태그의 선택 시 액세스될 수 있는 객체(122)와 연관된 정보를 저장한다.
여기에 기술된 바와 같이, 태깅된 콘텐츠를 형성하도록 객체(122)와 연관되는 정보 구조는 객체(122)와 연관되는 어떤 적절한 객체 정보를 저장할 수 있다.
객체(122)에 대한 객체 정보는 어떤 적절한 방식으로 정보 구조 내에 저장될 수 있다.
일 실시예에서, 예를 들어 객체(122)에 대한 객체 정보의 적어도 일부가 콘텐츠 캡처 이전에 정보 구조 안에 저장된다. 이 경우 캡처된 콘텐츠 내 객체(122)와 정보 구조의 연관은 그에 따라 캡처된 콘텐츠 내 객체(122)와 객체 정보를 연관시키게 된다. 이 경우 정보 구조 안의 객체 정보는 자동 콘텐츠 태깅 시점에(예를 들어, 관련 센서(124)로부터 수신되고/거나 관련 센서(124)로부터 수신된 정보를 이용하여 결정된 추가 객체 정보가 정보 구조 안에 추가되는 것과 같은 경우) 및/또는 자동 콘텐츠 태깅이 완료된 후(예를 들어, 콘텐츠 소유자가 나중에 (예를 들어, 컴퓨터(142)나 어떤 다른 적절한 장치를 통해) 정보 구조 안에 저장된 객체 정보를 수정하는 것과 같은 경우) 추가 객체 정보를 이용해 보충될 수 있다.
일 실시예에서, 예를 들어, 객체(122)에 대한 객체 정보의 적어도 일부가 콘텐츠 캡처 시점에 정보 구조 안에 저장된다. 이 경우, 객체 정보는 태깅된 콘텐츠를 형성하기 위해 캡처된 콘텐츠 내 객체(122)와 정보 구조의 연관 이전이나 그 도중이나 이후에 정보 구조 안에 저장될 수 있다. 이 경우, 정보 구조 안에 저장된 객체 정보는 어떤 적절한 소스로부터 획득될 수 있다. 예를 들어 자동 콘텐츠 태깅에 대한 프로세싱이 콘텐츠 캡처 장치에 의해 수행되는 경우, 정보 구조 안에 저장된 객체 정보는 콘텐츠 캡처 장치에서 관련 센서(124)로부터 수신될 수 있다. 예를 들어, 자동 콘텐츠 태깅에 대한 프로세싱이 콘텐츠 캡처 장치에 의해 수행되는 경우, 정보 구조 안에 저장된 객체 정보는 콘텐츠 캡처 장치에서 하나 이상의 다른 장치들로부터 수신될 수 있다(예를 들어, 객체 정보가 센서(124)로부터의 콘텐츠 캡처 장치에 의해 수신된 객체 정보에 기반하여 콘텐츠 캡처 장치에 의해 검색되는 것과 같은 경우). 예를 들어, 자동 콘텐츠 태깅에 대한 프로세싱이 콘텐츠 캡처 장치가 아닌 장치에 의해 수행되는 경우, 정보 구조 안에 저장된 객체 정보는 콘텐츠 캡처 장치로부터 수신될 수 있다(예를 들어, 콘텐츠 캡처 장치로부터 수신되는 다른 객체 데이터에 추가하여). 예를 들어, 자동 콘텐츠 태깅에 대한 프로세싱이 콘텐츠 캡처 장치가 아닌 장치에 의해 수행되는 경우, 정보 구조 내에 저장되는 객체 정보는 하나 이상의 다른 장치들로부터(예를 들어, 로컬 네트워크 환경(140)의 부속 장치(143), 원격 네트워크 환경(150)의 네트워크 장치 등으로부터) 수신될 수 있다. 객체 정보가 하나 이상의 외부 소스들로부터 수신되는 그러한 실시예에서, 객체 정보는 어떤 적절한 방식으로 외부 소스들로부터 수신될 수 있다. 이 경우 정보 구조 내에 저장되는 객체 정보는 자동 콘텐츠 태깅이 완료된 후 추가 객체 정보를 이용하여 보충될 수 있다(예를 들어, 콘텐츠 소유자가 나중에 (예를 들어, 컴퓨터(142)나 어떤 다른 적절한 장치를 통해) 정보 구조 내에 저장된 객체 정보를 수정하는 경우).
일 실시예에서, 태깅된 콘텐츠를 형성하기 위해 객체(122)와 연관되는 정보 구조는 객체(122)와 연관되는 객체 정보를 안전하게 저장한다.
그러한 실시예들에서, 정보 구조에는 당업자가 이해할 수 있는 바와 같이 어떤 적절한 방식을 통해 객체 정보가 상주될 수 있다. 일 실시예에서, 예를 들어 객체 정보는 객체 정보를 식별하기 위해 파싱되고, 정보 구조의 해당 필드들(즉, 객체 정보와 연관된 필드들)이 정보 구조 안에서 식별되며, 객체 데이터는 정보 구조 안에서 해당 필드들 내에 상주된다. 일 실시예에서, 예를 들어 객체 정보는 객체 정보가 예정된 정보의 필드(들)이 객체 정보의 일부로서 특정되도록, 그런 다음 객체 정보가 정보 구조의 적절한 필드(들) 안에 저장될 수 있도록 조직될 수 있다. 정보 구조의 적절한 필드들과 객체 정보의 연관은 어떤 다른 적절한 방식으로 수행될 수 있다.
객체(122)에 대한 객체 정보는 어떤 다른 적절한 방식으로 정보 구조 내에 저장될 수 있다.
여기에 기술된 바와 같이, 캡처된 콘텐츠 내 객체(122)로의 정보 구조의 자동 연관을 통한 자동 콘텐츠 태깅은 어떤 적절한 장치나 장치들의 조합에 의해 수행될 수 있다.
일 실시예에서, 캡처된 콘텐츠 내 객체(122)로의 정보 구조의 자동 연관은 콘텐츠 캡처 장치(110)에 의해 수행된다.
이 실시예에서, 정보 구조는 어떤 적절한 소스로부터 획득될 수 있다. 일 실시예에서, 예를 들어, 정보 구조는 콘텐츠 캡처 장치(110) 상에 저장된다. 일 실시예에서, 예를 들어, 정보 구조는 하나 이상의 다른 장치들(예를 들어, 센서(124), 컴퓨터(142), 부속 장치들(143), 원격 네트워크 환경(150)의 네트워크 장치 등뿐만 아니라 이들의 다양한 조합)로부터 콘텐츠 캡처 장치(110)에 수신된다.
이 실시예에서, 캡처된 콘텐츠 내 객체(122)로의 정보 구조의 자동 연관은 콘텐츠 캡처 장치(110)에 의해 어떤 적절한 시점에 수행될 수 있다. 예를 들어, 캡처된 콘텐츠 내 객체(122)로의 정보 구조의 자동 연관은 객체(122)를 포함하는 캡처된 콘텐츠가 캡처되는 시점이나, 객체(122)를 포함하는 캡처된 콘텐츠가 캡처되는 시점 이후의 시점 등뿐만 아니라 이들의 다양한 조합적 시점에 콘텐츠 캡처 장치(110)에 의해 수행될 수 있다.
이 실시예에서, 캡처된 콘텐츠 내 객체(122)로의 정보 구조의 자동 연관 프로세스는 콘텐츠 캡처 장치(110)에 의해 어떤 적절한 유발 조건에 반응하여 개시될 수 있다. 예를 들어, 캡처된 콘텐츠 내 객체(122)로의 정보 구조의 자동 연관은 콘텐츠가 캡처되는 시점에(예를 들어, 객체를 포함하는 콘텐츠가 캡처되었다는 검출에 반응하여) 자동으로, 콘텐츠가 캡처되며 관련 정보 구조가 콘텐츠 캡처 장치(110)에 수신될 때 자동으로, 콘텐츠 캡처 장치(110) 상의 활동 수준에 기반하여(예를 들어, 콘텐츠 캡처 장치(110)가 현재 이용되고 있지 않은 시점에) 자동으로, 스케줄 및/또는 문턱 조건(들)에 기반하여(예를 들어, 주기적으로 소정 정도의 시간이 경과한 후, 문턱 개수의 이미지들이 캡처된 후, 및/또는 어떤 적절한 스케줄링 및/또는 문턱 조건(들)에 기반하여), 콘텐츠 캡처 장치(110)의 사용자 인터페이스를 통해 사용자에 의해 수동적으로 야기된 요청에 대응하여 등뿐만 아니라 이들의 다양한 조합에 따라 콘텐츠 캡처 장치(110)에 의해 개시될 수 있다.
그러한 실시예들의 다양한 조합들이 콘텐츠 캡처 장치(110)에 의해 캡처된 콘텐츠 안의 객체(122)에 대한 정보 구조의 자동 연관을 가능하게 하기 위해 콘텐츠 캡처 장치(110)에서 (예를 들어, 캡처된 콘텐츠의 단일 항목의 여러 객체들(122), 캡처된 콘텐츠의 여러 항목들 등뿐만 아니라 이들의 다양한 조합에 대해) 이용될 수 있다는 점이 이해될 것이다.
일 실시예에서, 캡처된 콘텐츠 내 객체(122)로의 정보 구조의 자동 연관은 콘텐츠 캡처 장치(110)가 아닌 장치나 장치들에 의해 수행된다.
이 실시예에서, 태깅된 콘텐츠를 형성하기 위해 캡처된 콘텐츠 및 객체 데이터가 콘텐츠 캡처 장치(110)로부터 캡처된 콘텐츠 내 객체(122)와 정보 구조를 연관시키기 위한 프로세싱을 수행하는 다른 장치(들)로 제공된다.
캡처된 콘텐츠 및 객체 데이터는 어떤 적절한 방식으로 콘텐츠 캡처 장치(110)로부터 다른 장치(들)로 제공될 수 있다.
일 실시예에서, 예를 들어 캡처된 콘텐츠 및 객체 데이터는 콘텐츠 캡처 장치(110)로부터 다른 장치로 직접 제공될 수 있다. 그러한 실시예들에서, 콘텐츠 캡처 장치(110)로부터 다른 장치로의 캡처된 콘텐츠 및 객체 데이터의 직접 전송은 어떤 적절한 통신 기능들을 이용하여 제공될 수 있다. 예를 들어 그 다른 장치가 컴퓨터(142)나 부속 장치들(143)인 경우, 캡처된 콘텐츠 및 객체 데이터의 직접 전송은 직접 유선 접속을 통해 콘텐츠 캡처 장치(110)로부터 컴퓨터(142)나 부속 장치들(143)로 이루어질 수 있다(예를 들어, 카메라나 캠코더가 USB나 다른 적절한 포트를 통해 컴퓨터(142)나 부속 장치(143)에 플러깅되어 있는 것과 같은 경우). 예를 들어 다른 장치가 컴퓨터(142)나 부속 장치들(143)인 경우, 캡처된 콘텐츠 및 객체 데이터의 직접 전송은 유선 네트워킹된 접속을 통해 콘텐츠 캡처 장치(110)로부터 컴퓨터(142)나 부속 장치들(143)로 이루어질 수 있다. 예를 들어, 다른 장치가 컴퓨터(142), 부속 장치들(143), 또는 원격 네트워크 환경(150)의 네트워크 장치인 경우, 캡처된 콘텐츠 및 객체 데이터의 직접 전송은 무선 접속(예를 들어, 블루투스, WiFi, 또는 컴퓨터(142)나 부속 장치들(143)로의 다른 적절한 접속; WiFi, 셀룰라, 또는 원격 네트워크 환경(150)의 네트워크 장치로의 다른 적절한 접속)을 통해 콘텐츠 캡처 장치(110)로부터 컴퓨터(142), 부속 장치들(143), 또는 원격 네트워크 환경(150)의 네트워크 장치로 이루어질 수 있다. 여기서, 원격 네트워크 환경(150)의 네트워크 장치들에 대한 직접 접속은 로컬 네트워크(140)를 지나지 않지만 여러 다른 네트워크 요소들을 지날 수 있는 접속들이다. 캡처된 콘텐츠 및 객체 데이터는 어떤 다른 적절한 방식으로 콘텐츠 캡처 장치(110)로부터 다른 장치(들)로 직접 제공될 수 있다.
일 실시예에서, 예를 들어 캡처된 콘텐츠 및 객체 데이터는 콘텐츠 캡처 장치(110)로부터 다른 장치로 간접 제공될 수 있다. 그러한 실시예들에서, 콘텐츠 캡처 장치(110)로부터 다른 장치로의 캡처된 콘텐츠 및 객체 데이터의 간접 전송은 어떤 적절한 통신 기능들을 이용하여 제공될 수 있다. 일 실시예에서, 예를 들어 태깅된 콘텐츠를 형성하기 위해 부속 장치들(143) 중 하나 이상이 캡처된 콘텐츠 내 객체(122)와 정보 구조를 연관시키기 위한 프로세싱을 수행하도록 구성된 경우, 캡처된 콘텐츠 및 객체 데이터는 컴퓨터(142)가 로컬 네트워크(141)를 통해 부속 장치들(143)로 캡처된 콘텐츠 및 객체 데이터를 제공할 수 있고 부속 장치들(143)이 관련 프로세싱을 수행할 수 있도록 콘텐츠 캡처 장치(110)에서 컴퓨터(142)로 업로드될 수 있다. 일 실시예에서, 예를 들어 태깅된 콘텐츠를 형성하기 위해 원격 네트워크 환경(150)의 네트워크 장치가 캡처된 콘텐츠 내 객체(122)와 정보 구조를 연관시키기 위한 프로세싱을 수행하도록 구성된 경우, 캡처된 콘텐츠 및 객체 데이터는 컴퓨터(142)가 서비스 제공자 네트워크(141) 및 인터넷(142)을 통해 원격 네트워크 환경(150)의 네트워크 장치로 캡처된 콘텐츠 및 객체 데이터를 제공할 수 있고 원격 네트워크 환경(150)의 네트워크 장치가 관련 프로세싱을 수행할 수 있도록 콘텐츠 캡처 장치(110)에서 컴퓨터(142)로 업로드될 수 있다. 캡처된 콘텐츠 및 객체 데이터는 어떤 다른 적절한 방식으로 콘텐츠 캡처 장치(110)로부터 다른 장치(들)로 간접 제공될 수 있다.
캡처된 콘텐츠 및 객체 데이터는 어떤 적절한 시점에 콘텐츠 캡처 장치(110)로부터 다른 장치(들)로 제공될 수 있다.
일 실시예에서, 예를 들어 콘텐츠 캡처 장치(110)가 로컬 네트워크 환경(140)이나 원격 네트워크 환경(150)과 무선으로 통신할 수 없는 일 실시예에서, 콘텐츠 캡처 장치(110)에서 다른 장치를 향한 캡처된 콘텐츠 및 객체 데이터의 전송은 (1) 콘텐츠 캡처 장치(110)가 다른 장치나 중간 장치에 연결될 때나 (2) 콘텐츠 캡처 장치(110)가 다른 장치나 중간 장치에 연결된 후 어떤 적절한 시점에 콘텐츠 캡처 장치(110)에 의해 개시될 수 있다. 콘텐츠 캡처 장치가 다른 장치(예를 들어, 컴퓨터(142)나 부속 장치(143))에 연결된 실시예들에서, 캡처된 콘텐츠 및 객체 데이터는 콘텐츠 캡처 장치(110)의 다른 장치로의 연결 시점 및/또는 사용자로부터 캡처된 콘텐츠 및 객체 데이터가 다른 장치로 전송되어야 한다는 명령에 응하여 콘텐츠 캡처 장치(110)로부터 다른 장치로 제공될 수 있다. 콘텐츠 캡처 장치(110)가 다른 장치로 캡처된 콘텐츠 및 객체 데이터를 제공하고 그로부터 수신할 수 있는 중간 장치에 연결된 실시예들에서, 캡처된 콘텐츠 및 객체 데이터는 콘텐츠 캡처 장치(110)의 그 중간 장치로의 연결 시점 및/또는 사용자로부터 캡처된 콘텐츠 및 객체 데이터가 중간 장치로 전송되어야 한다는 명령에 응하여 콘텐츠 캡처 장치(110)로부터 중간 장치로 제공될 수 있다. 콘텐츠 캡처 장치(110)가 다른 장치로 캡처된 콘텐츠 및 객체 데이터를 제공하고 그로부터 수신할 수 있는 중간 장치에 연결된 실시예들에서, 중간 장치는 (예를 들어, 스케줄에 자동으로 기반하거나, 중간 장치나 다른 장치를 통한 사용자로부터의 명령에 응하는 등에 따라) 콘텐츠 캡처 장치(110)로부터 캡처된 콘텐츠 및 객체 데이터를 수신할 때 그 캡처된 콘텐츠 및 객체 데이터를 다른 장치로 제공하고 추후 다른 장치로의 전송을 위해 중간 장치에 캡처된 콘텐츠 및 객체 데이터를 저장하는 등의 동작 뿐만 아니라 이들의 다양한 조합 동작을 수행할 수 있다.
예를 들어, 콘텐츠 캡처 장치(110)가 로컬 네트워크 환경 및/또는 원격 네트워크 환경(150)과 무선으로 통신할 수 있는 일 실시예에서, 콘텐츠 캡처 장치(110)로부터 다른 장치를 향한(예를 들어, 다른 장치나 그 다른 장치로 캡처된 콘텐츠 및 객체 데이터를 제공하도록 구성된 중간 장치로의) 캡처된 콘텐츠 및 객체 데이터의 전송이 어떤 적절한 시점에 콘텐츠 캡처 장치(110)에 의해 개시될 수 있다. 예를 들어, 캡처된 콘텐츠 및 객체 데이터의 전송은 (1) 콘텐츠 캡처가 수행되는 시점(예를 들어, 사진이 촬영되거나 비디오가 촬상될 때 등) 및/또는 (2) 콘텐츠 캡처가 수행되는 시점 이후이나 콘텐츠 캡처 장치(110)가 캡처된 콘텐츠 및 객체 데이터를 다른 장치로 업로딩하기 위해 다른 장치나 중간 장치에 물리적으로 연결되기 전/연결될 필요가 없는 시점에 콘텐츠 캡처 장치(110)에 의해 개시될 수 있다. 그러한 실시예들에서, 콘텐츠 캡처 장치(110)는 다른 장치와 직접 통신할 수 있다(예를 들어, 컴퓨터(142)가 관련 프로세싱을 수행할 장치인 경우 콘텐츠 캡처 장치(110)와 컴퓨터(142) 사이의 직접 접속을 통하거나, 원격 네트워크 환경(150)의 네트워크 장치가 관련 프로세싱을 수행할 장치인 경우 그 네트워크 장치와 콘텐츠 캡처 장치(110) 사이의 직접 접속을 통하는 등). 그러한 실시예들에서, 콘텐츠 캡처 장치(110)는 캡처된 콘텐츠 및 객체 데이터를 다른 장치로 제공하도록 구성된 중간 장치를 통해 다른 장치와 간접 통신할 수 있다. 그러한 실시예들에서, 다른 장치나 다른 장치로 전송할 중간 장치로의 캡처된 콘텐츠 및 객체 데이터의 전송은 자동으로 및/또는 수동으로 수행될 수 있다. 예를 들어, 다른 장치나 중간 장치로의 캡처된 콘텐츠 및 객체 데이터의 전송은 콘텐츠의 각각의 항목이 캡처될 때(예를 들어, 각각의 사진이 촬영될 때), 문턱 개수의 콘텐츠 항목들이 캡처된 후(예를 들어, 매 10 장의 사진이 촬영된 후, 세 개의 비디오가 촬상된 후 등), 주기적으로(예를 들어, 시간 단위로, 일일 단위 등, 시간 주기가 자동 및/또는 수동적으로 설정될 수 있는 경우) 등뿐만 아니라 이들의 다양한 조합 시점에 수행될 수 있다. 그러한 실시예들에서, 캡처된 콘텐츠 및 객체 데이터는 로컬 네트워크 환경(140) 및/또는 원격 네트워크 환경(150)의 어떤 적절한 장치(들)로 제공될 수 있다.
이 실시예에서, 정보 구조가 어떤 적절한 소스로부터 획득될 수 있다. 일 실시예에서, 예를 들어 정보 구조는 정보 구조의 객체(122)로의 자동 연관을 수행하는 장치(들)에 의해 콘텐츠 캡처 장치(110)로부터 수신될 수 있다. 일 실시예에서, 예를 들어 정보 구조는 정보 구조의 객체(122)로의 자동 연관을 수행하는 장치(들) 상에 저장될 수 있다. 일 실시예에서, 예를 들어 정보 구조는 정보 구조의 객체(122)로의 자동 연관을 수행하는 장치(들)에 의해 하나 이상의 다른 장치들(예를 들어, 컴퓨터(142), 부속 장치(143), 원격 네트워크 환경(150)의 네트워크 장치 등뿐만 아니라 이들의 다양한 조합)로부터 수신될 수 있다.
그러한 실시예들에서, 캡처된 콘텐츠 내 객체(122)로의 정보 구조의 자동 연관 프로세스는 다른 장치(들)에 의해 어떤 적절한 유발 조건에 반응하여 개시될 수 있다. 예를 들어 캡처된 콘텐츠 내 객체(122)로의 정보 구조의 자동 연관은 캡처된 콘텐츠 및 객체 데이터를 수신할 때 자동으로, 다른 장치(110) 상의 활동 레벨에 기반하여(예를 들어, 그 다른 장치가 현재 사용되고 있지 않은 시점에) 자동으로, 스케줄 및/또는 문턱 조건(들)에 기반하여 자동으로(예를 들어, 소정 정도의 시간이 경과한 후, 문턱 개수의 이미지들이 캡처된 후, 및/또는 어떤 다른 적절한 스케줄링 및/또는 문턱 조건(들)에 기반하여 주기적으로), 다른 장치의 사용자 인터페이스를 통해 사용자에 의해 수동적으로 일어난 요청에 응하는(예를 들어, 캡처된 콘텐츠 및 객체 데이터 수신 시, 수신 장치가 사용자가 연관/태깅 프로세스를 개시했다는 지시를 수신할 때까지 캡처된 콘텐츠 및 객체 데이터를 저장하도록 구성됨) 등뿐만 아니라 이들의 다양한 조합에 따라 그 다른 장치에 의해 개시될 수 있다.
여기에 기술된 바와 같이, 캡처된 콘텐츠 내 객체의 자동 태깅은 (1) 캡처된 콘텐츠 안의 객체와 콘텐츠 태그의 연관, 및 (2) 객체와 연관된 콘텐츠 태그로의 정보 구조의 연관을 통해 캡처된 콘텐츠 내 객체에 대한 정보 구조의 연관을 포함한다. 여기에 도시 및 기술된 자동 콘텐츠 태깅의 다양한 실시예들에서, 이러한 연관은 어떤 적절한 방식에 따라 제공될 수 있다.
태깅된 콘텐츠 및 태깅된 콘텐츠의 콘텐츠 태그 사이의 연관이 어떤 적절한 방식을 통해 제공될 수 있다.
일 실시예에서, 예를 들어, 태깅된 콘텐츠 및 태깅된 콘텐츠와 연관되기 위해 생성된 콘텐츠 태그는 단일 콘텐츠 구조(예를 들어, 파일, 데이터 스트림 등)로서 관리될 수 있다. 그러한 일 실시예에서, 예를 들어 콘텐츠 태그가 태깅된 콘텐츠와 동일한 파일 안에 내장되는 경우, 콘텐츠 태그는 (1) 예를 들어 객체 위로의 콘텐츠 태그의 오버레이나 어떤 다른 적절한 유형의 직접 연관을 통해 의도된 객체와 직접 연관되도록(즉, 연관 프로세싱이 태깅된 콘텐츠가 액세스되는 시점에 수행될 필요가 없음) 하거나 (2) 의도된 것이지만 동일한 피일 안에서 쉽게 이용가능하지 않은 객체와 직접 연관되지 않도록(즉, 콘텐츠 태그를 의도된 객체 상에 오버레이하기 위한 연관 프로세싱 또는 의도된 객체와 콘텐츠 태그를 연관하는 것이 태깅된 콘텐츠가 액세스되는 시점에 수행됨) 하기 위해 동일한 파일 안에 내장될 수 있다.
일 실시예에서, 예를 들어 태깅된 콘텐츠 항목 및 태깅된 콘텐츠 항목과 연관되기 위해 생성된 콘텐츠 태그는 별도의 콘텐츠 구조들, 예를 들어 별개의 파일들, 별개의 데이터 스트림들 등으로서 관리될 수 있다. 이 실시예에서, 태깅된 콘텐츠는 태깅된 콘텐츠가 액세스될 때 태깅된 콘텐츠를 액세스하는 사용자(들)에 의해 콘텐츠 태그의 선택을 가능하게 하기 위해 콘텐츠 태그가 검색되고 태깅된 콘텐츠 안에 내장되도록 태깅된 콘텐츠와 연관될 콘텐츠 태그에 대한 포인터를 포함할 수 있다. 이 실시예에서, 콘텐츠 태그에 대한 포인터는 어떤 적절한 방식으로(예를 들어, 태깅된 콘텐츠 안에 콘텐츠 태그의 식별자를 포함하거나, 태깅된 콘텐츠 안에 콘텐츠 태그의 주소를 포함하는 등뿐만 아니라 이들의 다양한 조합을 통해) 태깅된 콘텐츠 안에서, 혹은 다른 경우 그와 연관되어 표현될 수 있다. 이것은 태깅된 콘텐츠를 위한 콘텐츠 태그가 태깅된 콘텐츠 자체와 무관하게 관리될 수 있게 함으로써, 사용자들이 정보 구조/객체 정보가 액세스되게 하는 콘텐츠 태그로의 액세스에 대한 보다 엄격한 통제를 유지하면서 허가에 기반하거나 허가와 무관하게 태깅된 콘텐츠를 액세스할 수 있게 한다.
태깅된 콘텐츠의 콘텐츠 태그 및 태깅된 콘텐츠 내에 포함된 객체의 객체 정보를 포함하는 정보 구조 사이의 연관이 어떤 적절한 방식으로 제공될 수 있다.
일 실시예에서, 예를 들어 태깅된 콘텐츠 내에 포함된 객체와 연관된 콘텐츠 태그는 관련 객체의 객체 정보를 저장하는 정보 구조를 포함한다. 이것은 콘텐츠 태그가 태깅된 콘텐츠 안에 내장되거나 태깅된 콘텐츠를 나타내기 위해 캡처된 콘텐츠와 결합된 별도의 콘텐츠 구조로서 제공되는 경우일 수 있다.
일 실시예에서, 예를 들어 태깅된 콘텐츠 내에 포함된 객체와 연관된 콘텐츠 태그는 관련 객체의 객체 정보를 저장하는 정보 구조에 대한 포인터를 포함한다. 일 실시예에서, 정보 구조는 태깅된 콘텐츠가 액세스될 때 정보 구조가 검색되어 태깅된 콘텐츠로부터 콘텐츠 태그를 선택하는 사용자(들)에게 제공될 수 있도록 콘텐츠 태그와 별개인 별도의 콘텐츠 구조(예를 들어, 파일, 데이터, 스트림 등)로서 저장될 수 있다. 이 실시예에서, 정보 구조에 대한 포인터는 어떤 적절한 방식으로(예를 들어, 콘텐츠 태그 안에 정보 구조의 식별자를 포함하거나, 콘텐츠 태그 안에 정보 구조의 주소를 포함하는 등뿐만 아니라 이들의 다양한 조합을 통해) 콘텐츠 태그 안에서, 혹은 다른 경우 그와 연관되어 표현될 수 있다. 이것은 태깅된 콘텐츠의 정보 구조가 콘텐츠 태그(및 그에 따라 태깅된 콘텐츠 자체)와 무관하게 관리될 수 있게 함으로써, 사용자들이 관련 콘텐츠 태그를 통한 정보 구조/객체 정보로의 액세스에 대한 보다 엄격한 통제를 유지하면서 허가에 기반하거나 허가와 무관하게 태깅된 콘텐츠를 액세스할 수 있게 한다.
상술한 태깅된 콘텐츠 및 콘텐츠 태그 사이의 연관 및 콘텐츠 태그 및 정보 구조 사이의 연관에 대한 실시예들과 관련하여, 그러한 실시예들의 다양한 조합이 (예를 들어, 콘텐츠 태깅 시스템의 여러 구현예들, 여러 객체들에 대해 콘텐츠 태깅 시스템(100) 내에서 생성된 여러 태깅된 콘텐츠 항목들/그 태깅된 콘텐츠와 연관된 콘텐츠 태그 정보 구조들 등뿐만 아니라 그 다양한 조합에서) 사용될 수 있다는 점이 이해될 것이다.
그러한 연관은 태깅된 콘텐츠가 사용자에게 제시되는 방식 및/또는 태깅된 콘텐츠 내에 포함된 객체와 연관된 객체 정보가 액세스되는 방식을 제어할 수 있다.
콘텐츠의 자동 태깅이 캡처된 콘텐츠 안의 객체에 대한 콘텐츠 태그의 연관 및 콘텐츠 태그에 대한 정보 구조의 연관을 포함하는 실시예들과 관련하여 그러한 단계들이 하나의 장치에 의해 수행되는 경우에 대해 주로 도시되며 기술되었으나, 적어도 어떤 실시예들에서 그러한 단계들은 여러 장치들에 의해 수행될 수 있다는 점이 이해될 것이다. 일 실시예에서, 예를 들어 제1장치가 캡처된 콘텐츠 안의 객체의 위치를 식별하며 캡처된 콘텐츠 안의 객체와 콘텐츠 태그를 연관시키기 위한 프로세싱을 수행할 수 있으며, 제2장치는 콘텐츠 태그와 정보 구조를 연관시키기 위한 프로세싱을 수행할 수 있다. 다양한 기능들이 다른 다양한 방식들을 통해 분산될 수 있다는 점이 이해될 것이다.
상술한 내용으로부터, 콘텐츠 태깅 및 관리 기능의 다양한 기능들이 콘텐츠 태깅 시스템(100)의 어떤 적절한 요소 상에 중앙 집중화되고/거나 콘텐츠 태깅 시스템(100)의 요소들의 어떤 적절한 조합에 걸쳐 분산될 수 있다는 점이 이해될 것이다.
여기에 기술된 바와 같이, 캡처된 콘텐츠 내 객체의 자동 태깅이 태깅된 콘텐츠의 생성으로 이어지며, 그런 다음 그 콘텐츠를 처리하기 위한 어떤 적절한 방식에 따라 처리될 수 있다.
예를 들어 태깅된 콘텐츠는 저장, 전송, 표시 등뿐만 아니라 이들의 다양한 조합으로 처리될 수 있다. 태깅된 콘텐츠가 태깅된 콘텐츠를 생성한 콘텐츠 캡처 장치, 태깅된 콘텐츠를 생성한 사용자 장치, 태깅된 콘텐츠가 액세스될 때까지 저장되는 네트워크 장치, 태깅된 콘텐츠가 액세스되는 사용자 장치들 등뿐만 아니라 이들의 다양한 조합과 같은 어떤 적절한 장치(들)에 의해 저장, 전송, 표현 등이 될 수 있다.
예를 들어, 태깅된 콘텐츠는 어떤 적절한 방식으로 액세스될 수 있다(예를 들어, 이메일, 웹사이트 등뿐만 아니라 이들의 다양한 조합을 통해 수신될 때). 태깅된 콘텐츠의 객체(들)와 관련된 정보를 액세스하기 위해 태깅된 콘텐츠가 표현될 수 있으며 태깅된 콘텐츠 안의 콘텐츠 태그들이 선택될 수 있는 어떤 적절한 사용자 장치를 이용하여 태깅된 콘텐츠(예를 들어, 영상, 비디오, 멀티미디어 등)가 액세스될 수 있다는 점이 이해될 것이다. 예를 들어, 사용자 장치는 컴퓨터, 테블릿 PC, 스마트폰, 공공 안전 전용 장치 및 연합 에이전시 강제 FIPS 부합기 등일 수 있다.
여기에 기술된 바와 같이, 태깅된 콘텐츠가 사용자에게 제시되는 방식은 소정 연관(예를 들어, 태깅된 콘텐츠 및 태깅된 콘텐츠의 콘텐츠 태그 사이의 연관)이 유지되며 통제되는 방식에 따라 좌우될 수 있다.
예를 들어 태깅된 콘텐츠 및 태깅된 콘텐츠와 연관시키기 위해 생성된 콘텐츠 태그가 단일 파일로서 유지되는 일 실시예에서, 그 파일은 의도된 사용자 장치로 제공되고 그런 다음 콘텐츠 태그를 포함하는 태깅된 콘텐츠를 표시하기 위해 처리될 수 있다. 예를 들어, 파일이 콘텐츠 태그가 이미 객체와 연관되도록 구성된 경우, 파일은 태깅된 콘텐츠를 표시하도록 처리된다. 예를 들어, 파일이 콘텐츠 태그가 객체와 아직 연관되지 않도록 구성된 경우, 파일은 콘텐츠 태그와 연관된 정보를 추출하고 적절한 위치에 내장된 콘텐츠 태그와 함께 태깅된 콘텐츠를 표시하기 위해 처리된다.
예를 들어 태깅된 콘텐츠 항목과 그 태깅된 콘텐츠 항목과 연관하도록 생성된 콘텐츠 태그가 별개의 파일들로서 관리되는 일 실시예에서, 태깅된 콘텐츠 파일 및 콘텐츠 태그 파일 둘 모두가 의도된 사용자 장치로 제공되어 태깅된 콘텐츠를 표시하기 위해 그들을 결합하도록 처리된다.
두 파일들은 사용자 장치에 동시적으로 제공될 수 있다. 예를 들어, 사용자가 사용자 장치를 통해 웹사이트로부터 태깅된 콘텐츠를 요청하는 경우, 태깅된 콘텐츠 파일 및 관련 콘텐츠 태그 파일이 검색되어 사용자 장치로 제공된다. 예를 들어 사용자가 태깅된 콘텐츠를 친구에게서 이메일로 수신한 경우, 그 이메일은 태깅된 콘텐츠 파일 및 콘텐츠 태그 파일 둘 모두를 포함할 수 있다.
두 파일들은 사용자 장치에 순차적으로 제공될 수 있다. 예를 들어, 사용자가 태깅된 콘텐츠를 사용자 장치를 통해 웹사이트로부터 요청한 경우, 태깅된 콘텐츠 파일이 검색되어 사용자 장치로 제공될 수 있고, 사용자 장치가 태깅된 콘텐츠 파일 안에 포함된 정보(예를 들어, 콘텐츠 태그의 주소나 식별자)로부터 콘텐츠 태그 파일을 식별할 수 있으며, 그런 다음 사용자 장치가 그 콘텐츠 태그 파일을 요청하여 수신할 수 있다. 예를 들어, 사용자가 태깅된 콘텐츠를 친구에게서 이메일로 수신하는 경우, 이메일은 태깅된 콘텐츠 파일을 포함할 수 있고, 사용자 장치가 태깅된 콘텐츠 파일 안에 포함된 정보(예를 들어, 콘텐츠 태그의 주소나 식별자)로부터 콘텐츠 태그 파일을 식별할 수 있으며, 그런 다음 사용자 장치가 콘텐츠 태그 파일을 (예를 들어, 태깅된 콘텐츠에 대한 콘텐츠 태그들을 저장하는 네트워크 요소로부터) 요청하여 수신할 수 있다.
태깅된 콘텐츠 파일 및 콘텐츠 태그 파일은 일단 사용자 장치에 수신되었을 때, 태깅된 콘텐츠를 표시하기 위한 어떤 적절한 방식으로 처리될 수 있다. 예를 들어, 태깅된 콘텐츠 파일은 태깅된 콘텐츠 안의 콘텐츠 태그의 의도된 위치를 식별하는 마커를 포함함으로써, 콘텐츠 태그가 사용자 장치를 통해 표시될 때 이제 태깅된 콘텐츠에 추가될 수 있도록 할 수 있다. 마찬가지로, 예를 들어 콘텐츠 태그를 포함하는 파일은 태깅된 콘텐츠 안의 콘텐츠 태그의 의도된 위치를 찾을 때 사용자에 의해 사용되도록 되어 있는 정보를 포함함으로써, 콘텐츠 태그가 사용자 장치를 통해 표시될 때 이제 태깅된 콘텐츠에 추가될 수 있도록 할 수 있다.
여기 기술된 바와 같이, 태깅된 콘텐츠 내에 포함된 객체와 연관된 객체 정보가 액세스되는 방식은 어떤 연관(예를 들어, 태깅된 콘텐츠의 콘텐츠 태그 및 태깅된 콘텐츠 내에 포함된 객체의 객체 정보를 포함하는 정보 구조 사이의 결부)이 유지되며 통제되는 방식에 좌우될 수 있다.
예를 들어 태깅된 콘텐츠 내에 포함된 객체와 연관된 콘텐츠 태그가 관련 객체의 객체 정보를 저장하는 정보 구조를 포함하는 일 실시예에서, 객체 정보는 콘텐츠 태그의 선택 시 정보 구조로부터 획득되고 객체 정보는 사용자 장치를 통해 사용자에게 표시된다. 이 경우, 콘텐츠 태그는 콘텐츠 태그를 표시하고 그런 다음 표시된 콘텐츠 태그의 선택에 반응하여 객체 정보를 표시하기 위해 액세스될 수 있는 별개의 파일로서 제공되거나 태깅된 콘텐츠 안에 내장될 수 있다.
예를 들어, 태깅된 콘텐츠 내에 포함된 객체와 연관된 콘텐츠 태그가 관련 객체의 객체 정보를 저장하는 정보 구조에 대한 포인터를 포함하는 일 실시예에서, 정보 구조는는 콘텐츠 태그의 선택에 응하여 검색되며, 정보 구조의 객체 정보는 사용자 장치를 통해 사용자에게 표시된다. 이 경우, 정보 구조에 대한 포인터는 어떤 적절한 방식으로(예를 들어, 콘텐츠 태그 안에 정보 구조의 식별자를 포함하거나, 콘텐츠 태그 안에 정보 구조의 주소를 포함하는 등뿐만 아니라 이들의 다양한 조합을 통해) 콘텐츠 태그 안에서, 혹은 다른 경우 그와 연관되어 표현될 수 있다.
그러한 실시예들에서, 정보 구조의 객체 정보에 대한 액세스 또한 만족될 하나 이상의 기준을 요할 수 있다(예를 들어, 액세스를 요청한 사용자가 적절한 허가 수준을 가지거나, 액세스를 요청한 사용자가 온라인 상태이거나 하는 등뿐만 아니라 이들의 다양한 조합의 경우가 있을 수 있다). 이러한 가능한 기준은 콘텐츠 태그의 선택에 응한 사용자 장치에서의 객체 정보의 표현을 포함하여 콘텐츠 태그 및 관련 정보 구조의 관리를 설명함에 있어 명료성을 위해 본 논의로부터 생략된다.
여기에 기술된 바와 같이, 적어도 일 실시예에서 콘텐츠 캡처 장치(110)는 캡처된 콘텐츠 안의 객체에 대해 정보 구조를 자동으로 연관시키기 위한 연관 프로세싱을 수행하도록 구성된다. 그러한 일 실시예에 따른 예시적 콘텐츠 캡처 장치가 도 2와 관련해 도시되며 기술된다.
도 2는 도 1의 콘텐츠 캡처 장치의 일 실시예에 대한 고차 블록도이다.
도 2에 도시된 바와 같이, 콘텐츠 캡처 장치(110)는 콘텐츠 캡처 모듈(210), 메모리(220), 콘텐츠 태깅 모듈(230), 및 제어기(240)를 포함한다.
콘텐츠 캡처 모듈(210)은 하나 이상의 콘텐츠 캡처 메커니즘들(2111-211N)(집합적으로 콘텐츠 캡처 메커니즘들(211))을 포함하며, 각각의 콘텐츠 캡처 메커니즘(211)은 콘텐츠를 캡처하며 캡처된 콘텐츠를 메모리(220) 안에 저장하기 위해 메모리(220)로 제공하도록 구성된다.
콘텐츠 캡처 메커니즘들(210)은 콘텐츠를 캡처하기 위한 어떤 적절한 메커니즘(들)을 포함할 수 있다. 예를 들어 콘텐츠 캡처 메커니즘들(211)은 오디오 콘텐츠 캡처 메커니즘, 이미지 콘텐츠 캡처 메커니즘, 비디오 콘텐츠 캡처 메커니즘 등뿐만 아니라 이들의 다양한 조합 중 하나 이상을 포함할 수 있다.
그러한 콘텐츠 유형들이 그러한 콘텐츠 캡처 메커니즘들을 통해 캡처될 수 있는 방식은 당업자에 의해 이해될 것이다. 예를 들어, 카메라가 이미지 콘텐츠를 통상적으로 캡처하는 방식은 당업자에 의해 이해될 것이다. 마찬가지로, 예를 들어 비디오 레코더가 비디오 및 오디오 콘텐츠를 통상적으로 캡처하는 방식은 당업자에 의해 이해될 것이다.
콘텐츠 캡처 장치(110) 안에 포함된 콘텐츠 캡처 메커니즘(들)(211)의 유형(들)은 콘텐츠 캡처 장치(110)의 유형, 콘텐츠 캡처 장치(110)에 의해 캡처되기로 의도된 콘텐츠의 유형(예를 들어, 사진, 비디오 등) 및/또는 다른 적절한 요인들에 따라 좌우될 수 있다.
일 실시예에서, 예를 들어 콘텐츠 캡처 장치(110)는 이미지 콘텐츠 캡처 메커니즘을 포함하는 카메라이다. 많은 카메라들 역시 현재 오디오/비디오 레코딩 기능들을 포함한다는 점이 이해될 것이다.
일 실시예에서, 예를 들어 콘텐츠 캡처 장치(110)는 비디오 및 오디오 콘텐츠 캡처 메커니즘을 포함하는 비디오 레코더이다. 많은 비디오 레코더들 역시 현재 이미지 콘텐츠 캡처 기능들(예를 들어 스틸 사진들을 촬영하기 위한 기능 역시)을 포함한다는 점이 이해될 것이다.
콘텐츠 캡처 장치(110)는 그러한 콘텐츠 캡처 메커니즘들(211)의 어떤 적절한 조합을 포함할 수 있는 어떤 다른 적절한 유형의 장치를 포함할 수 있다.
일 실시예에서, 콘텐츠 메커니즘들(211) 중 하나 이상이 여기에 기술된 바와 같이 자동 태깅될 콘텐츠를 캡처한다. 예를 들어, 오디오 캡처 콘텐츠 메커니즘은 태깅될 오디오 콘텐츠를 캡처할 수 있다. 예를 들어, 이미지 캡처 콘텐츠 메커니즘은 태깅될 이미지 콘텐츠를 캡처할 수 있다. 예를 들어, 오디오 및 비디오 캡처 콘텐츠 메커니즘은 태깅될 오디오 및 비디오 콘텐츠를 캡처할 수 있다.
일 실시예에서, 태깅될 콘텐츠를 캡처하기 위한 하나 이상의 콘텐츠 캡처 메커니즘들(211)을 이용하는 것 외에, 콘텐츠 캡처 메커니즘들(211) 중 하나 이상이 캡처된 콘텐츠 내의 콘텐츠 객체들(여기에서 콘첸츠 안의 콘텐츠라고도 일컬을 수 있음)을 캡처하는 데 사용될 수 있다. 여기에 기술된 바와 같이, 이것은 사진 안에 텔레비전이 캡처될 때 텔레비전 상에 디스플레이되는 텔레비전 프로그램의 태깅, 비디오가 촬영될 때 재생하는 노래의 태깅 등과 같은 콘텐츠 안의 콘텐츠를 포함할 수 있다.
그러한 일 실시예에서, 다수의 콘텐츠 캡처 메커니즘들(211)은 캡처된 콘텐츠 안의 콘텐츠 객체들(여기에서 콘텐츠 안의 콘텐츠라고도 일컬을 수 있음)의 캡처링을 가능하게 하도록 협력할 수 있다.
일 실시예에서, 예를 들어 사용자가 이미지 콘텐츠 캡처 메커니즘을 이용하여 이미지 콘텐츠(예를 들어, 사진)의 캡처를 개시하는 경우, 콘텐츠 캡처 장치(110)가 캡처된 이미지 콘텐츠 안에서 오디오 콘텐츠(이 상황에서 콘텐츠 객체로 간주됨)를 태깅하기 위해 캡처된 이미지와 관련된 오디오 콘텐츠를 또한 캡처하도록 콘텐츠 캡처 장치(110)의 오디오 콘텐츠 캡처 메커니즘 또한 활성화될 수 있다.
이 실시예에서, 오디오 콘텐츠는 어떤 적절한 방식에 따라 캡처되며 식별될 수 있다. 일 실시예에서, 예를 들어 오디오 콘텐츠 캡처 메커니즘은 이미지 콘텐츠의 캡처와 동시적인 어떤 오디오를 레코딩한다. 그런 다음, 캡처된 오디오 콘텐츠는 오디오 콘텐츠를 식별하기 위해(예를 들어, 제목, 연주자 및 기타 관련 정보) 처리된다. 캡처된 오디오 콘텐츠는 매치를 식별하기 위해 캡처된 오디오 일부를 오디오 레코딩에 대한 데이터베이스와 비교하는 등의 동작을 통해 캡처된 오디오 안에 내장된 정보로부터 식별될 수 있다.
이 실시예에서, 오디오 콘텐츠 객체는 어떤 적절한 방식에 따라 캡처된 이미지 안에 태깅될 수 있다. 예를 들어, 오디오가 캡처된 이미지 안에서 캡처된 텔레비전 상에서 재생되는 텔레비전 프로그램의 오디오인 경우, 오디오 콘텐츠에 대해 캡처된 이미지와 연관된 콘텐츠 태그는 태깅된 이미지 안의 텔레비전과 연관될 수 있다. 예를 들어, 오디오가 캡처된 이미지 안에서 캡처되지 않은 인접하는 방에서 재생되는 라디오의 오디오인 경우, 그 오디오 콘텐츠에 대해 캡처된 이미지와 연관되는 콘텐츠 태그가 캡처된 이미지 내 어떤 적절한 위치에 배치될 수 있다.
콘텐츠 캡처(예를 들어, 사진과 같은 정지 이미지 콘텐츠)와 함께 오디오 콘텐츠 객체들의 캡처, 식별, 및 태깅이 어떤 다른 적절한 방식으로 수행될 수 있다.
일 실시예에서, 예를 들어, 사용자가 이미지 콘텐츠 캡처 메커니즘을 이용하여 사진의 캡처를 개시하는 경우, 콘텐츠 캡처 장치(110)가 캡처된 이미지 콘텐츠 안에서 비디오 콘텐츠(이 상황에서 콘텐츠 객체로 간주됨)를 태깅하기 위해 캡처된 이미지와 관련된 비디오 콘텐츠를 또한 캡처하도록 콘텐츠 캡처 장치(110)의 비디오 콘텐츠 캡처 메커니즘 또한 활성화될 수 있다.
이 실시예에서, 비디오 콘텐츠는 어떤 적절한 방식에 따라 캡처되며 식별될 수 있다. 일 실시예에서, 예를 들어 비디오 콘텐츠 캡처 메커니즘은 이미지 콘텐츠의 캡처와 동시적인 비디오의 하나 이상의 비디오 프레임들을 레코딩한다. 그런 다음, 캡처된 비디오 콘텐츠는 비디오 콘텐츠를 식별하기 위해(예를 들어, 프로그램이나 영화 제목, 및 기타 관련 정보) 처리된다. 캡처된 비디오의 비디오 프레임들 중 하나 이상의 적어도 일부를 이용하여 비디오 레코딩 정보의 데이터베이스를 검색하는 등의 동작을 통해, 캡처된 비디오 콘텐츠가 캡처된 비디오 내에 내장된 정보로부터 식별될 수 있다.
이 실시예에서, 비디오 콘텐츠 객체는 어떤 적절한 방식에 따라 캡처된 이미지 안에 태깅될 수 있다. 예를 들어, 비디오가 캡처된 이미지 안에서 캡처된 텔레비전 상에서 재생되는 텔레비전 프로그램의 비디오인 경우, 비디오 콘텐츠에 대해 캡처된 이미지와 연관된 콘텐츠 태그는 태깅된 이미지 안의 텔레비전과 연관될 수 있다.
콘텐츠 캡처(예를 들어, 사진과 같은 정지 이미지 콘텐츠)와 함께 비디오 콘텐츠 객체들의 캡처, 식별, 및 태깅이 어떤 다른 적절한 방식으로 수행될 수 있다.
도 2에 도시된 바와 같이, 콘텐츠 캡처 메커니즘 또는 메커니즘들(211)은 카메라 상의 버튼, 비디오 레코더 상의 버튼, 스마트폰 상의 터치 스크린 콘트롤, 또는 메모리(220)에 저장할 콘텐츠(예를 들어, 태깅될 캡처된 콘텐츠 및/또는 태깅된 캡처된 콘텐츠와 연관된 콘텐츠 객체들)를 캡처하기 위해 콘텐츠 캡처 메커니즘들(211) 중 하나 이상을 활성화하기 위한 어떤 다른 적절한 메커니즘과 같은 콘텐츠 캡처 콘트롤(212)에 의해 활성화된다.
메모리(220)는 콘텐츠 캡처 메커니즘들(211)에 의해 캡처된 콘텐츠를 저장하며 옵션으로서 콘텐츠 태깅 모듈(230)에 대한 정보(예를 들어, 콘텐츠 태깅 모듈(230)에 의해 태깅될 캡처된 콘텐츠, 콘텐츠 태깅 모듈(230)에 의해 캡처된 콘텐츠 안에 태깅될 콘텐츠 객체들, 캡처된 콘텐츠의 자동 태깅을 통해 캡처된 콘텐츠와 연관될 정보 구조, 콘텐츠 태깅 모듈(230)에 의해 생성된 태깅된 콘텐츠 등뿐만 아니라 이들의 다양한 조합)를 저장하기 위한 저장부를 제공한다. 메모리(220)는 적절한 형식의 메모리일 수 있다. 예를 들어 메모리(220)는 내부 메모리, 콘텐츠 캡처 장치(110) 안에 삽입되는 메모리(예를 들어, 카메라에 삽입되는 메모리 스틱, 카메라 폰 안의 SIM 카드 등), 외장 메모리 등을 포함할 수 있다. 콘텐츠 캡처 장치(110)는 그러한 여러 유형의 이용 가능한 메모리를 가질 수 있다는 점이 이해될 것이다.
콘텐츠 태깅 모듈(230)은 콘텐츠 캡처 메커니즘들(211)에 의해 캡처되는 콘텐츠의 자동 태깅을 수행하도록 구성된다.
도 2에 도시된 바와 같이, 콘텐츠 태깅 모듈(230)은 복수의 트랜시버들(2311-231N)(집합적으로 트랜시버들(231)), 트랜시버 입/출력(I/O) 인터페이스(232), 암호화/암호해독화(E/O) 모듈(233), 및 콘텐츠 태깅 로직 모듈(234)을 포함한다.
도 2에 도시된 바와 같이, 일 실시예에서 콘텐츠 태깅 모듈(230)은 또한 메모리(220)에 저장할 콘텐츠를 캡처하기 위한 콘텐츠 캡처 메커니즘들(211)을 활성화하는데 사용되는 콘텐츠 캡처 콘트롤(212)에 의해 활성화될 수 있다. 콘텐츠 태깅 모듈(230)의 활성화는 이후 콘텐츠 캡처 콘트롤(212)의 활성화 시 콘텐츠 캡처 메커니즘들(211)에 의해 캡처된 콘텐츠를 자동으로 태깅하기 위해 사용될 수 있는 센서들(124)로부터 객체 데이터를 수신하기 위한 기능들(예를 들어, 센서들(124)로부터 정보 수신을 준비하거나, 센서들(124)로부터 정보를 수신하도록 센서들(124)과 통신을 개시 하는 등)을 수행하도록 콘텐츠 태깅 모듈(230)을 작동시킨다. 콘텐츠 태깅 모듈(230)의 활성화는 또한 다양한 다른 기능들(예를 들어, 콘텐츠 캡처 메커니즘들(211)에 의해 캡처된 콘텐츠를 자동 태깅하기 위한 자동 콘텐츠 태깅 프로세싱 수행, 다른 장치(들)이 콘텐츠 캡처 메커니즘들(211)에 의해 캡처된 콘텐츠를 자동 태깅하기 위한 자동 콘텐츠 태깅 프로세싱을 수행할 수 있도록 하나 이상의 다른 장치들을 향해 캡처된 콘텐츠 및 객체 데이터를 전송하는 등) 을 수행하도록 콘텐츠 태깅 모듈(230)을 작동시킨다. 콘텐츠 캡처 메커니즘들(211)을 활성화하는데 사용되는 동일한 제어 메커니즘을 이용하여 콘텐츠 태깅 모듈(230)이 활성화되는 실시예들과 관련하여 기본적으로 도시되며 기술되었지만, 다른 실시예들에서 콘텐츠 캡처 장치(110)는 콘텐츠 캡처 모듈(230)을 활성화하기 위해 구성된 다른 콘트롤을 포함할 수 있다. 그러한 일 실시예에서, 예를 들어 별도의 콘텐츠 캡처 콘트롤(예를 들어, 카메라 상의 다른 버튼, 비디오 레코더 상의 다른 버튼, 또는 어떤 다른 적절한 제어 메커니즘)이 콘텐츠 캡처 장치(110) 상에 제공되어, 사용자가 콘텐츠 캡처 메커니즘들(211)에 의해 캡처된 콘텐츠에 대해 자동 콘텐츠 태깅이 수행되어야 할지 말지 여부를 제어하게 할 수 있다.
트랜시버들(231)은 콘텐츠 캡처 장치(110)에 통신 기능들을 제공한다. 트랜시버들(231)은 하나 이상의 무선 트랜시버들(예시적으로 트랜시버들(2311 및 2312)) 및 하나 이상의 유선 트랜시버들(예시적으로 트랜시버(231N))을 포함한다.
콘텐츠 캡처 장치(110) 안에 포함되는 특정 개수 및 유형의 트랜시버들과 관련하여 도시되며 기술되었지만, 어떤 적절한 개수 및/또는 유형의 트랜시버들이라도 콘텐츠 캡처 장치(110) 안에 포함될 수 있다는 점이 이해될 것이다.
콘텐츠 캡처 장치(110) 안의 트랜시버들의 사용과 관련하여 도시되며 기술되었지만, 콘텐츠 캡처 장치(110)는 어떤 적절한 개수 및/또는 유형의 송신기, 수신기, 트랜시버 등뿐만 아니라 이들의 다양한 조합이라도 포함할 수 있다는 점이 이해될 것이다.
트랜시버들(231)은 콘텐츠 태깅 시스템(100)의 다양한 실시예들과의 통신을 지원할 수 있다.
예를 들어, 트랜시버들(231) 중 하나 이상은 센서들(124)로부터 객체 데이터를 수신하기 위해 센서들(124)과의 통신을 지원할 수 있으며, 그것은 센서들(124)의 유형들 및/또는 그 센서들(124)에 의해 지원되는 통신 유형들(예를 들어, 셀룰라 통신, 블루투스 통신, RFID 통신, 보코드/바코드/QR 코드 통신, 인가/미인가 스펙트림 기반 통신 등뿐만 아니라 이들의 다양한 조합)에 좌우될 수 있다.
예를 들어, 트랜시버들(231) 중 하나 이상이 로컬 네트워크 환경(140)의 하나 이상의 장치들 및/또는 원격 네트워크 환경(150)의 하나 이상의 장치들과의 통신을 지원할 수 있다. 예를 들어, 트랜시버들(231) 중 하나 이상이 로컬 네트워크 환경(140) 및/또는 콘텐츠 캡처 장치(110)에 의해 생성된 자동 태깅된 콘텐츠를 로컬 네트워크 환경(140) 및/또는 원격 네트워크 환경(150)에 제공하기 위한 네트워크 환경과 통신할 수 있다. 예를 들어, 트랜시버들(231) 중 하나 이상이 로컬 네트워크 환경(140) 및/또는 콘텐츠 캡처 장치(110)에 의해 캡처된 콘텐츠의 자동 태깅을 수행하기 위해 콘텐츠 캡처 장치(110)에 의해 필요로 될 수 있는 정보를 요청하기 위한(예를 들어, 객체 데이터, 하나 이상의 정보 구조들 등뿐만 아니라 이들의 다양한 조합을 요청하기 위한) 네트워크 환경과 통신할 수 있다. 예를 들어, 트랜시버들 중 하나 이상은 캡처된 콘텐츠가 로컬 네트워크 환경(140) 및/또는 원격 네트워크 환경(150)의 하나 이상의 장치들에 의해 자동 태깅될 수 있도록 로컬 네트워크 환경(140) 및/또는 원격 네트워크 환경(150)의 하나 이상의 장치들로 캡처된 콘텐츠 및 관련 객체 데이터를 제공하기 위해 로컬 네트워크 환경(140) 및/또는 원격 네트워크 환경(150)과 통신할 수 있다. 예를 들어, 트랜시버들 중 하나 이상은 캡처된 콘텐츠가 로컬 네트워크 환경(140) 및/또는 원격 네트워크 환경(150)의 하나 이상의 장치들에 의해 자동 태깅될 수 있도록 로컬 네트워크 환경(140) 및/또는 원격 네트워크 환경(150)의 하나 이상의 장치들로 캡처된 콘텐츠, 객체 데이터, 및 하나 이상의 정보 구조들을 제공하기 위해 로컬 네트워크 환경(140) 및/또는 원격 네트워크 환경(150)과 통신할 수 있다. 그러한 실시예들에서, 트랜시버들(231)은 어떤 적절한 통신 기능들(예를 들어, 유선 통신, 셀룰라 통신, WiFi 통신 등뿐만 아니라 이들의 다양한 조합)을 지원할 수 있다.
트랜시버 I/O 인터페이스(232)는 트랜시버들(231) 및 E/D 모듈(233) 사이의 인터페이스를 제공한다. 트랜시버 I/O 인터페이스(232)는 (예를 들어, 트랜시버 I/O 인터페이스(232)로부터 트랜시버들(231)까지의 어떤 적절한 수의 통신 경로들을 이용하고, 마찬가지로 E/D 모듈(233)로의 어떤 적절한 수의 통신 경로들을 이용하여) 여러 트랜시버들(231) 및 E/D 모듈(233) 사이의 통신을 지원하는데 적합한 어떤 방식으로 구현될 수 있다.
E/D 모듈(233)은 콘텐츠 태깅 로직 모듈(234)에 암호화 및 암호해독화 기능을 제공한다. E/D 모듈(233)은 콘텐츠 태깅 로직 모듈(234)에 대해 의도된 암호화된 정보(예를 들어, 콘텐츠 캡처 메커니즘들(211) 및/또는 메모리(220)로부터 수신된 캡처된 콘텐츠, 트랜시버들(231) 및 트랜시버 I/O 인터페이스(232)를 통해 센서들(124)로부터 수신된 객체 데이터, 트랜시버들(231) 및 트랜시버 I/O 인터페이스(232)를 통해 (예를 들어, 로컬 네트워크 환경(140) 및/또는 원격 네트워크 환경(150)으로부터) 수신된 정보 구조들 등뿐만 아니라 이들의 다양한 조합)을 해독한다. E/D 모듈(233)은 콘텐츠 태깅 로직 모듈(234)에 의해 전송된 정보를 암호화한다. 예를 들어, E/D 모듈(233)은 로컬 네트워크 환경(140) 및/또는 네트워크 환경으로 전송되는 캡처된 콘텐츠, 객체 데이터, 정보 구조들, 태깅된 콘텐츠 등 중에 하나 이상을 암호화한다. 예를 들어, E/D 모듈(233)은 메모리(220)에 저장하기 위해 메모리(220)로 제공되는 태깅된 콘텐츠를 암호화한다. E/D 모듈(233)은 어떤 다른 적절한 정보를 암호화/해독화할 수 있다.
콘텐츠 태깅 로직 모듈(234)은 콘텐츠 캡처 메커니즘들(211)에 의해 캡처되는 콘텐츠의 자동 태깅을 수행하도록 구성된다.
도 2에 도시된 바와 같이, 콘텐츠 태깅 로직 모듈(234)은 메모리(235), 콘텐츠 분석 로직(235) 및 오버레이 생성 로직(237)을 포함한다.
메모리(235)는 콘텐츠 분석 로직(236) 및 오버레이 생성 로직(237)에 의해 사용될 정보를 안전하게 저장하고 콘텐츠 분석 로직(236) 및 오버레이 생성 로직(237)에 의해 생성되는 정보를 안전하게 저장하기 위한 저장부를 제공한다. 예를 들어, 도 2에 도시된 바와 같이, 메모리(235)는 캡처된 콘텐츠, 캡처된 콘텐츠 안의 객체들과 연관될 콘텐츠 태그들, 캡처된 콘텐츠의 자동 태깅을 통해 캡처된 콘텐츠와 연관될 정보 구조들, 태깅된 콘텐츠 등뿐만 아니라 이들의 다양한 조합과 같은 정보를 안전하게 저장할 수 있다. 콘텐츠 태깅 로직 모듈(234) 안에서의 메모리(235)의 사용은 콘텐츠 분석 로직(236) 및 오버레이 생성 로직(237)이 처리를 위해 그러한 정보를 액세스하면서 동시에 여전히 그 정보의 안정적 저장을 가능하게 할 때 암호화 및 암호해독 프로세싱에 대한 필요성을 없앨 수 있다. 메모리(235)는 당업자가 이해할 수 있다시피 어떤 적절한 메모리 형식일 수 있다.
콘텐츠 분석 로직(238)은 캡처된 콘텐츠 내에 포함된 각각의 객체(122)에 대해 캡처된 콘텐츠 내 객체(122)의 태깅에 사용할 정보를 결정하기 위해 캡처된 콘텐츠를 분석하도록 구성된다.
캡처된 콘텐츠 내 객체(122)의 태깅에 사용할 정보는 객체(122)에 대해 관련 콘텐츠 태그가 내장되어야 하는 캡처된 콘텐츠 안의 위치를 판단하는 데 사용하기 적합한 어떤 정보를 포함할 수 있다. 예를 들어, 캡처된 콘텐츠 내 객체(122)의 태깅에 사용할 정보는 캡처된 콘텐츠 내 객체(122)의 위치를 포함할 수 있으며, 옵션으로서 캡처된 콘텐츠 안의 객체(122)의 치수를 포함할 수 있다. 캡처된 콘텐츠 내 객체(122)를 태깅하는 데 사용할 정보는 어떤 적절한 포맷(예를 들어, 정지 영상의 좌표 위치, 프레임 넘버 및 이미지들의 이동을 위한 프레임 내 좌표 위치의 조합 등)으로 표현될 수 있다.
캡처된 콘텐츠 내 객체(122)를 태깅하는 데 사용할 정보는 어떤 적절한 방식으로 결정될 수 있다. 일 실시예에서, 예를 들어 캡처된 콘텐츠 내 객체(122)를 태깅하는 데 사용할 정보는 객체(122)가 포함된 캡처된 콘텐츠, 객체(122)와 연관된 하나 이상의 센서들(124)로부터 수신된 정보 등뿐만 아니라 이들의 다양한 조합 중 하나 이상을 처리함으로써 결정될 수 있다.
콘텐츠 분석 로직(236)은 객체(122)와 연관된 콘텐츠 태그로 캡처된 콘텐츠를 자동 태깅하기 위해 오버레이 생성 로직(237)에 의해 사용되도록 캡처된 콘텐츠 내 객체(122)를 태깅하는 데 사용할 정보를 제공한다.
도 2에 도시된 바와 같이, 분석 로직(236)은 E/D 모듈(233), 메모리(235), 및 오버레이 생성 로직(237)에 연결된다. 콘텐츠 분석 로직(236)은 콘텐츠 캡처 메커니즘(211)로부터 캡처된 콘텐츠를 수신하기 위한 E/D 모듈(233) 및/또는 객체(122)와 연관된 센서(124)로부터 (예를 들어, 트랜시버들(231), 트랜시버 I/O 인터페이스(232), 및 E/D 모듈(233)을 통해) 객체(122)의 객체 데이터를 수신하기 위한 메모리(220) 등에 연결된다. 콘텐츠 분석 로직(236)은 캡처된 콘텐츠 내 객체(122)를 태깅하는 데 사용될 수 있는 어떤 정보(예를 들어, 캡처된 콘텐츠, 캡처된 콘텐츠 내 객체(122)의 위치를 가리키는 위치 데이터 등)를 액세스하기 위해 메모리(235)에 연결된다. 콘텐츠 분석 로직(236)은 (예를 들어, 콘텐츠 캡처 메커니즘들(211), 메모리(220) 및/또는 메모리(235)로부터) 객체(122)를 포함하는 캡처된 콘텐츠를 수신하고, (예를 들어, 트랜시버들(231), 트랜시버 I/O 인터페이스(232), 및 E/D 모듈(233)을 통해) 센서(124)로부터 객체(122)의 객체 데이터를 수신하며, 캡처된 콘텐츠 안의 객체(122)의 위치를 식별하는 데 사용하고 캡처된 콘텐츠 내 객체(122)를 태깅하는 데 사용하기 위한 정보를 결정하기 위한 정보를 수신한다. 콘텐츠 분석 로직(236)은 캡처된 콘텐츠 내 객체(122)를 태깅하는 데 사용할 정보를 오버레이 생성 로직(237)으로 제공하기 위한 오버레이 생성 로직(237)에 연결된다.
오버레이 생성 로직(237)은 캡처된 콘텐츠를 자동 태깅하도록 구성된다. 오버레이 생성 로직(237)은 (1) 캡처된 콘텐츠 안의 객체와 콘텐츠 태그의 연관 및 (2) 객체와 연관된 콘텐츠 태그로의 정보 구조의 연관을 통해, 캡처된 콘텐츠 내에 포함된 주어진 객체(122)에 대해 캡처된 콘텐츠를 자동 태깅한다.
오버레이 생성 로직(237)은 캡처된 콘텐츠 안의 객체(122)를 태깅하는 데 사용할 정보(예를 들어, 캡처된 콘텐츠 안의 객체(122)의 위치를 가리키는 정보, 객체(122)의 하나 이상의 치수를 가리키는 정보 등뿐만 아니라 이들의 다양한 조합)에 액세스한다. 예를 들어 오버레이 생성 로직(237)은 콘텐츠 분석 로직(236)으로부터 정보를 수신하고, 메모리(235)로부터 정보를 안전하게 검색할 수 있는(예를 들어, 콘텐츠 분석 로직(236)이 메모리(235) 안에 정보를 저장한 경우) 등의 동작을 수행할 수 있다.
오버레이 생성 로직(237)은 캡처된 콘텐츠 및 캡처된 콘텐츠 안의 객체(122)와 연관될 정보 구조에 액세스한다.
일 실시예에서, 예를 들어 오버레이 생성 로직(237)은 콘텐츠 캡처 메커니즘들(211), 메모리(220) 또는 메모리(235) 등으로부터 캡처된 콘텐츠를 수신할 수 있다.
일 실시예에서, 예를 들어, 오버레이 생성 로직(237)은 로컬 소스(예를 들어, 메모리(220), 메모리(235) 등 가운데 하나 이상), 원격 소스(예를 들어, 로컬 네트워크 환경(140) 및/또는 원격 네트워크 환경(150)의 하나 이상의 장치들) 등으로부터 정보 구조를 획득할 수 있다. 정보 구조는 콘텐츠 캡처 전이나 캡처된 콘텐츠를 자동 태깅하기 위한 프로세싱 도중에 원격 소스로부터 획득될 수 있다.
하나의 정보 구조만이 이용가능한 일 실시예에서, 오버레이 생성 로직(237)은 그 이용가능한 정보 구조를 획득한다. 예를 들어, 정보 구조가 어떤 유형의 객체(또는 자동 콘텐츠 태깅이 수행될 것이거나 수행되도록 예상되는 객체의 적어도 어떤 유형)에 대한 객체 정보를 저장하는 데 사용하기 적합한 템플릿을 제공하는 경우, 오버레이 생성 로직(237)은 그 정보 구조를 간단히(즉, 복수의 이용가능한 정보 구조들로부터 적절한 정보 구조를 식별하기 위해 추가 프로세싱을 필요로 함이 없이) 획득한다.
여러 개의 정보 구조들이 오버레이 생성 로직(237)에 의해 이용 가능한 일 실시예에서, 오버레이 생성 로직(237)은 이용가능한 정보 구조들 중 하나를 선택한다. 정보 구조는 상술한 바와 같이 어떤 적절한 방식에 따라 선택될 수 있다. 선택에 이용가능한 여러 정보 구조들이 다양한 정보 구조 유형들의 조합(예를 들어, 객체 정보가 상주될 템플릿들, 적어도 일부 객체 정보로 이미 구성된 구조들 등)을 포함할 수 있으므로, 그러한 실시예들의 다양한 조합들이 사용될 수 있다.
캡처된 콘텐츠, 캡처된 콘텐츠 내 객체(122)를 태깅하는 데 사용할 정보 및 정보 구조를 이용하는 오버레이 생성 로직(237)은 콘텐츠 태그를 캡처된 콘텐츠 안의 객체(122)와 연관시키며 정보 구조를 그 콘텐츠 태그와 연관시켜 태깅된 콘텐츠를 형성함으로써 정보 구조와 객체(122)를 연관시킨다.
오버레이 생성 로직(237)은 콘텐츠 태그를 캡처된 콘텐츠 안의 객체(122)와 어떤 적절한 방식으로 연관시킬 수 있다. 예를 들어 오버레이 생성 로직(237)은 콘텐츠 태그를 캡처된 콘텐츠 안에 내장시킬 수 있다. 예를 들어 오버레이 생성 로직(237)은 콘텐츠 태그 파일을 생성하며, 태깅된 콘텐츠가 나중에 사용자에게 표시되기 위해 검색될 때 캡처된 콘텐츠 및 콘텐츠 태그 파일이 태깅된 콘텐츠를 표시하기 위해 결합될 수 있도록 그 콘텐츠 태그 파일을 캡처된 콘텐츠와 연관시킬 수 있다. 오버레이 생성 로직(237)은 정보 구조가 콘텐츠 태그와 연관되기 전이나 후에 콘텐츠 태그를 캡처된 콘텐츠 안의 객체(122)와 연관시킬 수 있다.
오버레이 생성 로직(237)은 정보 구조를 콘텐츠 태그와 어떤 적절한 방식에 따라 연관시킬 수 있다. 예를 들어, 오버레이 생성 로직(237)은 정보 구조를 캡처된 콘텐츠 안에 내장시킬 수 있다. 예를 들어, 오버레이 생성 로직(237)은 정보 구조 파일을 생성하고, 관련 콘텐츠 태그가 나중에 사용자에 의해 선택될 때 정보 구조 파일이 검색되고 정보 구조로부터 객체 데이터가 사용자에게 표시될 수 있도록 정보 구조를 캡처된 콘텐츠와 연관시킬 수 있다(예를 들어, 캡처된 콘텐츠와 직접, 정보 구조가 연관되는 콘텐츠 태그를 통하는 등의 경로로). 오버레이 생성 로직(237)은 콘텐츠 태그가 캡처된 콘텐츠 안에 내장되기 전이나 후에 정보 구조를 콘텐츠 태그와 연관시킬 수 있다.
오버레이 생성 로직(237)은 예를 들어 캡처된 콘텐츠와 연관된 콘텐츠 태그를 통해 정보 구조를 객체(122)와 연관시켜 그것이 객체(122)와 연관되어 태깅된 콘텐츠를 형성하도록 한다. 여기에 기술된 바와 같이, 태깅된 콘텐츠를 형성하기 위해 객체(122)와 연관되는 정보 구조는 객체(122)와 연관된 어떤 적절한 객체 정보를 저장할 수 있으며, 그 객체(122)에 대한 객체 정보는 (예를 들어, 어떤 시점, 어떤 적절한 포맷에 적절한 상주 기법 등을 이용하여) 어떤 적절한 방식으로 정보 구조 안에 저장될 수 있다.
오버레이 생성 로직(237)은 태깅된 콘텐츠를 생성한 후, 이제 그 태깅된 콘텐츠를 이용하는 하나 이상의 조치들을 수행할 수 있다.
오버레이 생성 로직(237)은 콘텐츠 캡처 장치(110) 상의 (예를 들어, 메모리(235), 메모리(220), 및/또는 어떤 다른 적절한 메모리 중 하나 이상 안에) 태깅된 콘텐츠의 저장을 유발할 수 있다.
오버레이 생성 로직(237)은 콘텐츠 캡처 장치(110)로부터 태깅된 콘텐츠의 전송을 유발할 수 있다. 일 실시예에서, 예를 들어 오버레이 생성 로직(237)은 태깅된 콘텐츠를 E/O 모듈(233)로 제공하고, E/D 모듈은 그 태깅된 콘텐츠를 암호화한 후 암호화된 태깅된 콘텐츠를 트랜시버 I/O 인터페이스들로 제공하고, 트랜시버 I/O 인터페이스들은 암호화된 태깅된 콘텐츠를 트랜시버들(231) 중 하나로 제공하며, 트랜시버(231)는 암호화된 태깅된 콘텐츠를 원격 장치를 향해(예를 들어, 로컬 네트워크 환경(140) 및/또는 원격 네트워크 환경(150)을 향해) 전달한다. 일 실시예에서, 예를 들어, 오버레이 생성 로직은 프로세서(240)에 태깅된 콘텐츠가 이용 가능하다는 것을 알리기 위해 프로세서(240)에게 신호를 보내며, 그에 응하여 프로세서(240)는 메모리(235)나 메모리(220)로부터 태깅된 콘텐츠를 안전하게 검색하여 그 태깅된 콘텐츠를 콘텐처 캡처 장치(110)로부터 전송하기 위한 트랜시버들(231) 중 하나로 제공한다. 태깅된 콘텐츠가 콘텐츠 캡처 장치(110)로부터 어떤 다른 적절한 방식으로 전송될 수 있다는 점이 이해될 것이다.
오버레이 생성 로직(237)은 콘텐츠 캡처 장치(110)의 디스플레이 인터페이스를 통해 태깅된 콘텐츠의 디스플레이를 유발할 수 있다.
콘텐츠 캡처 장치(110)는 태깅된 콘텐츠에 대한 어떤 그러한 조치들(예를 들어, 저장, 전송, 디스플레이 등뿐만 아니라 이들의 다양한 조합)을 어떤 적절한 시점 및 어떤 적절한 방식으로 수행하도록 구성된다.
(예를 들어, 관련된 콘텐츠 태그의 오버레이를 통해) 정보 구조를 객체와 연관시키기 위한 메커니즘으로서 오버레이의 사용에 관해 여기에서 주로 도시되며 기술되었으나, 여기에 기술된 바와 같이 연관은 어떤 다른 적절한 방식을 통해 제공될 수 있다. 이 경우, 오버레이 생성 로직(237)은 보다 일반적으로 연관 생성 로직(237)이라고 일컬어질 수 있다.
프로세서(240)는 콘텐츠 캡처 모듈(210), 메모리(220) 및 콘텐츠 태깅 모듈(230)에 연결된다. 프로세서(240)는 콘텐츠 캡처 모듈(210)(콘텐츠 캡처 모듈(210)의 콘텐츠 캡처 메커니즘들(211)에 의해 수행되는 콘텐츠 캡처를 포함함), 메모리(220), 및 콘텐츠 태깅 모듈(230)에 의해 수행되는 다양한 기능들을 제어하도록 구성될 수 있다. 프로세서(240)는 또한 콘텐츠 캡처 장치(110)의 다른 요소들과 관련하여 여기에 도시되며 기술된 다양한 기능들을 수행하도록 구성될 수 있다.
명료성을 위해 생략되었으나, 콘텐츠 캡처 장치(110)는 장치 유형에 따라 좌우될 수 있는 다양한 다른 모듈들 및/또는 기능들을 포함하고/거나 지원할 수 있다는 점이 이해될 것이다.
예를 들어, 콘텐츠 캡처 장치(110)가 화상 카메라인 경우, 그것은 뷰파인더, 디스플레이 인터페이스, 다양한 카메라 설정 조정을 위한 사용자 제어 메커니즘(예를 들어, 버튼, 터치 스크린 기능 등), 플래시 기능, 비디오 레코딩 기능 등뿐만 아니라 이들의 다양한 조합과 같은 요소들을 포함할 수 있다. 카메라의 통상적 요소, 기능, 및 동작은 당업자에 의해 이해될 것이다.
예를 들어, 콘텐츠 캡처 장치(110)가 비디오 카메라인 경우, 그것은 뷰파인더, 디스플레이 인터페이스, 다양한 카메라 설정 조정을 위한 사용자 제어 메커니즘(예를 들어, 버튼, 터치 스크린 기능 등), 스틸 사진 기능 등뿐만 아니라 이들의 다양한 조합과 같은 요소들을 포함할 수 있다. 비디오 카메라의 통상적 요소, 기능, 및 동작은 당업자에 의해 이해될 것이다.
콘텐츠 태깅 및 관리 기능과 함께 사용하기 적합한 다른 유형의 장치들의 통상적 기능 및 관련 동작은 당업자에 의해 이해될 것이다.
콘텐츠 캡처 장치(110)가 카메라인 실시예들과 관련하여 여기에서 주로 도시되며 기술되었으나, 여기에 기술된 바와 같이 콘텐츠 캡처 장치(110)는 도 2의 콘텐츠 캡처 장치(110)의 다양한 요소들 및/또는 기능들의 상이한 구성으로 이어질 수 있는 어떤 다른 적절한 사용자 장치일 수 있다.
콘텐츠 캡처 장치(110)의 다양한 요소들이 특정 방식으로 배열된 실시예들과 관련하여 여기에서 주로 도시되며 기술되었으나, 도 2의 콘텐츠 캡처 장치(110)의 다양한 요소들은 콘텐츠 태깅 및 관리 기능을 제공하기 위해 적합한 어떤 다른 방식으로 배열될 수 있다는 점이 이해될 것이다. 예를 들어, 다양한 기능들과 사양들이 콘텐츠 태깅 모듈(230) 안에서 제공되는 실시예와 관련하여 도시되며 기술되었지만, 콘텐츠 태깅 모듈(230)의 다양한 기능 및 사양들이 어떤 적절한 방식으로 콘텐츠 캡처 장치(110) 안에서 구현될 수 있다(예를 들어 콘텐츠 태깅 모듈(230) 안에서 다른 방식으로 배열되거나, 여러 모듈들에 걸쳐 분산되는 등의 경우를 포함하여 그 다양한 조합들을 통해 배열될 수 있다)는 점이 이해될 것이다. 마찬가지로, 예를 들어 다양한 기능들과 사양들이 콘텐츠 태깅 로직 모듈(234) 안에서 제공되는 실시예와 관련하여 도시되며 기술되었지만, 콘텐츠 태깅 로직 모듈(234)의 다양한 기능 및 사양들이 어떤 적절한 방식으로 콘텐츠 캡처 장치(110) 안에서 구현될 수 있다(예를 들어 콘텐츠 태깅 로직 모듈(234) 안에서 다른 방식으로 배열되거나, 여러 모듈들에 걸쳐 분산되는 등의 경우를 포함하여 그 다양한 조합들을 통해 배열될 수 있다)는 점이 이해될 것이다.
정보 구조를 캡처된 콘텐츠 내 객체에 자동 연관시키기 위한 연관 프로세싱이 콘텐츠 캡처 장치(110)에 의해 수행되는 실시예들과 관련하여 여기에서 주로 도시되며 기술되었지만, 다른 실시예들에서는 연관 프로세싱의 적어도 일부가 하나 이상의 다른 장치들에 의해 수행될 수 있다. 그러한 실시예들에서, 도 2의 예시적 콘텐츠 캡처 장치(200)와 관련하여 도시되며 기술된 기능 요소들 및/또는 관련 기능들의 적어도 일부는 그러한 기능들이 수행되도록 의도된 하나 이상의 다른 장치들 상에서(예를 들어, 컴퓨터(142), 하나 이상의 부속 장치들(143), 원격 네트워크 환경의 하나 이상의 네트워크 장치들 등뿐만 아니라 이들의 다양한 조합들 상에서) 구현될 수 있다. 그러한 실시예들에서, 기능 요소들의 다양한 기능들은 어떤 다른 적절한 방식으로 하나 이상의 다른 장치들 상이나 그들에 걸쳐 분산될 수 있다는 점이 이해될 것이다.
도 3은 태깅된 콘텐츠를 생성하기 위한 프로세스의 예시적 실시예를 도시한다.
도 3에 도시된 바와 같이, 프로세스(300)는 센서들이 연관된 객체들을 포함하는 콘텐츠의 캡처, 및 캡처된 콘텐츠에 묘사된 객체들과 정보 구조를 연관시키기 위해 콘텐츠 태그들과 캡처된 콘텐츠의 자동 태깅하는 것을 예시한다.
도 3에 도시된 바와 같이, 어떤 사람이 카메라(310)를 사용하여 자신의 거실에 앉아 있는 친구들의 사진을 촬영한다. 카메라(310)의 시계(field of vision)는 다른 무엇보다 소파, 텔레비전 및 기타 전기제품, 커피 탁자, 커피 탁자 위의 물건들 및 다양한 다른 객체들을 포함하는 다양한 물리적 객체들을 포함하는 거실의 대부분을 포함한다. 도 3에서 카메라(310)의 시계 안에 있는 물리적 객체들 중 두 개는 그와 연관된 각자의 센서들을 가진다. 즉, 텔레비전(객체(3221)로 칭함)은 그에 부착된 제1센서(3241)를 가지며 커피 탁자 위의 사이다 캔(객체(3222)로 칭함)은 그 안에 내장된 제2센서(3242)를 가진다. 카메라(310)의 시계는 또한 콘텐츠 객체(3223)(즉, 텔레비전에서 현재 재생하는 영화)를 포함한다. 객체들(3221-3223)은 집합적으로 객체들(322)이라 일컬어질 수 있고, 마찬가지로 센서들(3241-3242)은 집합적으로 센서들(324)이라 일컬어질 수 있다.
카메라(310)는 사진이 촬영될 때 캡처된 콘텐츠라 칭하는 이미지를 생성하며 그 캡처된 콘텐츠를 태깅된 콘텐츠(380)로 변환하기 위한 프로세싱을 수행한다. 캡처된 콘텐츠 및 그에 따라 태깅된 콘텐츠(360)는 텔레비전 및 사이다 캔을 포함하는 카메라(310) 시계 안의 여러 객체들을 포함한다.
카메라(310)는 사진이 찍힐 때 텔레비전 및 사이다 캔과 연관된 센서들(324)을 검출한다. 카메라(310)는 센서들(324)로부터 객체 데이터를 수신한다. 카메라(310)는 캡처된 콘텐츠 안의 객체들(322)의 위치들을 판단한다. 카메라(310)는 캡처된 콘텐츠 안의 객체들(322)의 위치들을 이용하여 콘텐츠 태그들(3611 및 3612)을 캡처된 콘텐츠 안의 객체들(3221 및 3222)과 각각 연관시킨다. 카메라(310)는 센서들(324)로부터의 객체 데이터를 이용하여 한 쌍의 정보 구조들(3621 및 3622)을 콘텐츠 태그들(3611 및 3612)과 각각 연관시킨다. 콘텐츠 태그들(3611 및 3612)과 연관된 정보 구조들(3621 및 3622)은 텔레비전 모델 및 사이다 브랜드에 대한 각각의 정보를 안전하게 저장할 수 있고, 그에 따라 나중에 그 사진을 보는 이들이 그 관련 콘텐츠 태그들(3611 및 3612)을 통해 정보 구조들(3621 및 3622)의 정보를 액세스할 수 있게 한다.
카메라(310)는 사진이 찍힐 때, 사진이 찍힐 때 텔레비전에서 재생한 텔레비전 프로그램에 대한 정보를 캡처하기 위한 콘텐츠 캡처를 또한 수행한다. 예를 들어 카메라(310)는 텔레비전 프로그램의 하나 이상의 비디오 프레임들을 캡처하기 위한 비디오 캡처 메커니즘을 이용할 수 있고, 그것은 이제, 사진이 찍힐 때 텔레비전 상에서 재생한 텔레비전 프로그램을 식별하는 데 사용될 수 있다. 이러한 맥락에서 텔레비전 프로그램이 콘텐츠 객체(객체(3223)이라 칭함)이다. 카메라(310)는 캡처된 콘텐츠 안의 객체(3223)의 위치를 판단한다. 카메라(310)는 캡처된 콘텐츠 안의 콘텐츠 객체(3223)를 이용하여, 콘텐츠 태그(3613)를 캡처된 콘텐츠 안의 콘텐츠 객체(3223)와 연관시킨다. 카메라(310)는 콘텐츠 객체(3223)와 연관된 객체 데이터(예를 들어, 캡처된 비디오 자체, 텔레비전 프로그램과 연관된 정보 등뿐만 아니라 이들의 다양한 조합)를 이용하여, 정보 구조(3623)를 콘텐츠 태그(3613)에 각각 연관시킨다. 콘텐츠 태그(3613)와 연관된 정보 구조(3623)는 텔레비전 프로그램에 대한 정보를 확실하게 저장하고, 그에 따라 나중에 사진을 보는 이들이 그 연관된 콘텐츠 태그(3613)를 통해 정보 구조(3623)의 정보를 액세스할 수 있게 한다.
그 결과가 상술한 바와 같이 그 안에 콘텐츠 태그들(361) 및 콘텐츠 태그들(362)과 연관되는 정보 구조(362)를 가진 태깅된 콘텐츠(360)이다. 여기에 기술된 바와 같이, 태깅된 콘텐츠(360)는 어떤 적절한 방식으로 카메라(310)에 의해 추가 처리(예를 들어, 저장, 전송, 디스플레이 등)될 수 있다.
도 4는 도 3의 태깅된 콘텐츠를 액세스하기 위한 프로세스의 예시적 실시예를 도시한다.
도 4에 도시된 바와 같이, 프로세스(400)는 사용자에 의한 태깅된 콘텐츠의 액세스를 예시하며, 여기서 태깅된 콘텐츠는 사용자가 온라인이라는 판단에 따라 사용자에 의해 액세스되며 태깅된 콘텐츠와 연관된 정보 구조로부터의 정보는 사용자가 정보 구조로부터 정보를 액세스하도록 허가된다는 판단에 따라 사용자에 의해 액세스된다. 프로세스(400)는 사용자 장치(410) 및 CMS(155) 사이의 상호작용을 포함하여 여러 단계들(예시적으로 1부터 7까지 번호가 매겨짐)로 이루어진다.
도 4에 도시된 바와 같이, 사용자 장치(410)는 (예를 들어, 사용자 장치(410)의 디스플레이 인터페이스를 통해) 그 위에 디스플레이되는 복수의 태깅된 콘텐츠 항목들(3601~360N)(집합적으로 태깅된 콘텐츠(360)) 을 가진다. 태깅된 콘텐츠 항목들(360)은 어떤 적절한 사용자 제어 인터페이스(예를 들어, 키보드, 마우스, 터치스크린 등)을 통해 사용자에 의한 선택이 가능하다.
단계 401에서, 태깅된 콘텐츠 항목(3602)이 사용자 제어 인터페이스를 통해 사용자에 의해 선택된다. 태깅된 콘텐츠 항목(3602)은 도 3과 관련하여 도시되며 기술된 태깅된 콘텐츠(380)와 동일하다. 일 실시예에서, 태깅된 콘텐츠를 액세스하기 위해 사용자는 온라인이어야 한다.
단계 402에서, CMS(155)는 사용자가 태깅된 콘텐츠 항목(3602)을 액세스하도록 허가되는지 허가되지 않는지의 여부, 예를 들어 사용자가 적합한 허가 레벨을 가지는지 가지지 않는지 여부를 판단함으로써 사용자가 태깅된 콘텐츠 항목(3602)을 액세스할 수 있는지 없는지 여부를 판단한다.
단계 402A에서, 사용자 장치(410)가 사용자에 의한 태깅된 콘텐츠 항목(3602)의 선택에 따라 태깅된 콘텐츠 항목(3602)에 대한 액세스를 요청하는 콘텐츠 요청을 CMS(155)로 전송한다.
CMS(155)는 사용자 장치(410)로부터 콘텐츠 요청을 수신하고 사용자가 태깅된 콘텐츠 항목(3602)을 액세스하도록 허가되는지 되지 않는지 여부를 판단한다. 이 예에서 사용자는 태깅된 콘텐츠 항목(3602)를 액세스하도록 허가된다고 가정한다.
단계 402B에서 CMS(155)는 사용자 장치(410)가 태깅된 콘텐츠 항목(3602)을 사용자를 위해 디스플레이할 것인지 여부에 대한 표시를 제공하는 콘텐츠 응답을 사용자 장치(410)로 전송한다. 이 예에서, 사용자는 태깅된 콘텐츠 항목(3602)을 액세스하도록 허가되므로, 콘텐츠 응답은 사용자 장치(410)가 태깅된 콘텐츠 항목(3602)를 사용자에게 디스플레이할 수 있다는 것을 나타낸다.
단계 403에서, 콘텐츠 요청이 허락되고 사용자 장치(410)는 태깅된 콘텐츠 항목(3602)을 사용자에게 디스플레이한다. 도 4 및 4에 도시되고 도 3과 관련하여 기술된 바와 같이, 태깅된 콘텐츠 항목(3602)은 텔레비전, 사이다 캔 및 텔레비전 프로그램과 각기 연관된 세 개의 내장된 콘텐츠 태그들(3611, 3612 및 3613)을 포함한다.
단계 404에서, 태깅된 콘텐츠 항목(3602)의 내장된 콘텐츠 태그(3612)가 사용자 제어 인터페이스를 통해 사용자에 의해 선택된다. 일 실시예에서, 태깅된 콘텐츠 항목의 내장된 콘텐츠 태그와 연관된 정보를 액세스하기 위해, 사용자는 적합한 허가 수준을 가져야 한다.
단계 405에서, CMS(155)는 사용자가 그 정보를 액세스하도록 허가되는지 안되는지 여부, 예를 들어, 사용자가 적합한 허가 수준을 가지는지 가지지 않는지 여부를 판단함으로써 사용자가 태깅된 콘텐츠 항목(3602)의 내장된 콘텐츠 태그(3612)와 연관된 정보를 액세스할 수 있는지 없는지 여부를 판단한다.
단계 405A에서, 사용자 장치(410)는 사용자에 의한 태깅된 콘텐츠 항목(3602)의 내장된 콘텐츠 태그(3612)의 선택에 응하여 태깅된 콘텐츠 항목(3602)의 내장된 콘텐츠 태그(3612)에 대한 액세스를 요청하는 허가 요청을 CMS(155)로 전송한다.
CMS(155)는 사용자 장치(410)로부터 허가 요청을 수신하고 사용자가 적합한 허가 수준을 가지는지 가지지 않는지 여부를 판단한다. 이 예에서 사용자 장치(410)는 태깅된 콘텐츠 항목(3602)의 내장된 콘텐츠 태그(3612)의 정보 전체를 액세스하도록 허가된다고 가정한다.
단계 405B에서 CMS(155)는 사용자 장치(410)가 태깅된 콘텐츠 항목(3602)을 사용자를 위해 디스플레이할 것인지 여부에 대한 표시를 제공하는 허가 응답을 사용자 장치(410)로 전송한다. 이 예에서 사용자는 태깅된 콘텐츠 항목(3602)의 내장된 콘텐츠 태그(3612)에 대한 모든 정보를 액세스하도록 허가되므로, 허가 응답은 사용자 장치(410)가 태깅된 콘텐츠 항목(3602)의 내장된 콘텐츠 태그(3612)와 연관된 정보를 사용자에게 디스플레이할 수 있다는 것을 나타낸다.
단계 406에서, 허가 요청이 수락되고 사용자 장치(410)는 태깅된 콘텐츠 항목(3602)의 내장된 콘텐츠 태그(3612)와 연관된 정보를 사용자에게 디스플레이한다. 도 3 및 4에 도시되고 도 3과 관련하여 기술된 바와 같이, 태깅된 콘텐츠 항목(3602)의 내장된 콘텐츠 태그(3612)는 사용자에게 디스플레이되는 사이다 캔과 연관된 정보를 포함한다. 태깅된 콘텐츠 항목(3602)의 내장된 콘텐츠 태그(3612)와 관련된 정보가 어떤 적절한 방식을 통해(예를 들어, 기존 창의 이용, 오버레이, 팝업, 새 창 이용 등뿐만 아니라 이들의 다양한 조합을 이용하여) 사용자에게 디스플레이될 수 있다.
단계 407에서, 콘텐츠 상연 추적 정보가 CMS(155)에 의해 태깅된 콘텐츠 항목(3602)의 상연을 추적하는 데 사용되도록 사용자 장치(410)로부터 CMS(155)에 전송된다.
도 5는 정보 구조를 캡처된 콘텐츠 내에 포함된 객체와 자동 연관시키기 위한 방법의 일 실시예를 도시한다. 도 5의 방법(500)은 어떤 적절한 장치, 예를 들어, 콘텐츠 캡처 장치, 사용자 장치, 네트워크 장치 등에 의해 수행될 수 있다.
방법(500)은 502 단계에서 시작한다.
단계 504에서, 콘텐츠가 수신되며, 이때 콘텐츠는 객체를 포함한다. 콘텐츠는 텍스트, 오디오, 비디오 등뿐만 아니라 이들의 다양한 조합과 같이 캡처될 수 있는 어떤 콘텐츠를 포함할 수 있다. 콘텐츠는 콘텐츠 캡처 장치에서의 콘텐츠 캡처 동작 중이나, (예를 들어, 홈 네트워크의) 사용자 장치에서의 콘텐츠 캡처 동작 중에 다른 적절한 장치의 콘텐츠 캡처 장치로부터, 네트워크 장치에서의 콘텐츠 캡처 동작 중에 콘텐츠 캡처 장치로부터, 사용자 장치, 또는 다른 적절한 장치 등에서의 콘텐츠 캡처 동작 중에 수신될 수 있다.
단계 506에서, 태깅된 콘텐츠를 형성하기 위해 정보 구조가 캡처된 콘텐츠 내에 포함된 객체와 자동 연관된다.
방법(500)은 508 단계에서 종료된다.
도 6은 정보 구조를 콘텐츠 캡처 장치에서 캡처된 콘텐츠 내에 포함된 객체와 자동 연관시키기 위한 방법의 일 실시예를 도시한다. 도 6의 방법(600)은 콘텐츠 캡처 장치에 의해 수행된다.
방법(600)은 802 단계에서 시작한다.
단계 604에서, 콘텐츠가 캡처되며, 이때 캡처된 콘텐츠는 객체를 포함한다. 콘텐츠는 텍스트, 오디오, 비디오 등뿐만 아니라 이들의 다양한 조합과 같이 캡처될 수 있는 어떤 콘텐츠를 포함할 수 있다. 콘텐츠는 콘텐츠 캡처 장치에서의 콘텐츠 캡처 동작 중에 캡처된다.
단계 606에서, 객체와 연관된 센서가 검출될 때 객체와 연관된 객체 데이터가 수신된다. 센서의 검출은 콘텐츠 캡처 장치가 객체와 연관된 객체 데이터를 (로컬 및/또는 원격으로) (예를 들어, 센서, 객체 및/또는 센서의 식별에 기반한 콘텐츠 캡처 장치, 객체 및/또는 센서의 식별에 기반 및/또는 센서로부터 수신된 정보에 기반하는 네트워크 장치 등뿐만 아니라 이들의 다양한 조합으로부터) 획득할 수 있게 한다. 객체 데이터는 정보 구조와 무관하거나 정보 구조 안에 포함될 수 있다.
단계 608에서, 태깅된 콘텐츠를 자동으로 형성하기 위해 정보 구조가 캡처된 콘텐츠 내에 포함된 객체와 자동 연관된다.
방법(600)은 610 단계에서 종료된다.
도 7은 콘텐츠 캡처 장치에 의한 콘텐츠 캡처 중에 센서에 의해 사용될 방법의 일 실시예를 도시한다.
방법(700)은 702 단계에서 시작한다.
단계 704에서, 객체와 연관된 객체 데이터가 센서 상에 저장된다. 객체 데이터는 센서 상의 저장을 위해 스캐너로부터 수신될 수 있다. 객체 데이터는 센서 유형에 따라 좌우될 수 있는 어떤 적절한 포맷으로 센서에 의해 저장될 수 있다. 객체 데이터는 어떤 적절한 사용자(들)을 포함할 수 있는 위임된 사용자들에게만 액세스되도록 안전하게 저장된다(예를 들어, 사용자들이 공개적으로 이용가능하거나, 큰 그룹의 사용자들이 이용가능하지만 공개적으로는 이용할 수 없거나, 작은 그룹의 사용자들만이 이용가능하는 등). 여기에 기술된 바와 같이, 객체 데이터는 객체와 연관된 객체 정보, 객체와 연관된 객체 정보를 검색하는 데 사용하도록 된 객체 데이터 등뿐만 아니라 이들의 다양한 조합을 포함할 수 있다.
단계 706에서, 객체 데이터는 콘텐츠 캡처 장치에 의한 콘텐츠 캡처 동작과 동시에 센서로부터 콘텐츠 캡처 장치를 향해 전송된다. 객체 데이터가 전달되는 방식은 센서의 유형에 좌우될 수 있다는 점이 이해될 것이다. 예를 들어 수동 센서의 경우, 객체 데이터의 통신은 콘텐츠 캡처 장치에 의한 객체 데이터의 수동적 판독에 의한(예를 들어, 콘텐츠 캡처 메커니즘 및/또는 통신 인터페이스에 의한) 것일 수 있다. 예를 들어 능동 센서의 경우, 객체 데이터의 통신은 콘텐츠 캡처 장치로의 객체 데이터의 능동적 전달에 의한(예를 들어, 센서의 통신 인터페이스에 의한) 것일 수 있다.
방법(700)은 708 단계에서 종료된다.
도 8은 콘텐츠 캡처 장치에 의한 콘텐츠 캡처 중에 사용할 센서를 구성하기 위한 센서 스캐너에 의한 방법의 일 실시예를 도시한다.
방법(800)은 802 단계에서 시작한다.
804 단계에서, 객체와 연관된 객체 데이터가 센서 스캐너에서 수신된다(예를 들어, 센서 스캐너에 대한 유선 및/또는 무선 접속을 통해 어떤 적절한 장치(들)로부터).
단계 806에서, 객체와 연관된 객체 데이터가 센서 스캐너에서 저장된다.
단계 808에서, 객체와 연관된 객체 데이터는 센서 스캐너로부터 객체와 연관된 센서를 향해 전달된다.
방법(800)은 810 단계에서 종료된다.
객체 정보가 수신, 저장, 전송되는 실시예와 관련하여 주로 도시되며 기술되었으나, 방법(800)의 다른 실시예들은 이러한 단계들의 부분집합들(예를 들어, 객체 데이터 수신 및 저장, 객체 데이터 저장 및 전달 등)을 포함할 수 있다는 점이 이해될 것이다.
도 9는 콘텐츠 관리 시스템이 콘텐츠 태깅 및 관리 능력의 다양한 기능들을 제공할 수 있게 하는 방법의 일 실시예를 도시한다.
방법(900)은 902 단계에서 시작한다.
단계 904에서, 다양한 양태의 콘텐츠 태깅 및 관리 기능에 참가할 수 있는 다양한 당사자들, 개체들, 장치들 등의 등록을 가능하게 하기 위한 등록 프로세스가 수행된다.
단계 906에서, 콘텐츠 태깅 및 태깅된 콘텐츠 관리 프로세스가 수행된다. 이것은 태깅된 콘텐츠의 생성에 관한 다양한 특성들 및 태깅된 콘텐츠를 다루는 것과 관련된 특성들의 관리를 가능하게 한다.
단계 908에서, 태깅된 콘텐츠 전달 관리 프로세스가 수행된다.
단계 910에서, 태깅된 콘텐츠 광고 관리 프로세스가 수행된다.
방법(900)은 912 단계에서 종료된다.
방법(900)의 단계들 각각은 지시된 기능(들)을 제공하기 위한 하나 이상의 관련 단계들을 가지는 자체적 메소드(들)/알고리즘(들)로서 구현될 수 있다. 그러한 메소드들/알고리즘들의 단계들은 CMS(155)의 내용에 대한 참조 뿐만 아니라 여기에 도시되며 기술된 도 10-13의 다양한 부분들에 대한 참조를 통해 보다 잘 이해될 것이다.
도 10은 콘텐츠 관리 시스템이 사용자가 태깅된 콘텐츠를 생성할 수 있게 하기 위해 사용자를 등록시킬 수 있는 방법의 일 실시예를 도시한다.
방법(1000)은 1002 단계에서 시작한다.
단계 1004에서, 콘텐츠 관리 시스템은 사용자를 콘텐츠 관리 시스템에 등록시키기 위한 사용자 등록 요청을 수신한다. 사용자 등록 요청은 어떤 적절한 사용자 등록 정보(예를 들어, 이름, 주소, 로그인/패스워드 등)를 포함할 수 있다.
단계 1006에서, 콘텐츠 관리 시스템은 사용자 등록 요청에 응하여 사용자의 사용자 계정을 생성한다. 콘텐츠 관리 시스템은 사용자 등록 정보를 사용자 계정과 연관시킨다. 사용자 계정은 다양한 관리 기능들이 사용자에 의해 혹은 사용자를 대신하여 수행되게 하는 데 사용될 수 있다. 예를 들어 사용자는 사용자가 센서들 및 그 정보를 제어하는 경우 센서들에 대한 허가를 액세스하고 관리할 수 있고, 사용자는 자신에 의해 생성/소유된 태깅된 콘텐츠와 연관된 허가를 액세스 및 관리할 수 있는 등의 행위 뿐만 아니라 이들의 다양한 조합 행위를 수행할 수 있다. 예를 들어 사용자는 자신의 태깅된 콘텐츠의 성과에 대해 자신이 얼마나 많은 크레딧을 받았는지 보기 위해 자신의 보상 계정을 액세스할 수 있다. 사용자는 개설된 사용자 계정을 통해 다양한 다른 양태들을 관리할 수 있다.
단계 1008에서, 콘텐츠 관리 시스템은 객체/센서 스캐너, 또는 사용자의 콘텐츠 캡처 장치를 등록하기 위한 등록 요청(들)을 수신하며, 등록 요청(들)은 등록되는 객체/센서, 스캐너, 또는 콘텐츠 캡처 장치에 대한 등록 정보를 포함한다.
단계 1010에서, 콘텐츠 관리 시스템은 등록 요청(들)의 등록 정보를 사용자의 사용자 계정과 연관시킨다.
사용자 장치 등록 요청은 사용자의 객체/센서를 등록하라는 요청일 수 있다(예를 들어, 사용자가 새 제품을 방금 구매하였고 그 제품이 그 제품을 포함하는 콘텐츠를 캡처할 수 있는 일부 혹은 모든 콘텐츠 캡처 장치들에 의해 캡처될 수 있도록 그 제품에 대한 센서를 활성화하고 싶어하는 것과 같은 경우). 객체/센서의 사용자 계정과의 연관은 사용자가 객체/센서와 연관된 정보, 객체/센서에 대한 허가 레벨 등뿐만 아니라 이들의 다양한 조합을 관리할 수 있게 한다.
사용자 장치 등록 요청은 사용자의 센서 스캐너를 등록하라는 요청일 수 있다. 센서 스캐너의 사용자 계정과의 연관은 사용자가 센서 스캐너가 인터페이싱할 수 있는 센서들의 집합을 관리하는 것과 같은 센서 스캐너와 연관된 허가를 관리할 수 있게 한다.
사용자 장치 등록 요청은 사용자의 콘텐츠 캡처 장치를 등록하라는 요청일 수 있다. 사용자의 콘텐츠 캡처 장치의 사용자 계정과의 연관은 사용자가 콘텐츠 캡처 장치의 다양한 설정을 제어하고, 콘텐츠 캡처 장치 상에 저장되거나 그렇지 않으면 콘텐츠 캡처 장치가 이용 가능한 정보 구조(들)을 관리하는 등뿐만 아니라 이들의 다양한 조합을 수행하는 것과 같이, 다양한 양태의 자동 콘텐츠 태깅을 관리할 수 있게 한다.
그러한 장치 등록 요청들의 조합은 사용자가 자신이 제어하는 객체들을 가지고 제어된 객체들을 포함하는 (자동 태깅될) 콘텐츠를 캡처하기 위한 콘텐츠 캡처 장치를 가지는 경우와 같이, 동일한 사용자로부터 수신될 수 있다는 점이 이해될 것이다.
이러한 유형의 장치 등록 요청들 각각에 대해 등록된 장치들은 사용자가 하나의 중앙 위치로부터 모든 양태의 콘텐츠 태깅 및/또는 태깅된 콘텐츠를 관리할 수 있도록 사용자의 사용자 계정과 연관될 수 있다.
방법(1000)은 1012 단계에서 종료된다.
도 11은 콘텐츠 관리 시스템이 자동 콘텐츠 태깅과 연관된 객체 정보 요청을 처리할 수 있게 하는 방법의 일 실시예를 도시한다.
방법(1100)은 1102 단계에서 시작한다.
단계 1104에서 객체와 연관된 객체 정보에 대한 요청이 수신된다. 그 요청은 캡처된 콘텐츠가 캡처된 콘텐츠 내 객체와 연관된 객체 정보를 포함하는 정보 구조로 태깅되는 프로세스의 일부로서 수신된다. 그 요청은 사용자와 연관되고, 사용자는 그와 관련된 사용자 장치(예를 들어, 캡처된 콘텐츠를 자동으로 태깅하는 콘텐츠 캡처 장치, 캡처된 콘텐츠를 자동 태깅하는 사용자의 컴퓨터, 또는 어떤 다른 적절한 장치)를 가진다.
단계 1106에서, 사용자가 객체와 연관된 객체 정보의 적어도 일부를 액세스하도록 허가되는지 여부에 대한 판단이 이루어진다. 사용자가 객체와 연관된 객체 정보의 적어도 일부를 액세스하도록 허가되지 않는 경우, 방법(1100)은 단계 1110으로 진행하고, 여기서 방법(1100)이 종료된다. 사용자가 객체와 연관된 객체 정보의 적어도 일부를 액세스하도록 허가되는 경우, 방법(1100)은 단계 1110으로 진행하고, 여기서 방법(1108)이 종료된다.
단계 1108에서, 객체와 연관된 객체 정보의 적어도 일부가 사용자의 사용자 장치를 향해 전달된다. 단계 1108로부터 방법(1100)은 단계 1110으로 진행하고 거기서 방법(1100)이 종료된다.
방법(1100)은 (상술한 바와 같이) 1110 단계에서 종료된다.
도 12는 콘텐츠 관리 시스템이 태깅된 콘텐츠를 관리하게 하는 방법의 일 실시예를 도시한다.
방법(1200)은 1202 단계에서 시작한다.
단계 1204에서, 태깅된 콘텐츠의 특징을 수정하라는 요청이 수신된다. 그 특징은 수정될 수 있는 태깅된 콘텐츠의 어떤 특징일 수 있다. 예를 들어 그 특징은 태깅된 콘텐츠와 관련된 허가 레벨(예를 들어, 태깅된 콘텐츠의 허가 레벨, 태깅된 콘텐츠의 하나 이상의 콘텐츠 태그들의 허가 레벨 등)일 수 있다. 예를 들어 그 특징은 태깅된 콘텐츠와 관련된 만기 날짜/시간일 수 있다.
단계 1206에서, 태깅된 콘텐츠와 관련된 특징은 그 특징을 수정하라는 요청 안에 지시도니 특징에 기반하여 수정된다.
방법(1200)은 1208 단계에서 종료된다.
도 13은 콘텐츠 관리 시스템이 내장된 객체 정보 요청을 처리할 수 있게 하는 방법의 일 실시예를 도시한다.
방법(1300)은 1302 단계에서 시작한다.
단계 1304에서, 태깅된 콘텐츠 항목의 콘텐츠 태그의 선택을 나타내는 요청이 수신된다. 콘텐츠 태그의 선택은 사용자 장치를 가지는 사용자와 연관된다. 콘텐츠 태그는 연관된 정보 구조를 가진다.
단계 1306에서, 사용자가 선택된 콘텐츠 태그와 연관된 정보 구조의 적어도 일부를 액세스하도록 허가되는지 여부에 대한 판단이 이루어진다. 사용자가 선택된 콘텐츠 태그와 연관된 정보 구조의 적어도 일부를 액세스하도록 허가되지 않는 경우, 방법(1300)은 단계 1310으로 진행하고, 여기서 방법(1300)이 종료된다. 사용자가 선택된 콘텐츠 태그와 연관된 정보 구조의 적어도 일부를 액세스하도록 허가되는 경우, 방법(1300)은 단계 1308로 진행한다.
단계 1308에서, 사용자가 선택된 콘텐츠 태그와 연관된 정보 구조의 적어도 일부를 액세스하도록 허가된다는 것을 나타내는 응답이 사용자 장치를 향해 전달된다.
예를 들어 선택된 콘텐츠 태그와 연관된 정보 구조가 사용자 장치 상에서 사용 가능한 일 실시예에서, 콘텐츠 관리 시스템은 사용자 장치가 정보 구조를 해독하여 사용자 장치를 통해 객체 정보를 표시할 수 있도록 암호/해독 키를 사용자 장치로 제공할 수 있다.
예를 들어 정보 구조가 콘텐츠 관리 시스템 상에 저장되는 일 실시예에서, 콘텐츠 관리 시스템은 정보 구조를 사용자 장치로 제공하여 사용자 장치가 정보 구조로부터 객체 정보를 추출하고 그 객체 정보를 사용자 장치를 통해 표시할 수 있게 한다.
그러한 실시예들에서, 정보(예를 들어, 암호/해독 키, 정보 구조 등)는 응답의 일부나 응답과 별개로 사용자 장치에 제공될 수 있다.
단계 1308로부터 방법(1300)은 단계 1310으로 진행하고 거기서 방법(1300)이 종료된다.
방법(1300)은 (상술한 바와 같이) 단계 1310에서 종료된다.
여기에 기술된 바와 같이, 콘텐츠 태깅 및 관리 기능은 다양한 비즈니스 모델을 지원하고 다양한 이점을 제공하는 등의 역할을 한다.
콘텐츠 태깅 및 관리 기능은 하나 이상의 기존 비즈니스 모델들을 증강시키고/거나 하나 이상의 새로운 비즈니스 모델들을 이행한다. 여기에 기술된 다양한 실시예들에서, 광고는 회사에 의해 생성된 관련 콘텐츠와 연결된 동등자가 생성한(peer-generated) 콘텐츠를 이용하는 국지적인 것이 되어, 회사에 의해 만들어지는 통상적 캠페인보다 회사에 더 많은 가치를 가지게 할 수 있다.
예를 들어 사용자 생성 콘텐츠는 더 많은 가치를 가질 수 있는데, 이는 사람들이 제품 제공자들에 의한 광고 캠페인에 기초하기 보다 그들의 동등자들(예를 들어, 가족, 친구, 동료 등)로부터의 추천이나 영향에 기초하여 제품을 구매할 가능성이 높기 때문이다.
일예로서, 사용자가 방금 새 텔레비전을 구매하였고 친구를 불러 새 텔레비전으로 어떤 프로그램을 시청하는 것을 가정할 수 있다. 사용자는 텔레비전을 시청하는 자신이나 자신의 친구들의 사진을 찍으며 텔레비전이 그 사진에 나타난다. 텔레비전은 그 안에 내장된 센서를 가진다. 센서는 사용자가 사진을 찍을 때 검출되며, 사진은 텔레비전과 관련된 태그를 가지고 자동으로 태깅된다. 그런 다음, 사용자는 거기 있었던 친구들 뿐만 아니라 다른 친구들에게도 사진을 보낸다. 사진을 수신한 친구들 중 어느 하나가 새 텔레비전에 대해 더 알고 싶어하는 경우, 그는 단순히 사진 안에 내장된 태그를 클릭할 수 있고 텔레비전에 대한 정보(텔레비전의 사양, 텔레비전이 구매될 수 있는 곳 등과 같이 텔레비전 제조자에 의해 제공되는 정보)가 친구들에게 사용가능해 질 수 있다. 즉, 내장된 태그를 포함하는 사진이 그 텔레비전을 구매하도록 사용자의 친구들에게 영향을 미칠 가능성이 (예를 들어, 그 사진이 태그를 포함하지 않은 경우 보다) 더 많다.
예를 들어, 사용자 생성 콘텐츠는 더 많은 가치를 가질 수 있는데, 이는 인기있게 된 사용자 생성 콘텐츠가 제품 제공자들로 하여금 자신들의 제품에 대한 정보가 더 많은 수의 사용자들에게 닿을 수 있게 하면서 비싼 광고 캠페인에 지불하는 것과 다르게 콘텐츠를 생성한 사용자에게만 보상할 수 있게 한다. 여기 기술된 바와 같이, 사용자는 다른 사용자들에 의해 리뷰되도록 콘텐츠 항목을 포스팅한다(예를 들어, 사용자는 콘텐츠 태깅 및 관리 기능을 이용하여 생성된 내장된 콘텐츠 태그들을 포함하는 사진이나 비디오를 포스팅한다). 사용자들이 콘텐츠 항목을 볼 때, 하나 이상의 당사자들이 콘텐츠 항목의 리뷰에 기반하거나, 콘텐츠 항목에 자동 태깅된 정보의 리뷰에 기반하는 등뿐만 아니라 이들의 다양한 조합에 기반하여 보상받을 수 있다. 보상은 어떤 적절한 통계(예를 들어, 보기 횟수, 특이한 보기의 횟수 등)에 기반할 수 있다. 이러한 맥락에서, 콘텐츠 항목 내 제품이 더 많은 보기들 창출할 수록 더 많은 보상이 주어진다. 보상은 어떤 적절한 당사자나 당사자들(예를 들어, 내장된 태그를 포함하는 콘텐츠 항목을 생성한 사용자, 콘텐츠 항목을 포스팅한 사용자, 요청에 응하여 콘텐츠 항목을 주관 및/또는 전달한 서비스 제공자 등뿐만 아니라 이들의 다양한 조합)에게 제공될 수 있다. 보상은 어떤 적절한 당사자(예를 들어, 보상이 제공되는 객체(122)의 제공자)에 의해 제공될 수 있다. 보상은 어떤 적절한 형식(예를 들어, 계좌로 입금되는 돈, 사용자가 보상이 제공되는 객체(122)의 제공자로부터 제품을 구매할 수 있게 하는 전자 쿠폰 및/또는 크레딧, 사용자가 보상이 제공되는 객체(122)의 제공자의 상점들이 아닌 상점들에 대한 전자 쿠폰 및/또는 크레딧 등뿐만 아니라 이들의 다양한 조합)으로 제공될 수 있다. 보상은 어떤 적절한 방식으로(예를 들어, 하나 이상의 제3자들에 의한 연방 시스템(1534)과 같은 연방 시스템 등을 이용하여) 관리될 수 있다.
일예로서, 사용자가 방금 새 텔레비전을 구매하였고 친구를 불러 새 텔레비전으로 어떤 프로그램을 시청하는 상술한 예를 더 고려할 수 있다. 텔레비전을 포함하는 사진들 중 하나는 그 안에 어떤 다른 흥미로운 것들을 가지고 있고 사용자가 그 사진을 온라인 상에 포스팅한다고 더 가정할 수 있다. 그런 다음 그 사진이 더 인기를 얻기 시작하여 점덤 더 많은 사용자들이 그 사진을 보기 시작하게 된다. 사용자들이 사진을 볼 때, 그들 중 일부가 텔레비전 수상기와 관련된 내장 태그를 클릭할 수 있다. 내장된 태그가 선택되는 횟수의 통계가 추적될 수 있고, 그에 의해 그 사진을 찍은 사용자는 내장된 태그가 선택된 횟수에 기반하여 보상 받을 수 있다. 예를 들어 사용자는 텔레비전의 제조자가 내장된 태그가 선택된 횟수에 기반하여 연방 시스템 상의 사용자 계정에 입금할 수 있도록 사진이 연관된 사용자 계정을 유지하는 연방 시스템을 통해 보상될 수 있다.
여기에 도시되며 기술된 콘텐츠 태깅 및 관리 기능의 많은 이점들은 일부 예시적인 사용 예의 시나리오에 대한 참조를 통해 더 이해될 것이다.
제1예에서 그것이 아이의 생일날이라고 가정하자. 아이의 부모가 생일 파티에서 가족과 친구가 함께한 아이의 사진을 찍고, 그 사진들 중 하나의 배경에 텔레비전이 분명하게 보여진다. 카메라는 텔레비전과 연관된 태그와 사진을 자동 태깅한다. 태그는 텔레비전에 대한 정보를 포함한다. 태그는 또한 사진이 찍혔을 때 텔레비전 상에서 재생되던 텔레비전 프로그램의 세부사항(예를 들어, 텔레비전 프로그램에 대한 세부사항, 타임스탬프, 그 텔레비전 프로그램의 웹사이트로의 링크 등뿐만 아니라 이들의 다양한 조합)을 포함한다. 사용자(예를 들어, 파티에 있었던 누군가, 파티에 없었지만 파티에서 무슨 일이 있었는지 감을 잡고 싶은 누군가 등)는 나중에 사진을 보면서 텔레비전과 관련된 정보(예를 들어, 텔레비전, 텔레비전 프로그램 세부사항 등에 대한 정보)를 액세스하기 위해 사진 안의 텔레비전에 붙은 태그를 클릭할 수 있다. 이런 방식으로 사용자들은 사진이 찍혔던 시간에 무슨 일이 일어났는지를 알아낼 수 있다. 마찬가지로, 수년 뒤에 아이들은 그 날 무슨 일이 일어났는지에 대한 상세한 세부사항의 경험을 상기할 수 있을 것이다. 마찬가지로 다양한 다른 세부사항들이 촬영된 다른 사진들 및/또는 비디오들 안에 자동으로 태깅될 수 있다. 예를 들어 그 날 아이에게 주어진 선물들에 대한 세부사항들이 그 날 찍힌 다양한 사진들 및/또는 비디오들 안에 자동 태깅될 수 있다. 이 태그들은 선물 명세서 및 어떤 다른 적절한 정보와 같이 선물과 관련된 어떤 정보를 포함할 수 있다. 태그들은 또한 사용자들이 시간이 지나 이러한 종류의 장난감의 진화된 버전, 경쟁사들로부터 입수 가능한 장난감들의 세부사항 등뿐만 아니라 이들의 다양한 조합을 검색할 수 있도록 되어 있을 수 있다. 마찬가지로 다양한 다른 객체들이 관련 객체 정보(예를 들어, 파티에서 사용된 사이다의 브랜드, 파티에서 아이들이 입은 옷의 브랜드 등)를 액세스하기 위해 사진들 안에 태깅될 수 있다. 이런 방식으로 사용자들은 그 이벤트와 관련된 풍부한 정보에 대한 용이한 액세스를 통해, 어느 시점에나(예를 들어, 며칠 후부터 몇 년 후까지 어느 때에나) 이벤트의 다양한 세부사항들을 상기할 수 있다.
제2예에서 사용자는 미술관을 돌면서 여러 미술 작품의 사진을 찍는다. 미술관에서 각각의 작품은 큐레이터의 감독에 따라 미술관 직원들에 의해 제공되는 연관된 센서를 가진다. 사용자가 각각의 작품에 대한 사진을 찍을 때, 관련 센서가 검출되고, 작품과 관련된 정보가 획득되며, 사진들은 작품에 대한 정보와 함께 자동 태깅된다. 정보는 작가, 작품의 명칭, 미술관에 디스플레이 된 플래카드로부터의 정보 등뿐만 아니라 이들의 다양한 조합과 같은 세부사항들을 포함할 수 있다. 작품의 태그와 연관된 정보는 동일한 작가에 의해 만들어진 다른 작품들의 목록 (및 옵션으로서 그들의 세부사항), 그 작품에 대해 인터넷 상에서 입수 가능한 추가 정보에 대한 링크 등뿐만 아니라 이들의 다양한 조합과 같은 정보를 포함할 수도 있다. 다양한 태그들과 연관된 정보는 사용자(들)이 미술관 안에 배치된 작품들을 감상할 수 있도록 나중에 사용자에 의해, 그리고 옵션으로서 그 미술관의 가상 투어를 할 다른 사용자들에 의해 사용될 수 있는 각각의 작품 근처에 디스플레이된 작품들에 대한 포인터들 역시 포함할 수 있다.
제3예로서 기자가 레드 카펫에 도착한 스타들의 사진 및/또는 비디오를 촬영하기 위해 오스카 상 시상식에 참가한다. 스타들은 센서가 내장된 옷과 보석을 걸친다. 기자가 사진 및/또는 비디오를 찍을 때, 센서들이 검출되고 캡처되는 관련 사진 및/또는 비디오들이 옷과 보석에 대한 정보(예를 들어, 디자이너, 그 제품이 구매될 수 있는 장소 등뿐만 아니라 이들의 다양한 조합)와 함께 자동 태깅된다. 그런 다음 기자가 그 사진 및/또는 비디오들을 포스팅하여 그들이 온라인 상에서 사용자들에게 입수될 수 있게 한다. 사용자들이 사진 및/또는 비디오들을 검색할 때, 사용자는 태그들과 연관된 정보를 액세스하기 위해 내장된 태그들을 선택할 수 있다.
제4예에서 어떤 가족이 휴가 중에 천연 기념물들 사이를 드라이브하여 천연 기념물들을 관광하고 있다. 그 가족은 기념물 사이를 이동하는 중에 사진을 찍을 수 있는 시점에 고속도로 상의 여러 장소들에서 멈출 수 있다. 사진들은 호텔, 식당, 흥미로운 장소 등의 사진들을 포함한다. 각각의 사진이 찍힐 때, 호텔, 식당 및 흥미로운 장소들의 바깥에 부착된 하나 이상의 센서들이 검출되며 관련 사진들은 호텔, 식당, 및 흥미로운 장소들과 각기 연관된 콘텐츠와 자동 태깅된다. 마찬가지로, 각각의 천연 기념물에서 가족은 그 기념물에 대한 사진을 촬영한다. 각각의 사진이 찍힐 때, 그 기념물들 각각에 부착된 하나 이상의 센서들이 검출되며 관련 사진들은 각자의 기념물들과 연관된 콘텐츠와 자동 태깅된다. 그런 다음 가족은 나중에 그 사진들을 볼 수 있고, 자신들이 방문했던 사이트들 자체에서 쉽게 입수되지 못했을 정보를 포함하여 그 다양한 사이트들에 대한 풍부한 정보에 액세스할 수 있을 것이다.
태깅된 콘텐츠의 소셜 미디어 기반 배포와 관련된 제5예에서, 사용자는 자신의 핸드헬드 장치를 통해 자신이 보고 있는 객체에 대한 사진/비디오를 촬영하며, 자신의 소셜 미디어 사이트들 중 하나 이상을 통해 다른 사람들로부터 즉석 리뷰를 원할 수 있다. 사용자는 여기에서 도시 및 기술된 콘텐츠 태깅 및 관리 기능을 이용하여 콘텐츠를 태깅하고 동시에 (예를 들어, URL, 오디오노트, 비디오노트, 또는 어떤 다른 적절한 배포 기능을 통해) 하나 이상의 소셜 미디어 포털로 그 태깅된 콘텐츠를 배포하고 싶어할 수 있다. 이런 방식으로 그러한 소셜 미디어 포털들을 통한 이용과 연관된 사람들(예를 들어, 사용자의 소셜 미디어 친구, 가족, 연락처, 팔로워 등)이 그 매체를 즉각적으로 볼 수 있고, 더 나아가 단순히 태깅된 콘텐츠 안에 내장된 태그를 클릭함으로써 사용자가 그들이 보기를 원하는 것을 즉시 볼 수 있을 것이다. 이것은 그들에게 그들이 사용자 바로 옆에 서 있다는 실제적인 증각 현실 감각을 제공할 것이다. 이것은 또한 그들이 거의 실시간으로 소셜 미디어를 통해 태깅된 콘텐츠에 대한 응답(예를 들어, 그들의 리뷰, 피드백, 선호, 비선호, 경험 등)을 달 수 있게 할 것이다.
상술한 예들은 단지 여기에 도시되며 기술된 콘텐츠 태깅 및 관리 기능이 사용될 수 있는 많은 방식들의 일부 예들일 뿐이다.
주로 콘텐츠 태깅 및 관리 기능이 특정 유형의 콘텐츠(예를 들어, 사진 및 비디오 같은 주로 이미지 기반 콘텐츠)를 자동 태깅하기 위해 사용되는 실시예들과 관련하여 여기에 도시되며 기술되었으나, 콘텐츠 태깅 및 관리 기능은 다른 유형의 콘텐츠(예를 들어, 텍스트 기반 콘텐츠, 오디오 기반 콘텐츠 등) 역시 태깅하는 데 사용될 수 있다는 점이 이해될 것이다.
캡처된 콘텐츠 안의 객체들이 객체들과 연관된 센서들의 검출 및/또는 캡처된 콘텐츠 안의 콘텐츠 객체들의 검출에 기반하여 자동 태깅되는 실시예들과 관련하여 여기에서 주로 도시되며 기술되었으나, 다양한 다른 실시예들에서 콘텐츠 태깅 및 관리 기능의 원리들은 다른 다양한 기능들을 제공하는 데에도 응용될 수 있다.
일 실시예서, 예를 들어 콘텐츠 항목의 콘텐츠들이 객체와 연관된 하나 이상의 태그들을 이용하여 승인될 수 있다. 예를 들어, 애플리케이션, 이력서 등의 콘텐츠들이 그 콘텐츠 항목들과 연관된 하나 이상의 태그들을 아용하여 승인될 수 있다. 예를 들어, 이력서에서 하나 이상의 태그들이 이력서를 만든 사람에 의해 이력서와 연관되어, 그 이력서의 검토자에 의해 그 사람의 학력, 이력서 상에 나열된 그 사람의 소속들, 그 사람에 의해 이력서 상에 나열된 자격증들 등과 같은 것들을 검증하기 위해 사용되게 할 수 있다. 그러한 일 실시예에서, 예를 들어, 위임된 기관이 이력서와 연관된 모든 관련 정보를 빼내어 그 정보를 검증할 수 있다.
일 실시예에서, 예를 들어, 오디오 콘텐츠가 여기에 도시되며 기술된 콘텐츠 태깅 및 관리 기능의 원리들을 이용하여 자동으로 태깅될 수 있다. 일 실시예에서, 예를 들어, 오디오 콘텐츠는 오디오 콘텐츠 내에 포함된 오디오의 특정 부분(예를 들어, 특정 단어, 어구 등)을 식별하기 위해 처리될 수 있다. 이러한 방식의 오디오 콘텐츠 태깅이 다양한 목적으로 이용될 수 있다.
그러한 일 실시예에서, 예를 들어, 콘텐츠 태깅 및 관리 기능의 원리들은 청취자 설정에 기반하여 노래 및 기타 오디오를 맞춤화하는 데 사용될 수 있다. 일 실시예에서, 예를 들어, 노래, 오디오 북, 또는 다른 오디오 콘텐츠가 동일한 부분을 노래하고/말하는 여러 가수/화자와 함께 기록됨으로써, 청취자에게 그가 이용하고 싶어하는 것이 어떤 버전의 오디오 콘텐츠인지를 선택하는 옵션이 제공될 수 있다. 일 실시예에서, 예를 들어, 오디오의 태깅된 부분들은 궁극적으로 사용자를 위해 재생되는 오디오 콘텐츠가 청취자의 설정에 기반하여 선택되도록 선택적으로 대체된다(단어, 어구, 광고 등). 일 실시예에서, 예를 들어, 보는 이에게는 노래, 오디오 북, 또는 다른 오디오 콘텐츠에 대한 복수의 각종 특성들 중 하나 이상을 특정하기 위한 기능이 제공될 수 있다. 일 실시예에서, 예를 들어, 오디오 콘텐츠의 하나 이상의 양태들이 오디오를 들을 청중의 프로파일에 기반하여(예를 들어, 전 가족이 오디오를 듣는 경우 R 등급의 부분 제외, 전체 가족이 오디오를 청취하는 경우 R 등급 부분을 보다 가족 친화적인 콘텐츠로 대체하는 등) (예를 들어, 오디오 콘텐츠의 추가 및/또는 필터링을 통해) 맞춤화된다.
그러한 일 실시예에서, 예를 들어, 콘텐츠 태깅 및 관리 기능의 원리들은 보는 이의 설정에 기반하여 영화를 맞춤화하는 데 사용될 수 있다. 일 실시예에서, 예를 들어, 어떤 영화가 동일한 주인공을 연기한 여러 명의 배우들로 만들어져서, 보는 이에게 자신이 보고 싶은 것이 어느 버전의 영화인지(즉, 어느 주연 배우인지)를 선택하는 옵션이 제공될 수 있다. 일 실시예에서, 예를 들어, 보는 이에 의해 보여지는 영화의 버전 안에 나타나는 객체들이 보는 이의 설정에 기반하여 선택된 객체들이 되도록 영화 안의 객체들이 영화 안의 객체들에 대한 이전의 태깅에 기반하여 영화에 선택적으로 삽입될 수 있다. 일 실시예에서, 예를 들어, 보는 이에게는 영화에 대한 장르를 선택하는 것(예를 들어, 액션 영화, 코미디 영화 등의 영화를 보는 것), 영화의 등급을 선택하는 것(예를 들어, PG 등급 영화, PG-13 등급 영화, 또는 R 등급 영화를 시청하는 것) 등뿐만 아니라 이들의 다양한 조합 중 하나 이상과 같이, 영화에 대한 복수의 서로 다른 특징들 중 하나 이상을 특정하는 기능이 주어질 수 있다. 일 실시예에서, 예를 들어, 영화의 하나 이상의 양태들이 영화를 시청할 대중의 프로파일에 기반하여(예를 들어, 전 가족에 의해 영화가 시청될 경우 R 등급 장면이나 장면의 일부를 제외, 전체 가족에 의해 영화가 시청될 경우 R 등급 장면들이나 장면들의 일부를 보다 가족 친화적인 콘텐츠로 대체하는 등)에 기반하여 (예를 들어, 콘텐츠의 추가 및/또는 필터링을 통해) 맞춤화된다. 그러한 실시예들에서, 영화들은 영화의 장르, 영화의 배우들, 영화의 등급, 영화 안에 포함된 장면들, 영화 안에 포함되고/거나 그로부터 필터링된 장면들이나 장면들의 일부, 영화 안의 객체들 등뿐만 아니라 이들의 다양한 조합 중 하나 이상을 수정하기 위한 프로세싱을 포함하여, 영화를 보는 개인이나 여러 사람들의 설정에 기반하여 고도로 맞춤화될 수 있게 된다.
콘텐츠 태깅 및 관리 기능은 콘텐츠 제공자들 및/또는 서비스 제공자들에게 새로운 특징과 사양을 제공할 수 있다.
일 실시예에서, 예를 들어, 콘텐츠 태깅 및 관리 기능은 콘텐츠 제공자들(예를 들어, 구글, 야후, 마이크로소프트 등) 및 그들의 콘텐츠 공급자들이 콘텐츠를 자동으로 생성할 수 있게 한다. 콘텐츠 태깅 및 관리 기능은 광고업자들이 중앙의 장소에서 제품들에 대해 저장된(예를 들어, 제품들에 대해 특정 URL들에서 저장된) 정보를 단순히 변경함으로써 자신들의 제품들에 대한 광고를 생성, 수정 및 맞춤화할 수 있게 한다.
일 실시예에서, 예를 들어, 콘텐츠 태깅 및 관리 기능은 구글어스, 마이크로소프트 사에서 나온 버추얼 어스 SDVIA 등의 가상 맵 애플리케이션들과 같은 가상 맵 애플리케이션들 안의 부가적 세부사항들의 상주를 가능하게 한다. 예를 들어, 그러한 가상 맵 애플리케이션들의 가상 맵들이 그러한 가상 맵들 안에 묘사된 다양한 객체들의 실제 사진들 및/또는 비디오들(예를 들어, 건물 안의 방들의 사진들 및/또는 비디오들, 점포 안의 상품 통로들, 미술관 안의 작품 등뿐만 아니라 이들의 다양한 조합)을 통해 보충될 수 있다.
일 실시예에서, 예를 들어, 콘텐츠 제공자들 및/또는 서비스 제공자들은 콘텐츠 사이트(들)에서 사용자들로부터 흥미로운 콘텐츠를 주관할 수 있다. 주관된 콘텐츠는 서비스 제공자들을 위한 광고 트래픽을 생성할 것이다. 서비스 제공자들은 콘텐츠 사이트를 방문한 콘텐츠를 보는 이들을 타깃으로 하는 새로운 서비스들과 광고들을 위치시킬 수 있다.
일 실시예에서, 예를 들어, 콘텐츠 제공자들 및/또는 서비스 제공자들은 콘텐츠 제공자들 및/또는 서비스 제공자들을 위해 정의된 자동 콘텐츠 전송/저장 권리 및 수익 메커니즘들에 기반하는 콘텐츠 태깅 및 관리 기능의 다양한 양태들을 용이하게 할 수 있다.
일 실시예에서, 예를 들어, 서비스 제공자들은 콘텐츠가 풍부한 통신 서비스들이 지원될 수 있게 하는 안정적 네트워크 접속을 제공한다. 일 실시예에서, 예를 들어, 서비스 제공자들은 최종 사용자 세션들을 중개하는 일을 담당할 수 있다.
일 실시예에서, 예를 들어, 서비스 제공자들은 자동 태깅된 콘텐츠를 통해 최종 사용자들에게 통신 서비스들을 제공할 수 있다. 그러한 일 실시예에서, 예를 들어, 서비스 제공자들은 전화기에 대한 사진/비디오 안에 내장된 태그를 단순히 클릭함으로써 (사용자가 번호를 알 필요 없이) 사용자가 사진이나 비디오 안의 전화와 관련된 전화 라인을 호출하게 할 수 있다.
콘텐츠 태깅 및 관리 기능은 다양한 다른 새로운 특성 및 사양을 제공할 수 있다. 콘텐츠 태깅 및 관리 기능은 다양한 유형의 센서들의 검출을 통해 자동 태깅된 콘텐츠를 통해 사용자들이 정보를 액세스할 수 있게 하는 증강 현실 원리들에 기반하는 웹2.0 구조를 제공한다. 콘텐츠 태깅 및 관리 기능은 바코드, 보코드, RFID, 모트(motes) 등과 같은 다양한 유형의 센서들과 카메라와 캠코더들 같은 콘텐츠 캡처 장치들의 통합을 지원한다. 콘텐츠 태깅 및 관리 기능은 객체들과 연관되는 그러한 센서들이 다양한 유선 및/또는 무선 인터넷 액세스 가능 장치들로부터 객체들과 연관된 정보에 액세스할 수 있게 하는 정보 및 인터넷 사이트와 자동으로 안전하게 연관될 수 있게 하는 메커니즘을 제공한다. 콘텐츠 태깅 및 관리 기능은 객체 정보(예를 들어, 객체 특성, 광고 정보, 판촉 정보, 안에 묘사된 객체들을 가진 콘텐츠를 소유한 콘텐츠 소유자들에 대한 광고 보상 등)을 관리하기 위해 객체 제공자들/관리자들에 의해 사용될 수 있고, 객체 정보(예를 들어, 콘텐츠 소유자들에 의해 제공된 정보, 태깅된 콘텐츠나 태깅된 콘텐츠의 일부에 대한 액세스를 제어하기 위한 콘텐츠 사용자 허가 등)를 관리하기 위해 콘텐츠 소유자들에 의해 사용되고/거나 어떤 다른 흥미를 가진 당사자들에 의해 사용될 수 있는 하나 이상의 콘텐츠 관리 환경들을 제공한다. 콘텐츠 관리 환경(들)은 하나 이상의 사용자 애플리케이션들, 하나 이상의 애플리케이션 프로그래밍 인터페이스들(APIs), 하나 이상의 콘텐츠 정의 언어들, (예를 들어, 센서 상에 저장되는 객체 정보를 정의/조직하기 위하거나, 캡처된 콘텐츠 안에서 콘텐츠 태그들과 연관될 정보 구조들을 정의/조직하는 등을 위한) 하나 이상의 콘텐츠 에디터들, 하나 이상의 통신 프로토콜들 등뿐만 아니라 이들의 다양한 조합들 가운데 하나 이상을 포함할 수 있다. 콘텐츠 태깅 및 관리 기능은 콘텐츠의 자동 태깅 및 자동 태깅된 콘텐츠의 액세스를 지원하기 위해 전 세계에 걸친 네트워크 운영자들 및/또는 통신 제공자들에 의해 사용될 수 있는 온전한 애플리케이션 프레임워크를 제공한다. 콘텐츠 태깅 및 관리 기능은 객체 제공자/관리자들, 자동 태깅된 콘텐츠에 대한 액세스를 제어하는 사용자들, 및/또는 어떤 다른 관심있는 당사자들에 의해 관리될 수 있는 계층구조적 보안 정책들을 제공한다. 콘텐츠 태깅 및 관리 기능은 다양한 다른 사양 및 이점을 제공한다.
객체(122)가 오직 한 센서(124)에만 연관된 다양한 실시예들과 관련하여 주로 도시되며 기술되었으나, 다양한 다른 실시예들에서 객체(122)는 여러 개의 센서들(124)(여기에서 객체(122)의 센서 집합이라 일컬을 수 있음)과 연관될 수 있다. 그러한 실시예들에서, 여러 센서들(124)은 하나 이상의 이유로 객체(122)와 연관될 수 있다. 일 실시예에서, 예를 들어, 여러 센서들(124)은 객체의 경계에 대한 식별을 가능하게 하기 위해(예를 들어, 객체(22)의 치수를 판단하는 데 사용, 객체의 모양을 판단하는 사용 하는 등과 같은 것뿐만 아니라 이들의 다양한 조합의 용도를 위해) 객체(122)와 연관될 수 있다. 일 실시예에서, 예를 들어 여러 센서들(124)은 센서들(124)이 가시적일 수 있게 하며 그에 의해 콘텐츠 캡처 중에 객체(122)가 캡처될 수 있게 하는 다양한 각도들로부터 검출될 수 있게 하기 위해 객체(122)와 연관될 수 있다. 일 실시예에서, 예를 들어, 여러 센서들(124)은 객체(122)의 객체 정보 액세스에 관한 여러 수준의 허가를 지원할 수 있도록(예를 들어, 여러 센서들(124)이 관련된 여러 액세스 허가 수준을 가질 경우) 객체(122)와 연관될 수 있다. 주어진 객체(122)에 대한 여러 센서들(124)의 사용은 다양한 다른 목적으로 활용될 수 있다.
하나의 객체만이 캡처 콘텐츠 안에 자동 태깅되는 실시예들과 관련하여 여기에서 주로 도시되며 기술되었지만, 임의의 개수의 객체들이 캡처된 콘텐츠 안에 태깅될 수 있다는 점이 이해될 것이다.
네트워크들의 특정 유형, 개수, 및 구성, 프로토콜, 시스템, 장치, 센서, 객체 등의 사용과 관련해서 여기에서 주로 도시되며 기술되었으나, 여기 도시 및 기술된 자동 콘텐츠 태깅 및/또는 태깅된 콘텐츠 관리 기능들의 다양한 기능들을 제공하기 위해 네트어크들의 다른 유형, 개수, 및 구성, 프로토콜, 시스템, 장치, 센서, 객체 등이 사용될 수 있다는 점이 이해될 것이다.
도 14는 본 명세서에 기술된 기능들을 수행하는데 사용하기 적합한 컴퓨터의 고차 블록도를 도시한다. 도 14에 도시된 바와 같이, 컴퓨터(1400)는 프로세서 요소(1402)(예를 들어, 중앙 처리 유닛(CPU), 둘 이상의 코프로세서, 및/또는 다른 적절한 프로세서(들)), 메모리(1404)(예를 들어, 랜덤 액세스 메모리(RAM), 읽기 전용 메모리(ROM) 등), 감축 협력 모듈/프로세스(1405), 및 다양한 입출력 디바이스들(1406)(예를 들어, 사용자 입력 디바이스(키보드, 키패드, 마우스 등과 같은 것), 사용자 출력 디바이스(디스플레이, 스피커 등과 같은 것), 입력 포트, 출력 포트, 수신기, 송신기, 및 저장 디바이스들(예를 들어, 테이프 드라이브, 플로피 드라이브, 하드 디스크 드라이브, 컴팩트 디스크 드라이브 등)를 포함한다.
여기 묘사되고 기술된 기능들은 예를 들어 범용 컴퓨터, 하나 이상의 ASIC(application specific integraged circuit) 및/또는 어떤 다른 하드웨어 균등물들을 이용해 소프트웨어 및/또는 소프트웨어 및 하드웨어의 조합으로 구현될 수 있다는 점이 이해될 것이다. 일 실시예에서, 협력 프로세스(1405)는 위에서 논의된 기능들을 구현하기 위해 메모리(1404) 안에 로딩되고 프로세스에 의해 실행될 수 있다. 이와 같이, 협력 프로세스(1405)(관련 데이터 구조들을 포함)는 컴퓨터 판독가능 저장 매체, 예를 들어 RAM 메모리, 마그네틱 또는 옵티컬 드라이브나 디스켓 등에 저장될 수 있다.
여기서 소프트웨어 방법들로서 논의된 단계들 중 일부는 하드웨어 안에서, 이를테면, 다양한 방법의 단계들을 수행하기 위해 프로세서와 공동 작업하는 회로부로서 구현될 수 있다는 것이 고려된다. 여기 기술된 기능들/요소들의 일부는 컴퓨터 명령어들이 컴퓨터에 의해 처리될 때, 여기 기술된 방법들 및/또는 기법들이 유발되거나 제공되도록 컴퓨터의 동작을 적응시키는 컴퓨터 프로그램 제품으로서 구현될 수 있다. 본 발명의 방법들을 이끌어내는 명령어들은 고정되거나 탈부착 가능한 매체에 저장되거나, 방송이나 다른 신호 보유 매체에서 데이터 스트림을 통해 전송되거나, 명령어들에 따라 동작하는 컴퓨팅 장치 내 메모리 안에 저장될 수 있다.
다양한 실시예들의 양태들이 청구범위에 특정된다. 다양한 실시예들의 그러한 그리고 다른 양태들이 아래에 번호가 표시된 조항들에 특정된다.
1. 객체를 포함하는 콘텐츠를 캡처하도록 구성된 콘텐츠 캡처 메커니즘과,
콘텐츠 내에 포함된 객체와 정보 구조를 자동으로 연관시켜 태깅된 콘텐츠를 형성하도록 구성된 프로세서를 포함하는 장치.
2. 제1조항에 있어서, 콘텐츠 캡처 메커니즘은 객체와 연관된 센서로부터 객체와 연관된 객체 데이터를 검출하도록 더 구성되는 장치.
3. 제1조항에 있어서, 콘텐츠 캡처 메커니즘은 제1콘텐츠 캡처 메커니즘이며, 장치는
객체와 연관된 센서로부터 객체와 연관된 객체 데이터를 검출하도록 구성된 제2콘텐츠 캡처 메커니즘을 더 포함하는 장치.
4. 제3조항에 있어서, 콘텐츠 캡처 메커니즘은 제1콘텐츠 캡처 메커니즘이며, 장치는
객체와 연관된 다른 콘텐츠를 검출하도록 구성된 제2콘텐츠 캡처 메커니즘을 더 포함하는 장치.
5. 제1조항에 있어서,
객체와 연관된 센서로부터 객체와 연관된 객체 데이터를 수신하도록 구성된 통신 인터페이스를 더 포함하는 장치.
6. 제1조항에 있어서,
원격 장치로부터 객체와 연관된 객체 데이터를 수신하도록 구성된 무선 통신 인터페이스를 더 포함하는 장치.
7. 제1조항에 있어서,
캡처된 콘텐츠, 정보 구조, 및 태깅된 콘텐츠 중 적어도 하나를 저장하도록 구성된 적어도 하나의 저장 모듈을 더 포함하는 장치.
8. 제1조항에 있어서,
원격 장치를 향해 태깅된 콘텐츠를 전달하도록 구성된 통신 인터페이스를 더 포함하는 장치.
9. 제1조항에 있어서,
프로세서는
콘텐츠 내에 포함된 객체와 콘텐츠 태그를 연관시키며, 콘텐츠 태그의 선택이 정보 구조에 대한 액세스를 가능하게 하도록 콘텐츠 태그와 정보 구조를 연관시키는 것, 또는
콘텐츠 태그와 정보 구조를 연관시키며, 콘텐츠 태그의 선택이 정보 구조에 대한 액세스를 가능하게 하도록 콘텐츠 내에 포함된 객체와 콘텐츠 태그를 연관시키는 것 중 하나에 의해 콘텐츠 내에 포함된 객체와 정보 구조를 자동으로 연관시켜 태깅된 콘텐츠를 형성하도록 구성되는 장치.
10. 제9조항에 있어서,
프로세서는 콘텐츠 안의 객체의 위치를 판단하는 것과
판단된 위치를 이용하여 콘텐츠 내에 포함된 객체와 콘텐츠 태그를 연관시키는 것에 의해 콘텐츠 내에 포함된 객체와 콘텐츠 태그를 연관시키도록 구성되는 장치.
11. 제10조항에 있어서,
프로세서는,
객체와 연관된 적어도 하나의 센서로부터 위치 정보를 수신하는 것과,
위치 정보를 이용하여 콘텐츠 안의 객체의 위치를 판단하는 것에 의해 콘텐츠 안의 객체의 위치를 판단하도록 구성되는 장치.
12. 제1조항에 있어서,
프로세서는
객체와 연관된 객체 정보를 수신하며 정보 구조에 객체 정보의 적어도 한 부분을 상주시키는 것에 의해, 콘텐츠 내에 포함된 객체와 정보 구조를 자동으로 연관시켜 태깅된 콘텐츠를 형성하도록 구성되는 장치.
13. 제1조항에 있어서,
프로세서는 객체와 연관된 객체 데이터를 수신하도록 구성되는 장치.
14. 제13조항에 있어서,
객체 데이터는,
객체와 연관된 객체 정보와,
객체와 연관된 객체 정보가 검색될 수 있는 적어도 하나의 네트워크 어드레스 중 적어도 하나를 포함하는 장치.
15. 제1조항에 있어서,
정보 구조는 객체와 연관된 객체 정보를 안전하게 저장하도록 구성되는 장치.
16. 제1항에 있어서,
콘텐츠는 텍스트, 오디오, 및 비디오 중 적어도 하나를 포함하는 장치.
17. 제1조항에 있어서,
장치는 카메라 또는 비디오 레코더인 장치.
18. 콘텐츠 캡처 메커니즘에 의해 캡처되는 콘텐츠를 수신하되, 콘텐츠는 객체를 포함하고,
객체와 연관된 센서가 검출될 때 객체와 연관된 객체 정보를 수신하며,
정보 구조를 콘텐츠 내에 포함된 객체와 자동으로 연관시켜 태깅된 콘텐츠를 형성하되, 정보 구조는 객체와 연관된 객체 정보의 적어도 일부를 포함하도록 구성된 프로세서를 포함하는 장치.
19. 콘텐츠를 자동으로 태깅하기 위해 사용자 장치를 이용하기 위한 방법으로서,
사용자 장치에서 객체를 포함하는 콘텐츠를 캡처하는 단계와,
사용자 장치에서 객체와 연관된 센서가 검출될 때 객체와 연관된 객체 정보를 수신하는 단계와,
사용자 장치에서, 정보 구조를 콘텐츠 내에 포함된 객체와 자동으로 연관시켜 그에 따라 태깅된 콘텐츠를 형성하되, 정보 구조는 객체와 연관된 객체 정보의 적어도 일부를 포함하는 단계를 포함하는 방법.
20. 객체를 포함하는 콘텐츠를 캡처하도록 구성된 콘텐츠 캡처 메커니즘과,
객체와 연관된 센서가 검출될 때 객체와 연관된 정보를 수신하도록 구성된 통신 인터페이스를 포함하는 장치.
본 발명의 교시들을 포함하는 다양한 실시예들이 여기에서 상세히 도시되며 기술되었지만, 당업자는 여전히 이 교시들을 포함하는 다른 많은 변형된 실시예들을 쉽게 고안할 수 있을 것이다.

Claims (10)

  1. 객체를 포함하는 콘텐츠를 캡처하도록 구성된 콘텐츠 캡처 메커니즘과,
    정보 구조를 상기 콘텐츠 내에 포함된 상기 객체와 자동으로 연관시켜 태깅된 콘텐츠를 형성하도록 구성된 프로세서를 포함하는
    장치.
  2. 제1항에 있어서,
    상기 콘텐츠 캡처 메커니즘은 상기 객체와 연관된 센서로부터 상기 객체와 연관된 객체 데이터를 검출하도록 더 구성되는
    장치.
  3. 제1항에 있어서,
    상기 콘텐츠 캡처 메커니즘은 제1콘텐츠 캡처 메커니즘이며, 상기 장치는,
    상기 객체와 연관된 센서로부터 상기 객체와 연관된 객체 데이터를 검출하도록 구성된 제2콘텐츠 캡처 메커니즘을 더 포함하는
    장치.
  4. 제3항에 있어서,
    상기 콘텐츠 캡처 메커니즘은 제1콘텐츠 캡처 메커니즘이며, 상기 장치는,
    상기 객체와 연관된 다른 콘텐츠를 검출하도록 구성된 제2콘텐츠 캡처 메커니즘을 더 포함하는
    장치.
  5. 제1항에 있어서,
    상기 객체와 연관된 센서로부터 상기 객체와 연관된 객체 데이터를 수신하도록 구성된 통신 인터페이스를 더 포함하는
    장치.
  6. 제1항에 있어서,
    원격 장치로부터 상기 객체와 연관된 객체 데이터를 수신하도록 구성된 무선 통신 인터페이스를 더 포함하는
    장치.
  7. 제1항에 있어서,
    상기 프로세서는,
    콘텐츠 태그를 상기 콘텐츠 내에 포함된 상기 객체와 연관시키며, 상기 콘텐츠 태그의 선택이 상기 정보 구조에 대한 액세스를 가능하게 하도록 상기 정보 구조를 상기 콘텐츠 태그와 연관시키는 것, 또는
    상기 정보 구조를 콘텐츠 태그와 연관시키며, 상기 콘텐츠 태그의 선택이 상기 정보 구조에 대한 액세스를 가능하게 하도록 상기 콘텐츠 태그를 상기 콘텐츠 내에 포함된 상기 객체와 연관시키는 것 중 하나에 의해 상기 정보 구조를 상기 콘텐츠 내에 포함된 상기 객체와 자동으로 연관시켜 태깅된 콘텐츠를 형성하도록 구성되는
    장치.
  8. 제1항에 있어서,
    상기 프로세서는
    상기 객체와 연관된 객체 정보를 수신하며 상기 정보 구조에 상기 객체 정보의 적어도 일부를 상주시킴으로써, 상기 정보 구조를 상기 콘텐츠 내에 포함된 상기 객체와 자동으로 연관시켜 태깅된 콘텐츠를 형성하도록 구성되는
    장치.
  9. 제1항에 있어서,
    상기 프로세서는 상기 객체와 연관된 객체 데이터를 수신하도록 구성되며, 상기 객체 데이터는,
    상기 객체와 연관된 객체 정보와,
    상기 객체와 연관된 객체 정보가 검색될 수 있도록 하는 적어도 하나의 네트워크 어드레스 중 적어도 하나를 포함하는
    장치.
  10. 콘텐츠를 자동으로 태깅하기 위해 사용자 장치를 이용하기 위한 방법으로서,
    상기 사용자 장치에서, 객체를 포함하는 콘텐츠를 캡처하는 단계와,
    상기 사용자 장치에서, 상기 객체와 연관된 센서가 검출될 때 상기 객체와 연관된 객체 정보를 수신하는 단계와,
    상기 사용자 장치에서, 정보 구조를 상기 콘텐츠 내에 포함된 상기 객체와 자동으로 연관시켜 태깅된 콘텐츠를 형성하는 단계를 포함하되,
    상기 정보 구조는 상기 객체와 연관된 상기 객체 정보의 적어도 일부를 포함하는
    방법.
KR1020137006495A 2010-09-16 2011-09-12 콘텐츠를 자동으로 태깅하기 위한 콘텐츠 캡처 장치 및 방법 KR101432457B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/883,335 US8533192B2 (en) 2010-09-16 2010-09-16 Content capture device and methods for automatically tagging content
US12/883,335 2010-09-16
PCT/US2011/051154 WO2012037001A2 (en) 2010-09-16 2011-09-12 Content capture device and methods for automatically tagging content

Publications (2)

Publication Number Publication Date
KR20130060299A true KR20130060299A (ko) 2013-06-07
KR101432457B1 KR101432457B1 (ko) 2014-09-22

Family

ID=44658880

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137006495A KR101432457B1 (ko) 2010-09-16 2011-09-12 콘텐츠를 자동으로 태깅하기 위한 콘텐츠 캡처 장치 및 방법

Country Status (7)

Country Link
US (1) US8533192B2 (ko)
EP (1) EP2617190B1 (ko)
JP (1) JP2013544383A (ko)
KR (1) KR101432457B1 (ko)
CN (1) CN103190146A (ko)
TW (1) TW201227355A (ko)
WO (1) WO2012037001A2 (ko)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101453824B1 (ko) * 2013-10-16 2014-10-23 한양대학교 에리카산학협력단 탐색바 로딩모듈을 갖는 스마트 디스플레이
KR101519035B1 (ko) * 2013-10-16 2015-05-20 한양대학교 에리카산학협력단 아이콘 로딩부를 갖는 스마트 디스플레이
KR20160032937A (ko) * 2014-09-17 2016-03-25 삼성전자주식회사 영상 재생 장치에 의해 캡쳐된 이미지에 관련된 연관 정보를 휴대용 디바이스에게 제공하는 방법 및 시스템
KR20160052316A (ko) * 2014-11-04 2016-05-12 한국전자통신연구원 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 장치 및 방법
US9762934B2 (en) 2014-11-04 2017-09-12 Electronics And Telecommunications Research Institute Apparatus and method for verifying broadcast content object identification based on web data
WO2018125764A1 (en) * 2016-12-30 2018-07-05 Facebook, Inc. Systems and methods for providing augmented reality effects and three-dimensional mapping associated with interior spaces
US11210854B2 (en) 2016-12-30 2021-12-28 Facebook, Inc. Systems and methods for providing augmented reality personalized content
WO2022035193A1 (ko) * 2020-08-11 2022-02-17 삼성전자 주식회사 컨텐트와 연관된 텍스트를 제공하기 위한 전자 장치 및 그 동작 방법

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8180891B1 (en) 2008-11-26 2012-05-15 Free Stream Media Corp. Discovery, access control, and communication with networked services from within a security sandbox
US10977693B2 (en) 2008-11-26 2021-04-13 Free Stream Media Corp. Association of content identifier of audio-visual data with additional data through capture infrastructure
US9519772B2 (en) 2008-11-26 2016-12-13 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US9154942B2 (en) 2008-11-26 2015-10-06 Free Stream Media Corp. Zero configuration communication between a browser and a networked media device
US9026668B2 (en) 2012-05-26 2015-05-05 Free Stream Media Corp. Real-time and retargeted advertising on multiple screens of a user watching television
US10334324B2 (en) 2008-11-26 2019-06-25 Free Stream Media Corp. Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device
US10631068B2 (en) 2008-11-26 2020-04-21 Free Stream Media Corp. Content exposure attribution based on renderings of related content across multiple devices
US9961388B2 (en) 2008-11-26 2018-05-01 David Harrison Exposure of public internet protocol addresses in an advertising exchange server to improve relevancy of advertisements
US10567823B2 (en) 2008-11-26 2020-02-18 Free Stream Media Corp. Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device
US9986279B2 (en) 2008-11-26 2018-05-29 Free Stream Media Corp. Discovery, access control, and communication with networked services
US9386356B2 (en) 2008-11-26 2016-07-05 Free Stream Media Corp. Targeting with television audience data across multiple screens
US10419541B2 (en) 2008-11-26 2019-09-17 Free Stream Media Corp. Remotely control devices over a network without authentication or registration
US10880340B2 (en) 2008-11-26 2020-12-29 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
WO2011119167A2 (en) * 2010-03-26 2011-09-29 Hewlett-Packard Development Company, L.P. Associated file
US8666978B2 (en) 2010-09-16 2014-03-04 Alcatel Lucent Method and apparatus for managing content tagging and tagged content
US8655881B2 (en) 2010-09-16 2014-02-18 Alcatel Lucent Method and apparatus for automatically tagging content
US9135358B2 (en) 2010-10-20 2015-09-15 Microsoft Technology Licensing, Llc Result types for conditional data display
US8504910B2 (en) * 2011-01-07 2013-08-06 Facebook, Inc. Mapping a third-party web page to an object in a social networking system
US8904517B2 (en) 2011-06-28 2014-12-02 International Business Machines Corporation System and method for contexually interpreting image sequences
US9836548B2 (en) 2012-08-31 2017-12-05 Blackberry Limited Migration of tags across entities in management of personal electronically encoded items
KR101402570B1 (ko) 2012-11-14 2014-06-02 임현진 사물 기반의 컨텐츠 제공 장치 및 방법
US9031953B2 (en) * 2012-11-19 2015-05-12 Realnetworks, Inc. Method and system to curate media collections
US20150121246A1 (en) * 2013-10-25 2015-04-30 The Charles Stark Draper Laboratory, Inc. Systems and methods for detecting user engagement in context using physiological and behavioral measurement
US10070315B2 (en) * 2013-11-26 2018-09-04 At&T Intellectual Property I, L.P. Security management on a mobile device
US9953062B2 (en) 2014-08-18 2018-04-24 Lexisnexis, A Division Of Reed Elsevier Inc. Systems and methods for providing for display hierarchical views of content organization nodes associated with captured content and for determining organizational identifiers for captured content
US9792957B2 (en) 2014-10-08 2017-10-17 JBF Interlude 2009 LTD Systems and methods for dynamic video bookmarking
CN104467893A (zh) * 2014-12-29 2015-03-25 重庆甲虫网络科技有限公司 一种增强现实无线通信模块
US20160260254A1 (en) * 2015-03-02 2016-09-08 Calay Venture S.à r.l. Rendering digital content based on trigger information
US9910840B2 (en) 2015-04-03 2018-03-06 Microsoft Technology Licensing, Llc Annotating notes from passive recording with categories
CN104899808A (zh) * 2015-06-25 2015-09-09 盐城金意光电科技有限公司 一种适用于儿童启蒙教育的系统及方法
WO2017020115A1 (en) 2015-08-05 2017-02-09 Eski Inc. Methods and apparatus for communicating with a receiving unit
US9813857B2 (en) 2015-08-13 2017-11-07 Eski Inc. Methods and apparatus for creating an individualized record of an event
US10460765B2 (en) 2015-08-26 2019-10-29 JBF Interlude 2009 LTD Systems and methods for adaptive and responsive video
JP6600203B2 (ja) * 2015-09-15 2019-10-30 キヤノン株式会社 情報処理装置、情報処理方法、コンテンツ管理システム、およびプログラム
JP2018536212A (ja) * 2015-09-16 2018-12-06 エスキー インコーポレイテッドESKI Inc. 情報捕捉および提示のための方法および装置
CN106549879B (zh) * 2015-09-22 2021-07-27 同方威视技术股份有限公司 可自动关联采集数据的处理方法、处理装置及其检测系统
US10187687B2 (en) * 2015-11-06 2019-01-22 Rovi Guides, Inc. Systems and methods for creating rated and curated spectator feeds
US10665071B2 (en) 2016-03-22 2020-05-26 Sensormatic Electronics, LLC System and method for deadzone detection in surveillance camera network
US11601583B2 (en) 2016-03-22 2023-03-07 Johnson Controls Tyco IP Holdings LLP System and method for controlling surveillance cameras
US10764539B2 (en) 2016-03-22 2020-09-01 Sensormatic Electronics, LLC System and method for using mobile device of zone and correlated motion detection
US9965680B2 (en) * 2016-03-22 2018-05-08 Sensormatic Electronics, LLC Method and system for conveying data from monitored scene via surveillance cameras
US10192414B2 (en) 2016-03-22 2019-01-29 Sensormatic Electronics, LLC System and method for overlap detection in surveillance camera network
US10347102B2 (en) 2016-03-22 2019-07-09 Sensormatic Electronics, LLC Method and system for surveillance camera arbitration of uplink consumption
US10318836B2 (en) 2016-03-22 2019-06-11 Sensormatic Electronics, LLC System and method for designating surveillance camera regions of interest
US10475315B2 (en) 2016-03-22 2019-11-12 Sensormatic Electronics, LLC System and method for configuring surveillance cameras using mobile computing devices
US10733231B2 (en) 2016-03-22 2020-08-04 Sensormatic Electronics, LLC Method and system for modeling image of interest to users
US11216847B2 (en) 2016-03-22 2022-01-04 Sensormatic Electronics, LLC System and method for retail customer tracking in surveillance camera network
US9788152B1 (en) 2016-04-01 2017-10-10 Eski Inc. Proximity-based configuration of a device
US11856271B2 (en) 2016-04-12 2023-12-26 JBF Interlude 2009 LTD Symbiotic interactive video
CN106991108A (zh) * 2016-09-27 2017-07-28 阿里巴巴集团控股有限公司 一种信息的推送方法及装置
US11050809B2 (en) 2016-12-30 2021-06-29 JBF Interlude 2009 LTD Systems and methods for dynamic weighting of branched video paths
JP6463826B1 (ja) * 2017-11-27 2019-02-06 株式会社ドワンゴ 動画配信サーバ、動画配信方法及び動画配信プログラム
US10257578B1 (en) 2018-01-05 2019-04-09 JBF Interlude 2009 LTD Dynamic library display for interactive videos
US20190253751A1 (en) * 2018-02-13 2019-08-15 Perfect Corp. Systems and Methods for Providing Product Information During a Live Broadcast
GB2572786B (en) * 2018-04-10 2022-03-09 Advanced Risc Mach Ltd Image processing for augmented reality
US11023093B2 (en) 2018-05-30 2021-06-01 Microsoft Technology Licensing, Llc Human-computer interface for computationally efficient placement and sizing of virtual objects in a three-dimensional representation of a real-world environment
US11601721B2 (en) * 2018-06-04 2023-03-07 JBF Interlude 2009 LTD Interactive video dynamic adaptation and user profiling
US11336968B2 (en) 2018-08-17 2022-05-17 Samsung Electronics Co., Ltd. Method and device for generating content
US10963128B1 (en) * 2018-09-06 2021-03-30 Facebook, Inc. Systems and methods for capturing content
CN109445313A (zh) * 2018-12-12 2019-03-08 仲恺农业工程学院 任务驱动的动态自适应环境感知移动机器人及系统、方法
US11080941B2 (en) * 2018-12-20 2021-08-03 Microsoft Technology Licensing, Llc Intelligent management of content related to objects displayed within communication sessions
CN109902523A (zh) * 2019-01-17 2019-06-18 平安科技(深圳)有限公司 基于二维码的定位方法及装置、存储介质、计算机设备
US11589094B2 (en) * 2019-07-22 2023-02-21 At&T Intellectual Property I, L.P. System and method for recommending media content based on actual viewers
CN111625790A (zh) * 2020-04-07 2020-09-04 青岛奥利普自动化控制系统有限公司 一种基于mes系统的电子签名方法及设备
US11503090B2 (en) 2020-11-30 2022-11-15 At&T Intellectual Property I, L.P. Remote audience feedback mechanism
US11882337B2 (en) 2021-05-28 2024-01-23 JBF Interlude 2009 LTD Automated platform for generating interactive videos
US11934477B2 (en) 2021-09-24 2024-03-19 JBF Interlude 2009 LTD Video player integration within websites

Family Cites Families (103)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6037936A (en) 1993-09-10 2000-03-14 Criticom Corp. Computer vision system with a graphic user interface and remote camera control
US5850352A (en) 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
JP3467136B2 (ja) * 1995-11-07 2003-11-17 富士重工業株式会社 自律走行車の走行制御装置
JP3558104B2 (ja) 1996-08-05 2004-08-25 ソニー株式会社 3次元仮想物体表示装置および方法
JP3274393B2 (ja) 1997-09-22 2002-04-15 株式会社ディジタル・ビジョン・ラボラトリーズ ネットワークシステム、データ配信方法、および、配信用データが記録されたコンピュータ読み取り可能な記録媒体
US6070167A (en) * 1997-09-29 2000-05-30 Sharp Laboratories Of America, Inc. Hierarchical method and system for object-based audiovisual descriptive tagging of images for information retrieval, editing, and manipulation
JP2000194726A (ja) 1998-10-19 2000-07-14 Sony Corp 情報処理装置及び方法、情報処理システム並びに提供媒体
US6880755B2 (en) 1999-12-06 2005-04-19 Xerox Coporation Method and apparatus for display of spatially registered information using embedded data
US6678425B1 (en) 1999-12-06 2004-01-13 Xerox Corporation Method and apparatus for decoding angular orientation of lattice codes
WO2001050349A1 (en) 1999-12-30 2001-07-12 Rutgers, The State University Of New Jersey Electronic document customization and transformation utilizing user feedback
US20020087496A1 (en) 2000-04-05 2002-07-04 Stirpe Paul A. System, method and applications for knowledge commerce
JP4701479B2 (ja) 2000-07-05 2011-06-15 ソニー株式会社 リンク情報表示装置及びその表示方法
US7016532B2 (en) 2000-11-06 2006-03-21 Evryx Technologies Image capture and identification system and process
US6629104B1 (en) 2000-11-22 2003-09-30 Eastman Kodak Company Method for adding personalized metadata to a collection of digital images
US7290061B2 (en) * 2000-12-05 2007-10-30 Citrix Systems, Inc. System and method for internet content collaboration
JP4694701B2 (ja) * 2001-01-15 2011-06-08 繁 安藤 情報検索方法、情報検索装置およびロボットの動作制御装置
US8095597B2 (en) 2001-05-01 2012-01-10 Aol Inc. Method and system of automating data capture from electronic correspondence
GB2375866B (en) 2001-05-25 2005-02-09 At & T Lab Cambridge Ltd User interface systems
JP4083684B2 (ja) 2002-01-23 2008-04-30 道彦 庄司 画像処理システムおよび画像処理装置
JP2004199496A (ja) 2002-12-19 2004-07-15 Sony Corp 情報処理装置および方法、並びにプログラム
US7102509B1 (en) * 2003-01-11 2006-09-05 Global Tel★Link Corporation Computer interface system for tracking of radio frequency identification tags
US7063260B2 (en) 2003-03-04 2006-06-20 Lightsmyth Technologies Inc Spectrally-encoded labeling and reading
US20040199604A1 (en) 2003-04-04 2004-10-07 Dobbins Kurt A. Method and system for tagging content for preferred transport
GB2403363A (en) * 2003-06-25 2004-12-29 Hewlett Packard Development Co Tags for automated image processing
US20050001920A1 (en) * 2003-07-02 2005-01-06 Endler Sean Christopher Methods and apparatuses for managing and presenting content through a spherical display device
JP2005184742A (ja) * 2003-12-24 2005-07-07 Casio Comput Co Ltd 画像撮影装置及びプログラム
US20050208930A1 (en) 2004-03-05 2005-09-22 Robert Zmrzli Method and apparatus for arranging network content on mobile devices
US20060081714A1 (en) * 2004-08-23 2006-04-20 King Martin T Portable scanning device
US20060080702A1 (en) * 2004-05-20 2006-04-13 Turner Broadcasting System, Inc. Systems and methods for delivering content over a network
US7154395B2 (en) 2004-07-01 2006-12-26 Mitsubishi Electric Research Laboratories, Inc. Interactive wireless tag location and identification system
JP4642757B2 (ja) 2004-07-23 2011-03-02 パナソニック株式会社 画像処理装置および画像処理方法
JP4533897B2 (ja) * 2004-09-01 2010-09-01 パイオニア株式会社 処理制御装置、そのプログラム、および、そのプログラムを記録した記録媒体
US9384619B2 (en) * 2006-07-31 2016-07-05 Ricoh Co., Ltd. Searching media content for objects specified using identifiers
US7990412B2 (en) 2004-11-01 2011-08-02 Hewlett-Packard Development Company, L.P. Systems and methods for correcting image perspective
EP1842369B1 (en) 2005-01-12 2020-04-08 Invidi Technologies Corporation Targeted impression model for broadcast network asset delivery
US20060286536A1 (en) 2005-04-01 2006-12-21 Sherman Mohler System and method for regulating use of content and content styles in a distributed learning system
JP4738870B2 (ja) 2005-04-08 2011-08-03 キヤノン株式会社 情報処理方法、情報処理装置および遠隔複合現実感共有装置
CN101517997A (zh) 2005-07-13 2009-08-26 格莱珀技术集团公司 为使用sms通信提供移动设备服务的系统和方法
US20070043852A1 (en) * 2005-08-16 2007-02-22 Cim Ltd. System and method of HTML transaction logging in a web based (HTTP) customer contact center
JP2007081594A (ja) * 2005-09-13 2007-03-29 Sony Corp 撮像装置、記録方法
JP5016610B2 (ja) * 2005-12-21 2012-09-05 ディジマーク コーポレイション ルール駆動パンidメタデータルーティングシステム及びネットワーク
KR100641791B1 (ko) * 2006-02-14 2006-11-02 (주)올라웍스 디지털 데이터에 대한 태깅 방법 및 시스템
WO2007115224A2 (en) * 2006-03-30 2007-10-11 Sri International Method and apparatus for annotating media streams
US7610255B2 (en) 2006-03-31 2009-10-27 Imagini Holdings Limited Method and system for computerized searching and matching multimedia objects using emotional preference
US20070260627A1 (en) 2006-05-03 2007-11-08 Lucent Technologies Inc. Method and apparatus for selective content modification within a content complex
US7870475B2 (en) 2006-05-16 2011-01-11 Yahoo! Inc. System and method for bookmarking and tagging a content item
US20100063970A1 (en) 2006-05-19 2010-03-11 Chang Hyun Kim Method for managing and processing information of an object for presentation of multiple sources and apparatus for conducting said method
JP2010502116A (ja) 2006-08-18 2010-01-21 ソニー株式会社 推奨エンジンによる選択的メディアコンテンツアクセスのシステム及び方法
US20080071770A1 (en) * 2006-09-18 2008-03-20 Nokia Corporation Method, Apparatus and Computer Program Product for Viewing a Virtual Database Using Portable Devices
US7698336B2 (en) 2006-10-26 2010-04-13 Microsoft Corporation Associating geographic-related information with objects
US20100020970A1 (en) 2006-11-13 2010-01-28 Xu Liu System And Method For Camera Imaging Data Channel
WO2008072093A2 (en) * 2006-12-13 2008-06-19 Quickplay Media Inc. Mobile media platform
US9282446B2 (en) 2009-08-06 2016-03-08 Golba Llc Location-aware content and location-based advertising with a mobile device
US7933809B2 (en) * 2006-12-18 2011-04-26 International Business Machines Corporation Method, medium, and system for automatically embedding information concerning items appearing in video using RFID tags
US8036703B2 (en) * 2006-12-29 2011-10-11 Texas Instruments Incorporated Image capture reporting based on content-associated wireless identification
US7900225B2 (en) 2007-02-20 2011-03-01 Google, Inc. Association of ads with tagged audiovisual content
US20080209329A1 (en) 2007-02-21 2008-08-28 Defranco Robert Systems and methods for sharing data
JP4901539B2 (ja) 2007-03-07 2012-03-21 株式会社東芝 立体映像表示システム
WO2008111067A1 (en) 2007-03-12 2008-09-18 Joliper Ltd. Method of providing a service over a hybrid network and system thereof
US8103646B2 (en) 2007-03-13 2012-01-24 Microsoft Corporation Automatic tagging of content based on a corpus of previously tagged and untagged content
US20080268876A1 (en) * 2007-04-24 2008-10-30 Natasha Gelfand Method, Device, Mobile Terminal, and Computer Program Product for a Point of Interest Based Scheme for Improving Mobile Visual Searching Functionalities
EP2023266B1 (en) * 2007-08-01 2012-10-03 Ricoh Company, Ltd. Searching media content for objects specified using identifiers
US8464206B2 (en) 2007-10-22 2013-06-11 Open Text S.A. Method and system for managing enterprise content
TW200935272A (en) * 2007-12-03 2009-08-16 Tse-Hsien Yeh Sensing apparatus and operating method thereof
CA2708778A1 (en) 2007-12-10 2009-06-18 Deluxe Digital Studios, Inc. Method and system for use in coordinating multimedia devices
US20090161963A1 (en) * 2007-12-20 2009-06-25 Nokia Corporation Method. apparatus and computer program product for utilizing real-world affordances of objects in audio-visual media data to determine interactions with the annotations to the objects
US8254684B2 (en) 2008-01-02 2012-08-28 Yahoo! Inc. Method and system for managing digital photos
US8301784B2 (en) 2008-01-04 2012-10-30 Csr Technology Inc. Transcoding content for maximizing playback abilities in a switch enabled device
US20090210395A1 (en) 2008-02-12 2009-08-20 Sedam Marc C Methods, systems, and computer readable media for dynamically searching and presenting factually tagged media clips
US7987140B2 (en) * 2008-02-26 2011-07-26 International Business Machines Corporation Digital rights management of captured content based on criteria regulating a combination of elements
US20090228492A1 (en) 2008-03-10 2009-09-10 Verizon Data Services Inc. Apparatus, system, and method for tagging media content
FR2928805B1 (fr) 2008-03-14 2012-06-01 Alcatel Lucent Procede permettant la mise en oeuvre de la video enrichie sur les terminaux mobiles.
US8090822B2 (en) * 2008-04-11 2012-01-03 The Nielsen Company (Us), Llc Methods and apparatus for nonintrusive monitoring of web browser usage
US8270767B2 (en) 2008-04-16 2012-09-18 Johnson Controls Technology Company Systems and methods for providing immersive displays of video camera information from a plurality of cameras
US20090300109A1 (en) 2008-05-28 2009-12-03 Fotomage, Inc. System and method for mobile multimedia management
JP2009286365A (ja) 2008-05-30 2009-12-10 Fujitsu Ltd 情報提供装置、情報提供方法、情報提供プログラム及び情報提供システム
US20090313304A1 (en) 2008-06-13 2009-12-17 Rodney Goodger Systems and Methods for Capturing, Organizing, and Sharing Data
WO2009153557A1 (en) * 2008-06-18 2009-12-23 Carl Livesey Tagging product information
US20100029326A1 (en) 2008-07-30 2010-02-04 Jonathan Bergstrom Wireless data capture and sharing system, such as image capture and sharing of digital camera images via a wireless cellular network and related tagging of images
US8385971B2 (en) * 2008-08-19 2013-02-26 Digimarc Corporation Methods and systems for content processing
US8200669B1 (en) 2008-08-21 2012-06-12 Adobe Systems Incorporated Management of smart tags via hierarchy
US20100076976A1 (en) 2008-09-06 2010-03-25 Zlatko Manolov Sotirov Method of Automatically Tagging Image Data
US9191625B2 (en) 2008-09-26 2015-11-17 Janos Redei System and methods for transmitting and distributing media content
JP5173721B2 (ja) * 2008-10-01 2013-04-03 キヤノン株式会社 文書処理システム及びその制御方法、プログラム、記憶媒体
US8935292B2 (en) * 2008-10-15 2015-01-13 Nokia Corporation Method and apparatus for providing a media object
US20100097473A1 (en) * 2008-10-20 2010-04-22 Johnson Controls Technology Company Device for connecting video cameras to networks and clients
US20110279478A1 (en) 2008-10-23 2011-11-17 Lokesh Bitra Virtual Tagging Method and System
US20100161631A1 (en) 2008-12-19 2010-06-24 Microsoft Corporation Techniques to share information about tags and documents across a computer network
JP5328810B2 (ja) 2008-12-25 2013-10-30 パナソニック株式会社 情報表示装置および情報表示方法
EP2386089A4 (en) 2009-01-12 2013-01-16 Namesforlife Llc SYSTEMS AND METHOD FOR AUTOMATIC IDENTIFICATION AND CONNECTION OF NAMES IN DIGITAL RESOURCES
US9300612B2 (en) 2009-01-15 2016-03-29 International Business Machines Corporation Managing interactions in a virtual world environment
KR101950997B1 (ko) 2009-01-28 2019-02-21 삼성전자주식회사 컨텐츠 태그를 이용한 컨텐츠 관리 방법 및 그 장치
US20100198876A1 (en) 2009-02-02 2010-08-05 Honeywell International, Inc. Apparatus and method of embedding meta-data in a captured image
US20100211535A1 (en) 2009-02-17 2010-08-19 Rosenberger Mark Elliot Methods and systems for management of data
JP5742057B2 (ja) 2009-03-03 2015-07-01 ディジマーク コーポレイション 公共ディスプレイからのナローキャスティングおよび関連配設
JP2012529685A (ja) * 2009-06-05 2012-11-22 モザイク マルチメディア インコーポレイテッド スマートコンテンツをタグ付けし、スマートコンテンツと対話するためのエコシステム
US20110029398A1 (en) 2009-07-31 2011-02-03 Wesley John Boudville Geo name service for validated locations and occupants and URLs
JP2011055250A (ja) 2009-09-02 2011-03-17 Sony Corp 情報提供方法及び装置、情報表示方法及び携帯端末、プログラム、並びに情報提供システム
US8560583B2 (en) 2010-04-01 2013-10-15 Sony Computer Entertainment Inc. Media fingerprinting for social networking
US8818025B2 (en) * 2010-08-23 2014-08-26 Nokia Corporation Method and apparatus for recognizing objects in media content
US20120067954A1 (en) * 2010-09-16 2012-03-22 Madhav Moganti Sensors, scanners, and methods for automatically tagging content
US8655881B2 (en) * 2010-09-16 2014-02-18 Alcatel Lucent Method and apparatus for automatically tagging content
US8666978B2 (en) * 2010-09-16 2014-03-04 Alcatel Lucent Method and apparatus for managing content tagging and tagged content

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101453824B1 (ko) * 2013-10-16 2014-10-23 한양대학교 에리카산학협력단 탐색바 로딩모듈을 갖는 스마트 디스플레이
KR101519035B1 (ko) * 2013-10-16 2015-05-20 한양대학교 에리카산학협력단 아이콘 로딩부를 갖는 스마트 디스플레이
KR20160032937A (ko) * 2014-09-17 2016-03-25 삼성전자주식회사 영상 재생 장치에 의해 캡쳐된 이미지에 관련된 연관 정보를 휴대용 디바이스에게 제공하는 방법 및 시스템
KR20160052316A (ko) * 2014-11-04 2016-05-12 한국전자통신연구원 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 장치 및 방법
US9762934B2 (en) 2014-11-04 2017-09-12 Electronics And Telecommunications Research Institute Apparatus and method for verifying broadcast content object identification based on web data
WO2018125764A1 (en) * 2016-12-30 2018-07-05 Facebook, Inc. Systems and methods for providing augmented reality effects and three-dimensional mapping associated with interior spaces
US11210854B2 (en) 2016-12-30 2021-12-28 Facebook, Inc. Systems and methods for providing augmented reality personalized content
WO2022035193A1 (ko) * 2020-08-11 2022-02-17 삼성전자 주식회사 컨텐트와 연관된 텍스트를 제공하기 위한 전자 장치 및 그 동작 방법

Also Published As

Publication number Publication date
US20120072420A1 (en) 2012-03-22
WO2012037001A3 (en) 2012-06-14
WO2012037001A2 (en) 2012-03-22
US8533192B2 (en) 2013-09-10
CN103190146A (zh) 2013-07-03
JP2013544383A (ja) 2013-12-12
EP2617190B1 (en) 2018-09-05
TW201227355A (en) 2012-07-01
KR101432457B1 (ko) 2014-09-22
EP2617190A4 (en) 2015-04-15
EP2617190A2 (en) 2013-07-24

Similar Documents

Publication Publication Date Title
KR101432457B1 (ko) 콘텐츠를 자동으로 태깅하기 위한 콘텐츠 캡처 장치 및 방법
US8849827B2 (en) Method and apparatus for automatically tagging content
US8666978B2 (en) Method and apparatus for managing content tagging and tagged content
US20220179665A1 (en) Displaying user related contextual keywords and controls for user selection and storing and associating selected keywords and user interaction with controls data with user
US20120067954A1 (en) Sensors, scanners, and methods for automatically tagging content
US10235025B2 (en) Various systems and methods for expressing an opinion
CN105122288B (zh) 用于处理多媒体商务服务的设备和方法
US9134875B2 (en) Enhancing public opinion gathering and dissemination
CN104756514B (zh) 通过社交网络共享电视和视频节目
US8745502B2 (en) System and method for interfacing interactive systems with social networks and media playback devices
CN102314659A (zh) 广告与应用之间的交互
CN102224517A (zh) 用于情境增强的广告创建的系统和方法
KR20160145698A (ko) 영화 산업 전문가들을 위한 글로벌 교환 플랫폼
US9660971B1 (en) Generating event recommendations based upon media consumption
US20110125867A1 (en) System and Method for the Improvement of Sharing Digital Data Between Mobile Devices
US11222361B2 (en) Location-based book identification
US20210329310A1 (en) System and method for the efficient generation and exchange of descriptive information with media data
US9268458B1 (en) Generating media trials based upon media consumption
JP2007109061A (ja) 商品提供システム、商品提供装置、商品提供方法およびプログラム
KR20190118946A (ko) 스키마 기반의 편집형 영상 객체 제공 방법 및 시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170804

Year of fee payment: 4