KR20130082826A - 콘텐츠의 객체 정보 생성 방법 및 시스템 - Google Patents

콘텐츠의 객체 정보 생성 방법 및 시스템 Download PDF

Info

Publication number
KR20130082826A
KR20130082826A KR1020110138291A KR20110138291A KR20130082826A KR 20130082826 A KR20130082826 A KR 20130082826A KR 1020110138291 A KR1020110138291 A KR 1020110138291A KR 20110138291 A KR20110138291 A KR 20110138291A KR 20130082826 A KR20130082826 A KR 20130082826A
Authority
KR
South Korea
Prior art keywords
information
input
user
content
management server
Prior art date
Application number
KR1020110138291A
Other languages
English (en)
Inventor
이주용
김진한
박세준
박훈규
정한욱
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020110138291A priority Critical patent/KR20130082826A/ko
Priority to US13/722,000 priority patent/US20130159859A1/en
Publication of KR20130082826A publication Critical patent/KR20130082826A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 콘텐츠의 객체 정보를 생성하는 방법 및 시스템에 관한 것으로서, 보다 상세하게는, 콘텐츠에 포함된 객체를 인식하여 객체의 정보를 생성하는 방법 및 시스템에 관한 것이다.
사용자 단말이 콘텐츠의 객체 정보를 생성하는 방법은 콘텐츠에 포함된 객체를 선택하는 사용자 입력을 수신하는 단계, 상기 사용자 입력에 의해 선택된 상기 객체의 위치 정보 및 상기 콘텐츠의 상기 사용자 입력이 발생한 재생 시간의 정보를 획득하는 단계 및 상기 콘텐츠에 매칭하여 상기 객체 위치 정보 및 상기 재생 시간 정보를 콘텐츠 정보 관리 서버로 전송하는 단계를 포함하고, 상기 콘텐츠 정보 관리 서버는 상기 콘텐츠에 매칭하여 전송된 상기 객체 위치 정보 및 상기 재생 시간 정보를 상기 콘텐츠의 객체 인식 정보로 저장할 수 있다.

Description

콘텐츠의 객체 정보 생성 방법 및 시스템{METHOD AND SYSTEM FOR GENERATING INFORMATION OF OBJECT OF CONTENT}
본 발명은 콘텐츠의 객체 정보를 생성하는 방법 및 시스템에 관한 것으로서, 보다 상세하게는, 콘텐츠에 포함된 객체를 인식하여 객체의 정보를 생성하는 방법 및 시스템에 관한 것이다.
최근 기술의 발전에 따라 사용자가 사용하는 단말의 종류가 증가하고 하나의 사용자가 다수의 단말을 이용하는 것이 보편화되어 가고 있다.
특히 사용자는 이러한 단말을 이용하여 콘텐츠를 주로 콘텐츠, 특히 동영상을 자주 제공받으며, 콘텐츠와 함께 콘텐츠에 대한 부가 정보의 제공에 대한 요구가 증가하고 있다.
이러한 요구에 따라 콘텐츠에 대한 부가 정보를 제공하기 위하여 콘텐츠에 대하여 부가 정보를 등록하고 제공하는 기술이 제시되고 있다.
종래의 기술 중 한국등록특허 제0895293호는 영상 콘텐츠 내의 디지털 객체에 태그 ID, 위치 정보, 시간 정보 등을 연동하여 사용자에게 영상 콘텐츠 내의 디지털 객체의 부가 정보를 제공하는 구성을 개시하고 있으며, 한국등록특허 제0479799호는 사용자가 동영상 내의 객체를 선택하는 경우, 객체의 좌표 값 및 프레임 정보를 이용하여 객체 정보를 검색하고 사용자에게 검색된 객체 정보를 제공하는 구성을 개시하고 있다.
그러나 이러한 종래의 기술에 따르면, 사용자가 직접 동영상 내의 객체를 인식시키는 것이 아니라 동영상 제공자가 객체를 인식시키고 부가 정보를 입력하여사용자에게 제공하는 방법을 제시하고 있으며, 이로 인해 점차 그 양이 방대해져 가는 동영상 콘텐츠에 대한 분류 및 태깅 방법에 대한 수요를 충족시키지 못하며, 부가 정보 생성을 위해 많은 인력 자원이 요구되는 문제점이 있다.
본 발명의 일 실시예는 사용자가 동영상 등의 콘텐츠를 이용하는 도중 콘텐츠 내의 객체의 위치 정보 및 재생 시간 정보를 인식시키고, 콘텐츠 이용이 종료된 후 인식한 객체에 대한 관련 정보를 입력하여 콘텐츠의 객체 관련 정보를 생성할 수 있는 방법 및 시스템을 제공하고자 한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면은
본 발명의 제 1 측면에서, 콘텐츠에 포함된 객체를 선택하는 사용자 입력을 수신하는 단계, 상기 사용자 입력에 의해 선택된 상기 객체의 위치 정보 및 상기 콘텐츠의 상기 사용자 입력이 발생한 재생 시간의 정보를 획득하는 단계 및 상기 콘텐츠에 매칭하여 상기 객체 위치 정보 및 상기 재생 시간 정보를 콘텐츠 정보 관리 서버로 전송하는 단계를 포함하고, 상기 콘텐츠 정보 관리 서버는 상기 콘텐츠에 매칭하여 전송된 상기 객체 위치 정보 및 상기 재생 시간 정보를 상기 콘텐츠의 객체 인식 정보로 저장하는 것인 사용자 단말이 콘텐츠의 객체 정보를 생성하는 방법을 제공할 수 있다.
또한, 본 발명의 제 1 측면에서, 상기 객체 위치 정보 및 재생 시간 정보를 획득하는 단계는 상기 사용자 입력의 위치가 이동하였는지 여부를 판단하는 단계 및 상기 사용자의 입력의 위치가 이동한 경우, 이동한 상기 사용자의 입력에 의해 선택된 객체의 위치 정보 및 상기 이동한 사용자의 입력이 발생한 재생 시간의 정보를 획득하는 단계를 포함할 수 있다.
또한, 본 발명의 제 1 측면에서, 상기 전송하는 단계는 상기 이동한 사용자의 입력에 기초하여 획득한 객체 위치 정보 및 재생 시간 정보를 상기 콘텐츠 정보 관리 서버로 전송하는 단계를 포함할 수 있다.
또한, 본 발명의 제 1 측면에서, 상기 콘텐츠 정보 관리 서버로부터 상기 저장한 객체 인식 정보를 수신하는 단계, 상기 수신한 객체 인식 정보에 매칭하는 객체 관련 정보를 사용자 입력에 기초하여 생성하는 단계 및 상기 생성한 객체 관련 정보를 상기 콘텐츠 정보 관리 서버로 전송하는 단계를 포함하고, 상기 콘텐츠 정보 관리 서버는 상기 객체 관련 정보를 상기 객체 위치 정보 및 상기 재생 시간 정보에 매칭하여 상기 콘텐츠의 관련 정보로 저장할 수 있다.
본 발명의 제 2 측면은 콘텐츠에 포함된 객체를 선택하는 사용자 입력을 수신하는 입력 신호 수신부, 상기 사용자 입력에 기초하여 선택된 상기 객체의 위치 정보를 획득하는 입력 위치 정보 획득부, 상기 사용자 입력에 기초하여 상기 입력이 발생한 재생 시간의 정보를 획득하는 재생 시간 정보 획득부 및 상기 콘텐츠에 매칭하여 상기 객체 위치 정보 및 상기 재생 시간 정보를 포함하는 객체 인식 정보를 콘텐츠 정보 관리 서버로 전송하는 객체 인식 정보 전송부를 포함하고, 상기 콘텐츠 정보 관리 서버는 상기 콘텐츠 및 상기 사용자 단말에 매칭하여 상기 객체 인식 정보를 저장하는 것인 콘텐츠의 객체 정보를 생성하는 사용자 단말을 제공할 수 있다.
본 발명의 제 2 측면에서, 상기 사용자 입력이 이동하는 경우, 상기 입력 위치 정보 획득부는 상기 이동한 사용자 입력에 의해 선택된 객체의 위치 정보를 획득할 수 있다.
또한, 본 발명의 제 2 측면에서, 상기 사용자 입력이 이동하는 경우, 상기 재생 시간 정보 획득부는 상기 이동한 사용자의 입력이 발생한 재생 시간의 정보를 획득할 수 있다.
또한, 본 발명의 제 2 측면에서, 상기 콘텐츠 정보 관리 서버로부터 수신한 객체 인식 정보를 출력하는 객체 인식 정보 제공부 및 상기 출력된 객체 인식 정보에 대하여 입력된 사용자의 객체 정보 입력에 기초하여 상기 출력된 객체 인식 정보에 매칭하는 객체 관련 정보를 생성하고, 상기 생성한 객체 관련 정보를 상기 콘텐츠 정보 관리 서버로 전송하는 사용자 입력 정보 전송부를 더 포함하고, 상기 콘텐츠 정보 관리 서버는 상기 객체 관련 정보를 상기 객체 위치 정보 및 상기 재생 시간 정보에 매칭하여 상기 콘텐츠의 관련 정보로 저장할 수 있다.
전술한 본 발명의 과제 해결 수단에 의하면, 사용자가 동영상 등의 콘텐츠를 이용하는 도중 사용자 단말에 의해 제공되는 입력 수단을 이용하여 쉽게 콘텐츠 내의 객체의 위치 정보 및 재생 시간 정보를 인식시켜 콘텐츠 정보 관리 서버에 저장시킬 수 있으며, 콘텐츠 이용이 종료된 후 콘텐츠 정보 관리 서버에 저장된 객체 인식 정보를 이용하여 콘텐츠 내의 객체에 대한 관련 정보를 입력하여 콘텐츠의 객체 관련 정보를 생성할 수 있다.
도 1은 본 발명의 일 실시예에 따른 콘텐츠 객체 정보 생성 시스템을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따라 사용자 단말이 객체를 인식하는 방법의 예시를 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 콘텐츠 객체 정보 생성 방법의 흐름을 도시한 순서도이다.
도 4는 본 발명의 일 실시예에 따른 객체 인식 정보에 사용자가 정보를 입력하여 객체 관련 정보를 생성하는 방법의 흐름을 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 객체 정보 생성을 위한 사용자 단말의 구성을 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따라 선택된 객체의 입력 위치 정보 및 재생 시간 정보가 사용자 단말로부터 콘텐츠 정보 관리 서버로 전송되는 예시를 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따라 사용자가 선택한 객체에 관련 정보를 입력하는 사용자 입력 레이어의 예시를 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따라 사용자에게 제공되는 객체 관련 정보의 예시를 도시한 도면이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
도 1은 본 발명의 일 실시예에 따른 콘텐츠 객체 정보 생성 시스템을 도시한 도면이다.
본 발명의 일 실시예에서 사용자 단말(100)은 콘텐츠 정보 관리 서버(200) 또는 사용자 단말(100)에 콘텐츠 서비스를 제공하는 콘텐츠 서비스 제공 서버(도시 생략)에 의해 제공되는 콘텐츠를 재생하여 사용자에게 제공할 수 있다.
사용자 단말(100)은 콘텐츠를 재생하는 도중에 사용자로부터 사용자 단말(100)의 입력 방식에 따라 사용자 입력을 수신할 수 있다. 예를 들어 사용자 단말(100)이 터치 방식의 입력 수단을 사용자에게 제공하는 경우, 사용자는 콘텐츠의 재생 도중에 사용자 단말(100)의 화면을 터치함으로써 사용자 입력을 생성할 수 있다.
또한, 사용자 단말(100)이 마우스에 의한 입력 수단을 제공하는 경우, 사용자는 마우스에 의해 제어되는 커서를 이용하여 사용자 입력을 생성할 수 있다.
이처럼 사용자는 사용자 단말(100)의 입력 수단을 이용하여 사용자 단말(100)에 의해 재생되는 콘텐츠 내에서 인식하고자 하는 객체를 선택할 수 있다. 예를 들어, 사용자는 터치 방식을 이용하여 재생되고 있는 화면에서 인식하고자 하는 객체를 손으로 터치함으로써 사용자 단말(100)에 인식시키고자 하는 객체를 선택할 수 있다. 이하에서는 사용자 단말(100)이 터치 방식의 입력 수단을 제공하는 것을 전제로 하여 설명하도록 한다.
사용자 단말(100)은 사용자의 입력에 의해 인식된 객체의 화면 상에서의 위치 정보 및 객체 선택이 수행되는 상태에서의 재생 시간 정보를 획득하고, 획득한 객체 위치 정보 및 재생 시간 정보를 네트워크를 통해 콘텐츠 정보 관리 서버(200)로 전송한다.
즉, 사용자 단말(100)은 사용자가 터치하고 있는 객체의 위치 정보 및 사용자가 터치하고 있는 시간 정보, 예를 들어 터치가 이루어지고 있는 시작 시간 및 종료 시간을 포함하는 시간 정보를 획득하고, 획득한 객체 위치 정보 및 재생 시간 정보를 콘텐츠 정보 관리 서버(200)로 전송하여 저장시킬 수 있다.
또한, 사용자 단말(100)은 객체 위치 정보 및 재생 시간 정보와 함께 터치가 시작될 때의 화면 또는 터치가 종료될 때의 화면의 캡쳐 이미지를 획득하여 콘텐츠 정보 관리 서버(200)로 전송하여 저장시킬 수 있다.
이후 사용자 단말(100)이 객체 인식 정보를 콘텐츠 정보 관리 서버(200)에 요청하는 경우, 콘텐츠 관리 서버(200)는 사용자 단말(100)로부터 수신한 캡쳐 이미지 정보, 객체 위치 정보 및 재생 시간 정보를 포함하는 객체 인식 정보를 사용자 단말(100)로 전송할 수 있다.
사용자 단말(100)은 수신한 객체 인식 정보를 이용하여 해당 객체에 대한 정보를 입력하고, 사용자가 입력한 객체 관련 정보를 콘텐츠 정보 관리 서버(200)로 전송하여 해당 콘텐츠, 객체 위치 정보 및 재생 시간 정보에 매칭하여 콘텐츠 정보 관리 서버(200)에 저장시킬 수 있다.
콘텐츠 관리 서버(200)에 저장된 객체 관련 정보는 이후 사용자 단말(100) 또는 그 외의 단말이 해당하는 객체 위치 및 재생 시간에 대하여 객체 정보를 요청하는 경우 사용자 단말(100) 또는 그 외의 단말에 객체 정보로서 제공될 수 있다.
도 2는 본 발명의 일 실시예에 따라 사용자 단말이 객체를 인식하는 방법의 예시를 도시한 도면이다.
본 발명의 일 실시예에서 사용자 단말(100)은 터치 방식의 입력 수단을 사용자에게 제공할 수 있다.
사용자는 사용자 단말(100)을 통해 제공되는 콘텐츠가 재생되는 도중에 인식시키고자 하는 객체(300)를 사용자의 손(10) 등을 이용하여 터치할 수 있다. 이 경우, 사용자 단말(100)은 사용자의 터치가 이루어진 순간의 화면의 위치 정보 및 재생 시간 정보를 획득할 수 있다.
사용자 단말(100)은 사용자의 입력이 미리 설정된 시간 이상 유지되는 경우에 사용자의 입력을 객체 인식을 위한 입력으로 인식할 수 있다.
사용자는 인식시키고자 하는 객체(300)가 화면 상에서 사라질 때까지 입력, 즉 터치를 유지할 수 있으며, 객체(300)가 제 1 위치(301)에서 제 2 위치(302)로 이동하는 경우, 입력을 유지한 상태에서 이동하는 객체를 따라 입력 위치를 이동시킬 수 있다.
따라서, 이러한 경우, 사용자의 손(10)은 객체(300)의 위치의 이동에 따라 제 3 위치(11)에서 제 4 위치(20)로 이동할 수 있다.
사용자 단말(100)은 이동하는 입력 위치 정보를 객체 위치 정보로 인식할 수 있으며, 입력이 시작될 때부터 종료될 때까지의 시간 정보를 객체가 인식된 재생 시간 정보로 인식할 수 있다.
도 3은 본 발명의 일 실시예에 따른 콘텐츠 객체 정보 생성 방법의 흐름을 도시한 순서도이다.
단계(S105)에서, 사용자 단말은 사용자에 의한 입력을 수신한다. 전술한 바와 같이 사용자 단말은 터치 방식 또는 마우스, 트랙 볼, 터치 패드 등에 의한 커서 입력 방식 등의 다양한 입력 방식을 사용자에게 제공할 수 있으며, 사용자는 이러한 입력 방식을 이용하여 사용자 단말에 객체 선택을 입력할 수 있다.
단계(S110)에서, 사용자 단말은 단계(S105)에서 수신한 사용자 입력이 객체를 인식하기 위한 입력인지 여부를 판단한다. 사용자는 객체를 인식하기 위한 입력뿐만 아니라 객체를 선택하여 관련 정보를 요청하기 위한 입력도 수행할 수 있다.
따라서, 사용자 단말은 단계(S105)에서 수신한 사용자 입력이 객체를 인식하기 위한 입력인지 또는 객체 관련 정보를 요청하기 위한 입력인지 여부를 판단한다. 사용자 단말은 사용자의 입력이 유지되는 시간을 기준으로 사용자 입력이 객체를 인식하기 위한 입력인지 또는 객체 관련 정보를 요청하기 위한 입력인지 여부를 판단할 수 있다.
예를 들어, 사용자의 입력이 1초 이상 유지되는 경우 사용자 단말은 사용자 입력이 객체를 인식하기 위한 입력인 것으로 판단할 수 있다. 또한, 사용자의 입력이 1초 이내로 유지되는 경우 사용자 단말은 사용자 입력이 객체 관련 정보를 요청하기 위한 입력인 것으로 판단할 수 있다.
단계(S115)에서는, 단계(S110)에서 사용자의 입력이 객체를 인식하기 위한 입력인 것으로 판단되는 경우, 사용자 단말은 사용자 입력이 수행된 입력 위치 정보 및 콘텐츠의 재생 시간 중 입력이 수행되는 재생 시간의 정보를 획득한다.
획득되는 입력 위치 정보는 객체의 위치 정보로 인식되며, 재생 시간 정보는 객체가 화면에 등장하는 시간 정보로 인식될 수 있다.
또한, 사용자 단말은 사용자 입력이 수행될 당시의 사용자 단말이 위치한 장소의 위치 정보를 함께 획득할 수 있다.
단계(S120)에서, 사용자 단말은 단계(S115)에서 획득한 사용자의 입력의 위치가 이동하였는지 여부를 판단한다. 전술한 바와 같이, 사용자가 화면에 등장하는 객체를 입력하기 위하여 객체가 위치한 부분을 클릭 또는 터치 등을 이용하여 선택할 수 있으며, 객체가 이동하는 경우 객체의 이동 경로를 따라 클릭 또는 터치를 한 상태에서 클릭 부분 또는 터치 부분을 이용할 수 있다.
따라서, 사용자 단말은 이처럼 사용자의 입력 위치가 이동하였는지 여부를 판단하여 객체의 이동 여부를 판단할 수 있다.
단계(S125)에서, 단계(S120)에서 사용자의 입력의 위치가 이동한 것으로 판단되는 경우, 이동하는 사용자의 입력의 입력 위치 정보 및 재생 시간 정보를 획득한다. 즉, 사용자의 입력의 위치가 이동한 경우, 콘텐츠 내의 객체의 위치가 이동한 것이므로, 사용자 단말은 사용자의 이동한 입력 위치 정보 및 이에 매칭되는 재생 시간 정보를 획득하여 재생 시간에 따른 객체의 위치 정보를 획득할 수 있다.
단계(S130)에서, 사용자 단말은 사용자로부터 사용자 입력 종료 신호를 수신한다. 사용자는 클릭 또는 터치 등의 객체 선택 입력을 종료하여 사용자 입력을 종료할 수 있다.
단계(S135)에서, 사용자 단말은 획득한 객체 위치 정보 및 이에 매칭되는 재생 시간 정보를 포함하는 객체 인식 정보를 콘텐츠 정보 관리 서버로 전송하여 콘텐츠 정보 관리 서버에 객체 위치 정보 및 재생 시간 정보를 객체 인식 정보로서 저장시킨다. 이처럼 사용자 단말은 사용자에 의해 입력된 신호에 의해 인식된 객체의 위치 정보 및 재생 시간 정보를 포함하는 객체 인식 정보를 사용자의 별도의 요청이 있을 때까지 우선 콘텐츠 정보 관리 서버에 임시로 저장하므로, 이후 사용자가 콘텐츠를 모두 이용한 후 콘텐츠 정보 관리 서버에 저장된 객체 위치 정보 및 재생 시간 정보를 포함하는 객체 인식 정보를 이용하여 콘텐츠 재생 시에 선택한 객체에 대하여 별도로 관련 정보를 입력할 수 있다.
또한, 사용자 단말은 단계(S115)에서 획득한 사용자 입력이 수행될 당시의 사용자 단말이 위치한 장소의 위치 정보를 객체 위치 정보 및 재생 시간 정보와 함께 콘텐츠 정보 관리 서버에 저장시킬 수도 있다.
단계(S140)에서는, 단계(S110)에서 사용자의 입력이 객체 관련 정보를 요청하기 위한 입력인 것으로 판단되는 경우, 사용자 단말은 사용자 입력이 수행된 입력 위치 정보 및 콘텐츠의 재생 시간 중 입력이 수행되는 재생 시간의 정보를 획득한다.
획득되는 입력 위치 정보는 객체의 위치 정보로 인식되며, 재생 시간 정보는 객체가 화면에 등장하는 시간 정보로 인식될 수 있다.
단계(S145)에서, 사용자 단말은 단계(S140)에서 획득된 객체 위치 정보 및 재생 시간 정보를 이용하여 객체 위치 정보 및 재생 시간 정보에 매칭되는 객체 관련 정보를 콘텐츠 정보 관리 서버로 요청한다.
단계(S150)에서, 사용자 단말은 단계(S145)에서 요청한 객체 관련 정보를 콘텐츠 정보 관리 서버로부터 수신하고, 수신한 객체 관련 정보를 출력하여 사용자에게 제공한다.
사용자 단말은 객체 관련 정보를 재생 중인 콘텐츠 화면에 오버레이(overlay)되어 출력되는 객체 정보 제공 레이어를 통해 출력하여 사용자에게 제공할 수 있다.
이처럼 본 발명의 일 실시예에 따르면 사용자는 콘텐츠, 예를 들어 동영상 콘텐츠를 재생하여 감상하는 도중에 관련 정보를 입력하고자 하는 객체를 선택하고, 선택한 객체가 이동하는 경우, 이동 경로를 따라 계속 선택하여 쉽게 객체의 위치 정보 및 객체가 등장하는 재생 시간 정보를 사용자 단말에 입력할 수 있다.
또한, 우선 객체의 위치 정보 및 재생 시간 정보가 콘텐츠 정보 관리 서버에 저장된 후, 이후에 사용자가 원하는 시간에 별도로 저장한 객체 위치 정보 및 재생 시간 정보를 이용하여 객체에 관련된 정보를 입력할 수 있으므로, 사용자는 콘텐츠의 감상과 관련 정보의 입력을 구분하여 수행할 수 있다.
도 4는 본 발명의 일 실시예에 따른 객체 인식 정보에 사용자가 정보를 입력하여 객체 관련 정보를 생성하는 방법의 흐름을 도시한 도면이다.
단계(S210)에서, 사용자 단말은 사용자의 요청에 기초하여 콘텐츠 정보 관리 서버로 객체 인식 정보를 요청한다. 콘텐츠 정보 관리 서버에 저장된 객체 인식 정보는 사용자 단말에 의해 획득된 객체 위치 정보 및 재생 시간 정보에 기초하여 사용자 단말에 의해 생성된 정보를 포함할 수 있다.
단계(S220)에서, 사용자 단말은 콘텐츠 정보 관리 서버로부터 단계(S210)에서 요청한 객체 인식 정보를 수신하고, 수신한 객체 인식 정보를 출력하여 사용자에게 제공한다.
사용자 단말은 다수의 객체 인식 정보를 수신할 수 있으며, 수신한 다수의 객체 인식 정보를 사용자 단말에 제공할 수 있다.
단계(S230)에서, 사용자 단말은 사용자의 객체 인식 정보의 선택 입력에 응답하여 사용자 입력 수단을 사용자에게 제공한다. 사용자는 단계(S220)에서 제공된 객체 인식 정보를 선택할 수 있으며, 사용자 단말은 이러한 사용자의 선택에 응답하여 사용자가 선택한 객체 인식 정보에 관련 정보를 입력할 수 있는 사용자 입력 수단을 제공할 수 있다.
단계(S240)에서, 사용자 단말은 단계(S230)에서 제공된 사용자 입력 수단을 통해 입력된 사용자 입력에 기초하여 사용자가 선택한 객체 인식 정보에 매칭되는 객체 관련 정보를 생성하고, 생성한 객체 관련 정보를 콘텐츠 정보 관리 서버로 전송한다.
도 5는 본 발명의 일 실시예에 따른 객체 정보 생성을 위한 사용자 단말의 구성을 도시한 도면이다.
본 발명의 일 실시예에 따른 사용자 단말(100)은 입력 신호 수신부(105), 입력 위치 정보 획득부(110), 재생 시간 정보 획득부(115), 객체 인식 입력 판단부(120), 객체 인식 정보 전송부(125), 객체 인식 정보 요청부(130), 객체 인식 정보 제공부(135), 사용자 입력 레이어 제공부(140), 사용자 입력 정보 전송부(145), 객체 관련 정보 수신부(150), 객체 관련 정보 출력부(155) 및 인식 정보 데이터베이스(160)를 포함한다.
입력 신호 수신부(105)는 사용자에 의한 객체 선택 입력을 수신한다. 전술한 바와 같이 사용자 단말(100)은 다양한 입력 방식을 사용자에게 제공할 수 있으며, 사용자는 이러한 입력 방식을 이용하여 객체 선택을 입력할 수 있다.
입력 위치 정보 획득부(110)는 사용자가 입력한 위치, 즉 콘텐츠가 제공되는 화면 내에서 사용자가 선택한 위치의 정보를 획득한다. 사용자가 터치 방식으로 객체 선택을 입력하는 경우, 입력 위치 정보 획득부(110)는 사용자가 터치한 위치의 정보를 입력 위치 정보로서 획득할 수 있다.
재생 시간 정보 획득부(115)는 사용자가 입력한 시간, 즉 콘텐츠의 재생 시간에 대한 정보를 획득한다. 즉, 콘텐츠가 재생되는 도중 사용자가 객체 선택을 위한 입력을 수행한 경우, 재생 시간 정보 획득부(115)는 객체 선택이 이루어진 시간에 대한 정보를 획득한다. 재생 시간 정보 획득부(115)는 객체 선택이 이루어진 순간의 시간 정보뿐만 아니라 객체 선택이 지속되고 있는 시간 동안의 시간 정보를 획득할 수도 있다.
객체 인식 입력 판단부(120)는 입력 신호 수신부(105)가 수신한 입력 신호가 객체 인식을 위한 입력인지 또는 객체 관련 정보를 요청하기 위한 입력인지 여부를 판단한다.
객체 인식 입력 판단부(120)는 사용자의 입력 방식의 차이에 기초하여 입력 신호가 객체 인식을 위한 입력인지 또는 객체 관련 정보를 요청하기 위한 입력인지 여부를 판단할 수 있다.
예를 들어, 사용자의 입력 유지 시간이 미리 설정된 시간을 초과하는지 또는 미리 설정된 시간 이내인지 여부에 기초하여 입력 신호가 객체 인식을 위한 입력인지 또는 객체 관련 정보를 요청하기 위한 입력인지 여부를 판단할 수 있다.
객체 인식 정보 전송부(125)는 입력 위치 정보 획득부(110) 및 재생 시간 정보 획득부(115)에 의해 각각 획득된 객체 선택을 위한 입력의 위치 정보 및 객체 선택이 이루어진 재생 시간 정보를 콘텐츠의 식별 정보에 매칭하여 콘텐츠 정보 관리 서버로 전송한다.
객체 인식 정보 전송부(125)는, 객체 인식 입력 판단부(120)에 의해 입력 신호 수신부(105)가 수신한 입력 신호가 객체 인식을 위한 입력인 것으로 판단된 경우, 전송한 정보를 객체 인식을 위한 객체 선택 정보의 저장로서 저장할 것을 콘텐츠 정보 관리 서버로 요청할 수 있다.
또한, 객체 인식 정보 전송부(125)는, 객체 인식 입력 판단부(120)에 의해 입력 신호 수신부(105)가 수신한 입력 신호가 객체 관련 정보를 요청하기 위한 입력인 것으로 판단된 경우, 전송한 정보에 매칭되는 객체 관련 정보의 제공을 콘텐츠 정보 관리 서버로 요청할 수 있다. 객체 인식 정보 전송부(125)는 객체 관련 정보의 제공 요청과 함께 입력 위치 정보 및 재생 시간 정보를 콘텐츠 정보 관리 서버로 요청할 수 있다.
객체 인식 정보 요청부(130)는 사용자 단말에 의해 전송되어 콘텐츠 정보 관리 서버에 저장된 객체 인식 정보를 사용자의 입력에 기초하여 콘텐츠 정보 관리 서버에 요청한다.
즉, 사용자의 입력에 의해 콘텐츠가 재생하는 도중 선택된 객체의 입력 위치 정보 및 재생 시간 정보가 콘텐츠 정보 관리 서버에 저장된 이후, 사용자는 이러한 입력 위치 정보 및 재생 시간 정보를 포함하는 객체 선택 정보에 객체 관련 정보를 입력하기 위해 객체 선택 정보를 요청하는 입력을 사용자 단말에 입력할 수 있다.
객체 인식 정보 요청부(130)는 이러한 사용자의 입력에 기초하여 콘텐츠 정보 관리 서버에 이전에 저장시킨 객체 인식 정보를 요청할 수 있다.
객체 인식 정보 제공부(135)는 객체 인식 정보 요청부(130)에 의해 요청된 객체 인식 정보를 수신하고, 수신한 객체 인식 정보를 출력하여 사용자에게 제공한다. 객체 인식 정보는 객체의 위치에 대응하는 입력 위치 정보 및 재생 시간 정보를 포함할 수 있으며, 객체 인식 정보 제공부(135)는 다수의 객체 인식 정보를 수신하여 사용자에게 제공할 수 있다.
사용자 입력 레이어 제공부(140)는 객체 인식 정보 제공부(135)에 의해 제공된 객체 인식 정보 중에서 사용자에 의해 선택된 객체 인식 정보에 대한 사용자 입력 레이어를 제공한다.
사용자는 제공된 사용자 입력 레이어를 이용하여 선택한 객체 인식 정보에 대응하는 객체 관련 정보를 입력할 수 있다. 객체 관련 정보는 사용자가 해당 객체에 대해 공유하고자 하는 정보 등을 포함할 수 있다.
사용자 입력 레이어는 콘텐츠의 재생 화면에 오버레이(overlay)되어 사용자에게 제공될 수 있다.
사용자 입력 정보 전송부(145)는 사용자가 사용자 입력 레이어를 통해 입력한 정보를 콘텐츠 정보 관리 서버로 전송한다. 사용자 입력 정보 전송부(145)는 사용자의 입력 정보와 함께 객체 인식 정보 제공부(135)에 의해 제공된 입력 위치 정보 및 재생 시간 정보를 콘텐츠 정보 관리 서버로 전송할 수 있다.
콘텐츠 정보 관리 서버는 사용자 입력 정보 전송부(145)에 의해 전송된 사용자의 입력 정보를 함께 수신한 입력 위치 정보 및 재생 시간 정보에 대응하는 객체의 관련 정보로 등록시킨다.
객체 관련 정보 수신부(150)는, 객체 인식 입력 판단부(120)에 의해 입력 신호 수신부(105)가 수신한 입력 신호가 객체 관련 정보를 요청하기 위한 입력인 것으로 판단된 경우, 객체 인식 정보 전송부에 의해 콘텐츠 정보 관리 서버에 요청된 객체 관련 정보를 수신한다.
객체 관련 정보 출력부(155)는 객체 관련 정보 수신부(150)가 수신한 객체 관련 정보를 출력하여 사용자에게 제공한다.
도 6은 본 발명의 일 실시예에 따라 선택된 객체의 입력 위치 정보 및 재생 시간 정보가 사용자 단말로부터 콘텐츠 정보 관리 서버로 전송되는 예시를 도시한 도면이다.
사용자는 사용자 단말을 통해 동영상 콘텐츠를 재생하는 도중 사람, 의상, 품 등의 객체(410 및 420)를 터치 등의 방식으로 선택하고, 그 객체가 사라질 때가지 또는 원하는 시간까지 선택 입력, 예를 들어 손가락으로 터치를 유지하고 있다가 터치한 손가락을 떼면 객체를 선택한 시작 시간 정보, 종료 시간 정보, 선택된 객체의 좌표 등의 위치 정보 및 객체가 지정된 이미지 정보(430 및 440)가 콘텐츠 정보 관리 서버(200)로 전송될 수 있다.
도 7은 본 발명의 일 실시예에 따라 사용자가 선택한 객체에 관련 정보를 입력하는 사용자 입력 레이어의 예시를 도시한 도면이다.
사용자 단말은 객체 지정을 마친 후 임시 저장된 하나 이상의 객체의 인식 정보를 콘텐츠 정보 관리 서버로부터 수신할 수 있다. 사용자 단말은 수신한 하나 이상의 객체 인식 정보(510)를 사용자에게 제공할 수 있으며, 사용자는 제공된 하나 이상의 객체 인식 정보 중 특정한 객체 인식 정보(520)를 선택할 수 있다.
사용자의 객체 인식 정보(520)의 선택에 응답하여 사용자 단말은 객체 관련 정보 제목 정보 버튼(530), 상세 정보를 웹으로 검색하기 위한 웹 서치 버튼(540), 객체의 관련 장소의 위치를 설정하는 위치 지정 버튼(550), 상세 정보를 입력하기 위한 입력창(560) 및 생성된 객체 관련 정보를 콘텐츠 정보 관리 서버로 전송하기 위한 전송 버튼(570)를 포함하는 사용자 입력 레이어를 사용자에게 제공할 수 있다.
도 8은 본 발명의 일 실시예에 따라 사용자에게 제공되는 객체 관련 정보의 예시를 도시한 도면이다.
사용자는 콘텐츠의 재생 중 사용자 단말에 의해 제공되는 입력 수단, 예를 들어 터치 스크린의 경우, 화면(610)을 터치하여 해당 화면의 객체에 대한 객체 관련 정보를 요청할 수 있으며, 사용자 단말은 콘텐츠 정보 관리 서버로부터 객체 관련 정보(620)를 수신하여 사용자에게 제공할 수 있다.
또한, 사용자 단말은 객체 관련 정보로서 장소의 위치 정보를 제공할 수 있다. 예를 들어 사용자가 객체 관련 정보에 대한 지도 보기 버튼(630)을 선택하는 경우, 사용자 단말은 콘텐츠 정보 관리 서버로부터 객체에 관련된 장소의 위치를 포함하는 지도 정보(640)를 수신하여 사용자에게 제공할 수 있다.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (13)

  1. 사용자 단말이 콘텐츠의 객체 정보를 생성하는 방법에 있어서,
    콘텐츠에 포함된 객체를 선택하는 사용자 입력을 수신하는 단계,
    상기 사용자 입력에 의해 선택된 상기 객체의 위치 정보 및 상기 콘텐츠의 상기 사용자 입력이 발생한 재생 시간의 정보를 획득하는 단계 및
    상기 콘텐츠에 매칭하여 상기 객체 위치 정보 및 상기 재생 시간 정보를 콘텐츠 정보 관리 서버로 전송하는 단계
    를 포함하고,
    상기 콘텐츠 정보 관리 서버는 상기 콘텐츠에 매칭하여 전송된 상기 객체 위치 정보 및 상기 재생 시간 정보를 상기 콘텐츠의 객체 인식 정보로 저장하는 것인 콘텐츠 객체 정보 생성 방법.
  2. 제 1 항에 있어서,
    상기 객체 위치 정보 및 재생 시간 정보를 획득하는 단계는,
    상기 사용자 입력의 위치가 이동하였는지 여부를 판단하는 단계 및
    상기 사용자의 입력의 위치가 이동한 경우, 이동한 상기 사용자의 입력에 의해 선택된 객체의 위치 정보 및 상기 이동한 사용자의 입력이 발생한 재생 시간의 정보를 획득하는 단계
    를 포함하는 것인 콘텐츠 객체 정보 생성 방법.
  3. 제 2 항에 있어서,
    상기 전송하는 단계는,
    상기 이동한 사용자의 입력에 기초하여 획득한 객체 위치 정보 및 재생 시간 정보를 상기 콘텐츠 정보 관리 서버로 전송하는 단계
    를 포함하는 것인 콘텐츠 객체 정보 생성 방법.
  4. 제 1 항에 있어서,
    상기 콘텐츠 정보 관리 서버로부터 상기 저장한 객체 인식 정보를 수신하는 단계,
    상기 수신한 객체 인식 정보에 매칭하는 객체 관련 정보를 사용자 입력에 기초하여 생성하는 단계 및
    상기 생성한 객체 관련 정보를 상기 콘텐츠 정보 관리 서버로 전송하는 단계
    를 포함하고,
    상기 콘텐츠 정보 관리 서버는 상기 객체 관련 정보를 상기 객체 위치 정보 및 상기 재생 시간 정보에 매칭하여 상기 콘텐츠의 관련 정보로 저장하는 것인 콘텐츠 객체 정보 생성 방법.
  5. 제 1 항에 있어서,
    상기 사용자 입력을 수신하는 단계는,
    상기 사용자의 입력이 미리 설정된 시간 이상 유지되는 경우, 상기 사용자의 입력을 객체 인식을 위한 입력으로 판단하는 단계
    를 포함하는 것인 콘텐츠 객체 정보 생성 방법.
  6. 제 1 항에 있어서,
    상기 사용자 입력을 수신하는 단계는,
    상기 사용자의 입력이 미리 설정된 시간 미만 동안 유지되는 경우, 상기 사용자의 입력을 객체 관련 정보 요청을 위한 입력으로 판단하는 단계
    를 포함하는 것인 콘텐츠 객체 정보 생성 방법.
  7. 제 6 항에 있어서,
    상기 객체 관련 정보 요청을 위한 입력에 기초하여 상기 콘텐츠 정보 관리 서버로 상기 사용자 입력에 의해 선택된 객체에 대한 관련 정보를 요청하는 단계 및
    상기 요청한 객체에 대한 관련 정보를 수신하여 출력하는 단계
    를 더 포함하는 것인 콘텐츠 객체 정보 생성 방법.
  8. 콘텐츠의 객체 정보를 생성하는 사용자 단말에 있어서,
    콘텐츠에 포함된 객체를 선택하는 사용자 입력을 수신하는 입력 신호 수신부,
    상기 사용자 입력에 기초하여 선택된 상기 객체의 위치 정보를 획득하는 입력 위치 정보 획득부,
    상기 사용자 입력에 기초하여 상기 입력이 발생한 재생 시간의 정보를 획득하는 재생 시간 정보 획득부 및
    상기 콘텐츠에 매칭하여 상기 객체 위치 정보 및 상기 재생 시간 정보를 포함하는 객체 인식 정보를 콘텐츠 정보 관리 서버로 전송하는 객체 인식 정보 전송부
    를 포함하고,
    상기 콘텐츠 정보 관리 서버는 상기 콘텐츠 및 상기 사용자 단말에 매칭하여 상기 객체 인식 정보를 저장하는 것인 사용자 단말.
  9. 제 8 항에 있어서,
    상기 사용자 입력이 이동하는 경우, 상기 입력 위치 정보 획득부는 상기 이동한 사용자 입력에 의해 선택된 객체의 위치 정보를 획득하는 것인 사용자 단말.
  10. 제 9 항에 있어서,
    상기 사용자 입력이 이동하는 경우, 상기 재생 시간 정보 획득부는 상기 이동한 사용자의 입력이 발생한 재생 시간의 정보를 획득하는 것인 사용자 단말.
  11. 제 8 항에 있어서,
    상기 콘텐츠 정보 관리 서버로부터 수신한 객체 인식 정보를 출력하는 객체 인식 정보 제공부 및
    상기 출력된 객체 인식 정보에 대하여 입력된 사용자의 객체 정보 입력에 기초하여 상기 출력된 객체 인식 정보에 매칭하는 객체 관련 정보를 생성하고, 상기 생성한 객체 관련 정보를 상기 콘텐츠 정보 관리 서버로 전송하는 사용자 입력 정보 전송부
    를 더 포함하고,
    상기 콘텐츠 정보 관리 서버는 상기 객체 관련 정보를 상기 객체 위치 정보 및 상기 재생 시간 정보에 매칭하여 상기 콘텐츠의 관련 정보로 저장하는 것인 사용자 단말.
  12. 제 8 항에 있어서,
    상기 사용자 입력에 기초하여 상기 사용자 입력이 객체 인식 정보의 생성을 위한 입력인지 여부를 판단하는 객체 인식 입력 판단부
    를 더 포함하는 것인 사용자 단말.
  13. 제 12 항에 있어서,
    상기 객체 인식 입력 판단부는, 상기 사용자의 입력이 미리 설정된 시간 동안 유지되는 경우, 상기 사용자의 입력을 객체 인식을 위한 입력으로 판단하는 것인 사용자 단말.
KR1020110138291A 2011-12-20 2011-12-20 콘텐츠의 객체 정보 생성 방법 및 시스템 KR20130082826A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110138291A KR20130082826A (ko) 2011-12-20 2011-12-20 콘텐츠의 객체 정보 생성 방법 및 시스템
US13/722,000 US20130159859A1 (en) 2011-12-20 2012-12-20 Method and user device for generating object-related information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110138291A KR20130082826A (ko) 2011-12-20 2011-12-20 콘텐츠의 객체 정보 생성 방법 및 시스템

Publications (1)

Publication Number Publication Date
KR20130082826A true KR20130082826A (ko) 2013-07-22

Family

ID=48611540

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110138291A KR20130082826A (ko) 2011-12-20 2011-12-20 콘텐츠의 객체 정보 생성 방법 및 시스템

Country Status (2)

Country Link
US (1) US20130159859A1 (ko)
KR (1) KR20130082826A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101534189B1 (ko) * 2013-10-16 2015-07-07 한양대학교 에리카산학협력단 스마트 디스플레이
WO2017217821A1 (ko) * 2016-06-16 2017-12-21 주식회사 케이티 영상을 공유하여 다자간 커뮤니케이션을 제공하는 사용자 단말 및 공유 서버
KR102180884B1 (ko) * 2020-04-21 2020-11-19 피앤더블유시티 주식회사 영상 콘텐츠에서 객체 인식 기반의 상품 정보를 제공하기 위한 장치 및 이를 위한 방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9874989B1 (en) 2013-11-26 2018-01-23 Google Llc Providing content presentation elements in conjunction with a media content item
KR20170004450A (ko) * 2015-07-02 2017-01-11 엘지전자 주식회사 이동단말기 및 그 제어방법
CN115391575A (zh) * 2021-05-25 2022-11-25 北京字跳网络技术有限公司 应用程序的热点事件展示方法、装置、设备、介质和产品

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6357042B2 (en) * 1998-09-16 2002-03-12 Anand Srinivasan Method and apparatus for multiplexing separately-authored metadata for insertion into a video data stream
US20060277457A1 (en) * 2005-06-07 2006-12-07 Salkind Carole T Method and apparatus for integrating video into web logging
US20080309616A1 (en) * 2007-06-13 2008-12-18 Massengill R Kemp Alertness testing method and apparatus
US8904414B2 (en) * 2007-06-26 2014-12-02 At&T Intellectual Property I, L.P. System and method of delivering video content
US20100162303A1 (en) * 2008-12-23 2010-06-24 Cassanova Jeffrey P System and method for selecting an object in a video data stream
US10645344B2 (en) * 2010-09-10 2020-05-05 Avigilion Analytics Corporation Video system with intelligent visual display
US20130094590A1 (en) * 2011-10-12 2013-04-18 Vixs Systems, Inc. Video decoding device for extracting embedded metadata and methods for use therewith
US8896556B2 (en) * 2012-07-31 2014-11-25 Verizon Patent And Licensing Inc. Time-based touch interface

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101534189B1 (ko) * 2013-10-16 2015-07-07 한양대학교 에리카산학협력단 스마트 디스플레이
WO2017217821A1 (ko) * 2016-06-16 2017-12-21 주식회사 케이티 영상을 공유하여 다자간 커뮤니케이션을 제공하는 사용자 단말 및 공유 서버
KR102180884B1 (ko) * 2020-04-21 2020-11-19 피앤더블유시티 주식회사 영상 콘텐츠에서 객체 인식 기반의 상품 정보를 제공하기 위한 장치 및 이를 위한 방법

Also Published As

Publication number Publication date
US20130159859A1 (en) 2013-06-20

Similar Documents

Publication Publication Date Title
US10430976B2 (en) Method and apparatus for producing and reproducing augmented reality contents in mobile terminal
CN110225369B (zh) 视频选择播放方法、装置、设备和可读存储介质
US9788065B2 (en) Methods and devices for providing a video
KR101976656B1 (ko) 미디어 데이터에 있는 아이템을 인식하고 이와 관련된 정보를 전달하기 위한 시스템 및 방법
US9349051B2 (en) Method and apparatus for image collection and analysis
TWI523535B (zh) 耗用內容及元資料之技術
KR101846756B1 (ko) Tv 프로그램 식별 방법, 장치, 단말기, 서버, 및 시스템
US9563277B2 (en) Apparatus, system, and method for controlling virtual object
KR20130082826A (ko) 콘텐츠의 객체 정보 생성 방법 및 시스템
KR102206184B1 (ko) 동영상 내 객체 관련 정보 검색 방법 및 동영상 재생 장치
US20150277573A1 (en) Display device and operating method thereof
US20200007907A1 (en) System and Method for Providing Image-Based Video Service
KR20150026367A (ko) 화면 미러링을 이용한 서비스 제공 방법 및 그 장치
CN105872717A (zh) 视频处理方法及系统、视频播放器与云服务器
KR20100003913A (ko) 3차원 영상 디스플레이를 이용한 커뮤니케이션 방법 및장치
CN103763480A (zh) 获取视频配音的方法及设备
WO2020114297A1 (zh) 一种控制vr视频播放的方法及相关装置
CN107820133B (zh) 在电视机提供虚拟现实视频的方法、电视机和系统
KR20130082825A (ko) 콘텐츠 관련 정보 제공 방법 및 시스템
KR101334127B1 (ko) 클라이언트 단말기를 이용한 동영상 콘텐츠 공유 서비스 제공 시스템 및 방법
KR100934499B1 (ko) 안내 정보 제공방법 및 그 장치
KR101759563B1 (ko) 콘텐츠 요청 장치 및 방법과 콘텐츠 전송 장치 및 방법
JP2003208435A (ja) 描画履歴登録システム、描画履歴再生システム、描画履歴登録端末、描画履歴登録プログラム及び端末用プログラム、並びに描画履歴登録方法
JPWO2013084422A1 (ja) 情報処理装置、通信端末、情報検索方法、及びプログラム
US11843829B1 (en) Systems and methods for recommending content items based on an identified posture

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment