KR101994565B1 - 정보 처리 방법 및 장치, 단말기 및 기억 매체 - Google Patents

정보 처리 방법 및 장치, 단말기 및 기억 매체 Download PDF

Info

Publication number
KR101994565B1
KR101994565B1 KR1020177018149A KR20177018149A KR101994565B1 KR 101994565 B1 KR101994565 B1 KR 101994565B1 KR 1020177018149 A KR1020177018149 A KR 1020177018149A KR 20177018149 A KR20177018149 A KR 20177018149A KR 101994565 B1 KR101994565 B1 KR 101994565B1
Authority
KR
South Korea
Prior art keywords
information
terminal
video
user
identification information
Prior art date
Application number
KR1020177018149A
Other languages
English (en)
Other versions
KR20170089922A (ko
Inventor
완유 어
Original Assignee
텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 filed Critical 텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Publication of KR20170089922A publication Critical patent/KR20170089922A/ko
Application granted granted Critical
Publication of KR101994565B1 publication Critical patent/KR101994565B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Marketing (AREA)
  • Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

정보 처리 방법이 개시된다. 이 방법은 단말기가 단말기의 디스플레이 디바이스 상에 비디오를 재생하고; 단말기가 사용자의 제1 입력 조작을 획득하고 - 제1 입력 조작은 비디오의 현재 재생되는 프레임으로부터 물건을 선택하기 위해 사용됨 -; 단말기가 비디오의 현재 재생되는 프레임으로부터 사용자의 제1 입력 조작에 대응하는 물건에 관한 식별 정보를 획득하고; 단말기가 물건에 관한 식별 정보에 따라 물건에 관한 속성 정보를 획득하고; 단말기가 물건에 관한 속성 정보를 디스플레이하는 것을 포함한다. 정보 처리 장치, 단말기 및 기억 매체가 또한 개시된다.

Description

정보 처리 방법 및 장치, 단말기 및 기억 매체{INFORMATION PROCESSING METHOD AND APPARATUS, TERMINAL AND MEMORY MEDIUM}
본 개시내용은 비디오 디스플레이 기술들에 관한 것으로, 특히, 정보 처리 방법 및 장치, 단말기, 및 저장 매체에 관한 것이다.
영화 및 텔레비전 시장들의 발달, 특히, 상업적 영화들의 왕성한 발달에 따라, 영화 및 텔레비전 비디오들에서의 상업적 광고들의 명시적 배치는 통상적이고 성숙된 상업적 마켓팅 기술로 되고 있다. 제품 배치는 제품의 그리고 그것의 서비스의 대표적인 시각적 브랜드 심볼을 스크린 또는 스테이지 상의 제품으로 혼합하여, 시청자에게 뚜렷한 인상을 남김으로써, 프로모션의 목적을 달성하는 광고 방식이다. 판매자의 제품 또는 서비스를 영화나 텔레비전 쇼의 스토리에 조합시킴으로써, 제품 배치는 미묘한 영향에 의해 프로모션의 효과를 달성한다. 제품 배치는 광고에 대한 시청자의 본래의 혐오감을 효과적으로 덜어 준다. 경직된 판매와 비교하여, 제품을 영화 또는 텔레비전 쇼 내로 조합시킴으로써 연예 방식으로 더 좋은 효과가 달성된다. 도 1-1에 도시한 바와 같이, 한 회사의 Shuhua 우유(11)의 광고가 영화 Transformers: Dark of the Moon의 영상에 배치된다. 도 1b에 도시한 바와 같이, 브랜드의 목걸이(12)의 광고가 텔레비전 쇼에 배치된다. 영화 또는 텔레비전 쇼의 스토리와 조합하여, 명시적 제품 배치가 열중히 집중하고 있는 시청자의 주의를 쉽게 끌 수 있다. 또한, 영화들 및 텔레비전 쇼들에 나오는 스타들은 광고의 시청자에게 깊게 영향을 줄 수 있는 큰 모델 역할들을 한다. 그러므로, 제품 배치는 효과적인 마켓팅 기술이고 강력한 브랜드 보급성을 달성할 수 있다. 그러나, 한편, 비디오 내의 제품 배치는 영화 또는 텔레비전 쇼의 스토리와 혼합될 필요가 있다. 광고를 보이는 장면들 및 기간에 대한 매우 높은 요건들이 있고, 사용자들에게 광고에서 제시되는 정보가 매우 제한된다. 대부분의 경우에, 배치된 제품은 단지 비디오의 영상의 여러 프레임들에서 나타나고, 사용자들은 단지 다른 방법들에 의해 제품에 관한 보다 많은 정보를 알 수 있다.
현재, 비디오에서 나오는 물품은 단지 비디오의 재생 중에 사용자에게 일방향으로 제시될 수 있고, "일방향으로"는 물품의 정보가 사용자에게만 전달되는 것을 의미한다. 예를 들어, 도 1b의 목걸이의 광고의 경우, 사용자는 목걸이(12)의 박스로부터 목걸이의 브랜드만 단지 알 수 있고, 물품의 더 많은 속성 정보를 편리하게 알 수 없다. 바꾸어 말하면, 비디오에 나오는 물품에 대해, 비디오 내의 물품에 의해 제시되는 정보를 제외하고, 사용자는 물품의 가격과 같은 속성 정보에 관해 더 많이 알 수 없다. 그러므로, 기존의 기술에서, 스타들의 효과들로 인해, 비디오에 나오는 물품이 사용자들의 주의를 쉽게 끌 수 있다. 그러나, 비디오에 삽입된 광고에 의해 사용자들에게 전달될 수 있는 정보의 양은 매우 제한되어, 사용자들이 물품의 속성 정보를 알기가 불편하다.
상기에 비추어서, 기존의 기술에 존재하는 적어도 하나의 문제를 해결하기 위해, 본원의 구현예들은 사용자에게, 사용자가 비디오에서 관심있는 물건의 속성 정보를 제시하고, 사용자가 물건을 검색하는 문제를 피하여, 사용자가 비디오 내의 물건에 관한 보다 많은 정보를 쉽게 알 수 있게 되어, 사용자 경험을 향상시키는, 정보 처리 방법 및 장치, 단말기, 및 저장 매체를 제공한다.
본원의 구현예들의 기술적 해결책들은 이 방식으로 구현된다.
제1 양태에 따르면, 본원의 구현예는 정보 처리 방법을 제공하고, 상기 방법은
단말기에 의해, 상기 단말기의 디스플레이 디바이스 상에 비디오를 재생하는 단계;
상기 단말기에 의해, 사용자의 제1 입력 조작을 획득하는 단계 - 상기 제1 입력 조작은 상기 비디오에서 재생되는 현재의 프레임으로부터 물건을 선택하기 위해 사용됨 -;
상기 비디오에서 재생되는 상기 현재의 프레임으로부터 상기 단말기에 의해, 상기 사용자의 상기 제1 입력 조작에 대응하는 상기 물건의 식별 정보를 획득하는 단계;
상기 단말기에 의해, 상기 물건의 상기 식별 정보에 따라 상기 물건의 속성 정보를 획득하는 단계; 및
상기 단말기에 의해, 상기 물건의 상기 속성 정보를 디스플레이하는 단계
를 포함한다.
제2 양태에 따르면, 본원의 구현예는 정보 처리 장치를 제공하고, 상기 장치는 재생 유닛, 제1 획득 유닛, 제2 획득 유닛, 제3 획득 유닛, 및 디스플레이 유닛을 포함하고,
상기 재생 유닛은 단말기의 디스플레이 디바이스 상에 비디오를 재생하도록 구성되고;
상기 제1 획득 유닛은 사용자의 제1 입력 조작을 획득하도록 구성되고, 상기 제1 입력 조작은 상기 비디오에서 재생되는 현재의 프레임으로부터 물건을 선택하기 위해 사용되고;
상기 제2 획득 유닛은 상기 비디오에서 재생되는 상기 현재의 프레임으로부터, 상기 사용자의 상기 제1 입력 조작에 대응하는 상기 물건의 식별 정보를 획득하도록 구성되고;
상기 제3 획득 유닛은 상기 물건의 상기 식별 정보에 따라 상기 물건의 속성 정보를 획득하도록 구성되고;
상기 디스플레이 유닛은 상기 물건의 상기 속성 정보를 디스플레이하도록 구성된다.
제3 양태에 따르면, 본원의 구현예는 컴퓨터 저장 매체를 제공하고, 상기 컴퓨터 저장 매체는 컴퓨터 실행가능 명령어를 저장하고, 상기 컴퓨터 실행가능 명령어는 본 개시내용의 제1 양태의 구현예에서 제공된 정보 처리 방법을 실행하기 위해 사용된다.
제4 양태에 따르면, 본원의 구현예는 단말기를 제공하고, 상기 단말기는
재생될 비디오를 디스플레이하고, 물건에 관한 것이며 처리 장치에 의해 출력되는 속성 정보를 디스플레이하도록 구성된 디스플레이 디바이스를 포함하고;
상기 처리 장치는 상기 디스플레이 디바이스 상에 상기 비디오를 재생하고, 사용자의 제1 입력 조작을 획득하고 - 상기 제1 입력 조작은 상기 비디오에서 재생되는 현재의 프레임으로부터 물건을 선택하기 위해 사용됨 -, 상기 비디오에서 재생되는 상기 현재의 프레임으로부터, 상기 사용자의 상기 제1 입력 조작에 대응하는 상기 물건의 식별 정보를 획득하고, 상기 물건의 상기 식별 정보에 따라 상기 물건의 상기 속성 정보를 획득하고, 상기 디스플레이 디바이스 상에 상기 물건의 상기 속성 정보를 디스플레이하도록 구성된다.
제5 양태에 따르면, 본원의 구현예는 단말기를 제공하고, 상기 단말기는
컴퓨터 실행가능 명령어를 저장하도록 구성된 저장 매체; 및
상기 저장 매체 상에 저장된 컴퓨터 실행가능 명령어를 실행하도록 구성된 프로세서를 포함하고, 상기 컴퓨터 실행가능 명령어는 디스플레이 디바이스 상에 비디오를 재생하고, 사용자의 제1 입력 조작을 획득하고 - 상기 제1 입력 조작은 상기 비디오에서 재생되는 현재의 프레임으로부터 물건을 선택하기 위해 사용됨 -, 상기 비디오에서 재생되는 상기 현재의 프레임으로부터, 상기 사용자의 상기 제1 입력 조작에 대응하는 상기 물건의 식별 정보를 획득하고, 상기 물건의 상기 식별 정보에 따라 상기 물건의 속성 정보를 획득하고, 상기 디스플레이 디바이스 상에 상기 물건의 상기 속성 정보를 디스플레이하는 것을 포함한다.
본원의 구현예들은 정보 처리 방법 및 장치, 단말기, 및 저장 매체를 제공한다. 단말기는 단말기의 디스플레이 디바이스 상에 비디오를 재생한다. 단말기는 사용자의 제1 입력 조작을 획득하고, 제1 입력 조작은 비디오에서 재생된 현재의 프레임으로부터 물건을 선택하기 위해 사용된다. 단말기는 비디오에서 재생되는 현재의 프레임으로부터, 사용자의 제1 입력 조작에 대응하는 물건의 식별 정보를 획득한다. 단말기는 물건의 식별 정보에 따라 물건의 속성 정보를 획득한다. 단말기는 물건의 속성 정보를 디스플레이한다. 이 방식으로, 사용자가 비디오에서 관심있는 물건의 속성 정보가 사용자에게 제시되어, 사용자가 물건을 검색하는 문제를 피하여, 사용자가 비디오 내의 물건에 관한 보다 많은 정보를 쉽게 알 수 있게 되어, 사용자 경험을 향상시킨다.
도 1a는 관련된 기술의 개략적 시나리오도 1.
도 1b는 관련된 기술의 개략적 시나리오도 2.
도 1c는 본원의 실시예 1에 따른 정보 처리 방법을 구현하는 개략적 플로우차트.
도 1d는 본원의 실시예 1에 따른 개략적 시나리오도.
도 2는 본원의 실시예 2에 따른 개략적 시나리오도.
도 3은 본원의 실시예 3에 따른 개략적 시나리오도.
도 4는 본원의 실시예 4에 따른 개략적 시나리오도.
도 5a는 본원의 실시예 5에 따른 정보 처리 방법을 구현하는 개략적 플로우차트.
도 5b는 본원의 실시예 5에 따른 인덱스 리스트의 개략도.
도 6a는 본원의 실시예 6에 따른 정보 처리 방법을 구현하는 개략적 플로우차트 1.
도 6b는 본원의 실시예 6에 따른 정보 처리 방법을 구현하는 개략적 플로우차트 2.
도 7a는 본원의 실시예 7에 따른 정보 처리 방법을 구현하는 개략적 플로우차트.
도 7b는 본원의 실시예 7에 따른 기입기, 판독기, 및 출력 디바이스 간의 관계의 개략도.
도 8은 본원의 실시예 8에 따른 정보 처리 장치의 개략적 구성 구조도.
도 9는 본원의 실시예 9에 따른 정보 처리 장치의 개략적 구성 구조도.
도 10은 본원의 실시예 10에 따른 정보 처리 장치의 개략적 구성 구조도.
도 11은 본원의 실시예 11에 따른 정보 처리 장치의 개략적 구성 구조도.
도 12a는 본원의 실시예 12에 따른 단말기 및 서버의 개략적 구성 구조도.
도 12b는 본원의 실시예 12에 따른 사용자에게 물건의 속성 정보를 디스플레이하는 것을 구현하는 개략적 플로우차트.
도 12c는 본원의 실시예 12에 따른 사용자에 의한 물건의 속성 정보의 부가를 구현하는 개략적 플로우차트.
상기 문제에 대해, 본원의 구현예는 정보 처리 방법을 제공한다. 사용자가 비디오를 시청하는 과정에서, 사용자가 비디오의 영상에 나오는 물건에 관심이 있으면, 사용자는 마우스와 같은 입력 디바이스를 사용하여, 비디오에 나오는 물건에 입력 디바이스를 포지셔닝한다. 그러므로, 재생 디바이스는 물건의 식별 정보를 획득하고, 재생 디바이스는 다음에 물건의 식별 정보에 대응하는 물건의 속성 정보를 획득하고, 재생 디바이스는 마지막으로 사용자에게 물건의 속성 정보를 제시한다. 본원의 구현예에서 제공된 기술적 해결책에 의해, 재생 디바이스는 사용자가 관심있는 물건을 획득하고, 사용자가 비디오를 시청하는 과정에서 사용자에게 물건의 속성 정보를 제시하여, 사용자가 물건을 검색하는 문제를 피하여, 사용자가 비디오 내의 물건에 관한 보다 많은 정보를 쉽게 알 수 있게 된다.
본 개시내용의 기술적 해결책들이 첨부 도면 및 구현예들을 참조하여 이하 상세히 더 설명된다.
실시예 1
본원의 본 구현예는 단말기에 적용되는, 정보 처리 방법을 제공한다. 정보 처리 방법에 의해 구현된 기능들은 프로그램 코드를 인보크하는 단말기 내의 프로세서에 의해 구현될 수 있다. 물론, 프로그램 코드는 컴퓨터 저장 매체 내에 저장될 수 있다. 그러므로, 단말기는 프로세서 및 저장 매체를 적어도 포함한다.
도 1c는 본원의 실시예 1에 따른 정보 처리 방법을 구현하는 개략적 플로우차트이다. 도 1c에 도시한 바와 같이, 정보 처리 방법은 다음을 포함한다:
단계 101: 단말기는 단말기의 디스플레이 디바이스 상에 비디오를 재생한다.
여기서, 단말기는 스마트폰, 퍼스널 컴퓨터, 노트북, 인터넷 노트북 컴퓨터(넷북), 태블릿 컴퓨터, 데스크탑 컴퓨터, 또는 스마트 텔레비전과 같은 비디오 재생 디바이스를 포함한다.
단계 102: 단말기는 사용자의 제1 입력 조작을 획득하고, 제1 입력 조작은 비디오에서 재생되는 현재의 프레임으로부터 물건을 선택하기 위해 사용된다.
여기서, 물건은 물품, 사람, 동물, 식물, 막간극, 또는 크레디트들의 제작진을 포함한다. 예를 들어, 도 1a의 물품들은 셔츠(14), 타이(13), 우유(11), 안경(15), 및 재킷(16)을 포함한다. 도 1b 내의 물품들은 반팔 셔츠(19), 목걸이(12), 및 시폰 셔츠(21)를 포함한다. 도 1a 내의 사람들은 배우(10) 및 배우(15)를 포함한다. 도 1b 내의 사람들은 배우(17) 및 여배우(18)를 포함한다.
여기서, 제1 입력 조작은 단말기의 유형에 따라 상이하다. 예를 들어, 단말기가 공용 퍼스널 컴퓨터이고 입력 디바이스가 마우스일 때, 제1 입력 조작은 마우스를 사용하여 사용자가 비디오 상에 클릭하는 조작일 수 있다. 물론, 비디오 상의 물건은 마우스에 의한 클릭 조작에 의해 선택된 물건일 수 있다. 단말기의 디스플레이 디바이스가 터치 제어 디스플레이 스크린(예를 들어, 스마트폰, 태블릿 컴퓨터, 또는 데스크탑 컴퓨터)일 때, 제1 입력 조작은 조작체의 터치 제어 조작일 수 있고, 조작체는 손가락 또는 스타일러스를 포함한다. 본 기술 분야의 통상의 기술자는 제1 입력 조작의 특정한 조작 방식을 주문화할 수 있다는 점에 주목하여야 한다. 예를 들어, 제1 입력 조작은 사용자에 의해 비디오의 일시중지를 트리거하는 조작을 포함할 수 있다. 예를 들어, 제1 입력 조작은 다음과 같은 일련의 조작들이다: 사용자는 비디오를 일시중지하고, 사용자는 마우스의 디스플레이 커저가 비디오 내의 물건에서 정지할 때까지 비디오 상의 마우스의 디스플레이 커저를 비디오 상에 슬라이드하게 할 것이고; 이 방식으로, 비디오에서 재생되는 현재의 프레임 내의 물건이 선택된다. 물론, 제1 입력 조작은 또한 사용자가 손가락으로 현재의 프레임 상의 물건을 터치하거나, 사용자가 현재의 프레임 내의 물건에서 마우스의 디스플레이 커저를 정지시키는 것일 수 있다. 특정한 구현이 본원의 본 구현예에서 제공된 방식으로 제한되지 않는다. 본 기술 분야의 통상의 기술자는 다양한 기존의 기술들에 의해 전술한 제1 입력 조작을 더 구현할 수 있고, 상세들은 여기서 설명되지 않는다.
단계 103: 단말기는 비디오에서 재생되는 현재의 프레임으로부터, 사용자의 제1 입력 조작에 대응하는 물건의 식별 정보를 획득한다.
여기서, 물건의 식별 정보는 물건의 번호 또는 이름과 같은 정보일 수 있다.
단계 104: 단말기는 물건의 식별 정보에 대응하는 물건의 속성 정보를 획득한다.
여기서, 물건의 속성 정보는 물건의 어떤 정보일 수 있다. 물건이 물품일 때, 물품의 속성은 물품의 상품명, 물품의 브랜드, 가격, 원산지, 판매 몰, 및 물품이 적합한 사용자들을 포함할 수 있다. 물건이 사람일 때, 물건의 속성 정보는 사람의 이름, 키, 및 출생지와 같은 정보를 포함할 수 있다. 물건이 동물일 때, 물건의 속성은 동물의 이름, 동물의 성별, 분포 범위, 보호 수준, 형태학적 특징, 및 생활 습관과 같은 정보를 포함할 수 있다. 물건이 식물일 때, 물건의 속성은 식물 이름, 형태학적 특징, 성장 환경, 분포 범위, 및 재배 방법과 같은 정보를 포함할 수 있다.
여기서, 물건의 식별 정보에 따라 단말기에 의해 획득된 속성 정보는 로컬하게 저장되어 있을 수 있고, 비디오를 푸시하는 서버로부터 획득될 수 있거나, 제3자 서버로부터 더 획득될 수 있고, 여기서 제3자 서버는 검색 엔진의 서버 등일 수 있다.
단계 105: 단말기는 물건의 속성 정보를 디스플레이한다.
여기서, 단말기는 단말기의 디스플레이 디바이스를 사용하여 물건의 속성 정보를 디스플레이한다. 양호한 구현 방식에서, 단계 105는 단말기가 부동 층의 방식으로 물건의 속성 정보를 출력하는 것일 수 있다.
본원의 본 구현예에서 제공된 기술적 해결책은 다음의 시나리오에서 사용될 수 있다. 도 1d에 도시한 바와 같이, 사용자가 비디오를 시청하는 과정에서 사용자가 관심있는 물건을 찾을 때, 사용자는 포지셔닝 조작(제1 입력 조작)을 개시한다. 예를 들어, (도 1d의 a에 도시한 바와 같이) 사용자는 단말기 상에서 비디오를 시청하고, 단말기의 디스플레이가 터치 제어 디스플레이 스크린이라서, 단말기는 사용자의 터치 제어 조작을 수신할 수 있다고 먼저 가정한다. 비디오를 시청하는 과정에서, 사용자는 여걸이 착용한 목걸이(12)가 멋지게 보인다는 것을 발견한다. 그러므로, (도 1d의 b에 도시한 바와 같이) 사용자는 목걸이(12)에서 손가락을 정지할 수 있고, 즉, 사용자는 비디오의 현재의 프레임으로부터 목걸이(12)를 선택하고, 이 방식으로, 단말기는 사용자의 터치 제어 조작(제1 입력 조작)을 수신한다. 다음에, 단말기는 비디오에서 재생되는 현재의 프레임으로부터, 제1 입력 조작에 대응하는 목걸이(12)의 번호를 획득한다(번호는 목걸이(12)의 식별 정보로서 사용된다). 다음에, 단말기는 목걸이(12)의 번호에 따라 목걸이(12)의 속성 정보를 획득한다. 단말기는 부동 층의 방식으로 목걸이(12)의 속성 정보를 디스플레이한다. 도 1d의 c에 도시한 바와 같이, 목걸이(12)의 속성 정보는 부동 층(140)의 형태로 사용자에게 디스플레이되고, 목걸이(12)의 속성 정보는 다음을 포함한다: 상품명: Sunshine 목걸이, 브랜드: ZOCAI, 디자이너: 알려지지 않음, 가격: ¥1899.0 내지 ¥2499.0, 판매 몰들: Jingdong 몰, Suning.com, ZOCAI 매장들 및 ZOCAI의 공식 웹사이트, 브랜드의 유사 상품들, 및 브랜드 소개. 부동 층(140)은 클로즈 버튼(141)을 포함한다. 클로즈 버튼(141)을 트리거할 때, 사용자는 부동 층(140)을 클로즈할 수 있다. 부동 층(140)에서 디스플레이된 내용은 링크를 더 가질 수 있다. 예를 들어, 목걸이(12)의 판매 몰(142)이 링크 방식으로 오픈될 수 있다. 그러므로, 사용자의 손가락이 판매 몰(142)을 터치할 때, 판매 몰(142)에 링크된 내용(143)이 디스플레이된다.
특정한 구현 동안, 부동 층(140)은 특정한 디스플레이 기간, 예를 들어, 30초의 디스플레이 기간을 갖고, 디스플레이 기간이 끝난 후에, 단말기는 부동 층(140)을 자동으로 클로즈한다. 일부 구현예들에서, 다음의 프레임을 재생할 때, 단말기는 현재의 프레임의 부동 층을 자동으로 클로즈한다. 대안적으로, 부동 층은 또한 제1 입력 조작의 기간에 따라 디스플레이될 수 있다. 예를 들어, 손가락이 목걸이(12) 상에서 머물 때, 부동 층(140)이 머무는 것이 디스플레이되고, 사용자의 손가락이 목걸이(12)에서 떠날 때, 부동 층 또한 그에 따라 사라진다.
실시예 2
본원의 실시예 1에서 제공된 기술적 해결책이 다음의 시나리오에서 더 사용될 수 있다. 도 1d에 도시한 예에서, 비디오 내의 물건은 물품이다. 물론, 비디오 내의 물건은 또한 사람일 수 있다. 도 2에 도시한 바와 같이, (도 2의 a에 도시한 바와 같이) 사용자는 단말기 상에서 비디오를 시청하고, 단말기의 디스플레이가 터치 제어 디스플레이 스크린이라서, 단말기는 사용자의 터치 제어 조작을 수신할 수 있다고 먼저 가정한다. 비디오를 시청하는 과정에서, 사용자는 배우가 유명하지 않은 배우라는 것을 발견하고, 그러므로 배우(17)의 데이터를 보기를 원한다. 그러므로, (도 2의 b에 도시한 바와 같이) 사용자는 배우(17)에서 손가락을 정지할 수 있고, 손가락이 배우 대신에, 배우(17)의 옷들에서 정지하면, 획득된 물건은 아마도 배우의 재킷일 수 있다는 점을 여기서 주목하여야 한다. 그러나, 단말기가 배우의 옷들을 획득할 수 없으면, 단말기는 배우와 여배우의 속성 정보만을 획득할 수 있다고 가정하고, 사용자의 손가락이 배우의 옷들에서 정지할 때, 단말기에 의해 획득된 물건은 또한 배우이고, 즉, 사용자는 비디오의 현재의 프레임으로부터 배우를 선택하고, 이 방식으로, 단말기는 사용자의 터치 제어 조작(제1 입력 조작)을 수신한다. 다음에, 단말기가 비디오에서 재생되는 현재의 프레임으로부터, 제1 입력 조작에 대응하는 배우(17)의 번호(번호는 배우(17)의 식별 정보로서 사용된다)를 획득한다. 단말기는 다음에 배우(17)의 번호에 따라 배우(17)의 속성 정보를 획득한다. 단말기는 부동 층의 방식으로 배우(17)의 속성 정보를 디스플레이한다. 도 2의 c에 도시한 바와 같이, 배우(17)의 속성 정보는 부동 층(140)의 형태로 사용자에게 디스플레이된다. 배우(17)의 속성 정보는 다음을 포함한다: 중국 이름: 종 한리앙, 영문 이름: Wallace Chung, 다른 이름들: 리틀 선과 샤오 와, 국적: 중화인민공화국, 민족: 한족, 별자리: 사수자리, 혈액형: A, 키: 183 cm, 몸무게: 70 kg, 출생지: 홍콩, 및 보다 많은 정보. 부동 층(140)에 디스플레이된 배우(17)의 속성 정보는 링크를 더 가질 수 있다. 예를 들어, 보다 많은 정보(139)는 링크의 방식으로 오픈될 수 있다. 그러므로, 사용자의 손가락이 보다 많은 정보(139)를 터치하면, (도 2의 d에 도시한 바와 같이) 단말기는 배우(17)에 관한 보다 많은 정보를 부동 층(140)에 디스플레이한다.
도 2의 c1은 도 2의 c의 부동 층(140)의 확대된 도면이고, 도 2의 d1은 도 2의 d의 부동 층(140)의 확대된 도면이다. 사용자가 배우(17)를 터치할 때, (도 2의 c1에 도시한 바와 같이) 부동 층(140)은 배우(17)의 속성 정보를 디스플레이한다. 사용자가 도 2의 c1에서 보다 많은 정보(139)를 터치할 때, (도 2의 d1에 도시한 바와 같이) 부동 층(140)은 배우(17)의 보다 많은 데이터를 디스플레이한다. 보다 많은 데이터는 예를 들어, 다음을 포함한다: 필모그래피: Imminent Crisis/The Stand-In/Too late to say loving you/The Continent, 주요 수상들: 2012 골든 이글 TV 예술 페스티벌에서의 홍콩, 마카오, 및 대만 지역의 시청자가 선호하는 배우, 제26회 골든 이글 어워드에서의 배우 부문 시청자 선정 지명, 북경 팝 뮤직 어워즈 2011의 최고의 스테이지-퍼포먼스 남자 가수, 북경 팝 뮤직 어워즈 2010의 최고의 스테이지-퍼포먼스 남자 가수, 제3회 LeTV 어워즈에서의 최고의 배우 수상, 및 96 및 97에서의 대만 탑 텐 아이돌즈 수상.
실시예 3
도 1d는 풀스크린 방식으로 재생된 영상을 디스플레이하고, 도 2는 도 1d의 것과 상이한 디스플레이 방식을 도시한다. 도 2 내의 비디오의 재생된 영상은 디스플레이 스크린의 일부를 차지하고(비-풀스크린 방식), 디스플레이 스크린의 다른 부분들은 재생된 영상 이외의 내용을 디스플레이하기 위해 사용되고, 여기서 그 내용은 예를 들어, 재생된 비디오에 관련된 또 하나의 추천된 비디오이다. 도 2 및 도 1d 모두에서, 비디오 내의 물건의 속성 정보를 디스플레이하기 위해 사용되는 부동 층(140)은 디스플레이 영상 상에 위치한다. 도 2에 도시한 비-풀스크린 방식이 재생되는 비디오의 영상을 디스플레이하기 위해 사용될 때, 부동 층(140)은 디스플레이 영상 상에 위치하지 않을 수 있다. 예를 들어, (도 3의 a에 도시한 바와 같이) 사용자가 단말기 상에서 비디오를 시청할 때, 단말기의 디스플레이는 터치 제어 디스플레이 스크린이라서, 단말기는 사용자의 터치 제어 조작을 수신할 수 있다고 먼저 가정한다. 비디오를 시청하는 과정에서, 사용자는 배우가 유명하지 않은 배우라는 것을 발견하고, 그러므로 배우(17)의 데이터를 보기를 원한다. 그러므로, (도 3의 b에 도시한 바와 같이) 사용자는 배우(17)에서 손가락을 정지할 수 있다. 즉, 사용자는 비디오의 현재의 프레임으로부터 배우(17)를 선택하고, 이 방식으로, 단말기는 사용자의 터치 제어 조작(제1 입력 조작)을 수신한다. 다음에, 단말기는 비디오에서 재생되는 현재의 프레임으로부터, 제1 입력 조작에 대응하는 배우(17)의 번호를 획득하고, 단말기는 다음에 배우(17)의 번호에 따라 배우(17)의 속성 정보를 획득한다. 단말기는 부동 층의 방식으로 배우(17)의 속성 정보를 디스플레이한다. 도 3의 c에 도시한 바와 같이, 배우(17)의 속성 정보는 부동 층(140)의 형태로 사용자에게 디스플레이되고, 여기서 부동 층(140)은 재생되는 영상 밖의 영역에 디스플레이된다. 부동 층(140)에 디스플레이되는 배우(17)의 속성 정보는 링크를 더 가질 수 있다. 예를 들어, 보다 많은 정보(139)는 링크의 방식으로 오픈될 수 있다. 그러므로, 사용자의 손가락이 보다 많은 정보(139)를 터치할 때, (도 3의 d에 도시한 바와 같이) 단말기는 부동 층(140) 내에 배우(17)에 관한 보다 많은 정보를 디스플레이한다. 보다 많은 정보는 또한 부동 층(140)에 디스플레이될 수 있고, 즉, 영상은 부동 층에서 전환된다.
도 3의 c2는 도 3의 c의 부동 층(140)의 확대된 도면이고, 도 3의 d2는 도 3의 d의 부동 층(140)의 확대된 도면이다. 사용자가 배우(17)를 터치할 때, (도 3의 c2에 도시한 바와 같이) 부동 층(140)은 배우(17)의 속성 정보를 디스플레이한다. 사용자가 도 3의 c2에서 보다 많은 정보를 터치할 때, (도 3의 d2에 도시한 바와 같이) 부동 층(140)은 배우(17)의 보다 많은 데이터를 디스플레이한다.
실시예 4
본원의 실시예 1에서의 제1 입력 조작은 또한 사용자가 비디오를 일시중지하고, 단말기가 제1 입력 조작을 획득하는 것일 수 있다. 바꾸어 말하면, 제1 입력 조작은 비디오를 일시중지하는 조작이다. 이 경우에, 단계 103에서, 비디오 내의 하나보다 많은 물건이 일시중지 조작에 따라 단말기에 의해 획득될 수 있다. 예를 들어, 단말기는 비디오 내의 모든 물건들을 획득할 수 있다. 도 1b에 도시한 바와 같이, 단말기에 의해 획득된 물건들의 식별 정보는 배우(17)의 식별 정보, 여배우(18)의 식별 정보, 반팔 셔츠(19)의 식별 정보, 목걸이(12)의 식별 정보, 및 시폰 셔츠(21)의 식별 정보를 포함한다. 대응하여, 단계 104에서, 단말기에 의해 획득된 물건들의 속성 정보는 배우(17)의 속성 정보, 여배우(18)의 속성 정보, 반팔 셔츠(19)의 속성 정보, 목걸이(12)의 속성 정보, 및 시폰 셔츠(21)의 속성 정보를 포함한다. 다음에, 단계 105에서, 단말기는 단말기의 디스플레이 디바이스 상에 배우(17)의 속성 정보, 여배우(18)의 속성 정보, 반팔 셔츠(19)의 속성 정보, 목걸이(12)의 속성 정보, 및 시폰 셔츠(21)의 속성 정보를 디스플레이한다. 물론, 단계 105에서, 사용자는 마우스를 더 이동시키고, 비디오 내의 물건에 마우스를 정지할 수 있으므로, 단말기는 물건의 속성 정보를 디스플레이한다.
도 4는 제1 입력 조작이 비디오를 일시중지하는 조작이라는 것을 설명하기 위해 예로서 사용된다. 도 4의 a에 도시한 바와 같이, 사용자는 단말기 상에서 비디오를 시청한다. 이 때, 사용자가 비디오에서 사용자가 관심있는 물건을 찾은 다음에, (도 4의 b에 도시한 바와 같이) 사용자는 비디오를 일시중지한다. 단말기의 디스플레이가 터치 제어 디스플레이 스크린이라서, 단말기는 사용자의 터치 제어 조작을 수신할 수 있다고 여기서 가정한다. 이 방식으로, 단말기는 사용자의 터치 제어 조작(제1 입력 조작)을 수신한다. 다음에, 단말기는 비디오에서 재생되는 현재의 프레임으로부터, 제1 입력 조작에 대응하는 물건들(물건들은 배우(17), 여배우(18), 반팔 셔츠(19), 목걸이(12), 및 시폰 셔츠(21)를 포함한다)의 식별 정보를 획득하고, 단말기는 배우(17), 여배우(18), 반팔 셔츠(19), 목걸이(12), 및 시폰 셔츠(21)의 속성 정보를 획득한다. 이 경우에, 도 4의 c에 도시한 바와 같이, 사용자는 제1 순간(151)에 배우(17)에서 손가락을 정지하고, 사용자는 제2 순간(152)에 목걸이(12)에서 손가락을 정지한다. 그러므로, 단말기는 부동 층(140)의 방식으로 제1 순간(151)에 배우(17)의 속성 정보를 디스플레이하고, 단말기는 부동 층(140)의 방식으로 제2 순간(152)에 목걸이의 속성 정보를 디스플레이한다. 배우(17)의 속성 정보는 다음을 포함한다: 중국 이름: 종 한리앙, 영문 이름: Wallace Chung, 다른 이름들: 리틀 선과 샤오 와, 국적: 중화인민공화국, 민족: 한족, 별자리: 사수자리, 혈액형: A, 키: 183 cm, 몸무게: 70 kg, 출생지: 홍콩, 및 보다 많은 정보. 목걸이(12)의 속성 정보는 다음을 포함한다: 상품명: Sunshine 목걸이, 브랜드: ZOCAI, 디자이너: 알려지지 않음, 가격: ¥1899.0 내지 ¥2499.0, 판매 몰들: Jingdong 몰, Suning.com, ZOCAI 매장들 및 ZOCAI의 공식 웹사이트, 브랜드의 유사 상품들, 및 브랜드 소개.
도 4의 c51은 제1 순간(151)에서의 도 4의 c의 부동 층(140)의 확대된 도면이고, 도 4의 c52는 제2 순간(152)에서의 도 4의 c의 부동 층(140)의 확대된 도면이다. 도 4의 c51에 도시한 바와 같이, 제1 순간(151)에, 부동 층(140)은 배우(17)의 속성 정보를 디스플레이하고, 제2 순간(152)에, 부동 층(140)은 목걸이(12)의 속성 정보를 디스플레이한다. 도 4의 c, 도 4의 c51, 및 도 4의 c52에 도시한 바와 같이, 부동 층(140)은 클로즈 버튼(153), 수평 이동을 위해 사용되는 스크롤바(155), 및 수직 이동을 위해 사용되는 스크롤바(154)를 더 가질 수 있다.
실시예 5
전술한 구현예들에 기초하여, 본원의 본 구현예는 단말기에 적용되는, 정보 처리 방법을 제공한다. 정보 처리 방법에 의해 구현된 기능들은 프로그램 코드를 인보크하는 단말기 내의 프로세서에 의해 구현될 수 있다. 물론, 프로그램 코드는 컴퓨터 저장 매체 내에 저장될 수 있다. 그러므로, 단말기는 프로세서 및 저장 매체를 적어도 포함한다.
도 5a는 본원의 실시예 5에 따른 정보 처리 방법을 구현하는 개략적 플로우차트이다. 도 5a에 도시한 바와 같이, 정보 처리 방법은 다음을 포함한다:
단계 501: 단말기는 단말기의 디스플레이 디바이스 상에 비디오를 재생한다.
단계 502: 비디오의 재생 중에, 단말기는 사용자의 제2 입력 조작을 획득하고, 제2 입력 조작은 비디오를 일시중지하기 위해 사용된다.
여기서, 제2 입력 조작은 상이한 비디오 재생 애플리케이션들에 따라 상이하고, 전용 비디오 재생 애플리케이션 프로그램(간단히 애플리케이션)이 비디오를 재생하는 과정 중에 필요하다. 예를 들어, 일부 애플리케이션들에서 설정된 비디오를 일시중지하는 조작은 사용자가 단지 비디오의 재생 인터페이스 상에 마우스의 왼쪽 키를 클릭하는 것만이다. 다른 애플리케이션들에서 설정된 비디오를 일시중지하는 조작은 사용자가 단지 키보드의 아무 키를 누르는 것만이다. 일부 애플리케이션들에서 설정된 비디오를 일시중지하는 조작은 사용자가 비디오 상의 전용 일시중지 버튼을 터치하는 것만이다. 다양한 제2 입력 조작들이 있을 수 있다. 간결한 설명을 위해, 상세들은 설명되지 않는다.
단계 503: 단말기는 비디오를 재생하는 것을 일시중지하고, 사용자의 제1 입력 조작을 획득하고, 제1 입력 조작은 비디오에서 재생되는 현재의 프레임으로부터 물건을 선택하기 위해 사용된다.
여기서, 단말기에 의한 비디오의 재생의 일시중지는 제2 입력 조작에 대한 단말기의 응답이다.
단계 504: 단말기는 제1 입력 조작의 위치 정보를 획득하기 위해 사용자의 제1 입력 조작을 포지셔닝한다.
여기서, 제1 입력 조작의 포지셔닝은 단말기의 상이한 입력 디바이스들에 따라 상이하다. 일반적으로, 단말기의 입력 디바이스들은 마우스 및 터치 제어 검출 디바이스를 포함한다. 입력 디바이스로서 마우스를 사용하는 단말기의 경우에, 마우스에 의한 제1 입력 조작의 포지셔닝은 기존의 기술에 의해 해결될 수 있는 문제이다. 입력 디바이스로서 터치 제어 검출 디바이스(예를 들어, 터치 패널 및 터치 제어 디스플레이 스크린)을 사용하는 단말기의 경우에, 터치 조작의 포지셔닝은 또한 기존의 기술에 의해 해결될 수 있는 문제이다. 그러므로, 본 기술 분야의 통상의 기술자는 다양한 기존의 기술들에 따라 단계 504를 구현할 수 있고, 상세들은 여기서 설명되지 않는다.
단계 505: 단말기는 비디오의 비디오 정보 및 현재의 프레임의 프레임 번호를 획득한다.
여기서, 비디오 정보는 비디오의 식별 정보(ID 정보), 비디오의 해상도, 및 비디오의 이름과 같은 정보를 포함한다.
여기서, 단말기는 비디오 정보 및 현재의 프레임의 프레임 번호를 로컬하게 획득할 수 있다. 단말기가 비디오 정보 및 현재의 프레임의 프레임 번호를 로컬하게 획득할 때 그리고 단말기가 서버에 의해 푸시된 비디오 파일을 수신할 때, 재생될 비디오의 관련된 정보가 함께 수신되고, 관련된 정보는 비디오의 식별 정보, 비디오의 해상도, 비디오의 이름, 비디오의 모든 프레임 번호들, 및 프레임 번호들의 순차 정보를 포함한다. 단말기가 프레임을 재생할 때, 프레임은 녹화될 필요가 있다. 그러므로, 단말기는 현재의 프레임의 프레임 번호를 획득할 수 있다.
단계 506: 단말기는 비디오의 비디오 정보, 현재의 프레임의 프레임 번호, 및 제1 입력 조작의 위치 정보에 따라 물건의 식별 정보를 결정한다.
단계 507: 단말기는 물건의 식별 정보에 따라 물건의 속성 정보를 획득한다.
여기서, 물건의 식별 정보에 따라 단말기에 의해 획득된 물건의 속성 정보가 로컬하게 저장되어 있을 수 있거나, 비디오를 푸시하는 서버로부터 획득될 수 있거나, 제3자의 서버로부터 획득될 수 있고, 여기서 제3자의 서버는 검색 엔진의 서버일 수 있다.
단계 508: 단말기는 물건의 속성 정보를 디스플레이한다.
본원의 본 구현예에서 단계 504 내지 506은 실제로 "단말기가 비디오에서 재생되는 현재의 프레임으로부터 사용자의 제1 입력 조작에 대응하는 물건의 식별 정보를 획득하는 것"(단계 103)을 구현하는 특정한 구현 과정을 제공한다. 본원의 본 구현예의 단계 506에서, 단말기는 물건의 식별 정보를 로컬하게 획득할 수 있거나, 물건의 식별 정보에 대해 서버에 요구할 수 있다는 점에 주목하여야 한다.
단말기가 물건의 식별 정보를 로컬하게 획득할 때, 단말기는 인덱스를 저장할 필요가 있다. 단말기는 다음에 물건의 식별 정보를 더 획득하기 위해, 비디오 정보, 현재의 프레임의 프레임 번호, 및 제1 입력 조작의 위치 정보에 따라 인덱스 리스트를 조회한다. 도 5b는 본원의 실시예 5에 따른 인덱스 리스트의 개략도이다. 도 5b 및 도 1d의 b에 도시한 바와 같이, 비디오 정보는 비디오의 (번호로 대체된) 식별 정보 및 비디오의 (화소들로 표현된) 해상도를 포함하는 것이 가정된다. 제1 입력 조작에 대응하는 위치 정보는 {[05, 05], [05, 06], [06, 05], [06, 06]}이고, 여기서 {}는 위치 정보를 나타내고, [] 내의 제1 번호는 제1 방향(53)에서의 위치 정보를 나타내고, [] 내의 제2 번호는 제2 방향(54)에서의 위치 정보를 나타낸다(위치 정보를 해상도에 의존함). 비디오의 번호는 004이고, 프레임 번호는 007이다. 비디오 정보 및 제1 입력 조작의 위치 정보에 따라 단말기에 의해 물건의 식별 정보를 결정하는 과정은 다음과 같다: 단말기는 004의 비디오 번호를 갖는 인덱스에 대한 인덱스 리스트를 검색할 수 있고, 다음에 004의 인덱스 아래의 007의 프레임 번호를 갖는 인덱스를 찾은 다음에, 제1 입력 조작의 위치 정보, 제1 방향(53)을 나타내는 2차원 리스트의 수평 좌표, 및 제2 방향(54)을 나타내는 2차원 리스트의 수직 좌표에 따라 2차원 리스트를 조회하고, 다음에 물건의 식별 정보가 01인 것을 획득하기 위해 제1 입력 조작의 위치 정보에 따라 2차원 리스트를 조회한다. 이 방식으로, 물건의 식별 정보는 제1 입력 조작에 따라 획득된다. 2차원 리스트에서, 물건의 식별 정보 00은 여배우의 피부를 나타내고, 물건의 식별 정보 01은 목걸이를 나타내고, 물건의 식별 정보 02는 여배우의 옷들을 나타낸다.
전술에서 단말기가 물건의 식별 정보를 로컬하게 어떻게 획득하는지를 설명하였다. 대응하여, 단말기가 물건의 식별 정보를 로컬하게 획득하는 전술한 과정은 또한 서버 측에 적용될 수 있다. 이 방식으로, 단말기는 서버로부터 물건의 식별 정보를 요구할 수 있다. 차이점은 단말기가 비디오의 비디오 정보, 현재의 프레임의 프레임 번호, 및 제1 입력 조작의 위치 정보를 서버에 보낼 필요가 있다는 데 있다. 서버는 단말기에 의해 송신된 정보를 수신한다. 서버는 다음에 도 5b에 도시한 인덱스 리스트에 따라 물건의 식별 정보를 획득하고, 서버는 다음에 단말기에 물건의 식별 정보를 송신한다.
본원의 본 구현예에서, 단계 507을 구현하는 4가지 방식이 있다.
방식 1: 단말기는 물건의 식별 정보에 따라 물건의 속성 정보를 로컬하게 획득한다. 물건의 속성 정보는 단말기가 서버로부터 비디오를 요구할 때 함께 획득된다.
여기서, 단말기는 미리 설정된 제1 리스트를 저장한다. 단말기는 제1 어드레스를 획득하기 위해 제1 리스트를 조회하고, 다음에 제1 어드레스에 따라 물건의 속성 정보를 획득할 수 있다. 제1 리스트는 물건의 식별 정보와 제1 어드레스 간의 관계를 나타내기 위해 사용되고, 제1 어드레스는 물건의 속성 정보의 저장 어드레스이다. 방식 1에서, 단말기가 비디오 리소스를 요구할 때 물건의 속성 정보가 서버에 의해 송신되기 때문에, 방식 1을 구현하는 것이 비교적 빠르고, 구현은 네트워크 속도에 쉽게 영향받지 않는다. 사용자가 제1 입력 조작을 수행하지 않을 때, 물건의 속성 정보는 디스플레이될 필요가 없다는 점에 주목하여야 한다. 그러므로, 단말기가 서버로부터 비디오 리소스를 요구할 때 단말기가 물건의 속성 정보를 함께 요구한다면, 대역폭 낭비가 발생한다. 실제로, 이러한 낭비는 크지 않은데, 왜냐하면 물건의 속성 정보는 일반적으로 텍스트이고, 텍스트에 의해 차지되는 대역폭과 비디오에 의해 차지되는 대역폭은 그 크기 정도들이 상이하기 때문이다. 방식 1을 구현하는 것이 빠르고 방식 1은 더 짧은 지연을 갖고, 사용자는 지연에 비교적 민감하기 때문에, 방식 1이 단계 507을 구현하는 선호되는 방식이다.
방식 2: 단말기는 검색 엔진을 인보크하고, 검색 엔진을 사용하여 물건의 식별 정보에 대응하는 속성 정보를 획득한다.
여기서, 단말기는 물건의 식별 정보를 검색을 위한 키워드로 변환하고, 키워드는 물건의 이름일 수 있다. 물건의 식별 정보가 물건의 이름이면, 변환은 수행될 필요가 없고, 검색 엔진은 직접 인보크되어, 물건의 속성 정보가 검색 엔진에 의해 물건의 이름을 사용하여 획득된다.
방식 3은 2개의 단계를 포함한다.
단계 5071: 단말기는 물건의 식별 정보에 따라 물건의 속성 정보를 획득하기 위해 서버를 트리거하도록, 서버에 물건의 식별 정보를 송신하고, 단말기에 물건의 속성 정보를 송신한다.
여기서, 서버는 비디오들을 단말기에 푸시하는 서버를 참조한다.
단계 5072: 서버는 단말기에 의해 송신된 식별 정보를 수신하고, 제1 어드레스를 획득하기 위해 제1 리스트를 조회하고, 다음에 제1 어드레스에 따라 물건의 속성 정보를 획득한다.
여기서, 제1 리스트 및 제1 어드레스는 방식 1의 것들과 동일하므로, 상세들은 여기서 설명되지 않는다.
단계 5073: 서버는 단말기에 물건의 속성 정보를 송신한다.
단계 5074: 단말기는 서버에 의해 송신된 물건의 속성 정보를 수신한다.
방식 3에서, 요구가 서버에 송신될 필요가 있기 때문에, 방식 1에 비해, 방식 3은 특정한 지연을 갖는다.
방식 4는 다음의 4개의 단계를 포함한다.
단계 5075: 단말기는 물건의 식별 정보에 대응하는 물건의 속성 정보가 로컬하게 저장되어 있는지를 결정하여, 결정 결과를 획득한다.
단계 5076: 결정 결과가 물건의 식별 정보에 대응하는 물건의 속성 정보가 로컬하게 저장되어 있다는 것을 나타낼 때, 단말기는 물건의 식별 정보에 따라 물건의 속성 정보를 로컬하게 획득하고, 물건의 속성 정보는 단말기가 서버로부터 비디오를 요구할 때 함께 획득된다.
단계 5077: 결정 결과가 물건의 식별 정보에 대응하는 물건의 속성 정보가 로컬하게 저장되어 있지 않은 것을 나타낼 때, 단말기는, 물건의 식별 정보에 따라 물건의 속성 정보를 획득하도록 서버를 트리거하기 위해, 서버에 물건의 식별 정보를 송신하고, 단말기에 물건의 속성 정보를 송신한다.
단계 5078: 단말기는 서버에 의해 송신된 물건의 속성 정보를 수신한다.
방식 4는 전술에서의 방식 1과 방식 3 사이의 절충 해결책이다. 방식 4에서, 모든 물건들의 속성 정보는 비디오 소스가 요구될 때 요구되지 않는다. 그러므로, 물건의 속성 정보가 저장되는지가 먼저 결정된다. 단계 5077은 방식 3과 동일하므로, 상세들은 여기서 설명되지 않는다.
실시예 1의 기술적 해결책에 비해, 본원의 실시예 5에서 제공된 기술적 해결책은 다음과 같은 유익한 효과들을 갖는다: 본 구현예에서, 단말기는 먼저 비디오를 일시중지하고 다음에 사용자의 제1 입력 조작에 따라, 요구될 물건의 식별 정보를 결정한다. 비디오는 단지 몇개의 프레임이 사용자가 비디오의 재생 중에 관심있는 물건을 갖기 때문에 일시중지된다. 바꾸어 말하면, 이러한 짧은 시간 기간 동안, 단말기가 물건의 획득된 속성 정보를 사용자에게 제시하면, 사용자가 물건의 속성 정보를 보기도 전에, 사용자가 관심있는 물건은 더 이상 재생되지 않는 것이 가능하다. 그러므로, 일시중지 조작이 본원의 본 구현예에서 제공된 기술적 해결책에 부가된다.
실시예 6
전술한 구현예들에 기초하여, 본원의 본 구현예는 단말기에 적용되는, 정보 처리 방법을 제공한다. 정보 처리 방법에 의해 구현된 기능들은 프로그램 코드를 인보크하는 단말기 내의 프로세서에 의해 구현될 수 있다. 물론, 프로그램 코드는 컴퓨터 저장 매체 내에 저장될 수 있다. 그러므로, 단말기는 프로세서 및 저장 매체를 적어도 포함한다.
도 6a는 본원의 실시예 6에 따른 정보 처리 방법을 구현하는 개략적 플로우차트이다. 도 6a에 도시한 바와 같이, 정보 처리 방법은 다음을 포함한다:
단계 601: 단말기는 단말기의 디스플레이 디바이스 상에 비디오를 재생한다.
단계 602: 단말기는 사용자의 제1 입력 조작을 획득하고, 제1 입력 조작은 비디오에서 재생되는 현재의 프레임으로부터 물건을 선택하기 위해 사용된다.
단계 603: 단말기는 비디오에서 재생되는 현재의 프레임으로부터, 사용자의 제1 입력 조작에 대응하는 물건의 식별 정보를 획득한다.
단계 604: 단말기는 물건의 식별 정보에 따라 물건의 속성 정보를 획득한다.
여기서, 단계 601 내지 단계 604는 각각 실시예 1의 단계 101 내지 단계 104에 대응한다. 그러므로, 본 기술 분야의 통상의 기술자는 전술의 단계 101 내지 단계 104를 이해하기 위해 실시예 1을 참조할 수 있다. 간결성을 위해, 상세들은 여기서 설명되지 않는다.
단계 605: 단말기는 판독기를 인보크하고, 판독기를 사용하여, 물건의 식별 정보에 따라 데이터 메모리로부터 물건의 속성 정보를 획득한다.
여기서, 판독기는 애플리케이션 프로그램이고, 데이터(물건의 식별 정보)를 판독할 수 있다.
여기서, 데이터 메모리는 데이터 캐시 층을 참조하고, 단말기는 데이터 메모리 내에 미리 물건의 속성 정보를 저장한다. 비디오의 재생 중에, 단말기는 먼저 물건의 속성 정보를 캐시하므로, 재생은 비교적 빠르다.
단계 606: 단말기는 출력 디바이스를 인보크하고, 출력 디바이스를 사용하여 물건의 속성 정보를 출력한다.
여기서, 출력 디바이스는 또한 애플리케이션 프로그램이고, 데이터(물건의 속성 정보)를 출력할 수 있다.
본 구현예에서, 전술의 단계 605 및 단계 606은 실제로 단말기에 의해 물건의 속성 정보의 디스플레이를 구현하는 방식을 제공한다(단계 105). 단계 606에서, 단말기가 출력 디바이스를 인보크하고, 출력 디바이스를 사용하여 물건의 속성 정보를 출력하는 것은 단말기에 의해 출력 디바이스를 인보크하고, 부동 층의 방식으로 출력 디바이스를 사용하여 물건의 속성 정보를 출력하는 것을 포함한다.
본원의 본 구현예에서, 도 6b에 도시한 바와 같이, 단계 605 전에, 방법은 다음을 더 포함할 수 있다:
단계 607: 단말기는 데이터 캐시 층이 물건의 속성 정보를 캐시하는지를 결정하고, 그렇다면, 과정은 단계 605로 돌아가고, 그렇지 않으면, 과정은 단계 608로 돌아간다.
단계 608: 단말기는 동기화 과정을 인보크하고, 동기화 과정을 사용하여 데이터 싱크 층으로부터의 물건의 속성 정보를 데이터 캐시 층과 동기화시킨다. 과정은 단계 605로 돌아간다.
여기서, 동기화 과정은 또한 애플리케이션 프로그램이고, 데이터를 데이터 싱크 층과 데이터 캐시 층 사이에서 동기화시킬 수 있다. 데이터 싱크 층은 단말기의 하드 디스크 또는 자기 디스크인 것으로 이해될 수 있다. 본 구현예에서, 데이터 캐시 층이 대응하는 데이터를 갖지 않으면, 대응하는 데이터는 동기화 과정을 사용하여 데이터 싱크 층으로부터 동기화된다.
실시예 7
전술한 구현예들에 기초하여, 본원의 본 구현예는 단말기에 적용되는, 정보 처리 방법을 더 제공한다. 정보 처리 방법에 의해 구현된 기능들은 프로그램 코드를 인보크하는 단말기 내의 프로세서에 의해 구현될 수 있다. 물론, 프로그램 코드는 컴퓨터 저장 매체 내에 저장될 수 있다. 그러므로, 단말기는 프로세서 및 저장 매체를 적어도 포함한다.
도 7a는 본원의 실시예 7에 따른 정보 처리 방법을 구현하는 개략적 플로우차트이다. 도 7a에 도시한 바와 같이, 정보 처리 방법은 다음을 포함한다:
단계 701: 단말기는 단말기의 디스플레이 디바이스 상에 비디오를 재생한다.
단계 702: 단말기는 사용자의 제1 입력 조작을 획득하고, 제1 입력 조작은 비디오에서 재생되는 현재의 프레임으로부터 물건을 선택하기 위해 사용된다.
여기서, 단계 701 및 단계 702는 각각 실시예 1의 단계 101 및 단계 102에 대응한다. 그러므로, 본 기술 분야의 통상의 기술자는 전술의 단계 101 내지 단계 102를 이해하기 위해 실시예 1을 참조할 수 있다. 간결성을 위해, 상세들은 여기서 설명되지 않는다.
단계 703: 단말기는 사용자의 제3 입력 조작을 획득하고, 제3 입력 조작은 사용자가 데이터를 단말기 내로 기입하기 위해 사용된다.
여기서, 제3 입력 조작은 단말기의 상이한 입력 디바이스들에 따라 상이하다. 제3 입력 조작은 전술한 제1 입력 조작과 유사하므로, 상세들은 여기서 설명되지 않는다.
단계 704: 단말기는 제3 입력 조작에 기초하여, 사용자에 의해 입력된 데이터를 획득한다.
여기서, 사용자에 의해 입력된 데이터는 물건의 식별 정보와 관련된 데이터 정보이다.
단계 705: 단말기는 기입기를 인보크하고, 기입기를 사용하여, 사용자에 의해 입력된 데이터를 물건의 식별 정보에 대응하는 속성 정보로서 생성한다.
여기서, 기입기는 또한 애플리케이션 프로그램이고, 사용자에 의해 입력된 데이터를 물건의 식별 정보에 대응하는 속성 정보로서 생성할 수 있다.
단계 706: 단말기는 비디오에서 재생되는 현재의 프레임으로부터, 사용자의 제1 입력 조작에 대응하는 물건의 식별 정보를 획득한다.
단계 707: 단말기는 물건의 식별 정보에 따라 물건의 속성 정보를 획득한다.
단계 708: 단말기는 물건의 속성 정보를 디스플레이한다.
여기서, 단계 706 내지 단계 708은 각각 실시예 1의 단계 103 내지 단계 105에 대응한다. 그러므로, 본 기술 분야의 통상의 기술자는 전술의 단계 103 내지 단계 105를 이해하기 위해 실시예 1을 참조할 수 있다. 간결성을 위해, 상세들은 여기서 설명되지 않는다.
본원의 본 구현예의 단계 705에서의 기입기 및 실시예 6에서의 판독기 및 출력 디바이스는 프로그램 형태로 디바이스 상에서 구현될 수 있다. 도 7b는 본원의 본 구현예에서의 기입기, 판독기, 및 출력 디바이스 간의 관계의 개략도이다. 도 7b에 도시한 바와 같이, 기입기, 판독기, 및 출력 디바이스는 애플리케이션 프로그램들(소프트웨어)일 수 있고, 데이터 싱크 층 및 데이터 캐시 층은 하드웨어일 수 있고, 단말기의 입력 디바이스 및 디스플레이 디바이스는 하드웨어이다. 도 7b의 기입기, 판독기, 및 출력 디바이스의 기능들에 대해, 실시예 6의 개시내용 및 실시예 7의 단계 705가 이해를 위해 참조될 수 있으므로, 상세들은 여기서 설명되지 않는다. 기입기, 판독기, 및 출력 디바이스의 기능들은 단말기에 적용된다는 점에 주목하여야 한다. 그러나, 기능들은 또한 서버에 적용될 수 있다. 바꾸어 말하면, 단말기에 의해 구현된 기능들은 서버 측 상에서 또한 구현될 수 있다. 이 방식으로, 단계 704 이후에, 단말기는 서버에 사용자에 의해 입력된 데이터 및 물건의 식별 정보를 직접 송신될 수 있고, 서버는 사용자에 의해 입력된 데이터를 물건의 식별 정보에 대응하는 속성 정보로서 생성한다. 이 방식으로, 다른 사용자들이 사용자에 의해 입력된 내용을 볼 수 있다(비디오 재생기는 자체 제어되는 미디어와 등가일 수 있다).
본원의 본 구현예에서, 단계 705 이후에, 방법은 단말기에 의해, 사용자에 의해 입력된 데이터 및 물건의 식별 정보를 서버에 송신하는 것을 더 포함할 수 있고, 서버는 사용자에 의해 입력된 데이터를 물건의 식별 정보에 대응하는 속성 정보로서 생성한다.
본원의 본 구현예에서 제공된 기술적 해결책은 다음의 효과들을 갖는다: 사용자는 단말기 상의 입력 디바이스를 사용하여 비디오 내의 물건의 개인적 설명 정보를 제출할 수 있다. 그러므로, 본원의 본 구현예에서 제공된 기술적 해결책에서, 사용자는 비디오 내의 물건의 개인적 설명 정보를 제출하는 것이 허용된다. 이 방식으로, 공통 관심들 및 취미들을 갖는 사용자들이 연관될 수 있고, 사용자들은 서로 논평을 할 수 있다. 이것은 비디오를 시청하는 사용자들에게 새로운 상호작용 방식을 제공한다. 본원의 본 구현예에서 제공된 기술적 해결책에서, 단말기에 설치된 비디오 재생기는 비디오 재생 플랫폼일 뿐만 아니라, 자체 제어되는 미디어 플랫폼일 수 있다는 것을 전술한 설명으로부터 알 수 있다. 비디오에 나오는 물품의 정보가 비디오를 시청하는 사용자에 의해 유지된다. 그러므로, 물품 정보는 보다 편리하게 확장되고 물품 정보는 더 풍부해진다.
실시예 8
전술한 정보 처리 방법에 기초하여, 본원의 본 구현예는 정보 처리 장치를 제공한다. 장치 내에 포함된 재생 유닛, 제1 획득 유닛, 제2 획득 유닛, 제3 획득 유닛, 및 디스플레이 유닛이 단말기 내의 프로세서를 사용하여 구현될 수 있고, 물론 특정한 논리 회로를 사용하여 또한 구현될 수 있다. 특정한 구현예에서, 프로세서는 중앙 처리 장치(CPU), 마이크로프로세서 장치(MPU), 디지털 신호 프로세서(DSP), 또는 필드 프로그래머블 게이트 어레이(FPGA)일 수 있다.
도 8은 본원의 실시예 8에 따른 정보 처리 장치의 개략적 구성 구조도이다. 도 8에 도시한 바와 같이, 정보 처리 장치(800)는 재생 유닛(801), 제1 획득 유닛(802), 제2 획득 유닛(803), 제3 획득 유닛(804), 및 디스플레이 유닛(805)을 포함한다.
재생 유닛(801)은 단말기의 디스플레이 디바이스 상에 비디오를 재생하도록 구성된다.
제1 획득 유닛(802)은 사용자의 제1 입력 조작을 획득하도록 구성되고, 제1 입력 조작은 비디오에서 재생되는 현재의 프레임으로부터 물건을 선택하기 위해 사용된다.
제2 획득 유닛(803)은 비디오에서 재생되는 현재의 프레임으로부터, 사용자의 제1 입력 조작에 대응하는 물건의 식별 정보를 획득하도록 구성된다.
제3 획득 유닛(804)은 물건의 식별 정보에 따라 물건의 속성 정보를 획득하도록 구성된다.
디스플레이 유닛(805)은 물건의 속성 정보를 디스플레이하도록 구성된다.
실시예 9
전술한 구현예들에 기초하여, 본원의 본 구현예는 정보 처리 장치를 제공한다. 정보 처리 장치 내에 포함된 재생 유닛, 제4 획득 유닛, 제1 획득 유닛, 제2 획득 유닛, 제3 획득 유닛, 및 디스플레이 유닛, 및 제2 획득 유닛 내에 포함된 포지셔닝 모듈, 제1 획득 모듈, 및 결정 모듈은 단말기 내의 프로세서를 사용하여 구현될 수 있고, 물론 특정한 논리 회로를 사용하여 또한 구현될 수 있다. 특정한 구현예에서, 프로세서는 CPU, MPU, DSP, 또는 FPGA일 수 있다.
도 9는 본원의 실시예 9에 따른 정보 처리 장치의 개략적 구성 구조도이다. 도 9에 도시한 바와 같이, 정보 처리 장치(900)는 재생 유닛(901), 제4 획득 유닛(902), 제1 획득 유닛(903), 제2 획득 유닛(904), 제3 획득 유닛(905), 및 디스플레이 유닛(906)을 포함한다. 제2 획득 유닛(904)은 포지셔닝 모듈(9041), 제1 획득 모듈(9042), 및 결정 모듈(9043)을 포함한다.
재생 유닛(901)은 단말기의 디스플레이 디바이스 상에 비디오를 재생하도록 구성된다.
제4 획득 유닛(902)은 비디오를 재생하는 과정 중에 사용자의 제2 입력 조작을 획득하도록 구성되고, 제2 입력 조작은 비디오를 일시중지하기 위해 사용된다.
제1 획득 유닛(903)은 사용자의 제1 입력 조작을 획득하도록 구성되고, 제1 입력 조작은 비디오에서 재생되는 현재의 프레임으로부터 물건을 선택하기 위해 사용된다.
포지셔닝 모듈(9041)은 제1 입력 조작의 위치 정보를 획득하기 위해 사용자의 제1 입력 조작을 포지셔닝하도록 구성된다.
제1 획득 모듈(9042)은 비디오의 비디오 정보 및 현재의 프레임의 프레임 번호를 획득하도록 구성된다.
결정 모듈(9043)은 비디오의 비디오 정보, 현재의 프레임의 프레임 번호, 및 제1 입력 조작의 위치 정보에 따라 물건의 식별 정보를 결정하도록 구성된다.
제3 획득 유닛(905)은 물건의 식별 정보에 따라 물건의 속성 정보를 획득하도록 구성된다.
디스플레이 유닛(906)은 물건의 속성 정보를 디스플레이하도록 구성된다.
본원의 본 구현예에서, 제3 획득 유닛은 물건의 식별 정보에 따라 물건의 속성 정보를 로컬하게 획득하도록 구성되고, 물건의 속성 정보는 단말기가 서버 상에서 비디오를 요구할 때 함께 획득된다.
본원의 본 구현예에서, 제3 획득 유닛은 검색 엔진을 인보크하고, 검색 엔진을 사용하여 물건의 식별 정보에 대응하는 속성 정보를 획득하도록 구성된다.
본원의 본 구현예에서, 제3 획득 유닛은 송신 모듈 및 수신 모듈을 포함한다.
송신 모듈은 물건의 식별 정보에 따라 물건의 속성 정보를 획득하기 위해 서버를 트리거하도록, 서버에 물건의 식별 정보를 송신하고, 단말기에 물건의 속성 정보를 송신하도록 구성된다.
수신 모듈은 서버에 의해 송신된 물건의 속성 정보를 수신하도록 구성된다.
본원의 본 구현예에서, 제3 획득 유닛은 결정 모듈, 제2 획득 모듈, 송신 모듈, 및 수신 모듈을 포함한다.
결정 모듈은 물건의 식별 정보에 대응하는 물건의 속성 정보가 로컬하게 저장되어 있는지를 결정하여, 결정 결과를 획득하고; 결정 결과가 물건의 식별 정보에 대응하는 물건의 속성 정보가 로컬하게 저장되어 있다는 것을 나타낼 때, 제2 획득 모듈을 트리거하고; 결정 결과가 물건의 식별 정보에 대응하는 물건의 속성 정보가 로컬하게 저장되어 있지 않다는 것을 나타낼 때, 송신 모듈을 트리거하도록 구성된다.
제2 획득 모듈은 물건의 식별 정보에 따라 물건의 속성 정보를 로컬하게 획득하도록 구성되고, 물건의 속성 정보는 단말기가 서버 상에서 비디오를 요구할 때 함께 획득된다.
송신 모듈은 결정 결과가 물건의 식별 정보에 대응하는 물건의 속성 정보가 로컬하게 저장되어 있지 않다는 것을 나타낼 때, 물건의 식별 정보에 따라 물건의 속성 정보를 획득하기 위해 서버를 트리거하도록, 서버에 물건의 식별 정보를 송신하고, 단말기에 물건의 속성 정보를 송신하도록 구성된다.
수신 모듈은 서버에 의해 송신된 물건의 속성 정보를 수신하도록 구성된다.
실시예 10
전술한 구현예들에 기초하여, 본원의 본 구현예는 정보 처리 장치를 제공한다. 정보 처리 장치 내에 포함된 재생 유닛, 제1 획득 유닛, 제2 획득 유닛, 제3 획득 유닛, 및 디스플레이 유닛, 및 디스플레이 유닛 내에 포함된 저장 모듈, 제1 인보크 모듈, 및 제2 인보크 모듈은 단말기 내의 프로세서를 사용하여 구현될 수 있고, 물론 특정한 논리 회로를 사용하여 또한 구현될 수 있다. 특정한 구현예에서, 프로세서는 CPU, MPU, DSP, 또는 FPGA일 수 있다.
도 10은 본원의 실시예 10에 따른 정보 처리 장치의 개략적 구성 구조도이다. 도 10에 도시한 바와 같이, 정보 처리 장치(1000)는 재생 유닛(1001), 제1 획득 유닛(1002), 제2 획득 유닛(1003), 제3 획득 유닛(1004), 및 디스플레이 유닛(1005)을 포함한다. 디스플레이 유닛(1005)은 저장 모듈(1051), 제1 인보크 모듈(1052), 및 인보크 모듈(1053)을 포함한다.
재생 유닛(1001)은 단말기의 디스플레이 디바이스 상에 비디오를 재생하도록 구성된다.
제1 획득 유닛(1002)은 사용자의 제1 입력 조작을 획득하도록 구성되고, 제1 입력 조작은 비디오에서 재생되는 현재의 프레임으로부터 물건을 선택하기 위해 사용된다.
제2 획득 유닛(1003)은 비디오에서 재생되는 현재의 프레임으로부터, 사용자의 제1 입력 조작에 대응하는 물건의 식별 정보를 획득하도록 구성된다.
제3 획득 유닛(1004)은 물건의 식별 정보에 따라 물건의 속성 정보를 획득하도록 구성된다.
저장 모듈(1051)은 데이터 메모리 내에 물건의 속성 정보를 저장하도록 구성된다.
제1 인보크 모듈(1052)은 판독기를 인보크하고, 판독기를 사용하여, 물건의 식별 정보에 따라 데이터 메모리로부터 물건의 속성 정보를 획득하도록 구성된다.
제2 인보크 모듈(1053)은 출력 디바이스를 인보크하고, 출력 디바이스를 사용하여 물건의 속성 정보를 출력하도록 구성된다.
여기서, 제2 인보크 모듈은 출력 디바이스를 인보크하고, 부동 층의 방식으로 출력 디바이스를 사용하여 물건의 속성 정보를 출력하도록 구성된다.
실시예 11
전술한 구현예들에 기초하여, 본원의 본 구현예는 정보 처리 장치를 제공한다. 정보 처리 장치 내에 포함된 재생 유닛, 제1 획득 유닛, 제2 획득 유닛, 제3 획득 유닛, 디스플레이 유닛, 제5 획득 유닛, 제6 획득 유닛, 및 인보크 유닛은 단말기 내의 프로세서를 사용하여 구현될 수 있고, 물론 특정한 논리 회로를 사용하여 또한 구현될 수 있다. 특정한 구현예에서, 프로세서는 CPU, MPU, DSP, 또는 FPGA일 수 있다.
도 11은 본원의 실시예 11에 따른 정보 처리 장치의 개략적 구성 구조도이다. 도 11에 도시한 바와 같이, 정보 처리 장치(1100)는 재생 유닛(1101), 제1 획득 유닛(1102), 제2 획득 유닛(1103), 제3 획득 유닛(1104), 디스플레이 유닛(1105), 제5 획득 유닛(1106), 제6 획득 유닛(1107), 및 인보크 유닛(1108)을 포함한다.
재생 유닛(1101)은 단말기의 디스플레이 디바이스 상에 비디오를 재생하도록 구성된다.
제1 획득 유닛(1102)은 사용자의 제1 입력 조작을 획득하도록 구성되고, 제1 입력 조작은 비디오에서 재생되는 현재의 프레임으로부터 물건을 선택하기 위해 사용된다.
제2 획득 유닛(1103)은 비디오에서 재생되는 현재의 프레임으로부터, 사용자의 제1 입력 조작에 대응하는 물건의 식별 정보를 획득하도록 구성된다.
제3 획득 유닛(1104)은 물건의 식별 정보에 따라 물건의 속성 정보를 획득하도록 구성된다.
디스플레이 유닛(1105)은 물건의 속성 정보를 디스플레이하도록 구성된다.
제5 획득 유닛(1106)은 사용자의 제3 입력 조작을 획득하고, 제3 입력 조작은 사용자가 데이터를 단말기 내로 기입하기 위해 사용된다.
제6 획득 유닛(1107)은 제3 입력 조작에 기초하여, 사용자에 의해 입력된 데이터를 획득하도록 구성된다.
인보크 유닛(1108)은 기입기를 인보크하고, 기입기를 사용하여, 데이터를 물건의 식별 정보에 대응하는 물건의 속성 정보로서 생성하도록 구성된다.
정보 처리 장치의 실시예들 8 내지 11의 설명은 정보 처리 방법의 구현예들의 것과 유사하고, 정보 처리 방법의 구현예들의 것들과 유사한 유익한 효과들을 갖는다는 것이 여기에 언급된다. 그러므로, 상세들은 여기서 설명되지 않는다. 본 개시내용의 정보 처리 장치의 실시예들 8 내지 11에 개시되지 않는 기술적 상세들에 대해서는, 이해하기 위해 본 개시내용의 정보 처리 방법의 구현예들의 설명을 참조할 수 있다. 간결성을 위해, 상세들은 여기서 설명되지 않는다.
실시예 12
본원의 본 구현예에서, 단말기 측에서 구현된 전술한 기능들은 서버에서 구현된다. 도 12a는 본원의 실시예 12에 따른 단말기 및 서버의 개략적 구성 구조도이다. 도 12a에 도시한 바와 같이, 단말기는 포지셔닝 모듈, 정보 입력 모듈, 정보 처리 및 저장 모듈을 포함하고, 서버는 기입기, 판독기/기입기, 데이터 대조기, 데이터 캐시 층, 및 데이터 싱크 층을 포함한다.
포지셔닝 모듈은 비디오 내의 물건의 위치 정보(상대적 위치) 및 현재의 프레임의 프레임 번호(프레임 순차 번호일 수 있음)를 획득하도록 구성된다. 단말기는 물건의 인덱스 정보로서 물건의 위치 정보 및 현재의 프레임의 프레임 번호를 사용한다.
정보 입력 모듈은 사용자가 비디오 내에 물건의 설명 정보를 입력하는 인터페이스를 제공하도록 구성된다.
정보 출력 모듈은 사용자의 조작에 대응하는 물건의 위치 정보에 따라 대응하는 물건의 속성 정보를 획득하고, 그 속성 정보를 사용자에 출력하도록 구성된다.
서버는 사용자 입력에 대해 정보 대조 및 데이터 수렴을 수행하고, 입력을 저장하고, 상이한 차원들(예를 들어, 사용자들로부터의 적극적인 논평들의 양, 및 포스팅 시간)에 따라 대응하는 정보 리스트들을 발생하는 것을 담당하도록 구성된다. 정보 처리 및 저장 모듈은 판독기, 기입기, 데이터 대조 서버, 데이터 캐시 층, 및 데이터 싱크 층을 포함한다.
기입기는 외부로부터의 기입 요구를 처리하고 데이터 싱크 층 내로 데이터를 기입하도록 구성된다.
판독기는 외부로부터 판독 요구를 처리하도록 구성된다. 시스템 성능을 개선시키기 위해서, 데이터 캐시 층이 판독기와 데이터 싱크 층 사이에 부가된다. 판독기는 데이터 캐시 층으로부터 데이터를 판독하고 데이터를 정보 출력 모듈에 돌려준다. 데이터 캐시 층은 데이터 싱크 층과 통신하고 캐시된 데이터를 아웃데이트하고 업데이트한다.
데이터 싱크 층은 데이터를 저장하도록 구성된다.
데이터 대조기는 데이터 싱크 층의 데이터를 계속 대조하고 데이터 싱크 층의 데이터를 수렴시키는 것을 담당하도록 구성된다.
도 12b에 도시한 바와 같이, 도 12a에 도시한 단말기 및 서버를 사용하여 사용자에게 물건의 속성 정보를 디스플레이하는 과정은 다음의 단계들을 포함한다.
단계 1: 비디오를 시청하는 과정에서, 사용자는 사용자가 관심있는 물품을 찾고, 비디오의 재생을 일지정지하고, 포지셔닝 조작(제1 입력 조작)을 개시한다.
단계 2: 포지셔닝 모듈은 비디오 재생기로부터 (ID 및 비디오의 해상도와 같은) 비디오 정보 및 현재의 영상의 프레임(현재의 프레임)의 프레임 번호를 획득한다.
단계 3: 비디오 재생기는 포지셔닝 모듈에 비디오 정보를 돌려준다.
단계 4: 포지셔닝 모듈은 비디오 정보 및 현재의 프레임의 프레임 번호에 따라 판독기로부터 인덱스 리스트를 요구한다.
단계 5: 판독기는 데이터 캐시 층으로부터 인덱스들을 풀(pull)한다.
단계 6: 데이터 캐시 층이 대응하는 인덱스 리스트를 갖지 않으면, 동기화 과정에 의해 데이터 싱크 층으로부터의 대응하는 인덱스 리스트의 데이터를 데이터 캐시 층에 동기화시킨다.
단계 7: 데이터 싱크 층은 인덱스 리스트를 데이터 캐시 층에 돌려준다.
단계 8: 데이터 캐시 층은 인덱스들을 데이터 판독 캐시에 돌려준다.
단계 9: 판독기는 인덱스 데이터를 포지셔닝 모듈에 돌려준다.
단계 10: 포지셔닝 모듈은 모든 인덱스들을 대응하는 포지셔닝 정보로 변환하고, 이 포지셔닝 정보를 사용자에게 돌려준다.
단계 11: 사용자는 포지셔닝 모듈에 의해 획득된 포지셔닝 정보에 따라 판독기에 데이터 판독 요구를 개시한다.
단계 12: 판독기는 사용자의 스케줄링 요구를 수신하고, 요구 정보를 분석한 후에 데이터 캐시 층으로부터 데이터를 풀한다.
단계 13: 데이터 캐시 층이 대응하는 데이터를 갖지 않으면, 데이터 캐시 층은 동기화 과정을 사용하여 데이터 싱크 층으로부터의 대응하는 데이터를 동기화시킨다.
단계 14: 데이터 싱크 층은 데이터를 데이터 캐시 층에 동기화시킨다.
단계 15: 데이터 캐시 층은 데이터를 판독기에 돌려준다.
단계 16: 판독기는 데이터를 전단부 정보 출력 모듈에 돌려주고, 정보 데이터 모듈은 부동 층의 방식으로 풀된 정보를 돌려준다.
도 12c에 도시한 바와 같이, 도 12a에 도시한 단말기 및 서버를 사용하여 사용자에 의한 물건의 속성 정보의 부가를 구현하는 과정은 다음의 단계들을 포함한다:
단계 1: 비디오를 시청하는 과정에서, 사용자는 사용자가 관심있는 물품을 찾고, 비디오의 재생을 일지정지하고, 포지셔닝 조작을 개시한다.
단계 2: 포지셔닝 모듈은 비디오 재생기로부터, (ID 및 비디오의 해상도와 같은) 비디오 정보, 현재의 영상의 프레임 순차 번호, 및 영상 내의 포지셔닝 영역의 상대적 위치와 같은 정보를 획득한다.
단계 3: 비디오 재생기는 포지셔닝 정보를 포지셔닝 모듈에 돌려준다.
단계 4: 포지셔닝 모듈은 물품의 포지셔닝 정보를 획득하고 그 정보를 사용자에게 돌려준다.
단계 5: 사용자는 기입기에 기입 요구를 개시하고, 이 요구는 관련된 포지셔닝 정보 및 사용자에 의해 입력된 관련된 정보를 전달한다.
단계 6: 기입기는 물품의 포지셔닝 정보 및 비디오 정보에 따라 메시지에 대한 인덱스를 확립하고, 데이터를 데이터 싱크 층 내로 기입한다.
단계 7: 데이터 싱크 층은 상위 층 데이터를 저장 매체 내로 저장하고, 기입 상태를 기입기에 돌려준다.
단계 8: 기입기는 요구 상태를 사용자에게 돌려준다.
본원의 본 구현예에서 제공된 기술적 해결책은 다음과 같은 유익한 효과들을 발휘할 수 있다: 비디오 내의 물건에 관한 보다 많은 정보가 부동 층의 방식으로 제시되고, 사용자는 추가적인 검색 작업 없이 보다 많은 물품 정보를 쉽게 획득할 수 있다. 사용자는 비디오에 나오는 물건의 속성 정보를 부가할 수 있다. 공통 관심들 및 취미들을 갖는 사용자들이 연관될 수 있고, 사용자들은 서로 논평을 할 수 있다. 이것은 비디오를 시청하는 사용자들에게 새로운 상호작용 방식을 제공한다. 그런데, 비디오를 시청하는 사용자들은 물건들의 부가된 속성 정보를 유지할 수 있다. 그러므로, 물건의 속성 정보는 보다 편리하게 확장되고 더 풍부해진다.
본 구현예에서, 유닛들, 예를 들어, 재생 유닛, 제1 획득 유닛, 제2 획득 유닛, 제3 획득 유닛, 및 디스플레이 유닛은 정보 처리 장치 내에 포함되고, 유닛들 내에 포함된 모듈들, 예를 들어, 포지셔닝 모듈, 제1 획득 모듈, 및 제2 획득 유닛 내에 포함된 결정 모듈은 단말기 내의 프로세서를 사용하여 구현될 수 있고, 물론 특정한 논리 회로를 사용하여 또한 구현될 수 있다. 특정한 구현예에서, 프로세서는 CPU, MPU, DSP, 또는 FPGA일 수 있다.
본원의 본 구현예에서, 전술한 정보 처리 방법이 소프트웨어 기능 모듈의 형태로 구현되고 독립 제품으로서 판매 또는 사용되는 경우에, 정보 처리 방법은 컴퓨터 판독 가능 저장 매체 내에 저장될 수 있다는 점에 주목하여야 한다. 이러한 이해에 기초하여, 종래 기술에 본질적으로, 또는 부분적으로 기여하는, 본원의 본 구현예의 기술적 해결책들은 소프트웨어 제품의 형태로 구현될 수 있다. 소프트웨어 제품은 저장 매체 내에 저장되고, (퍼스널 컴퓨터, 서버, 또는 네트워크 디바이스일 수 있는) 컴퓨터 디바이스에 본원의 구현예들에서 설명된 방법들의 모두 또는 일부를 수행하라고 명령하는 여러 명령어들을 포함한다. 전술한 저장 매체는 USB 플래시 드라이브, 착탈가능한 하드 디스크, 리드 온리 메모리(ROM), 자기 디스크, 또는 광학 디스크와 같은, 프로그램 코드를 저장할 수 있는 임의의 매체를 포함한다. 이 방식으로, 본원의 본 구현예는 특정한 하드웨어와 소프트웨어의 임의의 조합으로 제한되지 않는다.
대응하여, 본원의 본 구현예는 컴퓨터 저장 매체를 더 제공하고, 컴퓨터 저장 매체는 컴퓨터 실행가능 명령어를 저장하고, 컴퓨터 실행가능 명령어는 본원의 본 구현예에서 제공된 정보 처리 방법을 실행하기 위해 사용된다.
전술한 구현예들에 기초하여, 본원의 본 구현예는 단말기를 제공하고, 이 단말기는
재생될 비디오를 디스플레이하고, 물건에 관한 것이고 처리 장치에 의해 출력되는 속성 정보를 디스플레이하도록 구성된 (디스플레이 스크린과 같은) 디스플레이 디바이스를 포함하고;
(프로세서와 같은) 상기 처리 장치는 디스플레이 디바이스 상에 비디오를 재생하고; 사용자의 제1 입력 조작을 획득하고 - 제1 입력 조작은 비디오에서 디스플레이되는 현재의 프레임으로부터 물건을 선택하기 위해 사용됨 -; 비디오에서 재생되는 현재의 프레임으로부터, 사용자의 제1 입력 조작에 대응하는 물건의 식별 정보를 획득하고; 물건의 식별 정보에 따라 물건의 속성 정보를 획득하고; 디스플레이 디바이스 상에 물건의 속성 정보를 디스플레이하도록 구성된다.
전술한 구현예들에 기초하여, 본원의 본 구현예는 단말기를 제공하고, 이 단말기는
컴퓨터 실행가능 명령어를 저장하도록 구성된 저장 매체; 및
저장 매체 상에 저장된 컴퓨터 실행가능 명령어를 실행하도록 구성된 프로세서를 포함하고, 상기 컴퓨터 실행가능 명령어는 디스플레이 디바이스 상에 비디오를 재생하고; 사용자의 제1 입력 조작을 획득하고 - 제1 입력 조작은 비디오에서 재생되는 현재의 프레임으로부터 물건을 선택하기 위해 사용됨 -; 비디오에서 재생되는 현재의 프레임으로부터, 사용자의 제1 입력 조작에 대응하는 물건의 식별 정보를 획득하고; 물건의 식별 정보에 따라 물건의 속성 정보를 획득하고; 디스플레이 디바이스 상에 물건의 속성 정보를 디스플레이하는 것을 포함한다.
설명의 전체 텍스트에서의 "한 구현예" 또는 "구현예"는 구현예들과 관련된 특정한 특징들, 구조들, 또는 특성들이 본 개시내용의 적어도 하나의 구현예에 포함된다는 것을 나타내는 것이라는 것을 이해하여야 한다.
그러므로, 전체 설명에서 나오는 "한 구현예에서", 또는 "구현예에서"는 동일한 구현예를 참조하지 않을 수 있다. 또한, 이들 특정한 특징, 구조, 또는 특성은 임의의 적합한 방식으로 하나 이상의 실시예 내에 조합될 수 있다. 본원의 구현예들에서, 과정들의 순차 번호들의 순서는 실행 순차의 순서를 나타내지 않고, 과정들의 실행 순차는 기능들 및 내부 논리들에 따라 결정되어야 하고, 본원의 구현예들의 구현 과정에 어떤 제한을 주는 것은 아니라는 것을 이해하여야 한다.
본원에서 제공된 몇 가지 구현예들에서, 개시된 디바이스 및 방법은 다른 방식들로 구현될 수 있다는 것을 이해하여야 한다. 설명된 디바이스 구현예들은 단지 예시적이다. 예를 들어, 유닛 분할은 단지 논리적 기능 분할이고 실제 구현에서 다른 분할 방식들일 수 있다. 예를 들어, 복수의 유닛 또는 소자가 또 하나의 시스템 내로 조합 또는 통합될 수 있거나, 일부 특징들은 생략되거나 수행되지 않을 수 있다. 또한, 구성 부분들의 표시되거나 논의된 상호 결합들 또는 직접 결합들 또는 통신 접속들은 일부 인터페이스들을 통해 구현될 수 있다. 디바이스들 또는 유닛들 사이의 간접적 결합들 또는 통신 접속들은 전자적, 기계적, 또는 다른 형태들로 구현될 수 있다.
별도의 부분들로서 설명된 유닛들은 물리적으로 분리되거나 되지 않을 수 있고, 유닛들로서 표시된 부분들은 물리적 유닛들이거나 아닐 수 있고, 하나의 위치에 배치될 수 있거나, 복수의 네트워크 유닛 상에 분산될 수 있다. 유닛들의 일부 또는 모두가 구현예들의 해결책들의 목적들을 달성하기 위해 실제 필요들에 따라 선택될 수 있다.
또한, 본원의 구현예들에서의 기능적 유닛들은 하나의 처리 유닛 내로 통합될 수 있거나, 유닛들 각각이 하나의 유닛 단독으로서 별도로 사용될 수 있거나, 2개 이상의 유닛들이 하나의 유닛 내로 통합된다. 통합된 유닛은 하드웨어의 형태로 구현될 수 있거나, 소프트웨어 기능 유닛에 부가하여 하드웨어의 형태로 구현될 수 있다.
본 기술 분야의 통상의 기술자는 방법 구현예들의 단계들의 모두 또는 일부가 관련된 하드웨어에 명령하는 프로그램에 의해 구현될 수 있다는 것을 이해할 수 있다. 프로그램은 컴퓨터 판독 가능 저장 매체 내에 저장될 수 있다. 프로그램이 실행될 때, 방법 구현예들의 단계들이 수행된다. 전술한 저장 매체는 착탈가능한 저장 디바이스, ROM, 자기 디스크, 또는 광학 디스크와 같은, 프로그램 코드를 저장할 수 있는 임의의 매체를 포함한다.
대안적으로, 본 개시내용의 통합된 유닛이 소프트웨어 기능 모듈의 형태로 구현되고 독립 제품으로서 판매 또는 사용되는 경우에, 통합된 유닛은 컴퓨터 판독 가능 저장 매체 내에 저장될 수 있다. 이러한 이해에 기초하여, 종래 기술에 본질적으로, 또는 부분적으로 기여하는, 본원의 본 구현예의 기술적 해결책들은 소프트웨어 제품의 형태로 구현될 수 있다. 소프트웨어 제품은 저장 매체 내에 저장되고, (퍼스널 컴퓨터, 서버, 또는 네트워크 디바이스일 수 있는) 컴퓨터 디바이스에 본원의 구현예들에서 설명된 방법들의 모두 또는 일부를 수행하라고 명령하는 여러 명령어들을 포함한다. 전술한 저장 매체는 착탈가능한 저장 디바이스, ROM, 자기 디스크, 또는 광학 디스크와 같은, 프로그램 코드를 저장할 수 있는 임의의 매체를 포함한다.
전술한 설명들은 단지 본 개시내용의 단지 특정한 구현 방식들이지만, 본 개시내용의 보호 범위를 제한하려는 것은 아니다. 본 개시에서 개시된 기술적 범위 내에서 본 기술 분야의 통상의 기술자에 의해 용이하게 이해되는 임의의 변형 또는 대체는 본 개시내용의 보호 범위 내에 들 것이다. 그러므로, 본 개시내용의 보호 범위는 청구범위의 보호 범위에 속할 것이다.
산업상 이용가능성
본원의 구현예들에서, 단말기는 단말기의 디스플레이 디바이스 상에 비디오를 디스플레이하고; 단말기는 사용자의 제1 입력 조작을 획득하고 - 제1 입력 조작은 비디오에서 재생되는 현재의 프레임으로부터 물건을 선택하기 위해 사용됨 -; 단말기는 비디오에서 재생되는 현재의 프레임으로부터, 사용자의 제1 입력 조작에 대응하는 물건의 식별 정보를 획득하고; 단말기는 물건의 식별 정보에 따라 물건의 속성 정보를 획득하고; 단말기는 물건의 속성 정보를 디스플레이한다. 이 방식으로, 사용자가 비디오에서 관심있는 물건의 속성 정보가 사용자에게 제시되어, 사용자가 물건을 검색하는 문제를 피하여, 사용자가 비디오 내의 물건에 관한 보다 많은 정보를 쉽게 알 수 있게 되어, 사용자 경험을 향상시킨다.

Claims (23)

  1. 정보 처리 방법으로서,
    단말기의 디스플레이 디바이스 상에 서버로부터 요청되는 비디오를 재생하는 동안, 상기 단말기에 의해, 사용자의 제1 입력 조작을 획득하는 단계;
    상기 제1 입력 조작에 대응하는 상기 비디오에서 재생되는 현재의 프레임으로부터 물건(object)을 선택하는 단계;
    상기 단말기에 의해, 상기 비디오에서 재생되는 상기 현재의 프레임으로부터, 상기 사용자의 상기 제1 입력 조작에 대응하는 상기 물건의 식별 정보를 획득하는 단계;
    상기 단말기에 의해, 상기 사용자의 제3 입력 조작을 획득하는 단계 - 상기 제3 입력 조작은 상기 사용자가 데이터를 상기 단말기에 기입하기 위해 사용됨 -;
    상기 단말기에 의해, 상기 제3 입력 조작에 기초하여, 상기 사용자에 의해 입력된 데이터를 획득하는 단계;
    상기 단말기에 의해, 상기 데이터를 상기 물건의 상기 식별 정보에 대응하는 속성 정보의 일부로서 생성하는 단계;
    상기 서버가 상기 사용자에 의해 입력되는 상기 데이터를 상기 물건의 상기 식별 정보에 대응하는 상기 속성 정보로서 생성하도록, 상기 단말기에 의해, 상기 사용자에 의해 입력되는 상기 데이터 및 상기 물건의 상기 식별 정보를 상기 서버에 송신하는 단계;
    상기 단말기에 의해, 상기 물건의 상기 식별 정보에 따라 상기 물건의 속성 정보를 획득하는 단계; 및
    상기 단말기에 의해, 상기 비디오 상에 상기 물건의 상기 속성 정보를 디스플레이하는 단계
    를 포함하는 정보 처리 방법.
  2. 제1항에 있어서,
    상기 사용자의 상기 제1 입력 조작을 획득하기 이전에, 상기 단말기에 의해, 상기 사용자의 제2 입력 조작을 획득하고, 상기 제2 입력 조작에 대응하는 상기 비디오를 일시중지하는 단계를 더 포함하는 정보 처리 방법.
  3. 제1항에 있어서,
    상기 단말기에 의해, 상기 비디오에서 재생되는 상기 현재의 프레임으로부터, 상기 사용자의 상기 제1 입력 조작에 대응하는 상기 물건의 식별 정보를 획득하는 단계의 동작은,
    상기 단말기에 의해, 상기 제1 입력 조작의 위치 정보를 획득하기 위해 상기 사용자의 상기 제1 입력 조작을 포지셔닝하는 단계;
    상기 단말기에 의해, 상기 비디오의 비디오 정보 및 상기 현재의 프레임의 프레임 번호를 획득하는 단계; 및
    상기 단말기에 의해, 상기 비디오의 비디오 정보, 상기 현재의 프레임의 프레임 번호 및 상기 제1 입력 조작의 위치 정보에 따라 상기 물건의 상기 식별 정보를 결정하는 단계
    를 포함하는 정보 처리 방법.
  4. 제1항에 있어서,
    상기 단말기에 의해, 상기 물건의 상기 식별 정보에 따라 상기 물건의 속성 정보를 획득하는 단계의 동작은, 상기 단말기에 의해, 상기 물건의 상기 식별 정보에 따라 상기 물건의 상기 속성 정보를 로컬하게 획득하는 단계를 포함하고, 상기 물건의 상기 속성 정보는 서버로부터 상기 비디오와 함께 상기 단말기로 다운로드되는 정보 처리 방법.
  5. 제4항에 있어서,
    상기 단말기에 의해, 상기 물건의 상기 식별 정보에 따라 상기 물건의 속성 정보를 획득하는 단계의 동작은,
    상기 단말기에 의해, 상기 물건의 상기 식별 정보에 대응하는 상기 물건의 상기 속성 정보가 로컬하게 저장되어 있는지를 결정하여, 결정 결과를 획득하는 단계;
    상기 물건의 상기 식별 정보에 대응하는 상기 물건의 상기 속성 정보가 로컬하게 저장되어 있다고 상기 결정 결과가 나타낼 때, 상기 단말기에 의해, 상기 물건의 상기 식별 정보에 따라 상기 물건의 상기 속성 정보를 로컬하게 획득하는 단계;
    상기 물건의 상기 식별 정보에 대응하는 상기 물건의 상기 속성 정보가 로컬하게 저장되어 있지 않다고 상기 결정 결과가 나타낼 때, 상기 단말기에 의해, 상기 물건의 상기 식별 정보에 따라 상기 물건의 상기 속성 정보를 획득하고 상기 물건의 상기 속성 정보를 상기 단말기로 송신하도록 상기 서버를 트리거하기 위해 상기 물건의 상기 식별 정보를 상기 서버로 송신하는 단계; 및
    상기 단말기에 의해, 상기 서버에 의해 송신된 상기 물건의 상기 속성 정보를 수신하는 단계
    를 더 포함하는 정보 처리 방법.
  6. 제1항에 있어서,
    상기 단말기에 의해, 상기 물건의 상기 식별 정보에 따라 상기 물건의 속성 정보를 획득하는 단계는, 상기 단말기에 의해, 검색 엔진을 인보크하고, 상기 검색 엔진을 사용함으로써 상기 물건의 상기 식별 정보에 대응하는 속성 정보를 획득하는 단계를 포함하는 정보 처리 방법.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 단말기에 의해, 상기 물건의 상기 속성 정보를 디스플레이하는 단계는,
    상기 단말기에 의해, 데이터 메모리에 상기 물건의 상기 속성 정보를 저장하는 단계;
    상기 단말기에 의해, 상기 물건의 상기 식별 정보에 따라 상기 데이터 메모리로부터 상기 물건의 상기 속성 정보를 획득하는 단계; 및
    상기 단말기에 의해, 출력 디바이스를 인보크하고, 상기 출력 디바이스를 사용함으로써 상기 물건의 상기 속성 정보를 출력하는 단계
    를 포함하는 정보 처리 방법.
  8. 제7항에 있어서,
    상기 단말기에 의해, 출력 디바이스를 인보크하고, 상기 출력 디바이스를 사용함으로써 상기 물건의 상기 속성 정보를 출력하는 단계는, 상기 단말기에 의해, 상기 출력 디바이스를 인보크하고, 상기 출력 디바이스를 사용함으로써 부동 층(floating layer)의 방식으로 상기 물건의 상기 속성 정보를 출력하는 단계를 포함하는 정보 처리 방법.
  9. 정보 처리 장치로서,
    단말기의 디스플레이 디바이스 상에 서버로부터 요청되는 비디오를 재생하도록 구성된 재생 유닛;
    사용자의 제1 입력 조작을 획득하도록 구성된 제1 획득 유닛 - 상기 제1 입력 조작은 상기 비디오에서 재생되는 현재의 프레임으로부터 물건을 선택하기 위해 사용됨 -;
    상기 비디오에서 재생되는 상기 현재의 프레임으로부터, 상기 사용자의 상기 제1 입력 조작에 대응하는 상기 물건의 식별 정보를 획득하도록 구성된 제2 획득 유닛;
    상기 물건의 상기 식별 정보에 따라 상기 물건의 속성 정보를 획득하도록 구성된 제3 획득 유닛; 및
    상기 비디오 상에 상기 물건의 상기 속성 정보를 디스플레이하도록 구성된 디스플레이 유닛
    을 포함하고,
    상기 장치는
    상기 사용자의 제3 입력 조작을 획득하도록 구성된 제5 획득 유닛 - 상기 제3 입력 조작은 상기 사용자가 데이터를 상기 단말기에 기입하기 위해 사용됨 -;
    상기 제3 입력 조작에 기초하여, 상기 사용자에 의해 입력된 데이터를 획득하도록 구성된 제6 획득 유닛; 및
    상기 데이터를 상기 물건의 상기 식별 정보에 대응하는 속성 정보의 일부로서 생성하도록 구성된 인보크 유닛
    을 더 포함하고,
    상기 장치는, 상기 서버가 상기 사용자에 의해 입력되는 상기 데이터를 상기 물건의 상기 식별 정보에 대응하는 상기 속성 정보로서 생성하도록, 상기 사용자에 의해 입력되는 상기 데이터 및 상기 물건의 상기 식별 정보를 상기 서버에 송신하도록 더 구성되는, 정보 처리 장치.
  10. 제9항에 있어서,
    상기 장치는 상기 비디오의 재생 중에 제2 입력 조작을 획득하도록 구성된 제4 획득 유닛을 더 포함하고, 상기 제2 입력 조작은 상기 비디오를 일시중지하기 위해 사용되는 정보 처리 장치.
  11. 제9항에 있어서,
    상기 제2 획득 유닛은,
    상기 제1 입력 조작의 위치 정보를 획득하기 위해 상기 사용자의 상기 제1 입력 조작을 포지셔닝하도록 구성된 포지셔닝 모듈;
    상기 비디오의 비디오 정보 및 상기 현재의 프레임의 프레임 번호를 획득하도록 구성된 제1 획득 모듈; 및
    상기 비디오의 비디오 정보, 상기 현재의 프레임의 프레임 번호 및 상기 제1 입력 조작의 위치 정보에 따라 상기 물건의 상기 식별 정보를 결정하도록 구성된 결정 모듈
    을 포함하는 정보 처리 장치.
  12. 제9항에 있어서,
    상기 제3 획득 유닛은, 상기 물건의 상기 식별 정보에 따라 상기 물건의 상기 속성 정보를 로컬하게 획득하도록 구성된 제2 획득 모듈을 포함하고, 상기 물건의 상기 속성 정보는 서버로부터 상기 비디오와 함께 상기 단말기로 다운로드되는 정보 처리 장치.
  13. 제12항에 있어서,
    상기 제3 획득 유닛은,
    상기 물건의 상기 식별 정보에 대응하는 상기 물건의 상기 속성 정보가 로컬하게 저장되어 있는지를 결정하여, 결정 결과를 획득하고, 상기 물건의 상기 식별 정보에 대응하는 상기 물건의 상기 속성 정보가 로컬하게 저장되어 있다고 상기 결정 결과가 나타낼 때, 상기 제2 획득 모듈을 트리거하도록 구성된 결정 모듈;
    상기 물건의 상기 식별 정보에 대응하는 상기 물건의 상기 속성 정보가 로컬하게 저장되어 있지 않다고 상기 결정 결과가 나타낼 때, 상기 물건의 상기 식별 정보에 따라 상기 물건의 상기 속성 정보를 획득하고 상기 물건의 상기 속성 정보를 상기 단말기로 송신하도록 서버를 트리거하기 위해 상기 물건의 상기 식별 정보를 상기 서버로 송신하도록 구성된 송신 모듈; 및
    상기 서버에 의해 송신된 상기 물건의 상기 속성 정보를 수신하도록 구성된 수신 모듈
    을 더 포함하는 정보 처리 장치.
  14. 제9항에 있어서,
    상기 제3 획득 유닛은, 검색 엔진을 인보크하고, 상기 검색 엔진을 사용함으로써 상기 물건의 상기 식별 정보에 대응하는 속성 정보를 획득하도록 구성되는 정보 처리 장치.
  15. 제9항 내지 제14항 중 어느 한 항에 있어서,
    상기 디스플레이 유닛은,
    데이터 메모리에 상기 물건의 상기 속성 정보를 저장하도록 구성된 저장 모듈;
    상기 물건의 상기 식별 정보에 따라 상기 데이터 메모리로부터 상기 물건의 상기 속성 정보를 획득하도록 구성된 제1 인보크 모듈; 및
    출력 디바이스를 인보크하고, 상기 출력 디바이스를 사용함으로써 상기 물건의 상기 속성 정보를 출력하도록 구성된 제2 인보크 모듈
    을 포함하는 정보 처리 장치.
  16. 제15항에 있어서,
    상기 제2 인보크 모듈은 출력 디바이스를 인보크하고, 상기 출력 디바이스를 사용함으로써 부동 층의 방식으로 상기 물건의 상기 속성 정보를 출력하도록 구성되는 정보 처리 장치.
  17. 컴퓨터 저장 매체로서,
    상기 컴퓨터 저장 매체는 컴퓨터 실행가능 명령어를 저장하고, 상기 컴퓨터 실행가능 명령어는 제1항 내지 제6항 중 어느 한 항의 정보 처리 방법을 실행하기 위해 사용되는 컴퓨터 저장 매체.
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
KR1020177018149A 2015-03-23 2016-01-07 정보 처리 방법 및 장치, 단말기 및 기억 매체 KR101994565B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510128131.2 2015-03-23
CN201510128131.2A CN104837050B (zh) 2015-03-23 2015-03-23 一种信息处理方法及终端
PCT/CN2016/070429 WO2016150236A1 (zh) 2015-03-23 2016-01-07 一种信息处理方法及装置、终端、存储介质

Publications (2)

Publication Number Publication Date
KR20170089922A KR20170089922A (ko) 2017-08-04
KR101994565B1 true KR101994565B1 (ko) 2019-06-28

Family

ID=53814645

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177018149A KR101994565B1 (ko) 2015-03-23 2016-01-07 정보 처리 방법 및 장치, 단말기 및 기억 매체

Country Status (4)

Country Link
US (1) US10368140B2 (ko)
KR (1) KR101994565B1 (ko)
CN (1) CN104837050B (ko)
WO (1) WO2016150236A1 (ko)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104837050B (zh) 2015-03-23 2018-09-04 腾讯科技(北京)有限公司 一种信息处理方法及终端
CN106488292B (zh) * 2015-08-25 2020-08-11 腾讯科技(北京)有限公司 一种信息处理方法及设备
CN105354288A (zh) * 2015-10-30 2016-02-24 百度在线网络技术(北京)有限公司 一种基于视频内容的图像搜索方法和装置
CN105657514A (zh) * 2015-11-20 2016-06-08 乐视移动智能信息技术(北京)有限公司 一种在移动设备浏览器中视频播放关键信息的方法及装置
CN105869007A (zh) * 2015-11-25 2016-08-17 乐视网信息技术(北京)股份有限公司 一种视频购物的实现方法及系统
JP6232632B1 (ja) * 2016-08-09 2017-11-22 パロニム株式会社 動画再生プログラム、動画再生装置、動画再生方法、動画配信システム及びメタデータ作成方法
CN106101846B (zh) * 2016-08-15 2020-02-04 腾讯科技(深圳)有限公司 一种信息处理方法及装置、终端
US10796157B2 (en) * 2018-03-13 2020-10-06 Mediatek Inc. Hierarchical object detection and selection
CN110134480B (zh) * 2019-05-20 2023-06-13 抖音视界有限公司 用户触发操作的处理方法、装置、电子设备和存储介质
CN112911378B (zh) * 2019-12-03 2024-09-24 西安光启智能技术有限公司 一种视频帧的查询方法
CN113221912B (zh) * 2020-01-21 2024-09-06 腾讯科技(深圳)有限公司 一种操作按键识别方法、装置、设备及介质
CN113298585B (zh) * 2020-05-19 2024-07-02 阿里巴巴集团控股有限公司 提供商品对象信息的方法、装置及电子设备
US11051067B1 (en) 2020-08-14 2021-06-29 Global Sports & Entertainment Marketing, LLC Interactive video overlay
CN112073650A (zh) * 2020-09-16 2020-12-11 中航华东光电有限公司 基于fpga的ddr3视频缓存控制方法
CN112633126B (zh) * 2020-12-18 2024-06-14 联通物联网有限责任公司 视频处理方法及装置
CN113691853B (zh) * 2021-07-16 2023-03-28 北京达佳互联信息技术有限公司 页面显示方法、装置及存储介质
CN114554283B (zh) * 2022-03-16 2024-03-12 北京达佳互联信息技术有限公司 目标对象展示方法、装置、电子设备及存储介质
CN114785949A (zh) * 2022-04-07 2022-07-22 维沃移动通信有限公司 视频对象处理方法、装置及电子设备
CN116033187B (zh) * 2023-01-05 2024-08-30 北京奇艺世纪科技有限公司 一种视频处理系统、方法、装置、电子设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120167144A1 (en) * 2010-12-23 2012-06-28 Eldon Technology Limited Recognition of Images Within a Video Based on a Stored Representation

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5596705A (en) * 1995-03-20 1997-01-21 International Business Machines Corporation System and method for linking and presenting movies with their underlying source information
US6483986B1 (en) * 2000-05-26 2002-11-19 Keen Personal Media, Inc. Method and apparatus for recording streaming video data upon selection of alternative subject matter
US20020013950A1 (en) * 2000-07-25 2002-01-31 Tomsen Mai-Lan Method and system to save context for deferred transaction via interactive television
US7526433B2 (en) * 2001-09-04 2009-04-28 Panasonic Coporation Virtual content distribution system
US7590997B2 (en) * 2004-07-30 2009-09-15 Broadband Itv, Inc. System and method for managing, converting and displaying video content on a video-on-demand platform, including ads used for drill-down navigation and consumer-generated classified ads
US7646812B2 (en) * 2005-04-01 2010-01-12 Microsoft Corporation Special predictive picture encoding using color key in source content
US20070226432A1 (en) * 2006-01-18 2007-09-27 Rix Jeffrey A Devices, systems and methods for creating and managing media clips
US8656282B2 (en) * 2007-01-31 2014-02-18 Fall Front Wireless Ny, Llc Authoring tool for providing tags associated with items in a video playback
US8224087B2 (en) * 2007-07-16 2012-07-17 Michael Bronstein Method and apparatus for video digest generation
KR20090119440A (ko) * 2008-05-16 2009-11-19 주식회사 다산네트웍스 객체 기반 양방향 방송 시스템, 단말기 및 그 방송 방법
US20100037138A1 (en) * 2008-08-11 2010-02-11 Live Face On Web, LLC Client-Configurable Video Delivery Platform
US8929657B2 (en) * 2008-08-22 2015-01-06 KyongHee Yi System and method for indexing object in image
US9338494B2 (en) * 2011-02-11 2016-05-10 Sony Corporation Method and apparatus for providing recommended content playback on a display device
US8467663B2 (en) * 2011-02-18 2013-06-18 Apple Inc. Video context popups
JP2012242821A (ja) * 2011-05-16 2012-12-10 Sony Mobile Communications Inc 表示画像生成方法
CN102945234A (zh) * 2011-08-15 2013-02-27 联想(北京)有限公司 一种数据信息查询方法及电子设备
US9596515B2 (en) * 2012-01-04 2017-03-14 Google Inc. Systems and methods of image searching
US20130219425A1 (en) * 2012-02-16 2013-08-22 Eyedestinations Inc. Method and apparatus for streaming advertisements concurrently with requested video
US9244600B2 (en) * 2013-02-05 2016-01-26 Alc Holdings, Inc. Video preview creation with audio
US20160110041A1 (en) * 2013-03-14 2016-04-21 Aperture Investments, Llc Systems and methods for selecting and displaying identified objects within video content along with information associated with the identified objects
US9473757B2 (en) * 2013-06-26 2016-10-18 Intel Corporation Presentation of a multi-frame segment of video content
CN103686413A (zh) * 2013-12-19 2014-03-26 宇龙计算机通信科技(深圳)有限公司 一种辅助显示方法及装置
CN104113786A (zh) * 2014-06-26 2014-10-22 小米科技有限责任公司 信息获取方法及装置
CN104184923B (zh) * 2014-08-27 2018-01-09 天津三星电子有限公司 用于视频中检索人物信息的系统和方法
CN104837050B (zh) * 2015-03-23 2018-09-04 腾讯科技(北京)有限公司 一种信息处理方法及终端

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120167144A1 (en) * 2010-12-23 2012-06-28 Eldon Technology Limited Recognition of Images Within a Video Based on a Stored Representation

Also Published As

Publication number Publication date
WO2016150236A1 (zh) 2016-09-29
KR20170089922A (ko) 2017-08-04
US20170318355A1 (en) 2017-11-02
US10368140B2 (en) 2019-07-30
CN104837050B (zh) 2018-09-04
CN104837050A (zh) 2015-08-12

Similar Documents

Publication Publication Date Title
KR101994565B1 (ko) 정보 처리 방법 및 장치, 단말기 및 기억 매체
US10268994B2 (en) N-level replication of supplemental content
KR101839927B1 (ko) 미디어 데이터에 있는 아이템을 인식하고 이와 관련된 정보를 전달하기 위한 시스템 및 방법
US20120167145A1 (en) Method and apparatus for providing or utilizing interactive video with tagged objects
US20120167146A1 (en) Method and apparatus for providing or utilizing interactive video with tagged objects
US20130339857A1 (en) Modular and Scalable Interactive Video Player
US10798441B2 (en) Information processing method, apparatus, and device
US20140344070A1 (en) Context-aware video platform systems and methods
KR20130085665A (ko) 스마트 tv 환경에서 tv 콘텐츠에 상품 메타 정보를 합성하여 제공하는 시스템 및 그 방법
KR101564161B1 (ko) 스마트 tv 환경에서 tv 콘텐츠에 상품 메타 정보를 합성하여 제공하는 시스템 및 그 방법
US20140059595A1 (en) Context-aware video systems and methods
KR101250107B1 (ko) 스마트 tv 환경에서 tv 컨텐츠에 상품 메타 정보를 생성하여 관리하는 시스템 및 그 방법
US20130332972A1 (en) Context-aware video platform systems and methods
JP2017162006A (ja) 配信装置、配信方法及び配信プログラム

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant