JPWO2020246237A1 - Information processing system - Google Patents

Information processing system Download PDF

Info

Publication number
JPWO2020246237A1
JPWO2020246237A1 JP2021507110A JP2021507110A JPWO2020246237A1 JP WO2020246237 A1 JPWO2020246237 A1 JP WO2020246237A1 JP 2021507110 A JP2021507110 A JP 2021507110A JP 2021507110 A JP2021507110 A JP 2021507110A JP WO2020246237 A1 JPWO2020246237 A1 JP WO2020246237A1
Authority
JP
Japan
Prior art keywords
live image
displayed
setting
information
tig
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021507110A
Other languages
Japanese (ja)
Inventor
道生 小林
道生 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PARONYM INC.
Original Assignee
PARONYM INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PARONYM INC. filed Critical PARONYM INC.
Publication of JPWO2020246237A1 publication Critical patent/JPWO2020246237A1/en
Priority to JP2022029964A priority Critical patent/JP7229601B2/en
Priority to JP2023017701A priority patent/JP2023054039A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • H04N21/4725End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content using interactive regions of the image, e.g. hot spots
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

ライブ画像の視聴中、又はライブ画像を視聴した後のタイミングで、当該ライブ画像に含まれるオブジェクトに関する所定情報を容易に取得できるようにすることを課題とする。紐付情報管理部121は、ライブ画像Lの中で視聴者Wにより指定がなされるオブジェクトJに対し、視聴者Wにオブジェクト情報を提供するための紐付情報を、当該指定がなされる前の所定タイミングで紐付けて管理する。提示制御部122は、ライブ画像Lを視聴者Wに提示する。指定受付部123は、ライブ画像Lの視聴者WによるTIGエリアAに対するタップ操作による指定を受付ける。取得部124は、指定が受付けられたオブジェクトJに紐付けられている紐付情報を取得する。提供制御部125は、取得された紐付情報に基づいて、オブジェクト情報を視聴者Wに提供する。An object of the present invention is to make it possible to easily acquire predetermined information about an object included in the live image during viewing of the live image or at a timing after viewing the live image. The linking information management unit 121 provides the linking information for providing the object information to the viewer W to the object J designated by the viewer W in the live image L at a predetermined timing before the designation is made. Manage by linking with. The presentation control unit 122 presents the live image L to the viewer W. The designated reception unit 123 accepts the designation by the viewer W of the live image L by tapping the TIG area A. The acquisition unit 124 acquires the association information associated with the object J for which the designation has been accepted. The provision control unit 125 provides the object information to the viewer W based on the acquired association information.

Description

本発明は、情報処理装置システムに関する。 The present invention relates to an information processing device system.

従来より、静止画像又は動画像にリンク領域を設けて、当該リンク領域に対する操作を受け付けて所定情報を表示させる技術は存在する。
例えば、特許文献1には、旅行用ガイドブックの電子書籍のページに「チケット予約へGO」と表示されたリンク領域に対する操作が行われると、リンク先となるチケット予約専用のWEBページを表示させる技術が記載されている。
また例えば、動画像を含む電子書籍のページの閲覧中とは別のタイミングにおいて、当該電子書籍に含まれていたオブジェクトに関する所定情報を取得することを可能とする技術について、本出願人は既に出願している(特許文献2)。
Conventionally, there has been a technique of providing a link area in a still image or a moving image, accepting an operation on the link area, and displaying predetermined information.
For example, in Patent Document 1, when an operation is performed on a link area displayed as "GO to ticket reservation" on the page of an electronic book of a travel guidebook, a WEB page dedicated to ticket reservation, which is a link destination, is displayed. The technology is described.
Further, for example, the applicant has already applied for a technique that makes it possible to acquire predetermined information about an object included in the electronic book at a timing different from that while browsing the page of the electronic book including a moving image. (Patent Document 2).

特許5537724号公報Japanese Patent No. 5537724 特願2019−047406号明細書及び図面Japanese Patent Application No. 2019-047406 Specifications and drawings

しかしながら、特許文献1及び特許文献2を含め従来の技術は、撮像により生成された静止画像又は動画像のデータに含まれるオブジェクトに関する所定情報を取得できるようにする技術である。
つまり、従来の技術では、既に存在する画像のデータに含まれるオブジェクトに関する所定情報を取得することが想定されているが、いわゆる生放送のようなライブ画像を想定していない。
ところが、ライブ画像の視聴中、又はライブ画像を視聴した後のタイミングで、当該ライブ画像に含まれるオブジェクトに関する所定情報を取得することを望むユーザも多く存在する。
特許文献1及び特許文献2を含め従来の技術では、このようなユーザからの要望に応えることが充分にできていない状況である。
However, conventional techniques including Patent Document 1 and Patent Document 2 are techniques for making it possible to acquire predetermined information about an object included in the still image or moving image data generated by imaging.
That is, in the conventional technique, it is assumed that predetermined information about an object included in the data of an existing image is acquired, but a live image such as a so-called live broadcast is not assumed.
However, there are many users who desire to acquire predetermined information about an object included in the live image during viewing of the live image or at a timing after viewing the live image.
Conventional techniques including Patent Document 1 and Patent Document 2 have not been able to sufficiently meet such a request from a user.

本発明は、このような状況に鑑みてなされたものであり、ライブ画像の視聴中、又はライブ画像を視聴した後のタイミングで、当該ライブ画像に含まれるオブジェクトに関する所定情報を容易に取得できるようにする手法を提供することを目的とする。 The present invention has been made in view of such a situation, so that predetermined information regarding an object included in the live image can be easily acquired during viewing of the live image or at a timing after viewing the live image. The purpose is to provide a method of making.

上記目的を達成するため、本発明の一態様の情報処理システムは、
表示されているライブ画像の中で第1ユーザにより指定がなされる、所定時間帯の所定領域に存在するオブジェクトに対し、当該第1ユーザに所定情報を提供するための情報を、当該指定がなされる前の所定タイミングで紐付けて、当該情報を紐付情報として管理する管理手段と、
前記ライブ画像を前記第1ユーザに提示する制御を実行する提示制御手段と、
前記ライブ画像が提示されている前記第1ユーザによる前記所定領域に対する所定操作がなされた場合、当該所定領域に存在する前記オブジェクトの前記指定がなされたと認識して、当該指定を受付ける第1受付手段と、
前記指定が受付けられた前記オブジェクトに紐付けられて管理されている前記紐付情報を取得する取得手段と、
前記取得手段により取得された前記紐付情報に基づいて、前記所定情報を前記第1ユーザに提供する制御を実行する提供制御手段と、
を備える。
In order to achieve the above object, the information processing system of one aspect of the present invention is
Information for providing predetermined information to the first user for an object existing in a predetermined area in a predetermined time zone, which is designated by the first user in the displayed live image, is specified. A management means that manages the information as linked information by linking at a predetermined timing before the link.
A presentation control means that executes control for presenting the live image to the first user, and
When the first user who is presented with the live image performs a predetermined operation on the predetermined area, the first reception means that recognizes that the designation of the object existing in the predetermined area has been made and accepts the designation. When,
An acquisition means for acquiring the association information managed by being associated with the object for which the designation has been accepted, and
A provision control means that executes control to provide the predetermined information to the first user based on the association information acquired by the acquisition means.
To be equipped.

本発明によれば、ライブ画像の視聴中、又はライブ画像を視聴した後のタイミングで、当該ライブ画像に含まれるオブジェクトに関する所定情報を容易に取得することができる。 According to the present invention, predetermined information about an object included in the live image can be easily acquired during viewing of the live image or at a timing after viewing the live image.

本発明の一実施形態に係る情報処理システムにより実現可能なサービスの一例の概要を示す図である。It is a figure which shows the outline of an example of the service which can be realized by the information processing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理システムの構成を示す図である。It is a figure which shows the structure of the information processing system which concerns on one Embodiment of this invention. 図2の情報処理システムのうち管理サーバのハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware configuration of the management server in the information processing system of FIG. 図3の管理サーバの機能的構成のうち、紐付情報設定支援処理、及び紐付情報提供処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional configuration for executing the association information setting support process and the association information provision process among the functional configurations of the management server of FIG. 設定者が、オブジェクトの設定を設定者端末にライブ画像が表示される前に行う場合に、設定者端末に表示されるGUI(Graphical User Interface)の一例を示す図である。It is a figure which shows an example of GUI (Graphical User Interface) displayed on the setter terminal when the set person sets an object before the live image is displayed on the setter terminal. 設定者が、TIGエリアが有効になる時間帯の設定を設定者端末にライブ画像が表示される前に行う場合に、設定者端末に表示されるGUIの一例を示す図である。It is a figure which shows an example of the GUI displayed on the setter terminal when the set person sets the time zone in which the TIG area becomes effective before the live image is displayed on the setter terminal. 設定者が、TIGエリアが有効になる時間帯の設定を設定者端末にライブ画像が表示される前に行う場合に、設定者端末に表示されるGUIの一例を示す図である。It is a figure which shows an example of the GUI displayed on the setter terminal when the set person sets the time zone in which the TIG area becomes effective before the live image is displayed on the setter terminal. 設定者が、TIGエリアの位置の設定と、TIGエリアが有効になる時間帯の設定とを、設定者端末にライブ画像が表示されている最中に行う場合に、設定者端末に表示されるGUIの一例を示す図である。When the setter sets the position of the TIG area and the time zone in which the TIG area is valid while the live image is being displayed on the setter terminal, it is displayed on the setter terminal. It is a figure which shows an example of GUI. 設定者が、TIGエリアの位置の設定と、TIGエリアが有効になる時間帯の設定とを、設定者端末にライブ画像が表示されている最中に行う場合に、設定者端末に表示されるGUIの一例を示す図である。When the setter sets the position of the TIG area and the time zone in which the TIG area is valid while the live image is being displayed on the setter terminal, it is displayed on the setter terminal. It is a figure which shows an example of GUI. TIGエリアの位置の設定と、TIGエリアが有効になる時間帯の設定とが、設定者端末にライブ画像が表示されている最中に自動で行われる場合に、設定者端末に表示されるGUIの一例を示す図である。The GUI displayed on the setter terminal when the position of the TIG area and the time zone when the TIG area is enabled are automatically set while the live image is being displayed on the setter terminal. It is a figure which shows an example. TIGエリアの位置の設定と、TIGエリアが有効になる時間帯の設定とが、設定者端末にライブ画像が表示されている最中に自動で行われる場合に、設定者端末に表示されるGUIの一例を示す図である。The GUI displayed on the setter terminal when the position of the TIG area and the time zone when the TIG area is enabled are automatically set while the live image is being displayed on the setter terminal. It is a figure which shows an example. 衣料品店の店員が商品を試着してライブ画像を配信する場合に本サービスが適用される例を示す図である。It is a figure which shows the example which this service is applied when a clerk of a clothing store tries on a product and distributes a live image. 衣料品店の店員が商品を試着してライブ画像を配信する場合に本サービスが適用される例のうち図9と異なる例を示す図である。It is a figure which shows the example different from FIG. 9 among the examples to which this service is applied when a clerk of a clothing store tries on a product and distributes a live image. 衣料品店の店員が商品を試着してライブ画像を配信する場合に本サービスが適用される例のうち図9及び図10と異なる例を示す図である。It is a figure which shows the example different from FIG. 9 and FIG. 10 among the examples to which this service is applied when a clerk of a clothing store tries on a product and distributes a live image. 視聴者の操作に基づいてタグの読取りが行われる態様の例を示す図である。It is a figure which shows the example of the mode in which the tag is read based on the operation of a viewer. リーダがタグを読取る他の態様の例を示す図である。It is a figure which shows the example of another aspect in which a reader reads a tag. リーダがタグを読取る他の態様の例を示す図である。It is a figure which shows the example of another aspect in which a reader reads a tag. リーダがタグを読取る他の態様の例を示す図である。It is a figure which shows the example of another aspect in which a reader reads a tag. リーダがタグを読取る他の態様の例を示す図である。It is a figure which shows the example of another aspect in which a reader reads a tag. 図2の情報処理システムで生じ得る遅延を示す図である。It is a figure which shows the delay which can occur in the information processing system of FIG. 図14Aに示す遅延を利用して同期をとる手法の例を示す図である。It is a figure which shows the example of the method of synchronizing by using the delay shown in FIG. 14A. 図14Bとは異なる手法として、ライブ画像にTIGメタデータを直接埋め込むことで同期をとる例を示す図である。As a method different from FIG. 14B, it is a figure which shows an example of synchronizing by directly embedding TIG metadata in a live image.

以下、本発明の実施形態について図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

まず図1を参照して、後述する図2の情報処理システムの適用対象となる本サービスの概要について説明する。 First, with reference to FIG. 1, the outline of this service to which the information processing system of FIG. 2 described later is applied will be described.

図1は、本発明の一実施形態に係る情報処理システムにより実現可能なサービスの一例(以下、「本サービス」と呼ぶ)の概要を示す図である。 FIG. 1 is a diagram showing an outline of an example of a service (hereinafter, referred to as “the service”) that can be realized by the information processing system according to the embodiment of the present invention.

本サービスは、サービス提供者(図示せず)により提供されるサービスの一例である。
本サービスによれば、ライブ画像に表示されるオブジェクトに、そのオブジェクトに関する情報(以下、「オブジェクト情報」と呼ぶ)を容易に紐付けることができる。
This service is an example of a service provided by a service provider (not shown).
According to this service, information about an object (hereinafter referred to as "object information") can be easily associated with an object displayed in a live image.

ここで、「ライブ画像」とは、いわゆる生放送と呼ばれるものをすべて含む概念であり、例えば通信環境等の影響を受けて遅延して表示されたものも含まれる。 Here, the "live image" is a concept that includes all so-called live broadcasts, and includes, for example, an image that is displayed with a delay due to the influence of a communication environment or the like.

ここで、「オブジェクト」には、ライブ画像に被写体として登場する人物や物等を示す画像や文字等の領域の他、ライブ画像に重畳されて表示されるテロップ等の画像(静止画像又は動画像)等が含まれる。 Here, the "object" includes an area such as an image or characters showing a person or an object appearing as a subject in the live image, as well as an image such as a telop (still image or moving image) displayed superimposed on the live image. ) Etc. are included.

「オブジェクト情報」には、オブジェクトに関するあらゆる情報が含まれるが、本サービスでは、ライブ画像そのものでは視聴できない情報(他から取得される情報)であるものとする。
視聴者は、スマートフォン等の端末(後述の図2等の視聴者端末3)に表示されているライブ画像を視聴しながら、ライブ画像に表示されている1以上のオブジェクトのうち所望のオブジェクトを指定する操作を行う。
これにより、視聴者は、自身が指定したオブジェクトに紐付けられているオブジェクト情報を容易に取得することができる。
"Object information" includes all information about objects, but in this service, it is assumed that the information cannot be viewed with the live image itself (information obtained from others).
The viewer specifies a desired object among one or more objects displayed on the live image while viewing the live image displayed on a terminal such as a smartphone (viewer terminal 3 as shown in FIG. 2 described later). Do the operation to do.
As a result, the viewer can easily acquire the object information associated with the object specified by the viewer.

本サービスでは、ライブ画像は、視聴者に配信等されるものであるとする。また、本実施形態では、視聴者の端末に予めインストールされた、ライブ画像を視聴するための専用のアプリケーションソフトウェア(以下、「視聴アプリ」と呼ぶ)を用いてライブ画像が視聴されるものとする。
ただし、ライブ画像の視聴の手法は、特に限定されず、例えばブラウザ機能によりライブ画像を視聴する手法を採用してもよい。
In this service, live images are to be distributed to viewers. Further, in the present embodiment, the live image is viewed using the dedicated application software (hereinafter referred to as "viewing application") for viewing the live image, which is pre-installed on the viewer's terminal. ..
However, the method of viewing the live image is not particularly limited, and for example, a method of viewing the live image by the browser function may be adopted.

図1には、ハワイの現地リポーターによる生中継の様子を示すライブ画像Lが描画されている。このライブ画像Lは、視聴者の端末に表示される。即ち、視聴者は、端末に表示されたライブ画像Lを視聴することで、例えば生中継の様子を視聴することができる。 In FIG. 1, a live image L showing a live broadcast by a local reporter in Hawaii is drawn. This live image L is displayed on the viewer's terminal. That is, the viewer can watch the live broadcast, for example, by watching the live image L displayed on the terminal.

ライブ画像Lには、1以上のオブジェクトが表示されている。
具体的には例えば、ライブ画像Lには、例えば現地リポーター(人物)を示すオブジェクトJ1と、「現地リポーター ○○○○」と表記されたテロップを示すオブジェクトJ2とが含まれている。
なお、ライブ画像Lには、このほかに、女性タレントの衣服(商品)、ホテル(施設)、ヤシの木(動植物)、海(自然物)等が表示されているが、いずれもオブジェクトに該当する。
ここで、オブジェクトJ1及びJ2等各種オブジェクトを個々に区別する必要がない場合、これらをまとめて「オブジェクトJ」と呼ぶ。
One or more objects are displayed in the live image L.
Specifically, for example, the live image L includes, for example, an object J1 indicating a local reporter (person) and an object J2 indicating a telop described as “local reporter ○○○○”.
In addition to this, the live image L displays clothes (commodities), hotels (facilities), palm trees (animals and plants), the sea (natural objects), etc. of female talents, all of which correspond to objects. ..
Here, when it is not necessary to individually distinguish various objects such as objects J1 and J2, these are collectively referred to as "object J".

視聴者は、ライブ画像Lの視聴中、例えばライブ画像Lに登場している現地リポーターに興味を持った場合、その現地リポーターを示すオブジェクトJ1又はオブジェクトJ2を指定する操作を行う。 When the viewer is interested in the local reporter appearing in the live image L, for example, while viewing the live image L, the viewer performs an operation of designating the object J1 or the object J2 indicating the local reporter.

オブジェクトJ1及びオブジェクトJ2のオブジェクト情報としては、例えば、その現地リポーターに関する情報、具体的には例えば、現地リポーターが女性タレントである場合には、名前(芸名)、所属するプロダクション事務所の名称、公開されているプロフィール等が含まれる。また、それ以外にも、現地リポーターが着用している衣服に関する情報、具体的には例えば、ブランド名、商品名、購入可能な販売店(EC(Electronic Commerce)サイト含む)等が含まれていてもよい。
これにより、視聴者は、自身が指定したオブジェクトJ1又はオブジェクトJ2のオブジェクト情報を任意のタイミングで入手することができる。
ここで、「任意のタイミング」とは、ライブ画像の視聴中は勿論のこと、当該ライブ画像とは別のライブ画像の視聴中や、ライブ画像自体の視聴終了後等のタイミングを含む意である。
The object information of the object J1 and the object J2 is, for example, information about the local reporter, specifically, for example, when the local reporter is a female talent, the name (stage name), the name of the production office to which the local reporter belongs, and the disclosure. Profiles etc. that have been created are included. In addition to that, information on clothes worn by local reporters, specifically, for example, brand names, product names, available retailers (including EC (Electronic Commerce) sites), etc. are included. May be good.
As a result, the viewer can obtain the object information of the object J1 or the object J2 specified by himself / herself at an arbitrary timing.
Here, the "arbitrary timing" means not only the timing during viewing of the live image, but also the timing during viewing of a live image different from the live image, after the viewing of the live image itself is completed, and the like. ..

具体的には、本サービスでは、ライブ画像において、視聴者の操作に基づいて指定され得る1以上のオブジェクトJ毎に、そのオブジェクト情報を視聴者に提供するための情報が紐付けられて管理されている。
このように、オブジェクトJに対して紐付けられた情報であって、そのオブジェクト情報を視聴者に提供するための情報を、以下、「紐付情報」と呼ぶ。
Specifically, in this service, in a live image, information for providing the object information to the viewer is linked and managed for each one or more objects J that can be specified based on the operation of the viewer. ing.
Information that is associated with the object J and that provides the object information to the viewer is hereinafter referred to as "association information".

「紐付情報」には、視聴者にオブジェクト情報を提供するためのあらゆる情報が含まれる。
具体的には例えば、現地リポーター(人物)を示すオブジェクトJ1、及び「現地リポーター ○○○○」と表記されたテロップを示すオブジェクトJ2の紐付情報としては以下のものを採用することができる。
即ち、その現地リポーターに関する情報、具体的には例えば、現地リポーターが女性タレントである場合には、名前(芸名)、所属するプロダクション事務所の名称、公開されているプロフィール等(オブジェクト情報)が掲載されたWEBページのURL(Uniform Resource Locator)を紐付情報として採用することができる。また、それ以外にも、現地リポーターが着用している衣服に関する情報、具体的には例えば、ブランド名、商品名、購入可能な販売店等(オブジェクト情報)が掲載されたWEBページのURLを紐付情報として採用することもできる。
"Association information" includes all information for providing object information to the viewer.
Specifically, for example, the following can be adopted as the linking information of the object J1 indicating the local reporter (person) and the object J2 indicating the telop described as "local reporter ○○○○".
That is, information about the local reporter, specifically, for example, when the local reporter is a female talent, the name (stage name), the name of the production office to which the local reporter belongs, the public profile, etc. (object information) are posted. The URL (Uniform Resource Locator) of the created WEB page can be adopted as the association information. In addition to that, the URL of the WEB page containing information on clothes worn by local reporters, specifically, for example, brand names, product names, available stores, etc. (object information), is linked. It can also be adopted as information.

さらにいえば、「紐付情報」として、URLを採用することは例示に過ぎない。
例えば、オブジェクトJに関する各種キーワードを紐付情報として採用することもできる。この場合、視聴者の端末やサーバ等は、当該キーワードを用いて所定の検索用WEBサイトで検索を行い、その検索結果をオブジェクト情報として視聴者に提供することができる。
Furthermore, adopting a URL as "association information" is only an example.
For example, various keywords related to the object J can be adopted as the association information. In this case, the viewer's terminal, server, or the like can perform a search on a predetermined search WEB site using the keyword, and provide the search result to the viewer as object information.

また、1つのオブジェクトJに対して紐付けられる紐付情報の個数は、1個に限定されず、複数個でもよい。
例えば、本サービスにおいて正規とされるURLを第1紐付情報として採用することもできる。また、そのURL以外に、本サービスにより別途抽出された(例えば自動でレコメンド表示された)URLを第2紐付情報として採用することもできる。そして、視聴者が、その端末を操作することで、第1紐付情報と第2紐付情報のうち所望の一方を選択することができるようにしてもよい。この場合、選択された方のURLに存在するWEBサイトが、当該オブジェクトJのオブジェクト情報として視聴者に提供される。
換言すると、1つのオブジェクトJに対して視聴者に提供されるオブジェクト情報は、1個に限定されず、複数個であってもよい。
Further, the number of associated information associated with one object J is not limited to one, and may be plural.
For example, a URL that is legitimate in this service can be adopted as the first link information. In addition to the URL, a URL separately extracted by this service (for example, automatically recommended and displayed) can be adopted as the second linking information. Then, the viewer may be able to select a desired one of the first association information and the second association information by operating the terminal. In this case, the WEB site existing at the selected URL is provided to the viewer as the object information of the object J.
In other words, the object information provided to the viewer for one object J is not limited to one, and may be plural.

視聴者は、所定のオブジェクトJに対応付けられた紐付情報を使用する操作を、端末に対して行うことで、当該オブジェクトJのオブジェクト情報の提供を受けることができる。
例えば、紐付情報がURLである場合、当該紐付情報を使用する操作とは、当該URLにアクセスすることを指示する操作である。この場合、当該URLに存在するWEBサイトが視聴者の端末に表示されることで、そのWEBサイトに掲載されているオブジェクト情報が視聴者に提供される。
ここで、サービス提供者(図示せず)は、紐付情報がURLである場合、視聴者の当該紐付情報を使用する操作により、当該URLへのアクセスがあった場合には、そのアクセスの数をカウントして、そのアクセス数に応じて各種の課金の設定を行ってもよい。
The viewer can receive the object information of the object J by performing an operation on the terminal using the association information associated with the predetermined object J.
For example, when the associated information is a URL, the operation of using the associated information is an operation of instructing to access the URL. In this case, the WEB site existing at the URL is displayed on the viewer's terminal, so that the object information posted on the WEB site is provided to the viewer.
Here, the service provider (not shown) determines the number of accesses when the URL is accessed by the viewer by the operation using the URL when the link information is a URL. You may count and set various billing according to the number of accesses.

ここで、所定のオブジェクトJに対応付けられた紐付情報を使用する操作のタイミングは、当該オブジェクトJを含むライブ画像の視聴中に特に限定されず、他のライブ画像の視聴中や、ライブ画像の視聴を終了した後等任意のタイミングとすることが可能である。
このように、所定のオブジェクトJに対応付けられた紐付情報を使用する操作を任意のタイミングとすることができるように、本サービスでは、当該オブジェクトJの指定の操作がなされると、当該オブジェクトJに紐付けられた紐付情報が所定場所(例えば視聴アプリ内の所定の格納場所)に格納される。
これにより、視聴者は、その所定場所に格納された1以上の紐付情報のうち、所望の紐付情報を使用する操作を、任意のタイミングで行うことができるようになる。
Here, the timing of the operation using the association information associated with the predetermined object J is not particularly limited during viewing of the live image including the object J, and the timing of viewing another live image or the live image. It is possible to set any timing such as after the viewing is finished.
In this way, in this service, when the designated operation of the object J is performed, the object J can be operated at an arbitrary timing by using the association information associated with the predetermined object J. The associative information associated with is stored in a predetermined place (for example, a predetermined storage place in the viewing application).
As a result, the viewer can perform an operation using the desired linked information among the one or more linked information stored in the predetermined location at an arbitrary timing.

ここで、視聴者による「オブジェクトJを指定する操作(紐付情報を所定場所に格納させる操作)」は、具体的には、ライブ画像の中の、オブジェクトJが存在し得る、「TIGエリア」と呼ばれる領域を指定する操作のことをいう。
具体的には例えば、図1のライブ画像Lの中の表示されているTIGエリアA1を指定する操作が行われることで、TIGエリアA1に存在するオブジェクトJ1が指定される。
また例えば、図1のライブ画像Lの中の表示されているTIGエリアA2を指定する操作が行われることで、TIGエリアA2に存在するオブジェクトJ2が指定される。
ここで、TIGエリアA1及びA2等各種TIGエリアを個々に区別する必要がない場合、これらをまとめて「TIGエリアA」と呼ぶ。
Here, the "operation of designating the object J (operation of storing the association information in a predetermined place)" by the viewer is specifically referred to as a "TIG area" in which the object J can exist in the live image. An operation that specifies an area to be called.
Specifically, for example, by performing an operation of designating the displayed TIG area A1 in the live image L of FIG. 1, the object J1 existing in the TIG area A1 is designated.
Further, for example, by performing an operation of designating the displayed TIG area A2 in the live image L of FIG. 1, the object J2 existing in the TIG area A2 is designated.
Here, when it is not necessary to individually distinguish various TIG areas such as TIG areas A1 and A2, these are collectively referred to as "TIG area A".

本サービスでは、オブジェクトJを指定する操作として、当該オブジェクトJが存在するTIGエリアAに対するタップの操作が採用されているものとする。即ち、視聴者は、TIGエリアAをタップすることで、当該TIGエリアAに対応するオブジェクトJを指定して、そのオブジェクトJの紐付情報を所定場所に格納させることができる。
具体的には例えば図1の例では、TIGエリアA1がタップされると、TIGエリアA1に対応するオブジェクトJ1の紐付情報(オブジェクト情報が掲載されたWEBページのURL等)が、所定場所に格納される。
In this service, it is assumed that the operation of tapping the TIG area A in which the object J exists is adopted as the operation of designating the object J. That is, by tapping the TIG area A, the viewer can specify the object J corresponding to the TIG area A and store the association information of the object J in a predetermined place.
Specifically, for example, in the example of FIG. 1, when the TIG area A1 is tapped, the association information of the object J1 corresponding to the TIG area A1 (URL of the WEB page on which the object information is posted, etc.) is stored in a predetermined place. Will be done.

ここで、本サービスでは、紐付情報が格納される所定場所として、「TIGストック」と呼ばれる場所が採用されている。
即ち、視聴者によるTIGエリアA1のタップにより指定されたオブジェクトJ1の紐付情報は、ストック情報として、「TIGストック」に保存されて管理される。
ここで、紐付情報に基づいて視聴者に提供されるオブジェクト情報は、対応するオブジェクトJの形態によらず、テキスト、静止画像、動画像等任意の形態を採用することができる。従って、「TIGストック」は、複数のライブ画像を跨ぐ共通のストックページと把握することもできる。
具体的には例えば、図示はしないが、視聴者は、端末に表示された所定のボタンをタップすることで、「TIGストック」に保存されている1以上のオブジェクト情報を一覧表示させることができる。
Here, in this service, a place called "TIG stock" is adopted as a predetermined place where the association information is stored.
That is, the association information of the object J1 designated by the viewer tapping the TIG area A1 is stored and managed in the "TIG stock" as stock information.
Here, as the object information provided to the viewer based on the association information, any form such as text, still image, and moving image can be adopted regardless of the form of the corresponding object J. Therefore, the "TIG stock" can be grasped as a common stock page that straddles a plurality of live images.
Specifically, for example, although not shown, the viewer can display a list of one or more object information stored in the "TIG stock" by tapping a predetermined button displayed on the terminal. ..

なお、ライブ画像において、視聴者によりタップされたオブジェクトJに、当該オブジェクトJの紐付情報が紐付けられていない場合には、視聴者に紐付情報を提供することができない。このような場合には、視聴者がオブジェクトJをタップしても何ら反応しないようにしてもよいし、タップされたオブジェクトJには紐付情報が紐付けられていない旨を端末に表示させてもよい。 In the live image, if the object J tapped by the viewer is not associated with the object J's association information, the association information cannot be provided to the viewer. In such a case, even if the viewer taps the object J, no reaction may be made, or the terminal may display that the tapped object J is not associated with the association information. good.

このように、本サービスによれば、ライブ画像の視聴者は、ライブ画像に表示されているオブジェクトJが存在するTIGエリアAをタップするだけで、そのオブジェクトJのオブジェクト情報を容易に取得することができる。
なお、本サービスは、表示されるライブ画像について、設定者による各種の設定が行われることで初めて実現させることができる。
以下、本サービスを実現させる各種の設定を容易に行うことを可能にする具体的手法について説明する。
As described above, according to this service, the viewer of the live image can easily acquire the object information of the object J by simply tapping the TIG area A in which the object J displayed in the live image exists. Can be done.
In addition, this service can be realized only when various settings are made by the setter for the displayed live image.
Hereinafter, a specific method that makes it possible to easily perform various settings for realizing this service will be described.

図2は、本発明の一実施形態に係る情報処理システムの構成を示す図である。 FIG. 2 is a diagram showing a configuration of an information processing system according to an embodiment of the present invention.

図2に示す情報処理システムは、管理サーバ1と、設定者端末2と、視聴者端末3と、外部サーバ4と、カメラCAMとを含むように構成されている。
管理サーバ1、設定者端末2、視聴者端末3、及び外部サーバ4の夫々は、インターネット等の所定のネットワークNを介して相互に接続されている。
The information processing system shown in FIG. 2 is configured to include a management server 1, a setter terminal 2, a viewer terminal 3, an external server 4, and a camera CAM.
The management server 1, the setter terminal 2, the viewer terminal 3, and the external server 4 are connected to each other via a predetermined network N such as the Internet.

管理サーバ1は、サービス提供者(図示せず)により管理され、設定者端末2及び視聴者端末3と適宜通信をしながら、本サービスを実現するための各種処理を実行する。 The management server 1 is managed by a service provider (not shown), and executes various processes for realizing this service while appropriately communicating with the setter terminal 2 and the viewer terminal 3.

設定者端末2は、設定者Cにより操作される情報処理装置であって、例えばパーソナルコンピュータ、スマートフォン、タブレット等で構成される。 The setter terminal 2 is an information processing device operated by the setter C, and is composed of, for example, a personal computer, a smartphone, a tablet, or the like.

視聴者端末3は、視聴者Wにより操作される情報処理装置であって、例えばパーソナルコンピュータ、スマートフォン、タブレット等で構成される。 The viewer terminal 3 is an information processing device operated by the viewer W, and is composed of, for example, a personal computer, a smartphone, a tablet, or the like.

外部サーバ4は、紐付情報により提供可能となるオブジェクト情報、例えば紐付情報がURLの場合には当該URLに存在している各種WEBサイト(オブジェクト情報が掲載されたWEBサイト)を管理する。 The external server 4 manages object information that can be provided by the association information, for example, when the association information is a URL, various WEB sites (WEB sites on which the object information is posted) existing at the URL.

カメラCAMは、被写体の撮像に用いられるカメラである。なお、カメラCAMの態様は特に限定されない。例えば、監視用として一般的に用いられているカメラ、Webカメラ、スマートフォンやタブレットのカメラ等を採用することができる。 The camera CAM is a camera used for photographing a subject. The mode of the camera CAM is not particularly limited. For example, a camera generally used for surveillance, a Web camera, a camera of a smartphone or a tablet, or the like can be adopted.

図3は、図2の情報処理システムのうち管理サーバのハードウェア構成の一例を示すブロック図である。 FIG. 3 is a block diagram showing an example of the hardware configuration of the management server in the information processing system of FIG.

管理サーバ1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、入力部16と、出力部17と、記憶部18と、通信部19と、ドライブ20とを備えている。 The management server 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, an input unit 16, and an output unit 17. A storage unit 18, a communication unit 19, and a drive 20 are provided.

CPU11は、ROM12に記録されているプログラム、又は、記憶部18からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 11 executes various processes according to the program recorded in the ROM 12 or the program loaded from the storage unit 18 into the RAM 13.
Data and the like necessary for the CPU 11 to execute various processes are also appropriately stored in the RAM 13.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、入力部16、出力部17、記憶部18、通信部19及びドライブ20が接続されている。 The CPU 11, ROM 12 and RAM 13 are connected to each other via the bus 14. An input / output interface 15 is also connected to the bus 14. An input unit 16, an output unit 17, a storage unit 18, a communication unit 19, and a drive 20 are connected to the input / output interface 15.

入力部16は、例えばキーボード等により構成され、各種情報を出力する。
出力部17は、液晶等のディスプレイやスピーカ等により構成され、各種情報を画像や音声として出力する。
記憶部18は、DRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
通信部19は、インターネットを含むネットワークNを介して他の装置(例えば図2の設定者端末2、視聴者端末3、外部サーバ4等)との間で通信を行う。
The input unit 16 is composed of, for example, a keyboard or the like, and outputs various information.
The output unit 17 is composed of a display such as a liquid crystal display, a speaker, or the like, and outputs various information as images or sounds.
The storage unit 18 is composed of a DRAM (Dynamic Random Access Memory) or the like, and stores various data.
The communication unit 19 communicates with other devices (for example, the setter terminal 2, the viewer terminal 3, the external server 4, etc.) via the network N including the Internet.

ドライブ20には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア30が適宜装着される。ドライブ20によってリムーバブルメディア30から読み出されたプログラムは、必要に応じて記憶部18にインストールされる。
また、リムーバブルメディア30は、記憶部18に記憶されている各種データも、記憶部18と同様に記憶することができる。
A removable media 30 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted on the drive 20. The program read from the removable media 30 by the drive 20 is installed in the storage unit 18 as needed.
Further, the removable media 30 can also store various data stored in the storage unit 18 in the same manner as the storage unit 18.

なお、図示はしないが、図2の設定者端末2、視聴者端末3、及び外部サーバ4も、図3に示すハードウェア構成と基本的に同様の構成を有することができる。従って、設定者端末2、視聴者端末3、及び外部サーバ4のハードウェア構成の説明については省略する。 Although not shown, the setter terminal 2, the viewer terminal 3, and the external server 4 in FIG. 2 can also have basically the same configuration as the hardware configuration shown in FIG. Therefore, the description of the hardware configuration of the setter terminal 2, the viewer terminal 3, and the external server 4 will be omitted.

このような図3の管理サーバ1の各種ハードウェアと各種ソフトウェアとの協働により、管理サーバ1における紐付情報設定支援処理、及び紐付情報提供処理を含む各種処理の実行が可能になる。その結果、サービス提供者(図示せず)は、上述の本サービスを提供することができる。
「紐付情報設定支援処理」とは、設定者Cが、ライブ画像Lの中に存在し得るオブジェクトJに対し、紐付情報を容易に設定できるようにする処理をいう。
「紐付情報提供処理」とは、視聴者Wが、ライブ画像Lの中に存在し得るオブジェクトJに紐付けられている紐付情報を容易に取得できるようにする処理をいう。
以下、管理サーバ1において実行される、紐付情報設定支援処理、及び紐付情報提供処理を実行するための機能構成について説明する。
By collaborating with various hardware and various software of the management server 1 of FIG. 3 as described above, it becomes possible to execute various processes including the link information setting support process and the link information providing process on the management server 1. As a result, the service provider (not shown) can provide the above-mentioned service.
The “linking information setting support process” means a process that enables the setter C to easily set the linking information for the object J that may exist in the live image L.
The “linking information providing process” means a process that enables the viewer W to easily acquire the linking information associated with the object J that may exist in the live image L.
Hereinafter, the functional configuration for executing the association information setting support processing and the association information providing processing executed in the management server 1 will be described.

図4は、図3の管理サーバの機能的構成のうち、紐付情報設定支援処理、及び紐付情報提供処理を実行するための機能的構成を示す機能ブロック図である。 FIG. 4 is a functional block diagram showing a functional configuration for executing the association information setting support processing and the association information providing processing among the functional configurations of the management server of FIG.

図4に示すように、管理サーバ1のCPU11においては、紐付情報設定支援処理の実行が制御される場合、設定部101が機能する。設定部101においては、オブジェクト設定部111と、位置設定部112と、時間帯設定部113と、認識部114とが機能する。
また、CPU11においては、紐付情報提供処理の実行が制御される場合、視聴部102が機能する。視聴部102においては、紐付情報管理部121と、提示制御部122と、指定受付部123と、取得部124と、提供制御部125と、ストック管理部126とが機能する。
As shown in FIG. 4, in the CPU 11 of the management server 1, the setting unit 101 functions when the execution of the association information setting support process is controlled. In the setting unit 101, the object setting unit 111, the position setting unit 112, the time zone setting unit 113, and the recognition unit 114 function.
Further, in the CPU 11, the viewing unit 102 functions when the execution of the association information providing process is controlled. In the viewing unit 102, the association information management unit 121, the presentation control unit 122, the designated reception unit 123, the acquisition unit 124, the provision control unit 125, and the stock management unit 126 function.

設定部101のオブジェクト設定部111は、オブジェクトJに紐付情報が紐付けられるタイミング以前のいずれかのタイミングで、オブジェクトJを設定する。
ここで、「オブジェクトJを設定する」とは、ライブ画像Lに表示され得るオブジェクトJに対し、当該オブジェクトJを一意に識別し得る情報(例えばID等)を付して管理することをいう。
また、「紐付情報が紐付けられるタイミング以前」とは、後述する紐付情報管理部121による、オブジェクトJに対する紐付情報の紐付が行われる以前のことをいう。例えば、設定者端末2にライブ画像が表示される前のタイミングや、設定者端末2にライブ画像が表示された後に、後述する認識部114によってオブジェクトJが認識されたタイミングが、「紐付が行われる以前」に該当する。
オブジェクト設定部111による設定がなされたオブジェクトJは、本サービスに登録されたオブジェクトJとして、オブジェクトDB181に記憶されて管理される。
The object setting unit 111 of the setting unit 101 sets the object J at any timing before the timing at which the association information is associated with the object J.
Here, "setting the object J" means managing the object J that can be displayed on the live image L by adding information (for example, an ID) that can uniquely identify the object J.
Further, "before the timing at which the linking information is linked" means before the linking information is linked to the object J by the linking information management unit 121, which will be described later. For example, the timing before the live image is displayed on the setter terminal 2 and the timing when the object J is recognized by the recognition unit 114 described later after the live image is displayed on the setter terminal 2 are "linked. It corresponds to "before being struck".
The object J set by the object setting unit 111 is stored and managed in the object DB 181 as the object J registered in this service.

位置設定部112は、所定タイミングに、ライブ画像Lとして表示される表示領域のうち少なくとも一部の領域を、視聴者WによるオブジェクトJを指定する操作がなされるTIGエリアAとして設定する。
ここで、位置設定部112は、例えば以下のタイミングで、ライブ画像Lの中のTIGエリアAの位置の設定を行うことができる。
The position setting unit 112 sets at least a part of the display area displayed as the live image L as the TIG area A in which the operation of designating the object J by the viewer W is performed at a predetermined timing.
Here, the position setting unit 112 can set the position of the TIG area A in the live image L, for example, at the following timing.

即ち、位置設定部112は、設定者端末2にライブ画像Lが表示される前に、ライブ画像Lの中のTIGエリアAの位置を設定することができる。
これにより、設定者Cは、ライブ画像Lの中のTIGエリアAの位置を予め設定してから、視聴者端末3にライブ画像Lを表示させることができる。
That is, the position setting unit 112 can set the position of the TIG area A in the live image L before the live image L is displayed on the setter terminal 2.
As a result, the setter C can set the position of the TIG area A in the live image L in advance, and then display the live image L on the viewer terminal 3.

また、位置設定部112は、設定者端末2にライブ画像Lが表示されている最中に、設定者Cによる位置を指定する入力操作に基づいて、ライブ画像Lの中のTIGエリアAの位置を設定することができる。
これにより、設定者Cは、ライブ画像Lの中のTIGエリアAの位置を予め設定することなく、ライブ画像Lを確認しながら、自らTIGエリアAの位置を設定することができる。
Further, the position setting unit 112 is the position of the TIG area A in the live image L based on the input operation for designating the position by the setter C while the live image L is being displayed on the setter terminal 2. Can be set.
As a result, the setter C can set the position of the TIG area A by himself / herself while checking the live image L without setting the position of the TIG area A in the live image L in advance.

また、位置設定部112は、後述する認識部114によるオブジェクトJの認識結果に基づいて、ライブ画像Lの中のTIGエリアAの位置を設定することができる。
これにより、設定者Cは、ライブ画像Lを自ら確認することなく、オブジェクトJを自動認識させて、TIGエリアAの位置を自動設定させることができる。
Further, the position setting unit 112 can set the position of the TIG area A in the live image L based on the recognition result of the object J by the recognition unit 114 described later.
As a result, the setter C can automatically recognize the object J and automatically set the position of the TIG area A without checking the live image L by himself / herself.

時間帯設定部113は、ライブ画像Lが表示されている最中にTIGエリアAが有効になる時間帯を設定する。
即ち、TIGエリアAは、位置設定部112により、ライブ画像Lのうちの一領域として設定されるが、時間帯設定部113によれば、位置が設定されたTIGエリアAが有効になる時間帯と、無効になる時間帯とを設定することができる。
ここで、「有効」とは、視聴者がオブジェクトJを指定する操作(タップの操作)を行うことで紐付情報を取得できる状態のことをいう。「無効」とは、視聴者がオブジェクトJを指定する操作(タップの操作)を行っても紐付情報を取得できない状態のことをいう。
The time zone setting unit 113 sets a time zone in which the TIG area A becomes effective while the live image L is being displayed.
That is, the TIG area A is set as one area of the live image L by the position setting unit 112, but according to the time zone setting unit 113, the TIG area A in which the position is set becomes effective. And the time zone when it becomes invalid can be set.
Here, "valid" means a state in which the viewer can acquire the association information by performing an operation (tap operation) for designating the object J. "Invalid" means a state in which the association information cannot be acquired even if the viewer performs an operation (tap operation) for designating the object J.

ここで、時間帯設定部113は、例えば以下のタイミングで、ライブ画像Lの中でTIGエリアAが有効になる時間帯の設定を行うことができる。 Here, the time zone setting unit 113 can set the time zone in which the TIG area A becomes effective in the live image L, for example, at the following timing.

即ち、時間帯設定部113は、設定者端末2にライブ画像Lが表示される前に、ライブ画像Lの中でTIGエリアAが有効になる時間帯の設定を行うことができる。
これにより、設定者Cは、ライブ画像Lの中でTIGエリアAが有効になる時間帯を予め設定してから、視聴者端末3にライブ画像Lを表示させることができる。
That is, the time zone setting unit 113 can set the time zone in which the TIG area A is valid in the live image L before the live image L is displayed on the setter terminal 2.
As a result, the setter C can display the live image L on the viewer terminal 3 after setting the time zone in which the TIG area A is valid in the live image L in advance.

また、時間帯設定部113は、設定者端末2にライブ画像Lが表示されている最中に、設定者Cによる時間帯を指定する入力操作に基づいて、ライブ画像Lの中でTIGエリアAが有効になる時間帯を設定することができる。
これにより、設定者Cは、ライブ画像Lの中のTIGエリアAが有効になる時間帯を予め設定することなく、ライブ画像Lを確認しながら、自らTIGエリアAが有効になる時間帯を設定することができる。
Further, the time zone setting unit 113 is in the TIG area A in the live image L based on an input operation for designating the time zone by the setter C while the live image L is being displayed on the setter terminal 2. You can set the time zone when is valid.
As a result, the setter C sets the time zone in which the TIG area A becomes effective by himself / herself while checking the live image L without setting the time zone in which the TIG area A becomes effective in the live image L in advance. can do.

また、時間帯設定部113は、後述する認識部114によるオブジェクトJの認識結果に基づいて、ライブ画像Lの中でTIGエリアAが有効になる時間帯を設定することができる。
これにより、設定者Cは、ライブ画像Lを自ら確認することなく、オブジェクトJを自動認識させて、TIGエリアAが有効になる時間帯を自動設定させることができる。
Further, the time zone setting unit 113 can set a time zone in which the TIG area A is valid in the live image L based on the recognition result of the object J by the recognition unit 114 described later.
As a result, the setter C can automatically recognize the object J and automatically set the time zone in which the TIG area A is valid without checking the live image L by itself.

認識部114は、ライブ画像Lが表示されている最中に、所定時間帯の前記所定領域に存在するオブジェクトJを認識する。
具体的には、認識部114は、設定者端末2に表示されているライブ画像Lの中に存在するオブジェクトJを自動で認識する。ここで、認識部114がオブジェクトJを認識する際の具体的手法は特に限定されず、例えば画像認識等の技術を用いることができる。
While the live image L is being displayed, the recognition unit 114 recognizes the object J existing in the predetermined area in the predetermined time zone.
Specifically, the recognition unit 114 automatically recognizes the object J existing in the live image L displayed on the setter terminal 2. Here, the specific method for the recognition unit 114 to recognize the object J is not particularly limited, and for example, a technique such as image recognition can be used.

以上の機能的構成を有する設定部101が機能することにより、管理サーバ1における紐付情報設定支援処理を実現させることができる。 By functioning the setting unit 101 having the above functional configuration, it is possible to realize the association information setting support processing in the management server 1.

視聴部102の紐付情報管理部121は、表示されているライブ画像Lの中で第1ユーザとしての視聴者Wにより指定がなされる、所定時間帯のTIGエリアAに存在するオブジェクトJに対し、視聴者Wにオブジェクト情報を提供するための紐付情報を、視聴者Wによる指定がなされる前の所定タイミングで紐付けて管理する。
具体的には、紐付情報管理部121は、ライブ画像Lに表示されているオブジェクトJを指定するための操作(例えばタップ操作)が行われる前に、以下の処理を行う。即ち、紐付情報管理部121は、ライブ画像Lに表示され得るオブジェクトJとしてオブジェクトDB181に記憶されて管理されている1以上のオブジェクトJの夫々に対し、紐付情報を紐付けて管理する。
The association information management unit 121 of the viewing unit 102 refers to the object J existing in the TIG area A in the predetermined time zone, which is designated by the viewer W as the first user in the displayed live image L. The linking information for providing the object information to the viewer W is linked and managed at a predetermined timing before the designation by the viewer W is made.
Specifically, the association information management unit 121 performs the following processing before performing an operation (for example, a tap operation) for designating the object J displayed on the live image L. That is, the association information management unit 121 associates and manages the association information with each of one or more objects J stored and managed in the object DB 181 as the object J that can be displayed in the live image L.

提示制御部122は、1以上のオブジェクトJが表示され得るライブ画像Lを視聴者端末3に提示する制御を実行する。例えば、提示制御部122は、図1のライブ画像Lを視聴者端末3に提示する制御を実行する。 The presentation control unit 122 executes control for presenting a live image L on which one or more objects J can be displayed to the viewer terminal 3. For example, the presentation control unit 122 executes control for presenting the live image L of FIG. 1 to the viewer terminal 3.

また、提示制御部122は、ストック情報(紐付情報)をライブ画像Lに重畳させて、又はライブ画像Lとは独立させて、視聴者Wに提示する制御を実行する。
具体的には、提示制御部122は、ストック情報として保存されている1以上のオブジェクトJのサムネイル画像の一覧(例えば「TIGストック」)を、ライブ画像Lに重畳させて、又はライブ画像Lとは独立させたページとして、視聴者Wに提示する制御を実行する。
Further, the presentation control unit 122 executes control for presenting the stock information (association information) to the viewer W by superimposing the stock information (association information) on the live image L or independently of the live image L.
Specifically, the presentation control unit 122 superimposes a list of thumbnail images of one or more objects J stored as stock information (for example, “TIG stock”) on the live image L, or sets the live image L as the live image L. Executes the control presented to the viewer W as an independent page.

また、提示制御部122は、オブジェクトJに対する指定がなされると、ストック情報にオブジェクトJが加えられた旨を示す動画像(例えばアニメーション)を、ライブ画像Lに重畳させて視聴者に提示する制御を実行する。 Further, the presentation control unit 122 controls to superimpose a moving image (for example, animation) indicating that the object J has been added to the stock information on the live image L and present it to the viewer when the object J is designated. To execute.

指定受付部123は、ライブ画像Lが提示されている視聴者WによるTIGエリアAに対するタップする操作がなされた場合、TIGエリアAに存在するオブジェクトJに対する指定がなされたと認識して、その指定を受付ける。
具体的には例えば、指定受付部123は、視聴者端末3に表示されたライブ画像Lに対する視聴者WによるオブジェクトJを指定する操作(例えばタップの操作)がなされた場合に、その指定を受付ける。
When the viewer W presenting the live image L taps the TIG area A, the designated reception unit 123 recognizes that the object J existing in the TIG area A has been designated, and designates the TIG area A. Accept.
Specifically, for example, the designated reception unit 123 accepts the designation when the viewer W performs an operation (for example, a tap operation) to specify the object J for the live image L displayed on the viewer terminal 3. ..

取得部124は、指定が受付けられたオブジェクトJに紐付けられて管理されている紐付情報を取得する。
具体的には例えば、取得部124は、視聴者Wによる指定が受付けられたオブジェクトJに紐付けられて管理されている紐付情報を取得する。
The acquisition unit 124 acquires the association information managed by being associated with the object J for which the designation has been accepted.
Specifically, for example, the acquisition unit 124 acquires the association information that is associated and managed with the object J that has been designated by the viewer W.

提供制御部125は、取得部124により取得された紐付情報に基づいて、オブジェクト情報を視聴者端末3に提供する制御を実行する。 The provision control unit 125 executes control to provide the object information to the viewer terminal 3 based on the association information acquired by the acquisition unit 124.

ストック管理部126は、視聴者Wによる指定がなされた1以上のオブジェクトJの夫々の紐付情報を、ストック情報として、例えば上述の「TIGストック」に保存して管理する。また、ストック管理部126は、所定の分類基準、及び所定の分類手法に基づいて、1以上のストック情報を分類して管理する。 The stock management unit 126 stores and manages the associated information of one or more objects J designated by the viewer W as stock information, for example, in the above-mentioned “TIG stock”. Further, the stock management unit 126 classifies and manages one or more stock information based on a predetermined classification standard and a predetermined classification method.

以上の機能的構成を有する視聴部102が機能することにより、管理サーバ1における紐付情報提供処理を実現させることができる。 By functioning the viewing unit 102 having the above functional configuration, it is possible to realize the associative information providing process in the management server 1.

次に、図5乃至図8を参照して、紐付情報設定支援処理の具体例について説明する。
図5は、設定者が、オブジェクトの設定を、設定者端末にライブ画像が表示される前に行う場合に、設定者端末に表示されるGUIの一例を示す図である。
Next, a specific example of the association information setting support processing will be described with reference to FIGS. 5 to 8.
FIG. 5 is a diagram showing an example of a GUI displayed on the setter terminal when the setter sets the object before the live image is displayed on the setter terminal.

設定者Cは、オブジェクトJの設定を、設定者端末にライブ画像Lが表示される前に行う場合、図5に示すGUI(以下、「オブジェクト事前設定画面」と呼ぶ)を用いる。
なお、本実施形態では、設定者端末2に予めインストールされた、専用のアプリケーションソフトウェア(以下、「設定アプリ」と呼ぶ)を用いて各種の設定を行うものとする。
ただし、各種の設定を行う手法は、特に限定されず、例えばブラウザ機能により各種の設定を行う手法を採用してもよい。
When the setter C sets the object J before the live image L is displayed on the setter terminal, the setter C uses the GUI shown in FIG. 5 (hereinafter referred to as “object preset screen”).
In this embodiment, various settings are made using the dedicated application software (hereinafter referred to as "setting application") installed in advance on the setter terminal 2.
However, the method for making various settings is not particularly limited, and for example, a method for making various settings using a browser function may be adopted.

図5に示すオブジェクト事前設定画面は、表示領域F1及びF2を含むように構成されている。オブジェクト事前設定画面によれば、オブジェクトDB181において紐付情報に夫々紐付けられて管理されている1以上のオブジェクトJのうち、1以上のオブジェクトJを選択することができる。
なお、図5、図6A、図6B、図8A及び図8Bに示すGUIでは、オブジェクトJのことを「アイテム」と表現しているが、両者の意味は同じである。
このうち、表示領域F1には、タイムカウンタMと、「TIG編集」と表記されたボタンB1と、「ヒートマップ」と表記されたボタンと、「アナリティクス」と表記されたボタンと、「コピー」と表記されたボタンと、「プレビュー」と表記されたボタンとが表示されている。
The object preset screen shown in FIG. 5 is configured to include display areas F1 and F2. According to the object preset screen, one or more objects J can be selected from one or more objects J that are managed by being associated with the association information in the object DB181.
In the GUI shown in FIGS. 5, 6A, 6B, 8A and 8B, the object J is expressed as an "item", but the meanings of the two are the same.
Of these, the display area F1 includes a time counter M, a button B1 labeled "TIG edit", a button labeled "heat map", a button labeled "analytics", and a "copy". A button labeled "Preview" and a button labeled "Preview" are displayed.

タイムカウンタMは、ライブ画像Lが表示されている時間を表示する。
「TIG編集」と表記されたボタンB1は、TIGエリアAの位置と、TIGエリアAが有効になる時間帯との設定がなされる際に押下されるボタンである。このボタンB1が押下されると、図6A及び図6Bに示す設定画面に遷移する。
「ヒートマップ」と表記されたボタンは、ライブ画像Lを視聴する1以上の視聴者Wの夫々が、ライブ画像Lのどの領域をタップしているのかを、ヒートマップで表示させる際に押下されるボタンである。
「アナリティクス」と表記されたボタンは、ライブ画像Lに対する様々な解析が行われる際に押下されるボタンである。
「コピー」と表記されたボタンは、ライブ画像Lの配信元を示すURLをコピーする際に押下されるボタンである。
「プレビュー」と表記されたボタンは、ライブ画像Lの配信元を示すURLにより特定されるWEBページをプレビューする際に押下されるボタンである。
The time counter M displays the time when the live image L is displayed.
The button B1 described as "TIG edit" is a button pressed when the position of the TIG area A and the time zone in which the TIG area A is valid are set. When this button B1 is pressed, the screen transitions to the setting screen shown in FIGS. 6A and 6B.
The button labeled "heat map" is pressed when displaying in the heat map which area of the live image L each of the one or more viewers W who view the live image L is tapping. Button.
The button labeled "Analytics" is a button that is pressed when various analyzes are performed on the live image L.
The button described as "copy" is a button that is pressed when copying the URL indicating the distribution source of the live image L.
The button described as "preview" is a button that is pressed when previewing a WEB page specified by a URL indicating the distribution source of the live image L.

また、表示領域F2には、TIGエリアAが設定される候補となるオブジェクトJの一覧H(以下、「オブジェクト一覧H」と呼ぶ)と、「登録済みのアイテムから追加」と表記されたボタンB2と、「新規アップロード」と表記されたボタンB3と、「TIG編集」と表記されたボタンB1とが表示されている。 Further, in the display area F2, a list H of objects J (hereinafter referred to as "object list H") as candidates for setting the TIG area A and a button B2 described as "add from registered items" are displayed. And, the button B3 described as "new upload" and the button B1 described as "TIG edit" are displayed.

オブジェクト一覧Hは、設定の対象となるオブジェクトJ1乃至J8の夫々を示すサムネイル画像を一覧表示させたものである。ここで、オブジェクト一覧Hに表示されたオブジェクトJ1乃至J8の夫々には、図5に示すように、紐付情報の一部が夫々併記されていてもよい。 The object list H is a list of thumbnail images showing each of the objects J1 to J8 to be set. Here, as shown in FIG. 5, a part of the association information may be written together in each of the objects J1 to J8 displayed in the object list H.

「登録済みのアイテムから追加」と表記されたボタンB2は、押下することで本サービスに登録済みのオブジェクトJをオブジェクト一覧Hに追加することができる。
即ち、設定者Cは、ボタンB2を押下することで、オブジェクトDB181に記憶されて管理されている1以上のオブジェクトJの中から、1以上のオブジェクトJを選択して、オブジェクト一覧Hに追加することができる。
By pressing the button B2 labeled "Add from registered items", the object J registered in this service can be added to the object list H.
That is, by pressing the button B2, the setter C selects one or more objects J from one or more objects J stored and managed in the object DB 181 and adds them to the object list H. be able to.

「新規アップロード」と表記されたボタンB3は、押下することで、本サービスに未だ登録されていないオブジェクトJを、本サービスのオブジェクトJとして登録したうえで、オブジェクト一覧Hに追加することができる。
即ち、設定者Cは、ボタンB3を押下することで、新規のオブジェクトJをオブジェクトDB181に記憶されて管理させるとともに、オブジェクト一覧Hに追加することができる。
By pressing the button B3 labeled "new upload", an object J that has not yet been registered in this service can be registered as an object J of this service and then added to the object list H.
That is, by pressing the button B3, the setter C can store and manage the new object J in the object DB 181 and add it to the object list H.

「TIG編集」と表記されたボタンB1は、表示領域F1に表示されているボタンB1と同様である。このため、表示領域F2に表示されているボタンB1についての説明は省略する。 The button B1 described as "TIG edit" is the same as the button B1 displayed in the display area F1. Therefore, the description of the button B1 displayed in the display area F2 will be omitted.

図6A及び図6Bは、設定者が、TIGエリアが有効になる時間帯の設定を、設定者端末にライブ画像が表示される前に行う場合に、設定者端末に表示されるGUIの一例を示す図である。 6A and 6B are examples of GUIs displayed on the setter terminal when the setter sets the time zone in which the TIG area is valid before the live image is displayed on the setter terminal. It is a figure which shows.

設定者Cは、TIGエリアAが有効になる時間帯の設定を、設定者端末にライブ画像Lが表示される前に行う場合、図6A及び図6Bに示すGUI(以下、「時間帯事前設定画面」と呼ぶ)を用いる。 When the setter C sets the time zone in which the TIG area A is valid before the live image L is displayed on the setter terminal, the GUI shown in FIGS. 6A and 6B (hereinafter, "time zone preset") Called "screen").

図6Aに示す時間帯事前設定画面には、タイムカウンタMと、オブジェクト一覧Hとが表示されている。
タイムカウンタMは、上述したように、ライブ画像Lが表示されている時間を表示する。
オブジェクト一覧Hは、上述したように、設定の対象となるオブジェクトJ1乃至J8の夫々を示すサムネイル画像を一覧表示させたものである。
The time counter M and the object list H are displayed on the time zone preset screen shown in FIG. 6A.
As described above, the time counter M displays the time when the live image L is displayed.
As described above, the object list H is a list of thumbnail images showing each of the objects J1 to J8 to be set.

設定者CがボタンB11を押下することで、タイムカウンタMに表示された時間のカウントが開始される。設定者Cは、時間のカウントが開始された後、任意のタイミングで、オブジェクト一覧Hの中から所望のオブジェクトJを選択する操作を行う。なお、本実施形態では、設定者Cが、所望のオブジェクトJをタップする操作を行うことでオブジェクトJを選択する。 When the setter C presses the button B11, the time displayed on the time counter M is counted. After the time count is started, the setter C performs an operation of selecting a desired object J from the object list H at an arbitrary timing. In the present embodiment, the setter C selects the object J by tapping the desired object J.

例えばここで、設定者CによるオブジェクトJ8を選択する操作(タップ操作)が行われると、図6Bに示すように、時間帯事前設定画面からオブジェクト一覧Hが消え、オブジェクトJ8を示すサムネイル画像を含むTIGエリアAが表示される。 For example, when the setter C performs an operation (tap operation) to select the object J8, the object list H disappears from the time zone preset screen and includes a thumbnail image showing the object J8, as shown in FIG. 6B. The TIG area A is displayed.

図6Bの例は、タイムカウンタによる時間のカウントが開始された後、2秒56の時間が経過したタイミングから、オブジェクトJ8が存在し得るTIGエリアAが有効になることを示している。
そして、設定者Cは、タイムカウンタMに表示されている時間を視認しながら、オブジェクトJ8が存在し得るTIGエリアAを有効になる時間帯を設定する。
また、設定者Cは、時間帯事前設定画面の右下に表示されたボタンB12を押下することで、TIGエリアAの表示・非表示を切り替えることもできる。
The example of FIG. 6B shows that the TIG area A in which the object J8 can exist becomes effective from the timing when the time of 2 seconds 56 elapses after the time counting by the time counter is started.
Then, the setter C sets a time zone in which the TIG area A in which the object J8 can exist becomes effective while visually recognizing the time displayed on the time counter M.
Further, the setter C can switch the display / non-display of the TIG area A by pressing the button B12 displayed at the lower right of the time zone preset screen.

また、設定者Cは、オブジェクトJ1以外のオブジェクトJ2乃至J8のいずれかを追加する場合には、時間帯事前設定画面右上の「+アイテム」と表記されたボタンB13を押下する。これにより、図6Aに示すオブジェクト一覧が再び表示されるので、設定者Cは、オブジェクトJ1を選択したときと同様の操作で、任意のオブジェクトJを選択する。
設定者Cは、時間帯事前設定画面において、以上のような操作を行うことで、TIGエリアAが有効になる時間帯の設定を、オブジェクトJ毎に容易に行うことができる。
Further, when adding any of the objects J2 to J8 other than the object J1, the setter C presses the button B13 marked with "+ item" at the upper right of the time zone preset screen. As a result, the object list shown in FIG. 6A is displayed again, and the setter C selects an arbitrary object J by the same operation as when the object J1 is selected.
The setter C can easily set the time zone in which the TIG area A is valid for each object J by performing the above operations on the time zone preset screen.

図7A及び図7Bは、設定者が、TIGエリアの位置の設定と、TIGエリアが有効になる時間帯の設定とを、設定者端末にライブ画像が表示されている最中に行う場合に、設定者端末に表示されるGUIの一例を示す図である。 7A and 7B show a case where the setter sets the position of the TIG area and the time zone in which the TIG area is valid while the live image is being displayed on the setter terminal. It is a figure which shows an example of the GUI displayed on the setting person terminal.

設定者Cは、TIGエリアAの位置の設定と、TIGエリアAが有効になる時間帯の設定とを、設定者端末にライブ画像Lが表示されている最中に行う場合、図7A及び図7Bに示すGUI(以下、「カスタム設定画面」と呼ぶ)を用いる。 When the setter C sets the position of the TIG area A and the time zone in which the TIG area A is valid while the live image L is being displayed on the setter terminal, FIGS. 7A and 7A and FIGS. The GUI shown in 7B (hereinafter referred to as "custom setting screen") is used.

図7A及び図7Bに示すカスタム設定画面は、表示領域F3及びF4を含むように構成されている。 The custom setting screens shown in FIGS. 7A and 7B are configured to include display areas F3 and F4.

表示領域F3には、ライブ画像Lが表示される。設定者Cは、表示領域F3に表示されるライブ画像Lを視聴しながら、TIGエリアAの位置の設定と、TIGエリアAが有効になる時間帯の設定とを自由に行うことができる。 The live image L is displayed in the display area F3. The setter C can freely set the position of the TIG area A and the time zone in which the TIG area A is valid while viewing the live image L displayed in the display area F3.

表示領域F4には、オブジェクト一覧Hが表示される。設定者Cは、オブジェクト一覧Hにサムネイル表示されている1以上のオブジェクトJの中から、任意のオブジェクトJを選択し、ライブ画像Lの任意の時間帯の任意の位置にTIGエリアAを設定することができる。
ここで、設定者CがTIGエリアAの位置を設定する手法としては、以下の2つの手法がある。1つ目の手法は、図7Aに示す手法であり、ライブ画像Lのいずれの位置に対しても自由に設定できる手法(以下、「フリー位置設定」と呼ぶ)である。2つ目の手法は、図7Bに示す手法であり、ライブ画像Lを複数のブロックに分割して、いずれかのブロックにTIGエリアAを設定する手法(以下、「ブロック位置設定」と呼ぶ)である。
The object list H is displayed in the display area F4. The setter C selects an arbitrary object J from one or more objects J displayed as thumbnails in the object list H, and sets the TIG area A at an arbitrary position in an arbitrary time zone of the live image L. be able to.
Here, there are the following two methods for the setter C to set the position of the TIG area A. The first method is the method shown in FIG. 7A, which can be freely set for any position of the live image L (hereinafter, referred to as “free position setting”). The second method is the method shown in FIG. 7B, in which the live image L is divided into a plurality of blocks and the TIG area A is set in any of the blocks (hereinafter, referred to as “block position setting”). Is.

ここで、フリー位置設定が採用された場合、設定者Cは、オブジェクト一覧Hの中から任意のオブジェクトJを選択して、任意の位置にTIGエリアAを設定する。
具体的には例えば、図7Aに示すように、設定者Cは、オブジェクト一覧HからオブジェクトJ5を選択し、ライブ画像Lに登場しているオブジェクトJ5に重畳するようにTIGエリアA11を設定する。また、設定者Cは、オブジェクト一覧HからオブジェクトJ7を選択し、ライブ画像Lに登場しているオブジェクトJ7に重畳するようにTIGエリアA12を設定する。
これにより、設定者Cは、ライブ画像LにおけるTIGエリアA11及びA12の夫々の位置の設定を行うことができる。
Here, when the free position setting is adopted, the setter C selects an arbitrary object J from the object list H and sets the TIG area A at an arbitrary position.
Specifically, for example, as shown in FIG. 7A, the setter C selects the object J5 from the object list H and sets the TIG area A11 so as to be superimposed on the object J5 appearing in the live image L. Further, the setter C selects the object J7 from the object list H, and sets the TIG area A12 so as to be superimposed on the object J7 appearing in the live image L.
As a result, the setter C can set the positions of the TIG areas A11 and A12 in the live image L, respectively.

また、位置の設定を行ったTIGエリアA11及びA12の夫々には、有効(ON)と無効(OFF)とを任意のタイミングで切り替えることができる切替ボタンB21が設けられている。
これにより、設定者Cは、切替ボタンB21を押下することで、有効(ON)と無効(OFF)とを任意のタイミングで切り替えることができる。
また、設定者Cは、ライブ画像LにオブジェクトJが登場する前に、各種設定を行い、ライブ画像LにオブジェクトJが登場したタイミングで切替ボタンB21を押下するだけで、TIGエリアA11の有効/無効を容易に設定することができる。
なお、図7Aに示す例では、TIGエリアA11は有効(ON)とされ、TIGエリアA12は無効(OFF)とされている。
Further, each of the TIG areas A11 and A12 for which the position has been set is provided with a switching button B21 capable of switching between valid (ON) and invalid (OFF) at an arbitrary timing.
As a result, the setter C can switch between valid (ON) and invalid (OFF) at an arbitrary timing by pressing the switching button B21.
Further, the setter C makes various settings before the object J appears in the live image L, and simply presses the switching button B21 at the timing when the object J appears in the live image L to enable the TIG area A11. Invalidation can be easily set.
In the example shown in FIG. 7A, the TIG area A11 is valid (ON) and the TIG area A12 is invalid (OFF).

また、ブロック位置設定が採用された場合、設定者Cは、オブジェクト一覧Hの中から任意のオブジェクトJを選択して、ブロックT1乃至T9のうちいずれかの位置にTIGエリアAを設定する。
具体的には例えば、図7Bに示すように、設定者Cは、オブジェクト一覧HからオブジェクトJ8を選択するとともに、TIGエリアA13の位置を選択する。TIGエリアA13の位置は、オブジェクト一覧Hにサムネイル表示されているオブジェクトJ8の右側に設けられているプルダウンボタンB22を押下することで選択することができる。なお、図7Bの例では、プルダウンボタンB22を押下することで「4」(ブロックT4)が選択されている。
これにより、設定者Cは、所定タイミングで、ライブ画像Lに登場しているオブジェクトJ8に重畳するようにTIGエリアA13を設定することができる。
When the block position setting is adopted, the setter C selects an arbitrary object J from the object list H and sets the TIG area A at any position of the blocks T1 to T9.
Specifically, for example, as shown in FIG. 7B, the setter C selects the object J8 from the object list H and selects the position of the TIG area A13. The position of the TIG area A13 can be selected by pressing the pull-down button B22 provided on the right side of the object J8 displayed as a thumbnail in the object list H. In the example of FIG. 7B, "4" (block T4) is selected by pressing the pull-down button B22.
As a result, the setter C can set the TIG area A13 so as to be superimposed on the object J8 appearing in the live image L at a predetermined timing.

また、図7Aに示すフリー位置設定と同様に、位置の設定を行ったTIGエリアA13には、有効(ON)と無効(OFF)とを任意のタイミングで切り替えることができる切替ボタンB21が設けられている。
これにより、設定者Cは、切替ボタンB21を押下することで、有効(ON)と無効(OFF)とを任意のタイミングで切り替えることができる。
なお、図7Bに示す例では、TIGエリアA13は無効(OFF)とされている。
Further, similarly to the free position setting shown in FIG. 7A, the TIG area A13 in which the position is set is provided with a switching button B21 capable of switching between valid (ON) and invalid (OFF) at an arbitrary timing. ing.
As a result, the setter C can switch between valid (ON) and invalid (OFF) at an arbitrary timing by pressing the switching button B21.
In the example shown in FIG. 7B, the TIG area A13 is invalid (OFF).

図8A及び図8Bは、TIGエリアの位置の設定と、TIGエリアが有効になる時間帯の設定とが、設定者端末にライブ画像が表示されている最中に自動で行われる場合に、設定者端末に表示されるGUIの一例を示す図である。 8A and 8B are set when the position of the TIG area and the time zone in which the TIG area is valid are automatically set while the live image is being displayed on the setter terminal. It is a figure which shows an example of the GUI displayed on the person terminal.

TIGエリアAの位置の設定と、TIGエリアAが有効になる時間帯の設定とが、設定者端末にライブ画像Lが表示されている最中に自動で行われる場合、設定者Cは、図8A及び図8Bに示すGUI(以下、「認識オブジェクト事前設定画面」と呼ぶ)を用いる。 When the setting of the position of the TIG area A and the setting of the time zone in which the TIG area A is valid are automatically performed while the live image L is being displayed on the setter terminal, the setter C is shown in the figure. The GUI shown in 8A and 8B (hereinafter referred to as "recognition object preset screen") is used.

ここで、認識オブジェクト事前設定画面には、以下の2つの種類がある。
1種類目の設定画面は、図8Aに示す設定画面であり、ライブ画像Lに存在するオブジェクトJを追従することなく特定の位置で認識させる手法が採用された場合に用いられる設定画面である。
2種類目の設定画面は、図8Bに示す設定画面であり、ライブ画像Lに存在するオブジェクトJを追従して認識させる手法が採用された場合に用いられる設定画面である。
図8A及び図8Bに示す認識オブジェクト事前設定画面は、紐付情報を共通にする複数のオブジェクトJを1つのグループにまとめて、これらを1のオブジェクトJとして設定する場合に用いられる設定画面である。
設定者Cは、設定者端末2にライブ画像Lが表示される以前に、認識オブジェクト事前設定画面を編集し、「更新」と表記されたボタンB31を押下することで、オブジェクトJの設定を行うことができる。
Here, there are the following two types of recognition object preset screens.
The first type of setting screen is the setting screen shown in FIG. 8A, which is a setting screen used when a method of recognizing an object J existing in the live image L at a specific position without following is adopted.
The second type of setting screen is the setting screen shown in FIG. 8B, which is a setting screen used when a method of following and recognizing an object J existing in the live image L is adopted.
The recognition object preset screens shown in FIGS. 8A and 8B are setting screens used when a plurality of objects J having common association information are grouped into one group and these are set as one object J.
The setter C sets the object J by editing the recognition object preset screen and pressing the button B31 labeled "update" before the live image L is displayed on the setter terminal 2. be able to.

このうち、図8Aに示す認識オブジェクト事前設定画面は、3種類のオブジェクトJ111乃至J113について、紐付情報Kを共通にする1つのオブジェクトJ11として設定する。
これにより、設定者端末2にライブ画像Lが表示されている最中に、ライブ画像Lの特定の位置にオブジェクトJ111乃至J113のうちいずれが表示されると、そのオブジェクトJが認識されて、TIGエリアAが自動設定される。
例えば、図8Aに示すように、設定者端末2に表示されているライブ画像Lの特定の位置にオブジェクトJ113が表示されると、オブジェクトJ113が自動認識されて、TIGエリアA21が自動設定される。
Of these, the recognition object preset screen shown in FIG. 8A is set as one object J11 that shares the association information K with respect to the three types of objects J111 to J113.
As a result, if any of the objects J111 to J113 is displayed at a specific position of the live image L while the live image L is being displayed on the setter terminal 2, the object J is recognized and TIG. Area A is automatically set.
For example, as shown in FIG. 8A, when the object J113 is displayed at a specific position of the live image L displayed on the setter terminal 2, the object J113 is automatically recognized and the TIG area A21 is automatically set. ..

また、図8Bに示す認識オブジェクト事前設定画面は、n種類(nは1以上の整数値)のオブジェクトJ12−1乃至J12−nについて、紐付情報Kを共通にする1つのオブジェクトJ12として設定する。
これにより、設定者端末2にライブ画像Lが表示されている最中に、ライブ画像Lのいずれかの位置にオブジェクトJ12−1乃至J12−nのうちいずれが表示されると、そのオブジェクトJが認識されて、TIGエリアAが自動設定される。
例えば、図8Bに示すように、設定者端末2に表示されているライブ画像LにオブジェクトJ12−r(rは1以上n以下の整数値)が表示されると、オブジェクトJ12−rが自動認識されて、TIGエリアA22が自動設定される。
Further, the recognition object preset screen shown in FIG. 8B is set as one object J12 having the same association information K for n types of objects J12-1 to J12-n (n is an integer value of 1 or more).
As a result, when any of the objects J12-1 to J12-n is displayed at any position of the live image L while the live image L is being displayed on the setter terminal 2, the object J is displayed. It is recognized and the TIG area A is automatically set.
For example, as shown in FIG. 8B, when the object J12-r (r is an integer value of 1 or more and n or less) is displayed on the live image L displayed on the setter terminal 2, the object J12-r is automatically recognized. Then, the TIG area A22 is automatically set.

また、図示はしないが、ライブ画像Lに存在するすべてのオブジェクトJを自動認識して、オブジェクトJに対する紐付情報の紐付けをすべて自動的に行うことができる。
この場合、例えば事前教師データを用いて各種機械学習を施すことで、オブジェクトJを自動認識できるようにしてもよい。
Further, although not shown, it is possible to automatically recognize all the objects J existing in the live image L and automatically associate all the association information with the objects J.
In this case, the object J may be automatically recognized, for example, by performing various machine learning using the pre-teacher data.

次に図9乃至図11を参照して、衣料品店の店員CLが、商品を紹介するライブ画像Lの配信を行う場合に、本サービスが適用される例について説明する。
図9は、衣料品店の店員CLが商品Iを試着してライブ画像Lを配信する場合に本サービスが適用される例を示す図である。
具体的には例えば、店員CLは、店舗内の所望の商品Iを試着しながら紹介を行う。店員CLが商品Iを試着しながら紹介する様子は、カメラCAMにより撮像され、ライブ画像Lとして、管理サーバ1を介して顧客(視聴者W)に配信される。なお、このとき、設定者端末2は、カメラCAM及びリーダR等から各種情報を取得してライブ画像Lを生成することができる。
以下、このような店舗内の商品Iを店員CLが試着しながら紹介を行うライブ画像Lの配信について、より詳細に説明する。
Next, with reference to FIGS. 9 to 11, an example in which this service is applied when a clerk CL of a clothing store distributes a live image L introducing a product will be described.
FIG. 9 is a diagram showing an example in which this service is applied when a clerk CL of a clothing store tries on a product I and distributes a live image L.
Specifically, for example, the clerk CL introduces the desired product I in the store while trying it on. The appearance of the clerk CL introducing the product I while trying it on is captured by the camera CAM and distributed as a live image L to the customer (viewer W) via the management server 1. At this time, the setter terminal 2 can acquire various information from the camera CAM, the reader R, and the like to generate the live image L.
Hereinafter, the distribution of the live image L, in which the clerk CL introduces the product I in the store while trying it on, will be described in more detail.

図9に示すように、店員CLは、店舗内の商品Iを試着し、店舗内の所定位置に備え付けられているリーダRを用いて、商品Iに付されたタグDを読取る。
なお、リーダRに読取られるタグDの態様は特に限定されない。例えば、RFID(Radio frequency identifier)タグ、QRコード(登録商標)、バーコード等の識別子を採用することができる。
As shown in FIG. 9, the clerk CL tries on the product I in the store and reads the tag D attached to the product I by using the reader R provided at a predetermined position in the store.
The mode of the tag D read by the reader R is not particularly limited. For example, identifiers such as RFID (Radio frequency identification) tags, QR codes (registered trademarks), and barcodes can be adopted.

また、店員CLは、店舗内の所定位置に備え付けられているカメラCAMの前で商品Iを紹介する。その結果、タグDが読取られた商品Iと、商品Iを試着した状態の店員CLとを被写体とする画像が、カメラCAMにより撮像される。 In addition, the clerk CL introduces the product I in front of the camera CAM installed at a predetermined position in the store. As a result, the camera CAM captures an image of the product I from which the tag D has been read and the clerk CL in the state where the product I is tried on.

設定者端末2は、上述のように、商品Iを試着した状態の店員CLを被写体とする撮像画像のデータをカメラCAMから取得する。また、設定者端末2は、商品Iに付されたタグDの情報をリーダRから取得する。商品Iを試着した店員CLの撮像画像は、ライブ画像Lの一部又は全部として設定者端末2に表示される。このとき、店員CLにより試着された商品Iは、オブジェクト情報を有するオブジェクトJとして認識されて、商品Iを試着している店員CLの像とは切り離されて独自の像としてライブ画像Lに表示される。具体的には例えば、図9に示すように、商品Iを試着した店員CLの撮像画像と、それとは独立した単体の商品Iを示すオブジェクトJとがライブ画像Lとして設定者端末2に表示される。 As described above, the setter terminal 2 acquires the data of the captured image of the clerk CL in the state of trying on the product I from the camera CAM. Further, the setter terminal 2 acquires the information of the tag D attached to the product I from the reader R. The captured image of the clerk CL who tried on the product I is displayed on the setter terminal 2 as a part or all of the live image L. At this time, the product I tried on by the clerk CL is recognized as an object J having object information, and is separated from the image of the clerk CL trying on the product I and displayed as a unique image on the live image L. NS. Specifically, for example, as shown in FIG. 9, the captured image of the clerk CL who tried on the product I and the object J indicating the single product I independent of the captured image are displayed on the setter terminal 2 as the live image L. NS.

また、このライブ画像Lは、管理サーバ1を介して、顧客(視聴者W)が所持する視聴者端末3に配信され、表示される。
顧客(視聴者W)は、視聴者端末3にライブ画像Lとして表示された、商品Iを試着する店員CLの姿を見ながら、商品Iの購入の有無を決定することができる。このとき、顧客(視聴者W)は、視聴者端末3にオブジェクトJとして表示された商品Iをタップする操作を行うことで、オブジェクト情報が掲載されたEC(Electronic Commerce)サイトSにアクセスすることができる。
顧客(視聴者W)は、商品Iを購入する場合、ECサイトSからオンラインで購入してもよいし、衣料品店(実店舗)で直接購入してもよい。例えば、顧客(視聴者W)は、商品IをECサイトSで購入した場合、ライブ画像Lを視聴して興味を持った商品Iをすぐに購入することができる。また、例えば、顧客(視聴者W)は、商品Iを衣料品店(実店舗)で直接購入する場合、商品Iを実際に試着してから購入を決めることもできる。このとき、顧客(視聴者W)は、自身がタップして選択した商品Iの情報を衣料品店(実店舗)で入手(確認)することもできる。
Further, the live image L is distributed and displayed on the viewer terminal 3 owned by the customer (viewer W) via the management server 1.
The customer (viewer W) can decide whether or not to purchase the product I while observing the appearance of the clerk CL trying on the product I displayed as the live image L on the viewer terminal 3. At this time, the customer (viewer W) accesses the EC (Electronic Customer) site S on which the object information is posted by performing an operation of tapping the product I displayed as the object J on the viewer terminal 3. Can be done.
When the customer (viewer W) purchases the product I, he / she may purchase it online from the EC site S or directly at a clothing store (actual store). For example, when the customer (viewer W) purchases the product I on the EC site S, the customer (viewer W) can immediately purchase the product I that he / she is interested in by viewing the live image L. Further, for example, when the customer (viewer W) purchases the product I directly at the clothing store (actual store), the customer (viewer W) may decide to purchase the product I after actually trying it on. At this time, the customer (viewer W) can also obtain (confirm) the information of the product I selected by himself / herself at the clothing store (actual store).

即ち、図5等を用いて説明したように、設定者Cは、ライブ画像Lを視聴しながら、TIGエリアAの位置の設定と、TIGエリアAが有効になる時間帯の設定を行う必要があった。しかしながら、図9の例の場合、上述のように、ライブ配信を行う店員CL自身が、商品IのタグDをリーダRで読み取る操作を行うことができる。その結果、サービス提供者や店員CLは、設定者Cによる設定なしに、ライブ画像Lの配信を行うことができる。 That is, as described with reference to FIG. 5 and the like, the setter C needs to set the position of the TIG area A and the time zone in which the TIG area A is valid while viewing the live image L. there were. However, in the case of the example of FIG. 9, as described above, the clerk CL himself who performs the live distribution can perform the operation of reading the tag D of the product I with the reader R. As a result, the service provider and the clerk CL can deliver the live image L without setting by the setter C.

また、管理サーバ1は、ライブ画像Lを記憶してアーカイブすることができる。即ち、管理サーバ1は、視聴者端末3からの要望に基づいて、視聴者端末3にライブ画像Lのアーカイブを配信することで、視聴者Wに視聴させることができる。
また、設定者端末2は、管理サーバ1を介して、ライブ画像Lを視聴する視聴者Wからのコメントを取得できるようにしてもよい。即ち、店員CLは、視聴者Wからのコメントを確認しながら、インタラクティブなライブ画像Lを配信してもよい。具体的には例えば、店員CLは、視聴者Wからの「どんなトップスと合わせたらいいでしょうか」というコメントに応答をしながら、ライブ画像Lの配信を行うことができる。
Further, the management server 1 can store and archive the live image L. That is, the management server 1 can make the viewer W view the live image L by distributing the archive of the live image L to the viewer terminal 3 based on the request from the viewer terminal 3.
Further, the setter terminal 2 may be able to acquire a comment from the viewer W who views the live image L via the management server 1. That is, the clerk CL may deliver the interactive live image L while confirming the comment from the viewer W. Specifically, for example, the clerk CL can deliver the live image L while responding to the comment "What kind of tops should I match with?" From the viewer W.

図10は、衣料品店の店員が商品を試着してライブ画像を配信する場合に本サービスが適用される例のうち図9と異なる例を示す図である。 FIG. 10 is a diagram showing an example different from FIG. 9 among the examples in which this service is applied when a clerk of a clothing store tries on a product and distributes a live image.

図10には、店員CLの試着姿が、衣料品店の店舗内に設置された姿見としての大型のディスプレイDSPに映し出される態様の一例が示されている。
上述の図9の例では、店員CLは、カメラCAMにより撮像された自分の試着姿を、設定者端末2に表示されたライブ画像Lとして確認しながら配信していた。即ち、カメラCAMにより撮像された店員CLの試着姿は、設定者端末2及び視聴者端末3にライブ画像Lとして表示されていた。
これに対して、図10の例ではさらに、店員CLの試着姿は、店舗内に設置された大型のディスプレイDSPにも映し出される。これにより、店員CLは、ディスプレイDSPを姿見(鏡)として利用して、ライブ画像Lの配信をすることができる。
FIG. 10 shows an example of a mode in which the fitting appearance of the clerk CL is projected on a large display DSP as a full-length mirror installed in the store of the clothing store.
In the above-mentioned example of FIG. 9, the clerk CL delivered while confirming his / her fitting appearance imaged by the camera CAM as a live image L displayed on the setter terminal 2. That is, the fitting appearance of the clerk CL imaged by the camera CAM was displayed as a live image L on the setter terminal 2 and the viewer terminal 3.
On the other hand, in the example of FIG. 10, the fitting appearance of the clerk CL is further projected on the large display DSP installed in the store. As a result, the clerk CL can deliver the live image L by using the display DSP as a full-length mirror.

図10に示すように、衣料品店の店員CLは、店舗内の所望の商品Iを試着し、店舗内の所定位置に備え付けられているリーダRを用いて、商品Iに付されたタグDを読取る。 As shown in FIG. 10, the clerk CL of the clothing store tries on the desired product I in the store, and uses the reader R provided at a predetermined position in the store to attach the tag D to the product I. To read.

また、店員CLは、店舗内のディスプレイDSPの近傍に備え付けられているカメラCAMの前で商品Iを紹介する。その結果、タグDが読取られた商品Iを試着した状態の店員CLを被写体とする撮像画像が撮像される。
なお、店舗内に設置されるディスプレイDSPの態様は特に限定されない。例えばOS(Operating System)が内蔵された、タッチ操作を受付けることができるタッチパネル式のディスプレイであってもよい。
また、ディスプレイDSPとして、ミラーサイネージが採用されてもよい。この場合、ディスプレイDSPには、鏡として店員CLの姿が映され、タグDが読み取られた結果の各種情報等が店員CLの姿に重畳されて表示される。
In addition, the clerk CL introduces the product I in front of the camera CAM installed in the vicinity of the display DSP in the store. As a result, an image captured by the clerk CL in a state where the tag D is read and the product I is tried on is captured.
The mode of the display DSP installed in the store is not particularly limited. For example, it may be a touch panel type display having a built-in OS (Operating System) and capable of accepting touch operations.
Further, mirror signage may be adopted as the display DSP. In this case, the appearance of the clerk CL is projected on the display DSP as a mirror, and various information and the like as a result of reading the tag D are superimposed on the appearance of the clerk CL and displayed.

カメラCAMにより撮像された商品Iを試着した店員CLの撮像画像は、図9の例と同様に、ライブ画像Lとして設定者端末2や視聴者端末3に表示される。そして、商品Iは、図9の例と同様に、オブジェクト情報を有するオブジェクトJとして認識されて、(商品Iを試着した状態の)店員CLの像とは別の像としてライブ画像Lに表示される。 The captured image of the clerk CL who tried on the product I captured by the camera CAM is displayed as a live image L on the setter terminal 2 and the viewer terminal 3 as in the example of FIG. Then, the product I is recognized as the object J having the object information and displayed on the live image L as an image different from the image of the clerk CL (in the state where the product I is tried on) as in the example of FIG. NS.

ここで、ディスプレイDSPがタッチパネル式である場合には、店員CLが、ディスプレイDSPに表示されたライブ画像Lに含まれる商品I(オブジェクトJ)をタップする操作やドラッグする操作等を行うことができる。この場合、店員CLは、オブジェクトJの表示上の配置を変更したり、オブジェクトJの「有効」と「無効」とを切り替えたり操作を行うことができる。 Here, when the display DSP is a touch panel type, the clerk CL can perform an operation of tapping or dragging the product I (object J) included in the live image L displayed on the display DSP. .. In this case, the clerk CL can change the display arrangement of the object J, switch between "valid" and "invalid" of the object J, and perform operations.

また、このライブ画像Lは、管理サーバ1を介して、顧客(視聴者W)が所持する視聴者端末3に配信され、表示される。
顧客(視聴者W)は、視聴者端末3にライブ画像Lとして表示された、店員CLの試着姿を見ながら、商品Iの購入の有無を決定する。ここで、図9の例と同様に、視聴者端末3にオブジェクトJとして表示された商品Iをタップする操作が行われると、顧客(視聴者W)は、商品Iのオブジェクト情報が掲載されたECサイトSにアクセスすることができる。これにより、顧客(視聴者W)は、図9の例と同様に、商品Iを購入する場合には、ECサイトSからオンラインで購入することもできるようになるし、衣料品店(実店舗)で直接購入することもできるようになる。
Further, the live image L is distributed and displayed on the viewer terminal 3 owned by the customer (viewer W) via the management server 1.
The customer (viewer W) decides whether or not to purchase the product I while observing the fitting appearance of the clerk CL displayed as the live image L on the viewer terminal 3. Here, as in the example of FIG. 9, when the operation of tapping the product I displayed as the object J on the viewer terminal 3 is performed, the customer (viewer W) is posted the object information of the product I. You can access the EC site S. As a result, the customer (viewer W) can purchase the product I online from the EC site S, as in the example of FIG. 9, and the clothing store (actual store). ) Will also be available for direct purchase.

図9及び図10を用いて説明した本サービスが適用される例において、設定者端末2は、カメラCAM及びリーダRから各種情報を取得し、ライブ画像Lを表示するものとして説明した。しかしながら、設定者端末2と、カメラCAMやリーダRとは別個のハードウェアである必要はなく、例えばスマートフォンやタブレット端末として提供されてもよい。
設定者端末2としてカメラCAMやリーダRを含むスマートフォンやタブレット端末が提供される場合、店員CLは、ライブ画像を配信するための専用のアプリケーションソフトウェア(以下、「配信アプリ」と呼ぶ)を用いてライブ画像の配信をすることができる。配信アプリは、上述の設定アプリに含まれる各種機能等を含む配信に係る機能を提供する。
この場合、店員CLは、単一のスマートフォン等で手軽にライブ画像の配信を行うことができる。また、衣料品店としては、普及しているスマートフォン等を用いてライブ画像の配信を行うことができるため、配信のための設備に係るコストを低減することができる。
In the example in which the service described with reference to FIGS. 9 and 10 is applied, the setter terminal 2 has been described as acquiring various information from the camera CAM and the reader R and displaying the live image L. However, the setter terminal 2 and the camera CAM or reader R do not have to be separate hardware, and may be provided as, for example, a smartphone or tablet terminal.
When a smartphone or tablet terminal including a camera CAM or reader R is provided as the setter terminal 2, the clerk CL uses dedicated application software for distributing live images (hereinafter referred to as "distribution application"). Live images can be distributed. The distribution application provides functions related to distribution including various functions included in the above-mentioned setting application.
In this case, the clerk CL can easily deliver the live image with a single smartphone or the like. Further, as a clothing store, live images can be distributed using a popular smartphone or the like, so that the cost related to the equipment for distribution can be reduced.

図11は、衣料品店の店員が商品を試着してライブ画像を配信する場合に本サービスが適用される例のうち図9及び図10と異なる例を示す図である。
上述の図9及び図10の例では、商品Iを試着した店員CLの撮像画像(ライブ画像L)は、設定者端末2から管理サーバ1に送信される態様となっているが、図11の例に示すように、ディスプレイDSPにOSを内蔵させるとともに、リーダRとカメラCAMについてもディスプレイDSPに内蔵させる態様もある。この態様の場合、店舗の所定位置にディスプレイDSP(OS、リーダR、カメラCAM内蔵型)が設置されるだけでよく、カメラCAMやリーダRの夫々を店舗内の所定位置に夫々設ける手間が省ける。また、設置が容易なディスプレイDSP(OS、リーダR、カメラCAM内蔵型)は、セット商品として販売することもできるだけではなく、ディスプレイDSP(OS、リーダR、カメラCAM内蔵型)を単独で販売等することもできる。
FIG. 11 is a diagram showing an example different from FIGS. 9 and 10 in the example in which this service is applied when a clerk of a clothing store tries on a product and distributes a live image.
In the above-mentioned examples of FIGS. 9 and 10, the captured image (live image L) of the clerk CL who tried on the product I is transmitted from the setter terminal 2 to the management server 1. As shown in the example, there is also a mode in which the OS is built in the display DSP and the reader R and the camera CAM are also built in the display DSP. In this embodiment, it is only necessary to install the display DSP (OS, reader R, camera CAM built-in type) at a predetermined position in the store, and it is possible to save the trouble of installing each of the camera CAM and the reader R at a predetermined position in the store. .. In addition, the display DSP (OS, reader R, camera CAM built-in type) that is easy to install can be sold as a set product, and the display DSP (OS, reader R, camera CAM built-in type) can be sold separately. You can also do it.

上述の図9乃至図11に示す衣料品店で適用可能な本サービスの一例では、店員CLが店舗内に備え付けられたリーダRを用いてタグDを読取る態様となっている。ただし、この態様は例示に過ぎず、例えばリーダRを用いることなく、視聴者Wの操作に基づいてタグDの読取りが行われる態様もある。
図12は、視聴者の操作に基づいてタグの読取りが行われる態様の例を示す図である。
In an example of this service applicable to the clothing store shown in FIGS. 9 to 11 described above, the clerk CL reads the tag D using the reader R installed in the store. However, this embodiment is merely an example, and there is also an embodiment in which the tag D is read based on the operation of the viewer W without using, for example, the reader R.
FIG. 12 is a diagram showing an example of a mode in which the tag is read based on the operation of the viewer.

図12の例では、視聴者端末3に表示されたオブジェクトJのタグDを視聴者Wが選択する操作(例えばタップの操作)を行うと、選択されたタグDを認識する処理が実行されて有効になる。
これにより、設定者Cによる設定作業が不要となる。また、紐付情報を有する1以上のオブジェクトJが、ライブ画像のどのタイミングにどの位置に表示されるのか等を示す情報(以下、「TIGメタデータ」と呼ぶ)を管理サーバ1に格納しておく必要性もなくなる。さらに、店舗内にリーダRを用意する必要もなくなる。
In the example of FIG. 12, when the viewer W selects the tag D of the object J displayed on the viewer terminal 3 (for example, a tap operation), the process of recognizing the selected tag D is executed. validate.
This eliminates the need for setting work by the setter C. In addition, information (hereinafter, referred to as "TIG metadata") indicating which position and at which timing of the live image the one or more objects J having the association information are displayed is stored in the management server 1. There is no need. Further, it is not necessary to prepare a reader R in the store.

上述の図9乃至図11に示す衣料品店で適用可能な本サービスの一例では、店員CLが店舗内に備え付けられたリーダRを用いてタグDを読取る態様となっている。ただし、この態様は例示に過ぎず、リーダRがタグDを読取る態様は他にもある。図13A乃至図13Dには、リーダRがタグDを読取る他の態様の例が示されている。
図13A乃至図13Dは、リーダRがタグDを読取る他の態様を示す図である。
In an example of this service applicable to the clothing store shown in FIGS. 9 to 11 described above, the clerk CL reads the tag D using the reader R installed in the store. However, this aspect is merely an example, and there are other aspects in which the reader R reads the tag D. 13A to 13D show examples of other embodiments in which the reader R reads the tag D.
13A to 13D are diagrams showing another mode in which the reader R reads the tag D.

図13A及び図13Bには、ファッションショーに出演するモデルが着用する衣類に、予めタグDを付しておく場合の例が示されている。
図13Aの例の場合、モデルが歩く舞台(ランウェイ)の端部付近(モデルがターンする位置付近)の上方(例えば天井等)にリーダRが設置されている。
これにより、リーダRは、モデルが歩く舞台(ランウェイ)の端部付近(モデルがターンする位置付近)に差し掛かると、モデルの衣類に予め付されたタグDの読取りを行うことができる。すると、設定者端末2(及び図示せぬ視聴者端末3)に表示されるライブ画像Lの一部に、モデルの衣類を示すオブジェクトJが表示されるようになる。
図13Bの例の場合、モデルが歩く舞台(ランウェイ)の端部付近(モデルがターンする位置付近)にリーダRが埋設されている。
これにより、リーダRは、図13Aの場合と同様に、モデルが歩く舞台(ランウェイ)の端部付近(モデルがターンする位置付近)に差し掛かると、モデルの衣類に予め付されたタグDの読取りを行うことができる。すると、設定者端末2(及び図示せぬ視聴者端末3)に表示されるライブ画像Lの一部に、モデルの衣類を示すオブジェクトJが表示されるようになる。
13A and 13B show an example in which a tag D is attached to clothing worn by a model appearing in a fashion show in advance.
In the case of the example of FIG. 13A, the leader R is installed above (for example, the ceiling) near the end of the stage (runway) where the model walks (near the position where the model turns).
As a result, when the reader R approaches the end of the stage (runway) on which the model walks (near the position where the model turns), the reader R can read the tag D previously attached to the clothing of the model. Then, the object J indicating the clothing of the model is displayed in a part of the live image L displayed on the setter terminal 2 (and the viewer terminal 3 (not shown)).
In the case of the example of FIG. 13B, the leader R is embedded near the end of the stage (runway) where the model walks (near the position where the model turns).
As a result, as in the case of FIG. 13A, when the leader R approaches the end of the stage (runway) where the model walks (near the position where the model turns), the tag D attached to the clothing of the model in advance is attached. Can read. Then, the object J indicating the clothing of the model is displayed in a part of the live image L displayed on the setter terminal 2 (and the viewer terminal 3 (not shown)).

図13Cには、ドローン等の小型飛行体VにリーダRとカメラCAMが設置される例が示されている。この場合、例えば地上(例えば観光地)の各所(例えば名所)毎にタグDが配置される。
これにより、小型飛行体Vは、上空から地上(例えば観光地)をカメラCAMを用いて撮像するとともに、リーダRによって各所のタグDの読取りを行う。すると、図示はしないが、設定者端末2及び視聴者端末3に表示されたライブ画像Lの一部に、地上(例えば観光地)の各所(例えば名所)を示すオブジェクトJが表示される。なお、小型飛行体Vは、屋外のみならず、屋内(例えば大規模な屋内施設のイベント等)で使用することもできる。
FIG. 13C shows an example in which the reader R and the camera CAM are installed on a small flying object V such as a drone. In this case, for example, the tag D is arranged at each place (for example, a famous place) on the ground (for example, a tourist spot).
As a result, the small aircraft V captures the ground (for example, a tourist spot) from the sky using the camera CAM, and reads the tags D at various places by the reader R. Then, although not shown, an object J indicating various places (for example, a famous place) on the ground (for example, a tourist spot) is displayed on a part of the live image L displayed on the setter terminal 2 and the viewer terminal 3. The small flying object V can be used not only outdoors but also indoors (for example, an event of a large-scale indoor facility).

図13Dには、リーダRを壁に設置する例が示されている。
この場合、例えば室内で開催されるイベントに参加するタレントが着用する衣類に、予めタグDを付しておく等の態様が可能となる。
これにより、リーダRは、イベント開催中、タレントの衣類に予め付されたタグDの読取りを行う。すると、図示せぬ設定者端末2(及び視聴者端末3)に表示されるライブ画像Lの一部に、モデルの衣類を示すオブジェクトJが表示される。
FIG. 13D shows an example in which the reader R is installed on the wall.
In this case, for example, it is possible to attach a tag D to clothing worn by a talent who participates in an event held indoors.
As a result, the leader R reads the tag D previously attached to the clothing of the talent during the event. Then, the object J indicating the clothing of the model is displayed in a part of the live image L displayed on the setter terminal 2 (and the viewer terminal 3) (not shown).

次に、図14A乃至図14Cを参照して、視聴者端末3に表示されるデータの同期をとる手法について説明する。
図14Aは、情報処理システム内で生じ得る遅延を示す図である。
なお、図14Aのうち実線の矢印は、ライブ画像LにTIGメタデータTMを埋め込まない場合のデータの流れと遅延とを示している。また、図14Aのうち破線の矢印は、ライブ画像LにTIGメタデータTMを直接埋め込んだ場合のデータの流れと遅延とを示している。
Next, a method of synchronizing the data displayed on the viewer terminal 3 will be described with reference to FIGS. 14A to 14C.
FIG. 14A is a diagram showing delays that can occur in the information processing system.
The solid arrow in FIG. 14A indicates the data flow and delay when the TIG metadata TM is not embedded in the live image L. Further, the dashed arrow in FIG. 14A indicates the data flow and delay when the TIG metadata TM is directly embedded in the live image L.

まず、ライブ画像LにTIGメタデータTMを埋め込まない場合のデータの流れと遅延とについて説明する。
図14Aに示すように、カメラCAMにより撮像されたライブ画像Lは、設定者端末2と外部サーバ4とに夫々送信される。ここで、カメラCAMから送信されたライブ画像Lを設定者端末2が受信するまでの間に僅かな遅延D1が生じる。また、設定者端末2における設定作業が完了すると、設定者端末2から管理サーバ1にTIGメタデータTMが送信される。ここで、設定者端末2から送信されたTIGメタデータTMを管理サーバ1が受信するまでの間に僅かな遅延D2が生じる。その後、管理サーバ1から視聴者端末3にTIGメタデータTMが送信される。ここで、管理サーバ1から送信されたTIGメタデータTMを視聴者端末3が受信するまでの間に僅かな遅延D3が生じる。
即ち、カメラCAMで撮像されたライブ画像Lが、設定者端末2に受信され、その後、TIGメタデータTMが設定者端末2から管理サーバ1を経て視聴者端末3に受信されるまでの間に遅延D1乃至D3が生じる。
First, the data flow and delay when the TIG metadata TM is not embedded in the live image L will be described.
As shown in FIG. 14A, the live image L captured by the camera CAM is transmitted to the setter terminal 2 and the external server 4, respectively. Here, a slight delay D1 occurs before the setter terminal 2 receives the live image L transmitted from the camera CAM. Further, when the setting work on the setter terminal 2 is completed, the TIG metadata TM is transmitted from the setter terminal 2 to the management server 1. Here, a slight delay D2 occurs before the management server 1 receives the TIG metadata TM transmitted from the setter terminal 2. After that, the TIG metadata TM is transmitted from the management server 1 to the viewer terminal 3. Here, a slight delay D3 occurs before the viewer terminal 3 receives the TIG metadata TM transmitted from the management server 1.
That is, the live image L captured by the camera CAM is received by the setter terminal 2, and then the TIG metadata TM is received from the setter terminal 2 via the management server 1 to the viewer terminal 3. Delays D1 to D3 occur.

また、カメラCAMから送信されたライブ画像Lを外部サーバ4が受信するまでの間にトランスコード(圧縮)等による遅延D4が生じる。また、外部サーバ4から送信されたライブ画像Lを視聴者端末3が受信するまでの間にデコード(復元)等による遅延D5が生じる。
即ち、カメラCAMで撮像されたライブ画像Lが外部サーバ4を経て視聴者端末3に受信されるまでの間に遅延D4及びD5が生じ得る。
Further, a delay D4 due to transcoding (compression) or the like occurs before the external server 4 receives the live image L transmitted from the camera CAM. Further, a delay D5 due to decoding (restoration) or the like occurs before the viewer terminal 3 receives the live image L transmitted from the external server 4.
That is, delays D4 and D5 may occur before the live image L captured by the camera CAM is received by the viewer terminal 3 via the external server 4.

図14Bは、図14Aに示す遅延を利用して同期をとる手法の例を示す図である。 FIG. 14B is a diagram showing an example of a method of synchronizing using the delay shown in FIG. 14A.

図14Bには、カメラCAM、設定者端末2、管理サーバ1、外部サーバ4、及び視聴者端末3の夫々により入力され又は出力される、ライブ画像L、TIGメタデータTM、又はTIGメタオフセットが時間軸で示されている。時間軸に並行して配列された長方形のブロックは、1秒の長さを示す映像フレームを示している。また、タイムコードに並行して配列された楕円形のブロックは、1秒の長さを示すTIGメタデータTMを示している。また、楕円形のブロックの中の数字は、オブジェクトJが有効となってからの経過時間を示している。
また、「TIGメタオフセット」とは、TIGメタデータTMを遅延させるために利用されるオフセットのことをいう。「オフセット」とは、異なる機器を時間のズレを持たせて動作させることをいう。オフセットを利用することで、異なるタイムコード上に記録されている関連したデータを同期させることが可能となる。
即ち、ライブ画像Lのタイムコードにおける「05:06」(5分6秒)のタイミングでオブジェクトJが有効となる。このため、TIGメタオフセットは「+05:06」(プラス5分6秒)となり、TIGメタデータTMの経過時間は、ライブ画像Lのタイムコードにおける「05:06」(5分6秒)のタイミングで「0」(0秒)となる。
FIG. 14B shows the live image L, TIG metadata TM, or TIG meta offset input or output by the camera CAM, the setter terminal 2, the management server 1, the external server 4, and the viewer terminal 3, respectively. It is shown on the time axis. The rectangular blocks arranged in parallel with the time axis show a video frame showing a length of 1 second. Also, the elliptical blocks arranged in parallel with the time code indicate the TIG metadata TM indicating the length of 1 second. The numbers in the elliptical block indicate the elapsed time since the object J became effective.
Further, the “TIG meta offset” means an offset used to delay the TIG metadata TM. "Offset" means operating different devices with a time lag. By using offset, it is possible to synchronize related data recorded on different timecodes.
That is, the object J becomes effective at the timing of "05:06" (5 minutes and 6 seconds) in the time code of the live image L. Therefore, the TIG meta offset is "+05: 06" (plus 5 minutes and 6 seconds), and the elapsed time of the TIG metadata TM is the timing of "05:06" (5 minutes and 6 seconds) in the time code of the live image L. Will be "0" (0 seconds).

ここで、カメラCAMと設定者端末2とを比較すると、設定者端末2に遅延D1が生じている。
また、設定者端末2と管理サーバ1とを比較すると、TIGメタデータTMについて管理サーバ1に遅延D2が生じている。つまり、カメラCAMから管理サーバ1に至るまでの間に遅延D1及びD2が生じている。
また、管理サーバ1と視聴者端末3とを比較すると、視聴者端末3に遅延D3が生じている。つまり、カメラCAMから設定者端末2及び管理サーバ1を経て視聴者端末3に至るまでの間に遅延D1乃至D3が生じている。
Here, when the camera CAM and the setter terminal 2 are compared, the delay D1 occurs in the setter terminal 2.
Further, when the setter terminal 2 and the management server 1 are compared, a delay D2 occurs in the management server 1 for the TIG metadata TM. That is, delays D1 and D2 occur between the camera CAM and the management server 1.
Further, when the management server 1 and the viewer terminal 3 are compared, the delay D3 occurs in the viewer terminal 3. That is, delays D1 to D3 occur between the camera CAM, the setter terminal 2, the management server 1, and the viewer terminal 3.

次に、カメラCAMと外部サーバ4とを比較すると、視聴者端末3に遅延D4が生じている。
また、外部サーバ4と視聴者端末3とを比較すると、視聴者端末3に遅延D5が生じている。つまり、カメラCAMから外部サーバ4を経て視聴者端末3に至るまでの間に遅延D4及びD5が生じている。
Next, when the camera CAM and the external server 4 are compared, the delay D4 occurs in the viewer terminal 3.
Further, when the external server 4 and the viewer terminal 3 are compared, the delay D5 occurs in the viewer terminal 3. That is, delays D4 and D5 occur between the camera CAM, the external server 4, and the viewer terminal 3.

ここで、カメラCAMから視聴者端末3までの間に生じる遅延の合計時間について、映像フレームとTIGメタデータTMとを比較する。すると、図14Bに示す例では、TIGメタデータTMの遅延の合計時間(遅延D1乃至D3)よりも映像フレームの遅延の合計時間(遅延D4及びD5)の方が長い。このため、視聴者端末3は、TIGメタオフセットを利用してTIGメタデータTMを敢えて遅延させた状態で表示させる。
具体的には、TIGメタオフセットが「+05:06」(プラス5分6秒)であるTIGメタデータTMを、タイムコードが「05:06」(5分6秒)である映像フレームに合わせるように遅延させる。これにより、映像フレームとTIGメタデータTMとの同期をとることができる。
Here, the video frame and the TIG metadata TM are compared with respect to the total time of the delay occurring between the camera CAM and the viewer terminal 3. Then, in the example shown in FIG. 14B, the total delay time (delays D4 and D5) of the video frame is longer than the total delay time (delays D1 to D3) of the TIG metadata TM. Therefore, the viewer terminal 3 intentionally displays the TIG metadata TM in a delayed state by using the TIG meta offset.
Specifically, the TIG metadata TM having the TIG meta offset of "+05:06" (plus 5 minutes and 6 seconds) should be aligned with the video frame having the time code of "05:06" (5 minutes and 6 seconds). Delay to. As a result, the video frame and the TIG metadata TM can be synchronized.

なお、図14Bに示す例の他、TIGメタデータTMの遅延の合計時間(遅延D1乃至D3)よりも映像フレームの遅延の合計時間(遅延D4及びD5)の方が短くなる場合もある。このような場合には、ライブ画像Lの表示を遅延させる。これにより、映像フレームとTIGメタデータTMとの同期をとることができる。 In addition to the example shown in FIG. 14B, the total delay time (delays D4 and D5) of the video frame may be shorter than the total delay time (delays D1 to D3) of the TIG metadata TM. In such a case, the display of the live image L is delayed. As a result, the video frame and the TIG metadata TM can be synchronized.

さらに、視聴者Wは、オブジェクトJが既に有効となっているライブ画像Lの途中から視聴を開始する場合がある。このような場合、例えば図14Bに示すように、TIGメタデータTMの遅延の合計時間(遅延D1乃至D3´)よりも映像フレームの遅延の合計時間(遅延D4及びD5´)の方が長ければ、視聴者端末3はTIGメタオフセットを利用してTIGメタデータTMを遅延させて表示させる。
具体的には、TIGメタオフセットが「+05:06」(プラス5分6秒)であるTIGメタデータTMを、タイムコードが「05:09」(5分9秒)である映像フレームに経過時間(3秒)を合わせるように遅延させる。これにより、映像フレームとTIGメタデータTMとの同期をとることができる。
Further, the viewer W may start viewing from the middle of the live image L in which the object J is already valid. In such a case, for example, as shown in FIG. 14B, if the total delay time (delays D4 and D5') of the video frame is longer than the total delay time (delays D1 to D3') of the TIG metadata TM. , The viewer terminal 3 uses the TIG meta offset to delay and display the TIG metadata TM.
Specifically, the elapsed time of the TIG metadata TM having the TIG meta offset of "+05:06" (plus 5 minutes and 6 seconds) in the video frame having the time code of "05:09" (5 minutes and 9 seconds). Delay to match (3 seconds). As a result, the video frame and the TIG metadata TM can be synchronized.

次に、ライブ画像LにTIGメタデータTMを直接埋め込んだ場合のデータの流れと遅延とについて説明する。
図14Aに戻り、設定者端末2は、ライブ画像Lのメタデータとして、ライブ画像LにTIGメタデータTMを直接埋め込んだ状態で外部サーバ4に送信する。すると、外部サーバ4は、TIGメタデータTMが埋め込まれたライブ画像Lを視聴者端末3に配信する。
Next, the data flow and delay when the TIG metadata TM is directly embedded in the live image L will be described.
Returning to FIG. 14A, the setter terminal 2 transmits the TIG metadata TM as the metadata of the live image L to the external server 4 in a state of being directly embedded in the live image L. Then, the external server 4 delivers the live image L in which the TIG metadata TM is embedded to the viewer terminal 3.

この場合、カメラCAMと設定者端末2とを比較すると、ライブ画像LにTIGメタデータTMを直接埋め込まない場合と同様に、設定者端末2に遅延D1が生じている。
また、設定者端末2と外部サーバ4とを比較すると、外部サーバ4に遅延D6が生じている。
また、外部サーバ4と視聴者端末3とを比較すると、視聴者端末3に遅延D7が生じている。つまり、カメラCAMから設定者端末2及び外部サーバ4を経て視聴者端末3に至るまでの間に遅延D1,D6,D7が生じている。
In this case, when the camera CAM and the setter terminal 2 are compared, a delay D1 occurs in the setter terminal 2 as in the case where the TIG metadata TM is not directly embedded in the live image L.
Further, when the setter terminal 2 and the external server 4 are compared, the delay D6 occurs in the external server 4.
Further, when the external server 4 and the viewer terminal 3 are compared, the delay D7 occurs in the viewer terminal 3. That is, delays D1, D6, and D7 occur between the camera CAM, the setter terminal 2, the external server 4, and the viewer terminal 3.

図14Cは、図14Bとは異なる手法として、ライブ画像にTIGメタデータを直接埋め込むことで同期をとる例を示す図である。
図14Cに示すように、ライブ画像LにTIGメタデータTMを埋め込んだ場合、映像フレームとTIGメタデータTMがセットになっているため、映像フレームとTIGメタデータTMとの同期がとれている。
即ち、視聴者端末3は、TIGメタデータTMが埋め込まれたライブ画像Lを受信すると、ライブ画像Lをデコードする際、ライブ画像LのメタデータからTIGメタデータTMを取り出し、ライブ画像Lを表示する際に同期をとる。
また、上述したように、視聴者Wは、オブジェクトJが既に有効となっているライブ画像Lの途中から視聴を開始する場合がある。このような場合で宛ても、映像フレームとTIGメタデータTMがセットになっているため、視聴を開始したタイミングから映像フレームとTIGメタデータTMとの同期をとることができる。
また、図示はしないが、視聴者WによるオブジェクトJを選択する操作に応じて、管理サーバ1から視聴者端末3に対して紐付情報が送信される。
また、図示はしないが、必要に応じて管理用、あるいはアーカイブでの再利用等を目的としたTIGメタデータTMを、設定者端末2から管理サーバ1に別途送信してもよい。
FIG. 14C is a diagram showing an example of synchronizing by directly embedding TIG metadata in a live image as a method different from that of FIG. 14B.
As shown in FIG. 14C, when the TIG metadata TM is embedded in the live image L, the video frame and the TIG metadata TM are synchronized because the video frame and the TIG metadata TM are set.
That is, when the viewer terminal 3 receives the live image L in which the TIG metadata TM is embedded, when decoding the live image L, the viewer terminal 3 extracts the TIG metadata TM from the metadata of the live image L and displays the live image L. Synchronize when you do.
Further, as described above, the viewer W may start viewing from the middle of the live image L in which the object J is already valid. Even in such a case, since the video frame and the TIG metadata TM are set, the video frame and the TIG metadata TM can be synchronized from the timing when the viewing is started.
Further, although not shown, the association information is transmitted from the management server 1 to the viewer terminal 3 in response to the operation of selecting the object J by the viewer W.
Further, although not shown, the TIG metadata TM for management or reuse in the archive may be separately transmitted from the setter terminal 2 to the management server 1 as needed.

以上、本発明の一実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 Although one embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and modifications, improvements, and the like within the range in which the object of the present invention can be achieved are included in the present invention. Is.

例えば、上述の実施形態において、オブジェクトJとして特定されているものは例示に過ぎない。
即ち、ライブ画像LにはオブジェクトJに該当し得る候補は無数に含まれている。このため、上述したように、可能な限り多くのオブジェクトJに紐付情報を予め紐付けておくことで、視聴者Wの利便性をより向上させることができる。
For example, in the above-described embodiment, what is specified as the object J is only an example.
That is, the live image L includes innumerable candidates that can correspond to the object J. Therefore, as described above, the convenience of the viewer W can be further improved by associating the associative information with as many objects J as possible in advance.

また、上述の実施形態では、視聴者Wによる指定がなされると、オブジェクトJの紐付情報がストック情報として「TIGストック」に保存される構成となっているが、これは例示に過ぎない。視聴者Wによる指定がなされたオブジェクトJの紐付情報は、ストック情報として保存されない構成とすることもできる。 Further, in the above-described embodiment, when the viewer W specifies, the associated information of the object J is stored in the "TIG stock" as stock information, but this is only an example. The association information of the object J designated by the viewer W may be configured not to be saved as stock information.

また例えば、図2には設定者Cが1人のみ描画されているが、これは例示に過ぎず、設定者Cは複数人存在してもよい。この場合、同一のライブ画像Lについて、複数人の設定者Cが同時に各種設定作業を行ってもよい。これにより、複数人の設定者Cによる並列作業が実現できるので、設定作業を効率化させることができる。 Further, for example, although only one setter C is drawn in FIG. 2, this is merely an example, and there may be a plurality of setters C. In this case, a plurality of setters C may perform various setting operations at the same time for the same live image L. As a result, parallel work can be realized by a plurality of setters C, so that the setting work can be made more efficient.

また、図8Aに示す例では、オブジェクトJとして野球選手を例に挙げて説明しているが、これに限定されず、例えば野球場の看板等の広告をオブジェクトJとして自動認識して、TIGエリアAを自動設定してもよい。 Further, in the example shown in FIG. 8A, a baseball player is taken as an example of the object J, but the present invention is not limited to this. A may be set automatically.

また例えば、オブジェクトJを指定できる領域の形状は、四角形に限定されず、自由矩形とすることもできる。 Further, for example, the shape of the area in which the object J can be specified is not limited to a quadrangle, and may be a free rectangle.

また例えば、図1、図7A、図7B、図8A及び図8Bに示すライブ画像Lは例示に過ぎず、他の構成としてもよい。 Further, for example, the live image L shown in FIGS. 1, 7A, 7B, 8A and 8B is merely an example, and other configurations may be used.

また、本発明によれば、上述のサービスや効果に加え、以下のようなサービスや効果を実現させることもできる。
即ち、視聴者Wは、ライブ画像Lに出演している人物(例えば図1の現地リポーター)が身に着けている衣服や装飾品について、視聴者端末3を操作しながらその場で情報を得たり購入したりすることができる。
また、視聴者Wは、ライブ画像Lに表示されたテロップ(例えば図1のオブジェクトJ2により示されるテロップ)を指定する操作を行うだけで、テロップにより示される出演者(例えば図1の現地リポーター)や選手等の詳細情報を得ることができる。
また、視聴者Wは、ライブ画像Lを撮像しているカメラ(図示せず)のアングルに則した詳細な情報を取得することができる。
また、例えばライブ画像Lがスポーツの生中継である場合には、視聴者Wは、ライブ画像Lに表示されているオブジェクトJを指定する操作を行うだけで、技やルール等の補足情報をタイムリーに取得することができる。
また、視聴者Wは、いわゆる「投げ銭」を、ライブ画像L内の領域を分けて行うこともできる。つまり、視聴者Wは、ライブ画像Lのうち、どこ(又は誰)であるかを区別しながら「投げ銭」を行うことができる。
また、ライブ画像Lを撮像するカメラの切り替えを行う外部装置(図示せず)に対して、TIGエリアA側から所定信号(以下、「表示トリガ」と呼ぶ)を送信できるようにすることもできる。これにより、オブジェクトJとTIGエリアAとを容易に同期させることができる。また、ライブ画像Lの各シーンとオブジェクトJとを容易に同期させることもできる。
また、ライブ画像Lにテロップ(オブジェクトJ)を表示させる外部装置(図示せず)から送信されてきた表示トリガに基づいて、テロップ(オブジェクトJ)とTIGエリアAとを容易に同期させることができる。また、ライブ画像Lの各シーンとオブジェクトJとを容易に同期させることもできる。
また、設定者Cは、ライブ画像Lに触れる(タップする)ことで、ライブ画像Lのどこ(誰)が人気があるかについて、リアルタイムで集計し、その後のカメラワークやイベント進行に反映させることができる。
また、ライブ画像Lが表示されている最中であれば、CM(コマーシャル)にTIGエリアAを設定することができる。なお、CM(コマーシャル)は表示される時間や内容が予め決まっているので、TIGエリアAの位置、及びTIGエリアAが有効になる時間帯を事前設定することができる。
また、収録現場で行われるような、生放送のCM(コマーシャル)にも本サービスを適用することができる。
また、TIGエリアAはライブ画像L全体であってもよい。これにより、例えばコンサートのライブ画像Lで、楽曲の演奏中にライブ画像Lのどの位置をタップしても当該楽曲のオブジェクト情報を取得できるようにすることができる。
また、視聴者WによるTIGエリアAに対するタップ操作がどの程度行われたのかについて、設定者Cやライブ画像Lを提供する者にフィードバックすることもできる。
また、設定者Cより、TIGエリアAを設定する度合いも変わることが予想されるので、高度なスキルを有する専門職としての設定者Cが増加することが期待できる。
また、従来のスポンサーは、CM(コマーシャル)を広告媒体としていたが、ライブ画像Lを広告媒体とするスポンサーが増加することが期待できる。
また、ビジネス展示会等のライブ画像Lにも本サービスを提供することができる。
また、ニュースや報道番組等のライブ画像Lにも本サービスを適用することができる。これにより、視聴者Wに対する補足情報や、難解な情報をわかり易く解説した情報を、オブジェクト情報とすることができる。
また、視聴者Wが、設定者Cとしてライブ映像にTIGエリアAを設定できるようにすることもできる。即ち、視聴者Wが上述の設定アプリを利用できるようにすることもできる。
さらに、視聴者Wが、TIGエリアAが設定されたライブ画像Lを、自ら配信できるようにすることもできる。
また、「TIGストック」に一定数のオブジェクトJ(ストック情報)を蓄積させることで、所定のイベントが発生するようにすることができる。
また、1つのオブジェクトJに対応するTIGエリアAがタップされた場合、複数のリンク先(ジャンプ先)を選択できるようにすることができる。
また、TIGエリアA以外の領域がタップされると、アニメーションが自動再生されるようにすることができる。これにより、視覚的な表現を用いることで、視聴者Wの利便性を高めることができる。
また、「TIGストック」は、カスタマイズすることもできる。また、オブジェクトJの指定のための操作の具体的態様に応じて、その効果に変化を持たせることができる。具体的には例えば、操作角度、タップする時間、ダブルタップ等により、効果に変化を持たせることができる。より具体的には例えばオブジェクトJに第1紐付情報と第2紐付情報とが対応付けられている場合、深く押下操作がなされると第1紐付情報が保存される一方、2回触る(ダブルタップ)と第2紐付情報が保存されるようにすることができる。
また、視聴者Wの目の動きによって、オブジェクトJをストックできるようにすることもできる。
Further, according to the present invention, in addition to the above-mentioned services and effects, the following services and effects can be realized.
That is, the viewer W obtains information on the spot while operating the viewer terminal 3 about the clothes and accessories worn by the person appearing in the live image L (for example, the local reporter in FIG. 1). Or can be purchased.
Further, the viewer W simply performs an operation of designating the telop displayed on the live image L (for example, the telop indicated by the object J2 in FIG. 1), and the performer indicated by the telop (for example, the local reporter in FIG. 1). You can get detailed information about players and players.
Further, the viewer W can acquire detailed information according to the angle of the camera (not shown) that is capturing the live image L.
Further, for example, when the live image L is a live broadcast of sports, the viewer W simply performs an operation of designating the object J displayed on the live image L, and time supplementary information such as techniques and rules. Can be obtained by Lee.
In addition, the viewer W can also perform so-called "throwing money" by dividing the area in the live image L. That is, the viewer W can make a "throwing money" while distinguishing where (or who) the live image L is.
Further, it is also possible to transmit a predetermined signal (hereinafter referred to as "display trigger") from the TIG area A side to an external device (not shown) that switches the camera that captures the live image L. .. As a result, the object J and the TIG area A can be easily synchronized. Further, each scene of the live image L and the object J can be easily synchronized.
Further, the telop (object J) and the TIG area A can be easily synchronized based on the display trigger transmitted from the external device (not shown) that displays the telop (object J) on the live image L. .. Further, each scene of the live image L and the object J can be easily synchronized.
In addition, by touching (tapping) the live image L, the setter C aggregates in real time which (who) of the live image L is popular and reflects it in the subsequent camera work and event progress. Can be done.
Further, if the live image L is being displayed, the TIG area A can be set in the CM (commercial). Since the time and content of the CM (commercial) to be displayed are predetermined, the position of the TIG area A and the time zone in which the TIG area A is effective can be preset.
In addition, this service can be applied to live commercials, such as those performed at recording sites.
Further, the TIG area A may be the entire live image L. Thereby, for example, in the live image L of the concert, the object information of the music can be acquired by tapping any position of the live image L during the performance of the music.
It is also possible to give feedback to the setter C and the person who provides the live image L about how much the tap operation on the TIG area A by the viewer W has been performed.
Further, since it is expected that the degree of setting the TIG area A will change from the setter C, it can be expected that the number of setters C as professionals with advanced skills will increase.
Further, although the conventional sponsors use CM (commercial) as an advertising medium, it can be expected that the number of sponsors using live image L as an advertising medium will increase.
In addition, this service can be provided for live images L of business exhibitions and the like.
In addition, this service can be applied to live images L such as news and news programs. As a result, supplementary information for the viewer W and information that explains difficult information in an easy-to-understand manner can be used as object information.
It is also possible for the viewer W to set the TIG area A in the live video as the setter C. That is, it is also possible to enable the viewer W to use the above-mentioned setting application.
Further, the viewer W can also enable the viewer W to distribute the live image L in which the TIG area A is set by himself / herself.
Further, by accumulating a certain number of objects J (stock information) in the "TIG stock", a predetermined event can be made to occur.
Further, when the TIG area A corresponding to one object J is tapped, a plurality of link destinations (jump destinations) can be selected.
Further, when an area other than the TIG area A is tapped, the animation can be automatically played. As a result, the convenience of the viewer W can be enhanced by using the visual expression.
The "TIG stock" can also be customized. In addition, the effect can be changed according to the specific mode of the operation for designating the object J. Specifically, for example, the effect can be changed by the operation angle, tapping time, double tapping, and the like. More specifically, for example, when the first association information and the second association information are associated with the object J, the first association information is saved when the deep pressing operation is performed, while the object J is touched twice (double tap). ) And the second association information can be saved.
It is also possible to make the object J stockable by the movement of the eyes of the viewer W.

また、図9乃至図11の例では、リーダRによりタグDが読込まれると、タグDを付した対象(例えば衣類)がオブジェクトJとして認識されて、ライブ画像Lに表示されるが、これに特に限定されない。リーダRを用いてタグが読込まれることなく、例えばカメラCAMが画像処理によってタグDを認識してもよい。また例えば、カメラCAMの画像処理によって対象(例えば衣類)そのものが認識されて、オブジェクトJとしてライブ画像Lに表示されるようにしてもよい。 Further, in the examples of FIGS. 9 to 11, when the tag D is read by the reader R, the object (for example, clothing) to which the tag D is attached is recognized as the object J and displayed in the live image L. It is not particularly limited to. For example, the camera CAM may recognize the tag D by image processing without reading the tag using the reader R. Further, for example, the object (for example, clothing) itself may be recognized by the image processing of the camera CAM and displayed as the object J in the live image L.

また、図2に示すシステム構成や、図3に示す管理サーバ1のハードウェア構成は、本発明の目的を達成するための例示に過ぎず、特に限定されない。 Further, the system configuration shown in FIG. 2 and the hardware configuration of the management server 1 shown in FIG. 3 are merely examples for achieving the object of the present invention, and are not particularly limited.

また、図4に示す機能ブロック図は、例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは、特に図4の例に限定されない。 Further, the functional block diagram shown in FIG. 4 is merely an example and is not particularly limited. That is, it suffices if the information processing system is provided with a function capable of executing the above-mentioned series of processes as a whole, and what kind of functional block is used to realize this function is not particularly limited to the example of FIG. ..

また、機能ブロックの存在場所も、図4に限定されず、任意でよい。
例えば、図4の例で、紐付情報提供処理や紐付情報設定支援処理の実行に必要となる機能ブロックは、管理サーバ1側が備える構成となっているが、これは例示に過ぎない。例えば専用のアプリを設定者端末2や視聴者端末3にインストールさせることにより、これらの機能ブロックの少なくとも一部を、設定者端末2や視聴者端末3側が備える構成としてもよい。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
Further, the location of the functional block is not limited to FIG. 4, and may be arbitrary.
For example, in the example of FIG. 4, the functional block required for executing the linking information providing process and the linking information setting support process is configured to be provided on the management server 1 side, but this is only an example. For example, by installing a dedicated application on the setter terminal 2 or the viewer terminal 3, at least a part of these functional blocks may be provided on the setter terminal 2 or the viewer terminal 3.
Further, one functional block may be configured by a single piece of hardware, a single piece of software, or a combination thereof.

各機能ブロックの処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
When the processing of each functional block is executed by software, the programs constituting the software are installed on a computer or the like from a network or a recording medium.
The computer may be a computer embedded in dedicated hardware. Further, the computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose smartphone or a personal computer in addition to a server.

このようなプログラムを含む記録媒体は、各ユーザにプログラムを提供するために装置本体とは別に配布される、リムーバブルメディアにより構成されるだけではなく、装置本体に予め組み込まれた状態で各ユーザに提供される記録媒体等で構成される。 The recording medium containing such a program is not only composed of removable media, which is distributed separately from the main body of the device to provide the program to each user, but also is preliminarily incorporated in the main body of the device to each user. It is composed of the provided recording medium and the like.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に添って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。 In the present specification, the steps for describing a program recorded on a recording medium are not necessarily processed in chronological order according to the order, but are not necessarily processed in chronological order, but are arranged in parallel or individually. It also includes the processing to be executed.

また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものである。 Further, in the present specification, the term of the system means an overall device composed of a plurality of devices, a plurality of means, and the like.

以上まとめると、本発明が適用される情報処理システムは、次のような構成を取れば足り、各種各様な実施形態を取ることができる。
即ち、本発明が適用される情報処理システムは、
表示されているライブ画像(例えば図1のライブ画像L)の中で第1ユーザ(例えば図2の視聴者W)により指定がなされる、所定時間帯(例えば図1の現地リポーターがライブ画像に登場している時間帯)の所定領域(例えば図1のTIGエリアA1)に存在するオブジェクト(例えば図1の現地リポーター(人物)を示すオブジェクトJ1)に対し、当該第1ユーザに所定情報(例えばオブジェクト情報)を提供するための情報を、当該指定がなされる前の所定タイミング(例えばライブ画像が設定者端末2に表示される以前のタイミング)で紐付けて、当該情報を紐付情報として管理する管理手段(例えば図4の紐付情報管理部121)と、
前記ライブ画像を前記第1ユーザに提示する制御を実行する提示制御手段(例えば図4の提示制御部122)と、
前記ライブ画像が提示されている(例えば図2等の視聴者端末3に表示されている)前記第1ユーザによる前記所定領域に対する所定操作(例えばタップ操作)がなされた場合、当該所定領域に存在する前記オブジェクトの前記指定がなされたと認識して、当該指定を受付ける第1受付手段(例えば図4の指定受付部123)と、
前記指定が受付けられた前記オブジェクトに紐付けられて管理されている前記紐付情報を取得する取得手段(例えば図4の取得部124)と、
前記取得手段により取得された前記紐付情報に基づいて、前記所定情報を前記第1ユーザに提供する(例えば図2等の視聴者端末3に表示させる)制御を実行する提供制御手段(例えば図4の提供制御部125)と、
を備える。
Summarizing the above, the information processing system to which the present invention is applied suffices to have the following configuration, and various various embodiments can be taken.
That is, the information processing system to which the present invention is applied is
In the displayed live image (for example, the live image L in FIG. 1), a predetermined time zone (for example, the local reporter in FIG. 1) designated by the first user (for example, the viewer W in FIG. 2) becomes the live image. For an object (for example, an object J1 indicating a local reporter (person) in FIG. 1) existing in a predetermined area (for example, TIG area A1 in FIG. 1) in a predetermined area (for example, a time zone in which the image appears), predetermined information (for example) is given to the first user. Information for providing (object information) is linked at a predetermined timing before the designation is made (for example, a timing before the live image is displayed on the setter terminal 2), and the information is managed as linked information. Management means (for example, the linked information management unit 121 in FIG. 4) and
A presentation control means (for example, a presentation control unit 122 in FIG. 4) that executes a control for presenting the live image to the first user.
When the first user performs a predetermined operation (for example, a tap operation) on the predetermined area on which the live image is presented (for example, displayed on the viewer terminal 3 in FIG. 2 or the like), the live image is present in the predetermined area. Recognizing that the designation of the object is made, the first receiving means (for example, the designated receiving unit 123 in FIG. 4) that accepts the designation and
An acquisition means (for example, acquisition unit 124 in FIG. 4) for acquiring the association information managed by being associated with the object to which the designation is accepted, and
A provision control means (for example, FIG. 4) that executes a control for providing the predetermined information to the first user (for example, displaying it on the viewer terminal 3 of FIG. 2 or the like) based on the association information acquired by the acquisition means. Provided by the control unit 125) and
To be equipped.

これにより、管理手段がオブジェクトに紐付情報を紐付けて管理し、提示制御手段がライブ画像を視聴者に提示する。そして、第1受付手段が視聴者によるオブジェクトの指定を受付けて、取得手段がそのオブジェクトに紐付けられている紐付情報を取得し、提示制御手段がその紐付情報に基づく所定情報を視聴者に提供する。
その結果、視聴者は、ライブ画像の視聴中、又はライブ画像を視聴した後のタイミングで、当該ライブ画像に含まれるオブジェクトに関する所定情報を容易に取得することができる。
具体的には例えば、上述の実施形態における視聴者Wは、ライブ画像Lの視聴中、又はライブ画像Lを視聴した後のタイミングで、ライブ画像Lに含まれるオブジェクトJに関するオブジェクト情報を容易に取得することができる。
As a result, the management means associates the associated information with the object and manages it, and the presentation control means presents the live image to the viewer. Then, the first receiving means accepts the designation of the object by the viewer, the acquiring means acquires the linked information associated with the object, and the presentation control means provides the viewer with predetermined information based on the linked information. do.
As a result, the viewer can easily acquire predetermined information about the object included in the live image at the timing of viewing the live image or after viewing the live image.
Specifically, for example, the viewer W in the above-described embodiment can easily acquire the object information related to the object J included in the live image L at the timing during viewing of the live image L or after viewing the live image L. can do.

また、前記所定タイミング以前(例えばオブジェクトJに紐付情報が紐付けられる以前)に前記オブジェクトを設定する(例えばアイテム登録を行う)第1設定を行う第1設定手段(例えば図4のオブジェクト設定部111)と、
前記ライブ画像として表示される表示領域のうち少なくとも一部の領域を、前記オブジェクトの前記指定のための前記所定操作がなされる前記所定領域として設定する第2設定を行う第2設定手段(例えば図4の位置設定部112)と、
をさらに備えることができる。
Further, the first setting means (for example, the object setting unit 111 of FIG. 4) for setting the object (for example, registering an item) before the predetermined timing (for example, before the association information is associated with the object J) is performed. )When,
A second setting means (for example, FIG.) for performing a second setting in which at least a part of the display area displayed as the live image is set as the predetermined area in which the predetermined operation for the designation of the object is performed. Position setting unit 112) of 4 and
Can be further prepared.

これにより、第1設定手段がオブジェクトに紐付情報が紐付けられる以前にオブジェクトを設定することができる。 As a result, the object can be set before the first setting means associates the association information with the object.

また、前記第1設定手段は、前記ライブ画像が表示される前に、前記第1設定を行い、
前記第2設定手段は、前記ライブ画像が表示される前に、前記第2設定を行うことができる。
Further, the first setting means performs the first setting before the live image is displayed.
The second setting means can perform the second setting before the live image is displayed.

これにより、第1設定手段が、ライブ画像が表示される前にオブジェクトの設定を行い、第2設定手段が、ライブ画像が表示される前にオブジェクトの指定のための所定操作がなされる所定領域の位置を設定する。
その結果、設定者は、ライブ画像の中の所定領域の位置を予め設定してから、視聴者にライブ画像を提示することができる。
具体的には例えば、上述の実施形態における設定者Cは、ライブ画像Lの中のTIGエリアAの位置を予め設定してから、視聴者Wにライブ画像Lを提示することができる。
As a result, the first setting means sets the object before the live image is displayed, and the second setting means performs a predetermined operation for designating the object before the live image is displayed. Set the position of.
As a result, the setter can set the position of the predetermined area in the live image in advance and then present the live image to the viewer.
Specifically, for example, the setter C in the above-described embodiment can set the position of the TIG area A in the live image L in advance, and then present the live image L to the viewer W.

また、前記ライブ画像が表示されている最中に前記所定領域が有効になる前記所定時間帯を設定する第3設定を行う第3設定手段(例えば図4の時間帯設定部113)をさらに備えることができる。 Further, a third setting means (for example, the time zone setting unit 113 in FIG. 4) for setting the predetermined time zone in which the predetermined area becomes effective while the live image is displayed is further provided. be able to.

これにより、第3設定手段が、ライブ画像が表示されている最中に所定領域が有効になる所定時間帯を設定する。
その結果、設定者は、ライブ画像の中で所定領域が有効になる時間帯を設定することができる。
具体的には例えば、上述の実施形態における設定者Cは、ライブ画像Lの中でTIGエリアAが有効になる時間帯を設定することができる。
As a result, the third setting means sets a predetermined time zone in which the predetermined area becomes effective while the live image is being displayed.
As a result, the setter can set a time zone in which the predetermined area is valid in the live image.
Specifically, for example, the setter C in the above-described embodiment can set a time zone in which the TIG area A is effective in the live image L.

また、前記第3設定手段は、前記ライブ画像が表示されるよりも前の時点で前記第3設定を行うことができる。 In addition, the third setting means can perform the third setting at a time before the live image is displayed.

これにより、第3設定手段が、ライブ画像が表示されるよりも前の時点で、ライブ画像が表示されている最中に所定領域が有効になる所定時間帯を設定する。
その結果、設定者は、ライブ画像の中で所定領域が有効になる時間帯を予め設定してから、視聴者にライブ画像を提示することができる。
具体的には例えば、上述の実施形態における設定者Cは、ライブ画像Lの中でTIGエリアAが有効になる時間帯を予め設定してから、視聴者Wにライブ画像Lを提示することができる。
As a result, the third setting means sets a predetermined time zone in which the predetermined area becomes effective while the live image is being displayed before the live image is displayed.
As a result, the setter can present the live image to the viewer after setting the time zone in which the predetermined area is valid in the live image in advance.
Specifically, for example, the setter C in the above-described embodiment may set a time zone in which the TIG area A is effective in the live image L in advance, and then present the live image L to the viewer W. can.

また、前記第2設定手段は、前記ライブ画像が表示されている最中に、前記第2設定を行い、
前記第3設定手段は、前記ライブ画像が表示されている最中に、前記第3設定を行うことができる。
Further, the second setting means performs the second setting while the live image is being displayed.
The third setting means can perform the third setting while the live image is being displayed.

これにより、第2設定手段が、ライブ画像が表示される前にオブジェクトの指定のための所定操作がなされる所定領域の位置を設定し、第3設定手段が、ライブ画像が表示されている最中に所定領域が有効になる所定時間帯を設定する。
その結果、設定者は、ライブ画像の中の所定領域が有効になる時間帯を予め設定することなく、所定領域が有効になる時間帯を設定することができる。
具体的には例えば、上述の実施形態における設定者Cは、ライブ画像Lの中のTIGエリアAが有効になる時間帯を予め設定することなく、TIGエリアAが有効になる時間帯を設定することができる。
As a result, the second setting means sets the position of the predetermined area in which the predetermined operation for designating the object is performed before the live image is displayed, and the third setting means is the most displayed live image. Set a predetermined time zone during which the predetermined area becomes effective.
As a result, the setter can set the time zone in which the predetermined area becomes effective without setting the time zone in which the predetermined area becomes effective in the live image in advance.
Specifically, for example, the setter C in the above-described embodiment sets the time zone in which the TIG area A is valid in the live image L without setting the time zone in which the TIG area A is valid in advance. be able to.

また、前記第2設定手段は、前記ライブ画像が表示されている最中に、第2ユーザによる指定に基づいて、前記第2設定を行い、
前記第3設定手段は、前記ライブ画像が表示されている最中に、前記第2ユーザによる指定に基づいて、前記第3設定を行うことができる。
Further, the second setting means performs the second setting based on the designation by the second user while the live image is being displayed.
The third setting means can perform the third setting based on the designation by the second user while the live image is being displayed.

これにより、第2設定手段が、ライブ画像が表示される前に、設定者による指定に基づいて、オブジェクトの指定のための所定操作がなされる所定領域の位置を設定する。また、第3設定手段が、ライブ画像が表示されている最中に、設定者による指定に基づいて、所定領域が有効になる所定時間帯を設定する。
その結果、設定者は、ライブ画像の中の所定領域が有効になる時間帯を予め設定することなく、ライブ画像を確認しながら、自ら所定領域が有効になる時間帯を設定することができる。
具体的には例えば、上述の実施形態における設定者Cは、ライブ画像Lの中のTIGエリアAが有効になる時間帯を予め設定することなく、ライブ画像Lを確認しながら、自らTIGエリアAが有効になる時間帯を設定することができる。
As a result, the second setting means sets the position of the predetermined area in which the predetermined operation for designating the object is performed based on the designation by the setter before the live image is displayed. Further, the third setting means sets a predetermined time zone in which the predetermined area becomes effective based on the designation by the setter while the live image is being displayed.
As a result, the setter can set the time zone in which the predetermined area becomes effective by himself / herself while checking the live image without setting the time zone in which the predetermined area becomes effective in the live image in advance.
Specifically, for example, the setter C in the above-described embodiment checks the live image L and checks the TIG area A by himself / herself without setting the time zone in which the TIG area A becomes effective in the live image L in advance. You can set the time zone when is valid.

また、前記ライブ画像が表示されている最中に、前記所定時間帯の前記所定領域に存在する前記オブジェクトを認識する認識手段(例えば図4の認識部114)をさらに備えることができる。
この場合、前記第2設定手段は、前記認識手段により認識された前記オブジェクトについて、前記第2設定を行い、
前記第3設定手段は、前記認識手段により認識された前記オブジェクトについて、前記第3設定を行うことができる。
Further, a recognition means (for example, the recognition unit 114 in FIG. 4) for recognizing the object existing in the predetermined area in the predetermined time zone while the live image is being displayed can be further provided.
In this case, the second setting means performs the second setting on the object recognized by the recognition means.
The third setting means can make the third setting for the object recognized by the recognition means.

これにより、認識手段が、ライブ画像が表示されている最中に、所定時間帯の所定領域に存在するオブジェクトを認識する。
その結果、設定者は、ライブ画像を自ら確認することなく、オブジェクトを自動認識させて、所定領域の位置の設定を行うことができる。
具体的には例えば、上述の実施形態における設定者Cは、ライブ画像Lを自ら確認することなく、オブジェクトJを自動認識させて、TIGエリアAの位置の設定を行うことができる。
As a result, the recognition means recognizes an object existing in a predetermined area in a predetermined time zone while the live image is being displayed.
As a result, the setter can automatically recognize the object and set the position of the predetermined area without checking the live image by himself / herself.
Specifically, for example, the setter C in the above-described embodiment can automatically recognize the object J and set the position of the TIG area A without checking the live image L by himself / herself.

また、前記第1設定手段は、前記認識手段により前記オブジェクトが認識された場合に、当該オブジェクトを設定することができる。 In addition, the first setting means can set the object when the object is recognized by the recognition means.

これにより、第1設定手段が、認識手段によりオブジェクトが認識された場合に、そのオブジェクトを設定する。
その結果、設定者は、ライブ画像に存在するすべてのオブジェクトを自動認識させて、オブジェクトに対する紐付情報の紐付けをすべて自動で行わせることができる。
具体的には例えば、上述の実施形態における設定者Cは、ライブ画像Lに存在するすべてのオブジェクトJを自動認識させて、オブジェクトJに対する紐付情報の紐付けをすべて自動で行わせることができる。
As a result, when the object is recognized by the recognition means, the first setting means sets the object.
As a result, the setter can automatically recognize all the objects existing in the live image and automatically associate all the association information with the objects.
Specifically, for example, the setter C in the above-described embodiment can automatically recognize all the objects J existing in the live image L and automatically associate all the association information with the objects J.

1:管理サーバ、2:設定者端末、3:視聴者端末、4:外部サーバ、11:CPU、12:ROM、13:RAM、14:バス、15:入出力インターフェース、16:入力部、17:出力部、18:記憶部、19:通信部、20:ドライブ、30:リムーバブルメディア、101:設定部、111:登録部、112:位置設定部、113:時間帯設定部、114:認識部、121:紐付情報管理部、122:提示制御部、123:指定受付部、124:取得部、125:提供部、126:ストック管理部、181:オブジェクトDB、C:設定者、W:視聴者、L:ライブ画像、J:オブジェクト、A:TIGエリア、B:ボタン、M:タイムカウンタ、H:オブジェクト一覧、F:表示領域、K:紐付情報、Q:オブジェクト情報、T:ブロック、N:ネットワーク、D:タグ、DSP:ディスプレイ、CAM:カメラ、R:タグ、V:小型飛行体 1: Management server 2: Setting person terminal 3: Viewer terminal 4: External server, 11: CPU, 12: ROM, 13: RAM, 14: Bus, 15: Input / output interface, 16: Input unit, 17 : Output unit, 18: Storage unit, 19: Communication unit, 20: Drive, 30: Removable media, 101: Setting unit, 111: Registration unit, 112: Position setting unit, 113: Time zone setting unit, 114: Recognition unit , 121: Linked information management unit, 122: Presentation control unit, 123: Designated reception unit, 124: Acquisition unit, 125: Provision unit, 126: Stock management unit, 181: Object DB, C: Setter, W: Viewer , L: Live image, J: Object, A: TIG area, B: Button, M: Time counter, H: Object list, F: Display area, K: Link information, Q: Object information, T: Block, N: Network, D: Tag, DSP: Display, CAM: Camera, R: Tag, V: Small Aircraft

Claims (9)

表示されているライブ画像の中で第1ユーザにより指定がなされる、所定時間帯の所定領域に存在するオブジェクトに対し、当該第1ユーザに所定情報を提供するための情報を、当該指定がなされる前の所定タイミングで紐付けて、当該情報を紐付情報として管理する管理手段と、
前記ライブ画像を前記第1ユーザに提示する制御を実行する提示制御手段と、
前記ライブ画像が提示されている前記第1ユーザによる前記所定領域に対する所定操作がなされた場合、当該所定領域に存在する前記オブジェクトの前記指定がなされたと認識して、当該指定を受付ける第1受付手段と、
前記指定が受付けられた前記オブジェクトに紐付けられて管理されている前記紐付情報を取得する取得手段と、
前記取得手段により取得された前記紐付情報に基づいて、前記所定情報を前記第1ユーザに提供する制御を実行する提供制御手段と、
を備える情報処理システム。
Information for providing predetermined information to the first user for an object existing in a predetermined area in a predetermined time zone, which is designated by the first user in the displayed live image, is specified. A management means that manages the information as linked information by linking at a predetermined timing before the link.
A presentation control means that executes control for presenting the live image to the first user, and
When the first user who is presented with the live image performs a predetermined operation on the predetermined area, the first reception means that recognizes that the designation of the object existing in the predetermined area has been made and accepts the designation. When,
An acquisition means for acquiring the association information managed by being associated with the object for which the designation has been accepted, and
A provision control means that executes control to provide the predetermined information to the first user based on the association information acquired by the acquisition means.
Information processing system equipped with.
前記所定タイミング以前に前記オブジェクトを設定する第1設定を行う第1設定手段と、
前記ライブ画像として表示される表示領域のうち少なくとも一部の領域を、前記オブジェクトの前記指定のための前記所定操作がなされる前記所定領域として設定する第2設定を行う第2設定手段と、
をさらに備える、
請求項1に記載の情報処理システム。
A first setting means for performing the first setting for setting the object before the predetermined timing, and
A second setting means for performing a second setting in which at least a part of the display area displayed as the live image is set as the predetermined area in which the predetermined operation for the designation of the object is performed.
Further prepare,
The information processing system according to claim 1.
前記第1設定手段は、前記ライブ画像が表示される前に、前記第1設定を行い、
前記第2設定手段は、前記ライブ画像が表示される前に、前記第2設定を行う、
請求項2に記載の情報処理システム。
The first setting means performs the first setting before the live image is displayed.
The second setting means performs the second setting before the live image is displayed.
The information processing system according to claim 2.
前記ライブ画像が表示されている最中に前記所定領域が有効になる前記所定時間帯を設定する第3設定を行う第3設定手段をさらに備える、
請求項2又は3に記載の情報処理システム。
A third setting means for setting a predetermined time zone in which the predetermined area becomes effective while the live image is being displayed is further provided.
The information processing system according to claim 2 or 3.
前記第3設定手段は、前記ライブ画像が表示されるよりも前の時点で前記第3設定を行う、
請求項4に記載の情報処理システム。
The third setting means performs the third setting before the live image is displayed.
The information processing system according to claim 4.
前記第2設定手段は、前記ライブ画像が表示されている最中に、前記第2設定を行い、
前記第3設定手段は、前記ライブ画像が表示されている最中に、前記第3設定を行う、
請求項4又は5に記載の情報処理システム。
The second setting means performs the second setting while the live image is being displayed.
The third setting means performs the third setting while the live image is being displayed.
The information processing system according to claim 4 or 5.
前記第2設定手段は、前記ライブ画像が表示されている最中に、第2ユーザによる指定に基づいて、前記第2設定を行い、
前記第3設定手段は、前記ライブ画像が表示されている最中に、前記第2ユーザによる指定に基づいて、前記第3設定を行う、
請求項6に記載の情報処理システム。
The second setting means performs the second setting based on the designation by the second user while the live image is being displayed.
The third setting means performs the third setting based on the designation by the second user while the live image is being displayed.
The information processing system according to claim 6.
前記ライブ画像が表示されている最中に、所定時間帯の前記所定領域に存在する前記オブジェクトを認識する認識手段をさらに備え、
前記第2設定手段は、前記認識手段により認識された前記オブジェクトについて、前記第2設定を行い、
前記第3設定手段は、前記認識手段により認識された前記オブジェクトについて、前記第3設定を行う、
請求項6に記載の情報処理システム。
Further provided with a recognition means for recognizing the object existing in the predetermined area in the predetermined time zone while the live image is displayed.
The second setting means performs the second setting with respect to the object recognized by the recognition means.
The third setting means makes the third setting for the object recognized by the recognition means.
The information processing system according to claim 6.
前記第1設定手段は、前記認識手段により前記オブジェクトが認識された場合に、当該オブジェクトを設定する、
請求項8に記載の情報処理システム。
When the object is recognized by the recognition means, the first setting means sets the object.
The information processing system according to claim 8.
JP2021507110A 2019-06-05 2020-05-20 Information processing system Pending JPWO2020246237A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022029964A JP7229601B2 (en) 2019-06-05 2022-02-28 Information processing system
JP2023017701A JP2023054039A (en) 2019-06-05 2023-02-08 Information processing system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019105278 2019-06-05
JP2019105278 2019-06-05
PCT/JP2020/019899 WO2020246237A1 (en) 2019-06-05 2020-05-20 Information processing system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022029964A Division JP7229601B2 (en) 2019-06-05 2022-02-28 Information processing system

Publications (1)

Publication Number Publication Date
JPWO2020246237A1 true JPWO2020246237A1 (en) 2021-09-13

Family

ID=73651990

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2021507110A Pending JPWO2020246237A1 (en) 2019-06-05 2020-05-20 Information processing system
JP2022029964A Active JP7229601B2 (en) 2019-06-05 2022-02-28 Information processing system
JP2023017701A Pending JP2023054039A (en) 2019-06-05 2023-02-08 Information processing system

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022029964A Active JP7229601B2 (en) 2019-06-05 2022-02-28 Information processing system
JP2023017701A Pending JP2023054039A (en) 2019-06-05 2023-02-08 Information processing system

Country Status (2)

Country Link
JP (3) JPWO2020246237A1 (en)
WO (1) WO2020246237A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7324805B2 (en) * 2021-07-29 2023-08-10 株式会社日本総合研究所 Information processing system and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002262248A (en) * 2000-12-27 2002-09-13 Jisedai Joho Hoso System Kenkyusho:Kk Method for transmitting linkmark position information and its displaying method and system
JP2007019769A (en) * 2005-07-06 2007-01-25 Sony Corp Tag information display control apparatus, information processing apparatus, display apparatus, and tag information display control method and program
JP2010109773A (en) * 2008-10-30 2010-05-13 Koichi Sumida Information providing system, content distribution apparatus and content viewing terminal device
JP2011259184A (en) * 2010-06-09 2011-12-22 Nippon Hoso Kyokai <Nhk> Link-function-equipped moving image reproduction apparatus and link-function-equipped moving image reproduction program
JP2012249156A (en) * 2011-05-30 2012-12-13 Sony Corp Information processing apparatus, information processing method, and program
WO2014207902A1 (en) * 2013-06-28 2014-12-31 楽天株式会社 Information processing device, information processing method, and information processing program
JP2015115661A (en) * 2013-12-09 2015-06-22 株式会社Pumo Interface device for designating link destination, interface device for viewer, and computer program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252410A (en) * 2007-03-29 2008-10-16 Nomura Research Institute Ltd Information display system, information providing server, and information display method
JP2016021231A (en) * 2015-06-19 2016-02-04 株式会社ohana corporation Commodity information posting system and information posting system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002262248A (en) * 2000-12-27 2002-09-13 Jisedai Joho Hoso System Kenkyusho:Kk Method for transmitting linkmark position information and its displaying method and system
JP2007019769A (en) * 2005-07-06 2007-01-25 Sony Corp Tag information display control apparatus, information processing apparatus, display apparatus, and tag information display control method and program
JP2010109773A (en) * 2008-10-30 2010-05-13 Koichi Sumida Information providing system, content distribution apparatus and content viewing terminal device
JP2011259184A (en) * 2010-06-09 2011-12-22 Nippon Hoso Kyokai <Nhk> Link-function-equipped moving image reproduction apparatus and link-function-equipped moving image reproduction program
JP2012249156A (en) * 2011-05-30 2012-12-13 Sony Corp Information processing apparatus, information processing method, and program
WO2014207902A1 (en) * 2013-06-28 2014-12-31 楽天株式会社 Information processing device, information processing method, and information processing program
JP2015115661A (en) * 2013-12-09 2015-06-22 株式会社Pumo Interface device for designating link destination, interface device for viewer, and computer program

Also Published As

Publication number Publication date
WO2020246237A1 (en) 2020-12-10
JP2022066293A (en) 2022-04-28
JP7229601B2 (en) 2023-02-28
JP2023054039A (en) 2023-04-13

Similar Documents

Publication Publication Date Title
US20200245036A1 (en) Method, system and computer program product for obtaining and displaying supplemental data about a displayed movie, show, event or video game
US10235025B2 (en) Various systems and methods for expressing an opinion
US7933809B2 (en) Method, medium, and system for automatically embedding information concerning items appearing in video using RFID tags
US20180152767A1 (en) Providing related objects during playback of video data
CN103797812B (en) Band comments on moving image generating means and with comment moving image generation method
US10650442B2 (en) Systems and methods for presentation and analysis of media content
CN109391834B (en) Playing processing method, device, equipment and storage medium
US20110262103A1 (en) Systems and methods for updating video content with linked tagging information
US20110288914A1 (en) Method and system for providing advertising in a virtual environment
WO2021246498A1 (en) Live broadcasting system
CN115151938A (en) System for identifying products within audiovisual content
KR20120082390A (en) Ecosystem for smart content tagging and interaction
CN106233734A (en) Using live TV stream as ad serving
KR101670824B1 (en) Method for Intermediating Advertisement Director and Advertiser
US20160307599A1 (en) Methods and Systems for Creating, Combining, and Sharing Time-Constrained Videos
WO2010084585A1 (en) Information guidance system
JP2010098730A (en) Link information providing apparatus, display device, system, method, program, recording medium, and link information transmitting/receiving system
US10204371B2 (en) Method and system to conduct electronic commerce through motion pictures or life performance events
JP6473262B1 (en) Distribution server, distribution program, and terminal
KR20160027486A (en) Apparatus and method of providing advertisement, and apparatus and method of displaying advertisement
JP7229601B2 (en) Information processing system
JP2013069106A (en) Electronic content providing system, electronic content providing server, electronic content browsing terminal device, and program
KR101181732B1 (en) Method for generating video markup data based on video fingerprint data and method and system for providing information using the same
JP2002150123A (en) Device for inputting condition in requesting cosponsor, server for mediating cosponsor transaction, and device for receiving request for cosponsor
KR20100118896A (en) Method and apparatus for providing information of objects in contents and contents based on the object

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210209

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210209

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211018

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211130