JP2010200170A - Image information providing system, image information providing method, and image information providing program - Google Patents

Image information providing system, image information providing method, and image information providing program Download PDF

Info

Publication number
JP2010200170A
JP2010200170A JP2009044780A JP2009044780A JP2010200170A JP 2010200170 A JP2010200170 A JP 2010200170A JP 2009044780 A JP2009044780 A JP 2009044780A JP 2009044780 A JP2009044780 A JP 2009044780A JP 2010200170 A JP2010200170 A JP 2010200170A
Authority
JP
Japan
Prior art keywords
video
information
image
program
video object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009044780A
Other languages
Japanese (ja)
Inventor
Aya Furusaki
彩 古崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2009044780A priority Critical patent/JP2010200170A/en
Publication of JP2010200170A publication Critical patent/JP2010200170A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To promptly provide information related to a video object displayed on a screen in accordance with a request. <P>SOLUTION: An image information providing system includes: a television video receiving terminal 4 including an output screen for displaying a broadcasted program video image and a designation means for designating a video object included in a program video image and displayed on the output screen; a database server 1 for storing the broadcasted program video image; a database server 3 storing video object information preset correspondingly to the video object; and a video object specification device server 2 for specifying the designated video object by referring to the database server 1 based on time information at the time when the television video receiving terminal 4 designates the video object and designated position information indicating a designated position in the output screen, acquiring from the database server 3 the video object information related to the specified video object, and providing the video object information to the television video receiving terminal 4. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、デジタル放送サービスにおける映像受信端末装置の技術に関する。   The present invention relates to a technology of a video receiving terminal device in a digital broadcasting service.

商品の広告および宣伝は、店頭、街頭ポスター、インターネット(Web広告など)、新聞や雑誌、テレビCM、テレビショッピングなどを通して行われていた。
しかしながら、店頭には、もともとその商品に興味があるユーザ(客)しか訪れず、大衆への広い宣伝効果という意味では効果が薄く、有効な宣伝手法であるとはいえなかった。
Product advertisements and advertisements have been made through stores, street posters, the Internet (Web advertisements, etc.), newspapers and magazines, TV commercials, TV shopping, and the like.
However, only users (customers) who are interested in the product originally visited the storefront, and it was not effective in the sense of a wide advertising effect to the public, and could not be said to be an effective advertising technique.

また、街頭ポスターや新聞、雑誌、テレビCMによる商品広告では、大衆が自分の興味ある商品の情報を取得した場合でも、即座に商品の購入することができないため、ユーザの興味を持続させることが難しかった。
インターネットのWeb広告では、ユーザがそのまま商品を購入することが可能だが、これに関しても、もともとその商品に興味あるユーザのみがWeb広告にアクセスしている場合が多いため、大衆への広い宣伝効果という意味で効果が低いと考えられる。
In addition, in product advertisements by street posters, newspapers, magazines, and TV commercials, even if the masses acquire information on products they are interested in, it is not possible to immediately purchase products, so that the user's interest can be sustained. was difficult.
Internet web advertisements allow users to purchase merchandise as is, but in this regard, only users who are originally interested in the merchandise often access web advertisements, which means a wide advertising effect to the public. The effect is considered to be low.

また、テレビ番組そのものを広告として用いたテレビショッピングに関しても、特定の商品の宣伝を行うことは可能であるが、宣伝対象は番組制作時に設定された商品に限られる。   In addition, regarding TV shopping using the TV program itself as an advertisement, it is possible to advertise a specific product, but the target of promotion is limited to the product set at the time of program production.

これに対する関連技術として、テレビ番組内に表示される映像物(オブジェクト)それぞれに対応させたオブジェクト情報を提供する手法が開示されている(特許文献1)。
また、関連技術として、番組放送中に映し出された商品を特定しておき、番組放送終了後の任意の時点でその商品についての商品情報を提示する受信端末装置が開示されている(特許文献2)。
As a related technique for this, a method of providing object information corresponding to each video object (object) displayed in a television program is disclosed (Patent Document 1).
As a related technique, a receiving terminal device is disclosed that identifies a product displayed during a program broadcast and presents product information about the product at an arbitrary time after the program broadcast ends (Patent Document 2). ).

2005−244878公報2005-244878 WO00−28737WO00-28737

しかしながら、上記特許文献2に開示された関連技術では、番組制作時に映像物情報と番組内に表示される映像物とをリンクさせる必要があり、作業工数が膨大となってしまう不都合がある。
このため、特定のオブジェクトの宣伝しか行うことができず、ユーザが興味を持った商品(映像物)単体の情報取得や購入を行うことができないため、効率的に宣伝を行うことが困難であった。
また、上記特許文献2に開示された関連技術でも、任意の商品情報(オブジェクト情報)を提供する場合に、膨大な量のデータから指定された商品情報の検索を行う必要があり、検索対象の情報を特定するのに多大な時間がかかってしまったり、検索対象の商品を絞り込むことができなかったりする不都合が生じ得る。
However, in the related technique disclosed in Patent Document 2, it is necessary to link the video material information and the video material displayed in the program at the time of program production, and there is a disadvantage that the work man-hour becomes enormous.
For this reason, it is only possible to advertise specific objects, and it is difficult to efficiently advertise because it is not possible to acquire or purchase information on a single product (video object) that the user is interested in. It was.
Also, in the related technology disclosed in Patent Document 2, when providing arbitrary product information (object information), it is necessary to search for specified product information from an enormous amount of data. Inconveniently, it takes a long time to specify information, or it is not possible to narrow down products to be searched.

[発明の目的]
本発明は、上記関連技術の有する不都合を改善し、テレビ番組放送画面に映し出された映像物にかかる情報をテレビ視聴者の要求に応じて迅速に提供し得る画像情報提供システム、画像情報提供方法、および画像情報提供プログラムを提供することを、その目的とする。
[Object of invention]
The present invention provides an image information providing system and an image information providing method capable of improving the inconveniences of the related technology and quickly providing information on a video object projected on a television program broadcast screen in response to a request from a television viewer. It is an object of the present invention to provide an image information providing program.

上記目的を達成するために、本発明に係る画像情報提供システムは、放送された番組映像を表示する出力画面と前記出力画面に表示された映像物を指定する指定手段とを有する映像受信端末と、前記放送された番組映像を記憶する番組映像記憶装置と、前記各映像物に対応して予め設定された映像物情報を記憶した映像物情報記憶装置とを備えた画像情報提供システムであって、前記映像受信端末が前記映像物を指定したときの時刻を示す時刻情報と前記出力画面内における指定位置を示す指定位置情報とを取得すると共に、前記時刻情報および指定位置情報に基づき前記番組映像記憶装置に記憶された番組映像を参照し前記指定された映像物を特定する映像物特定装置を備え、前記映像物特定装置が、前記映像物情報記憶装置から前記特定された映像物にかかる映像物情報を取得し前記映像受信端末に提供する映像物情報提供手段を備えた構成をとっている。   To achieve the above object, an image information providing system according to the present invention comprises a video receiving terminal having an output screen for displaying a broadcast program video, and a designation means for designating a video object displayed on the output screen; An image information providing system comprising: a program video storage device for storing the broadcast program video; and a video product information storage device for storing video product information set in advance corresponding to each video product. Obtaining the time information indicating the time when the video receiving terminal has specified the video object and the specified position information indicating the specified position in the output screen, and the program video based on the time information and the specified position information A video object specifying device for specifying the specified video object with reference to a program video stored in a storage device, wherein the video object specifying device is identified from the video object information storage device; It has taken a configuration in which a video object information providing means for providing obtains the video object information according to the image object that is in the image receiving terminal.

又、本発明にかかる画像情報提供方法は、放送された番組映像を表示する出力画面と前記出力画面に表示された映像物を指定する指定手段とを有する映像受信端末と、前記番組映像を記憶する番組映像記憶装置と、前記各映像物に対応して予め設定された映像物情報を記憶した映像物情報記憶装置とを備えた画像情報提供システムにあって、前記映像受信端末からの要求に応じて前記映像物情報を提供する画像情報提供方法であって、前記映像受信端末が前記映像物を指定したときの時刻を示す時刻情報と前記出力画面内で指定された位置を示す指定位置情報とを取得し、前記時刻情報および指定位置情報に基づき前記番組映像記憶装置に記憶された番組映像を参照し前記指定された映像物を特定し、前記映像物情報記憶装置から前記特定された映像物にかかる映像物情報を取得し、当該映像物情報を前記映像受信端末に対して送信することを特徴としている。   According to another aspect of the present invention, there is provided an image information providing method, a video receiving terminal having an output screen for displaying a broadcast program video and a designating means for designating a video object displayed on the output screen, and storing the program video. An image information providing system comprising a program video storage device and a video product information storage device storing video product information set in advance corresponding to each video product, in response to a request from the video receiving terminal According to another aspect of the present invention, there is provided an image information providing method for providing the video object information, the time information indicating the time when the video receiving terminal specifies the video object and the specified position information indicating the position specified in the output screen. And specifying the specified video object with reference to the program video stored in the program video storage device based on the time information and the specified position information, and specifying the specified video object from the video object information storage device. Acquiring the image object information according to the image object, and the image object information and transmits to the image receiving terminal.

更に、本発明にかかる画像情報提供プログラムは、放送された番組映像を表示する出力画面と前記出力画面に表示された映像物を指定する指定手段とを有する映像受信端末と、前記番組映像を記憶する番組映像記憶装置と、前記各映像物に対応して予め設定された映像物情報を記憶した映像物情報記憶装置とを備えた画像情報提供システムにあって、前記映像受信端末からの要求に応じて前記映像物情報を提供する画像情報提供プログラムであって、前記映像受信端末が前記映像物を指定したときの時刻を示す時刻情報と前記出力画面内で指定された位置を示す指定位置情報とに基づき前記番組映像記憶装置を参照して前記指定された映像物を特定する指定映像物特定機能、前記映像物情報記憶装置から前記特定された映像物にかかる映像物情報を取得する処理を行う映像物情報取得機能とを、前記映像物情報記憶装置に予め併設して設けられたコンピュータに実行させることを特徴としている。   Furthermore, an image information providing program according to the present invention stores a video receiving terminal having an output screen for displaying a broadcast program video, a designation means for designating a video object displayed on the output screen, and the program video. An image information providing system comprising a program video storage device and a video product information storage device storing video product information set in advance corresponding to each video product, in response to a request from the video receiving terminal. An image information providing program for providing the video object information according to the time information indicating the time when the video receiving terminal specifies the video object and the specified position information indicating the position specified in the output screen. A specified video object specifying function for specifying the specified video object with reference to the program video storage device, and a video object related to the specified video object from the video object information storage device The video object information acquiring function of performing processing for obtaining distribution is characterized by causing a computer to execute provided in advance parallel in the video object information storage unit.

本発明は、以上のように構成され機能するので、これによると、出力画面内の映像物が指定された時刻を示す時刻情報と出力画面上の指定位置を示す位置情報に基づき指定された映像物を特定する手段と、特定された映像物にかかる映像物情報を取得する手段を備えた構成としたことにより、映像受信端末により任意に指定されたテレビ番組放送画面上の映像物にかかる情報を要求に応じて正確、且つ迅速に特定し提供することができる画像情報提供システム、画像情報提供方法、および画像情報提供プログラムを提供することができる。   Since the present invention is configured and functions as described above, according to this, the image specified based on the time information indicating the specified time of the image object in the output screen and the position information indicating the specified position on the output screen. Information related to the video object on the TV program broadcast screen arbitrarily designated by the video receiving terminal by means of a configuration comprising means for identifying the object and means for acquiring the video object information relating to the specified video object It is possible to provide an image information providing system, an image information providing method, and an image information providing program that can specify and provide the information accurately and quickly upon request.

本発明による画像情報提供システムの一実施形態を示す概略構成図である。It is a schematic block diagram which shows one Embodiment of the image information provision system by this invention. 図1に開示した画像情報提供システムにおける、表示内容の一例を示す説明図である。It is explanatory drawing which shows an example of the display content in the image information provision system disclosed in FIG. 図1に開示した画像情報提供システムにおけるデータベース3のデータ構造の一例を示す説明図である。It is explanatory drawing which shows an example of the data structure of the database 3 in the image information provision system disclosed in FIG. 図1に開示した画像情報提供システムにおけるオブジェクト抽出および選定の手法の一例を示す説明図である。It is explanatory drawing which shows an example of the method of the object extraction and selection in the image information provision system disclosed in FIG. 図1に開示した画像情報提供システムにおけるオブジェクト抽出および選定の手法の一例を示す説明図である。It is explanatory drawing which shows an example of the method of the object extraction and selection in the image information provision system disclosed in FIG. 図1に開示した画像情報提供システムにおける全体的な動作を示すシーケンスチャートである。It is a sequence chart which shows the whole operation | movement in the image information provision system disclosed in FIG.

[実施形態]
次に、本発明の実施形態について、その基本的構成内容を説明する。
[Embodiment]
Next, the basic configuration content of the embodiment of the present invention will be described.

本実施形態である画像情報提供システムは、図1に示すように、テレビ番組映像を配信する基地局5と、基地局5から送られたテレビ映像情報を記憶保持するデータベースサーバ(番組映像記憶装置)1と、データベースサーバ1に記憶されたテレビ映像情報から、ネットワークを介して送り込まれたリクエストに応じて画像情報(画像フレーム)を取得するサーバ(映像物特定装置)2と、テレビ映像情報に含まれる映像物に対応して記憶された映像物情報を記憶するデータベース(映像物情報記憶装置)3と、基地局5から放送されたテレビ映像情報を出力表示すると共に、サーバ2に対して映像物情報の要求(リクエスト)を行うインターネット接続可能なテレビ映像受信端末4を備えた構成となっている。   As shown in FIG. 1, an image information providing system according to the present embodiment includes a base station 5 that distributes TV program video, and a database server (program video storage device) that stores and holds TV video information transmitted from the base station 5. ) 1, a server (video object specifying device) 2 for acquiring image information (image frame) in response to a request sent via the network from the TV video information stored in the database server 1, and TV video information A database (video object information storage device) 3 for storing video object information stored corresponding to the included video object, and TV video information broadcast from the base station 5 are output and displayed, and the video is displayed on the server 2. It is configured to include a television image receiving terminal 4 that can be connected to the Internet for requesting physical information.

これにより、ユーザは、テレビ映像受信端末4を利用して、番組閲覧中に選択指定した任意の映像物にかかる情報(オブジェクト情報)を取得することができる。   As a result, the user can acquire information (object information) related to an arbitrary video object selected and designated during viewing of the program by using the television video receiving terminal 4.

また、本実施形態で示された2つのデータベースサーバ(データベースサーバ1、3)を1つに統合することも可能である。また、アプリケーション兼プレゼンテーションサーバであるサーバ2も合わせたサーバを備えた構成としてもよい。更に、各家庭等に設けられたホームサーバをデータベースサーバ1やサーバ2として活用する構成としてもよい。   It is also possible to integrate the two database servers (database servers 1 and 3) shown in this embodiment into one. Further, the server may also be configured to include the server 2 that is an application and presentation server. Furthermore, it is good also as a structure which utilizes the home server provided in each household etc. as the database server 1 or the server 2. FIG.

尚、データベースサーバ1、サーバ2、データベースサーバ3、およびテレビ映像受信端末4はそれぞれ、ハードディスクドライブ(HD)、DVD−RAMなどの大容量記録媒体、およびRAM、およびROMと、CPU(Central Processing Unit)などのいわゆる中央処理演算装置とを備え、この中央演算処理装置が予め設定されたプログラムに基づく処理を行うことにより、各種動作機能を実現する。   The database server 1, the server 2, the database server 3, and the television video receiving terminal 4 are respectively a large-capacity recording medium such as a hard disk drive (HD) and a DVD-RAM, a RAM and a ROM, and a CPU (Central Processing Unit). ) And the like, and the central processing unit performs various processing functions by performing processing based on a preset program.

サーバ2は、テレビ映像受信端末4から送り込まれたユーザ情報に基づきユーザ認証を行う(ユーザ認証機能)と共に、テレビ映像受信端末4に対して、インターフェイスを提供するインタフェース(IF)提供機能と備えている。   The server 2 includes user authentication based on user information sent from the TV video receiving terminal 4 (user authentication function) and an interface (IF) providing function for providing an interface to the TV video receiving terminal 4. Yes.

ただし、この際、実際のデータのやりとりはテレビ映像受信端末とサーバ2の間で行われず、テレビ映像受信端末4はサーバ2からプレゼンテーション情報を受信するものとする。   However, at this time, actual data exchange is not performed between the television video receiving terminal and the server 2, and the television video receiving terminal 4 receives presentation information from the server 2.

尚、サーバ2からテレビ映像受信端末4に対しては実際のデータ情報は送信されず、テレビ映像受信端末4は、シンクライアントとして、サーバ2からのプレゼンテーション情報のみ受信し、このプレゼンテーション情報に基づく画面情報を出力表示する。
これにより、テレビ映像受信端末4が基地局5から受信したテレビ映像は、サーバ2によって提供されるインターフェイス上に表示される(図2)。
The actual data information is not transmitted from the server 2 to the television video receiving terminal 4, and the television video receiving terminal 4 receives only presentation information from the server 2 as a thin client, and a screen based on this presentation information. Output and display information.
Thereby, the television image received by the television image receiving terminal 4 from the base station 5 is displayed on the interface provided by the server 2 (FIG. 2).

また、サーバ2は、テレビ映像受信端末4から受信した年月日情報、時間情報、チャンネル情報に基づき、データベースサーバ1から該当する番組の該当する時間帯のフレーム画像(以下「フレーム」という)を取得するフレーム画像特定取得機能を備えている。
尚、このフレームとは映像(動画)を構成するフレーム画像群を示し、30フレームで1秒分の動画が構成されているものとする。また、サーバ2からデータベースサーバ1に対する一度の要求に対して取得するフレーム数は、デフォルトで、時間情報±1.5秒分の計3秒、90フレームとする。
Further, the server 2 obtains a frame image (hereinafter referred to as “frame”) of the corresponding program from the database server 1 based on the date information, time information, and channel information received from the television video receiving terminal 4. A frame image specific acquisition function is provided.
Note that this frame indicates a frame image group constituting a video (moving image), and it is assumed that a moving image for one second is composed of 30 frames. In addition, the number of frames acquired for a single request from the server 2 to the database server 1 is, by default, 90 frames for a total of 3 seconds corresponding to time information ± 1.5 seconds.

更に、サーバ2は、テレビ映像受信端末4から受信した位置時間情報に基づきデータベースサーバ1から取得したフレームのトリミングを行いフレーム画像の一部を切り出す画像切出し機能を有する。
これにより、比較する画像の範囲を切り出された画像の範囲内に限定することができ、画像識別やオブジェクト抽出の精度を向上させると共に、処理を迅速化することができる。
Further, the server 2 has an image cutout function for trimming a frame acquired from the database server 1 based on the position time information received from the television video receiving terminal 4 and cutting out a part of the frame image.
Thereby, the range of the image to be compared can be limited to the range of the clipped image, the accuracy of image identification and object extraction can be improved, and the processing can be speeded up.

尚、本実施形態のサーバ2では、図4に示すように、テレビ映像受信装置4から受信した位置情報(X値,Y値)を基点に、X方向に±0.15、Y方向に±0.1の領域で上記画像切出し機能を実施するものとする。このトリミング操作は取得した全フレームそれぞれで実行されるものとする。   In the server 2 of this embodiment, as shown in FIG. 4, ± 0.15 in the X direction and ± 0.1 in the Y direction based on the position information (X value, Y value) received from the television image receiving device 4. It is assumed that the image cutout function is performed in an area of 0.1. It is assumed that this trimming operation is executed for each acquired frame.

更に、サーバ2は、トリミング処理済みのフレームそれぞれに対して順次1から90まで番号付けを行い、画像の比較を行う画像比較処理機能と備えている。尚、この画像の比較処理は、図4に示すように、上記番号付けされた番号が隣接するフレーム間で実行されるものとする。   Further, the server 2 is provided with an image comparison processing function for sequentially numbering 1 to 90 for each trimmed frame and comparing the images. Note that this image comparison processing is executed between frames adjacent to the numbered numbers as shown in FIG.

また、サーバ2は、候補として保存されたフレームのトリミング前のフレームを取得し、背景とオブジェクトの判別を行い、トリミング範囲(位置情報を基点としたX±0.15かつY±0.1の画像)内に含まれるオブジェクトを候補オブジェクトとして抽出する候補オブジェクト抽出機能を備えている。   Further, the server 2 acquires a frame before trimming of a frame stored as a candidate, determines a background and an object, and performs a trimming range (X ± 0.15 and Y ± 0.1 based on position information). A candidate object extracting function for extracting an object included in (image) as a candidate object.

更に、サーバ2は、候補として抽出されたオブジェクト(候補オブジェクト)の色情報と特徴情報を算出する色特徴情報算出機能を備えている。この算出は、サーバ2が予め備えた既存のオブジェクト識別アルゴリズムを利用して行われるものとする。また、ここで算出された色情報と特徴情報は数値情報として保存されるものとする。
更に、サーバ2のオブジェクト識別アルゴリズムを用いたオブジェクト識別手法を活用することによって、識別対象となるオブジェクトの形が変形していた場合でも、オブジェクトの識別は可能であるものとする。
Further, the server 2 has a color feature information calculation function for calculating color information and feature information of an object (candidate object) extracted as a candidate. This calculation is performed using an existing object identification algorithm provided in advance in the server 2. The color information and feature information calculated here are stored as numerical information.
Furthermore, by using an object identification method using the object identification algorithm of the server 2, it is possible to identify an object even when the shape of the object to be identified is deformed.

この場合、データベースサーバ3にデータを予め登録しておくことにより、動物や植物といった企業が提供していないオブジェクトにかかるオブジェクト情報についても、本発明によって提供されるサービスを実現することができる。
尚、ある一定の閾値以上で近似した色情報と特徴情報を有する異なる複数のオブジェクトが存在した場合は、同一のオブジェクトとみなすものとする。
In this case, by registering data in the database server 3 in advance, it is possible to realize the service provided by the present invention for object information related to an object that is not provided by a company such as an animal or a plant.
When there are a plurality of different objects having color information and feature information approximated by a certain threshold value or more, they are regarded as the same object.

また、サーバ2は、テレビ映像受信端末4から受信したオブジェクト指定の行われた年月日情報、時間情報(時刻情報)、チャンネル情報をキーとした番組割り出し要求をデータベースサーバ3に送信する番組割出要求送信機能を有する。   In addition, the server 2 sends a program allocation request to the database server 3 by using the year / month / day information, time information (time information), and channel information specified by the object received from the TV video receiving terminal 4 as keys. It has an outgoing request transmission function.

更に、サーバ2は、データベースサーバ3から送り込まれた照合結果(オブジェクト候補リスト)を、リクエスト結果としてテレビ映像受信端末4に対して送信するリクエスト結果送信機能を備えている。   Further, the server 2 has a request result transmission function for transmitting the collation result (object candidate list) sent from the database server 3 to the television image receiving terminal 4 as a request result.

これにより、番組閲覧中のユーザは、インターネット接続可能なテレビ映像受信端末を利用して、テレビ画面に表示された任意のオブジェクト(映像物)を選択指定し、サーバ側で選択指定されたオブジェクトに係るオブジェクト情報を特定して、このオブジェクト情報をテレビ画面に出力表示させることができる。   As a result, the user viewing the program can select and specify an arbitrary object (video object) displayed on the TV screen using a TV image receiving terminal that can be connected to the Internet, and the object selected and specified on the server side can be selected. Such object information can be specified, and this object information can be output and displayed on the television screen.

データベースサーバ3は、この要求に基づき、テレビ映像受信端末4でオブジェクト指定されたオブジェクト映像を含む番組の割り出しを行う(番組割り出し機能)。     Based on this request, the database server 3 calculates a program including the object video designated by the TV video receiving terminal 4 (program indexing function).

ここで、データベースサーバ3には、図5に示すように、割り出された番組(ここでは番組Aとする)に対応してオブジェクト提供会社(1、2)やスポンサー企業(1)にかかる情報を示す提供企業情報が記憶されている。このため、データベースサーバ3は、番組Aに対応して記憶された提供企業情報のオブジェクト情報をオブジェクト情報照合の対象とする。また、番組Aに対応して記憶されたオブジェクト提供会社1,2、スポンサー企業1のオブジェクト(以下「企業オブジェクト」という)のオブジェクト情報を、オブジェクト情報照合の対象とする。   Here, in the database server 3, as shown in FIG. 5, information relating to the object providing company (1, 2) or sponsor company (1) corresponding to the determined program (here, program A) is provided. Is provided. For this reason, the database server 3 sets the object information of the provider company information stored corresponding to the program A as the object information collation target. Further, object information of the objects of the object provider companies 1 and 2 and the sponsor company 1 (hereinafter referred to as “corporate object”) stored corresponding to the program A is set as the object information collation target.

尚、オブジェクト情報にはデータベースサーバ3に保存されたオブジェクトの画像、商品名、製造元、定価、オブジェクトの特徴を示す一口メモ、素材情報、カテゴリ情報が含まれるものとする(図3)。これら情報は、オブジェクト提供会社またはスポンサー企業または第三の代行機関によって予めデータベースサーバ3に入力されていてもよい。   The object information includes an image of the object stored in the database server 3, a product name, a manufacturer, a list price, a bite memo indicating the characteristics of the object, material information, and category information (FIG. 3). These pieces of information may be input to the database server 3 in advance by an object provider company, a sponsor company, or a third agency.

更に、データベースサーバ3は、サーバ2が抽出した候補オブジェクトの色情報および特徴情報の数値データに基づき、予め設定された色情報および特徴情報が近似する企業オブジェクトを抽出して、優先的に照合処理を行う特徴情報照合機能を備えている(図6)。   Further, the database server 3 extracts a corporate object that approximates preset color information and feature information based on the color information and feature information of the candidate object extracted by the server 2, and preferentially performs a matching process. Is provided with a feature information matching function (FIG. 6).

尚、データベースサーバ3は、上記照合処理を行う対象の企業オブジェクトを、色情報と特徴情報の値が予め設定された一定値以上を示す、つまり色情報および特徴情報が近似するオブジェクトに限定して行う設定であってもよい。
これにより、例えば、オブジェクトの照合処理に対する処理負荷が高い、処理性能が低いサーバにおいても、その処理性能に応じた照合処理を実行させることができる。
The database server 3 limits the target corporate object to be subjected to the above collation processing to objects whose color information and feature information values are equal to or greater than a predetermined value, that is, the color information and feature information approximate. The setting to perform may be sufficient.
Thereby, for example, even in a server with a high processing load for object collation processing and low processing performance, collation processing according to the processing performance can be executed.

また、データベースサーバ3は、構造抽出法など既存のアルゴリズムを用いて、オブジェクトの照合を行うものとする。この際、サーバ2が抽出した候補オブジェクトの画像とデータベースサーバ3に予め保存された企業オブジェクトの画像との照合を行う。
ここで、照合結果はスコアとして保存される。スコアが高いほど、照合したオブジェクト同士が似ており、同一オブジェクトである可能性が高いことを示している。最高スコアは100、最低スコアは0とする。
In addition, the database server 3 performs object matching using an existing algorithm such as a structure extraction method. At this time, the image of the candidate object extracted by the server 2 is collated with the image of the corporate object stored in advance in the database server 3.
Here, the collation result is stored as a score. The higher the score, the more similar the collated objects are, indicating that there is a high possibility that they are the same object. The highest score is 100, and the lowest score is 0.

更に、データベースサーバ3は、上記照合結果に基き、予め設定された一定の値以上のスコアのオブジェクトを示す情報を、オブジェクト情報と共にオブジェクト候補リストとしてサーバ2に対して送信する候補リスト送信機能を備えている。   Further, the database server 3 has a candidate list transmission function for transmitting information indicating an object having a score equal to or higher than a predetermined value based on the collation result to the server 2 as an object candidate list together with the object information. ing.

また、データベースサーバ3に、例えば、動物や植物といったオブジェクトにかかるオブジェクト情報を記憶した構成としてもよい。
これにより、企業が提供していないオブジェクトにかかるオブジェクト情報をテレビ映像受信端末に提供することができる。
The database server 3 may be configured to store object information related to objects such as animals and plants.
Thereby, the object information concerning the object which is not provided by the company can be provided to the television video receiving terminal.

テレビ映像受信端末4は、インターフェイス上に表示されたテレビ番組映像中における映像物(以下「オブジェクト」という)が指定された場合に、指定された時点の年月日情報、時間情報、チャンネル情報と、画面上における指定部位を示す位置情報を含む位置時間情報がオブジェクト要求として、インターネットを介してサーバ2に送信する。   When the video object (hereinafter referred to as “object”) in the TV program video displayed on the interface is specified, the TV video receiving terminal 4 includes date information, time information, channel information, and channel information at the specified time. The position time information including the position information indicating the designated part on the screen is transmitted as an object request to the server 2 via the Internet.

ここで、上記位置情報は、画面に対し横方向をX、縦方向をYとしたXとYの2つの値で算出される。テレビ映像画面の左下末端を原点0、横方向全体の長さを1、縦方向全体の長さを1として、X値とY値が算出されるものとする。
これにより、例えば、テレビ映像受信端末4に表示されるテレビ映像画面の横幅もしくは縦幅が変更された場合であっても、その変更に依存することなく、ユーザが接触したオブジェクトの位置情報を正確にサーバ2に送信することが可能となる。
Here, the position information is calculated with two values of X and Y, where X is the horizontal direction and Y is the vertical direction with respect to the screen. It is assumed that the X value and the Y value are calculated with the lower left end of the television image screen as the origin 0, the entire length in the horizontal direction as 1, and the length in the entire vertical direction as 1.
Thereby, for example, even when the horizontal width or vertical width of the TV video screen displayed on the TV video receiving terminal 4 is changed, the position information of the object touched by the user can be accurately determined without depending on the change. Can be transmitted to the server 2.

尚、本実施形態では、テレビ映像受信装置4の画面上を指で直接に接触する(タッチする)ことにより、オブジェクト指示(指定)を行うタッチパネル方式が予め備えられたテレビ映像受信端末4について説明しているが、テレビ映像受信端末4は、専用のタッチペンなどを用いて指定(オブジェクト指定)を行う設定であってもよい。   In the present embodiment, the TV video receiving terminal 4 provided in advance with a touch panel method for instructing (specifying) an object by directly touching (touching) the screen of the TV video receiving device 4 with a finger. However, the television video receiving terminal 4 may be set to perform designation (object designation) using a dedicated touch pen or the like.

また、テレビ映像受信端末4は、インターネット接続が可能なテレビ映像受信端末であればよく、インターネット接続が可能なテレビ、デスクトップ型パソコン、ノートパソコン、モバイルPC、携帯電話、ゲーム機器、カーナビ等であってもよい。   The TV video receiving terminal 4 may be any TV video receiving terminal that can be connected to the Internet, and may be a TV that can be connected to the Internet, a desktop personal computer, a notebook computer, a mobile PC, a mobile phone, a game machine, a car navigation system, or the like. May be.

また、NGN(Next Generation Network)によって、放送網、IPデータ網、固定電話網、携帯電話網が1つのIPネットワークに統合されたネットワーク環境では、このネットワーク環境に接続できるテレビ映像受信端末で本発明を利用できるものとする。   In a network environment in which a broadcast network, an IP data network, a fixed telephone network, and a mobile phone network are integrated into one IP network by NGN (Next Generation Network), the present invention is a television video receiving terminal that can be connected to this network environment. Can be used.

取得するフレーム数やトリミング範囲はデフォルト値が設定してあるが、装置による学習やユーザの指定によってこれらの値は変更可能であるものとする。   Although default values are set for the number of frames to be acquired and the trimming range, it is assumed that these values can be changed by learning by the apparatus or user designation.

また、上記実施形態に、さらに商品購入のためのシステムを付加することで選択したオブジェクトの購入が可能である。
具体的には、サーバ2とクレジット会社や商品取扱い会社のサーバを連携させ、商品の注文発注が行えるようにする。またこの場合は、商品取扱い会社のサーバから在庫数を取得し、テレビ映像受信端末の商品購入画面に商品の在庫数を表示できるものとする。この商品の在庫数はおおよその在庫数でも、「在庫有・在庫少数・在庫無」といった表記でも構わないものとする。
In addition, the selected object can be purchased by adding a system for purchasing products to the above embodiment.
Specifically, the server 2 and the server of the credit company or the product handling company are linked to enable the ordering of products. In this case, it is also possible to acquire the inventory quantity from the server of the merchandise handling company and display the inventory quantity of the merchandise on the merchandise purchase screen of the TV video receiving terminal. The stock quantity of this product may be an approximate stock quantity or a description such as “stocked, few stocks, no stock”.

ユーザが、どのオブジェクト(商品)情報にアクセスしたか、どの商品を購入したかを、ユーザの匿名アカウント情報(年齢、性別、おおまかな所在地といったユーザを特定しない程度の情報)に紐付けて保存し、スポンサー企業に提供することも可能とする。個人情報保護の観点から、無断でこれらの情報をスポンサー企業に提供することはできないため、これらの情報をスポンサー企業に提供する際には、予めユーザの同意を得るものとする。   Which object (product) information the user has accessed and which product has been purchased is linked to the user's anonymous account information (information that does not specify the user such as age, gender, and approximate location) and saved. It can also be provided to sponsor companies. From the viewpoint of protecting personal information, it is impossible to provide such information to the sponsor company without permission. Therefore, when providing such information to the sponsor company, the consent of the user is obtained in advance.

また、このようなアカウント情報を提供する際には、データそのものをスポンサー企業に提供するのではなく、どのような層のユーザがどのような商品に興味があるかの分析結果だけをスポンサー企業に提供する。この場合はサーバ2にデータ分析ツールを搭載した構成としてもよい。   Moreover, when providing such account information, the data itself is not provided to the sponsor company, but only the analysis result of what kind of user is interested in what product is sent to the sponsor company. provide. In this case, the server 2 may be configured to include a data analysis tool.

これにより、サーバ2に予め備えたれた既存のオブジェクト抽出アルゴリズムを用いたオブジェクト識別方法を活用することにより、識別対象となるオブジェクトの形や色が変形していた場合でも、オブジェクトの識別、特定を行うことが可能となる。
[実施形態の動作説明]
次に、本実施形態の全体の動作について、その内容を概説する。
まず、ユーザが、テレビ映像受信端末4の画面に表示された所望のオブジェクトを選択指定し、サーバ2が、前記映像受信端末が前記映像物を指定したときの時刻を示す時刻情報と前記出力画面内で指定された位置を示す指定位置情報とを取得し、時刻情報および指定位置情報に基づき前記番組映像記憶装置に記憶された番組映像を参照し前記指定された映像物を特定する(指定映像物特定工程)。
This makes it possible to identify and specify an object even when the shape or color of the object to be identified is deformed by utilizing an object identification method using an existing object extraction algorithm provided in the server 2 in advance. Can be done.
[Description of Operation of Embodiment]
Next, the contents of the overall operation of this embodiment will be outlined.
First, the user selects and designates a desired object displayed on the screen of the television video receiving terminal 4, and the server 2 displays time information indicating the time when the video receiving terminal designates the video object and the output screen. Specified position information indicating the position specified in the image, and specifying the specified video object with reference to the program video stored in the program video storage device based on the time information and the specified position information (specified video Product identification process).

これにより、サーバ2は、ユーザが接触したテレビ画面上における位置、および時間(タイミング)に基づいて、放送されたテレビ映像が記憶されたデータベースサーバ1、およびオブジェクトにかかる画像や情報が記憶されたデータベースサーバ3を参照して、選択指定されたオブジェクトを特定することができる。
次いで、サーバ2は、映像物情報記憶装置(データベースサーバ1)から特定された映像物にかかる映像物情報を取得し(映像物情報取得工程)、この映像物情報を映像受信端末に対して送信する。
As a result, the server 2 stores the image and information related to the object, and the database server 1 storing the broadcast TV video, based on the position on the TV screen that the user touches and the time (timing). With reference to the database server 3, the selected and designated object can be specified.
Next, the server 2 acquires the video object information related to the specified video object from the video object information storage device (database server 1) (video object information acquisition step), and transmits this video object information to the video receiving terminal. To do.

これにより、サーバ2は、リクエスト結果として、ユーザにより選択してされたオブジェクトにかかる情報(オブジェクト情報)をテレビ映像受信端末4に提供することができ、ユーザは任意に選択したオブジェクトのオブジェクト情報を閲覧することができる。   As a result, the server 2 can provide the television video receiving terminal 4 with information (object information) related to the object selected by the user as a request result, and the user can obtain object information of the arbitrarily selected object. You can browse.

尚、ここで、上記指定映像物特定工程、および映像物情報取得工程については、その実行内容をプログラム化し、コンピュータに実行させる構成としてもよい。   In addition, about the said designation | designated image thing identification process and the image thing information acquisition process, it is good also as a structure which programs the execution content and makes a computer perform.

次に、本実施形態における画像情報取得システムの動作について、図6のシーケンスチャートに基づき詳説する。   Next, the operation of the image information acquisition system in this embodiment will be described in detail based on the sequence chart of FIG.

まず、ユーザはテレビ映像受信端末4からインターネットを介してサーバ2にアクセス接続を行い、アカウントの認証を受ける。
サーバ2は、ユーザアカウントの認証を行い、ユーザのテレビ映像受信端末4に対して映像出力用のインターフェイスを提供する。
First, the user accesses and connects to the server 2 from the television image receiving terminal 4 via the Internet, and receives account authentication.
The server 2 authenticates the user account and provides a video output interface to the user's television video receiving terminal 4.

尚、サーバ2からテレビ映像受信端末4に対しては、実際にデータは送信されず、テレビ映像受信端末4は、シンクライアントとして、サーバ2からのプレゼンテーション情報のみ受信するものとする。   Note that data is not actually transmitted from the server 2 to the television video receiving terminal 4, and the television video receiving terminal 4 receives only presentation information from the server 2 as a thin client.

これにより、テレビ映像受信端末4が基地局5から受信したテレビ映像は、サーバ2によって提供されるインターフェイス内に表示される(図1)。   Thereby, the television image received by the television image receiving terminal 4 from the base station 5 is displayed in the interface provided by the server 2 (FIG. 1).

ここで、ユーザがテレビ番組閲覧中に、表示された映像中における映像物(以下「オブジェクト」という)を、テレビ映像受信端末4の画面を直接タッチする(ポイントする)ことにより、オブジェクト指定を行う(ステップS1:図6)。
ここでは、ユーザがテレビ映像受信端末4の画面をタッチすると、タッチした時点の年月日情報、時間情報、チャンネル情報と、画面上におけるタッチ部位を示す位置情報を含む位置時間情報がオブジェクト要求として、インターネットを通じてサーバ2に送信される。
Here, while viewing the TV program, the user designates an object by directly touching (pointing) a video object (hereinafter referred to as “object”) in the displayed video on the screen of the TV video receiving terminal 4. (Step S1: FIG. 6).
Here, when the user touches the screen of the TV video receiving terminal 4, the date / time information, time information, channel information at the time of the touch, and position time information including position information indicating the touch part on the screen are used as the object request. And transmitted to the server 2 through the Internet.

ここで、上記位置情報は、画面に対し横方向をX、縦方向をYとしたXとYの2つの値で算出される。また、テレビ映像画面の左下末端を原点0、横方向全体の長さを1、縦方向全体の長さを1として、X値とY値を算出する。
これにより、例えば、テレビ映像受信端末4に表示されるテレビ映像画面の横幅もしくは縦幅が変更された場合であっても、その変更に依存することなく、ユーザが接触したオブジェクトの位置情報を正確にサーバ2に送信することが可能となる。
Here, the position information is calculated with two values of X and Y, where X is the horizontal direction and Y is the vertical direction with respect to the screen. Further, the X value and the Y value are calculated by setting the lower left end of the television image screen as the origin 0, the length in the entire horizontal direction as 1, and the length in the entire vertical direction as 1.
Thereby, for example, even when the horizontal width or vertical width of the TV video screen displayed on the TV video receiving terminal 4 is changed, the position information of the object touched by the user can be accurately determined without depending on the change. Can be transmitted to the server 2.

次に、サーバ2における、指定された映像物(オブジェクト)の抽出および選定を行う動作ついて、図4、図5、および図6に基づき説明する。   Next, an operation of extracting and selecting a designated video object (object) in the server 2 will be described with reference to FIGS. 4, 5, and 6.

まず、サーバ2は、テレビ映像受信端末4から受信した年月日情報、時間情報、チャンネル情報に基づき、データベースサーバ1から該当する番組の該当する時間帯(例えば、2〜3秒とする)のフレーム画像(以下「フレーム」という)を取得する(ステップS2、S3:図6)。
尚、このフレームとは映像(動画)を構成するフレーム画像群を示し、30フレームで1秒分の動画が構成されているものとする。また、サーバ2からデータベースサーバ1に対する一度の要求に対して取得するフレーム数は、デフォルトで、時間情報±1.5秒分の計3秒、90フレームとする。
First, based on the date / time information, time information, and channel information received from the TV video receiving terminal 4, the server 2 sets the corresponding time zone (for example, 2-3 seconds) of the corresponding program from the database server 1. A frame image (hereinafter referred to as “frame”) is acquired (steps S2 and S3: FIG. 6).
Note that this frame indicates a frame image group constituting a video (moving image), and it is assumed that a moving image for one second is composed of 30 frames. In addition, the number of frames acquired for a single request from the server 2 to the database server 1 is, by default, 90 frames for a total of 3 seconds corresponding to time information ± 1.5 seconds.

ここで、サーバ2は、テレビ映像受信端末4から受信した位置時間情報に基づきデータベースサーバ1から取得したフレームのトリミングを行い、画像の一部を切り出す(ステップS4)。
これにより、比較する画像の範囲を切り出された画像の範囲内に限定することができ、画像識別やオブジェクト抽出の精度を向上させると共に、処理を迅速化することができる。
Here, the server 2 trims the frame acquired from the database server 1 based on the position time information received from the television video receiving terminal 4, and cuts out a part of the image (step S4).
Thereby, the range of the image to be compared can be limited to the range of the clipped image, the accuracy of image identification and object extraction can be improved, and the processing can be speeded up.

ここで、上記フレームのトリミングは、図4に示すように、テレビ映像受信装置4から受信した位置情報(X値,Y値)を基点に、X方向に±0.15、Y方向に±0.1の領域で実施するものとする。このトリミング操作は取得した全フレームそれぞれで実行される。   Here, as shown in FIG. 4, the trimming of the frame is ± 0.15 in the X direction and ± 0 in the Y direction based on the position information (X value, Y value) received from the television video receiver 4. It shall be implemented in the area of .1. This trimming operation is executed for each acquired frame.

次いで、サーバ2は、トリミング処理済みのフレームそれぞれに対して順次1から90まで番号付けを行い、画像の比較を行う(ステップS4:図6)。   Next, the server 2 sequentially numbers 1 to 90 for each trimmed frame and compares the images (step S4: FIG. 6).

画像の比較は、図4に示すように、上記番号付けされた番号が隣接するフレーム間で実行されるものとする。
以下、これを詳説する。
As shown in FIG. 4, the image comparison is performed between frames adjacent to the numbered numbers.
This will be described in detail below.

まず、サーバ2は、テレビ映像受信端末4に対してユーザがポイント(指定)を行ったその時点で表示されていた45番フレームと46番フレームの画像比較を行う。
次に、46番と47番、47番と48番、48番と49番フレームと順次画像を比較し、予め設定された閾値以上で画像が異なった場合に、その異なる画像が出現する前の連続フレームにおける一番最初のフレームを、候補画像として保存する。
First, the server 2 performs image comparison between the 45th frame and the 46th frame displayed at the time when the user points (designates) the television video receiving terminal 4.
Next, the 46th and 47th, 47th and 48th, and 48th and 49th frames are sequentially compared, and if the images differ by more than a preset threshold value, before the different images appear The first frame in the consecutive frames is stored as a candidate image.

具体的には、図4に示すように、例えば、46番から画像比較を開始して、50番のフレームまでは連続するほぼ同一のフレームと認識されたが、50番と51番のフレームの比較において、ある閾値以上で画像が異なっていると判断されたとする。   Specifically, as shown in FIG. 4, for example, image comparison is started from No. 46, and it is recognized that the frames No. 50 and No. 51 are almost identical until the No. 50 frame. Assume that it is determined in the comparison that the images are different by a certain threshold value or more.

この場合は、同一とみなされていた連続フレームにおける一番最初のフレーム、つまり46番から50番までのほぼ同一のフレームのうち、一番最初の46番のフレームを候補画像として保存する。   In this case, the first 46th frame is stored as a candidate image among the very first frames in consecutive frames regarded as identical, that is, the almost identical frames from 46th to 50th.

その後、引き続き、51番と52番、52番と53番と順次フレームを比較し、再び59番と60番のフレームの比較において、両画像がある閾値以上で異なっていると判断されたとする。
この場合、同一とみなされていた連続フレームにおける一番初めのフレーム、つまり51番のフレームを候補画像として保存する。
尚、46番から90番までのフレームの比較処理と、45番から1番までのフレームの比較処理は並行して実施されるものとする。
Thereafter, the frames are sequentially compared with the 51st and 52nd, and the 52nd and 53rd frames, and it is assumed that it is determined that both images are different from each other by a certain threshold or more in the comparison between the 59th and 60th frames.
In this case, the first frame in the consecutive frames regarded as identical, that is, the 51st frame is stored as a candidate image.
It should be noted that the comparison processing of the 46th to 90th frames and the comparison processing of the 45th to 1st frames are performed in parallel.

また、46番から90番までのフレーム比較と45番から1番までのフレーム比較が終了した時点で、同様の比較処理を45番と46番のフレームについても実施する。45番および46番両フレームがほぼ同一画像と識別された場合は45番の画像のみを候補画像として保存し(46番のフレームが候補画像として保存されていた場合は削除)、両フレームが異なると判定された場合は、45番と46番両方のフレームを保存する。
ここで、画像の比較自体は構造抽出法や色情報・特徴情報を用いた既存の画像識別アルゴリズムを活用して実施するものとする。
The same comparison processing is also performed for the 45th and 46th frames when the 46th to 90th frame comparison and the 45th to 1st frame comparison are completed. If both the 45th and 46th frames are identified as almost the same image, only the 45th image is stored as a candidate image (deleted if the 46th frame is stored as a candidate image), and both frames are different. When it is determined that the frame number 45 and 46 are both stored.
Here, the image comparison itself is performed by utilizing a structure extraction method and an existing image identification algorithm using color information / feature information.

90枚のフレームで画像比較を行った結果、候補として保存されたフレームが1枚のみであった場合、つまり90枚すべてのフレームが同一の画像であると判断された場合は、1番と90番のフレームで画像の比較を行う。
これはパーンなどの、カメラの中心を軸に流れるように撮影された画像でも、識別が正確に行われるための処理である。
As a result of comparing the images with 90 frames, if only one frame is stored as a candidate, that is, if it is determined that all 90 frames are the same image, No. 1 and 90 The image is compared with the numbered frame.
This is a process for correctly identifying even an image such as Pann that is photographed so as to flow around the center of the camera.

1番と90番のフレームを比較し、ほぼ同一の画像と判断された場合は、45番のフレームのみを候補として保存する。ただし、1番と90番のフレーム間で画像が異なると判断された場合は、次に1番と45番、45番と90番のフレーム画像を比較する。
1番と45番はほぼ同一の画像であるが、45番と90番の画像は異なると判断された場合、さらに45番と68番、68番と90番のフレームで画像識別を実施する。
このように画像識別を行うフレーム番号を狭めていき、画像の識別結果がすべてほぼ同一となるまで繰り返し処理を行うものとする。
If the first and 90th frames are compared and it is determined that the images are almost the same, only the 45th frame is stored as a candidate. However, if it is determined that the images are different between the 1st and 90th frames, then the 1st and 45th frame images and the 45th and 90th frame images are compared.
The first and 45th images are almost the same image, but if it is determined that the 45th and 90th images are different, the image identification is further performed with the 45th and 68th frames and the 68th and 90th frames.
In this way, it is assumed that the frame number for image identification is narrowed, and the process is repeated until the image identification results are almost the same.

尚、データベースサーバ1から取得するフレーム数やトリミングを行う範囲は、ユーザにより選択指定されるオブジェクトの時間・位置を記憶することにより、選択指定されるオブジェクトが表示画面内のどの範囲に含まれる傾向があるかを学習し、この学習内容に基づいて取得されるフレーム数やトリミング範囲をユーザごとに自動的に変更する設定としてもよい。   Note that the number of frames acquired from the database server 1 and the trimming range tend to be included in which range in the display screen the object selected and specified by storing the time and position of the object selected and specified by the user. The number of frames acquired based on the learning contents and the trimming range may be automatically changed for each user.

これにより、例えば、高齢者が利用する場合、本人が意図したタイミングならびに接触位置と、実際に画面に接触したタイミングと接触位置は(想定された値よりも)大きくずれる場合が生じ得るため、このようなユーザがオブジェクトの選択指定を繰り返し行う場合は、デフォルト値である時間情報±1.5秒の90フレームより多いフレームが取得され、且つ、トリミング範囲もデフォルトの値よりも大きい範囲を示す値に設定されるように設定してもよい。   As a result, for example, when elderly people use, the timing and contact position intended by the person and the timing and contact position actually touching the screen may deviate greatly (than expected values). When such a user repeatedly specifies and selects an object, a frame is obtained that has more than 90 frames of time information ± 1.5 seconds as a default value, and the trimming range is larger than the default value. You may set so that it may be set to.

また、反射能力が高いユーザがオブジェクトの選択指定を繰り返し行う場合は、デフォルト値である時間情報±1.5秒の90フレームより少ないフレームが取得され、且つ、トリミング範囲もデフォルトの値よりも小さい範囲を示す値に設定されるように設定してもよい。
これにより、取得するフレーム数やトリミング範囲がより狭小なもの限定されるので、オブジェクトの特定精度の向上やリクエスト結果が迅速に提供されるといったパフォーマンスの向上を図ることができる。
In addition, when a user with high reflectivity repeatedly selects and specifies an object, less than 90 frames of time information ± 1.5 seconds, which is the default value, are acquired, and the trimming range is also smaller than the default value. You may set so that it may be set to the value which shows a range.
As a result, the number of frames to be acquired and the trimming range are limited to narrower ones, so that it is possible to improve performance such as improvement of object identification accuracy and quick provision of request results.

更に、ユーザごとに毎回取得されるフレーム数やトリミングされる範囲(領域)を示す情報は、各アカウント情報に紐付けられて保存され、一定の間隔で傾向の分析を行う設定としてもよい。
また、テレビ映像受信端末4からユーザが手動で任意の値を指定可能な設定としてもよい。この場合は、指定された値を元に、オブジェクト候補リストの提示にかかる時間(リクエスト要求からリクエスト結果の返信に至る時間)を算出し、ユーザに提示する設定としてもよい。
Furthermore, information indicating the number of frames acquired for each user and the range (area) to be trimmed may be stored in association with each account information, and the trend may be analyzed at regular intervals.
Alternatively, a setting that allows the user to manually specify an arbitrary value from the television video receiving terminal 4 may be used. In this case, based on the specified value, the time required for presenting the object candidate list (the time from request request to reply of request result) may be calculated and presented to the user.

また、上記アカウント情報に紐付けられて保存された履歴情報の数や期限(例えば、最大100オブジェクト、1ヶ月とする)は、ユーザによって変更可能であるものとする。
また、ユーザが意図的に保存しているオブジェクトの保存数(例えば最大50オブジェクト)に関しても、ユーザによって変更が可能であるものとする。
Further, it is assumed that the number of history information stored in association with the account information and the time limit (for example, a maximum of 100 objects and one month) can be changed by the user.
It is also assumed that the number of objects intentionally stored by the user (for example, a maximum of 50 objects) can be changed by the user.

次いで、サーバ2は、候補として保存されたフレームから、オブジェクトの抽出を行う。
ここで、サーバ2は、候補として保存されたフレームのトリミング前のフレームを取得する(ステップS5:図6)。
次に、サーバ2は、背景とオブジェクトの判別を行い、トリミング範囲(位置情報を基点としたX±0.15かつY±0.1の画像)内に含まれるオブジェクトを候補オブジェクトとして抽出する(ステップS5:図6)。
Next, the server 2 extracts an object from the frame stored as a candidate.
Here, the server 2 acquires a frame before trimming of the frame stored as a candidate (step S5: FIG. 6).
Next, the server 2 determines the background and the object, and extracts objects included in the trimming range (X ± 0.15 and Y ± 0.1 images based on the position information) as candidate objects ( Step S5: FIG. 6).

この際、1枚の画像から複数のオブジェクトが候補として抽出されることも考えられるが、複数のオブジェクトが候補として抽出された場合は、それらすべてを候補オブジェクトとして保存する。また、複数のフレームが候補として保存されている場合も、複数のオブジェクトが候補として抽出されることが考えられるが、この場合も、抽出された複数のオブジェクトを候補オブジェクトとして保存する。   At this time, a plurality of objects may be extracted as candidates from one image, but when a plurality of objects are extracted as candidates, all of them are stored as candidate objects. Further, even when a plurality of frames are stored as candidates, it is conceivable that a plurality of objects are extracted as candidates. In this case as well, the extracted plurality of objects are stored as candidate objects.

次いで、候補として抽出されたオブジェクト(候補オブジェクト)の色情報と特徴情報を算出する(ステップS6:図6)。この算出は、サーバ2が有する既存のオブジェクト識別アルゴリズムを利用して行われるものとする。ここで、算出された色情報と特徴情報は数値情報として保存される。   Next, color information and feature information of the object (candidate object) extracted as a candidate are calculated (step S6: FIG. 6). This calculation is performed using the existing object identification algorithm of the server 2. Here, the calculated color information and feature information are stored as numerical information.

ここで、サーバ2のオブジェクト識別アルゴリズムを用いたオブジェクト識別手法を活用することによって、識別対象となるオブジェクトの形が変形していた場合でも、オブジェクトの識別は可能であるものとする。   Here, by using the object identification method using the object identification algorithm of the server 2, it is assumed that the object can be identified even when the shape of the object to be identified is deformed.

この場合、データベースサーバ3にデータを予め登録しておくことにより、動物や植物といった企業が提供していないオブジェクトにかかるオブジェクト情報についても、本発明によって提供されるサービスを実現することができる。   In this case, by registering data in the database server 3 in advance, it is possible to realize the service provided by the present invention for object information related to an object that is not provided by a company such as an animal or a plant.

尚、ある一定の閾値以上で近似した色情報と特徴情報を有する異なる複数のオブジェクトが存在した場合は、同一のオブジェクトとみなす。   When there are a plurality of different objects having color information and feature information approximated at a certain threshold value or more, they are regarded as the same object.

次に、抽出された候補オブジェクトを、データベースサーバ3のオブジェクト情報と照合するオブジェクト照合処理の動作について、図5に基づき説明する。
ここでは、図5に示すように、番組Aに対応してオブジェクト提供会社1および2とスポンサー企業1を示す提供企業情報が設定されているものとする。
Next, the operation of the object matching process for matching the extracted candidate object with the object information of the database server 3 will be described with reference to FIG.
Here, as shown in FIG. 5, it is assumed that provider company information indicating the object provider companies 1 and 2 and the sponsor company 1 is set corresponding to the program A.

まず、サーバ2は、テレビ映像受信端末4から受信した、オブジェクト指定の行われた年月日情報、時間情報(時刻情報)、チャンネル情報をキーとした番組割り出し要求をデータベースサーバ3に送信する。
データベースサーバ3は、この要求に基づき、テレビ映像受信端末4でオブジェクト指定されたオブジェクト映像を含む番組の割り出しを行う(番組割り出し機能)。
First, the server 2 transmits to the database server 3 a program index request received from the TV video receiving terminal 4 using the date, time information (time information), and channel information for which object designation has been performed as keys.
Based on this request, the database server 3 calculates a program including the object video designated by the TV video receiving terminal 4 (program indexing function).

ここで、データベースサーバ3には、図5に示すように、割り出された番組(ここでは番組Aとする)に対応してオブジェクト提供会社やスポンサー企業の提供企業情報が記憶されているので、番組Aに対応して記憶された提供企業のオブジェクト情報をオブジェクト情報照合の対象とする。ここでは、番組Aに対応して記憶されたオブジェクト提供会社1,2、スポンサー企業1のオブジェクト(以下「企業オブジェクト」という)のオブジェクト情報を、オブジェクト情報照合の対象とする。   Here, as shown in FIG. 5, the database server 3 stores object company information of an object provider company and a sponsor company corresponding to the determined program (here, program A). The object information of the providing company stored corresponding to the program A is the object information collation target. Here, the object information of the objects of the object provider companies 1 and 2 and the sponsor company 1 (hereinafter referred to as “corporate object”) stored corresponding to the program A is the object information collation target.

次いで、データベースサーバ3は、サーバ2が抽出した候補オブジェクトの色情報および特徴情報の数値データに基づき、予め設定された色情報および特徴情報が近似する企業オブジェクトを抽出して、優先的に照合を行う(ステップS6:図6)。   Next, the database server 3 extracts corporate objects that approximate the preset color information and feature information based on the numerical data of the candidate object color information and feature information extracted by the server 2, and preferentially collates them. Perform (Step S6: FIG. 6).

尚、データベースサーバ3は、照合処理を行う対象の企業オブジェクトを、色情報と特徴情報の値が予め設定された一定値以上を示す、つまり色情報および特徴情報が近似する、オブジェクトに限定して照合処理を行う設定であってもよい。
これにより、例えば、オブジェクトの照合処理に対する処理負荷が高い、処理性能が低いサーバにおいても、その処理性能に応じた照合処理を実行させることができる。
The database server 3 limits the target corporate object to be collated to objects whose color information and feature information values are equal to or greater than a predetermined value, that is, color information and feature information approximate. It may be a setting for performing a collation process.
Thereby, for example, even in a server with a high processing load for object collation processing and low processing performance, collation processing according to the processing performance can be executed.

ここで、データベースサーバ3は、構造抽出法など既存のアルゴリズムを用いて、オブジェクトの照合を行う。この際、サーバ2が抽出した候補オブジェクトの画像とデータベースサーバ3に予め保存された企業オブジェクトの画像との照合を行う。
ここで、照合結果はスコアとして保存される。スコアが高いほど、照合したオブジェクト同士が似ており、同一オブジェクトである可能性が高いことを示している。最高スコアは100、最低スコアは0とする。
Here, the database server 3 performs object matching using an existing algorithm such as a structure extraction method. At this time, the image of the candidate object extracted by the server 2 is collated with the image of the corporate object stored in advance in the database server 3.
Here, the collation result is stored as a score. The higher the score, the more similar the collated objects are, indicating that there is a high possibility that they are the same object. The highest score is 100, and the lowest score is 0.

次いで、データベースサーバ3は、上記照合結果に基き、予め設定された一定の値以上のスコアのオブジェクトを示す情報を、オブジェクト候補リストとしてオブジェクト情報と共にサーバ2に送信する(ステップS7:図6)。   Next, the database server 3 transmits information indicating an object having a score equal to or higher than a predetermined value based on the collation result to the server 2 together with the object information as an object candidate list (step S7: FIG. 6).

データベースサーバ3からオブジェクト候補リストを取得したサーバ2は、照合結果をユーザのテレビ映像受信端末4に対してリクエスト結果として送信する(ステップS8:図6)。
このオブジェクト情報にはデータベースサーバ3に保存されたオブジェクトの画像、商品名、製造元、定価、オブジェクトの特徴を示す一口メモ、素材情報、カテゴリ情報が含まれる(図3)。これら情報は、オブジェクト提供会社またはスポンサー企業または第三の代行機関によって予めデータベースサーバ3に入力されているものとする。
The server 2 that has acquired the object candidate list from the database server 3 transmits the comparison result as a request result to the user's television video receiving terminal 4 (step S8: FIG. 6).
The object information includes an image of the object stored in the database server 3, a product name, a manufacturer, a list price, a bite memo indicating object characteristics, material information, and category information (FIG. 3). These pieces of information are preliminarily input to the database server 3 by an object provider company, a sponsor company, or a third agency.

以下、サーバ2から送られたリクエスト結果(オブジェクト候補リスト)を出力表示する動作について、図6のシーケンスチャートに基き説明する。
尚、この場合も、ユーザのテレビ映像受信端末には実際のデータ送信は行わず、サーバ2は、テレビ映像受信端末4にプレゼンテーションのみ提示する。
これによりユーザはテレビ映像受信端末を通して、サーバ2上のデータを閲覧することができる。
Hereinafter, the operation of outputting and displaying the request result (object candidate list) sent from the server 2 will be described based on the sequence chart of FIG.
In this case as well, the server 2 presents only the presentation to the television image receiving terminal 4 without actually transmitting data to the user's television image receiving terminal.
Thereby, the user can browse the data on the server 2 through the television image receiving terminal.

照合結果はスコアが高いものから順に、デフォルトで最大20まで表示する。ただし、データ自体はサーバ2側で管理する。これにより、テレビ映像受信端末4は、シンクライアントシステムと同様に、オブジェクト候補リストの出力表示のみを行い、ユーザはオブジェクト候補リストの閲覧のみ可能となる。   By default, up to 20 collation results are displayed in order from the highest score. However, the data itself is managed on the server 2 side. Accordingly, the television video receiving terminal 4 performs only the output display of the object candidate list as in the thin client system, and the user can only browse the object candidate list.

テレビ映像受信端末4では、リクエスト結果として送り込まれた各オブジェクト候補リストの商品名、製造元、画像、定価、一口メモ、素材情報、カテゴリ情報がオブジェクトごとに表示される(ステップS9:図6)。
また、各オブジェクトにかかる情報とは別に、オブジェクト候補リスト内の複数のオブジェクトが有するすべての素材情報とカテゴリ情報が一括表示される。
In the TV video receiving terminal 4, the product name, manufacturer, image, price, bite memo, material information, and category information of each object candidate list sent as a request result are displayed for each object (step S9: FIG. 6).
In addition to the information related to each object, all the material information and category information of a plurality of objects in the object candidate list are displayed in a lump.

ユーザは一括表示された素材情報とカテゴリ情報の中から、自分が選択したいオブジェクトが該当すると思われる素材情報とカテゴリ情報とに基づき選択絞込みを行う(ステップS10)。次いで、サーバ2が選択絞込みを反映して候補を再表示する(ステップS11)。
これにより、選択された候補オブジェクト以外の、意図しない候補オブジェクトをオブジェクト候補リストから除外し、ユーザは、所望するオブジェクト候補を出力画面に表示させることができる。
The user narrows down the selection based on the material information and category information that the object he / she wishes to select from among the material information and category information displayed at once (step S10). Next, the server 2 redisplays the candidates reflecting the selection narrowing (step S11).
Thereby, unintended candidate objects other than the selected candidate object can be excluded from the object candidate list, and the user can display a desired object candidate on the output screen.

尚、この素材情報やカテゴリ情報はそれぞれ、複数選択することが可能である。また、この素材情報とカテゴリ情報は互いに連動するものとする。   A plurality of material information and category information can be selected. The material information and category information are linked to each other.

以下に具体例をあげて、説明をする。
リクエスト結果(オブジェクト候補リスト)として「ペットボトル入り緑茶」と「家庭用洗剤」と「細長いクッション」がテレビ映像受信端末に表示されたとする。これらのカテゴリ情報は「飲料」と「家庭用品」と「雑貨」で、素材情報は「プラスチック」と「布」である。
ユーザがカテゴリ情報から「飲料」を選択した場合、自動的に素材情報から「布」はグレーアウトされる。これはカテゴリ情報が「飲料」で素材情報が「布」であるオブジェクトがリストに含まれていないためである。
このようにユーザが素材情報やカテゴリ情報を指定することで、表示された候補オブジェクトの絞り込みができる。
A specific example will be described below.
Assume that “green tea in a plastic bottle”, “household detergent”, and “elongate cushion” are displayed on the television image receiving terminal as the request result (object candidate list). The category information is “beverage”, “household goods”, and “miscellaneous goods”, and the material information is “plastic” and “cloth”.
When the user selects “beverage” from the category information, “cloth” is automatically grayed out from the material information. This is because an object having category information “beverage” and material information “cloth” is not included in the list.
The user can narrow down the displayed candidate objects by specifying the material information and the category information in this way.

以上のように、ユーザは、テレビ映像受信端末4で素材情報およびカテゴリ情報を指定することにより、オブジェクトの絞込み要求を行う(ステップS8:図6)。
次いで、サーバ2は、テレビ映像受信端末4からのオブジェクトの絞り込み要求に応じて絞り込まれたオブジェクト候補リストをテレビ映像受信端末4に再表示する(ステップS9:図6)。
As described above, the user makes a request for narrowing down objects by designating material information and category information at the television video receiving terminal 4 (step S8: FIG. 6).
Next, the server 2 redisplays the object candidate list narrowed down in response to the object narrowing request from the television video receiving terminal 4 on the television video receiving terminal 4 (step S9: FIG. 6).

これにより、ユーザが、オブジェクト候補リストとして表示されたオブジェクトについて、さらに詳細な情報を取得したい場合は、そのオブジェクトにかかり設定されたCMや関連Webサイトを閲覧することができる。
また、商品名をキーにWeb検索を行うこともできる。この場合も、データはサーバ側で管理し、テレビ映像受信端末からは情報の閲覧のみ可能である。
As a result, when the user wants to acquire more detailed information about the object displayed as the object candidate list, the user can browse the CM and related website set for the object.
Web searches can also be performed using product names as keys. Also in this case, the data is managed on the server side, and information can only be browsed from the television video receiving terminal.

また、上述の実施形態に、商品購入のためのシステムを付加することにより、ユーザは、選択指定したオブジェクトの購入を行うことが可能となる。
具体的には、サーバ2とクレジット会社や商品取扱い会社のサーバを連携させることにより、商品の注文発注を行うことができる。また、この場合、商品取扱い会社のサーバから在庫数を示す情報を取得し、テレビ映像受信端末4に商品購入画面に商品の在庫数を表示できるようにしてもよい。この場合、この商品の在庫数は、おおよその在庫数でも、在庫有・在庫少数・在庫無といった表記であってもよい。
Further, by adding a system for purchasing products to the above-described embodiment, the user can purchase an object selected and designated.
Specifically, it is possible to place an order for a product by linking the server 2 with a server of a credit company or a product handling company. In this case, information indicating the number of stocks may be acquired from the server of the product handling company so that the stock number of products can be displayed on the product purchase screen on the television image receiving terminal 4. In this case, the number of stocks of this product may be an approximate number of stocks, or may be expressed as being in stock, few stocks, no stock.

尚、テレビ映像受信端末4で提示されたオブジェクト候補リストの中からユーザが選択したオブジェクト候補の情報は、選択履歴としてサーバ2に保存される設定としてもよい。
この場合、選択履歴はアカウント情報と対応付けされて、予め設定された期間(例えば、一ヶ月)、保存されるものとする。
The information on the object candidate selected by the user from the object candidate list presented on the television video receiving terminal 4 may be stored in the server 2 as a selection history.
In this case, the selection history is stored in association with the account information for a preset period (for example, one month).

このとき、例えば、選択履歴情報が100個を越えた場合は、古いものから順に履歴が削除される設定としてもよい。また、履歴として保存されたオブジェクトのうち、ユーザが意図的に「保存する」ことを指定したオブジェクト情報は、例えば最大50オブジェクトまで半永久的に保存するものとする。
尚、アカウント情報に紐付けられて保存されている上記選択履歴情報の数や期限(デフォルトで1ヶ月、最大100オブジェクト)はユーザによって適宜変更可能であるものとする。また、ユーザが意図的に保存しているオブジェクトの保存数(デフォルトで最大50オブジェクト)に関しても、ユーザによって変更が可能である。
At this time, for example, when the selection history information exceeds 100, the history may be deleted in order from the oldest. Of the objects saved as history, object information that the user intentionally designates “save” is assumed to be semi-permanently saved, for example, up to 50 objects.
It is assumed that the number of the selection history information stored in association with the account information and the time limit (default is one month, maximum 100 objects) can be appropriately changed by the user. Also, the number of objects intentionally saved by the user (up to 50 objects by default) can be changed by the user.

以上のように、本実施形態の画像情報取得システムは、映像画面に表示された放送番組映像内の映像物(オブジェクト)がユーザにより選択指定された場合に、選択指定されたオブジェクトの特徴抽出が行われ、データベースに予め登録されたオブジェクトの画像や情報と照合されることにより、選択指定されたオブジェクトが特定されると共に、オブジェクトにかかる情報(オブジェクト情報)をユーザに提供することができる。   As described above, the image information acquisition system of this embodiment performs feature extraction of a selected and designated object when a user selects and designates a video object (object) in a broadcast program video displayed on a video screen. This is performed and collated with the image and information of the object registered in advance in the database, so that the selected and specified object can be specified and information (object information) related to the object can be provided to the user.

また、本発明によって、インターネットに接続した環境下で、テレビ番組だけでなく、あらゆる映像情報からオブジェクト情報の取得を行うことが可能である。例えば、ユーザは、録画した番組やレンタルショップから借りてきたDVDやビデオ映像に含まれるオブジェクト情報を取得することができる。   Further, according to the present invention, it is possible to acquire object information not only from a TV program but also from any video information in an environment connected to the Internet. For example, the user can acquire object information included in a recorded program or a DVD or video image borrowed from a rental shop.

また、本発明によってインターネットに接続した環境では、本発明を適用することにより、ブラウザにより表示された静止画に含まれるオブジェクトの情報も、選択指定することにより任意に取得することができる。   Also, in an environment connected to the Internet according to the present invention, by applying the present invention, information of an object included in a still image displayed by a browser can be arbitrarily acquired by selecting and specifying.

更に、ユーザが自分で撮影した動画や静止画、Webサイトに掲載されている写真からもオブジェクト情報を取得することができる。
この場合、ユーザは自分で撮影した動画や静止画、Webサイトに掲載されている写真をサーバ2から提供されたインターフェイスを介してアップロードを行い、素材情報やカテゴリ情報と併せてサーバ2に画像を送信することにより、サーバ2ではテレビ映像受信端末4から送信された素材情報、カテゴリ情報をキーに、色情報、特徴情報の値が近いオブジェクトから照合を行っていく。
Furthermore, object information can also be acquired from a moving image, a still image, or a photograph posted on a website taken by the user.
In this case, the user uploads a video, a still image, or a photograph posted on the website through the interface provided by the server 2 and uploads an image to the server 2 together with material information and category information. By transmitting, the server 2 performs collation from objects with similar color information and feature information values using the material information and category information transmitted from the TV video receiving terminal 4 as keys.

また、雑誌、新聞、書籍といった紙媒体や実物からも、オブジェクトを撮影してディジタル画像、映像化することにより、オブジェクト情報を取得することができる。
具体的には、携帯電話やデジタルカメラなどの写真撮影機能を有する装置を用いて、対象となるオブジェクトを撮影し、撮影した写真をテレビ映像受信端末からサーバ2に送信することによって、オブジェクトの情報を取得することできる。
Also, object information can be acquired from a paper medium such as a magazine, a newspaper, or a book or an actual object by photographing the object and converting it into a digital image or video.
Specifically, the object information is obtained by photographing a target object using a device having a photography function such as a mobile phone or a digital camera, and transmitting the photographed photograph to the server 2 from the television image receiving terminal. Can get.

更に、QRコードが表示してあった場合は、写真でなく、QRコードからもオブジェクトの情報を取得できるものとする。
この場合は、QRコードに、データベースサーバ3のオブジェクト情報テーブルに含まれるオブジェクトコードが格納されることにより、ユーザは迅速にオブジェクト情報を取得することができる。
Furthermore, when the QR code is displayed, it is assumed that the object information can be acquired not from the photograph but also from the QR code.
In this case, the object code included in the object information table of the database server 3 is stored in the QR code, so that the user can quickly acquire the object information.

本発明は、例えば、NGN等により放送網、IPデータ網、固定電話網、携帯電話網が1つのIPネットワークに統合された広域ネットワーク環境が実現された場合に、この広域ネットワーク環境に接続可能な映像受信端末を含むネットワーク通信システムに適用することができる。   The present invention is connectable to a wide area network environment when a wide area network environment in which a broadcast network, an IP data network, a fixed telephone network, and a mobile phone network are integrated into one IP network by NGN or the like is realized. The present invention can be applied to a network communication system including a video receiving terminal.

1 データベースサーバ
2 サーバ
3 データベースサーバ
4 テレビ映像受信端末
5 基地局
1 database server 2 server 3 database server 4 TV video receiving terminal 5 base station

Claims (8)

放送された番組映像を表示する出力画面と前記出力画面に表示された映像物を指定する指定手段とを有する映像受信端末と、前記放送された番組映像を記憶する番組映像記憶装置と、前記各映像物に対応して予め設定された映像物情報を記憶した映像物情報記憶装置とを備えた画像情報提供システムであって、
前記映像受信端末が前記映像物を指定したときの時刻を示す時刻情報と前記出力画面内における指定位置を示す指定位置情報とを取得すると共に、前記時刻情報および指定位置情報に基づき前記番組映像記憶装置に記憶された番組映像を参照し前記指定された映像物を特定する映像物特定装置を備え、
前記映像物特定装置が、前記映像物情報記憶装置から前記特定された映像物にかかる映像物情報を取得し前記映像受信端末に提供する映像物情報提供手段を有することを特徴とした画像情報提供システム。
A video receiving terminal having an output screen for displaying the broadcast program video; a designation means for designating a video object displayed on the output screen; a program video storage device for storing the broadcast program video; An image information providing system comprising a video object information storage device storing video object information set in advance corresponding to a video object,
Obtaining time information indicating the time when the video receiving terminal specified the video object and specified position information indicating the specified position in the output screen, and storing the program video based on the time information and the specified position information A video object specifying device for specifying the specified video object with reference to a program video stored in the apparatus;
Image information provision characterized in that the image object specifying device includes image object information providing means for acquiring image object information relating to the specified image object from the image object information storage device and providing the acquired image object information to the image receiving terminal. system.
前記請求項1に記載の画像情報提供システムにおいて、
前記映像受信端末の前記出力画面は、当該出力画面に接触されることにより前記出力画面に表示された映像物を指定するタッチパネル入力手段を備えたことを特徴とする画像情報提供システム。
The image information providing system according to claim 1,
The image information providing system according to claim 1, wherein the output screen of the video receiving terminal includes touch panel input means for designating a video object displayed on the output screen by touching the output screen.
前記請求項1、2に記載の画像情報提供システムにおいて、
前記映像物特定装置が、前記映像物の候補として異なる複数の映像物が特定された場合に、前記特定された複数の映像物を前記出力画面に一覧表示する候補映像物出力手段を備えたことを特徴とする画像情報提供システム。
In the image information providing system according to claim 1 or 2,
The video object specifying device includes candidate video object output means for displaying a list of the specified video objects on the output screen when a plurality of different video objects are specified as candidates for the video object. A system for providing image information.
前記請求項1に記載の画像情報提供システムにおいて、
前記映像物特定装置は、前記指定された番組画像フレームを含む予め設定された時間の間に表示された番組画像フレーム群を前記番組映像記憶装置に記憶された番組映像から取得する番組画像群取得手段と、前記番組画像フレーム群に含まれる番組画像フレーム間の色の変化量に基づき前記映像物の含まれる番組画像フレームを特定する画像フレーム特定手段を備えたことを特徴とする画像情報提供システム。
The image information providing system according to claim 1,
The video object specifying device acquires a program image group which acquires a program image frame group displayed during a preset time including the designated program image frame from a program video stored in the program video storage device. And an image frame specifying unit for specifying a program image frame including the video object based on a color change amount between program image frames included in the program image frame group. .
前記請求項1に記載の画像情報提供システムにおいて、
前記映像物特定装置は、前記番組映像記憶装置に記憶された番組映像から前記時刻情報に基づき前記指定された番組映像を特定すると共に、前記番組映像を構成する番組画像の前記指定位置情報に基づき予め設定された画像領域をトリミングする番組画像切取手段を備えたことを特徴とする画像情報提供システム。
The image information providing system according to claim 1,
The video object specifying device specifies the specified program video based on the time information from the program video stored in the program video storage device, and based on the specified position information of a program image constituting the program video. An image information providing system comprising program image cutting means for trimming a preset image area.
前記請求項4に記載の画像情報提供システムにおいて、
前記映像物特定装置は、前記各番組画像からトリミングされた画像領域間における色の変化量に基づき前記映像物の含まれる番組領域を特定する画像領域特定手段を備えたことを特徴とする画像情報提供システム。
The image information providing system according to claim 4,
The video object specifying device includes image area specifying means for specifying a program area including the video object based on an amount of color change between image areas trimmed from the program images. Offer system.
放送された番組映像を表示する出力画面と前記出力画面に表示された映像物を指定する指定手段とを有する映像受信端末と、前記放送された番組映像を記憶する番組映像記憶装置と、前記各映像物に対応して予め設定された映像物情報を記憶した映像物情報記憶装置とを備えた画像情報提供システムにあって、前記映像受信端末に対して要求に応じた映像物情報を提供する画像情報提供方法であって、
前記映像受信端末が前記映像物を指定された時刻を示す時刻情報と前記出力画面内における指定位置を示す指定位置情報とを取得し、前記番組映像記憶装置に記憶された番組映像を参照して、前記時刻情報および指定位置情報に基づき前記指定された映像物を特定し、前記特定された映像物にかかる映像物情報を前記特定映像物情報記憶装置から取得すると共に前記映像受信端末に提供することを特徴とした画像情報提供方法。
A video receiving terminal having an output screen for displaying the broadcast program video; a designation means for designating a video object displayed on the output screen; a program video storage device for storing the broadcast program video; An image information providing system comprising a video object information storage device storing video object information set in advance corresponding to a video object, and providing video object information according to a request to the video receiving terminal An image information providing method,
The video receiving terminal acquires time information indicating the time when the video object is specified and specified position information indicating a specified position in the output screen, and refers to the program video stored in the program video storage device The specified video object is specified based on the time information and the specified position information, and the video object information related to the specified video object is acquired from the specific video object information storage device and provided to the video receiving terminal. An image information providing method characterized by that.
放送された番組映像を表示する出力画面と前記出力画面に表示された映像物を指定する指定手段とを有する映像受信端末と、前記番組映像を記憶する番組映像記憶装置と、前記各映像物に対応して予め設定された映像物情報を記憶した映像物情報記憶装置とを備えた画像情報提供システムにあって、前記映像受信端末からの要求に応じて前記映像物情報を提供する画像情報提供プログラムであって、
前記映像受信端末が前記映像物を指定したときの時刻を示す時刻情報と前記出力画面内で指定された位置を示す指定位置情報とに基づき前記番組映像記憶装置を参照して前記指定された映像物を特定する指定映像物特定機能と、前記映像物情報記憶装置から前記特定された映像物にかかる映像物情報を取得する処理を行う映像物情報取得機能とを、
前記映像物情報記憶装置に予め併設して設けられたコンピュータに実行させることを特徴とした画像情報提供プログラム。
A video receiving terminal having an output screen for displaying the broadcast program video and a designation means for designating the video object displayed on the output screen, a program video storage device for storing the program video, and each video object Correspondingly, an image information providing system comprising a video object information storage device that stores preset video object information, and providing the video object information in response to a request from the video receiving terminal A program,
The specified video with reference to the program video storage device based on time information indicating a time when the video receiving terminal specifies the video object and specified position information indicating a position specified in the output screen A specified video object specifying function for specifying an object, and a video object information acquiring function for performing processing for acquiring the video object information related to the specified video object from the video object information storage device,
An image information providing program which is executed by a computer provided in advance in the video object information storage device.
JP2009044780A 2009-02-26 2009-02-26 Image information providing system, image information providing method, and image information providing program Pending JP2010200170A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009044780A JP2010200170A (en) 2009-02-26 2009-02-26 Image information providing system, image information providing method, and image information providing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009044780A JP2010200170A (en) 2009-02-26 2009-02-26 Image information providing system, image information providing method, and image information providing program

Publications (1)

Publication Number Publication Date
JP2010200170A true JP2010200170A (en) 2010-09-09

Family

ID=42824390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009044780A Pending JP2010200170A (en) 2009-02-26 2009-02-26 Image information providing system, image information providing method, and image information providing program

Country Status (1)

Country Link
JP (1) JP2010200170A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013102284A (en) * 2011-11-07 2013-05-23 Nippon Hoso Kyokai <Nhk> Book mark management device, book mark management system, information processing terminal and program
JP2013219447A (en) * 2012-04-05 2013-10-24 Sharp Corp Content display device, content reception device, program, and content reproduction device
JP2014519277A (en) * 2011-05-25 2014-08-07 アリババ・グループ・ホールディング・リミテッド Determining information related to online video
CN105430424A (en) * 2015-11-26 2016-03-23 广州华多网络科技有限公司 Video live broadcast method, device and system
JP2016521390A (en) * 2013-03-14 2016-07-21 グーグル インコーポレイテッド Method, system, and recording medium for providing portable content corresponding to media content

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07321748A (en) * 1994-05-26 1995-12-08 Hitachi Ltd Video on-demand system
JP2002335518A (en) * 2001-05-09 2002-11-22 Fujitsu Ltd Control unit for controlling display, server and program
JP2004110448A (en) * 2002-09-19 2004-04-08 Nippon Hoso Kyokai <Nhk> Image object identifying/tracking device, its method, and its program
JP2005286882A (en) * 2004-03-30 2005-10-13 Nec Corp Advertisement moving picture generating distribution system and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07321748A (en) * 1994-05-26 1995-12-08 Hitachi Ltd Video on-demand system
JP2002335518A (en) * 2001-05-09 2002-11-22 Fujitsu Ltd Control unit for controlling display, server and program
JP2004110448A (en) * 2002-09-19 2004-04-08 Nippon Hoso Kyokai <Nhk> Image object identifying/tracking device, its method, and its program
JP2005286882A (en) * 2004-03-30 2005-10-13 Nec Corp Advertisement moving picture generating distribution system and method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014519277A (en) * 2011-05-25 2014-08-07 アリババ・グループ・ホールディング・リミテッド Determining information related to online video
JP2013102284A (en) * 2011-11-07 2013-05-23 Nippon Hoso Kyokai <Nhk> Book mark management device, book mark management system, information processing terminal and program
JP2013219447A (en) * 2012-04-05 2013-10-24 Sharp Corp Content display device, content reception device, program, and content reproduction device
JP2016521390A (en) * 2013-03-14 2016-07-21 グーグル インコーポレイテッド Method, system, and recording medium for providing portable content corresponding to media content
CN105430424A (en) * 2015-11-26 2016-03-23 广州华多网络科技有限公司 Video live broadcast method, device and system

Similar Documents

Publication Publication Date Title
US11611795B2 (en) Online live video sales management system
JP5442799B2 (en) Tag management apparatus, tag management method, tag management program, and computer-readable recording medium storing the program
KR101431996B1 (en) Information-providing device, information-providing method, and recording medium in which information-providing program is recorded
US20140344275A1 (en) Information processing apparatus, information processing method, information processing program, and recording medium
EP2711850A1 (en) Review text output system, review text output method, program and computer-readable information storage medium
KR101406494B1 (en) Method and system for providing advertisement service based on visiting history of user
TWI525566B (en) Information processing devices, information processing methods, and information processing products
JP2010200170A (en) Image information providing system, image information providing method, and image information providing program
CA2925073A1 (en) Advertisement information sharing system
AU2024203315A1 (en) Advertisement information sharing system
TW201407523A (en) Method and system for processing shopping information
KR20090117108A (en) System and method for providing product information service by mobile network system
JP6567688B2 (en) Management device, management method, non-transitory recording medium, and program
CN112215657A (en) Recommended commodity determining method and device, electronic equipment and storage medium
US20140200979A1 (en) Information providing device, information providing method, information providing program, and recording medium
JP6211337B2 (en) Data transmission device, data storage device, data display device, data search device, data transmission method, data storage method, data display method and data search method
WO2017033265A1 (en) Information processing device, information processing method, and information processing program
JP6829391B2 (en) Information processing equipment, information distribution method, and information distribution program
KR101860364B1 (en) Method and server for providing social media based on product information
TW201407515A (en) Method and system for processing shopping information over internet, and a readable storage medium
JP7190620B2 (en) Information processing device, information delivery method, and information delivery program
JP7276950B2 (en) Information provision system and program
KR20160128965A (en) Shopping method and system using an augmented reality and image search
JP2005010870A (en) Visitor appreciation support system
JP2022025219A (en) Exhibition system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130308

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130402