JP4746568B2 - Information providing apparatus, information providing method, and program - Google Patents

Information providing apparatus, information providing method, and program Download PDF

Info

Publication number
JP4746568B2
JP4746568B2 JP2007007120A JP2007007120A JP4746568B2 JP 4746568 B2 JP4746568 B2 JP 4746568B2 JP 2007007120 A JP2007007120 A JP 2007007120A JP 2007007120 A JP2007007120 A JP 2007007120A JP 4746568 B2 JP4746568 B2 JP 4746568B2
Authority
JP
Japan
Prior art keywords
image
information
background
information providing
background object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007007120A
Other languages
Japanese (ja)
Other versions
JP2008176396A (en
Inventor
敦 大竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2007007120A priority Critical patent/JP4746568B2/en
Publication of JP2008176396A publication Critical patent/JP2008176396A/en
Application granted granted Critical
Publication of JP4746568B2 publication Critical patent/JP4746568B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は、ユーザからの要求に対して情報を提供する情報提供装置、情報提供方法、及びプログラムに関する。   The present invention relates to an information providing apparatus, an information providing method, and a program for providing information in response to a request from a user.

インターネット等の通信ネットワークを介して接続された端末装置の画面に表示された画像に関連する情報を表示するサービスである、例えば、バナー広告を利用した販売促進活動が広く行われている。バナー広告は、例えば、ウェブページの一部に設けられ、ユーザによってクリックされると、そのバナー広告にリンクした他のウェブサイトが表示されるようになっている。そして、このようなバナー広告を介して、迅速に直接商品の注文をすることができるようにする技術が提案されている(例えば、特許文献1)。
特開2003−331189号公報
Sales promotion activities using, for example, banner advertisements are widely performed, which are services that display information related to images displayed on the screens of terminal devices connected via a communication network such as the Internet. For example, the banner advertisement is provided in a part of a web page, and when clicked by the user, another website linked to the banner advertisement is displayed. And the technique which enables it to order goods directly via such a banner advertisement is proposed (for example, patent document 1).
JP 2003-331189 A

しかし、特許文献1の技術は、ユーザが購入を希望する商品を注文するためのバナーがユーザの端末装置の表示画面に表示されなければ、結局、利用者は購入希望の販売ページにたどり着くまでに長時間を要することになるという問題がある。そして、ユーザにとっては、表示画面に表示される例えば、動画像の中の主演男優等のターゲットに関する情報ではなくて、その背景である、例えば、特定の山や建造物等の背景オブジェクトに関連する情報がむしろ有益である場合がある。   However, in the technique of Patent Document 1, if a banner for ordering a product that the user desires to purchase is not displayed on the display screen of the user's terminal device, the user eventually reaches the sales page desired to purchase. There is a problem that it takes a long time. For the user, for example, it is not information related to a target such as a leading actor in a moving image displayed on a display screen, but is related to a background object such as a specific mountain or a building. Information may be rather useful.

そこで、本発明は、動画像の中の背景オブジェクトに関する情報をユーザに表示させることができる情報提供装置、情報提供方法、及びプログラムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an information providing apparatus, an information providing method, and a program that allow a user to display information about a background object in a moving image.

(1)ユーザからの要求に対して情報を提供する情報提供装置であって、複数の全体画像(画像フレーム)から構成される動画を示す動画情報を前記情報提供装置の内部または外部から取得する画像情報取得部と、前記全体画像の各画素のオプティカルフローを解析するオプティカルフロー解析部と、前記オプティカルフロー解析部の解析結果に基づいて、各前記画素に対して各前記画素の動きを示す動きベクトルを各前記画素に関連付けるラベリング処理部と、前記動きベクトルに基づいて、前記全体画像の一部を構成する部分画像である背景画像を抽出する背景画像抽出部と、少なくとも1つの前記背景画像に基づいて、背景オブジェクトを特定する背景オブジェクト特定部と、前記背景オブジェクトと前記動画情報を関連付ける関連付け部と、ユーザ端末からの要求に対応して送信する前記動画における特定の前記背景オブジェクトが前記ユーザ端末の表示画面上に表示されている間において、特定の前記背景オブジェクトに関連付けられた関連情報を前記ユーザ端末に表示させるマッチング部と、を有することを特徴とする情報提供装置。   (1) An information providing device that provides information in response to a request from a user, and acquires moving image information indicating a moving image composed of a plurality of whole images (image frames) from inside or outside the information providing device. An image information acquisition unit; an optical flow analysis unit that analyzes an optical flow of each pixel of the entire image; and a motion that indicates the movement of each pixel with respect to each pixel based on an analysis result of the optical flow analysis unit A labeling processing unit that associates a vector with each of the pixels, a background image extraction unit that extracts a background image that is a partial image constituting a part of the entire image based on the motion vector, and at least one background image. Based on a background object specifying unit for specifying a background object and an association for associating the background object with the video information And related information associated with the specific background object while the specific background object in the moving image transmitted in response to a request from the user terminal is displayed on the display screen of the user terminal. And a matching unit to be displayed on the user terminal.

(1)の発明によれば、情報提供装置は、各画素のオプティカルフローを解析し、各画素の動きを示す動きベクトルを生成し、その動きベクトルを各画素に関連付けることができる。そして、情報提供装置は、各画素に結び付けられた動きベクトルに基づいて、背景画像を抽出し、さらに、背景オブジェクトを特定することができる。例えば、大きな山である背景オブジェクトが、各全体画像においてその一部だけが表示されている場合には、1つの背景画像だけでは背景オブジェクトを特定することができない場合がある。この点、情報提供装置は、背景オブジェクト特定手段を有するから、1つの背景画像で背景オブジェクトを特定することができない場合であっても、2以上の全体画像(画像フレーム)に含まれる背景画像に基づいて、背景オブジェクトを特定することができる。そして、情報提供装置は、ユーザ端末からの要求に対応して送信した動画において特定の背景オブジェクトがユーザ端末の表示画面上に表示されている間において、特定の背景オブジェクトに関連付けられた関連情報をユーザ端末に送信して表示させることができる。このように、情報提供装置は、送信される全体画像(画像フレーム)の中の背景オブジェクトに関する情報をユーザに表示させることができる。   According to the invention of (1), the information providing apparatus can analyze the optical flow of each pixel, generate a motion vector indicating the motion of each pixel, and associate the motion vector with each pixel. Then, the information providing apparatus can extract a background image based on the motion vector associated with each pixel, and further specify a background object. For example, when only a part of a background object that is a large mountain is displayed in each entire image, the background object may not be specified by only one background image. In this regard, since the information providing apparatus has the background object specifying means, even if it is not possible to specify the background object with one background image, the information providing apparatus includes a background image included in two or more entire images (image frames). Based on this, the background object can be identified. Then, the information providing device displays the related information associated with the specific background object while the specific background object is displayed on the display screen of the user terminal in the video transmitted in response to the request from the user terminal. It can be transmitted to the user terminal and displayed. As described above, the information providing apparatus can cause the user to display information on the background object in the entire image (image frame) to be transmitted.

(2)前記背景画像抽出部は、複数の前記部分画像のうち前記動きベクトルの大きさが相対的に大きい前記画素によって形成される画像が前記背景画像であると判断する構成になっていることを特徴とする(1)に記載の情報提供装置。   (2) The background image extraction unit is configured to determine that an image formed by the pixels having a relatively large motion vector among the plurality of partial images is the background image. (2) The information providing apparatus according to (1).

(2)に記載の構成によれば、動きベクトルが相対的に大きい画素によって形成される画像を、背景画像として抽出することができる。主演男優等のターゲットは、全体画像の中央部に継続的に位置する場合が多く、ターゲットの動きよりも背景画像の動き方が大きい傾向がある。(2)に記載の構成によれば、このような傾向を利用して、背景画像を効率的に抽出することができる。   According to the configuration described in (2), an image formed by pixels having a relatively large motion vector can be extracted as a background image. In many cases, the target of the leading actor is continuously located in the center of the entire image, and the background image tends to move more than the target. According to the configuration described in (2), it is possible to efficiently extract a background image using such a tendency.

(3)前記背景画像抽出部は、前記全体画像の少なくとも1つの隅近傍の前記画素の前記動きベクトルとほぼ同じ前記動きベクトルに対応する前記画素を含む画像が背景画像であると判断する構成になっていることを特徴とする(1)または(2)のいずれかに記載の情報提供装置。   (3) The background image extraction unit is configured to determine that an image including the pixel corresponding to the motion vector substantially the same as the motion vector of the pixel in the vicinity of at least one corner of the entire image is a background image. The information providing apparatus according to any one of (1) and (2), wherein

(3)に記載の構成によれば、背景画像である確率が高い隅近傍の画素の動きに基づいて、背景画像を抽出することができる。ターゲットは、全体画像の隅近傍に位置することが少ないのに対して、背景画像は全体画像の隅近傍に位置する傾向が大きい。(3)の記載の構成によれば、このような傾向を利用して、背景画像を高い確実性を持って抽出することができる。   According to the configuration described in (3), it is possible to extract the background image based on the movement of the pixels near the corner having a high probability of being the background image. The target is rarely positioned near the corner of the entire image, whereas the background image tends to be positioned near the corner of the entire image. According to the configuration described in (3), it is possible to extract a background image with high certainty using such a tendency.

(4)前記マッチング部は、前記関連情報として、特定の前記背景オブジェクトに関連付けられた観光地情報を前記ユーザ端末に表示させる構成になっていることを特徴とする(1)乃至(3)のいずれかに記載の情報提供装置。   (4) The matching unit is configured to cause the user terminal to display sightseeing spot information associated with a specific background object as the related information. (1) to (3) The information provision apparatus in any one.

(4)に記載の構成によれば、情報提供装置は、例えば、コンピュータネットワークにおいて送信される全体画像(画像フレーム)の中の背景オブジェクトに関する観光地情報をユーザ端末に表示させることができる。   According to the configuration described in (4), for example, the information providing apparatus can cause the user terminal to display tourist spot information regarding a background object in an entire image (image frame) transmitted in a computer network.

(5)前記マッチング部は、前記関連情報として、特定の前記背景オブジェクトに関連付けられた広告を前記ユーザ端末に表示させる構成になっていることを特徴とする(1)乃至(3)のいずれかに記載の情報提供装置。   (5) Any one of (1) to (3), wherein the matching unit is configured to display an advertisement associated with a specific background object on the user terminal as the related information. The information providing device described in 1.

(5)に記載の構成によれば、情報提供装置は、例えば、コンピュータネットワークにおいて送信される全体画像(画像フレーム)の中の背景オブジェクトに関する広告をユーザ端末に表示させることができる。   According to the configuration described in (5), for example, the information providing apparatus can cause the user terminal to display an advertisement related to the background object in the entire image (image frame) transmitted in the computer network.

(6)ユーザからの要求に対して情報を提供する情報提供装置が、複数の全体画像(画像フレーム)から構成される動画を示す動画情報を前記情報提供装置の内部または外部から取得する画像情報取得ステップと、前記全体画像の各画素のオプティカルフローを解析するオプティカルフロー解析ステップと、前記オプティカルフロー解析ステップにおける解析結果に基づいて、各前記画素に対して各前記画素の動きを示す動きベクトルを各前記画素に関連付けるラベリング処理ステップと、前記動きベクトルに基づいて、前記全体画像の一部を構成する部分画像である背景画像を抽出する背景画像抽出ステップと、少なくとも1つの前記背景画像に基づいて、背景オブジェクトを特定する背景オブジェクト特定ステップと、前記背景オブジェクトと前記動画情報を関連付ける関連付けステップと、ユーザ端末からの要求に対応して送信する前記動画における特定の前記背景オブジェクトが前記ユーザ端末の表示画面上に表示されている間において、特定の前記背景オブジェクトに関連付けられた関連情報を前記ユーザ端末に送信して表示させるマッチングステップと、を有することを特徴とする情報提供方法。   (6) Image information in which an information providing device that provides information in response to a request from a user acquires moving image information indicating a moving image composed of a plurality of whole images (image frames) from inside or outside the information providing device. An acquisition step; an optical flow analysis step for analyzing an optical flow of each pixel of the entire image; and a motion vector indicating a motion of each pixel with respect to each pixel based on an analysis result in the optical flow analysis step. A labeling process step associated with each of the pixels, a background image extraction step of extracting a background image which is a partial image constituting a part of the whole image based on the motion vector, and based on at least one of the background images A background object specifying step for specifying a background object, and the background object An association step for associating the video information with the video information, and while the specific background object in the video transmitted in response to a request from the user terminal is displayed on the display screen of the user terminal, the specific background A matching step of transmitting related information associated with the object to the user terminal for display.

(6)に記載の発明によれば、(1)に記載の発明と同様に、送信される全体画像(画像フレーム)の中の背景オブジェクトに関する情報をユーザ端末に表示させることができる。   According to the invention described in (6), similarly to the invention described in (1), it is possible to display information related to the background object in the transmitted whole image (image frame) on the user terminal.

(7)コンピュータを、ユーザからの要求に対して情報を提供する情報提供装置として機能させるプログラムであって、複数の全体画像(画像フレーム)から構成される動画を示す動画情報を前記情報提供装置の内部または外部から取得する画像情報取得ステップと、前記全体画像の各画素のオプティカルフローを解析するオプティカルフロー解析ステップと、前記オプティカルフロー解析ステップにおける解析結果に基づいて、各前記画素に対して各前記画素の動きを示す動きベクトルを各前記画素に関連付けるラベリング処理ステップと、前記動きベクトルに基づいて、前記全体画像の一部を構成する部分画像である背景画像を抽出する背景画像抽出ステップと、少なくとも1つの前記背景画像に基づいて、背景オブジェクトを特定する背景オブジェクト特定ステップと、前記背景オブジェクトと前記動画情報を関連付ける関連付けステップと、ユーザ端末からの要求に対応して送信する前記動画における特定の前記背景オブジェクトが前記ユーザ端末の表示画面上に表示されている間において、特定の前記背景オブジェクトに関連付けられた関連情報を前記ユーザ端末に送信して表示させるマッチングステップと、をコンピュータに実行させることを特徴とする情報提供プログラム。   (7) A program for causing a computer to function as an information providing apparatus that provides information in response to a request from a user, wherein the information providing apparatus indicates moving picture information indicating a moving picture composed of a plurality of whole images (image frames). Image information acquisition step acquired from inside or outside, optical flow analysis step of analyzing the optical flow of each pixel of the entire image, and for each pixel based on the analysis result in the optical flow analysis step A labeling processing step that associates a motion vector indicating the motion of the pixel with each of the pixels, and a background image extraction step of extracting a background image that is a partial image constituting a part of the entire image based on the motion vector; A background object is identified based on at least one of the background images A scene object specifying step, an associating step of associating the background object with the moving image information, and the specific background object in the moving image transmitted in response to a request from the user terminal is displayed on the display screen of the user terminal And a matching step of causing the user terminal to transmit and display related information associated with the specific background object.

(7)に記載の発明によれば、(1)に記載の発明と同様に、送信される全体画像(画像フレーム)の中の背景オブジェクトに関する情報をユーザ端末に表示させることができる。   According to the invention described in (7), similarly to the invention described in (1), it is possible to display information related to the background object in the transmitted whole image (image frame) on the user terminal.

[本発明の実施形態]
図1は、本発明の実施形態に係る情報提供装置10(以下、「装置10」と呼ぶ)の概略構成等を示す図である。図2は、ユーザ端末5等を示す概略図である。図3及は、ユーザ端末5等に表示される動画の一例を示す図である。図1に示すように、装置10は、画像辞書生成装置20、検索装置40及び背景オブジェクトマッチング装置100を有する。装置10は、通信回線である例えば、インターネット回線9を介して複数のユーザ端末5,5及びユーザ端末7等と通信可能になっている。
Embodiment of the present invention
FIG. 1 is a diagram showing a schematic configuration and the like of an information providing apparatus 10 (hereinafter referred to as “apparatus 10”) according to an embodiment of the present invention. FIG. 2 is a schematic diagram showing the user terminal 5 and the like. FIG. 3 is a diagram showing an example of a moving image displayed on the user terminal 5 or the like. As illustrated in FIG. 1, the device 10 includes an image dictionary generation device 20, a search device 40, and a background object matching device 100. The device 10 can communicate with a plurality of user terminals 5, 5, user terminals 7, and the like via a communication line such as the Internet line 9.

画像辞書生成装置20は、部分画像とその部分画像を含む動画等のコンテンツとを対応させた検索辞書を生成するサーバにより構成可能である。画像辞書生成装置20の検索キーは、文字列ではなくて、部分画像である。以下、検索するために入力される部分画像を「検索画像」と呼ぶ。このように、検索画像は、全体画像ではなくて、部分画像である。例えば、図3(a)に示される道路202、すずめ204、木206及び富士山210のすべてを含む画像を全体画像(画像フレーム)と呼ぶ。そして、富士山210等の個々の画像を部分画像と呼ぶ。複数の全体画像(画像フレーム)で、動画等のコンテンツが構成される。図3においては、すずめ204が主役であり、動画において、常に全体画像の中心付近に位置する。これに対して、道路202、木206及び富士山210は、背景画像である。   The image dictionary generation device 20 can be configured by a server that generates a search dictionary that associates a partial image with content such as a moving image including the partial image. The search key of the image dictionary generation device 20 is not a character string but a partial image. Hereinafter, the partial image input for searching is referred to as “search image”. Thus, the search image is not a whole image but a partial image. For example, an image including all of the road 202, the sparrow 204, the tree 206, and Mt. Fuji 210 illustrated in FIG. 3A is referred to as an entire image (image frame). Each image such as Mt. Fuji 210 is called a partial image. A plurality of whole images (image frames) constitute a content such as a moving image. In FIG. 3, the sparrow 204 is the leading role, and is always located near the center of the entire image in the moving image. On the other hand, the road 202, the tree 206, and Mt. Fuji 210 are background images.

検索装置40は、ユーザ端末5等から受信した検索画像に対応して、コンテンツへのリンク(URLやアドレス)を画像辞書生成装置20の画像検索DB34(図4参照)から抽出し、ユーザ端末5等に送信するためのサーバにより構成可能である。なお、検索装置40は、当該コンテンツへのリンクに加えて、関連する情報を送信するようにしてもよい。背景オブジェクトマッチング装置100は、ユーザ端末5等に送信する動画情報に含まれる特定の背景画像に関連付けられている観光情報を、その背景画像が表示されている間だけユーザ端末5等に表示させるための構成である。   In response to the search image received from the user terminal 5 or the like, the search device 40 extracts a link (URL or address) to the content from the image search DB 34 (see FIG. 4) of the image dictionary generation device 20, and the user terminal 5. It can be configured by a server for transmitting to the network. Note that the search device 40 may transmit related information in addition to the link to the content. The background object matching apparatus 100 displays the tourist information associated with a specific background image included in the moving image information transmitted to the user terminal 5 or the like on the user terminal 5 or the like only while the background image is displayed. It is the composition.

図2(a)に示すように、ユーザ端末5は、例えば、携帯電話機により構成可能であり、液晶画面5a、操作ボタン群5b、決定ボタン5c及び移動ボタン5dを有する。移動ボタン5dは、一般的な機能のほかに、液晶画面5aに表示された全体画像の中の特定の部分画像にカーソルを合わせるためにも使用される。決定ボタン5cは、一般的な機能のほかに、移動ボタン5dによってカーソルが合わせられた部分画像を、検索画像として決定するためにも使用される。図2(b)に示すように、ユーザ端末7は、例えば、ノート型のパーソナルコンピュータにより構成可能であり、液晶画面7a、操作ボタン群7b及びマウス7cを有する。液晶画面5a及び7aには、様々な情報が表示されるが、例えば、図3(a)〜(c)に示す動画も表示される。図3に示すシーン1〜3の画像は、連続的に表示され、一連の動画を構成する。   As shown in FIG. 2A, the user terminal 5 can be configured by a mobile phone, for example, and includes a liquid crystal screen 5a, an operation button group 5b, an enter button 5c, and a move button 5d. In addition to the general function, the movement button 5d is also used to move the cursor to a specific partial image in the entire image displayed on the liquid crystal screen 5a. In addition to a general function, the determination button 5c is also used to determine a partial image on which the cursor is moved by the movement button 5d as a search image. As shown in FIG. 2B, the user terminal 7 can be configured by, for example, a notebook personal computer, and includes a liquid crystal screen 7a, an operation button group 7b, and a mouse 7c. Various information is displayed on the liquid crystal screens 5a and 7a. For example, moving images shown in FIGS. 3A to 3C are also displayed. The images of scenes 1 to 3 shown in FIG. 3 are continuously displayed to form a series of moving images.

[画像辞書生成装置20について]
図4は、画像辞書生成装置20の構成を示す概略ブロック図である。
図4に示すように、画像辞書生成装置20は、コンテンツ取得部21を有する。コンテンツ取得部21は、インターネット回線9を介して装置10の外部から種々のコンテンツを取得(受信)するための構成であり、画像情報取得部として機能する。コンテンツ取得部21は、コンピュータプログラムとそのプログラムに基づいて装置10を制御するCPU(Central Processing Unit)等のハードウェアで構成され、入力部及び出力部を有する。なお、以下に説明する各部も同様に、コンピュータプログラムとハードウェアで構成され、入力部及び出力部を有する。
[Image Dictionary Generation Device 20]
FIG. 4 is a schematic block diagram illustrating the configuration of the image dictionary generation device 20.
As illustrated in FIG. 4, the image dictionary generation device 20 includes a content acquisition unit 21. The content acquisition unit 21 is a configuration for acquiring (receiving) various contents from the outside of the device 10 via the Internet line 9 and functions as an image information acquisition unit. The content acquisition unit 21 includes a computer program and hardware such as a CPU (Central Processing Unit) that controls the apparatus 10 based on the program, and includes an input unit and an output unit. Each unit described below is similarly configured by a computer program and hardware, and has an input unit and an output unit.

コンテンツには、テキストデータ及び画像データを含む。画像データには動画データを含む。画像辞書生成装置20は、コンテンツクラスタリング部22を有する。コンテンツクラスタリング部22は、いわゆる教師あり学習によって分類方法を機械学習した状態において、外部から取得したコンテンツをクラスタ(部分集合)に分類し、コンテンツDB(データベース)30に格納するための構成である。すなわち、コンテンツクラスタリング部22は、自動分類器である。各コンテンツは、固有のアドレス(またはURL)を有する。上述のコンテンツクラスタリング部22は、画像情報格納部として機能する。クラスタは、例えば、「登山関連コンテンツの集合」、「旅行関連コンテンツの集合」、「音楽関連コンテンツの集合」等である。   The content includes text data and image data. The image data includes moving image data. The image dictionary generation device 20 includes a content clustering unit 22. The content clustering unit 22 is configured to classify content acquired from the outside into clusters (subsets) and store them in a content DB (database) 30 in a state where the classification method is machine-learned by so-called supervised learning. That is, the content clustering unit 22 is an automatic classifier. Each content has a unique address (or URL). The content clustering unit 22 described above functions as an image information storage unit. The cluster is, for example, “a set of mountain climbing related contents”, “a set of travel related contents”, “a set of music related contents”, or the like.

図4に示すように、画像辞書生成装置20は、部分画像取得部23を有する。部分画像取得部23は、例えば、図3(a)中のすずめ204の画像(以下、単に「すずめ204」とも呼ぶ。他の部分画像についても同様である)を取得するための構成である。例えば、部分画像取得部23は、コンテンツDB30に格納したコンテンツから、自動的に部分画像を抽出するようになっている。なお、部分画像取得部23は、例えば、ユーザ端末7に図3(a)の画像が表示され、ユーザ端末7のユーザがマウス7cによってすずめ204にカーソルを合わせてクリックすると、インターネット回線9を介して全体画像とその全体画像に含まれる部分画像(例えば、すずめ204)を受信するように構成されていてもよい。   As illustrated in FIG. 4, the image dictionary generation device 20 includes a partial image acquisition unit 23. The partial image acquisition unit 23 has a configuration for acquiring, for example, an image of the sparrow 204 in FIG. 3A (hereinafter, also simply referred to as “sparrow 204”. The same applies to other partial images). For example, the partial image acquisition unit 23 automatically extracts a partial image from content stored in the content DB 30. For example, the partial image acquisition unit 23 displays the image of FIG. 3A on the user terminal 7, and when the user of the user terminal 7 places the cursor on the sparrow 204 with the mouse 7 c and clicks, the partial image acquisition unit 23 transmits via the Internet line 9. The whole image and the partial image (for example, sparrow 204) included in the whole image may be received.

図4に示すように、画像辞書生成装置20は、部分画像クラスタリング部24を有する。部分画像クラスタリング部24は、いわゆる教師あり学習によって分類方法を機械学習し、外部から取得したコンテンツをクラスタ(部分集合)に分類し、部分画像DB32に格納するための構成である。すなわち、部分画像クラスタリング部24は、自動分類器であり、部分画像格納部として機能する。クラスタは、例えば、「山の集合」、「観光名所の集合」、「楽器の集合」等である。   As illustrated in FIG. 4, the image dictionary generation device 20 includes a partial image clustering unit 24. The partial image clustering unit 24 is configured to perform machine learning of the classification method by so-called supervised learning, classify content acquired from the outside into clusters (subsets), and store the contents in the partial image DB 32. That is, the partial image clustering unit 24 is an automatic classifier and functions as a partial image storage unit. The cluster is, for example, “a collection of mountains”, “a collection of tourist attractions”, “a collection of musical instruments”, or the like.

図4に示すように、画像辞書生成装置20は、特徴付与部25を有する。特徴付与部25は、取得した部分画像の特徴を解析し、特徴情報を生成するための構成であり、特徴情報生成部として機能する。特徴付与部25は、例えば、部分画像の輪郭及び使用されている色の数を特徴として抽出するようになっている。輪郭は、エッジ処理によって抽出される。これらの特徴によって、同一の部分画像(例えば、富士山)を見る角度が異なる場合であっても、それらの部分画像が同一であることを判断することができる。   As illustrated in FIG. 4, the image dictionary generation device 20 includes a feature adding unit 25. The feature adding unit 25 is a configuration for analyzing the features of the acquired partial image and generating feature information, and functions as a feature information generating unit. The feature adding unit 25 extracts, for example, the contour of the partial image and the number of used colors as features. The contour is extracted by edge processing. With these characteristics, even when the viewing angle of the same partial image (for example, Mt. Fuji) is different, it can be determined that the partial images are the same.

図4に示すように、画像辞書生成装置20は、タグ付与部26を有する。タグ付与部26は、部分画像から抽出した特徴情報をタグ(または、インデックス)として、そのタグとコンテンツDB30に格納されたコンテンツとのリンクと関連付けて、画像テーブルに記録するための構成である。画像テーブルは、画像検索DB34に格納されている。   As illustrated in FIG. 4, the image dictionary generation device 20 includes a tag adding unit 26. The tag providing unit 26 is configured to record the feature information extracted from the partial image as a tag (or index) in association with a link between the tag and the content stored in the content DB 30 in the image table. The image table is stored in the image search DB 34.

図5は、画像テーブルの一例を示す図である。図5に示すように、画像テーブルにおいては、動画ID(画像IDまたはコンテンツIDとも呼ぶ)、特徴情報、クラスタリングID、コンテンツのアドレス、シーン内位置、画像(画像フレーム)内位置(座標)、動きベクトル、及び広告IDが関連付けられている。「動画ID」は、例えば、図3の動画全体の識別情報である。   FIG. 5 is a diagram illustrating an example of an image table. As shown in FIG. 5, in the image table, a moving image ID (also referred to as an image ID or content ID), feature information, clustering ID, content address, in-scene position, in-image (image frame) position (coordinates), motion A vector and an advertisement ID are associated with each other. “Movie ID” is, for example, identification information of the entire movie shown in FIG.

なお、本実施の形態においては、特徴情報を検索キーとして使用する。「特徴情報」は、部分画像の特徴を示す情報である。特徴情報は、例えば、富士山の輪郭と、その富士山に使用されている色の数(図5の例では、5色)を示す。「クラスタリングID」は、各部分画像が属するクラスタ(部分集合)の識別情報である。「コンテンツへのリンク」は、例えば、図3の動画全体のアドレスまたはURLである。「シーン内位置」は、例えば、図3の動画全体における各シーンの時間的位置を示す情報である。「画像内位置(座標)」は、例えば、図3(a)の全体画像の中で、富士山210の中心部分が位置する座標を示す情報である。「動きベクトル」は、全体画像の中における部分画像の動きを示す情報である。「広告ID」は、各部分画像に対応するバナー広告の識別情報である。なお、本実施の形態とは異なり、「広告ID」に替えて、観光地情報(観光地の情報)を示す「観光地情報ID」を画像テーブルに入れるようにしてもよい。   In the present embodiment, feature information is used as a search key. “Feature information” is information indicating the features of the partial image. The feature information indicates, for example, the outline of Mt. Fuji and the number of colors used in the Mt. Fuji (5 colors in the example of FIG. 5). “Clustering ID” is identification information of a cluster (subset) to which each partial image belongs. “Link to content” is, for example, the address or URL of the entire moving image of FIG. “In-scene position” is, for example, information indicating the temporal position of each scene in the entire moving image of FIG. “In-image position (coordinates)” is, for example, information indicating coordinates at which the central portion of Mt. Fuji 210 is located in the entire image of FIG. The “motion vector” is information indicating the motion of the partial image in the entire image. “Advertisement ID” is identification information of a banner advertisement corresponding to each partial image. Unlike this embodiment, “sightseeing spot information ID” indicating sightseeing spot information (tourist spot information) may be entered in the image table instead of “advertisement ID”.

図6は、画像検索DB34に格納されている広告テーブル及び背景オブジェクトテーブルを示す図である。広告テーブルには、広告IDと富士山等の場所及びタグとが関連付けて格納されている。広告テーブルの「場所」及び「タグ」は、広告主が自由に指定することができるテキスト情報である。「場所」もタグの一種であり、「タグ」は「場所」以外のタグである。例えば、特定の広告IDに対して、「場所」は「富士山」であり、「タグ」は「3776メートル」、「日本一」、「国立公園」、「日の出」である。このように、1つの広告IDに対して、少なくとも1以上の「場所」及び「タグ」が付加される。   FIG. 6 is a diagram showing an advertisement table and a background object table stored in the image search DB 34. In the advertisement table, advertisement IDs, places such as Mt. Fuji, and tags are stored in association with each other. The “location” and “tag” in the advertisement table are text information that can be freely specified by the advertiser. “Location” is also a type of tag, and “tag” is a tag other than “location”. For example, for a specific advertisement ID, “place” is “Mt. Fuji”, and “tag” is “3776 meters”, “Japan's best”, “national park”, “sunrise”. As described above, at least one “location” and “tag” are added to one advertisement ID.

背景オブジェクトテーブルには、特徴情報とユーザ(動画配信事業者)が付与した場所及びタグとが関連付けられて格納されている。背景オブジェクトテーブルの「場所」及び「タグ」は、ユーザ(動画配信事業者)が動画の中の部分画像に自由に付与できるテキスト情報である。「場所」もタグの一種であり、「タグ」は「場所」以外のタグである。例えば、部分画像としての「富士山」に対して、「場所」は「富士山」であり、「タグ」は「3776メートル」、「日本一」、「国立公園」、「日の出」である。このように、1つの部分画像に対して、少なくとも1以上の「場所」及び「タグ」が付加される。   In the background object table, the feature information and the location and tag assigned by the user (video distributor) are stored in association with each other. “Place” and “tag” in the background object table are text information that can be freely given to a partial image in a moving image by a user (moving image distributor). “Location” is also a type of tag, and “tag” is a tag other than “location”. For example, for “Mt. Fuji” as a partial image, “place” is “Mt. Fuji”, and “tag” is “3776 meters”, “Japan's best”, “national park”, “sunrise”. In this way, at least one “location” and “tag” are added to one partial image.

これにより、例えば、広告主が特定の広告IDと「3776メートル」というタグを指定することにより、そのタグをキーとして広告IDと特徴情報を関連付けることができ、画像テーブルを形成することができる。また、広告主が特定の広告IDと「日本一」というタグを指定することにより、そのタグをキーとして広告IDと特徴情報を関連付けることができる。このように、広告主が指定した様々なタグを使用して、特定の広告IDと特定の背景オブジェクトを関連付けることができる。このようにして、図5の画像テーブルを生成することができる。   Thereby, for example, when the advertiser designates a specific advertisement ID and a tag “3776 meters”, the advertisement ID and the feature information can be associated with each other using the tag as a key, and an image table can be formed. Further, when the advertiser designates a specific advertisement ID and a tag “Japan's best”, the advertisement ID and the feature information can be associated with each other using the tag as a key. In this way, a specific advertisement ID and a specific background object can be associated with each other using various tags specified by the advertiser. In this way, the image table of FIG. 5 can be generated.

図7は、部分画像辞書の一例を示す概念図である。部分画像辞書は、上述の画像テーブルの一部である。図7に示すように、部分画像辞書は、1つの特徴情報に対して、少なくとも1つのコンテンツのアドレスを関連付けて構成される。コンテンツは動画である場合もある。画像検索DB34は、装置10に含まれる各装置が共通に使用する。   FIG. 7 is a conceptual diagram illustrating an example of a partial image dictionary. The partial image dictionary is a part of the image table described above. As shown in FIG. 7, the partial image dictionary is configured by associating at least one content address with one piece of feature information. The content may be a video. The image search DB 34 is commonly used by each device included in the device 10.

[検索装置40について]
装置10は、検索装置40によって、ユーザ端末5等から受信した検索画像に基づいて、画像検索DB34を参照し、コンテンツのURLをユーザ端末5等に返すようになっている。検索装置40は、コンテンツのURL以外に、検索画像に関連する情報をテキスト情報として送信するようにしてもよい。
[Searching device 40]
The device 10 refers to the image search DB 34 based on the search image received from the user terminal 5 or the like by the search device 40 and returns the URL of the content to the user terminal 5 or the like. The search device 40 may transmit information related to the search image as text information in addition to the content URL.

図8は、検索装置40の概略構成を示すブロック図である。図8(a)に示すように、検索装置40は、クエリ受付部41、検索処理部42、検索結果生成部43、検索結果送信部44及び検索ログ記録部45を有する。クエリ受付部41は、ユーザ端末5等から検索画像を受け付けるための構成である。検索処理部42は、検索画像と相関する特徴を有する部分画像のタグIDを画像検索DB34から探索するための構成である。検索結果生成部43は、ユーザ端末5等に送信するための検索結果を生成するための構成である。検索結果送信部44は、ユーザ端末5等に検索結果を送信するための構成であり、関連情報送信部として機能する。検索ログ記録部45は、各部分画像が検索された記録を生成するための構成である。   FIG. 8 is a block diagram illustrating a schematic configuration of the search device 40. As illustrated in FIG. 8A, the search device 40 includes a query reception unit 41, a search processing unit 42, a search result generation unit 43, a search result transmission unit 44, and a search log recording unit 45. The query receiving unit 41 is configured to receive a search image from the user terminal 5 or the like. The search processing unit 42 is configured to search the image search DB 34 for tag IDs of partial images having characteristics that correlate with the search image. The search result generation unit 43 is configured to generate a search result for transmission to the user terminal 5 or the like. The search result transmission unit 44 is configured to transmit the search result to the user terminal 5 and the like, and functions as a related information transmission unit. The search log recording unit 45 is configured to generate a record in which each partial image is searched.

図8(b)に示すように、検索処理部42は、画像取得部42a、特徴検出部42b、画像検索部42c及び関連情報抽出部42dを有する。画像取得部42aは、部分画像を検索キーとして受信する部分画像受信部として機能する。特徴検出部42bは、受信した部分画像の輪郭や色の数等の特徴を検出するための構成である。画像検索部42cは、タグIDを抽出する識別情報抽出部として機能する。関連情報抽出部42dは、検索画像に基づいて探索した部分画像に関連する関連情報をコンテンツDB30から抽出するための構成である。例えば、装置10がユーザ端末5から料理の写真を検索画像として受信した場合に、関連情報抽出部42dは、その料理のレシピをコンテンツDB30から抽出するようになっている。関連情報抽出部42dが抽出した関連情報は、上述の検索結果送信部44によってユーザ端末5等に送信される。   As illustrated in FIG. 8B, the search processing unit 42 includes an image acquisition unit 42a, a feature detection unit 42b, an image search unit 42c, and a related information extraction unit 42d. The image acquisition unit 42a functions as a partial image receiving unit that receives a partial image as a search key. The feature detection unit 42b has a configuration for detecting features such as the contour and the number of colors of the received partial image. The image search unit 42c functions as an identification information extraction unit that extracts a tag ID. The related information extraction unit 42d is configured to extract related information related to the partial image searched based on the search image from the content DB 30. For example, when the apparatus 10 receives a photo of a dish from the user terminal 5 as a search image, the related information extraction unit 42d extracts the recipe for the dish from the content DB 30. The related information extracted by the related information extraction unit 42d is transmitted to the user terminal 5 or the like by the search result transmission unit 44 described above.

図9は、検索結果送信部44(図8(a)参照)によって送信されたデータに基づいて、ユーザ端末5の液晶画面5aに表示される検索結果の一例を示す図である。図9に示すように、例えば、検索画像が「Aタイプ自動車」であれば、Aタイプ自動車の画像とともに、Aタイプ自動車が表示されているホームページのアドレスが少なくとも1つ表示されるようになっている。このとき、同時にAタイプ自動車の排気量等の性能等の関連情報が表示されるようにしてもよい。   FIG. 9 is a diagram illustrating an example of a search result displayed on the liquid crystal screen 5a of the user terminal 5 based on the data transmitted by the search result transmission unit 44 (see FIG. 8A). As shown in FIG. 9, for example, if the search image is “A type car”, at least one address of the home page where the A type car is displayed is displayed together with the image of the A type car. Yes. At this time, related information such as the performance such as the displacement of the A type automobile may be displayed at the same time.

後述のように、装置10は、ユーザ端末5のユーザが特定のアドレスをクリックした場合に、コンテンツDB30から動画を抽出して送信するのであるが、この際に、その動画に含まれる背景オブジェクトに対応するバナー広告も送信して、端末5等に表示させるようになっている。   As will be described later, when the user of the user terminal 5 clicks on a specific address, the device 10 extracts and transmits a moving image from the content DB 30. At this time, the background image included in the moving image is displayed. A corresponding banner advertisement is also transmitted and displayed on the terminal 5 or the like.

[背景オブジェクトマッチング装置100について]
図10は、背景オブジェクトマッチング装置100(以下、「マッチング装置100」と呼ぶ)の概略構成等を示すブロック図である。図11及び図12は、背景画像を抽出する様子の一例を示す図である。図13及び図14は、背景オブジェクトを特定する様子の一例を示す図である。
[Background Object Matching Device 100]
FIG. 10 is a block diagram showing a schematic configuration and the like of the background object matching device 100 (hereinafter referred to as “matching device 100”). 11 and 12 are diagrams illustrating an example of how a background image is extracted. 13 and 14 are diagrams showing an example of how the background object is specified.

図10に示すように、マッチング装置100は、画像取得部102、画像表示部104、オプティカルフロー解析部106、ラベリング処理部108、背景画像抽出部110、背景オブジェクト特定部112、関連付け部114、関連情報マッチング部116、及び関連情報DB120を有する。画像取得部102は、動画情報を例えば、コンテンツDB30(図4参照)から自動的に取得するための構成である。なお、画像取得部102は、動画情報を、装置10の外部から受信するようにしてもよい。画像取得部102は、画像情報取得部の一例である。   As shown in FIG. 10, the matching apparatus 100 includes an image acquisition unit 102, an image display unit 104, an optical flow analysis unit 106, a labeling processing unit 108, a background image extraction unit 110, a background object specification unit 112, an association unit 114, An information matching unit 116 and a related information DB 120 are included. The image acquisition unit 102 is configured to automatically acquire moving image information from, for example, the content DB 30 (see FIG. 4). Note that the image acquisition unit 102 may receive the moving image information from the outside of the device 10. The image acquisition unit 102 is an example of an image information acquisition unit.

画像表示部104は、画像取得部102が取得した動画を表示するための液晶表示画面104a(以下、「表示画面104a」と呼ぶ)を有し、例えば、横1280ピクセル、縦1024ピクセルの大きさである。画像表示部104の各画素の色や輝度を変化させることによって、表示画面104aに画像を表示するようになっている。   The image display unit 104 has a liquid crystal display screen 104a (hereinafter, referred to as “display screen 104a”) for displaying the moving image acquired by the image acquisition unit 102, and has a size of, for example, horizontal 1280 pixels and vertical 1024 pixels. It is. An image is displayed on the display screen 104a by changing the color and brightness of each pixel of the image display unit 104.

オプティカルフロー解析部106は、全体画像の各画素のオプティカルフローを解析するための構成であり、オプティカルフロー解析部の一例である。ここで、オプティカルフローとは、画像中のある点や図形が次の瞬間にどのような方向へ、どの程度の距離を移動するかを示すベクトルである。言い換えると、オプティカルフローとは、画像上の各点の速度場のことであり、その抽出法は、例えば、特開2006−98119号公報に開示されている。   The optical flow analysis unit 106 is a configuration for analyzing the optical flow of each pixel of the entire image, and is an example of an optical flow analysis unit. Here, the optical flow is a vector indicating in what direction and how far a certain point or figure in the image moves at the next moment. In other words, the optical flow is a velocity field at each point on the image, and the extraction method is disclosed in, for example, Japanese Patent Application Laid-Open No. 2006-98119.

例えば、装置10の表示画面104aに表示される全体画像が図11(a)の状態から図11(b)に示すように変わった場合、主役であるターゲット205は画像表示部104の表示画面104aのほぼ中心部分に位置しつづける。これに対して、富士山210は、表示画面104aにおいて矢印X1方向に動く。すなわち、実際には矢印X2方向に動くのは、ターゲット205であるが、ターゲット205は表示画面104a上においてほとんど動かない。これに対して、背景画像である富士山210は主役であるターゲット205よりも大きく動く。なお、図11(a)及び図11(b)においては、富士山210は、完全には表示されておらず、その一部が表示されている。なお、本実施形態においては、輪郭の全体が現れていても一部が現れているに過ぎなくても、主役以外の画像を背景画像と呼ぶ。そして、主役の画像と背景画像との区別は、後述の動きベクトルの大きさによって規定する。また、背景画像は、必ずしもその全貌が表示画面104aに表示されるとは限らない。このため、背景画像の全貌を「背景オブジェクト」として区別して呼ぶ。例えば、富士山210の場合、その「麓」の部分は背景画像であるが、背景オブジェクトとしては「富士山」である。   For example, when the entire image displayed on the display screen 104a of the apparatus 10 changes from the state shown in FIG. 11A as shown in FIG. 11B, the main target 205 is the display screen 104a of the image display unit 104. It continues to be located at the center of the center. In contrast, Mount Fuji 210 moves in the direction of arrow X1 on the display screen 104a. That is, the target 205 actually moves in the direction of the arrow X2, but the target 205 hardly moves on the display screen 104a. On the other hand, Mt. Fuji 210, which is a background image, moves larger than the target 205, which is the leading role. In FIGS. 11 (a) and 11 (b), Mt. Fuji 210 is not completely displayed, and a part thereof is displayed. In the present embodiment, an image other than the leading role is referred to as a background image, regardless of whether the entire outline appears or only a part appears. The distinction between the main character image and the background image is defined by the magnitude of a motion vector described later. Further, the background image is not always displayed on the display screen 104a. For this reason, the entire background image is referred to as a “background object”. For example, in the case of Mt. Fuji 210, the “麓” portion is a background image, but the background object is “Mt. Fuji”.

オプティカルフロー解析部106は、例えば、図11(a)の全体画像(フレーム)から、次の全体画像である図11(b)へ移り変わるときのオプティカルフローを各画素ごとに解析する。   The optical flow analysis unit 106 analyzes, for example, the optical flow when changing from the entire image (frame) in FIG. 11A to the next entire image in FIG. 11B for each pixel.

ラベリング処理部108は、オプティカルフロー解析部106の解析結果に基づいて、各画素の動きを示す動きベクトルを各画素に関連付けるための構成であり、ラベリング処理部の一例である。   The labeling processing unit 108 is a configuration for associating a motion vector indicating the motion of each pixel with each pixel based on the analysis result of the optical flow analysis unit 106, and is an example of a labeling processing unit.

ラベリング処理部108は、例えば、図12(a)に表示画面104aに表示されたイメージを示すように、各画素の動きを示す動きベクトルa(a1,a2・・・),b(b1,b2・・・)を、各画素に関連付ける。図12(a)のイメージでは、動き始めの画素が動きベクトルa及びbの基部となるように関連づけている。   The labeling processing unit 108, for example, as shown in FIG. 12A, an image displayed on the display screen 104a, motion vectors a (a1, a2...), B (b1, b2) indicating the movement of each pixel. ...) Are associated with each pixel. In the image of FIG. 12A, the pixels at the start of movement are associated with each other so that they become the bases of the motion vectors a and b.

背景画像抽出部110は、各画素に関連付けられた動きベクトルa1等に基づいて、背景画像を抽出するための構成であり、背景画像抽出手段の一例である。背景画像抽出部110は、動きベクトルbに比べて相対的に大きい動きベクトルaに関連付けられた画素によって形成される画像を背景画像であると判断する。ここで、相対的に大きいとは、その動きベクトルの大きさが、2倍以上であることを意味する。   The background image extraction unit 110 is configured to extract a background image based on the motion vector a1 associated with each pixel, and is an example of a background image extraction unit. The background image extraction unit 110 determines that an image formed by pixels associated with a motion vector a that is relatively larger than the motion vector b is a background image. Here, “relatively large” means that the size of the motion vector is twice or more.

なお、本実施の形態とは異なり、背景画像抽出部110は、全体画像の少なくとも1つの隅近傍の画素とほぼ同じ動きベクトルに対応する画素を含む画像を背景画像であると判断する。すなわち、背景画像抽出部110は、相対的に大きい動きベクトルに関連付けられた画素によって形成される画像、及び、全体画像の少なくとも1つの隅近傍の画素とほぼ同じ動きベクトルに対応する画素を含む画像を背景画像であると判断するようにしてもよい。ここで、「隅近傍」とは、例えば、隅の1つの画素(「隅の画素」と呼ぶ)及び、隅の画素から半径20ピクセル以内に位置する画素である。「ほぼ同じ」とは、例えば、90パーセント(%)以上一致することを意味する。   Note that unlike the present embodiment, the background image extraction unit 110 determines that an image including a pixel corresponding to a motion vector substantially the same as a pixel near at least one corner of the entire image is a background image. That is, the background image extraction unit 110 includes an image formed by pixels associated with a relatively large motion vector and an image including pixels corresponding to substantially the same motion vector as pixels near at least one corner of the entire image. May be determined to be a background image. Here, the “near corner” is, for example, one pixel at the corner (referred to as “corner pixel”) and a pixel located within a radius of 20 pixels from the corner pixel. “Substantially the same” means, for example, a match of 90 percent (%) or more.

図12(b)には、背景画像に対応すると判断された動きベクトルaだけを表示している。背景画像抽出部110は、背景画像に対応すると判断された動きベクトルaの複数の基部を連続させて画像を形成することによって、図12(c)に示すように、背景画像を抽出する。   In FIG. 12B, only the motion vector a determined to correspond to the background image is displayed. The background image extraction unit 110 extracts a background image as shown in FIG. 12C by continuously forming a plurality of base portions of the motion vector a determined to correspond to the background image.

背景オブジェクト特定部112は、少なくとも1つの背景画像に基づいて、背景オブジェクトを特定するための構成であり、背景オブジェクト特定手段の一例である。背景オブジェクト特定部112は、上述の背景画像抽出部110によって抽出した背景画像の特徴(輪郭及び色の数)を検出し、画像検索DB34に格納されている部分画像の特徴と予め規定した程度において一致した場合に、背景オブジェクトを特定する。背景オブジェクト特定部112は、背景画像の特徴と画像検索DB34に格納されている特徴情報が予め規定した程度である例えば、90%以上一致した場合に、背景オブジェクトを特定するようになっている。例えば、画像検索DB34に富士山210の全貌の特徴情報が格納されており、富士山210の全貌が1つの背景画像に表示されている場合に、特徴が90%以上一致すれば、背景オブジェクトを特定することができる。   The background object specifying unit 112 is a configuration for specifying a background object based on at least one background image, and is an example of a background object specifying unit. The background object specifying unit 112 detects the features (the number of outlines and colors) of the background image extracted by the background image extracting unit 110 described above, and to the extent specified in advance as the features of the partial images stored in the image search DB 34. If they match, identify the background object. The background object specifying unit 112 is configured to specify a background object when the feature of the background image and the feature information stored in the image search DB 34 coincide with each other to a predetermined degree, for example, 90% or more. For example, if the feature information of the entire image of Mt. Fuji 210 is stored in the image search DB 34 and the entire image of Mt. Fuji 210 is displayed in one background image, the background object is specified if the features match 90% or more. be able to.

これに対して、背景画像に富士山210の一部しか表示されていない場合には、背景オブジェクト特定部112は、複数の背景画像を合成して、背景オブジェクトを特定するようになっている。図13の例では、不完全な2つの富士山210を合成することによって、完全な富士山210を生成し、背景オブジェクトとしての富士山210を特定している。また、図14の例では、図14(a)〜(d)は連続する画像フレームであって、各背景画像は実線で示される部分である。この場合、前の画像フレームに出てこない差分の部分(図の斜線部)を座標を考慮しつつ足し合わせていくことによって、図13(e)に示すように、完全な富士山210を生成し、背景オブジェクトとしての富士山210を特定することができる   On the other hand, when only a part of Mt. Fuji 210 is displayed on the background image, the background object specifying unit 112 combines the plurality of background images to specify the background object. In the example of FIG. 13, a complete Mt. Fuji 210 is generated by combining two incomplete Mt. Fujis 210, and the Mt. Fuji 210 as a background object is specified. In the example of FIG. 14, FIGS. 14A to 14D are continuous image frames, and each background image is a portion indicated by a solid line. In this case, as shown in FIG. 13 (e), a complete Mt. Fuji 210 is generated by adding the difference portions (shaded portions in the figure) that do not appear in the previous image frame in consideration of the coordinates. Fuji mountain 210 as a background object can be specified

関連付け部114は、背景オブジェクトとコンテンツDBに格納された動画とを関連付けるための構成である。具体的には、図5に示すように、その背景オブジェクトが含まれる動画IDと、その背景オブジェクトの特徴情報を関連付ける。   The associating unit 114 is a configuration for associating the background object and the moving image stored in the content DB. Specifically, as shown in FIG. 5, the moving image ID including the background object is associated with the feature information of the background object.

関連情報マッチング部116は、ユーザ端末5等からの要求に対応して送信した動画の中に、特定の背景オブジェクトが存在する間において、その特定の背景オブジェクトに関連付けられた関連情報である例えば、バナー広告をユーザ端末に表示させるための構成であり、マッチング部の一例である。バナー広告を表示するためのデータは、そのIDに関連付けられて広告DB120に格納されている。上述の背景オブジェクトが特定できればその特徴情報を特定でき、広告IDを特定することができる。そして、広告IDが特定できれば、広告DB120から特定の背景オブジェクトに対応するバナー広告を抽出することができる。   The related information matching unit 116 is related information associated with a specific background object while the specific background object exists in the moving image transmitted in response to the request from the user terminal 5 or the like. This is a configuration for displaying a banner advertisement on a user terminal, and is an example of a matching unit. Data for displaying the banner advertisement is stored in the advertisement DB 120 in association with the ID. If the above-described background object can be specified, the feature information can be specified, and the advertisement ID can be specified. And if advertisement ID can be specified, the banner advertisement corresponding to a specific background object can be extracted from advertisement DB120.

関連情報マッチング部116は、ユーザ端末5等に対して、コンテンツDB30に格納された動画情報を送信する際に、その動画に含まれる背景オブジェクトに対応するバナー広告を送信し、端末5等に表示させるための構成である。図15は、関連情報マッチング部116がユーザ端末5等に表示させる画面例を示す図である。図15に示すように、ユーザ端末5等の表示画面には、背景オブジェクトである富士山210が存在する間において、例えば、「富士山ホテル」という広告バナーを表示する。なお、本実施の形態とは異なり、関連情報マッチング部116は、図16に示すように、ユーザ端末5等の表示画面には、背景オブジェクトである富士山210が存在する間において、例えば、「富士山、紅葉みごろ」という観光地情報(観光に関する情報)を表示させるようにしてもよい。   When the related information matching unit 116 transmits the moving image information stored in the content DB 30 to the user terminal 5 or the like, the related information matching unit 116 transmits a banner advertisement corresponding to the background object included in the moving image and displays it on the terminal 5 or the like. It is the structure for making it. FIG. 15 is a diagram illustrating an example of a screen that the related information matching unit 116 displays on the user terminal 5 or the like. As shown in FIG. 15, for example, an advertisement banner “Mt. Fuji Hotel” is displayed on the display screen of the user terminal 5 or the like while the Mt. Fuji 210 as a background object exists. Unlike the present embodiment, as shown in FIG. 16, the related information matching unit 116 displays, for example, “Mt. Fuji” while the background object Mt. Fuji 210 exists on the display screen of the user terminal 5 or the like. Tourist spot information (information relating to sightseeing) may be displayed.

以上が、装置10の構成である。上述のように、装置10は、各画素の動きを示す動きベクトルを生成して背景画像を抽出し、さらに、背景オブジェクトを特定することができる。例えば、大きな山である背景オブジェクトが、各全体画像においてその一部だけが表示されている場合には、1つの背景画像だけでは背景オブジェクトを特定することができない場合がある。この点、装置10は、背景オブジェクト特定手段を有するから、1つの背景画像で背景オブジェクトを特定することができない場合であっても、2以上の背景画像に基づいて、背景オブジェクトを特定することができる。そして、装置10は、ユーザ端末5等からの要求に対応して送信した動画における特定の背景オブジェクトが端末5等の表示画面に表示されている間において、特定のオブジェクト画像に関連付けられた関連情報(バナー広告や観光地情報)をユーザ端末5等に送信して表示させることができる。このように、コンピュータネットワークにおいて送信される全体画像(画像フレーム)の中の背景オブジェクトに関する情報をユーザに表示させることができる。   The above is the configuration of the apparatus 10. As described above, the apparatus 10 can generate a motion vector indicating the motion of each pixel, extract a background image, and further specify a background object. For example, when only a part of a background object that is a large mountain is displayed in each entire image, the background object may not be specified by only one background image. In this regard, since the apparatus 10 includes the background object specifying unit, the background object can be specified based on two or more background images even when the background object cannot be specified with one background image. it can. And while the specific background object in the moving image transmitted in response to the request from the user terminal 5 or the like is displayed on the display screen of the terminal 5 or the like, the device 10 relates information related to the specific object image. (Banner advertisement and sightseeing spot information) can be transmitted to the user terminal 5 and displayed. In this way, information regarding the background object in the entire image (image frame) transmitted in the computer network can be displayed to the user.

また、装置10は、動きベクトルの大きさが相対的に大きい画素によって形成される画像が背景画像であると判断する構成になっているから、動きベクトルが相対的に大きい画素によって形成される画像を、背景画像として抽出することができる。ターゲットは、全体画像の中央部に位置する場合が多く、ターゲットの動きよりも背景画像の動き方が大きい傾向がある。装置10は、このような傾向を利用して、背景画像を効率的に抽出することができる。   In addition, since the apparatus 10 is configured to determine that an image formed by pixels having a relatively large motion vector is a background image, the image formed by pixels having a relatively large motion vector. Can be extracted as a background image. The target is often located in the center of the entire image, and the background image tends to move more than the target. The apparatus 10 can extract a background image efficiently using such a tendency.

また、装置10が、全体画像の少なくとも1つの隅近傍の画素とほぼ同じ動きベクトルに対応する画素を含む画像が背景画像であると判断する構成になっている場合には、背景画像である確立が高い隅近傍の画素の動きに基づいて、背景画像を抽出することができる。ターゲットは、全体画像の隅近傍に位置することが少ないのに対して、背景画像は全体画像の隅近傍に位置する傾向が大きい。装置10は、このような傾向を利用して、背景画像を高い確実性を持って抽出することができる。   In addition, when the apparatus 10 is configured to determine that an image including pixels corresponding to substantially the same motion vector as pixels near at least one corner of the entire image is a background image, the apparatus 10 is established as a background image. A background image can be extracted based on the movement of pixels in the vicinity of a high corner. The target is rarely positioned near the corner of the entire image, whereas the background image tends to be positioned near the corner of the entire image. The apparatus 10 can extract a background image with high certainty using such a tendency.

さらに、装置10は、関連情報として、特定の背景オブジェクトに関連付けられたー広告または観光情報をユーザ端末5等に表示させる構成になっているから、例えば、コンピュータネットワークにおいて送信される全体画像(フレーム)の中の背景オブジェクトに関する観光情報または広告をユーザに送信して表示させることができる。   Furthermore, since the apparatus 10 is configured to display advertisements or sightseeing information associated with a specific background object on the user terminal 5 or the like as related information, for example, an entire image (frame) transmitted in a computer network. ) Can be sent to the user for display of tourist information or advertisements related to background objects.

以下、装置10の動作例を主に図17を使用して説明する。図17は、装置10の動作例を示す概略フローチャートである。   Hereinafter, an operation example of the apparatus 10 will be described mainly using FIG. FIG. 17 is a schematic flowchart showing an operation example of the apparatus 10.

まず、装置10は、外部のサーバからインターネット回線9を通じて動画情報を受信する(図17のステップS1)。このステップS1は、画像情報受信ステップの一例である。そして、各画素のオプティカルフローを解析し(ステップS2)、動きベクトルを生成する(ステップS3)。上述のステップS2は、オプティカルフロー解析ステップの一例であり、ステップS3はラベリング処理ステップの一例である。   First, the apparatus 10 receives moving image information from an external server through the Internet line 9 (step S1 in FIG. 17). This step S1 is an example of an image information receiving step. Then, the optical flow of each pixel is analyzed (step S2), and a motion vector is generated (step S3). Step S2 described above is an example of an optical flow analysis step, and step S3 is an example of a labeling process step.

続いて、装置10は、動画から背景画像を抽出し(ステップS4)、背景オブジェクトを特定する(ステップS5)。上述のステップS4は背景画像抽出ステップの一例であり、ステップS5は背景オブジェクト特定ステップの一例である。続いて、装置10は、背景オブジェクトを動画情報に関連付ける(ステップS6)。ステップS6は、関連付けステップの一例である。   Subsequently, the apparatus 10 extracts a background image from the moving image (step S4) and specifies a background object (step S5). Step S4 described above is an example of a background image extraction step, and step S5 is an example of a background object specifying step. Subsequently, the apparatus 10 associates the background object with the moving image information (step S6). Step S6 is an example of an association step.

そして、装置10は、ユーザ端末5等からの要求に応じて動画を送信する際に、その動画に含まれる背景オブジェクトに対応するバナー広告を広告DB120から抽出し(ステップST7)、動画とともにユーザ端末に送信することによって、その動画に特定の背景オブジェクトが表示されている間だけその背景オブジェクトに対応する広告バナーを表示させる(ステップS8)。このステップS7及び8は、マッチングステップの一例である。   Then, when transmitting a moving image in response to a request from the user terminal 5 or the like, the device 10 extracts a banner advertisement corresponding to the background object included in the moving image from the advertisement DB 120 (step ST7), and the user terminal together with the moving image. The advertisement banner corresponding to the background object is displayed only while the specific background object is displayed on the moving image (step S8). Steps S7 and S8 are an example of a matching step.

[プログラム及びコンピュータ読み取り可能な記録媒体等について]
コンピュータに上述の動作例の画像情報取得ステップ、オプティカルフロー解析ステップ、ラベリング処理ステップ、背景画像抽出ステップ、背景オブジェクト特定ステップ及びマッチングステップ等を実行させるためのコンピュータプログラム等とすることができる。また、このようなコンピュータプログラム等を記録したコンピュータ読み取り可能な記録媒体とすることもできる。
[Programs and computer-readable recording media]
A computer program for causing a computer to execute the image information acquisition step, the optical flow analysis step, the labeling processing step, the background image extraction step, the background object specifying step, the matching step, and the like of the above-described operation example can be used. Moreover, it can also be set as the computer-readable recording medium which recorded such a computer program etc.

[情報提供装置10のハードウェア構成]
図18は、装置10のハードウェア構成例を示す図である。装置10は、それぞれの制御部を構成するCPU(Central Processing Unit)1010(マルチプロセッサ構成ではCPU1012等複数のCPUが追加されてもよい)、バスライン1005、通信I/F1040、メインメモリ1050、BIOS(Basic Input Output System)1060、USBポート1090、I/Oコントローラ1070、ならびにキーボード及びマウス1100等の入力手段や表示装置1022を備える。
[Hardware Configuration of Information Providing Device 10]
FIG. 18 is a diagram illustrating a hardware configuration example of the device 10. The apparatus 10 includes a CPU (Central Processing Unit) 1010 constituting each control unit (in a multiprocessor configuration, a plurality of CPUs such as a CPU 1012 may be added), a bus line 1005, a communication I / F 1040, a main memory 1050, a BIOS. (Basic Input Output System) 1060, a USB port 1090, an I / O controller 1070, input means such as a keyboard and mouse 1100, and a display device 1022.

I/Oコントローラ1070には、テープドライブ1072、ハードディスク1074、光ディスクドライブ1076、半導体メモリ1078、等の記憶手段を接続することができる。   Storage means such as a tape drive 1072, a hard disk 1074, an optical disk drive 1076, and a semiconductor memory 1078 can be connected to the I / O controller 1070.

BIOS1060は、装置10の起動時にCPU1010が実行するブートプログラムや、装置10のハードウェアに依存するプログラム等を格納する。   The BIOS 1060 stores a boot program executed by the CPU 1010 when the apparatus 10 is started up, a program depending on the hardware of the apparatus 10, and the like.

記憶部を構成するハードディスク1074は、装置10が機能するための各種プログラム及び本発明の機能を実行するプログラムを記憶しており、さらに必要に応じて各種データベースを構成可能である。   The hard disk 1074 constituting the storage unit stores various programs for the function of the device 10 and programs for executing the functions of the present invention, and various databases can be configured as necessary.

光ディスクドライブ1076としては、例えば、DVD−ROMドライブ、CD−ROMドライブ、DVD−RAMドライブ、CD−RAMドライブを使用することができる。この場合は各ドライブに対応した光ディスク1077を使用する。光ディスク1077から光ディスクドライブ1076によりプログラムまたはデータを読み取り、I/Oコントローラ1070を介してメインメモリ1050またはハードディスク1074に提供することもできる。また、同様にテープドライブ1072に対応したテープメディア1071を主としてバックアップのために使用することもできる。   As the optical disc drive 1076, for example, a DVD-ROM drive, a CD-ROM drive, a DVD-RAM drive, or a CD-RAM drive can be used. In this case, the optical disk 1077 corresponding to each drive is used. A program or data can be read from the optical disk 1077 by the optical disk drive 1076 and provided to the main memory 1050 or the hard disk 1074 via the I / O controller 1070. Similarly, the tape medium 1071 corresponding to the tape drive 1072 can be used mainly for backup.

装置10に提供されるプログラムは、ハードディスク1074、光ディスク1077、またはメモリーカード等の記録媒体に格納されて提供される。このプログラムは、I/Oコントローラ1070を介して、記録媒体から読み出され、または通信I/F1040を介してダウンロードされることによって、装置10にインストールされ実行されてもよい。   The program provided to the apparatus 10 is provided by being stored in a recording medium such as the hard disk 1074, the optical disk 1077, or a memory card. This program may be installed in the apparatus 10 and executed by being read from the recording medium via the I / O controller 1070 or downloaded via the communication I / F 1040.

前述のプログラムは、内部または外部の記憶媒体に格納されてもよい。ここで、記憶部を構成する記憶媒体としては、ハードディスク1074、光ディスク1077、またはメモリーカードの他に、MD等の光磁気記録媒体、テープメディア1071を用いることができる。また、専用通信回線やインターネットに接続されたサーバシステムに設けたハードディスク1074または光ディスクライブラリ等の記憶装置を記録媒体として使用し、通信回線を介してプログラムを情報処理装置1000に提供してもよい。 The aforementioned program may be stored in an internal or external storage medium. Here, in addition to the hard disk 1074, the optical disk 1077, or the memory card, a magneto-optical recording medium such as an MD, or a tape medium 1071 can be used as a storage medium constituting the storage unit. Further, a storage device such as a hard disk 1074 or an optical disk library provided in a server system connected to a dedicated communication line or the Internet may be used as a recording medium, and the program may be provided to the information processing apparatus 1000 via the communication line.

ここで、表示装置1022は、サーバ管理者にデータの入力を受け付ける画面を表示したり、装置10による演算処理結果の画面を表示したりするものであり、ブラウン管表示装置(CRT)、液晶表示装置(LCD)等のディスプレイ装置を含む。   Here, the display device 1022 displays a screen for accepting data input to the server administrator, or displays a screen of a result of arithmetic processing by the device 10, and is a cathode ray tube display device (CRT) or a liquid crystal display device. (LCD) and other display devices.

ここで、入力手段は、サーバ管理者による入力の受け付けを行うものであり、キーボード及びマウス1100等により構成してよい。   Here, the input means accepts input by the server administrator, and may be constituted by a keyboard, a mouse 1100, and the like.

また、通信I/F1040は、情報処理装置1000を専用ネットワークまたは公共ネットワークを介して端末と接続できるようにするためのネットワーク・アダプタである。通信I/F1040は、モデム、ケーブル・モデム及びイーサネット(登録商標)・アダプタを含んでよい。   The communication I / F 1040 is a network adapter that enables the information processing apparatus 1000 to be connected to a terminal via a dedicated network or a public network. The communication I / F 1040 may include a modem, a cable modem, and an Ethernet (registered trademark) adapter.

以上の例は、装置10について主に説明したが、コンピュータに、プログラムをインストールして、そのコンピュータを装置10として動作させることにより上記で説明した機能を実現することもできる。従って、本発明において一実施形態として説明した情報処理装置1000により実現される機能は、上述の方法を当該コンピュータにより実行することにより、あるいは、上述のプログラムを当該コンピュータに導入して実行することによっても実現可能である。   In the above example, the apparatus 10 has been mainly described. However, the functions described above can also be realized by installing a program in a computer and causing the computer to operate as the apparatus 10. Therefore, the functions realized by the information processing apparatus 1000 described as an embodiment in the present invention are executed by executing the above-described method by the computer, or by introducing the above-described program into the computer and executing it. Is also feasible.

本発明の実施形態である装置10、またはこれらの装置の制御で用いられる方法を、コンピュータ上のプログラムによって実現する場合において、上記プログラムを格納する記憶媒体は、電子的、磁気的、光学的、電磁的、赤外線または半導体システム(または、装置または機器)あるいは伝搬媒体であることができる。この記憶媒体の例には、半導体またはソリッド・ステート記憶装置、磁気テープ、取り外し可能なコンピュータ可読の媒体の例には、半導体またはソリッド・ステート記憶装置、磁気テープ、取り外し可能なフレキシブルディスク、ランダム・アクセス・メモリ(RAM)、リードオンリー・メモリ(ROM)、リジッド磁気ディスク及び光ディスクが含まれる。現時点における光ディスクの例には、コンパクト・ディスク・リードオンリー・メモリ(CD−ROM)、コンパクト・ディスク−リード・ライト(CD−R/W)及びDVDが含まれる。   In the case where the apparatus 10 according to the embodiment of the present invention or the method used for controlling these apparatuses is realized by a program on a computer, a storage medium for storing the program is electronic, magnetic, optical, It can be an electromagnetic, infrared or semiconductor system (or apparatus or equipment) or a propagation medium. Examples of this storage medium include semiconductor or solid state storage devices, magnetic tape, removable computer readable media examples include semiconductor or solid state storage devices, magnetic tape, removable flexible disks, random Includes access memory (RAM), read only memory (ROM), rigid magnetic disk and optical disk. Examples of optical disks at the present time include compact disk read only memory (CD-ROM), compact disk read / write (CD-R / W) and DVD.

以上、本発明の実施形態を説明したが、具体例を例示したに過ぎず、特に本発明を限定しない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載された効果に限定されない。   As mentioned above, although embodiment of this invention was described, it only showed the specific example and does not specifically limit this invention. Further, the effects described in the embodiments of the present invention only list the most preferable effects resulting from the present invention, and the effects of the present invention are not limited to the effects described in the embodiments of the present invention.

本発明の第1の実施形態に係る情報提供装置の概略構成等を示す図である。It is a figure which shows schematic structure etc. of the information provision apparatus which concerns on the 1st Embodiment of this invention. ユーザ端末を示す概略図である。It is the schematic which shows a user terminal. ユーザ端末に表示される動画の一例を示す図である。It is a figure which shows an example of the moving image displayed on a user terminal. 画像辞書生成装置の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of an image dictionary production | generation apparatus. 画像テーブルの一例を示す図である。It is a figure which shows an example of an image table. 広告テーブル等の一例を示す図である。It is a figure which shows an example of an advertisement table etc. 部分画像辞書の一例を示す概念図である。It is a conceptual diagram which shows an example of a partial image dictionary. 検索装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of a search device. ユーザ端末の液晶画面に表示される検索結果の一例を示す図である。It is a figure which shows an example of the search result displayed on the liquid crystal screen of a user terminal. 背景オブジェクトマッチング装置の一例を示す図である。It is a figure which shows an example of a background object matching apparatus. 背景画像を抽出する様子の一例を示す図である。It is a figure which shows an example of a mode that a background image is extracted. 背景画像を抽出する様子の一例を示す図である。It is a figure which shows an example of a mode that a background image is extracted. 背景オブジェクトを特定する様子の一例を示す図である。It is a figure which shows an example of a mode that a background object is specified. 背景オブジェクトを特定する様子の一例を示す図である。It is a figure which shows an example of a mode that a background object is specified. 関連情報マッチング部がユーザ端末に表示させる画面例を示す図である。It is a figure which shows the example of a screen which a related information matching part displays on a user terminal. 関連情報マッチング部がユーザ端末に表示させる画面例を示す図である。It is a figure which shows the example of a screen which a related information matching part displays on a user terminal. 装置の動作例を示す概略フローチャートである。It is a schematic flowchart which shows the operation example of an apparatus. 情報提供装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of an information provision apparatus.

符号の説明Explanation of symbols

10 情報提供装置
20 画像辞書生成装置
21 コンテンツ取得部
22 コンテンツクラスタリング部
23 部分画像取得部
24 部分画像クラスタリング部
25 特徴付与部
26 タグ付与部
40 検索装置
41 クエリ受付部
42 検索処理部
42a 画像取得部
42b 特徴検出部
43c 画像検索部
42d 関連情報抽出部
43 検索結果生成部
44 検索結果送信部
45 検索ログ記録部
100 背景オブジェクトマッチング生成装置
102 画像取得部
104 画像表示部104
106 オプティカルフロー解析部
108 ラベリング処理部
110 背景画像抽出部
112 背景オブジェクト特定部
114 関連付け部
116 関連情報マッチング部
120 広告DB
DESCRIPTION OF SYMBOLS 10 Information provision apparatus 20 Image dictionary production | generation apparatus 21 Content acquisition part 22 Content clustering part 23 Partial image acquisition part 24 Partial image clustering part 25 Feature provision part 26 Tag provision part 40 Search apparatus 41 Query reception part 42 Search processing part 42a Image acquisition part 42b Feature detection unit 43c Image search unit 42d Related information extraction unit 43 Search result generation unit 44 Search result transmission unit 45 Search log recording unit 100 Background object matching generation device 102 Image acquisition unit 104 Image display unit 104
106 Optical Flow Analysis Unit 108 Labeling Processing Unit 110 Background Image Extraction Unit 112 Background Object Identification Unit 114 Association Unit 116 Related Information Matching Unit
120 Advertising DB

Claims (7)

ユーザからの要求に対して情報を提供する情報提供装置であって、
複数の全体画像(画像フレーム)から構成される動画を示す動画情報を前記情報提供装置の内部または外部から取得する画像情報取得部と、
前記全体画像の各画素のオプティカルフローを解析するオプティカルフロー解析部と、
前記オプティカルフロー解析部の解析結果に基づいて、各前記画素に対して各前記画素の動きを示す動きベクトルを各前記画素に関連付けるラベリング処理部と、
前記動きベクトルに基づいて、前記全体画像の一部を構成する部分画像である背景画像を抽出する背景画像抽出部と、
少なくとも1つの前記背景画像に基づいて、背景オブジェクトを特定する背景オブジェクト特定部と、
前記背景オブジェクトと前記動画情報を関連付ける関連付け部と、
ユーザ端末からの要求に対応して送信する前記動画における特定の前記背景オブジェクトが前記ユーザ端末の表示画面上に表示されている間において、特定の前記背景オブジェクトに関連付けられた関連情報を前記ユーザ端末に表示させるマッチング部と、
を有することを特徴とする情報提供装置。
An information providing device that provides information in response to a request from a user,
An image information acquisition unit that acquires moving image information indicating a moving image composed of a plurality of whole images (image frames) from the inside or the outside of the information providing device;
An optical flow analysis unit that analyzes the optical flow of each pixel of the entire image;
A labeling processing unit for associating each pixel with a motion vector indicating the motion of each pixel based on the analysis result of the optical flow analysis unit;
A background image extraction unit that extracts a background image that is a partial image constituting a part of the entire image based on the motion vector;
A background object specifying unit for specifying a background object based on at least one of the background images;
An association unit associating the background object with the video information;
While the specific background object in the video to be transmitted in response to a request from the user terminal is displayed on the display screen of the user terminal, related information associated with the specific background object is displayed on the user terminal. Matching part to be displayed on
An information providing apparatus comprising:
前記背景画像抽出部は、複数の前記部分画像のうち前記動きベクトルの大きさが相対的に大きい前記画素によって形成される画像が前記背景画像であると判断する構成になっていることを特徴とする請求項1に記載の情報提供装置。   The background image extraction unit is configured to determine that an image formed by the pixels having a relatively large motion vector among the plurality of partial images is the background image. The information providing apparatus according to claim 1. 前記背景画像抽出部は、前記全体画像の少なくとも1つの隅近傍の前記画素の前記動きベクトルとほぼ同じ前記動きベクトルに対応する前記画素を含む画像が背景画像であると判断する構成になっていることを特徴とする請求項1または請求項2のいずれかに記載の情報提供装置。   The background image extraction unit is configured to determine that an image including the pixel corresponding to the motion vector substantially the same as the motion vector of the pixel in the vicinity of at least one corner of the entire image is a background image. The information providing apparatus according to claim 1, wherein the information providing apparatus is an information providing apparatus. 前記マッチング部は、前記関連情報として、特定の前記背景オブジェクトに関連付けられた観光地情報を前記ユーザ端末に表示させる構成になっていることを特徴とする請求項1乃至請求項3のいずれかに記載の情報提供装置。   The said matching part is the structure which displays the sightseeing spot information linked | related with the said specific background object as said related information on the said user terminal, The one in any one of Claim 1 thru | or 3 characterized by the above-mentioned. The information providing apparatus according to the description. 前記マッチング部は、前記関連情報として、特定の前記背景オブジェクトに関連付けられた広告を前記ユーザ端末に表示させる構成になっていることを特徴とする請求項1乃至請求項3のいずれかに記載の情報提供装置。   The said matching part is a structure which displays the advertisement linked | related with the said specific background object as the said related information on the said user terminal, The Claim 1 thru | or 3 characterized by the above-mentioned. Information providing device. ユーザからの要求に対して情報を提供する情報提供装置が、複数の全体画像(画像フレーム)から構成される動画を示す動画情報を前記情報提供装置の内部または外部から取得する画像情報取得ステップと、
前記情報提供装置が、前記全体画像の各画素のオプティカルフローを解析するオプティカルフロー解析ステップと、
前記情報提供装置が、前記オプティカルフロー解析ステップにおける解析結果に基づいて、各前記画素に対して各前記画素の動きを示す動きベクトルを各前記画素に関連付けるラベリング処理ステップと、
前記情報提供装置が、前記動きベクトルに基づいて、前記全体画像の一部を構成する部分画像である背景画像を抽出する背景画像抽出ステップと、
前記情報提供装置が、少なくとも1つの前記背景画像に基づいて、背景オブジェクトを特定する背景オブジェクト特定ステップと、
前記情報提供装置が、前記背景オブジェクトと前記動画情報を関連付ける関連付けステップと、
前記情報提供装置が、ユーザ端末からの要求に対応して送信する前記動画における特定の前記背景オブジェクトが前記ユーザ端末の表示画面上に表示されている間において、特定の前記背景オブジェクトに関連付けられた関連情報を前記ユーザ端末に送信して表示させるマッチングステップと、
を有することを特徴とする情報提供方法
An image information acquisition step in which an information providing device that provides information in response to a request from a user acquires moving image information indicating a moving image composed of a plurality of whole images (image frames) from inside or outside the information providing device; ,
An optical flow analyzing step in which the information providing apparatus analyzes an optical flow of each pixel of the entire image;
A labeling processing step in which the information providing apparatus associates a motion vector indicating a motion of each pixel with respect to each pixel based on an analysis result in the optical flow analysis step;
A background image extracting step in which the information providing apparatus extracts a background image that is a partial image constituting a part of the entire image based on the motion vector;
A background object specifying step in which the information providing device specifies a background object based on at least one of the background images;
The information providing apparatus associates the background object with the video information; and
While the specific background object in the moving image transmitted in response to the request from the user terminal is displayed on the display screen of the user terminal , the information providing apparatus is associated with the specific background object. A matching step of transmitting related information to the user terminal for display;
Information providing method characterized by comprising
コンピュータを、ユーザからの要求に対して情報を提供する情報提供装置として機能させるプログラムであって、
複数の全体画像(画像フレーム)から構成される動画を示す動画情報を前記情報提供装置の内部または外部から取得する画像情報取得ステップと、
前記全体画像の各画素のオプティカルフローを解析するオプティカルフロー解析ステップと、
前記オプティカルフロー解析ステップにおける解析結果に基づいて、各前記画素に対して各前記画素の動きを示す動きベクトルを各前記画素に関連付けるラベリング処理ステップと、
前記動きベクトルに基づいて、前記全体画像の一部を構成する部分画像である背景画像を抽出する背景画像抽出ステップと、
少なくとも1つの前記背景画像に基づいて、背景オブジェクトを特定する背景オブジェクト特定ステップと、
前記背景オブジェクトと前記動画情報を関連付ける関連付けステップと、
ユーザ端末からの要求に対応して送信する前記動画における特定の前記背景オブジェクトが前記ユーザ端末の表示画面上に表示されている間において、特定の前記背景オブジェクトに関連付けられた関連情報を前記ユーザ端末に送信して表示させるマッチングステップと、
をコンピュータに実行させることを特徴とする情報提供プログラム。
A program that causes a computer to function as an information providing device that provides information in response to a request from a user,
An image information acquisition step of acquiring moving image information indicating a moving image composed of a plurality of whole images (image frames) from inside or outside the information providing device;
An optical flow analysis step of analyzing the optical flow of each pixel of the entire image;
A labeling processing step for associating a motion vector indicating a motion of each pixel with respect to each pixel based on an analysis result in the optical flow analysis step;
A background image extraction step of extracting a background image which is a partial image constituting a part of the whole image based on the motion vector;
A background object specifying step of specifying a background object based on at least one of the background images;
Associating the background object with the video information;
While the specific background object in the video to be transmitted in response to a request from the user terminal is displayed on the display screen of the user terminal, related information associated with the specific background object is displayed on the user terminal. Matching steps to send and display to,
An information providing program for causing a computer to execute.
JP2007007120A 2007-01-16 2007-01-16 Information providing apparatus, information providing method, and program Active JP4746568B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007007120A JP4746568B2 (en) 2007-01-16 2007-01-16 Information providing apparatus, information providing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007007120A JP4746568B2 (en) 2007-01-16 2007-01-16 Information providing apparatus, information providing method, and program

Publications (2)

Publication Number Publication Date
JP2008176396A JP2008176396A (en) 2008-07-31
JP4746568B2 true JP4746568B2 (en) 2011-08-10

Family

ID=39703395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007007120A Active JP4746568B2 (en) 2007-01-16 2007-01-16 Information providing apparatus, information providing method, and program

Country Status (1)

Country Link
JP (1) JP4746568B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102833464A (en) * 2012-07-24 2012-12-19 常州泰宇信息科技有限公司 Method for structurally reconstructing background for intelligent video monitoring

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3026922B1 (en) 2013-07-26 2021-01-06 Panasonic Intellectual Property Management Co., Ltd. Video receiving device, appended information display method, and appended information display system
EP3029944B1 (en) 2013-07-30 2019-03-06 Panasonic Intellectual Property Management Co., Ltd. Video reception device, added-information display method, and added-information display system
EP3043571A4 (en) 2013-09-04 2016-08-17 Panasonic Ip Man Co Ltd Video reception device, video recognition method, and additional information display system
JP6281125B2 (en) 2013-09-04 2018-02-21 パナソニックIpマネジメント株式会社 Video receiving apparatus, video recognition method, and additional information display system
CN105144735A (en) 2014-03-26 2015-12-09 松下知识产权经营株式会社 Video receiving device, video recognition method, and supplementary information display system
EP3125567B1 (en) 2014-03-26 2019-09-04 Panasonic Intellectual Property Management Co., Ltd. Video receiving device, video recognition method, and supplementary information display system
WO2016009637A1 (en) 2014-07-17 2016-01-21 パナソニックIpマネジメント株式会社 Recognition data generation device, image recognition device, and recognition data generation method
JP6432047B2 (en) 2014-08-21 2018-12-05 パナソニックIpマネジメント株式会社 Content recognition apparatus and content recognition method
CN106233742B (en) 2014-08-26 2019-07-09 松下知识产权经营株式会社 Display control unit, display control method and recording medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000113097A (en) * 1998-08-04 2000-04-21 Ricoh Co Ltd Device and method for image recognition, and storage medium
JP2002082977A (en) * 2000-09-08 2002-03-22 Sony Corp Information processor, information processing method, and recording medium
JP2002369107A (en) * 2001-06-06 2002-12-20 Victor Co Of Japan Ltd Image information recording device, image information recording system, and image information recording device control program
JP2004078432A (en) * 2002-08-13 2004-03-11 Sony Corp Object extraction device, object extraction method, and image display device
WO2005066882A1 (en) * 2004-01-08 2005-07-21 Nec Corporation Character recognition device, mobile communication system, mobile terminal device, fixed station device, character recognition method, and character recognition program
JP2006215655A (en) * 2005-02-01 2006-08-17 Sharp Corp Method, apparatus, program and program storage medium for detecting motion vector

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000113097A (en) * 1998-08-04 2000-04-21 Ricoh Co Ltd Device and method for image recognition, and storage medium
JP2002082977A (en) * 2000-09-08 2002-03-22 Sony Corp Information processor, information processing method, and recording medium
JP2002369107A (en) * 2001-06-06 2002-12-20 Victor Co Of Japan Ltd Image information recording device, image information recording system, and image information recording device control program
JP2004078432A (en) * 2002-08-13 2004-03-11 Sony Corp Object extraction device, object extraction method, and image display device
WO2005066882A1 (en) * 2004-01-08 2005-07-21 Nec Corporation Character recognition device, mobile communication system, mobile terminal device, fixed station device, character recognition method, and character recognition program
JP2006215655A (en) * 2005-02-01 2006-08-17 Sharp Corp Method, apparatus, program and program storage medium for detecting motion vector

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102833464A (en) * 2012-07-24 2012-12-19 常州泰宇信息科技有限公司 Method for structurally reconstructing background for intelligent video monitoring
CN102833464B (en) * 2012-07-24 2015-06-17 常州展华机器人有限公司 Method for structurally reconstructing background for intelligent video monitoring

Also Published As

Publication number Publication date
JP2008176396A (en) 2008-07-31

Similar Documents

Publication Publication Date Title
JP4746568B2 (en) Information providing apparatus, information providing method, and program
US20200175550A1 (en) Method for identifying advertisements for placement in multimedia content elements
US11630861B2 (en) Method and apparatus for video searching, terminal and storage medium
US10299010B2 (en) Method of displaying advertising during a video pause
US9128909B2 (en) Intelligent augmentation of media content
WO2019144850A1 (en) Video content-based video search method and video search apparatus
US9049488B2 (en) Systems and methods for displaying and interacting with interaction opportunities associated with media content
JP4809201B2 (en) Information providing apparatus, information providing method, and computer program
US20190012717A1 (en) Appratus and method of providing online sales information of offline product in augmented reality
KR101545138B1 (en) Method for Providing Advertisement by Using Augmented Reality, System, Apparatus, Server And Terminal Therefor
US20110307332A1 (en) Method and Apparatus for Providing Moving Image Advertisements
CN102244807A (en) Microsoft Corporation
WO2017080173A1 (en) Nature information recognition-based push system and method and client
JP6046874B1 (en) Information processing apparatus, information processing method, and program
CN104765886A (en) Information acquisition method and device based on images
US11468675B1 (en) Techniques for identifying objects from video content
KR20170013369A (en) Method, apparatus and computer program for displaying serch information
US9286623B2 (en) Method for determining an area within a multimedia content element over which an advertisement can be displayed
KR101690528B1 (en) Method, apparatus and computer program for displaying serch information
US20190042852A1 (en) Supplementing a media stream with additional information
JP5013840B2 (en) Information providing apparatus, information providing method, and computer program
JP5063098B2 (en) Information providing apparatus, information providing method, and computer program
JP4962949B2 (en) Information providing apparatus, information providing method, and computer program
JP2008146491A (en) Information providing device, information providing method and computer program
KR20160091488A (en) Method and System for Automatic Detection of Object using Model Generation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110426

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110513

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4746568

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250