JP5013840B2 - Information providing apparatus, information providing method, and computer program - Google Patents

Information providing apparatus, information providing method, and computer program Download PDF

Info

Publication number
JP5013840B2
JP5013840B2 JP2006334998A JP2006334998A JP5013840B2 JP 5013840 B2 JP5013840 B2 JP 5013840B2 JP 2006334998 A JP2006334998 A JP 2006334998A JP 2006334998 A JP2006334998 A JP 2006334998A JP 5013840 B2 JP5013840 B2 JP 5013840B2
Authority
JP
Japan
Prior art keywords
image
partial image
user terminal
feature information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006334998A
Other languages
Japanese (ja)
Other versions
JP2008146490A (en
Inventor
有紀子 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2006334998A priority Critical patent/JP5013840B2/en
Publication of JP2008146490A publication Critical patent/JP2008146490A/en
Application granted granted Critical
Publication of JP5013840B2 publication Critical patent/JP5013840B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)

Description

本発明は、コンピュータネットワークにおいて、ユーザ端末からの要求に対して情報を提供する情報提供装置、情報提供方法、及びコンピュータプログラムに関する。   The present invention relates to an information providing apparatus, an information providing method, and a computer program that provide information in response to a request from a user terminal in a computer network.

インターネットのようなコンピュータネットワーク上においては、ユーザがユーザ端末に入力したキーワードに対して、そのキーワードを含むコンテンツのWEBページのURLやその他の関連情報を検索してユーザ端末に送信する検索サービスが実用化されている。ところで、ユーザ端末の利用者は、老若男女を問わず様々である。このため、各ユーザが見易い文書形式も異なる。これに対して、ユーザの希望する文書形式でコンテンツを提供する技術が提案されている(例えば、特許文献1)。
特開2006−23936号公報
On a computer network such as the Internet, a search service for searching a URL of a web page of content including the keyword and other related information for a keyword input by the user to the user terminal and transmitting it to the user terminal is practical. It has become. By the way, the user of a user terminal is various regardless of age and sex. For this reason, the document format that each user can easily view is also different. On the other hand, a technique for providing content in a document format desired by the user has been proposed (for example, Patent Document 1).
JP 2006-23936 A

しかし、特許文献1の技術によれば、ユーザに提供されるコンテンツはそのユーザにとって見易いものではあるが、従来の一般的な検索サービスと同様に、適切なキーワードの入力がなければ、ユーザが希望する情報を提供することができないという問題がある。   However, according to the technique of Patent Document 1, the content provided to the user is easy for the user to see. However, as in the case of a conventional general search service, the user desires if there is no input of an appropriate keyword. There is a problem that it is not possible to provide information.

そこで、本発明は、適切なキーワードの入力がなくても、ユーザが希望する情報を提供することができる情報提供装置、情報提供方法、及びコンピュータプログラムを提供することを目的とする。   Accordingly, an object of the present invention is to provide an information providing apparatus, an information providing method, and a computer program that can provide information desired by a user without inputting an appropriate keyword.

(1) ユーザ端末からの要求に対して情報を提供する情報提供装置であって、動画コンテンツを構成する複数の全体画像(フレーム)において、当該全体画像の一部分であり、特定可能なオブジェクトを含む、部分画像の特徴情報と、当該部分画像の前記動画コンテンツ全体における時間的位置を示す情報であるシーン内位置と、当該全体画像の中で当該部分画像が位置する座標を示す画像内位置と、当該全体画像の中における当該部分画像の動きを示す情報である動きベクトルと、前記全体画像を含む当該動画コンテンツへのリンクと、を関連付けて格納する画像検索データベースと、前記ユーザ端末から前記部分画像を検索キーとして受信する部分画像受信部と、前記ユーザ端末から受信した前記部分画像の特徴を検出する特徴検出部と、前記シーン内位置、前記画像内位置、および前記動きベクトルを併せて用いて、前記ユーザ端末から受信した前記部分画像の特徴と相関性のある前記特徴情報を前記画像検索データベースから抽出する特徴情報抽出部と、前記特徴情報抽出部が抽出した前記特徴情報に対応する前記リンクを前記ユーザ端末に送信する関連情報送信部と、前記特徴情報抽出部が抽出した前記特徴情報に対応する前記シーン内位置に基づいて、前記特徴情報に対応する前記リンクが示す前記動画コンテンツにおいて前記部分画像が前記ユーザ端末に表示されているシーンを判断し、当該表示されている間だけ当該部分画像に対応する広告を前記ユーザ端末に表示させ、前記特徴情報抽出部が抽出した前記特徴情報に対応する前記画像内位置および前記動きベクトルに基づいて、前記特徴情報に対応する前記リンクが示す前記動画コンテンツにおける前記部分画像の動きに応じて広告を表示させるシーンを判断し、当該判断に基づいて当該部分画像に対応する広告を前記ユーザ端末に表示させる広告配信部を有することを特徴とする情報提供装置。 (1) An information providing apparatus that provides information in response to a request from a user terminal, and includes a plurality of whole images (frames) constituting moving image content, a part of the whole image, and an identifiable object. , Feature information of the partial image, an in-scene position that is information indicating a temporal position of the partial image in the entire moving image content, an in-image position indicating coordinates in which the partial image is located in the entire image, An image search database for storing a motion vector, which is information indicating the motion of the partial image in the entire image, and a link to the moving image content including the entire image, and the partial image from the user terminal A partial image receiving unit that receives a search key as a search key, and a feature detection unit that detects features of the partial image received from the user terminal, The feature information that extracts the feature information correlated with the feature of the partial image received from the user terminal from the image search database by using the position in the scene, the position in the image, and the motion vector in combination. An extraction unit; a related information transmission unit that transmits the link corresponding to the feature information extracted by the feature information extraction unit to the user terminal; and the in- scene corresponding to the feature information extracted by the feature information extraction unit Based on the position, in the video content indicated by the link corresponding to the feature information, a scene in which the partial image is displayed on the user terminal is determined, and an advertisement corresponding to the partial image is displayed only while the partial image is displayed. Is displayed on the user terminal, and the position in the image and the motion vector corresponding to the feature information extracted by the feature information extraction unit are displayed. A scene to display an advertisement according to the motion of the partial image in the video content indicated by the link corresponding to the feature information, and based on the determination, the advertisement corresponding to the partial image is An information providing apparatus comprising an advertisement distribution unit to be displayed on a user terminal .

(1)の発明によれば、情報提供装置は、部分画像を特徴情報の検索のためのキーとして使用し、その特徴情報に対応するコンテンツへのリンク(URLやアドレス)をユーザ端末に送信することができる。すなわち、文字列ではなくて、部分画像を検索するためのキーとして使用することができる。このため、適切なキーワードの入力がなくても、ユーザが希望する情報を提供することができる。さらに、情報提供装置は、動画コンテンツ全体において、ユーザが検索キーとして入力した部分画像が存在する時間を判断することができるから、ユーザが入力した部分画像が存在する部分だけをユーザ端末に送信することができる。
さらに、情報提供装置は、動画コンテンツを構成する全体画像の中で部分画像が位置する座標およびその動きを画像検索データベースに記憶する。したがって、情報提供装置は、動画全体において、ユーザが検索キーとして入力した部分画像が存在する全体画像中の位置をその動きと共に判断することができるから、ユーザが入力した部分画像が存在する部分だけをユーザ端末に送信することができる。その結果、たとえば、当該画像内位置を広告配信に応用すれば、動画コンテンツのなかで特定の部分画像が表示されている間だけ、当該特定の部分画像に対応するバナー広告をユーザ端末に表示させることができる。また、当該動きベクトルをさらに広告配信に応用すれば、動画コンテンツのなかで特定の部分画像が表示されている間だけではなく、当該特定の画像が表示されていない時間においても復帰を前提に全体画像から外れたと判断した場合には、継続的に当該特定の部分画像に対応するバナー広告をユーザ端末に表示させることができる。
さらに、情報提供装置は、動画コンテンツにおいて、ユーザが検索キーとして入力した部分画像が存在する時間に対応して、当該部分画像に関連する広告をユーザ端末に表示させることができる。また、情報提供装置は、当該部分画像の動きベクトルに基づいて、たとえば表示中の動画コンテンツの所定の側に当該部分画像が外れる場合には、当該動画コンテンツの当該所定の側に当該部分画像に関連するバナー広告を表示させることができる。その結果、情報提供装置は、ユーザの興味に合う可能性の高いユーザが選択した部分画像に関連する広告を、ユーザにバナー広告や販売ページを探索する苦労を要求することなく提供することができる。
According to the invention of (1), the information providing apparatus uses the partial image as a key for searching for feature information, and transmits a link (URL or address) to content corresponding to the feature information to the user terminal. be able to. That is, it can be used not as a character string but as a key for searching a partial image. For this reason, even if an appropriate keyword is not input, information desired by the user can be provided. Furthermore, since the information providing apparatus can determine the time when the partial image input by the user as a search key exists in the entire moving image content, only the portion where the partial image input by the user exists is transmitted to the user terminal. be able to.
Further, the information providing apparatus stores the coordinates where the partial image is located in the entire image constituting the moving image content and the movement thereof in the image search database. Therefore, since the information providing apparatus can determine the position in the entire image where the partial image input by the user as a search key exists in the entire moving image together with the movement, only the portion where the partial image input by the user exists Can be transmitted to the user terminal. As a result, for example, if the position in the image is applied to advertisement distribution, a banner advertisement corresponding to the specific partial image is displayed on the user terminal only while the specific partial image is displayed in the moving image content. be able to. In addition, if the motion vector is further applied to advertisement distribution, it is assumed that not only while a specific partial image is displayed in the video content, but also during the time when the specific image is not displayed, When it is determined that the image is out of the image, a banner advertisement corresponding to the specific partial image can be continuously displayed on the user terminal.
Furthermore, the information providing apparatus can display an advertisement related to the partial image on the user terminal corresponding to the time when the partial image input by the user as a search key exists in the moving image content. Further, the information providing apparatus, on the basis of the motion vector of the partial image, for example, when the partial image deviates on a predetermined side of the moving image content being displayed, adds the partial image to the predetermined side of the moving image content. Related banner advertisements can be displayed. As a result, the information providing apparatus can provide an advertisement related to the partial image selected by the user who is likely to meet the user's interest without requiring the user to search for a banner advertisement or a sales page. .

) 動画コンテンツを構成する複数の全体画像(フレーム)において、当該全体画像の一部分であり、特定可能なオブジェクトを含む、部分画像の特徴情報と、当該部分画像の前記動画コンテンツ全体における時間的位置を示す情報であるシーン内位置と、当該全体画像の中で当該部分画像が位置する座標を示す画像内位置と、当該全体画像の中における当該部分画像の動きを示す情報である動きベクトルと、前記全体画像を含む当該動画コンテンツへのリンクと、を関連付けて格納する画像検索データベースを有する情報提供装置によって、ユーザ端末からの要求に対して情報を提供する情報提供方法であって、ユーザ端末から前記部分画像を検索キーとして受信する部分画像受信ステップと、前記ユーザ端末から受信した前記部分画像の特徴を検出する特徴検出ステップと、前記シーン内位置、前記画像内位置、および前記動きベクトルを併せて用いて、前記ユーザ端末から受信した前記部分画像の特徴と相関性のある特徴情報を前記画像検索データベースから抽出する特徴情報抽出ステップと、前記特徴情報抽出ステップにおいて抽出した前記特徴情報に対応する前記リンクを前記ユーザ端末に送信する関連情報送信ステップと、前記特徴情報抽出ステップが抽出した前記特徴情報に対応する前記シーン内位置に基づいて、前記特徴情報に対応する前記リンクが示す前記動画コンテンツにおいて前記部分画像が前記ユーザ端末に表示されているシーンを判断し、当該表示されている間だけ当該部分画像に対応する広告を前記ユーザ端末に表示させ、前記特徴情報抽出ステップが抽出した前記特徴情報に対応する前記画像内位置および前記動きベクトルに基づいて、前記特徴情報に対応する前記リンクが示す前記動画コンテンツにおける前記部分画像の動きに応じて広告を表示させるシーンを判断し、当該判断に基づいて当該部分画像に対応する広告を前記ユーザ端末に表示させる広告配信ステップを有することを特徴とする情報提供方法。 ( 2 ) In a plurality of whole images (frames) constituting the moving image content, feature information of the partial image that is a part of the whole image and includes an identifiable object, and temporal information of the partial image in the whole moving image content A position in the scene that is information indicating the position, a position in the image that indicates coordinates in which the partial image is located in the entire image, and a motion vector that is information indicating the movement of the partial image in the entire image. An information providing method for providing information in response to a request from a user terminal by an information providing apparatus having an image search database that stores the link to the moving image content including the whole image in association with the user terminal, A partial image receiving step of receiving the partial image as a search key from the user terminal, and the partial image received from the user terminal. Using the feature detection step for detecting the feature of the image and the position in the scene, the position in the image, and the motion vector in combination, the feature information correlated with the feature of the partial image received from the user terminal A feature information extraction step extracted from an image search database, a related information transmission step for transmitting the link corresponding to the feature information extracted in the feature information extraction step to the user terminal, and the feature information extraction step extracted Based on the position in the scene corresponding to the feature information, the scene in which the partial image is displayed on the user terminal in the moving image content indicated by the link corresponding to the feature information is determined and displayed. Only the advertisement corresponding to the partial image is displayed on the user terminal, and the feature information extraction step is performed. A scene that displays an advertisement according to the movement of the partial image in the moving image content indicated by the link corresponding to the feature information based on the position in the image corresponding to the feature information extracted by the group and the motion vector. An information providing method comprising: an advertisement distribution step of determining and displaying an advertisement corresponding to the partial image on the user terminal based on the determination .

)の発明によれば、(1)に記載の発明と同様に、適切なキーワードの入力がなくても、ユーザが希望する情報を提供することができる。さらに、動画コンテンツ全体において、ユーザが入力した部分画像が存在する部分だけをユーザ端末に送信することができる。
さらに、動画コンテンツにおいて、ユーザが検索キーとして入力した部分画像が存在する時間に対応して、当該部分画像に関連する広告をユーザ端末に表示させることができる。また、当該部分画像の動きベクトルに基づいて、たとえば表示中の動画コンテンツの所定の側に当該部分画像が外れる場合には、当該動画コンテンツの当該所定の側に当該部分画像に関連するバナー広告を表示させることができる。その結果、ユーザの興味に合う可能性の高いユーザが選択した部分画像に関連する広告を、ユーザにバナー広告や販売ページを探索する苦労を要求することなく提供することができる。
According to the invention of ( 2 ), similarly to the invention described in (1), the information desired by the user can be provided without inputting an appropriate keyword. Furthermore, only the portion where the partial image input by the user exists in the entire moving image content can be transmitted to the user terminal.
Furthermore, in the moving image content, an advertisement related to the partial image can be displayed on the user terminal corresponding to the time when the partial image input by the user as a search key exists. In addition, based on the motion vector of the partial image, for example, when the partial image deviates on a predetermined side of the moving image content being displayed, a banner advertisement related to the partial image is displayed on the predetermined side of the moving image content. Can be displayed. As a result, it is possible to provide an advertisement related to the partial image selected by the user who is likely to meet the user's interest without requiring the user to search for a banner advertisement or a sales page.

) コンピュータを、動画コンテンツを構成する複数の全体画像(フレーム)において、当該全体画像の一部分であり、特定可能なオブジェクトを含む、部分画像の特徴情報と、当該部分画像の前記動画コンテンツ全体における時間的位置を示す情報であるシーン内位置と、当該全体画像の中で当該部分画像が位置する座標を示す画像内位置と、当該全体画像の中における当該部分画像の動きを示す情報である動きベクトルと、前記全体画像を含む当該動画コンテンツへのリンクと、を関連付けて格納する画像検索データベースを有する情報提供装置として機能させるためのコンピュータプログラムであって、ユーザ端末から前記部分画像を検索キーとして受信する部分画像受信ステップと、前記ユーザ端末から受信した前記部分画像の特徴を検出する特徴検出ステップと、前記シーン内位置、前記画像内位置、および前記動きベクトルを併せて用いて、前記ユーザ端末から受信した前記部分画像の特徴と相関性のある特徴情報を前記画像検索データベースから抽出する特徴情報抽出ステップと、前記特徴情報抽出ステップにおいて抽出した前記特徴情報に対応する前記リンク前記ユーザ端末に送信する関連情報送信ステップと、前記特徴情報抽出ステップが抽出した前記特徴情報に対応する前記シーン内位置に基づいて、前記特徴情報に対応する前記リンクが示す前記動画コンテンツにおいて前記部分画像が前記ユーザ端末に表示されているシーンを判断し、当該表示されている間だけ当該部分画像に対応する広告を前記ユーザ端末に表示させ、前記特徴情報抽出ステップが抽出した前記特徴情報に対応する前記画像内位置および前記動きベクトルに基づいて、前記特徴情報に対応する前記リンクが示す前記動画コンテンツにおける前記部分画像の動きに応じて広告を表示させるシーンを判断し、当該判断に基づいて当該部分画像に対応する広告を前記ユーザ端末に表示させる広告配信ステップを実行させることを特徴とするコンピュータプログラム。 ( 3 ) In a plurality of whole images (frames) constituting the moving image content, the computer is a part of the whole image and includes characteristic information of the partial image including an identifiable object, and the whole moving image content of the partial image Information indicating the position in the scene, which is information indicating the temporal position in the image, the position in the image indicating the coordinates where the partial image is located in the entire image, and the information indicating the movement of the partial image in the entire image. A computer program for causing a motion vector to function as an information providing apparatus having an image search database for storing a motion vector and a link to the moving image content including the entire image, wherein the partial image is searched from a user terminal. A partial image receiving step for receiving the partial image received from the user terminal Feature information correlating with the feature of the partial image received from the user terminal by using the feature detection step of detecting a sign together with the position in the scene, the position in the image, and the motion vector. A feature information extraction step extracted from a search database, a link corresponding to the feature information extracted in the feature information extraction step, a related information transmission step transmitted to the user terminal, and the feature information extracted by the feature information extraction step Based on the position in the scene corresponding to the feature information, the scene in which the partial image is displayed on the user terminal in the moving image content indicated by the link corresponding to the feature information is determined, and the scene is displayed only while the partial image is displayed. An advertisement corresponding to the partial image is displayed on the user terminal, and the feature information extraction step includes Based on the in-image position and the motion vector corresponding to the feature information that has been issued, a scene for displaying an advertisement according to the motion of the partial image in the moving image content indicated by the link corresponding to the feature information is determined. A computer program for executing an advertisement distribution step for causing the user terminal to display an advertisement corresponding to the partial image based on the determination .

)の発明によれば、(1)に記載の発明と同様に、適切なキーワードの入力がなくても、ユーザが希望する情報を提供することができる。さらに、動画コンテンツ全体において、ユーザが入力した部分画像が存在する部分だけをユーザ端末に送信することができる。
さらに、動画コンテンツにおいて、ユーザが検索キーとして入力した部分画像が存在する時間に対応して、当該部分画像に関連する広告をユーザ端末に表示させることができる。また、当該部分画像の動きベクトルに基づいて、たとえば表示中の動画コンテンツの所定の側に当該部分画像が外れる場合には、当該動画コンテンツの当該所定の側に当該部分画像に関連するバナー広告を表示させることができる。その結果、ユーザの興味に合う可能性の高いユーザが選択した部分画像に関連する広告を、ユーザにバナー広告や販売ページを探索する苦労を要求することなく提供することができる。
According to the invention of ( 3 ), as in the invention described in (1), the information desired by the user can be provided without inputting an appropriate keyword. Furthermore, only the portion where the partial image input by the user exists in the entire moving image content can be transmitted to the user terminal.
Furthermore, in the moving image content, an advertisement related to the partial image can be displayed on the user terminal corresponding to the time when the partial image input by the user as a search key exists. In addition, based on the motion vector of the partial image, for example, when the partial image deviates on a predetermined side of the moving image content being displayed, a banner advertisement related to the partial image is displayed on the predetermined side of the moving image content. Can be displayed. As a result, it is possible to provide an advertisement related to the partial image selected by the user who is likely to meet the user's interest without requiring the user to search for a banner advertisement or a sales page.

本発明によれば、適切なキーワードの入力がなくても、ユーザが希望する情報を提供することができる情報提供装置、情報提供方法、及びコンピュータプログラムを提供することができる。   According to the present invention, it is possible to provide an information providing apparatus, an information providing method, and a computer program that can provide information desired by a user without inputting an appropriate keyword.

[第1の実施形態]
図1は、本発明の第1の実施形態に係る情報提供装置10(以下、「装置10」と呼ぶ)の概略構成等を示す図である。図2は、ユーザ端末5等を示す概略図である。図3及び図4は、ユーザ端末5等に表示される動画の一例を示す図である。図1に示すように、装置10は、画像辞書生成装置20、検索装置40、動き情報付与装置60、広告マッチング装置80及びブックマーク生成装置100を有する。装置10は、通信回線である例えば、インターネット回線9を介して複数のユーザ端末5,5及びユーザ端末7等と通信可能になっている。
[First Embodiment]
FIG. 1 is a diagram showing a schematic configuration and the like of an information providing apparatus 10 (hereinafter referred to as “apparatus 10”) according to the first embodiment of the present invention. FIG. 2 is a schematic diagram showing the user terminal 5 and the like. 3 and 4 are diagrams illustrating an example of a moving image displayed on the user terminal 5 or the like. As illustrated in FIG. 1, the device 10 includes an image dictionary generation device 20, a search device 40, a motion information addition device 60, an advertisement matching device 80, and a bookmark generation device 100. The device 10 can communicate with a plurality of user terminals 5, 5, user terminals 7, and the like via a communication line such as the Internet line 9.

画像辞書生成装置20は、部分画像とその部分画像を含む動画等のコンテンツとを対応させた検索辞書を生成するサーバである。画像辞書生成装置20の検索キーは、文字列ではなくて、部分画像である。以下、検索するために入力される部分画像を「検索画像」と呼ぶ。このように、検索画像は、全体画像ではなくて、部分画像である。例えば、図3(c)に示されるAタイプ自動車200、道路202、すずめ204、木206及び背景208のすべてを含む画像を全体画像(フレーム)と呼ぶ。そして、Aタイプ自動車200等の個々の画像を部分画像と呼ぶ。複数の全体画像(フレーム)で、動画等のコンテンツが構成される。   The image dictionary generation device 20 is a server that generates a search dictionary in which a partial image is associated with content such as a moving image including the partial image. The search key of the image dictionary generation device 20 is not a character string but a partial image. Hereinafter, the partial image input for searching is referred to as “search image”. Thus, the search image is not a whole image but a partial image. For example, an image including all of the A type automobile 200, the road 202, the sparrow 204, the tree 206, and the background 208 shown in FIG. 3C is referred to as an entire image (frame). Each image of the A type automobile 200 or the like is referred to as a partial image. A plurality of whole images (frames) constitute a content such as a moving image.

動き情報付与装置60は、部分画像の動きを判断して動き情報を生成し、部分画像に動き情報を付加するサーバである。広告マッチング装置80は、特定の部分画像がユーザ端末5等の表示画面に表示されるタイミングに対応して、その部分画像に対応する広告バナー等の広告をユーザ端末5等の表示画面に表示するための処理を行うサーバである。ブックマーク生成装置100は、部分画像をブックマークとして、複数のユーザ端末5等において共通に使用できるようにする処理を行うサーバである。検索装置40は、ユーザ端末5等から受信した検索画像に対応して、コンテンツへのリンク(URLやアドレス)を画像辞書生成装置20の画像検索DB34(図5参照)から抽出し、ユーザ端末5等に送信するためのサーバである。なお、検索装置40は、当該コンテンツへのリンクに加えて、関連する情報を送信するようにしてもよい。   The motion information adding device 60 is a server that determines the motion of a partial image, generates motion information, and adds the motion information to the partial image. The advertisement matching device 80 displays an advertisement such as an advertisement banner corresponding to the partial image on the display screen of the user terminal 5 or the like in response to the timing at which the specific partial image is displayed on the display screen of the user terminal 5 or the like. It is a server that performs processing for. The bookmark generation device 100 is a server that performs a process of making a partial image a bookmark that can be commonly used in a plurality of user terminals 5 and the like. Corresponding to the search image received from the user terminal 5 or the like, the search device 40 extracts a link (URL or address) to the content from the image search DB 34 (see FIG. 5) of the image dictionary generation device 20, and the user terminal 5 It is a server for sending to etc. Note that the search device 40 may transmit related information in addition to the link to the content.

図2(a)に示すように、ユーザ端末5は、例えば、携帯電話機であり、液晶画面5a、操作ボタン群5b、決定ボタン5c及び移動ボタン5dを有する。移動ボタン5dは、一般的な機能のほかに、液晶画面5aに表示された全体画像の中の特定の部分画像にカーソルを合わせるためにも使用される。決定ボタン5cは、一般的な機能のほかに、移動ボタン5dによってカーソルが合わせられた部分画像を、検索画像として決定するためにも使用される。図2(b)に示すように、ユーザ端末7は、例えば、ラップトップ型のパーソナルコンピュータであり、液晶画面7a、操作ボタン群7b及びマウス7cを有する。液晶画面5a及び7aには、様々な情報が表示されるが、例えば、図3(a)〜(c)、図4(a)〜(c)に示す動画も表示される。図3及び図4に示すシーン1〜6の画像は、連続的に表示され、一連の動画を構成する。   As shown in FIG. 2A, the user terminal 5 is, for example, a mobile phone, and includes a liquid crystal screen 5a, an operation button group 5b, an enter button 5c, and a move button 5d. In addition to the general function, the movement button 5d is also used to move the cursor to a specific partial image in the entire image displayed on the liquid crystal screen 5a. In addition to a general function, the determination button 5c is also used to determine a partial image on which the cursor is moved by the movement button 5d as a search image. As shown in FIG. 2B, the user terminal 7 is, for example, a laptop personal computer, and includes a liquid crystal screen 7a, an operation button group 7b, and a mouse 7c. Various information is displayed on the liquid crystal screens 5a and 7a. For example, the moving images shown in FIGS. 3A to 3C and FIGS. 4A to 4C are also displayed. The images of the scenes 1 to 6 shown in FIGS. 3 and 4 are continuously displayed to form a series of moving images.

[画像辞書生成装置20について]
図5は、画像辞書生成装置20の構成を示す概略ブロック図である。
図5に示すように、画像辞書生成装置20は、コンテンツ取得部21を有する。コンテンツ取得部21は、インターネット回線9を介して装置10の外部から種々のコンテンツを取得(受信)するための構成であり、画像情報取得部として機能する。コンテンツ取得部21は、コンピュータプログラムとそのプログラムに基づいて装置10を制御するCPU(Central Processing Unit)等のハードウェアで構成され、入力部及び出力部を有する。なお、以下に説明する各部も同様に、コンピュータプログラムとハードウェアで構成され、入力部及び出力部を有する。
[Image Dictionary Generation Device 20]
FIG. 5 is a schematic block diagram illustrating the configuration of the image dictionary generation device 20.
As illustrated in FIG. 5, the image dictionary generation device 20 includes a content acquisition unit 21. The content acquisition unit 21 is a configuration for acquiring (receiving) various contents from the outside of the device 10 via the Internet line 9 and functions as an image information acquisition unit. The content acquisition unit 21 includes a computer program and hardware such as a CPU (Central Processing Unit) that controls the apparatus 10 based on the program, and includes an input unit and an output unit. Each unit described below is similarly configured by a computer program and hardware, and has an input unit and an output unit.

コンテンツには、テキストデータ及び画像データを含む。画像データには動画データを含む。画像辞書生成装置20は、コンテンツクラスタリング部22を有する。コンテンツクラスタリング部22は、いわゆる教師あり学習によって分類方法を機械学習した状態において、外部から取得したコンテンツをクラスタ(部分集合)に分類し、コンテンツDB(データベース)30に格納するための構成である。すなわち、コンテンツクラスタリング部22は、自動分類器である。各コンテンツは、固有のURLを有する。上述のコンテンツクラスタリング部22は、画像情報格納部として機能する。クラスタは、例えば、「自動車関連映画の集合」、「自転車関連映画の集合」、「音楽関連映画の集合」等である。   The content includes text data and image data. The image data includes moving image data. The image dictionary generation device 20 includes a content clustering unit 22. The content clustering unit 22 is configured to classify content acquired from the outside into clusters (subsets) and store them in a content DB (database) 30 in a state where the classification method is machine-learned by so-called supervised learning. That is, the content clustering unit 22 is an automatic classifier. Each content has a unique URL. The content clustering unit 22 described above functions as an image information storage unit. The cluster is, for example, “a set of automobile-related movies”, “a set of bicycle-related movies”, “a set of music-related movies”, or the like.

図5に示すように、画像辞書生成装置20は、部分画像取得部23を有する。部分画像取得部23は、例えば、図3(c)中のAタイプ自動車200の画像(以下、単に「Aタイプ自動車200」とも呼ぶ。他の部分画像についても同様である)を取得するための構成である。例えば、部分画像取得部23は、コンテンツDB30に格納したコンテンツから、自動的に部分画像を抽出するようになっている。なお、部分画像取得部23は、ユーザ端末7に図3(c)の画像が表示され、ユーザ端末7のユーザがマウス7cによってAタイプ自動車200にカーソルを合わせてクリックすると、インターネット回線9を介して全体画像とその全体画像に含まれる部分画像(例えば、Aタイプ自動車200)を受信するように構成されていてもよい。   As illustrated in FIG. 5, the image dictionary generation device 20 includes a partial image acquisition unit 23. The partial image acquisition unit 23 acquires, for example, an image of the A type automobile 200 in FIG. 3C (hereinafter also simply referred to as “A type automobile 200”. The same applies to other partial images). It is a configuration. For example, the partial image acquisition unit 23 automatically extracts a partial image from content stored in the content DB 30. The partial image acquisition unit 23 displays the image shown in FIG. 3C on the user terminal 7, and when the user of the user terminal 7 moves the cursor to the A-type automobile 200 with the mouse 7 c and clicks, the partial image acquisition unit 23 passes the Internet line 9. The entire image and the partial image (for example, the A type automobile 200) included in the entire image may be received.

図5に示すように、画像辞書生成装置20は、部分画像クラスタリング部24を有する。部分画像クラスタリング部24は、いわゆる教師あり学習によって分類方法を機械学習し、外部から取得したコンテンツをクラスタ(部分集合)に分類し、部分画像DB32に格納するための構成である。すなわち、部分画像クラスタリング部24は、自動分類器であり、部分画像格納部として機能する。クラスタは、例えば、「自動車の集合」、「自転車の集合」、「船の集合」等である。   As illustrated in FIG. 5, the image dictionary generation device 20 includes a partial image clustering unit 24. The partial image clustering unit 24 is configured to perform machine learning of the classification method by so-called supervised learning, classify content acquired from the outside into clusters (subsets), and store the contents in the partial image DB 32. That is, the partial image clustering unit 24 is an automatic classifier and functions as a partial image storage unit. The cluster is, for example, “a set of cars”, “a set of bicycles”, “a set of ships”, or the like.

図5に示すように、画像辞書生成装置20は、特徴付与部25を有する。特徴付与部25は、取得した部分画像の特徴を解析し、特徴情報を生成するための構成であり、特徴情報生成部として機能する。特徴付与部25は、例えば、部分画像の輪郭及び使用されている色の数を特徴として抽出するようになっている。輪郭は、エッジ処理によって抽出される。これらの特徴によって、同一の部分画像(例えば、東京タワー)を見る角度が異なる場合であっても、それらの部分画像が同一であることを判断することができる。   As illustrated in FIG. 5, the image dictionary generation device 20 includes a feature adding unit 25. The feature adding unit 25 is a configuration for analyzing the features of the acquired partial image and generating feature information, and functions as a feature information generating unit. The feature adding unit 25 extracts, for example, the contour of the partial image and the number of used colors as features. The contour is extracted by edge processing. With these characteristics, even when the viewing angle of the same partial image (for example, Tokyo Tower) is different, it can be determined that the partial images are the same.

図5に示すように、画像辞書生成装置20は、タグ付与部26を有する。タグ付与部26は、部分画像から抽出した特徴情報をタグ(または、インデックス)として、そのタグとコンテンツDB30に格納されたコンテンツとのリンクと関連付けて、画像タグテーブルに記録するための構成である。画像タグテーブルは、画像検索DB34に格納されている。   As illustrated in FIG. 5, the image dictionary generation device 20 includes a tag adding unit 26. The tag adding unit 26 is configured to record the feature information extracted from the partial image as a tag (or index) in association with a link between the tag and the content stored in the content DB 30 in the image tag table. . The image tag table is stored in the image search DB 34.

図6は、画像タグテーブルの一例を示す図である。図6に示すように、画像タグテーブルにおいては、タグID、動画ID(画像ID又はコンテンツIDとも呼ぶ)、特徴情報、クラスタリングID、コンテンツへのリンク、シーン内位置、画像(フレーム)内位置(座標)及び動きベクトルが関連付けられている。「動画ID」は、例えば、図3及び図4の動画全体の識別情報である。「タグID」は、部分画像の識別情報である。なお、本実施の形態においては、特徴情報を検索キーとして使用するのであって、「タグID」を検索キーとするのではない。「特徴情報」は、部分画像の特徴を示す情報である。特徴情報は、例えば、自動車の輪郭と、その自動車に使用されている色の数(図6の例では、5色)を示す。「クラスタリングID」は、各部分画像が属するクラスタ(部分集合)の識別情報である。「コンテンツへのリンク」は、例えば、図3及び図4の動画全体のアドレス又はURLである。「シーン内位置」は、例えば、図3及び図4の動画全体における各シーンの時間的位置を示す情報である。「画像内位置(座標)」は、例えば、図3(c)の全体画像の中で、Aタイプ自動車200が位置する座標を示す情報である。「動きベクトル」は、全体画像の中における部分画像の動きを示す情報である。シーン内位置、画像内位置及び動きベクトルについては、後に詳述する。   FIG. 6 is a diagram illustrating an example of an image tag table. As shown in FIG. 6, in the image tag table, tag ID, moving image ID (also called image ID or content ID), feature information, clustering ID, link to content, position in scene, position in image (frame) ( Coordinates) and motion vectors. “Movie ID” is, for example, identification information of the entire movie shown in FIGS. 3 and 4. “Tag ID” is identification information of a partial image. In the present embodiment, feature information is used as a search key, and “tag ID” is not used as a search key. “Feature information” is information indicating the features of the partial image. The feature information indicates, for example, the outline of the automobile and the number of colors used in the automobile (5 colors in the example of FIG. 6). “Clustering ID” is identification information of a cluster (subset) to which each partial image belongs. “Link to content” is, for example, the address or URL of the entire moving image shown in FIGS. “In-scene position” is, for example, information indicating the temporal position of each scene in the entire moving image in FIGS. “In-image position (coordinates)” is, for example, information indicating the coordinates where the A-type automobile 200 is located in the entire image of FIG. The “motion vector” is information indicating the motion of the partial image in the entire image. The position in the scene, the position in the image, and the motion vector will be described in detail later.

図7は、部分画像辞書の一例を示す概念図である。部分画像辞書は、上述の画像タグテーブルの一部である。図7に示すように、部分画像辞書は、1つの特徴情報に対して、少なくとも1つのコンテンツのアドレスを関連付けて構成される。コンテンツは動画である場合もある。画像検索DB34は、装置10に含まれる各装置が共通に使用する。   FIG. 7 is a conceptual diagram illustrating an example of a partial image dictionary. The partial image dictionary is a part of the above-described image tag table. As shown in FIG. 7, the partial image dictionary is configured by associating at least one content address with one piece of feature information. The content may be a video. The image search DB 34 is commonly used by each device included in the device 10.

[検索装置40について]
装置10は、検索装置40によって、ユーザ端末5等から受信した検索画像に基づいて、画像検索DB34を参照し、コンテンツのURLをユーザ端末5等に返すようになっている。検索装置40は、コンテンツのURL以外に、検索画像に関連する情報をテキスト情報として送信するようにしてもよい。
[Searching device 40]
The device 10 refers to the image search DB 34 based on the search image received from the user terminal 5 or the like by the search device 40 and returns the URL of the content to the user terminal 5 or the like. The search device 40 may transmit information related to the search image as text information in addition to the content URL.

図8は、検索装置40の概略構成を示すブロック図である。図8(a)に示すように、検索装置40は、クエリ受付部41、検索処理部42、検索結果生成部43、検索結果送信部44及び検索ログ記録部45を有する。クエリ受付部41は、ユーザ端末5等から検索画像を受け付けるための構成である。検索処理部42は、検索画像と相関する特徴を有する部分画像のタグIDを画像検索DB34から探索するための構成である。検索結果生成部43は、ユーザ端末5等に送信するための検索結果を生成するための構成である。検索結果送信部44は、ユーザ端末5等に検索結果を送信するための構成であり、関連情報送信部として機能する。検索ログ記録部45は、各部分画像が検索された記録を生成するための構成である。   FIG. 8 is a block diagram illustrating a schematic configuration of the search device 40. As illustrated in FIG. 8A, the search device 40 includes a query reception unit 41, a search processing unit 42, a search result generation unit 43, a search result transmission unit 44, and a search log recording unit 45. The query receiving unit 41 is configured to receive a search image from the user terminal 5 or the like. The search processing unit 42 is configured to search the image search DB 34 for tag IDs of partial images having characteristics that correlate with the search image. The search result generation unit 43 is configured to generate a search result for transmission to the user terminal 5 or the like. The search result transmission unit 44 is configured to transmit the search result to the user terminal 5 and the like, and functions as a related information transmission unit. The search log recording unit 45 is configured to generate a record in which each partial image is searched.

図8(b)に示すように、検索処理部42は、画像取得部42a、特徴検出部42b、画像検索部42c及び関連情報抽出部42dを有する。画像取得部42aは、部分画像を検索キーとして受信する部分画像受信部として機能する。特徴検出部42bは、受信した部分画像の輪郭や色の数等の特徴を検出するための構成である。画像検索部42cは、タグIDを抽出する識別情報抽出部として機能する。関連情報抽出部42dは、検索画像に基づいて探索した部分画像に関連する関連情報をコンテンツDB30から抽出するための構成である。例えば、装置10がユーザ端末5から料理の写真を検索画像として受信した場合に、関連情報抽出部42dは、その料理のレシピをコンテンツDB30から抽出するようになっている。関連情報抽出部42dが抽出した関連情報は、上述の検索結果送信部44によってユーザ端末5等に送信される。   As illustrated in FIG. 8B, the search processing unit 42 includes an image acquisition unit 42a, a feature detection unit 42b, an image search unit 42c, and a related information extraction unit 42d. The image acquisition unit 42a functions as a partial image receiving unit that receives a partial image as a search key. The feature detection unit 42b has a configuration for detecting features such as the contour and the number of colors of the received partial image. The image search unit 42c functions as an identification information extraction unit that extracts a tag ID. The related information extraction unit 42d is configured to extract related information related to the partial image searched based on the search image from the content DB 30. For example, when the apparatus 10 receives a photo of a dish from the user terminal 5 as a search image, the related information extraction unit 42d extracts the recipe for the dish from the content DB 30. The related information extracted by the related information extraction unit 42d is transmitted to the user terminal 5 or the like by the search result transmission unit 44 described above.

図9は、検索結果送信部44(図7(a)参照)によって送信されたデータに基づいて、ユーザ端末5の液晶画面5aに表示される検索結果の一例を示す図である。図9に示すように、例えば、検索画像が「Aタイプ自動車」であれば、Aタイプ自動車の画像とともに、Aタイプ自動車が表示されているホームページのアドレスが少なくとも1つ表示されるようになっている。このとき、同時にAタイプ自動車の排気量等の性能等の関連情報が表示されるようにしてもよい。   FIG. 9 is a diagram illustrating an example of a search result displayed on the liquid crystal screen 5a of the user terminal 5 based on the data transmitted by the search result transmission unit 44 (see FIG. 7A). As shown in FIG. 9, for example, if the search image is “A type car”, at least one address of the home page where the A type car is displayed is displayed together with the image of the A type car. Yes. At this time, related information such as the performance such as the displacement of the A type automobile may be displayed at the same time.

[動き情報付与装置60について]
図10は、動き情報付与装置60の概略構成等を示すブロック図である。図11は、動画の一例を示す図である。図11においては、図3及び図4の動画のうち、図3(c)及び図4(a)を使用している。図10(a)に示すように、動き情報付与装置60は、画像取得部61、画像内位置取得部62、動き抽出部63及び動き評価部64を有する。画像取得部61は、画像辞書生成装置20のコンテンツDB30から部分画像を含む動画のデータを取得するための構成である。画像内位置取得部62は、動画の中の特定のシーン(例えば、図11(a)に示す全体画像)における部分画像(例えば、図11(a)のAタイプ自動車200)の座標(例えば、図11(a)の座標X1)を取得するためのプログラムである。
[About the motion information adding device 60]
FIG. 10 is a block diagram illustrating a schematic configuration and the like of the motion information adding device 60. FIG. 11 is a diagram illustrating an example of a moving image. 11, FIG. 3C and FIG. 4A are used among the moving images of FIG. 3 and FIG. As illustrated in FIG. 10A, the motion information addition device 60 includes an image acquisition unit 61, an in-image position acquisition unit 62, a motion extraction unit 63, and a motion evaluation unit 64. The image acquisition unit 61 is a configuration for acquiring moving image data including partial images from the content DB 30 of the image dictionary generation device 20. The in-image position acquisition unit 62 coordinates (for example, the coordinates of a partial image (for example, the A type automobile 200 in FIG. 11 (a)) in a specific scene (for example, the entire image illustrated in FIG. 11 (a)) in the moving image. This is a program for acquiring the coordinates X1) in FIG.

動き抽出部63は、部分画像の動きベクトルを抽出するための構成である。例えば、図11(a)のシーン3のAタイプ自動車200は、図11(b)のシーン4においては、座標X2に移動している。この場合、動き抽出部63は、例えば、当初の座標X1に対応するAタイプ自動車200の輪郭の中心座標を追尾し、座標X1から座標X2への動きを示すベクトル(動きベクトル)a1等を予め規定した時間間隔である例えば、30分の1秒間隔において生成する。動きベクトルa1等は、Aタイプ自動車200の動きを示す。動き抽出部63は、順送り部63a及び逆送り部(巻き戻し部)63bを有し、動画全体の中の1シーンの中の部分画像を基点(以下、「当初座標」と呼ぶ)として、順送り方向の動きベクトルa1等と、逆送り方向の動きベクトルar1等を生成する。このため、動画全体の1シーンにおける部分画像を当初座標としても、図11(b)に示すように動画全体における特定の部分画像のすべての動きを示す動きベクトルa1等及びar1等を生成することができる。動き抽出部63は、抽出した動きベクトルを画像検索DB34へ格納するようになっている。このように、装置10は、最初に使用する部分画像の時間的位置にかかわらず、動画全体についての動きベクトルを抽出することができる。   The motion extraction unit 63 is a configuration for extracting a motion vector of a partial image. For example, the A type automobile 200 in the scene 3 in FIG. 11A moves to the coordinate X2 in the scene 4 in FIG. 11B. In this case, for example, the motion extraction unit 63 tracks the center coordinates of the contour of the A-type automobile 200 corresponding to the initial coordinates X1, and stores a vector (motion vector) a1 indicating the movement from the coordinates X1 to the coordinates X2 in advance. It is generated at a prescribed time interval, for example, at an interval of 1/30 second. The motion vector a1 and the like indicate the motion of the A type automobile 200. The motion extraction unit 63 includes a forward feeding unit 63a and a backward feeding unit (rewinding unit) 63b, and uses the partial image in one scene in the entire moving image as a base point (hereinafter referred to as “initial coordinates”). A motion vector a1 in the direction and a motion vector ar1 in the reverse feed direction are generated. For this reason, even if a partial image in one scene of the entire moving image is used as the initial coordinates, motion vectors a1 and ar1 indicating all the movements of the specific partial image in the entire moving image are generated as shown in FIG. 11B. Can do. The motion extraction unit 63 stores the extracted motion vector in the image search DB 34. As described above, the apparatus 10 can extract the motion vector for the entire moving image regardless of the temporal position of the partial image to be used first.

動き評価部64は、当初座標及び動きベクトルに基づいて、部分画像が全体画像から外れるタイミングを判断するための構成である。言い換えると、動き評価部64は、特定の部分画像が動画を構成する全体画像において、連続して存在する時間を判断するための構成である。動き評価部64は、全体画像の大きさ(例えば、1280ピクセルx1024ピクセル)と当初座標及び動きベクトルに基づいて、特定の部分画像が全体画像から外れるタイミングを判断する。図10(b)の例では、動き評価部64は、当初座標がベクトルa1の基部であれば、順送り方向のベクトルa1,a2及びa3を参照し、ベクトルa3が生成された次のシーンで部分画像が全体画像から外れると判断する。   The motion evaluation unit 64 is configured to determine the timing at which the partial image deviates from the entire image based on the initial coordinates and the motion vector. In other words, the motion evaluation unit 64 is a configuration for determining a time in which a specific partial image is continuously present in the entire image constituting the moving image. The motion evaluation unit 64 determines the timing at which a specific partial image deviates from the entire image based on the size of the entire image (for example, 1280 pixels × 1024 pixels), the initial coordinates, and the motion vector. In the example of FIG. 10B, if the initial coordinate is the base of the vector a1, the motion evaluation unit 64 refers to the vectors a1, a2, and a3 in the forward feed direction, and performs partial processing in the next scene where the vector a3 is generated. It is determined that the image is out of the whole image.

また、動き評価部64は、例えば、図10(c)に示すように、部分画像であるすずめ204がベクトルb4を生成したシーンにおいて一度全体画像から外れるが、予め規定した確認時間経過前において復帰している場合には、全体画像への復帰を前提にしていると判断する。なお、動きベクトルb1等は、すずめ204の動きを示す。   Further, for example, as shown in FIG. 10C, the motion evaluation unit 64 once returns from the entire image in the scene in which the sparrow 204, which is a partial image, is generated in the scene where the vector b4 is generated. If it is, it is determined that a return to the entire image is assumed. The motion vector b1 or the like indicates the motion of the sparrow 204.

[広告マッチング装置80について]
図12は、広告マッチング装置80の概略構成を示すブロック図である。図13は、ユーザ端末5等を示す概略図である。図12に示すように、広告マッチング装置80は、シーン位置取得部81及び広告マッチング部82を有する。シーン位置取得部81は、例えば、図13(b)のシーン1〜シーン9から、特定の部分画像である例えば、Aタイプ自動車200が表示されているシーンを判断する。図13(b)の例では、シーン2乃至シーン4にAタイプ自動車200が表示されていると判断される。
[Advertising matching device 80]
FIG. 12 is a block diagram illustrating a schematic configuration of the advertisement matching device 80. FIG. 13 is a schematic diagram showing the user terminal 5 and the like. As illustrated in FIG. 12, the advertisement matching device 80 includes a scene position acquisition unit 81 and an advertisement matching unit 82. For example, the scene position acquisition unit 81 determines a scene in which a specific partial image, for example, an A type automobile 200 is displayed, from the scenes 1 to 9 in FIG. In the example of FIG. 13B, it is determined that the A type automobile 200 is displayed in the scenes 2 to 4.

広告マッチング部82は、シーン1〜9を含む動画全体について予め生成した動きベクトルに基づいて、特定の部分画像である例えば、Aタイプ自動車200が表示されている間だけ、Aタイプ自動車200に対応するバナー広告B(図13(a)参照)をユーザ端末5の液晶画面5aに表示させるための構成である。図13(a)に示すように、液晶画面5aには、動画Aとしてシーン1乃至9が表示されるが、そのうちAタイプ自動車200が表示されるシーン2乃至4の間だけ、バナー広告Bが表示されるようになっている。   The advertisement matching unit 82 supports the A type automobile 200 only while the specific partial image, for example, the A type automobile 200 is displayed based on the motion vector generated in advance for the entire moving image including the scenes 1 to 9. The banner advertisement B to be displayed (see FIG. 13A) is displayed on the liquid crystal screen 5a of the user terminal 5. As shown in FIG. 13A, scenes 1 to 9 are displayed as the moving image A on the liquid crystal screen 5a, but the banner advertisement B is displayed only during the scenes 2 to 4 in which the A type automobile 200 is displayed. It is displayed.

これに対して、図13(c)に示すように、広告マッチング部82は、シーン1〜9を含む動画全体について予め生成した動きベクトルに基づいて、特定の部分画像(例えば、すずめ204)が復帰を前提に全体画像から外れたと判断した場合には、図13(c)に示すように、すずめ204が表示されていないシーン4においても、継続的にすずめ204に対応するバナー広告Cを表示させる。   On the other hand, as shown in FIG. 13C, the advertisement matching unit 82 generates a specific partial image (for example, sparrow 204) based on a motion vector generated in advance for the entire moving image including the scenes 1 to 9. If it is determined that the image has been removed from the entire image on the assumption that it will return, as shown in FIG. 13C, the banner advertisement C corresponding to the sparrow 204 is continuously displayed even in the scene 4 where the sparrow 204 is not displayed. Let

[ブックマーク生成装置100について]
図14は、ブックマーク生成装置100の概略構成を示すブロック図等である。図15は、ユーザ端末5の液晶画面5aに表示される画像例である。図14(a)に示すように、ブックマーク生成装置100は、ブックマーク登録部101、共通画像表示部102、共通画像カウント部103及びブックマークDB104を有する。
[About Bookmark Generation Device 100]
FIG. 14 is a block diagram showing a schematic configuration of the bookmark generating apparatus 100. FIG. 15 is an example of an image displayed on the liquid crystal screen 5 a of the user terminal 5. As illustrated in FIG. 14A, the bookmark generation device 100 includes a bookmark registration unit 101, a common image display unit 102, a common image count unit 103, and a bookmark DB 104.

ブックマーク登録部101は、例えば、ユーザ端末5から部分画像の送信を受けた場合に、そのユーザID、その部分画像の画像ID及び説明ページURLを関連付けてブックマークDB104に格納するための構成であり、ブックマーク登録部として機能する。ユーザ端末5から受信する部分画像は、動画であってもよい。図14(b)に示すように、ユーザID、画像ID及び説明ページURLは、個人テーブルに格納される。個人テーブルは、ブックマークDB104にユーザごとに設定される。   The bookmark registration unit 101 is configured to store the user ID, the image ID of the partial image, and the description page URL in association with each other in the bookmark DB 104 when receiving a partial image from the user terminal 5, for example. Functions as a bookmark registration unit. The partial image received from the user terminal 5 may be a moving image. As shown in FIG. 14B, the user ID, the image ID, and the explanation page URL are stored in the personal table. The personal table is set for each user in the bookmark DB 104.

ブックマーク登録部101は、また、図14(c)に示す共通テーブルに、個人テーブルに格納されたブックマークを格納するための構成でもある。共通テーブルも、ブックマークDB104内に設定される。共通テーブルにおいては、各種情報がタグIDと関連付けられて格納される。上述のブックマーク登録部101の動作は、ブックマーク登録ステップの一例である。   The bookmark registration unit 101 is also configured to store the bookmarks stored in the personal table in the common table shown in FIG. The common table is also set in the bookmark DB 104. In the common table, various types of information are stored in association with tag IDs. The operation of the bookmark registration unit 101 described above is an example of a bookmark registration step.

共通画像表示部102は、特定のホームページ(以下、「ブックマークページ」と呼ぶ)にアクセスしたユーザ端末5等に、共通テーブルに格納された部分画像のデータを送信し、図15(a)に示すように、それらの部分画像を液晶画面5aに表示させるための構成であり、ブックマークページ送信部として機能する。このように、共通テーブルに格納された部分画像は、例えば、特定のホームページ(以下、「ブックマークページ」と呼ぶ)の閲覧者全員が自由に閲覧することができるようになっている。「ブックマークページ」には、図15に示すように、複数の部分画像がブックマークとして表示される。この部分画像のいくつかは、動画であってもよい。上述の共通画像表示部102の動作は、ブックマークページ送信ステップの一例である。   The common image display unit 102 transmits the partial image data stored in the common table to the user terminal 5 or the like that has accessed a specific homepage (hereinafter referred to as “bookmark page”), as shown in FIG. Thus, it is the structure for displaying those partial images on the liquid crystal screen 5a, and functions as a bookmark page transmission unit. As described above, the partial images stored in the common table can be freely browsed by all the viewers of a specific homepage (hereinafter referred to as “bookmark page”), for example. As shown in FIG. 15, a plurality of partial images are displayed on the “bookmark page” as bookmarks. Some of the partial images may be moving images. The operation of the common image display unit 102 described above is an example of a bookmark page transmission step.

共通画像カウント部103は、ブックマークページを閲覧したユーザ端末5等のユーザが、特定のブックマークをクリックした回数をカウントし、図14(c)に示すように、そのカウント回数を「ポイント」として共通テーブルに記録するための構成である。   The common image counting unit 103 counts the number of times that a user such as the user terminal 5 who has browsed the bookmark page clicks a specific bookmark, and the common count is “point” as shown in FIG. This is a configuration for recording in a table.

そして、上述の検索装置40は、図15(b)に示すように、ポイントが多い部分画像(ブックマーク)に対応する説明文(コンテンツへのリンクを含む)を検索結果ページの上の方に表示し、ユーザが見易いように表示するようになっている。例えば、ユーザが自動車の部分画像を検索キーとして使用し、検索装置40が複数のコンテンツURLを抽出した場合において、カウント回数が多いブックマークを含むページのURLを優先的に表示するのである。なお、ユーザが使用する検索キーの画像と、優先表示の順序を決めるブックマーク(部分画像)は一致するとは限らない。   Then, as shown in FIG. 15B, the search device 40 described above displays an explanatory text (including a link to the content) corresponding to the partial image (bookmark) with many points at the top of the search result page. However, it is displayed so that the user can easily see it. For example, when a user uses a partial image of a car as a search key and the search device 40 extracts a plurality of content URLs, the URL of a page including a bookmark with a large number of counts is preferentially displayed. Note that the search key image used by the user does not always match the bookmark (partial image) that determines the priority display order.

以上が、装置10の構成である。上述のように、装置10は、部分画像を特徴情報の検索のためのキーとして使用し、その特徴情報に対応する部分画像を含むコンテンツへのリンクをユーザ端末に送信することができる。すなわち、文字列ではなくて、部分画像を検索するためのキーとして使用することができる。このため、適切なキーワードの入力がなくても、ユーザが希望する情報を提供することができる。
また、装置10は、動画全体において、ユーザが検索キーとして入力した部分画像が存在する時間を判断することができるから、ユーザが入力した部分画像が存在する部分だけをユーザ端末に送信することができる。
The above is the configuration of the apparatus 10. As described above, the device 10 can use a partial image as a key for searching for feature information, and transmit a link to content including the partial image corresponding to the feature information to the user terminal. That is, it can be used not as a character string but as a key for searching a partial image. For this reason, even if an appropriate keyword is not input, information desired by the user can be provided.
Further, since the apparatus 10 can determine the time during which the partial image input by the user as a search key exists in the entire moving image, only the portion where the partial image input by the user exists can be transmitted to the user terminal. it can.

また、装置10は、動画全体において、ユーザが検索キーとして入力した部分画像が存在する時間に対応して、その部分画像に関連する広告をユーザ端末に表示させることができる。部分画像はユーザが選択した画像であるから、その部分画像に関連する広告は、ユーザの興味に合うはずである。このため、ユーザに購入希望の商品に対応するバナーや販売ページを探索する苦労を要求することなく、ユーザの興味に合う広告情報を提供することができる。   Further, the apparatus 10 can display, on the user terminal, an advertisement related to the partial image corresponding to the time when the partial image input by the user as a search key exists in the entire moving image. Since the partial image is an image selected by the user, the advertisement associated with the partial image should be of interest to the user. For this reason, it is possible to provide advertisement information suitable for the user's interest without requiring the user to search for a banner or sales page corresponding to the product desired to be purchased.

さらに、装置10は、一時的に部分画像が全体画像から外れた場合には、その部分画像に対応する広告をユーザ端末に継続して表示させる。部分画像が一時的に全体画像から外れた場合に、ユーザはその興味に合う広告情報に集中するはずである。このため、広告効果を高めることができる。   Furthermore, when the partial image temporarily deviates from the entire image, the device 10 continuously displays an advertisement corresponding to the partial image on the user terminal. When a partial image temporarily deviates from the entire image, the user should concentrate on advertising information that suits that interest. For this reason, the advertising effect can be enhanced.

また、装置10は、部分画像をブックマークとして複数のユーザ端末に表示させることができる。すなわち、一見して内容を理解することができるソーシャルブックマークを表示することができる。さらに、各ブックマークがユーザ端末に選択された回数をカウントすることができ、カウント数が多いブックマークをユーザ端末に優先的に表示することができるから、人気があるブックマークを優先的に表示させることができる。
さらに、ブックマークを動画として、複数の前記ユーザ端末に表示させることもできるから、動画というユーザの興味を引き易いブックマークを表示することができる。
Moreover, the apparatus 10 can display a partial image as a bookmark on a plurality of user terminals. That is, it is possible to display a social bookmark that can be understood at a glance. Furthermore, the number of times each bookmark is selected by the user terminal can be counted, and bookmarks with a large number of counts can be preferentially displayed on the user terminal, so that popular bookmarks can be preferentially displayed. it can.
Furthermore, since a bookmark can be displayed as a moving image on a plurality of the user terminals, a bookmark that is easy to attract the user's interest as a moving image can be displayed.

以下、装置10の動作例を図16、図17及び図18を使用して説明する。図16、図17及び図18は、装置10の動作例を示す概略フローチャートである。まず、主に図16を使用して、装置10がユーザ端末5等から部分画像を受信して、ユーザ端末5等に検索結果を送信する動作例を説明する。   Hereinafter, an operation example of the apparatus 10 will be described with reference to FIGS. 16, 17, and 18. 16, 17, and 18 are schematic flowcharts illustrating an operation example of the apparatus 10. First, an operation example in which the apparatus 10 receives a partial image from the user terminal 5 or the like and transmits a search result to the user terminal 5 or the like will be described mainly using FIG.

まず、装置10は、ユーザ端末5から検索画像(部分画像)を受信する(図16のステップS1)。このステップS1は、部分画像受信ステップの一例である。そして、検索画像の特徴を検出し(ステップS2)、画像タグテーブル(図6参照)から検索画像の特徴と相関性のある特徴情報を抽出する(ステップS3)。上述のステップS2は特徴検出ステップの一例であり、ステップS3は特徴情報抽出ステップの一例である。   First, the device 10 receives a search image (partial image) from the user terminal 5 (step S1 in FIG. 16). This step S1 is an example of a partial image receiving step. Then, the feature of the search image is detected (step S2), and feature information correlated with the feature of the search image is extracted from the image tag table (see FIG. 6) (step S3). Step S2 described above is an example of a feature detection step, and step S3 is an example of a feature information extraction step.

続いて、装置10は、画像タグテーブルから抽出した特徴情報に対応するコンテンツURLを抽出し(ステップS4)、抽出したコンテンツURLをユーザ端末5に送信する(ステップS5)。このステップS5は、関連情報送信ステップの一例である。   Subsequently, the device 10 extracts a content URL corresponding to the feature information extracted from the image tag table (step S4), and transmits the extracted content URL to the user terminal 5 (step S5). This step S5 is an example of a related information transmission step.

次に、主に図17を使用して、ユーザ端末5等の液晶画面5a等に、検索画像(部分画像)が表示されているタイミングに対応して、その部分画像に対応する広告バナーを表示させる動作例を説明する。   Next, mainly using FIG. 17, an advertisement banner corresponding to the partial image is displayed on the liquid crystal screen 5 a of the user terminal 5 or the like corresponding to the timing at which the search image (partial image) is displayed. An example of the operation will be described.

まず、図17のステップS101〜S104は、上述のステップS1〜S4と同様であるから、説明を省略する。ステップS104に続いて、装置10は、抽出した特徴情報に対応する部分画像の動きを評価して、全体画像から外れるタイミングを判断する(ステップS105)。そして、その部分画像が表示されているシーンに、その部分画像に対応する広告バナーを関連付ける(ステップS106)。   First, Steps S101 to S104 in FIG. 17 are the same as Steps S1 to S4 described above, and thus description thereof is omitted. Subsequent to step S104, the apparatus 10 evaluates the movement of the partial image corresponding to the extracted feature information, and determines the timing of deviating from the entire image (step S105). Then, an advertisement banner corresponding to the partial image is associated with the scene where the partial image is displayed (step S106).

続いて、装置10は、抽出したコンテンツURLをユーザ端末5に送信する(ステップS107)。そして、ユーザ端末5がそのコンテンツURLにアクセスすると、ユーザ端末5の液晶画面5aに動画を表示し、抽出した特徴情報に対応する部分画像が表示されている間だけその部分画像に対応する広告バナーを表示させる(ステップS108)。   Subsequently, the apparatus 10 transmits the extracted content URL to the user terminal 5 (step S107). When the user terminal 5 accesses the content URL, a moving image is displayed on the liquid crystal screen 5a of the user terminal 5, and an advertisement banner corresponding to the partial image is displayed only while the partial image corresponding to the extracted feature information is displayed. Is displayed (step S108).

次に、主に図18を使用して、ユーザ端末5等がブックマークページから部分画像を選択した場合の装置10の動作例を説明する。   Next, an operation example of the apparatus 10 when the user terminal 5 or the like selects a partial image from the bookmark page will be described mainly using FIG.

まず、装置10は、ユーザ端末5から、ブックマークページの閲覧要求を受信する(図18のステップS201)。続いて、ユーザ端末50にブックマークページを表示させる(ステップS202)。そして、ユーザ端末5から特定のブックマーク(部分画像)の指定を受けると(ステップS203)、その部分画像の特徴を検出し、画像タグテーブル(図6参照)からその部分画像の特徴と相関性のある特徴情報を抽出する(ステップS204)。そして、抽出した特徴情報に対応する部分画像を含むコンテンツへのリンクを画像タグテーブル(図6参照)から抽出する(ステップS205)。そして、指定された部分画像の動きを評価し、全体画像から外れるタイミングを判断する(ステップS206)。   First, the apparatus 10 receives a bookmark page browsing request from the user terminal 5 (step S201 in FIG. 18). Subsequently, a bookmark page is displayed on the user terminal 50 (step S202). When a specific bookmark (partial image) is designated from the user terminal 5 (step S203), the feature of the partial image is detected, and the feature and correlation of the partial image are detected from the image tag table (see FIG. 6). Certain feature information is extracted (step S204). Then, a link to the content including the partial image corresponding to the extracted feature information is extracted from the image tag table (see FIG. 6) (step S205). Then, the movement of the designated partial image is evaluated, and the timing for deviating from the entire image is determined (step S206).

続いて、装置10は、ステップS207、ステップS208及びステップS209を実施する。ステップS207〜ステップS209は、上述のステップS106〜ステップS108と同様であるから、説明を省略する。   Subsequently, the apparatus 10 performs Step S207, Step S208, and Step S209. Steps S207 to S209 are the same as steps S106 to S108 described above, and thus description thereof is omitted.

ステップS209に続いて、装置10は、指定された部分画像のポイント(図14(c)参照)を加算し(ステップS210)、検索結果ページの表示順序を維持または更新する(ステップS211)。   Subsequent to step S209, the apparatus 10 adds points (see FIG. 14C) of the designated partial image (step S210), and maintains or updates the display order of the search result page (step S211).

[第2の実施形態]
次に、第2の実施形態について、図19及び20を参照しながら説明する。図19は、第2実施形態の装置10A(図1参照)の広告マッチング装置80Aを示す概略ブロック図である。図20は、ユーザ端末5等の画面例である。第2の実施形態の装置10A(図1参照)は、第1の実施形態の装置10の機能に加えて、部分画像の動きに対応してバナー広告の表示位置を変更することができる。
[Second Embodiment]
Next, a second embodiment will be described with reference to FIGS. FIG. 19 is a schematic block diagram showing an advertisement matching device 80A of the device 10A (see FIG. 1) of the second embodiment. FIG. 20 is a screen example of the user terminal 5 or the like. In addition to the function of the device 10 of the first embodiment, the device 10A (see FIG. 1) of the second embodiment can change the display position of the banner advertisement in accordance with the movement of the partial image.

図20(a)に示すように、装置10Aは、ユーザ端末5の液晶画面5aにおいて、動画Aを表示させるとともに、その周囲のいずれかに、それぞれバナー広告B1〜B4を表示させるようにさせる。装置10Aの広告マッチング部82Aは、図20(b)に示すように、特定の部分画像の動きベクトルがS1であり、動画Aから左側へ外れる場合には、動画Aの左側にバナー広告B2を表示させる。これに対して、広告マッチング部82Aは、図20(c)に示すように、特定の部分画像の動きベクトルがS2であり、動画Aから上側へ外れる場合には、動画Aの上側にバナー広告B3を表示させる。   As illustrated in FIG. 20A, the device 10 </ b> A displays the moving image A on the liquid crystal screen 5 a of the user terminal 5 and displays banner advertisements B <b> 1 to B <b> 4 on any of the surroundings. As shown in FIG. 20B, the advertisement matching unit 82A of the device 10A displays the banner advertisement B2 on the left side of the video A when the motion vector of the specific partial image is S1 and deviates from the video A to the left. Display. On the other hand, as shown in FIG. 20C, the advertisement matching unit 82A displays a banner advertisement on the upper side of the video A when the motion vector of the specific partial image is S2 and deviates from the upper side of the video A. B3 is displayed.

[プログラム及びコンピュータ読み取り可能な記録媒体等について]
コンピュータに上述の動作例の部分画像受信ステップ、特徴検出ステップ、特徴情報抽出ステップ、関連情報送信ステップ等を実行させるためのコンピュータプログラム等とすることができる。また、このようなコンピュータプログラム等を記録したコンピュータ読み取り可能な記録媒体とすることもできる。
[Programs and computer-readable recording media]
A computer program for causing a computer to execute the partial image reception step, the feature detection step, the feature information extraction step, the related information transmission step, and the like in the above-described operation example can be used. Moreover, it can also be set as the computer-readable recording medium which recorded such a computer program etc.

[情報提供装置10のハードウェア構成]
図21は、装置10及び10A(以下、情報処理装置1000と表記する)のハードウェア構成例を示す図である。情報処理装置1000は、それぞれの制御部を構成するCPU(Central Processing Unit)1010(マルチプロセッサ構成ではCPU1012等複数のCPUが追加されてもよい)、バスライン1005、通信I/F1040、メインメモリ1050、BIOS(Basic Input Output System)1060、USBポート1090、I/Oコントローラ1070、ならびにキーボード及びマウス1100等の入力手段や表示装置1022を備える。
[Hardware Configuration of Information Providing Device 10]
FIG. 21 is a diagram illustrating a hardware configuration example of the devices 10 and 10A (hereinafter referred to as the information processing device 1000). The information processing apparatus 1000 includes a CPU (Central Processing Unit) 1010 (a plurality of CPUs such as the CPU 1012 may be added in a multiprocessor configuration), a bus line 1005, a communication I / F 1040, and a main memory 1050 that configure each control unit. , A BIOS (Basic Input Output System) 1060, a USB port 1090, an I / O controller 1070, an input means such as a keyboard and mouse 1100, and a display device 1022.

I/Oコントローラ1070には、テープドライブ1072、ハードディスク1074、光ディスクドライブ1076、半導体メモリ1078、等の記憶手段を接続することができる。   Storage means such as a tape drive 1072, a hard disk 1074, an optical disk drive 1076, and a semiconductor memory 1078 can be connected to the I / O controller 1070.

BIOS1060は、情報処理装置1000の起動時にCPU1010が実行するブートプログラムや、情報処理装置1000のハードウェアに依存するプログラム等を格納する。   The BIOS 1060 stores a boot program executed by the CPU 1010 when the information processing apparatus 1000 is activated, a program depending on the hardware of the information processing apparatus 1000, and the like.

記憶部を構成するハードディスク1074は、情報処理装置1000が機能するための各種プログラム及び本発明の機能を実行するプログラムを記憶しており、さらに必要に応じて各種データベースを構成可能である。   The hard disk 1074 constituting the storage unit stores various programs for the information processing apparatus 1000 to function and programs for executing the functions of the present invention, and can configure various databases as necessary.

光ディスクドライブ1076としては、例えば、DVD−ROMドライブ、CD−ROMドライブ、DVD−RAMドライブ、CD−RAMドライブを使用することができる。この場合は各ドライブに対応した光ディスク1077を使用する。光ディスク1077から光ディスクドライブ1076によりプログラムまたはデータを読み取り、I/Oコントローラ1070を介してメインメモリ1050またはハードディスク1074に提供することもできる。また、同様にテープドライブ1072に対応したテープメディア1071を主としてバックアップのために使用することもできる。   As the optical disc drive 1076, for example, a DVD-ROM drive, a CD-ROM drive, a DVD-RAM drive, or a CD-RAM drive can be used. In this case, the optical disk 1077 corresponding to each drive is used. A program or data can be read from the optical disk 1077 by the optical disk drive 1076 and provided to the main memory 1050 or the hard disk 1074 via the I / O controller 1070. Similarly, the tape medium 1071 corresponding to the tape drive 1072 can be used mainly for backup.

情報処理装置1000に提供されるプログラムは、ハードディスク1074、光ディスク1077、またはメモリーカード等の記録媒体に格納されて提供される。このプログラムは、I/Oコントローラ1070を介して、記録媒体から読み出され、または通信I/F1040を介してダウンロードされることによって、情報処理装置1000にインストールされ実行されてもよい。   The program provided to the information processing apparatus 1000 is provided by being stored in a recording medium such as the hard disk 1074, the optical disk 1077, or a memory card. The program may be installed in the information processing apparatus 1000 and executed by being read from the recording medium via the I / O controller 1070 or downloaded via the communication I / F 1040.

前述のプログラムは、内部または外部の記憶媒体に格納されてもよい。ここで、記憶部を構成する記憶媒体としては、ハードディスク1074、光ディスク1077、またはメモリカードの他に、MD等の光磁気記録媒体、テープメディア1071を用いることができる。また、専用通信回線やインターネットに接続されたサーバシステムに設けたハードディスク1074または光ディスクライブラリ等の記憶装置を記録媒体として使用し、通信回線を介してプログラムを情報処理装置1000に提供してもよい。   The aforementioned program may be stored in an internal or external storage medium. Here, in addition to the hard disk 1074, the optical disk 1077, or the memory card, a magneto-optical recording medium such as an MD, or a tape medium 1071 can be used as a storage medium constituting the storage unit. Further, a storage device such as a hard disk 1074 or an optical disk library provided in a server system connected to a dedicated communication line or the Internet may be used as a recording medium, and the program may be provided to the information processing apparatus 1000 via the communication line.

ここで、表示装置1022は、サーバ管理者にデータの入力を受け付ける画面を表示したり、情報処理装置1000による演算処理結果の画面を表示したりするものであり、ブラウン管表示装置(CRT)、液晶表示装置(LCD)等のディスプレイ装置を含む。   Here, the display device 1022 displays a screen for accepting data input to the server administrator, or displays a screen of a calculation processing result by the information processing device 1000. The cathode ray tube display device (CRT), liquid crystal A display device such as a display device (LCD) is included.

ここで、入力手段は、サーバ管理者による入力の受け付けを行うものであり、キーボード及びマウス1100等により構成してよい。   Here, the input means accepts input by the server administrator, and may be constituted by a keyboard, a mouse 1100, and the like.

また、通信I/F1040は、情報処理装置1000を専用ネットワークまたは公共ネットワークを介して端末と接続できるようにするためのネットワーク・アダプタである。通信I/F1040は、モデム、ケーブル・モデム及びイーサネット(登録商標)・アダプタを含んでよい。   The communication I / F 1040 is a network adapter that enables the information processing apparatus 1000 to be connected to a terminal via a dedicated network or a public network. The communication I / F 1040 may include a modem, a cable modem, and an Ethernet (registered trademark) adapter.

以上の例は、情報処理装置1000について主に説明したが、コンピュータに、プログラムをインストールして、そのコンピュータを情報処理装置1000として動作させることにより上記で説明した機能を実現することもできる。従って、本発明において一実施形態として説明した情報処理装置1000により実現される機能は、上述の方法を当該コンピュータにより実行することにより、あるいは、上述のプログラムを当該コンピュータに導入して実行することによっても実現可能である。   In the above example, the information processing apparatus 1000 has been mainly described. However, the functions described above can also be realized by installing a program in a computer and causing the computer to operate as the information processing apparatus 1000. Therefore, the functions realized by the information processing apparatus 1000 described as an embodiment in the present invention are executed by executing the above-described method by the computer, or by introducing the above-described program into the computer and executing it. Is also feasible.

本発明の実施形態である装置10及び10A、またはこれらの装置の制御で用いられる方法を、コンピュータ上のプログラムによって実現する場合において、上記プログラムを格納する記憶媒体は、電子的、磁気的、光学的、電磁的、赤外線または半導体システム(または、装置または機器)あるいは伝搬媒体であることができる。この記憶媒体の例には、半導体またはソリッド・ステート記憶装置、磁気テープ、取り外し可能なコンピュータ可読の媒体の例には、半導体またはソリッド・ステート記憶装置、磁気テープ、取り外し可能なフレキシブルディスク、ランダム・アクセス・メモリ(RAM)、リードオンリー・メモリ(ROM)、リジッド磁気ディスク及び光ディスクが含まれる。現時点における光ディスクの例には、コンパクト・ディスク・リードオンリー・メモリ(CD−ROM)、コンパクト・ディスク−リード・ライト(CD−R/W)及びDVDが含まれる。   In the case where the apparatuses 10 and 10A according to the embodiments of the present invention or the method used for controlling these apparatuses are realized by a program on a computer, the storage medium for storing the program is electronic, magnetic, or optical. It can be a mechanical, electromagnetic, infrared or semiconductor system (or apparatus or equipment) or a propagation medium. Examples of this storage medium include semiconductor or solid state storage devices, magnetic tape, removable computer readable media examples include semiconductor or solid state storage devices, magnetic tape, removable flexible disks, random disks, Includes access memory (RAM), read only memory (ROM), rigid magnetic disk and optical disk. Examples of optical disks at the present time include compact disk read only memory (CD-ROM), compact disk read / write (CD-R / W) and DVD.

以上、本発明の実施形態を説明したが、具体例を例示したに過ぎず、特に本発明を限定しない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載された効果に限定されない。   As mentioned above, although embodiment of this invention was described, it only showed the specific example and does not specifically limit this invention. Further, the effects described in the embodiments of the present invention only list the most preferable effects resulting from the present invention, and the effects of the present invention are not limited to the effects described in the embodiments of the present invention.

本発明の第1の実施形態に係る情報提供装置の概略構成等を示す図である。It is a figure which shows schematic structure etc. of the information provision apparatus which concerns on the 1st Embodiment of this invention. ユーザ端末を示す概略図である。It is the schematic which shows a user terminal. ユーザ端末に表示される動画の一例を示す図である。It is a figure which shows an example of the moving image displayed on a user terminal. ユーザ端末に表示される動画の一例を示す図である。It is a figure which shows an example of the moving image displayed on a user terminal. 画像辞書生成装置の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of an image dictionary production | generation apparatus. 画像タグテーブルの一例を示す図である。It is a figure which shows an example of an image tag table. 部分画像辞書の一例を示す概念図である。It is a conceptual diagram which shows an example of a partial image dictionary. 検索装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of a search device. ユーザ端末の液晶画面に表示される検索結果の一例を示す図である。It is a figure which shows an example of the search result displayed on the liquid crystal screen of a user terminal. 動き情報付与装置の概略構等を示すブロック図である。It is a block diagram which shows schematic structure etc. of a motion information provision apparatus. 動画の一例を示す図である。It is a figure which shows an example of a moving image. 広告マッチング装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of an advertisement matching apparatus. ユーザ端末を示す概略図である。It is the schematic which shows a user terminal. ブックマーク生成装置の概略構成を示すブロック図等である。It is a block diagram etc. which show schematic structure of a bookmark production | generation apparatus. ユーザ端末の液晶画面に表示される画像例である。It is an example of an image displayed on a liquid crystal screen of a user terminal. 装置の動作例を示す概略フローチャートである。It is a schematic flowchart which shows the operation example of an apparatus. 装置の動作例を示す概略フローチャートである。It is a schematic flowchart which shows the operation example of an apparatus. 装置の動作例を示す概略フローチャートである。It is a schematic flowchart which shows the operation example of an apparatus. 装置の広告マッチング装置を示す概略ブロック図である。It is a schematic block diagram which shows the advertisement matching apparatus of an apparatus. ユーザ端末の画面例である。It is an example of a screen of a user terminal. 情報提供装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of an information provision apparatus.

10,10A 情報提供装置
20 画像辞書生成装置
21 コンテンツ取得部
22 コンテンツクラスタリング部
23 部分画像取得部
24 部分画像クラスタリング部
25 特徴付与部
26 タグ付与部
40 検索装置
41 クエリ受付部
42 検索処理部
42a 画像取得部
42b 特徴検出部
43c 画像検索部
42d 関連情報抽出部
43 検索結果生成部
44 検索結果送信部
45 検索ログ記録部
60 動き情報付与装置
61 画像取得部
62 画像内位置取得部
63 動き抽出部
63a 順送り部
63b 逆送り部
64 動き評価部
80,80A 広告マッチング装置
81 シーン位置取得部
82,82A 広告マッチング部
100 ブックマーク生成装置
101 ブックマーク登録部
102 共通画像表示部
103 共通画像カウント部
DESCRIPTION OF SYMBOLS 10,10A Information provision apparatus 20 Image dictionary production | generation apparatus 21 Content acquisition part 22 Content clustering part 23 Partial image acquisition part 24 Partial image clustering part 25 Feature provision part 26 Tag provision part 40 Search apparatus 41 Query reception part 42 Search processing part 42a Image Acquisition unit 42b Feature detection unit 43c Image search unit 42d Related information extraction unit 43 Search result generation unit 44 Search result transmission unit 45 Search log recording unit 60 Motion information addition device 61 Image acquisition unit 62 In-image position acquisition unit 63 Motion extraction unit 63a Forward feed unit 63b Reverse feed unit 64 Motion evaluation unit 80, 80A Advertisement matching device 81 Scene position acquisition unit 82, 82A Advertisement matching unit 100 Bookmark generation device 101 Bookmark registration unit 102 Common image display unit 103 Common image count unit

Claims (3)

ユーザ端末からの要求に対して情報を提供する情報提供装置であって、
動画コンテンツを構成する複数の全体画像(フレーム)において、当該全体画像の一部分であり、特定可能なオブジェクトを含む、部分画像の特徴情報と、当該部分画像の前記動画コンテンツ全体における時間的位置を示す情報であるシーン内位置と、当該全体画像の中で当該部分画像が位置する座標を示す画像内位置と、当該全体画像の中における当該部分画像の動きを示す情報である動きベクトルと、前記全体画像を含む当該動画コンテンツへのリンクと、を関連付けて格納する画像検索データベースと、
前記ユーザ端末から前記部分画像を検索キーとして受信する部分画像受信部と、
前記ユーザ端末から受信した前記部分画像の特徴を検出する特徴検出部と、
前記シーン内位置、前記画像内位置、および前記動きベクトルを併せて用いて、前記ユーザ端末から受信した前記部分画像の特徴と相関性のある前記特徴情報を前記画像検索データベースから抽出する特徴情報抽出部と、
前記特徴情報抽出部が抽出した前記特徴情報に対応する前記リンクを前記ユーザ端末に送信する関連情報送信部と、
前記特徴情報抽出部が抽出した前記特徴情報に対応する前記シーン内位置に基づいて、前記特徴情報に対応する前記リンクが示す前記動画コンテンツにおいて前記部分画像が前記ユーザ端末に表示されているシーンを判断し、当該表示されている間だけ当該部分画像に対応する広告を前記ユーザ端末に表示させ、
前記特徴情報抽出部が抽出した前記特徴情報に対応する前記画像内位置および前記動きベクトルに基づいて、前記特徴情報に対応する前記リンクが示す前記動画コンテンツにおける前記部分画像の動きに応じて広告を表示させるシーンを判断し、当該判断に基づいて当該部分画像に対応する広告を前記ユーザ端末に表示させる広告配信部
を有することを特徴とする情報提供装置。
An information providing apparatus that provides information in response to a request from a user terminal,
In a plurality of whole images (frames) constituting the moving image content, the feature information of the partial image including a identifiable object that is a part of the whole image and the temporal position of the partial image in the whole moving image content are indicated. A position in the scene which is information, a position in the image indicating coordinates where the partial image is located in the whole image, a motion vector which is information indicating movement of the partial image in the whole image, and the whole An image search database for associating and storing a link to the video content including the image;
A partial image receiving unit for receiving the partial image as a search key from the user terminal;
A feature detector for detecting features of the partial image received from the user terminal;
Feature information extraction that extracts the feature information correlated with the feature of the partial image received from the user terminal from the image search database by using the position in the scene, the position in the image, and the motion vector in combination. And
A related information transmission unit that transmits the link corresponding to the feature information extracted by the feature information extraction unit to the user terminal;
Based on the position in the scene corresponding to the feature information extracted by the feature information extraction unit, a scene in which the partial image is displayed on the user terminal in the moving image content indicated by the link corresponding to the feature information. Determining and displaying an advertisement corresponding to the partial image on the user terminal only while the information is displayed;
Based on the position in the image corresponding to the feature information extracted by the feature information extraction unit and the motion vector, an advertisement is displayed according to the motion of the partial image in the moving image content indicated by the link corresponding to the feature information. An information providing apparatus comprising: an advertisement distribution unit that determines a scene to be displayed and displays an advertisement corresponding to the partial image on the user terminal based on the determination .
動画コンテンツを構成する複数の全体画像(フレーム)において、当該全体画像の一部分であり、特定可能なオブジェクトを含む、部分画像の特徴情報と、当該部分画像の前記動画コンテンツ全体における時間的位置を示す情報であるシーン内位置と、当該全体画像の中で当該部分画像が位置する座標を示す画像内位置と、当該全体画像の中における当該部分画像の動きを示す情報である動きベクトルと、前記全体画像を含む当該動画コンテンツへのリンクと、を関連付けて格納する画像検索データベースを有する情報提供装置によって、ユーザ端末からの要求に対して情報を提供する情報提供方法であって、
ユーザ端末から前記部分画像を検索キーとして受信する部分画像受信ステップと、
前記ユーザ端末から受信した前記部分画像の特徴を検出する特徴検出ステップと、
前記シーン内位置、前記画像内位置、および前記動きベクトルを併せて用いて、前記ユーザ端末から受信した前記部分画像の特徴と相関性のある特徴情報を前記画像検索データベースから抽出する特徴情報抽出ステップと、
前記特徴情報抽出ステップにおいて抽出した前記特徴情報に対応する前記リンクを前記ユーザ端末に送信する関連情報送信ステップと、
前記特徴情報抽出ステップが抽出した前記特徴情報に対応する前記シーン内位置に基づいて、前記特徴情報に対応する前記リンクが示す前記動画コンテンツにおいて前記部分画像が前記ユーザ端末に表示されているシーンを判断し、当該表示されている間だけ当該部分画像に対応する広告を前記ユーザ端末に表示させ、
前記特徴情報抽出ステップが抽出した前記特徴情報に対応する前記画像内位置および前記動きベクトルに基づいて、前記特徴情報に対応する前記リンクが示す前記動画コンテンツにおける前記部分画像の動きに応じて広告を表示させるシーンを判断し、当該判断に基づいて当該部分画像に対応する広告を前記ユーザ端末に表示させる広告配信ステップ
を有することを特徴とする情報提供方法。
In a plurality of whole images (frames) constituting the moving image content, the feature information of the partial image including a identifiable object that is a part of the whole image and the temporal position of the partial image in the whole moving image content are indicated. A position in the scene which is information, a position in the image indicating coordinates where the partial image is located in the whole image, a motion vector which is information indicating movement of the partial image in the whole image, and the whole An information providing method for providing information in response to a request from a user terminal by an information providing apparatus having an image search database that stores and associates a link to the moving image content including an image,
A partial image receiving step of receiving the partial image from the user terminal as a search key;
A feature detection step of detecting a feature of the partial image received from the user terminal;
Feature information extraction step for extracting feature information correlated with the feature of the partial image received from the user terminal from the image search database by using the position in the scene, the position in the image, and the motion vector in combination. When,
A related information transmission step of transmitting the link corresponding to the feature information extracted in the feature information extraction step to the user terminal;
A scene in which the partial image is displayed on the user terminal in the moving image content indicated by the link corresponding to the feature information based on the position in the scene corresponding to the feature information extracted by the feature information extraction step. Determining and displaying an advertisement corresponding to the partial image on the user terminal only while the information is displayed;
Based on the position in the image corresponding to the feature information extracted by the feature information extraction step and the motion vector, an advertisement is displayed according to the motion of the partial image in the moving image content indicated by the link corresponding to the feature information. An information providing method comprising: determining a scene to be displayed, and displaying an advertisement corresponding to the partial image on the user terminal based on the determination .
コンピュータを、動画コンテンツを構成する複数の全体画像(フレーム)において、当該全体画像の一部分であり、特定可能なオブジェクトを含む、部分画像の特徴情報と、当該部分画像の前記動画コンテンツ全体における時間的位置を示す情報であるシーン内位置と、当該全体画像の中で当該部分画像が位置する座標を示す画像内位置と、当該全体画像の中における当該部分画像の動きを示す情報である動きベクトルと、前記全体画像を含む当該動画コンテンツへのリンクと、を関連付けて格納する画像検索データベースを有する情報提供装置として機能させるためのコンピュータプログラムであって、
ユーザ端末から前記部分画像を検索キーとして受信する部分画像受信ステップと、
前記ユーザ端末から受信した前記部分画像の特徴を検出する特徴検出ステップと、
前記シーン内位置、前記画像内位置、および前記動きベクトルを併せて用いて、前記ユーザ端末から受信した前記部分画像の特徴と相関性のある特徴情報を前記画像検索データベースから抽出する特徴情報抽出ステップと、
前記特徴情報抽出ステップにおいて抽出した前記特徴情報に対応する前記リンク前記ユーザ端末に送信する関連情報送信ステップと、
前記特徴情報抽出ステップが抽出した前記特徴情報に対応する前記シーン内位置に基づいて、前記特徴情報に対応する前記リンクが示す前記動画コンテンツにおいて前記部分画像が前記ユーザ端末に表示されているシーンを判断し、当該表示されている間だけ当該部分画像に対応する広告を前記ユーザ端末に表示させ、
前記特徴情報抽出ステップが抽出した前記特徴情報に対応する前記画像内位置および前記動きベクトルに基づいて、前記特徴情報に対応する前記リンクが示す前記動画コンテンツにおける前記部分画像の動きに応じて広告を表示させるシーンを判断し、当該判断に基づいて当該部分画像に対応する広告を前記ユーザ端末に表示させる広告配信ステップ
を実行させることを特徴とするコンピュータプログラム。
In a plurality of whole images (frames) constituting the moving image content, the computer is characterized by the partial image feature information including a part of the whole image and an identifiable object, and the partial image temporal information in the whole moving image content. A position in the scene that is information indicating the position, a position in the image that indicates coordinates in which the partial image is located in the entire image, and a motion vector that is information indicating the movement of the partial image in the entire image. A computer program for causing an information providing apparatus having an image search database to store a link to the moving image content including the entire image in association with each other,
A partial image receiving step of receiving the partial image from the user terminal as a search key;
A feature detection step of detecting a feature of the partial image received from the user terminal;
Feature information extraction step for extracting feature information correlated with the feature of the partial image received from the user terminal from the image search database by using the position in the scene, the position in the image, and the motion vector in combination. When,
A related information transmitting step for transmitting to the user terminal the link corresponding to the feature information extracted in the feature information extracting step;
A scene in which the partial image is displayed on the user terminal in the moving image content indicated by the link corresponding to the feature information based on the position in the scene corresponding to the feature information extracted by the feature information extraction step. Determining and displaying an advertisement corresponding to the partial image on the user terminal only while the information is displayed;
Based on the position in the image corresponding to the feature information extracted by the feature information extraction step and the motion vector, an advertisement is displayed according to the motion of the partial image in the moving image content indicated by the link corresponding to the feature information. A computer program for determining a scene to be displayed and executing an advertisement distribution step for displaying an advertisement corresponding to the partial image on the user terminal based on the determination .
JP2006334998A 2006-12-12 2006-12-12 Information providing apparatus, information providing method, and computer program Active JP5013840B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006334998A JP5013840B2 (en) 2006-12-12 2006-12-12 Information providing apparatus, information providing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006334998A JP5013840B2 (en) 2006-12-12 2006-12-12 Information providing apparatus, information providing method, and computer program

Publications (2)

Publication Number Publication Date
JP2008146490A JP2008146490A (en) 2008-06-26
JP5013840B2 true JP5013840B2 (en) 2012-08-29

Family

ID=39606575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006334998A Active JP5013840B2 (en) 2006-12-12 2006-12-12 Information providing apparatus, information providing method, and computer program

Country Status (1)

Country Link
JP (1) JP5013840B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4949354B2 (en) * 2008-11-07 2012-06-06 ヤフー株式会社 Image search apparatus, image search method and program
JP5433377B2 (en) 2009-10-29 2014-03-05 楽天株式会社 Image processing apparatus, image processing method, and image processing program
US9443147B2 (en) * 2010-04-26 2016-09-13 Microsoft Technology Licensing, Llc Enriching online videos by content detection, searching, and information aggregation

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3093987B2 (en) * 1997-03-07 2000-10-03 日立ソフトウエアエンジニアリング株式会社 Partial moving image related information retrieval method and system
JP3615657B2 (en) * 1998-05-27 2005-02-02 株式会社日立製作所 Video search method and apparatus, and recording medium
JP2000050258A (en) * 1998-07-31 2000-02-18 Toshiba Corp Video retrieval method and video retrieval device
JP2000250944A (en) * 1998-12-28 2000-09-14 Toshiba Corp Information providing method and device, information receiving device and information describing method
JP2000222584A (en) * 1999-01-29 2000-08-11 Toshiba Corp Video information describing method, method, and device for retrieving video
JP2002318812A (en) * 2001-04-23 2002-10-31 Olympus Optical Co Ltd Similar image retrieval device, similar image retrieval method and similar image retrieval program
JP2004102475A (en) * 2002-09-06 2004-04-02 D-Rights Inc Advertisement information superimposing device
JP2004240750A (en) * 2003-02-06 2004-08-26 Canon Inc Picture retrieval device
JP4421527B2 (en) * 2004-07-21 2010-02-24 日本電信電話株式会社 Video search apparatus, method and program, and recording medium recording program
JP4500999B2 (en) * 2004-09-02 2010-07-14 国立大学法人広島大学 Image processing apparatus, image processing method, image processing program, and computer-readable recording medium

Also Published As

Publication number Publication date
JP2008146490A (en) 2008-06-26

Similar Documents

Publication Publication Date Title
US20200175550A1 (en) Method for identifying advertisements for placement in multimedia content elements
JP4809201B2 (en) Information providing apparatus, information providing method, and computer program
CN110378732B (en) Information display method, information association method, device, equipment and storage medium
US11630861B2 (en) Method and apparatus for video searching, terminal and storage medium
US9372920B2 (en) Identifying textual terms in response to a visual query
US9128909B2 (en) Intelligent augmentation of media content
US9148619B2 (en) Music soundtrack recommendation engine for videos
US20140040273A1 (en) Hypervideo browsing using links generated based on user-specified content features
JP4746568B2 (en) Information providing apparatus, information providing method, and program
US8867779B2 (en) Image tagging user interface
WO2019144850A1 (en) Video content-based video search method and video search apparatus
KR102281186B1 (en) Animated snippets for search results
US8156001B1 (en) Facilitating bidding on images
CN103988202A (en) Image attractiveness based indexing and searching
JP2008257460A (en) Information processor, information processing method, and program
WO2011140786A1 (en) Extraction and association method and system for objects of interest in video
US20210042809A1 (en) System and method for intuitive content browsing
US20210216772A1 (en) Visual Menu
US20160171548A1 (en) Method for identifying advertisements for placement in multimedia content elements
JP5013840B2 (en) Information providing apparatus, information providing method, and computer program
JP5767413B1 (en) Information processing system, information processing method, and information processing program
JP5063098B2 (en) Information providing apparatus, information providing method, and computer program
WO2023051062A1 (en) Information display method and device, and computer storage medium
JP4962949B2 (en) Information providing apparatus, information providing method, and computer program
JP2008146491A (en) Information providing device, information providing method and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110810

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120522

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120605

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5013840

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250