JP5552987B2 - Search result output device, search result output method, and search result output program - Google Patents

Search result output device, search result output method, and search result output program Download PDF

Info

Publication number
JP5552987B2
JP5552987B2 JP2010214198A JP2010214198A JP5552987B2 JP 5552987 B2 JP5552987 B2 JP 5552987B2 JP 2010214198 A JP2010214198 A JP 2010214198A JP 2010214198 A JP2010214198 A JP 2010214198A JP 5552987 B2 JP5552987 B2 JP 5552987B2
Authority
JP
Japan
Prior art keywords
representative image
image
text
search result
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010214198A
Other languages
Japanese (ja)
Other versions
JP2012068982A (en
Inventor
正樹 石原
秋吾 中村
孝之 馬場
進 遠藤
秀一 椎谷
祐介 上原
大器 増本
茂美 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010214198A priority Critical patent/JP5552987B2/en
Publication of JP2012068982A publication Critical patent/JP2012068982A/en
Application granted granted Critical
Publication of JP5552987B2 publication Critical patent/JP5552987B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は検索結果を出力する検索結果出力装置、検索結果出力方法及び検索結果出力プログラムに関する。   The present invention relates to a search result output device that outputs a search result, a search result output method, and a search result output program.

近年、シニア層のユーザ(以下、シニアユーザという)のパーソナルコンピュータ(PC)利用ニーズが高まっている。シニアユーザは一般ユーザと異なり、PC利用のリテラシが平均的に低い点や小さい文字が見えない点など、シニア特有の課題がある。   In recent years, there is a growing need for personal computer (PC) use by senior users (hereinafter referred to as senior users). Unlike general users, senior users have problems specific to seniors, such as the low literacy of using PCs and the inability to see small letters.

例えばインターネットから「温泉旅行」に関するWebページを調べて、最終的に旅行プランを立てるというタスクを考える。一般的には、図1のような検索プロセスを行うことになる。図1はWebページ検索プロセスの一例のフローチャートである。例えばシニアユーザは「温泉旅行をしたい」という発想が検索のきっかけとなる。   For example, consider a task of examining a web page related to “hot spring travel” from the Internet and finally making a travel plan. In general, a search process as shown in FIG. 1 is performed. FIG. 1 is a flowchart of an example of a Web page search process. For example, the idea that a senior user wants to take a hot spring trip triggers the search.

ステップS1において、シニアユーザは検索エンジンに、例えば「温泉旅行」などの検索キーワードを入力する。ステップS2において、PCは図2に示すような検索結果表示画面をディスプレイ装置などに表示する。   In step S1, the senior user inputs a search keyword such as “hot spring trip” to the search engine. In step S2, the PC displays a search result display screen as shown in FIG. 2 on a display device or the like.

図2は検索結果表示画面の一例のイメージ図である。図2の検索結果表示画面は一般的な検索エンジンの検索結果表示画面の一例である。図2に示すように、検索結果表示画面は検索ヒットした(検索キーワードが含まれている)Webページの格納位置と、そのWebページの概要が文字ベースでリスト表示されている。   FIG. 2 is an image diagram of an example of a search result display screen. The search result display screen of FIG. 2 is an example of a search result display screen of a general search engine. As shown in FIG. 2, the search result display screen displays a list of character-based storage locations of Web pages that have been hit by a search (including search keywords) and an outline of the Web page.

シニアユーザは図2の検索結果表示画面を吟味してWebページを選択する。ステップS3において、PCはシニアユーザに選択されたWebページをディスプレイ装置などに表示する。シニアユーザはディスプレイ装置などに表示されたWebページを閲覧し、意図と合っているか違っているかを判断する。   The senior user selects the Web page by examining the search result display screen of FIG. In step S3, the PC displays the Web page selected by the senior user on a display device or the like. A senior user browses a Web page displayed on a display device or the like, and determines whether the intention matches or is different from the intention.

意図と合っていれば、シニアユーザは目的を達成し、図1のフローチャートの処理を終了する。意図と合っていなければ、シニアユーザはステップS2において、再び、検索結果表示画面を吟味して他のWebページを選択する。なお、シニアユーザは検索結果表示画面に意図と合っているWebページが含まれていなければステップS1において、検索キーワードの入力からやり直す。   If it matches the intention, the senior user achieves the purpose and ends the processing of the flowchart of FIG. If it does not match the intention, the senior user examines the search result display screen again and selects another Web page in step S2. If the search result display screen does not include a web page that matches the intention, the senior user starts over from the input of the search keyword in step S1.

しかし、図2の検索結果表示画面は文字ベースであり、シニアユーザにとって情報過多であることが多い。このため、視力や判断力、記憶力などが衰えていることが多いシニアユーザはステップS2においてWebページの取捨選択を行うことが難しかった。   However, the search result display screen of FIG. 2 is character-based, and there are many information items for senior users. For this reason, it has been difficult for senior users who often have weak visual acuity, judgment, memory, etc. to select Web pages in step S2.

従来、オートパイロット等により蓄積されたWeb情報を閲覧する際に、Web情報のサムネイルを生成し出力すること、画像のみを出力すること、順次表示することで、簡便にWeb情報が見られるようにする技術は知られている(例えば特許文献1参照)。   Conventionally, when browsing web information accumulated by an autopilot or the like, it is possible to easily view web information by generating and outputting thumbnails of web information, outputting only images, and displaying them sequentially. The technique to do is known (for example, refer patent document 1).

特開2000−112856号公報JP 2000-112856 A

しかし、オートパイロット等により蓄積されたWeb情報を閲覧する際に、Web情報のサムネイルを生成し出力すること、サムネイルの内容をWeb情報中に含まれる画像のみとすること、Web情報の画像が表示されている部分を順に表示することで、簡便にWeb情報が見られるようにする技術は、上記したWebページの取捨選択を行うことが難しいという課題を解決できるものではない。   However, when browsing Web information stored by an autopilot or the like, a thumbnail of the Web information is generated and output, the contents of the thumbnail are limited to images included in the Web information, and an image of the Web information is displayed. The technique of displaying Web information in a simple manner by sequentially displaying the portions that have been processed cannot solve the above-described problem that it is difficult to perform selection of Web pages.

例えばWebページのサムネイルや、Webページ中に含まれる画像だけが出力されたとしても、視力や判断力、記憶力などが衰えていることが多いシニアユーザはステップS2においてWebページの取捨選択を行うことが難しかった。   For example, even if only a thumbnail of a web page or an image included in the web page is output, a senior user who often has weak visual acuity, judgment, memory, etc., should select the web page in step S2. It was difficult.

本実施形態は、検索結果を分かり易く出力できる検索結果出力装置、検索結果出力方法及び検索結果出力プログラムを提供することを目的とする。   An object of the present embodiment is to provide a search result output device, a search result output method, and a search result output program that can output search results in an easy-to-understand manner.

上記課題を解決するため、本発明の一実施形態は、検索キーワードにより検索されたコンテンツから該コンテンツを代表する代表画像を抽出する画像抽出手段と、前記検索されたコンテンツから前記代表画像に関連する関連テキストを抽出するテキスト抽出手段と、前記抽出した代表画像、及び、前記抽出した前記代表画像に関連する関連テキストを合わせて前記検索キーワードによる検索結果として順に出力する検索結果出力手段とを有し、前記検索結果出力手段は、検索結果の出力スピード変更のユーザ操作があると、ユーザ操作に基づいてユーザが関心を持つ前記抽出した代表画像及び前記抽出した前記代表画像に関連する関連テキストを判断し、前記抽出した代表画像及び前記抽出した前記代表画像に関連する関連テキストを関連付けて記録する記録手段からユーザが関心を持つ前記抽出した代表画像及び前記抽出した前記代表画像に関連する関連テキストをキー画像及びキーテキストとして選択し、前記キー画像と、前記記録手段に記録されている前記代表画像との類似度を算出し、該類似度の順に出力することを特徴とする。 In order to solve the above-described problem, an embodiment of the present invention relates to an image extracting unit that extracts a representative image representing the content from the content searched by the search keyword, and to the representative image from the searched content. a text extracting unit for extracting the associated text, the extracted representative images, and possess a search result output means for combining the related text associated with the representative image the extracted sequentially output as the search result by the search keyword The search result output means judges the extracted representative image that the user is interested in and the related text related to the extracted representative image based on the user operation when there is a user operation for changing the output speed of the search result. And associating the extracted representative image and related text related to the extracted representative image. The extracted representative image of interest to the user from the recording means to be recorded and the related text related to the extracted representative image are selected as a key image and key text, and the key image and the recording means are recorded. Similarity with the representative image is calculated and output in the order of the similarity .

なお、本発明の一実施形態の構成要素、表現又は構成要素の任意の組合せを、方法、装置、システム、コンピュータプログラム、記録媒体、データ構造などに適用したものも本発明の態様として有効である。   In addition, what applied the component, the expression, or the arbitrary combinations of the component of one Embodiment of this invention to a method, an apparatus, a system, a computer program, a recording medium, a data structure, etc. is also effective as an aspect of this invention. .

本実施形態によれば、検索結果を分かり易く出力できる検索結果出力装置、検索結果出力方法及び検索結果出力プログラムを提供可能である。   According to this embodiment, it is possible to provide a search result output device, a search result output method, and a search result output program that can output search results in an easy-to-understand manner.

Webページ検索プロセスの一例のフローチャートである。It is a flowchart of an example of a web page search process. 検索結果表示画面の一例のイメージ図である。It is an image figure of an example of a search result display screen. 本実施例による検索結果表示画面の一例のイメージ図である。It is an image figure of an example of the search result display screen by a present Example. 本実施例のWebページ検索システムの一実施例の構成図である。It is a block diagram of one Example of the web page search system of a present Example. コンピュータの一例のハードウェア構成図である。It is a hardware block diagram of an example of a computer. Webサーバの一実施例の処理ブロック図である。It is a processing block diagram of one Example of a Web server. Webサーバが検索結果をユーザインターフェースに表示させる処理の一例のフローチャートである。It is a flowchart of an example of the process in which a Web server displays a search result on a user interface. ページ解析部の処理の一例のフローチャートである。It is a flowchart of an example of a process of a page analysis part. ステップS23の画像抽出処理を表した一例のフローチャートである。It is a flowchart of an example showing the image extraction process of step S23. ステップS26の類似画像抽出処理を表した一例のフローチャートである。It is a flowchart of an example showing the similar image extraction process of step S26. ステップS24のテキスト抽出処理を表した一例のフローチャートである。It is an example flowchart showing the text extraction process of step S24. ステップS27の類似テキスト抽出処理を表した一例のフローチャートである。It is a flowchart of an example showing the similar text extraction process of step S27. 合成処理部の処理の一例のフローチャートである。It is a flowchart of an example of a process of a synthetic | combination process part. 表示制御部の処理の一例のフローチャートである。It is a flowchart of an example of a process of a display control part. 音声合成の処理イメージを表した一例の説明図である。It is explanatory drawing of an example showing the process image of speech synthesis. タイムライン作成及び更新の処理イメージを表した一例の説明図である。It is explanatory drawing of an example showing the processing image of timeline creation and update. ステップS77〜S79の処理イメージを表した一例の説明図である。It is explanatory drawing of an example showing the process image of step S77-S79. 表示制御部の処理イメージを表した一例の説明図である。It is explanatory drawing of an example showing the process image of the display control part. 再生スピード変更のユーザ操作を受けた表示制御部の処理イメージを表した一例の説明図である。It is explanatory drawing of an example showing the processing image of the display control part which received user operation of reproduction speed change. 再生スピード変更のユーザ操作を受けた表示制御部の処理イメージを表した一例の説明図である。It is explanatory drawing of an example showing the processing image of the display control part which received user operation of reproduction speed change. ステップS62〜S65の処理イメージを表した一例の説明図である。It is explanatory drawing of an example showing the process image of step S62-S65.

次に、本発明を実施するための形態を、以下の実施例に基づき図面を参照しつつ説明していく。なお、本実施例では情報検索分野におけるブラウジング技術を例とする。本実施例は検索結果を出力する際、その検索結果を示すWebページに、どのような内容が書かれているのかを分かり易く示すものである。Webページは、テキスト及び画像を含むコンテンツ(資源)の一例である。   Next, modes for carrying out the present invention will be described based on the following embodiments with reference to the drawings. In this embodiment, browsing technology in the information search field is taken as an example. In this embodiment, when a search result is output, it is easy to understand what content is written on the Web page indicating the search result. A web page is an example of content (resources) including text and images.

本実施例では、検索結果の出力方法として、図3に示すように、各Webページを代表する画像と、その画像に関連するテキストとを、紙芝居風にスライド表示する。本実施例の方法は例えばシニアユーザに適していると考えられる。さらに、本実施例では視覚的な情報だけでなく、テキストを読み上げた音声と、Webページの切り替わりを意識させるためのBGMを用いて、聴覚的な情報の提示も同時に行い、より深い理解を促進できる。   In the present embodiment, as a search result output method, as shown in FIG. 3, an image representative of each Web page and text related to the image are slide-displayed in a picture-story style. The method of this embodiment is considered suitable for senior users, for example. Furthermore, in this embodiment, not only visual information, but also voice information that is read aloud and BGM that makes Web pages aware of switching are also presented at the same time to promote deeper understanding. it can.

図3に示すようなWebページの内容を表現するスライドを作成するためには、Webページから、そのWebページの内容を表す代表的な画像(以下、代表画像という)を取り出し、かつ、その代表画像を説明する短いテキスト(以下、関連テキストという)を取り出す必要がある。   In order to create a slide representing the contents of a Web page as shown in FIG. 3, a representative image (hereinafter referred to as a representative image) representing the contents of the Web page is extracted from the Web page, and the representative It is necessary to extract a short text (hereinafter referred to as related text) describing the image.

一般的に、Webページ内には、広告バナー等の画像や文字装飾のためのアイコン画像の他、そのWebページ内のテキストを説明するための写真等の画像など、様々な画像が含まれている。   In general, a Web page includes various images such as an image such as an advertisement banner, an icon image for character decoration, and an image such as a photograph for explaining text in the Web page. Yes.

ユーザが検索結果の表示から所望のWebページを取捨選択する際には、Webページを見比べながら、より所望のWebページに近いものを絞り込んでゆく。例えば代表画像及び関連テキストをWebページから取り出すとき、統一的な基準で代表画像及び関連テキストを選ぶことができる。しかし、実際にはユーザによって注目する代表画像及び関連テキストが異なるため、ユーザが関心を示した代表画像と関連テキストとを中心に表示した方がWebページの取捨選択に役立つ。つまり、ユーザが関心を示した代表画像及び関連テキストの対応付け及び抽出が必要となる。   When the user selects a desired Web page from the display of the search result, the Web pages are compared, and those closer to the desired Web page are narrowed down. For example, when a representative image and related text are extracted from a Web page, the representative image and related text can be selected based on a uniform standard. However, since the representative image and the related text to be noticed are actually different depending on the user, it is more useful to select the Web page if the representative image and the related text in which the user is interested are displayed. That is, it is necessary to associate and extract the representative image and the related text that the user has shown interest in.

図4は本実施例のWebページ検索システムの一実施例の構成図である。図4のWebページ検索システムは、1つ以上のクライアント1a〜1nと、1つ以上のWebサーバ2a〜2mと、ネットワーク3とを有する。なお、クライアント1a〜1nの何れでもよい場合はクライアント1と総称する。Webサーバ2a〜2mの何れでもよい場合はWebサーバ2と総称する。   FIG. 4 is a configuration diagram of an embodiment of the Web page search system of the present embodiment. 4 includes one or more clients 1a to 1n, one or more Web servers 2a to 2m, and a network 3. In addition, when any of the clients 1a to 1n may be used, the clients 1 are collectively referred to. When any of the Web servers 2a to 2m may be used, the Web server 2 is collectively referred to.

クライアント1はネットワーク3を介してWebサーバ2とデータ通信可能に接続されている。クライアント1はユーザが操作する端末である。Webサーバ2はWebページを格納している。また、Webサーバ2の少なくとも1つには、検索エンジンが含まれている。   The client 1 is connected to the Web server 2 via the network 3 so that data communication is possible. The client 1 is a terminal operated by a user. The web server 2 stores web pages. Further, at least one of the Web servers 2 includes a search engine.

検索エンジンが含まれるWebサーバ2はクライアント1から検索キーワードを指定した検索要求があると、公開されているWebページを検索キーワードで検索し、その検索結果のWebページをネットワーク3経由でクライアント1に送信する。   When there is a search request specifying a search keyword from the client 1, the Web server 2 including the search engine searches a public Web page with the search keyword, and sends the search result Web page to the client 1 via the network 3. Send.

また、Webサーバ2はクライアント1からWebページの格納位置を指定したWebページの取得要求があると、取得要求のあったWebページをネットワーク3経由でクライアント1に送信する。なお、Webページの格納位置はURL(Uniform Resource Locator)などで表される。   Further, when the Web server 2 receives a Web page acquisition request specifying the Web page storage location from the client 1, the Web server 2 transmits the Web page for which the acquisition request has been made to the client 1 via the network 3. The storage position of the Web page is represented by a URL (Uniform Resource Locator) or the like.

クライアント1は例えば検索キーワードを指定して、Webサーバ2にWebページの検索要求を行う。また、クライアント1は例えばURLを指定して、Webサーバ2にWebページを要求する。クライアント1はWebブラウザなどを利用し、Webサーバ2から受信したWebページを表示する。   For example, the client 1 designates a search keyword and makes a Web page search request to the Web server 2. Further, the client 1 specifies a URL, for example, and requests a Web page from the Web server 2. The client 1 displays a web page received from the web server 2 using a web browser or the like.

クライアント1及びWebサーバ2は、例えばサーバコンピュータやクライアントコンピュータなどのコンピュータ10により実現される。なお、検索結果出力プログラムがインストールされたコンピュータ10は検索結果出力装置の一例である。   The client 1 and the Web server 2 are realized by a computer 10 such as a server computer or a client computer. The computer 10 in which the search result output program is installed is an example of a search result output device.

図5はコンピュータの一例のハードウェア構成図である。ここでは、検索結果出力プログラムがインストールされているコンピュータ10のハードウェア構成を説明する。コンピュータ10は、検索結果出力装置と同様の機能を有している検索結果出力プログラムを実行する。   FIG. 5 is a hardware configuration diagram of an example of a computer. Here, the hardware configuration of the computer 10 in which the search result output program is installed will be described. The computer 10 executes a search result output program having the same function as the search result output device.

図5のコンピュータ10は、入力装置21、表示装置22、コンピュータ本体23を有している。コンピュータ本体23はバス37で相互に接続された主記憶装置31、演算処理装置32、インターフェース装置33、記録媒体読取装置34及び補助記憶装置35を有する。また、バス37には入力装置21及び表示装置22が接続されている。   The computer 10 in FIG. 5 includes an input device 21, a display device 22, and a computer main body 23. The computer main body 23 includes a main storage device 31, an arithmetic processing device 32, an interface device 33, a recording medium reading device 34, and an auxiliary storage device 35 that are connected to each other via a bus 37. The input device 21 and the display device 22 are connected to the bus 37.

バス37で相互に接続されている入力装置21、表示装置22、主記憶装置31、演算処理装置32、インターフェース装置33、記録媒体読取装置34及び補助記憶装置35は、演算処理装置32による管理下で相互にデータの送受を行うことができる。演算処理装置32は、コンピュータ10全体の動作制御を司る中央処理装置である。   The input device 21, the display device 22, the main storage device 31, the arithmetic processing device 32, the interface device 33, the recording medium reading device 34, and the auxiliary storage device 35 that are mutually connected by the bus 37 are managed by the arithmetic processing device 32. Can exchange data with each other. The arithmetic processing unit 32 is a central processing unit that controls operation of the entire computer 10.

インターフェース装置33はネットワーク3等からのデータを受信し、データの内容を演算処理装置32に渡す。インターフェース装置33は演算処理装置32からの指示に応じてネットワーク3等にデータを送信する。   The interface device 33 receives data from the network 3 or the like and passes the contents of the data to the arithmetic processing device 32. The interface device 33 transmits data to the network 3 or the like in response to an instruction from the arithmetic processing device 32.

補助記憶装置35には検索結果出力装置と同様の機能をコンピュータ10に発揮させるプログラムの一部として、少なくとも検索結果出力装置における処理をコンピュータ10に実行させる検索結果出力プログラムが記憶されている。そして、演算処理装置32が検索結果出力プログラムを補助記憶装置35から読み出して実行することで、コンピュータ10は検索結果出力装置として機能するようになる。検索結果出力プログラムは、演算処理装置32とアクセス可能な主記憶装置31に格納されていても良い。   The auxiliary storage device 35 stores a search result output program that causes the computer 10 to execute at least processing in the search result output device as part of a program that causes the computer 10 to perform the same function as the search result output device. Then, when the arithmetic processing device 32 reads out the search result output program from the auxiliary storage device 35 and executes it, the computer 10 functions as a search result output device. The search result output program may be stored in the main storage device 31 accessible to the arithmetic processing device 32.

入力装置21は演算処理装置32の管理下でデータの入力を受付ける。検索結果出力プログラムは、コンピュータ10が読み取り可能な記録媒体36に記録しておくことができる。   The input device 21 receives data input under the control of the arithmetic processing device 32. The search result output program can be recorded in a recording medium 36 that can be read by the computer 10.

記録媒体36には、磁気記録媒体、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記録媒体には、HDD、フレキシブルディスク(FD)、磁気テープ(MT)などがある。光ディスクには、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc − Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。また、光磁気記録媒体には、MO(Magneto − Optical disk)などがある。   Examples of the recording medium 36 include a magnetic recording medium, an optical disk, a magneto-optical recording medium, and a semiconductor memory. Magnetic recording media include HDDs, flexible disks (FD), magnetic tapes (MT) and the like. Examples of the optical disc include a DVD (Digital Versatile Disc), a DVD-RAM, a CD-ROM (Compact Disc-Read Only Memory), and a CD-R (Recordable) / RW (ReWriteable). Magneto-optical recording media include MO (Magneto-Optical disk).

検索結果出力プログラムを流通させる場合は例えば検索結果出力プログラムが記録されたDVD、CD−ROMなどの可搬型の記録媒体36を販売することが考えられる。検索結果出力プログラムを実行するコンピュータ10は例えば記録媒体読取装置34が検索結果出力プログラムを記録した記録媒体36から検索結果出力プログラムを読み出す。演算処理装置32は、読み出された検索結果出力プログラムを主記憶装置31若しくは補助記憶装置35に格納する。そして、コンピュータ10は自己の記憶装置である主記憶装置31若しくは補助記憶装置35から検索結果出力プログラムを読み取り、検索結果出力プログラムに従った処理を実行する。つまり、演算処理装置32は検索結果出力プログラムに従って、後述するような各種処理を実現している。   When distributing the search result output program, for example, it is conceivable to sell a portable recording medium 36 such as a DVD or CD-ROM in which the search result output program is recorded. For example, the computer 10 that executes the search result output program reads the search result output program from the recording medium 36 on which the recording medium reader 34 has recorded the search result output program. The arithmetic processing unit 32 stores the read search result output program in the main storage device 31 or the auxiliary storage device 35. Then, the computer 10 reads the search result output program from the main storage device 31 or the auxiliary storage device 35 which is its own storage device, and executes processing according to the search result output program. That is, the arithmetic processing unit 32 implements various processes as described later according to the search result output program.

ここでは、検索結果出力装置の一例としてのWebサーバ2について説明する。図6はWebサーバの一実施例の処理ブロック図である。なお、図6の処理ブロック図は一例であって、一部の処理ブロックを他のWebサーバ2やクライアント1に持たせる構成も可能である。   Here, the Web server 2 as an example of the search result output device will be described. FIG. 6 is a processing block diagram of an embodiment of the Web server. Note that the processing block diagram of FIG. 6 is an example, and a configuration in which a part of the processing blocks is provided to another Web server 2 or client 1 is also possible.

Webサーバ2は検索部41、ページ解析部42、合成処理部43、表示制御部44を有する。なお、図6のユーザインターフェース60は例えばクライアント1及びWebブラウザにより実現される。   The Web server 2 includes a search unit 41, a page analysis unit 42, a composition processing unit 43, and a display control unit 44. Note that the user interface 60 in FIG. 6 is realized by the client 1 and a Web browser, for example.

検索部41は、例えば検索エンジンである。検索部41はユーザインターフェース60から検索キーワードを指定した検索要求を受信する。検索キーワードは予め登録されているものであってもよいし、ユーザが自由記述したものであってもよい。検索部41は公開されているWebページを検索キーワードで検索し、その検索結果(例えばWebページのURLリスト)を得る。   The search unit 41 is, for example, a search engine. The search unit 41 receives a search request specifying a search keyword from the user interface 60. The search keyword may be registered in advance, or may be freely described by the user. The search unit 41 searches a public Web page with a search keyword, and obtains a search result (for example, a URL list of the Web page).

ページ解析部42はページ取得部51、画像抽出部52、テキスト抽出部53、記録部54を有する。ページ解析部42のページ取得部51は検索部41から検索結果としてのWebページのURLリストを取得する。画像抽出部52はページ取得部51が取得したURLリストのWebページをダウンロードする。   The page analysis unit 42 includes a page acquisition unit 51, an image extraction unit 52, a text extraction unit 53, and a recording unit 54. The page acquisition unit 51 of the page analysis unit 42 acquires a URL list of Web pages as a search result from the search unit 41. The image extraction unit 52 downloads the Web page of the URL list acquired by the page acquisition unit 51.

画像抽出部52はダウンロードしたWebページ内の画像(Webページ中に含まれる画像)から後述のように、抽出条件に合致したものを代表画像として抽出する。テキスト抽出部53はダウンロードしたWebページのHTMLを解析し、Webページ内のテキスト(Webページ中に含まれるテキスト)から後述のように、抽出条件に合致したものを関連テキストとして抽出する。記録部54は、URLリストに含まれるWebページのURL、タイトル、代表画像(URL又はファイル)及び関連テキストをデータベースに記録する。   As will be described later, the image extraction unit 52 extracts, as a representative image, an image that matches an extraction condition from images in the downloaded Web page (images included in the Web page). The text extraction unit 53 analyzes the HTML of the downloaded web page, and extracts text that matches the extraction condition as related text from text in the web page (text included in the web page), as will be described later. The recording unit 54 records the URL, title, representative image (URL or file) and related text of the Web page included in the URL list in the database.

合成処理部43は記録部54のデータベースに記録された関連テキストに対し、音声合成処理を行い、読み上げ音声ファイルを生成する。また、合成処理部43はWebページ毎に音声読み上げ時間と同期した音楽(例えばBGMなど)を生成する。そして、合成処理部43は記録部54のデータベースに記録されたWebページのタイトル、代表画像及び関連テキストを順番に表示すると共に、読み上げ音声ファイル及び音楽を同期して再生するための同期ファイル(タイムライン)を作成する。   The synthesis processing unit 43 performs speech synthesis processing on the related text recorded in the database of the recording unit 54, and generates a read-out voice file. In addition, the synthesis processing unit 43 generates music (for example, BGM) synchronized with the voice reading time for each Web page. The synthesizing processing unit 43 sequentially displays the title, representative image, and related text of the Web page recorded in the database of the recording unit 54, and at the same time a synchronized file (time) for reproducing the read-out voice file and music in synchronization. Line).

表示制御部44は、同期ファイルに従って各Webページをスライド再生する。表示制御部44はユーザ操作に応じてスライドの停止/再生/戻る/進む等の制御を行い、その制御に応じて後述のようにスライド表示順や表示内容を変更する。また、Webページ閲覧の操作を行った際には、WebブラウザにWebページを表示させる制御を行う。   The display control unit 44 slides and reproduces each Web page according to the synchronization file. The display control unit 44 performs control such as stop / play / return / advance of the slide in accordance with a user operation, and changes the slide display order and display contents in accordance with the control as described later. Further, when a web page browsing operation is performed, control is performed to display the web page on the web browser.

上記したように、図6のWebサーバ2はクライアント1のWebブラウザをユーザインターフェース60として、検索結果の表示を図7のように行う。図7はWebサーバが検索結果をユーザインターフェースに表示させる処理の一例のフローチャートである。   As described above, the Web server 2 in FIG. 6 displays search results as shown in FIG. 7 using the Web browser of the client 1 as the user interface 60. FIG. 7 is a flowchart of an example of processing in which the Web server displays search results on the user interface.

ステップS11において、ページ解析部42は、検索部41から検索結果として取得したURLリストのWebページについて、後述のページ解析処理を行う。合成処理部43はステップS12において、読み上げ音声ファイル及びタイムラインを作成することで記録部54のデータベースに記録されたWebページのタイトル、代表画像及び関連テキストを順番に表示すると共に、読み上げ音声ファイル及び音楽を同期して再生するための後述の合成処理を行う。   In step S <b> 11, the page analysis unit 42 performs a later-described page analysis process on the Web page of the URL list acquired as a search result from the search unit 41. In step S12, the composition processing unit 43 creates a reading voice file and a timeline to display the title, representative image, and related text of the Web page recorded in the database of the recording unit 54 in order, A synthesizing process to be described later for synchronously playing music is performed.

ステップS13において、表示制御部44は同期ファイルに従って各Webページをスライド再生すると共に、ユーザ操作に応じてスライドの停止/再生/戻る/進む等の制御を行い、その制御に応じてスライド表示順や表示内容を変更するための後述の表示制御処理を行う。なお、ステップS13の表示制御処理では後述のように、ユーザが関心を示した画像及びテキストがキー画像及びキーテキストに設定されたあと、ステップS11に示したページ解析処理に戻るものとする。   In step S13, the display control unit 44 performs slide playback of each Web page according to the synchronization file, and performs control such as slide stop / playback / return / advance according to the user operation. A display control process to be described later for changing the display contents is performed. In the display control process in step S13, as described later, after the image and text in which the user is interested are set as the key image and key text, the process returns to the page analysis process shown in step S11.

図8はページ解析部の処理の一例のフローチャートである。ステップS21ではページ取得部51がキー画像及びキーテキストの設定あり/なしを判定する。例えばキー画像及びキーテキストは初回起動もしくはユーザ操作の無い場合に設定がない。   FIG. 8 is a flowchart of an example of processing of the page analysis unit. In step S21, the page acquisition unit 51 determines whether the key image and key text are set. For example, the key image and the key text are not set when the first activation or no user operation is performed.

キー画像及びキーテキストの設定がないと判定すると、ページ取得部51はステップS22において、検索部41から検索結果としてのWebページのURLリスト(ページリスト)を取得する。   If it is determined that the key image and key text are not set, the page acquisition unit 51 acquires the URL list (page list) of the Web page as the search result from the search unit 41 in step S22.

ステップS23において、画像抽出部52はページ取得部51が取得したページリストのWebページをダウンロードする。画像抽出部52はダウンロードしたWebページ内の画像から後述のように、抽出条件に合致したものを代表画像として抽出する。   In step S <b> 23, the image extraction unit 52 downloads the Web page of the page list acquired by the page acquisition unit 51. As will be described later, the image extraction unit 52 extracts a representative image that matches the extraction condition from the images in the downloaded Web page.

ステップS24において、テキスト抽出部53はダウンロードしたWebページのHTMLを解析し、Webページ内のテキストから後述のように、抽出条件に合致したものを関連テキストとして抽出する。   In step S24, the text extraction unit 53 analyzes the HTML of the downloaded web page, and extracts text that matches the extraction condition from the text in the web page as related text, as will be described later.

一方、ステップS21において、キー画像及びキーテキストの設定があると判定した場合、ページ取得部51はキー画像及びキーテキストの設定がある旨を画像抽出部52及びテキスト抽出部53に通知する。   On the other hand, when it is determined in step S21 that the key image and the key text are set, the page acquisition unit 51 notifies the image extraction unit 52 and the text extraction unit 53 that the key image and the key text are set.

キー画像及びキーテキストの設定がある旨を通知されると、画像抽出部52はステップS25において、記録部54から記録済みの全代表画像を取得する。キー画像及びキーテキストの設定がある旨を通知されると、テキスト抽出部53は記録部54から記録済みの全関連テキストを取得する。   When notified that the key image and key text are set, the image extracting unit 52 acquires all the recorded representative images from the recording unit 54 in step S25. When notified that the key image and key text are set, the text extraction unit 53 acquires all the related texts recorded from the recording unit 54.

ステップS26において、画像抽出部52は取得した全代表画像に対し、キー画像を使用して後述のように類似画像抽出処理を行う。ステップS27において、テキスト抽出部53は取得した全関連テキストに対し、キーテキストを使用して後述のように類似テキスト抽出処理を行う。   In step S26, the image extraction unit 52 performs similar image extraction processing on all the acquired representative images using a key image as described later. In step S27, the text extraction unit 53 performs similar text extraction processing on all the acquired related texts as described later using the key text.

図9はステップS23の画像抽出処理を表した一例のフローチャートである。ステップS31において、画像抽出部52はダウンロードしたWebページ内に含まれる全画像を取得する。   FIG. 9 is a flowchart illustrating an example of the image extraction process in step S23. In step S31, the image extraction unit 52 acquires all images included in the downloaded web page.

ステップS32において、画像抽出部52は取得した全画像の種類(アニメーションgif、flash、jpegなど)とリンク属性(HTMLのaタグなど)とをチェックして外部リンクや対象外の画像種類を除外する画像属性フィルタ処理を行う。ステップS33において、画像抽出部52は画像属性フィルタ処理により除外されなかった全画像の画像サイズをチェックして、ある閾値未満の画像サイズの画像を除外する画像サイズフィルタ処理を行う。ステップS33では、例えば60×60pixel未満の画像サイズの画像を除外することでアイコンやロゴ画像などを除外する。   In step S32, the image extraction unit 52 checks the types of all acquired images (animation gif, flash, jpeg, etc.) and link attributes (HTML a tag, etc.) and excludes external links and non-target image types. Perform image attribute filtering. In step S33, the image extraction unit 52 checks the image sizes of all the images that have not been excluded by the image attribute filtering process, and performs an image size filtering process that excludes images having an image size less than a certain threshold. In step S33, for example, icons and logo images are excluded by excluding images having an image size of less than 60 × 60 pixels.

ステップS34において、画像抽出部52は画像属性フィルタ処理、画像サイズフィルタ処理により除外されなかった全画像のアスペクト比(縦横比)をチェックして、ある閾値以上のアスペクト比の画像を除外するアスペクト比フィルタ処理を行う。ステップS34では、例えば1:2以上のアスペクト比の画像を除外することで広告バナー画像などを除外する。   In step S34, the image extraction unit 52 checks the aspect ratio (aspect ratio) of all images that have not been excluded by the image attribute filter processing and the image size filter processing, and excludes images having an aspect ratio equal to or greater than a certain threshold. Perform filtering. In step S34, for example, advertisement banner images are excluded by excluding images with an aspect ratio of 1: 2 or more.

ステップS35において、画像抽出部52は画像属性フィルタ処理、画像サイズフィルタ処理、アスペクト比フィルタ処理により除外されなかった全画像の文字の有無をチェックして、文字が含まれている画像を除外する文字検出フィルタ処理を行う。ステップS35では、文字が含まれている画像を除外することで、キャンペーンや特集などの画像を除外する。なお、文字検出フィルタ処理では検出する文字のサイズを例えば20×20pixel未満などと設定してもよい。   In step S35, the image extraction unit 52 checks the presence / absence of characters in all the images that have not been excluded by the image attribute filter processing, the image size filter processing, and the aspect ratio filter processing, and excludes images that include characters. Perform detection filter processing. In step S35, images such as campaigns and special features are excluded by excluding images containing characters. In the character detection filter process, the size of the character to be detected may be set to be, for example, less than 20 × 20 pixels.

ステップS36において、画像抽出部52は画像属性フィルタ処理、画像サイズフィルタ処理、アスペクト比フィルタ処理、文字検出フィルタ処理により除外されなかった全画像を代表画像として記録部54に記録する。なお、画像抽出部52はWebページ単位の記録順を検索結果のWebページランク(ページリスト)順とし、各Webページ内の代表画像単位での記録順を画像サイズ順とする。   In step S <b> 36, the image extraction unit 52 records all images not excluded by the image attribute filter processing, image size filter processing, aspect ratio filter processing, and character detection filter processing in the recording unit 54 as representative images. The image extraction unit 52 sets the recording order in the Web page unit as the Web page rank (page list) order of the search results, and sets the recording order in the representative image unit in each Web page as the image size order.

図10はステップS26の類似画像抽出処理を表した一例のフローチャートである。ステップS41において、画像抽出部52は記録部54に記録されている全代表画像を取得する。ステップS42において、画像抽出部52は取得した全代表画像に対してキー画像との類似度を計算する。なお、キー画像との類似度の算出方法は一般的に利用されている色ヒストグラムのユークリッド距離等を利用できる。   FIG. 10 is a flowchart showing an example of the similar image extraction process in step S26. In step S <b> 41, the image extraction unit 52 acquires all representative images recorded in the recording unit 54. In step S <b> 42, the image extraction unit 52 calculates the similarity with the key image for all the acquired representative images. It should be noted that the method for calculating the similarity to the key image can use a commonly used Euclidean distance of a color histogram.

また、キー画像との類似度の算出方法の一例として、例えば「鈴木健司, et.al., "情報データベース技術(未来ねっと技術シリーズ)",第3章 マルチメディア情報の蓄積・検索技術, pp.80-136, オーム社, 2000」に記載されている類似画像検索技術を利用できる。   Also, as an example of the method of calculating the similarity with the key image, for example, “Kenji Suzuki, et.al.,“ Information Database Technology (Future Netto Technology Series) ”, Chapter 3 Multimedia Information Storage / Search Technology, pp .80-136, Ohmsha, 2000 "can be used.

そして、ステップS43において、画像抽出部52はステップS42で算出したキー画像との類似度順に全代表画像を記録部54に記録し直す。   In step S43, the image extraction unit 52 rerecords all the representative images in the recording unit 54 in the order of similarity with the key image calculated in step S42.

図11はステップS24のテキスト抽出処理を表した一例のフローチャートである。ステップS24のテキスト抽出処理は、例えば「遠藤,指田,増本,長田,棚橋:画像情報とテキスト情報を統合的に利用したインタラクティブなWeb検索システム, 知能情報メディアシンポジウム,第5回知能情報メディアシンポジウム論文集 pp.163-170(1999).」に記載されている既存手法を利用できる。   FIG. 11 is a flowchart illustrating an example of the text extraction process in step S24. The text extraction process in step S24 is, for example, “Endo, Sashida, Masumoto, Nagata, Tanahashi: Interactive Web search system that uses image information and text information in an integrated manner, Intelligent Information Media Symposium, 5th Intelligent Information Media Symposium paper. Pp.163-170 (1999) ”can be used.

上記の既存手法では、代表画像に関連する関連テキストを取得する際、テキストの意味内容を解析して取得するのが困難であるため、「画像と近い位置的にあるテキストは画像と内容的に関連していることが多い」「HTMLのタグ構造からも画像とテキストの距離をある程度推測できる」という経験則を用いる。   In the above existing method, when acquiring the related text related to the representative image, it is difficult to analyze and acquire the semantic content of the text. The rule of thumb is that they are often “related” and “the distance between an image and text can be estimated to some extent from the tag structure of HTML”.

画像とテキストの近さという点においては、HTMLファイルの内容を解析して、HTMLファイル内のタグ同士の近さを取得すれば、大まかには取得できる。テーブルなどの配置構造をもったタグなどの一部の例外はあるが、一般にHTMLファイル内で近いタグ同士は、表示上も近くに現れる。そこで、画像とテキストの位置的な近さの尺度は間に挟まれる改行数を用いている。これにより、画像とテキストとは間にはさまれる行数が多いほど、距離が遠くなる。   In terms of the closeness of the image and the text, it can be roughly obtained by analyzing the contents of the HTML file and acquiring the closeness between the tags in the HTML file. Although there are some exceptions such as tags having an arrangement structure such as a table, generally tags close to each other in an HTML file appear close to each other on the display. Therefore, the measure of the positional proximity between the image and the text uses the number of line breaks sandwiched between them. Thus, the greater the number of lines between the image and the text, the greater the distance.

また、HTMLのタグ構造による画像とテキストとの距離は、画像とテキストの間に含まれるタグの種類と数から、表1に示したタグと距離値の関係を用いて算出する。間にタグが多く存在すると、画像とテキストとは距離が大きく離れているとみなす。特に文章の切れ目を表すタグである<P><H1><HR>などがある場合は、画像とテキストとの距離が大きく離れているとみなす。   Further, the distance between the image and the text by the HTML tag structure is calculated from the type and number of tags included between the image and the text, using the relationship between the tag and the distance value shown in Table 1. If there are many tags in between, the image and text are considered to be far apart. In particular, when there are <P>, <H1>, <HR>, and the like, which are tags representing sentence breaks, it is considered that the distance between the image and the text is greatly separated.

また、画像とテキストとの距離の特別な場合として、画像を表示するためのタグである<IMG>につけられた画像の代用となるテキストを表すALTアトリビュートに記述されたテキストは、画像との関連性が深いので距離値0を割り当てる。   In addition, as a special case of the distance between the image and the text, the text described in the ALT attribute representing the text substituted for the image attached to <IMG> which is a tag for displaying the image is related to the image. Since the nature is deep, a distance value of 0 is assigned.

ステップS51において、テキスト抽出部53はダウンロードしたWebページのHTMLを解析し、HTML内での記録順に代表画像の位置(代表画像を表示するためのタグの位置)を取得する。ステップS52において、テキスト抽出部53はステップS51で取得した各代表画像の位置からタグ単位に取得テキスト範囲を拡大していく。   In step S51, the text extraction unit 53 analyzes the HTML of the downloaded web page, and acquires the position of the representative image (the position of the tag for displaying the representative image) in the order of recording in the HTML. In step S52, the text extraction unit 53 expands the acquired text range in tag units from the position of each representative image acquired in step S51.

取得テキスト範囲にテキストが含まれると、ステップS53において、テキスト抽出部53は取得テキスト範囲に含まれるテキストと代表画像との距離値を、表1に示したタグと距離値の関係を用いて算出する。ステップS54において、テキスト抽出部53は算出したテキストと代表画像との距離値が閾値以下であるか否かを判定する。   When text is included in the acquired text range, in step S53, the text extraction unit 53 calculates the distance value between the text included in the acquired text range and the representative image using the relationship between the tag and the distance value shown in Table 1. To do. In step S54, the text extraction unit 53 determines whether the calculated distance value between the text and the representative image is equal to or less than a threshold value.

算出したテキストと代表画像との距離値が閾値以下であれば、テキスト抽出部53はステップS55において、代表画像との距離値が閾値以下であったテキストを、関連テキストとして記録部54に記録する。算出したテキストと代表画像との距離値が閾値以下でなければ、テキスト抽出部53はステップS52において、更に取得テキスト範囲を拡大していく。   If the calculated distance value between the text and the representative image is equal to or smaller than the threshold value, the text extracting unit 53 records the text whose distance value to the representative image is equal to or smaller than the threshold value in the recording unit 54 in step S55. . If the calculated distance value between the text and the representative image is not less than the threshold value, the text extraction unit 53 further expands the acquired text range in step S52.

また、図12はステップS27の類似テキスト抽出処理を表した一例のフローチャートである。ステップS61において、テキスト抽出部53はダウンロードしたWebページのHTMLを解析し、HTML内での記録順に代表画像の位置を取得する。   FIG. 12 is a flowchart illustrating an example of the similar text extraction process in step S27. In step S61, the text extraction unit 53 analyzes the HTML of the downloaded Web page, and acquires the position of the representative image in the order of recording in the HTML.

ステップS62において、テキスト抽出部53はステップS61で取得した各代表画像の位置から文字単位に取得テキスト範囲を拡大していく。ステップS63において、テキスト抽出部53は取得テキスト範囲に含まれるテキストに対してキーテキストとの類似度を算出する。なお、キーテキストとの類似度の算出方法は一般的に利用されているテキストの類似度を算出する既存手法を利用できる。   In step S62, the text extraction unit 53 expands the acquired text range in character units from the position of each representative image acquired in step S61. In step S63, the text extraction unit 53 calculates the similarity between the text included in the acquired text range and the key text. As a method for calculating the similarity with the key text, a commonly used existing method for calculating the similarity of text can be used.

ステップS64において、テキスト抽出部53は算出した取得テキスト範囲に含まれるテキストとキーテキストとの類似度が閾値以上であり、且つ、極大値であるか否かを判定する。   In step S64, the text extraction unit 53 determines whether the similarity between the text included in the calculated acquired text range and the key text is greater than or equal to a threshold value and is a maximum value.

算出した取得テキスト範囲に含まれるテキストとキーテキストとの類似度が閾値以上であり、且つ、極大値であれば、テキスト抽出部53はステップS65において、キーテキストとの類似度が閾値以上であり、且つ、極大値であるテキストを、関連テキストとして記録部54に記録し直す(書き換える)。   If the similarity between the text included in the calculated acquired text range and the key text is equal to or greater than the threshold value and the maximum value, the text extraction unit 53 determines that the similarity with the key text is equal to or greater than the threshold value in step S65. The text having the maximum value is re-recorded (rewritten) in the recording unit 54 as the related text.

算出した取得テキスト範囲に含まれるテキストとキーテキストとの類似度が閾値以上でなく、又は、極大値でなければ、テキスト抽出部53はステップS62において、更に取得テキスト範囲を拡大していく。なお、図12のステップS62〜S65の処理については後述する。   If the similarity between the text included in the calculated acquired text range and the key text is not equal to or greater than the threshold value or is not a maximum value, the text extracting unit 53 further expands the acquired text range in step S62. The processes in steps S62 to S65 in FIG. 12 will be described later.

図13は合成処理部の処理の一例のフローチャートである。合成処理部43はステップS71において、記録部54に記録された関連テキストを取得する。また、ステップS72において、合成処理部43は取得した関連テキストを音声合成エンジンに入力して音声合成処理を行い、読み上げ音声ファイルを生成する。   FIG. 13 is a flowchart of an example of processing of the synthesis processing unit. In step S71, the composition processing unit 43 acquires the related text recorded in the recording unit 54. In step S72, the synthesis processing unit 43 inputs the acquired related text to the speech synthesis engine, performs speech synthesis processing, and generates a read-out speech file.

ステップS73において、合成処理部43はWebページのサムネイル画像を利用するか否かを判定する。Webページのサムネイル画像を利用しなければ、合成処理部43はステップS74において、初回の合成処理か否かを判定する。初回の合成処理か否かは例えばタイムラインの有無で判定できる。   In step S73, the composition processing unit 43 determines whether to use the thumbnail image of the Web page. If the thumbnail image of the Web page is not used, the composition processing unit 43 determines in step S74 whether or not it is the first composition process. Whether or not the synthesis process is the first time can be determined by, for example, the presence or absence of a timeline.

初回の合成処理であれば、合成処理部43はステップS75において、Webページ毎に音声読み上げ時間と同期した音楽(例えばBGMなど)を生成する。そして、合成処理部43は記録部54に記録されたWebページのタイトル、代表画像及び関連テキストを順番に表示すると共に、読み上げ音声ファイル及び音楽を同期して再生するためのタイムラインを作成する。   If it is the first synthesizing process, the synthesizing unit 43 generates music (for example, BGM) synchronized with the voice reading time for each Web page in step S75. Then, the composition processing unit 43 sequentially displays the Web page title, the representative image, and the related text recorded in the recording unit 54, and creates a timeline for reproducing the read-out voice file and the music in synchronization.

初回の合成処理でなければ、合成処理部43はステップS76において、Webページ毎に音声読み上げ時間と同期した音楽を生成する。そして、合成処理部43はタイムラインを更新する。   If it is not the first synthesizing process, the synthesizing unit 43 generates music synchronized with the voice reading time for each Web page in step S76. Then, the composition processing unit 43 updates the timeline.

なお、ステップS73において、Webページのサムネイル画像を利用すると判定した場合、合成処理部43はステップS77において、ユーザのWebブラウザに合わせてレンダリングを行ったWebページのサムネイル画像を作成する。   If it is determined in step S73 that the thumbnail image of the Web page is to be used, the composition processing unit 43 creates a thumbnail image of the Web page that has been rendered in accordance with the user's Web browser in step S77.

ステップS78において、合成処理部43はサムネイル画像上の代表画像と関連テキストの位置(座標)を取得する。ステップS79において、合成処理部43は表示画面サイズから拡大率、スクロール量を算出する。合成処理部43はステップS74において、再び初回の合成処理か否かを判定する。ステップS79で算出した拡大率とスクロール量により、表示制御部44はWebページのサムネイル画像上の代表画像と関連テイストとを順番に表示することができるようになる。なお、図13の処理については後述する。   In step S78, the composition processing unit 43 acquires the representative image on the thumbnail image and the position (coordinates) of the related text. In step S79, the composition processing unit 43 calculates the enlargement ratio and the scroll amount from the display screen size. In step S74, the composition processing unit 43 determines again whether or not it is the first composition processing. The display control unit 44 can display the representative image on the thumbnail image of the Web page and the related taste in order based on the enlargement ratio and the scroll amount calculated in step S79. The process of FIG. 13 will be described later.

図14は表示制御部の処理の一例のフローチャートである。表示制御部44はステップS80において、タイムラインに沿ってスライド再生を行う。ステップS80で行うスライド再生は、記録部54に記録されたWebページのタイトル、代表画像及び関連テキストを含むWebページ(スライド)をタイムラインに沿って順番に表示すると共に、読み上げ音声ファイル及び音楽を同期して再生するものである。   FIG. 14 is a flowchart of an example of processing of the display control unit. In step S80, the display control unit 44 performs slide reproduction along the timeline. In the slide playback performed in step S80, the web page (slide) including the title of the web page, the representative image and the related text recorded in the recording unit 54 is displayed in order along the timeline, and the read-out voice file and music are displayed. Synchronized playback.

ステップS81において、表示制御部44は再生スピード変更のユーザ操作(スライドの停止/スピードダウン/戻るなど)があったか否かを判定する。表示制御部44は再生スピード変更のユーザ操作が無ければ、閲覧のユーザ操作があったか否かをステップS82において判定する。   In step S81, the display control unit 44 determines whether or not there has been a user operation for changing the reproduction speed (slide stop / speed down / return, etc.). If there is no user operation for changing the reproduction speed, the display control unit 44 determines in step S82 whether or not there is a browsing user operation.

閲覧のユーザ操作が無ければ、表示制御部44はステップS11において、再びページ解析処理を行う。閲覧のユーザ操作があれば、表示制御部44はステップS83においてWebブラウザにWebページを表示するブラウザ表示処理を行う。ステップS83で表示されるWebページは閲覧のユーザ操作があったときにWebブラウザに表示されていたスライドと対応しているWebページであるとする。   If there is no browsing user operation, the display control unit 44 performs the page analysis process again in step S11. If there is a browsing user operation, the display control unit 44 performs browser display processing for displaying a Web page on the Web browser in step S83. It is assumed that the Web page displayed in step S83 is a Web page corresponding to the slide displayed on the Web browser when a browsing user operation is performed.

ステップS81において、再生スピード変更のユーザ操作があったと判定すると、表示制御部44はステップS84において、ユーザ操作が「戻る」であったかを判定する。表示制御部44はユーザ操作が「戻る」であったと判定すると、ステップS85において直前のスライド上の代表画像及び関連テキストをキー画像及びキーテキストに設定する。   If it is determined in step S81 that there is a user operation for changing the playback speed, the display control unit 44 determines in step S84 whether the user operation is “return”. When determining that the user operation is “return”, the display control unit 44 sets the representative image and the related text on the immediately preceding slide as the key image and the key text in step S85.

ステップS84において、ユーザ操作が「戻る」でなかったと判定すると、表示制御部44はステップS86において、ユーザ操作が「スピードダウン」又は「停止」であったかを判定する。   If it is determined in step S84 that the user operation is not “return”, the display control unit 44 determines whether the user operation is “speed down” or “stop” in step S86.

また、表示制御部44はユーザ操作が「スピードダウン」又は「停止」であったと判定すると、ステップS87において現在のスライド上の代表画像及び関連テキストをキー画像及びキーテキストに設定する。なお、図14の処理については後述する。   If the display control unit 44 determines that the user operation is “speed down” or “stop”, the representative image and the related text on the current slide are set as the key image and the key text in step S87. The process in FIG. 14 will be described later.

図15は音声合成の処理イメージを表した一例の説明図である。合成処理部43は記録部54に記録された代表画面に関連する関連テキストを取得し、取得した関連テキストを音声合成エンジン100に入力して音声合成処理を行い、読み上げ音声ファイル(図15中の音声ファイル(1)〜(3))を生成する。   FIG. 15 is an explanatory diagram showing an example of a speech synthesis process image. The synthesis processing unit 43 acquires the related text related to the representative screen recorded in the recording unit 54, inputs the acquired related text to the speech synthesis engine 100, performs speech synthesis processing, and reads out the voice file (in FIG. 15). Audio files (1) to (3)) are generated.

図16はタイムライン作成及び更新の処理イメージを表した一例の説明図である。合成処理部43は図16に示すようなタイムラインを作成又は更新する。例えば図16に示すタイムラインは、あるWebページ上の代表画面(1)及び関連テキスト(1)、代表画面(2)及び関連テキスト(2)、代表画面(3)及び関連テキスト(3)を順番に表示することを表している。   FIG. 16 is an explanatory diagram illustrating an example of a process image for creating and updating a timeline. The composition processing unit 43 creates or updates a timeline as shown in FIG. For example, the timeline shown in FIG. 16 includes a representative screen (1) and related text (1), a representative screen (2) and related text (2), a representative screen (3) and related text (3) on a certain Web page. It shows that it displays in order.

さらに、図16に示すタイムラインは、あるWebページ上の代表画面(1)及び関連テキスト(1)と同期して、音声ファイル(1)及び音楽の一例としてのBGM(1)を再生すること、代表画面(2)及び関連テキスト(2)と同期して、音声ファイル(2)及び音楽の一例としてのBGM(1)を再生すること、代表画面(3)及び関連テキスト(3)と同期して、音声ファイル(3)及び音楽の一例としてのBGM(1)を再生することを表している。なお、図16に示すタイムラインではWebページの切り替わりを聴覚的に表現するためにBGM(1)を利用している。   Further, the timeline shown in FIG. 16 reproduces the audio file (1) and BGM (1) as an example of music in synchronization with the representative screen (1) and the related text (1) on a certain Web page. Synchronizing with the representative screen (3) and the related text (2), reproducing the audio file (2) and BGM (1) as an example of music in synchronization with the representative screen (2) and the related text (2) Thus, the audio file (3) and BGM (1) as an example of music are reproduced. Note that BGM (1) is used in the timeline shown in FIG. 16 in order to audibly express the switching of Web pages.

図17はステップS77〜S79の処理イメージを表した一例の説明図である。合成処理部43はユーザのWebブラウザに合わせてレンダリングを行ったWebページのサムネイル画像200を作成する。合成処理部43はサムネイル画像200上の代表画像201〜203と関連テキスト(1)〜(3)の位置を取得する。合成処理部43は表示画面サイズから拡大率、スクロール量を算出する。   FIG. 17 is an explanatory diagram illustrating an example of the processing image of steps S77 to S79. The composition processing unit 43 creates a thumbnail image 200 of the Web page that has been rendered in accordance with the user's Web browser. The composition processing unit 43 acquires the positions of the representative images 201 to 203 and the related texts (1) to (3) on the thumbnail image 200. The composition processing unit 43 calculates the enlargement ratio and the scroll amount from the display screen size.

算出した拡大率とスクロール量により、表示制御部44はWebページのサムネイル画像200上の代表画像201と関連テキスト(1)の部分、代表画像202と関連テキスト(2)の部分、代表画像203と関連テキスト(3)の部分をズームして順番に表示することができるようになる。   Based on the calculated enlargement ratio and scroll amount, the display control unit 44 displays the representative image 201 and the related text (1) portion, the representative image 202 and the related text (2) portion, and the representative image 203 on the thumbnail image 200 of the Web page. The related text (3) can be zoomed and displayed in order.

言い換えれば、ステップS77〜S79の処理はオリジナルのWebページのレイアウトを崩すことなく、Webページの取捨選択をするための重要部分だけを素早く確認することができる。   In other words, the processes of steps S77 to S79 can quickly confirm only the important part for selecting the Web page without destroying the layout of the original Web page.

図18は表示制御部の処理イメージを表した一例の説明図である。表示制御部44はタイムラインに沿って図18に示すように、代表画像及び関連テキストを含むWebページであるスライドをタイムラインに沿って順番に表示すると共に、読み上げ音声ファイル及び音楽を同期して再生する。   FIG. 18 is an explanatory diagram illustrating an example of a processing image of the display control unit. As shown in FIG. 18 along the timeline, the display control unit 44 sequentially displays slides that are Web pages including representative images and related text along the timeline, and synchronizes the read-out voice file and music. Reproduce.

図19及び図20は再生スピード変更のユーザ操作を受けた表示制御部の処理イメージを表した一例の説明図である。スライドの表示滞留時間は、そのスライドに対するユーザの関心の高さを表すと仮定する。   19 and 20 are explanatory diagrams illustrating an example of a processing image of the display control unit that receives a user operation for changing the reproduction speed. Assume that the display dwell time of a slide represents the level of user interest in that slide.

図19では戻る/進む/停止ボタンで再生スピード変更のユーザ操作を受け付ける例を表している。スライド301、302はユーザが「進む」ボタンを押下して再生スピードを変更している。スライド303はユーザが「停止」ボタンを押下して再生スピードを変更している。   FIG. 19 shows an example in which a user operation for changing the playback speed is received using the back / forward / stop button. In the slides 301 and 302, the user presses the “forward” button to change the playback speed. The slide 303 has the playback speed changed by the user pressing the “stop” button.

スライド303はユーザが「停止」ボタンを押下したため、ユーザの関心が高いと考えられる。スライド303の次に表示すべきスライドは、現在表示しているスライド303の代表画面及び関連テキストに関連した内容になることが望ましい。そこで、本実施例ではユーザの関心を表す基準として、スライド303の代表画像及び関連テキストをキー画像及びキーテキストとして設定する。   The slide 303 is considered to be of great interest to the user because the user has pressed the “stop” button. It is desirable that the slide to be displayed next to the slide 303 has contents related to the representative screen of the currently displayed slide 303 and related text. Therefore, in this embodiment, the representative image of the slide 303 and the related text are set as the key image and the key text as a reference representing the user's interest.

スライド303以降のスライドは、ユーザの関心が高いと考えられるスライド303と類似するスライド304〜306の順番に並び替えて表示する。例えば図20ではスライド303の後に、スライド303との類似度が1位のスライド304が表示され、次にスライド303との類似度が2位のスライド305が表示され、次にスライド303との類似度が3位のスライド306が表示される。なお、ユーザの関心の高いスライドはユーザに直接、選択させてもよい。   The slides after the slide 303 are rearranged and displayed in the order of the slides 304 to 306 similar to the slide 303 that is considered to be of high user interest. For example, in FIG. 20, after the slide 303, the slide 304 having the first similarity with the slide 303 is displayed, then the slide 305 with the second similarity with the slide 303 is displayed, and then similar to the slide 303. A slide 306 with the third degree is displayed. Note that a slide with high user interest may be directly selected by the user.

図21は、ステップS62〜S65の処理イメージを表した一例の説明図である。図21(A)は検索キーワード「温泉」の検索結果に含まれていたWebページのランキング順を示している。図21(B)は図21(A)のWebページの内容を表現するスライドの表示順を示している。図21(B)は再生スピード変更のユーザ操作を受け付けなければスライド404、405、406、407の順番に表示されることを表している。   FIG. 21 is an explanatory diagram illustrating an example of processing images of steps S62 to S65. FIG. 21A shows the ranking order of Web pages included in the search result of the search keyword “hot spring”. FIG. 21B shows the display order of slides expressing the contents of the Web page of FIG. FIG. 21B shows that the slides 404, 405, 406, and 407 are displayed in this order if a user operation for changing the playback speed is not accepted.

ここでは、スライド405が表示されているときに、ユーザが「停止」ボタンを押下して再生スピードを変更したとする。本実施例では、同じ検索キーワード「温泉」の検索結果に含まれていたWebページ同士で類似している画像同士と、その近傍のテキスト同士とが互いに関連する内容(類似する内容)と考える。そこで、スライド405に対応するWebページ402の代表画像P及び関連テキストTをキー画像及びキーテキストとして設定する。   Here, it is assumed that when the slide 405 is displayed, the user changes the playback speed by pressing the “stop” button. In the present embodiment, it is considered that the images similar to each other in the Web pages included in the search result of the same search keyword “hot spring” and the adjacent texts are related to each other (similar contents). Therefore, the representative image P and the related text T of the Web page 402 corresponding to the slide 405 are set as a key image and key text.

その後、本実施例ではキー画像である代表画像Pと類似しているWebページ403の代表画像を代表画像Pの類似画像として抽出する。次に、本実施例ではWebページ403の代表画像の位置を起点として、関連テキストとして抽出する抽出範囲を決める。抽出範囲は、Webページ403の代表画像を中心に前後のテキストを文字単位で拡大していきながら、キーテキストとの類似度を評価する。この類似度が閾値を超えて、且つ、類似度が極大値となる範囲までを関連テキストとする。   Thereafter, in this embodiment, the representative image of the Web page 403 similar to the representative image P that is a key image is extracted as a similar image of the representative image P. Next, in this embodiment, an extraction range to be extracted as related text is determined using the position of the representative image of the Web page 403 as a starting point. The extraction range evaluates the similarity with the key text while enlarging the preceding and succeeding text in character units with the representative image of the Web page 403 as the center. The range in which the similarity exceeds the threshold and the similarity reaches a maximum value is set as the related text.

ユーザが「停止」ボタンを押下して再生スピードを変更したスライド405以降のスライドの表示順は、キー画像との類似度順となる。例えば図21(B)ではスライド405の次に表示される予定であったスライド406に替えて、スライド405の代表画像(代表画像Pの類似画像)のスライド407が表示される。   The display order of the slides after the slide 405 whose playback speed has been changed by the user pressing the “stop” button is the order of similarity with the key image. For example, in FIG. 21B, a slide 407 of a representative image (similar image of the representative image P) of the slide 405 is displayed instead of the slide 406 that is scheduled to be displayed next to the slide 405.

本実施例では、検索結果に含まれていたWebページの内容を代表画像、関連テキスト及び音声でユーザに提示することで、シニアユーザなども簡単にWebページの取捨選択ができるようになる。特に、本実施例ではユーザの関心に応じて、検索結果に含まれていたWebページの内容を考慮した代表画像と関連テキストとが表示されることで、新たに検索条件を再設定することなく、ユーザの所望するWebページに絞り込むことが容易となる。   In the present embodiment, the contents of the Web page included in the search result are presented to the user as a representative image, related text, and voice, so that the senior user can easily select the Web page. In particular, according to the present embodiment, the representative image and the related text in consideration of the content of the Web page included in the search result are displayed according to the user's interest, so that the search condition is not newly set again. It becomes easy to narrow down to a Web page desired by the user.

なお、クライアント1がPCである場合は、例えば関心のある検索キーワードを予め登録しておくことで、例えばテレビを見る感覚で気軽にWebページの検索ができる。スライド再生は例えばスクリーンセーバ等を利用して行ってもよい。クライアント1が携帯電話や携帯情報端末など、表示できる情報量が限られる小画面である場合は、代表画像と関連テキストだけでWebページを閲覧するか否かの判断材料を提供できる。   When the client 1 is a PC, for example, by registering a search keyword of interest in advance, it is possible to easily search for a web page as if watching a TV, for example. The slide reproduction may be performed using, for example, a screen saver. When the client 1 is a small screen with a limited amount of information that can be displayed, such as a mobile phone or a portable information terminal, it is possible to provide a material for determining whether or not to browse a Web page using only a representative image and related text.

本発明は、以下に記載する付記のような構成が考えられる。
(付記1)
検索キーワードにより検索されたコンテンツから該コンテンツを代表する代表画像を抽出する画像抽出手段と、
前記検索されたコンテンツから前記代表画像に関連する関連テキストを抽出するテキスト抽出手段と、
前記抽出した代表画像、及び、前記抽出した前記代表画像に関連する関連テキストを合わせて前記検索キーワードによる検索結果として出力する検索結果出力手段と
を有することを特徴とする検索結果出力装置。
(付記2)
前記検索結果出力手段は、前記抽出した代表画像及び前記抽出した前記代表画像に関連する関連テキストを関連付けて記録する記録手段からユーザが関心を持つ前記抽出した代表画像及び前記抽出した前記代表画像に関連する関連テキストをキー画像及びキーテキストとして選択し、前記キー画像と、前記記録手段に記録されている前記代表画像との類似度を算出し、該類似度の順に出力する
ことを特徴とする付記1記載の検索結果出力装置。
(付記3)
コンピュータが実行する検索結果出力方法であって、
検索キーワードにより検索されたコンテンツから該コンテンツを代表する代表画像を抽出し、
前記検索されたコンテンツから前記代表画像に関連する関連テキストを抽出し、
前記抽出した代表画像、及び、前記抽出した前記代表画像に関連する関連テキストを合わせて前記検索キーワードによる検索結果として出力する
ことを特徴とする検索結果出力方法。
(付記4)
前記抽出した代表画像、及び、前記抽出した前記代表画像に関連する関連テキストを合わせて前記検索キーワードによる検索結果として出力するとき、前記抽出した代表画像及び前記抽出した前記代表画像に関連する関連テキストを関連付けて記録する記録手段からユーザが関心を持つ前記抽出した代表画像及び前記抽出した前記代表画像に関連する関連テキストをキー画像及びキーテキストとして選択し、
前記キー画像と、前記記録手段に記録されている前記代表画像との類似度を算出し、該類似度の順に出力する
ことを特徴とする付記3記載の検索結果出力方法。
(付記5)
コンピュータに、
検索キーワードにより検索されたコンテンツから該コンテンツを代表する代表画像を抽出し、
前記検索されたコンテンツから前記代表画像に関連する関連テキストを抽出し、
前記抽出した代表画像、及び、前記抽出した前記代表画像に関連する関連テキストを合わせて前記検索キーワードによる検索結果として出力する
処理を実行させる検索結果出力プログラム。
(付記6)
前記抽出した代表画像、及び、前記抽出した前記代表画像に関連する関連テキストを合わせて前記検索キーワードによる検索結果として出力するとき、前記抽出した代表画像及び前記抽出した前記代表画像に関連する関連テキストを関連付けて記録する記録手段からユーザが関心を持つ前記抽出した代表画像及び前記抽出した前記代表画像に関連する関連テキストをキー画像及びキーテキストとして選択し、
前記キー画像と、前記記録手段に記録されている前記代表画像との類似度を算出し、該類似度の順に出力する
処理を実行させる付記5記載の検索結果出力プログラム。
The present invention may have the following configurations as described below.
(Appendix 1)
Image extracting means for extracting a representative image representing the content from the content searched by the search keyword;
Text extraction means for extracting related text related to the representative image from the searched content;
A search result output device comprising: a search result output unit that outputs the extracted representative image and related text related to the extracted representative image together as a search result based on the search keyword.
(Appendix 2)
The search result output means outputs the extracted representative image and the extracted representative image that the user is interested in from the recording means that records the extracted representative image and related text related to the extracted representative image in association with each other. A related related text is selected as a key image and a key text, a similarity between the key image and the representative image recorded in the recording unit is calculated, and output in the order of the similarity. The search result output device according to appendix 1.
(Appendix 3)
A search result output method executed by a computer,
A representative image representing the content is extracted from the content searched by the search keyword,
Extracting related text related to the representative image from the retrieved content;
A search result output method comprising: outputting the extracted representative image and related text related to the extracted representative image together as a search result based on the search keyword.
(Appendix 4)
When the extracted representative image and the related text related to the extracted representative image are output together as a search result based on the search keyword, the extracted representative image and the related text related to the extracted representative image Selecting the extracted representative image that is of interest to the user from the recording means that records the information and the related text related to the extracted representative image as a key image and key text,
The search result output method according to appendix 3, wherein the similarity between the key image and the representative image recorded in the recording means is calculated and output in the order of the similarity.
(Appendix 5)
On the computer,
A representative image representing the content is extracted from the content searched by the search keyword,
Extracting related text related to the representative image from the retrieved content;
The search result output program which performs the process which combines the extracted representative image and the related text relevant to the extracted representative image, and outputs it as a search result by the search keyword.
(Appendix 6)
When the extracted representative image and the related text related to the extracted representative image are output together as a search result based on the search keyword, the extracted representative image and the related text related to the extracted representative image Selecting the extracted representative image that is of interest to the user from the recording means that records the information and the related text related to the extracted representative image as a key image and key text,
The search result output program according to appendix 5, wherein a similarity between the key image and the representative image recorded in the recording unit is calculated, and a process of outputting in order of the similarity is executed.

なお、本実施例におけるコンテンツ処理プログラムは、パッケージソフトの他、WEBサービス等によっても提供可能である。   Note that the content processing program in this embodiment can be provided not only by package software but also by a WEB service or the like.

なお、特許請求の範囲に記載した画像抽出手段は画像抽出部52に相当し、テキスト抽出手段はテキスト抽出部53に相当し、検索結果出力手段は合成処理部43及び表示制御部44に相当し、記録手段が記録部54に相当する。   The image extraction means described in the claims corresponds to the image extraction section 52, the text extraction means corresponds to the text extraction section 53, and the search result output means corresponds to the synthesis processing section 43 and the display control section 44. The recording unit corresponds to the recording unit 54.

1、1a〜1n クライアント
2、2a〜2m Webサーバ
3 ネットワーク
10 コンピュータ
21 入力装置
22 表示装置
23 コンピュータ本体
31 主記憶装置
32 演算処理装置
33 インターフェース装置
34 記録媒体読取装置
35 補助記憶装置
36 記録媒体
37 バス
41 検索部
42 ページ解析部
43 合成処理部
44 表示制御部
51 ページ取得部
52 画像抽出部
53 テキスト抽出部
54 記録部
60 ユーザインターフェース
DESCRIPTION OF SYMBOLS 1, 1a-1n Client 2, 2a-2m Web server 3 Network 10 Computer 21 Input device 22 Display device 23 Computer main body 31 Main storage device 32 Arithmetic processing device 33 Interface device 34 Recording medium reader 35 Auxiliary storage device 36 Recording medium 37 Bus 41 Search unit 42 Page analysis unit 43 Composition processing unit 44 Display control unit 51 Page acquisition unit 52 Image extraction unit 53 Text extraction unit 54 Recording unit 60 User interface

Claims (3)

検索キーワードにより検索されたコンテンツから該コンテンツを代表する代表画像を抽出する画像抽出手段と、
前記検索されたコンテンツから前記代表画像に関連する関連テキストを抽出するテキスト抽出手段と、
前記抽出した代表画像、及び、前記抽出した前記代表画像に関連する関連テキストを合わせて前記検索キーワードによる検索結果として順に出力する検索結果出力手段と
を有し、
前記検索結果出力手段は、検索結果の出力スピード変更のユーザ操作があると、ユーザ操作に基づいてユーザが関心を持つ前記抽出した代表画像及び前記抽出した前記代表画像に関連する関連テキストを判断し、前記抽出した代表画像及び前記抽出した前記代表画像に関連する関連テキストを関連付けて記録する記録手段からユーザが関心を持つ前記抽出した代表画像及び前記抽出した前記代表画像に関連する関連テキストをキー画像及びキーテキストとして選択し、前記キー画像と、前記記録手段に記録されている前記代表画像との類似度を算出し、該類似度の順に出力する
ことを特徴とする検索結果出力装置。
Image extracting means for extracting a representative image representing the content from the content searched by the search keyword;
Text extraction means for extracting related text related to the representative image from the searched content;
The extracted representative images, and possess a search result output means for combining the related text associated with the representative image the extracted sequentially output as the search result by the search keyword,
When there is a user operation for changing an output speed of the search result, the search result output means determines the extracted representative image that the user is interested in and the related text related to the extracted representative image based on the user operation. The extracted representative image and the related text related to the extracted representative image that the user is interested in from the recording unit that records the extracted representative image and the related text related to the extracted representative image in association with each other. A search result selected as an image and key text, calculating a similarity between the key image and the representative image recorded in the recording means, and outputting the similarity in the order of the similarity Output device.
コンピュータが実行する検索結果出力方法であって、
検索キーワードにより検索されたコンテンツから該コンテンツを代表する代表画像を抽出し、
前記検索されたコンテンツから前記代表画像に関連する関連テキストを抽出し、
前記抽出した代表画像、及び、前記抽出した前記代表画像に関連する関連テキストを合わせて前記検索キーワードによる検索結果として順に出力し、
検索結果の出力スピード変更のユーザ操作があると、ユーザ操作に基づいてユーザが関心を持つ前記抽出した代表画像及び前記抽出した前記代表画像に関連する関連テキストを判断し、前記抽出した代表画像及び前記抽出した前記代表画像に関連する関連テキストを関連付けて記録する記録手段からユーザが関心を持つ前記抽出した代表画像及び前記抽出した前記代表画像に関連する関連テキストをキー画像及びキーテキストとして選択し、前記キー画像と、前記記録手段に記録されている前記代表画像との類似度を算出し、該類似度の順に出力する
ことを特徴とする検索結果出力方法。
A search result output method executed by a computer,
A representative image representing the content is extracted from the content searched by the search keyword,
Extracting related text related to the representative image from the retrieved content;
The extracted representative image and the related text related to the extracted representative image are output in order as a search result by the search keyword ,
When there is a user operation for changing the output speed of the search result, the extracted representative image that the user is interested in based on the user operation and the related text related to the extracted representative image are determined, and the extracted representative image and The extracted representative image of interest to the user and the related text related to the extracted representative image are selected as a key image and key text from a recording unit that records the related text related to the extracted representative image in association with each other. A search result output method comprising calculating a similarity between the key image and the representative image recorded in the recording means and outputting the similarity in the order of the similarity .
コンピュータに、
検索キーワードにより検索されたコンテンツから該コンテンツを代表する代表画像を抽出し、
前記検索されたコンテンツから前記代表画像に関連する関連テキストを抽出し、
前記抽出した代表画像、及び、前記抽出した前記代表画像に関連する関連テキストを合わせて前記検索キーワードによる検索結果として順に出力し、
検索結果の出力スピード変更のユーザ操作があると、ユーザ操作に基づいてユーザが関心を持つ前記抽出した代表画像及び前記抽出した前記代表画像に関連する関連テキストを判断し、前記抽出した代表画像及び前記抽出した前記代表画像に関連する関連テキストを関連付けて記録する記録手段からユーザが関心を持つ前記抽出した代表画像及び前記抽出した前記代表画像に関連する関連テキストをキー画像及びキーテキストとして選択し、前記キー画像と、前記記録手段に記録されている前記代表画像との類似度を算出し、該類似度の順に出力する処理を実行させる検索結果出力プログラム。
On the computer,
A representative image representing the content is extracted from the content searched by the search keyword,
Extracting related text related to the representative image from the retrieved content;
The extracted representative image and the related text related to the extracted representative image are output in order as a search result by the search keyword ,
When there is a user operation for changing the output speed of the search result, the extracted representative image that the user is interested in based on the user operation and the related text related to the extracted representative image are determined, and the extracted representative image and The extracted representative image of interest to the user and the related text related to the extracted representative image are selected as a key image and key text from a recording unit that records the related text related to the extracted representative image in association with each other. A search result output program for executing a process of calculating a similarity between the key image and the representative image recorded in the recording means and outputting the similarity in the order of the similarity .
JP2010214198A 2010-09-24 2010-09-24 Search result output device, search result output method, and search result output program Active JP5552987B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010214198A JP5552987B2 (en) 2010-09-24 2010-09-24 Search result output device, search result output method, and search result output program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010214198A JP5552987B2 (en) 2010-09-24 2010-09-24 Search result output device, search result output method, and search result output program

Publications (2)

Publication Number Publication Date
JP2012068982A JP2012068982A (en) 2012-04-05
JP5552987B2 true JP5552987B2 (en) 2014-07-16

Family

ID=46166165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010214198A Active JP5552987B2 (en) 2010-09-24 2010-09-24 Search result output device, search result output method, and search result output program

Country Status (1)

Country Link
JP (1) JP5552987B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9501554B2 (en) * 2013-03-06 2016-11-22 Rakuten, Inc. Image processing system, image processing method, and image processing program
US20140351687A1 (en) * 2013-05-24 2014-11-27 Facebook, Inc. Contextual Alternate Text for Images
WO2016043320A1 (en) * 2014-09-19 2016-03-24 株式会社コティレドン・テクノロジー Method and device for generating reduced image
CN104504108B (en) * 2014-12-30 2018-07-13 百度在线网络技术(北京)有限公司 Information search method and device
JP7061328B1 (en) 2021-07-30 2022-04-28 株式会社Jx通信社 Information processing equipment, information processing systems and programs

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3724859B2 (en) * 1995-10-16 2005-12-07 富士通株式会社 Image display system

Also Published As

Publication number Publication date
JP2012068982A (en) 2012-04-05

Similar Documents

Publication Publication Date Title
US20220229536A1 (en) Information processing apparatus display control method and program
CN102483742B (en) For managing the system and method for internet media content
US9372926B2 (en) Intelligent video summaries in information access
US7908556B2 (en) Method and system for media landmark identification
US11361015B2 (en) Apparatus and method for clipping and sharing content at a portable terminal
KR102028198B1 (en) Device for authoring video scene and metadata
US8166412B2 (en) Visual cue discernment on scattered data
US7873911B2 (en) Methods for providing information services related to visual imagery
US20120209841A1 (en) Bookmarking segments of content
CN104598556A (en) Search method and search device
CN103124968B (en) For the Content Transformation of back-tilting type amusement
US8931002B2 (en) Explanatory-description adding apparatus, computer program product, and explanatory-description adding method
JP5552987B2 (en) Search result output device, search result output method, and search result output program
JP4514671B2 (en) CONTENT EDITING DEVICE, COMPUTER-READABLE PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME
CN111523069B (en) Method and system for realizing electronic book playing 3D effect based on 3D engine
JP2004112379A (en) Image retrieving system
US20100281046A1 (en) Method and web server of processing a dynamic picture for searching purpose
JP2007088967A (en) Content supplying system and content reproducing terminal
JP5525154B2 (en) Content display device
US20180077362A1 (en) Method, System, and Apparatus for Operating a Kinetic Typography Service
JP2004220267A (en) Image retrieval method and device, image retrieval program, and storage medium recording the program
JP2010257266A (en) Content output system, server device, device, method, and program for outputting content, and recording medium storing the content output program
JP2008225584A (en) Article recommendation apparatus, article recommendation system, article recommendation method, and article recommendation program
WO2011021632A1 (en) Information provision system
KR20110042626A (en) Method and device for displaying image of digital photo frame

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140513

R150 Certificate of patent or registration of utility model

Ref document number: 5552987

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150