JP2008257341A - Search result display device, search result display method and program - Google Patents

Search result display device, search result display method and program Download PDF

Info

Publication number
JP2008257341A
JP2008257341A JP2007096587A JP2007096587A JP2008257341A JP 2008257341 A JP2008257341 A JP 2008257341A JP 2007096587 A JP2007096587 A JP 2007096587A JP 2007096587 A JP2007096587 A JP 2007096587A JP 2008257341 A JP2008257341 A JP 2008257341A
Authority
JP
Japan
Prior art keywords
content information
time
search result
search
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007096587A
Other languages
Japanese (ja)
Inventor
Kazuto Mugura
計人 椋
Kazuto Nishizawa
一登 西沢
Masafumi Suzuki
政史 鈴木
Koji Fukui
浩司 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007096587A priority Critical patent/JP2008257341A/en
Publication of JP2008257341A publication Critical patent/JP2008257341A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Digital Computer Display Output (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To significantly increase the convenience of use of search results by improving the display state of the search results. <P>SOLUTION: A search result display device comprises a search result reception processing part 306 for acquiring content information as search results matching a search condition from a content information provision server 200 connected via a network 400, and a search result display processing part 308 for arranging the content information on a display screen of a display part 700 according to characteristic values related to the content information and displaying the content information as dynamically moving it on the display screen. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、検索結果表示装置、検索結果表示方法及びプログラムに関する。   The present invention relates to a search result display device, a search result display method, and a program.

従来、例えばパーソナルコンピュータをインターネットに接続して、検索キーワードを入力することで、ヤフー、グーグルなどの検索サイトから検索結果を取得することが行われている。   Conventionally, for example, a search result is obtained from a search site such as Yahoo or Google by connecting a personal computer to the Internet and inputting a search keyword.

しかしながら、検索サイトから検索結果を取得した場合、検索結果は検索ヒット数などに応じて単に画面上に表示されるのみであるため、ユーザが検索結果を視覚的に充分に理解することができないという問題があった。このため、従来の検索結果の表示方式では、検索結果の特徴を充分に把握することができず、検索結果の有効な活用を図ることができなかった。   However, when a search result is acquired from a search site, the search result is simply displayed on the screen according to the number of search hits, etc., so that the user cannot fully understand the search result visually. There was a problem. For this reason, in the conventional search result display method, the characteristics of the search result cannot be sufficiently grasped, and the search result cannot be effectively used.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、検索結果の表示状態を改善することで、検索結果の活用の利便性を大幅に高めることが可能な、新規かつ改良された検索結果表示装置、検索結果表示方法及びプログラムを提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to improve the display state of search results, thereby greatly improving the convenience of utilizing search results. It is an object of the present invention to provide a new and improved search result display device, a search result display method, and a program that are possible.

上記課題を解決するために、本発明のある観点によれば、ネットワークを介して接続されたコンテンツ情報提供サーバから、検索条件に応じた検索結果であるコンテンツ情報を取得するコンテンツ情報取得部と、前記コンテンツ情報に関係する特性値に基づいて、前記コンテンツ情報を表示画面上に配置し、前記コンテンツ情報を表示画面上で動的に移動させて表示する表示制御部と、を備えた検索結果表示装置が提供される。   In order to solve the above problems, according to an aspect of the present invention, a content information acquisition unit that acquires content information that is a search result according to a search condition from a content information providing server connected via a network; A search result display comprising: a display control unit that arranges the content information on a display screen based on a characteristic value related to the content information, and dynamically moves and displays the content information on the display screen An apparatus is provided.

上記構成によれば、ネットワークを介して接続されたコンテンツ情報提供サーバから、検索条件に応じた検索結果であるコンテンツ情報が取得される。そして、コンテンツ情報に関係する特性値に基づいてコンテンツ情報が表示画面上に配置され、コンテンツ情報は表示画面上で動的に移動して表示される。従って、ユーザは特性値に基づいて動的に移動するコンテンツ情報を表示画面上で認識することが可能となり、特性値とコンテンツ情報を対応付けて認識することが可能となる。   According to the said structure, the content information which is a search result according to search conditions is acquired from the content information provision server connected via the network. Then, the content information is arranged on the display screen based on the characteristic values related to the content information, and the content information is dynamically moved and displayed on the display screen. Therefore, the user can recognize content information that dynamically moves based on the characteristic value on the display screen, and can recognize the characteristic value and the content information in association with each other.

また、前記特性値は、前記コンテンツ情報が作成された時刻を表す時刻情報であり、前記表示制御部は、基準となる参照時刻と、前記コンテンツ情報に関係する前記時刻情報とに基づいて、前記コンテンツ情報を表示画面上で移動させるものであってもよい。かかる構成によれば、基準となる参照時刻と、コンテンツ情報に関係する時刻情報とに基づいて、コンテンツ情報が表示画面上で移動するため、参照時刻とコンテンツ情報の時刻情報との関係を認識することが可能となる。   Further, the characteristic value is time information indicating a time when the content information is created, and the display control unit is configured based on the reference time serving as a reference and the time information related to the content information. The content information may be moved on the display screen. According to this configuration, since the content information moves on the display screen based on the reference time serving as a reference and the time information related to the content information, the relationship between the reference time and the time information of the content information is recognized. It becomes possible.

また、前記表示制御部は、前記参照時刻が推移する速度を変化させる速度変更部を含むものであってもよい。かかる構成によれば、参照時刻が推移する速度を最適に設定することで、表示画面上のコンテンツ情報を明確に認識することが可能となる。   The display control unit may include a speed changing unit that changes a speed at which the reference time changes. According to such a configuration, it is possible to clearly recognize the content information on the display screen by setting the speed at which the reference time changes optimally.

また、前記表示制御部は、前記参照時刻が推移する速度に応じて前記コンテンツ情報の表示範囲のスケールを可変する表示スケール変更部を含むものであってもよい。かかる構成によれば、コンテンツ情報の表示範囲のスケールを可変することができるため、表示画面上のコンテンツ情報を明確に認識することが可能となる。   The display control unit may include a display scale changing unit that varies a scale of a display range of the content information according to a speed at which the reference time changes. According to such a configuration, the scale of the display range of the content information can be changed, so that the content information on the display screen can be clearly recognized.

また、前記表示制御部は、前記参照時刻が推移する方向を過去から未来又は未来から過去のいずれかに設定する時刻推移方向変更部を含むものであってもよい。かかる構成によれば、参照時刻が推移する方向を過去から未来又は未来から過去のいずれかに設定することができるため、過去から未来又は未来から過去のそれぞれの方向において、コンテンツ情報を明確に認識することが可能となる。   Further, the display control unit may include a time transition direction changing unit that sets a direction in which the reference time transitions from the past to the future or from the future to the past. According to this configuration, the direction in which the reference time changes can be set from the past to the future, or from the future to the past, so the content information is clearly recognized in each direction from the past to the future or from the future to the past. It becomes possible to do.

また、前記表示制御部は、表示画面上における前記コンテンツ情報の密集状態に応じて前記参照時刻が推移する速度又は前記コンテンツ情報の表示範囲のスケールを可変するオートクルーズ機能部を含むものであってもよい。かかる構成によれば、表示画面上におけるコンテンツ情報の密集状態に応じて参照時刻が推移する速度又はコンテンツ情報の表示範囲のスケールを可変することができるため、表示画面上のコンテンツ情報を効率よく認識することが可能となる。   The display control unit includes an auto-cruise function unit that varies a speed at which the reference time changes or a scale of a display range of the content information according to a crowded state of the content information on a display screen. Also good. According to such a configuration, the speed at which the reference time changes or the scale of the display range of the content information can be varied according to the crowded state of the content information on the display screen, so that the content information on the display screen can be recognized efficiently. It becomes possible to do.

また、前記検索結果である前記コンテンツ情報と前記検索条件を共に保存する検索結果保存部を更に備えるものであってもよい。かかる構成によれば、検索結果である前記コンテンツ情報と前記検索条件を共に保存することができるため、同じ検索結果を後で見たい場合に、再度検索を行うことなく、検索結果を表示することが可能となる。   In addition, a search result storage unit that stores both the content information as the search result and the search condition may be further provided. According to this configuration, since the content information as the search result and the search condition can be stored together, the search result can be displayed without performing the search again when the same search result is to be viewed later. Is possible.

また、前記特性値は、前記コンテンツ情報が作成された時刻を表す時刻情報と前記コンテンツ情報が作成された位置を表す位置情報を含み、前記表示制御部は、前記時刻情報及び前記位置情報に基づいて前記コンテンツ情報を表示画面上に3次元的に表示するものであってもよい。かかる構成によれば、時刻情報及び位置情報に基づいてコンテンツ情報が3次元的に表示されるため、コンテンツ情報の時刻情報及び位置情報を視覚的に明確に認識することが可能となる。   The characteristic value includes time information indicating a time when the content information is generated and position information indicating a position where the content information is generated, and the display control unit is based on the time information and the position information. The content information may be displayed three-dimensionally on the display screen. According to such a configuration, the content information is three-dimensionally displayed based on the time information and the position information, so that the time information and the position information of the content information can be visually recognized clearly.

また、前記コンテンツ情報が属する元のウェブページを起動する起動部を更に備えたものであってもよい。かかる構成によれば、コンテンツ情報が属する元のウェブページを機能することができるため、検索結果であるコンテンツ情報をより詳細に認識することが可能となる。   Further, an activation unit that activates the original web page to which the content information belongs may be further provided. According to this configuration, since the original web page to which the content information belongs can function, it is possible to recognize the content information that is the search result in more detail.

また、前記コンテンツ情報はテレビ放送のライブ映像、録画及び番組表に関する情報であり、前記表示制御部は、基準となる参照時刻と、前記ライブ映像、録画及び番組表に関する時刻情報とに基づいて前記ライブ映像、録画及び番組表を表示画面上で移動させ、参照時刻が現在の時刻に設定された場合は現在放送中のライブ映像を表示し、参照時刻が現在の時刻以降の時刻に設定された場合は以降に放送されるテレビ放送の番組表を表示し、参照時刻が現在の時刻以前の時刻に設定された場合は以前に放送されたテレビ放送の録画を表示するものであってもよい。かかる構成によれば、参照時刻に応じてテレビ放送のライブ映像、録画及び番組表を表示することができ、参照時刻に応じた最適な情報を取得することが可能となる。   Further, the content information is information related to live video, recording, and a program guide of a television broadcast, and the display control unit is configured to perform the reference based on a reference time that is a reference and time information related to the live video, recording, and a program guide. Live video, recording, and program guide are moved on the display screen. When the reference time is set to the current time, the live video currently being broadcast is displayed, and the reference time is set to a time after the current time. In this case, a TV broadcast program guide to be broadcast thereafter may be displayed, and when the reference time is set to a time before the current time, a previously broadcast TV broadcast recording may be displayed. According to this configuration, it is possible to display live images, recordings, and program schedules of television broadcasts according to the reference time, and it is possible to acquire optimal information according to the reference time.

また、上記課題を解決するために、本発明の別の観点によれば、ネットワークを介して接続されたコンテンツ情報提供サーバから、検索条件に応じた検索結果であるコンテンツ情報を取得するステップと、前記コンテンツ情報に関係する特性値に基づいて、前記コンテンツ情報を表示画面上に配置し、前記コンテンツ情報を表示画面上で動的に移動させて表示するステップと、を備えた検索結果表示方法が提供される。   In order to solve the above problem, according to another aspect of the present invention, from a content information providing server connected via a network, acquiring content information that is a search result according to a search condition; A search result display method comprising: placing the content information on a display screen based on a characteristic value related to the content information; and dynamically moving the content information on the display screen to display the content information. Provided.

上記構成によれば、ネットワークを介して接続されたコンテンツ情報提供サーバから、検索条件に応じた検索結果であるコンテンツ情報が取得される。そして、コンテンツ情報に関係する特性値に基づいてコンテンツ情報が表示画面上に配置され、コンテンツ情報は表示画面上で動的に移動して表示される。従って、ユーザは特性値に基づいて動的に移動するコンテンツ情報を表示画面上で認識することが可能となり、特性値とコンテンツ情報を対応付けて認識することが可能となる。   According to the said structure, the content information which is a search result according to search conditions is acquired from the content information provision server connected via the network. Then, the content information is arranged on the display screen based on the characteristic values related to the content information, and the content information is dynamically moved and displayed on the display screen. Therefore, the user can recognize content information that dynamically moves based on the characteristic value on the display screen, and can recognize the characteristic value and the content information in association with each other.

また、前記特性値は、前記コンテンツ情報が作成された時刻を表す時刻情報であり、前記コンテンツ情報を表示するステップにおいて、基準となる参照時刻と、前記コンテンツ情報に関係する前記時刻情報とに基づいて、前記コンテンツ情報を表示画面上で移動させるものであってもよい。かかる構成によれば、基準となる参照時刻と、コンテンツ情報に関係する時刻情報とに基づいて、コンテンツ情報が表示画面上で移動するため、参照時刻とコンテンツ情報の時刻情報との関係を認識することが可能となる。   The characteristic value is time information representing a time when the content information is created, and is based on a reference time serving as a reference and the time information related to the content information in the step of displaying the content information. The content information may be moved on the display screen. According to this configuration, since the content information moves on the display screen based on the reference time serving as a reference and the time information related to the content information, the relationship between the reference time and the time information of the content information is recognized. It becomes possible.

また、前記参照時刻が推移する速度を変化させるステップを更に備えるものであってもよい。かかる構成によれば、参照時刻が推移する速度を最適に設定することで、表示画面上のコンテンツ情報を明確に認識することが可能となる。   The method may further include a step of changing a speed at which the reference time changes. According to such a configuration, it is possible to clearly recognize the content information on the display screen by setting the speed at which the reference time changes optimally.

また、前記参照時刻が推移する速度に応じて前記コンテンツ情報の表示範囲のスケールを可変するステップを更に備えるものであってもよい。かかる構成によれば、コンテンツ情報の表示範囲のスケールを可変することができるため、表示画面上のコンテンツ情報を明確に認識することが可能となる。   Further, the method may further include a step of changing a scale of the display range of the content information according to a speed at which the reference time changes. According to such a configuration, the scale of the display range of the content information can be changed, so that the content information on the display screen can be clearly recognized.

また、前記参照時刻が推移する方向を過去から未来又は未来から過去のいずれかに設定するステップを更に備えるものであってもよい。かかる構成によれば、参照時刻が推移する方向を過去から未来又は未来から過去のいずれかに設定することができるため、過去から未来又は未来から過去のそれぞれの方向において、コンテンツ情報を明確に認識することが可能となる。   The method may further comprise a step of setting the direction in which the reference time changes from the past to the future or from the future to the past. According to this configuration, the direction in which the reference time changes can be set from the past to the future, or from the future to the past, so the content information is clearly recognized in each direction from the past to the future or from the future to the past. It becomes possible to do.

また、表示画面上における前記コンテンツ情報の密集状態に応じて前記参照時刻が推移する速度又は前記コンテンツ情報の表示範囲のスケールを可変するステップを更に備えるものであってもよい。かかる構成によれば、表示画面上におけるコンテンツ情報の密集状態に応じて参照時刻が推移する速度又はコンテンツ情報の表示範囲のスケールを可変することができるため、表示画面上のコンテンツ情報を効率よく認識することが可能となる。   In addition, the method may further include a step of changing a speed at which the reference time changes or a scale of a display range of the content information according to a crowded state of the content information on the display screen. According to such a configuration, the speed at which the reference time changes or the scale of the display range of the content information can be varied according to the crowded state of the content information on the display screen, so that the content information on the display screen can be recognized efficiently. It becomes possible to do.

また、前記検索結果である前記コンテンツ情報と前記検索条件を共に保存するステップを更に備えるものであってもよい。かかる構成によれば、検索結果である前記コンテンツ情報と前記検索条件を共に保存することができるため、同じ検索結果を後で見たい場合に、再度検索を行うことなく、検索結果を表示することが可能となる。   The content information as the search result and the search condition may be stored together. According to this configuration, since the content information as the search result and the search condition can be stored together, the search result can be displayed without performing the search again when the same search result is to be viewed later. Is possible.

また、前記コンテンツ情報が属する元のウェブページを起動するステップを更に備えたものであってもよい。かかる構成によれば、コンテンツ情報が属する元のウェブページを機能することができるため、検索結果であるコンテンツ情報をより詳細に認識することが可能となる。   Further, it may further comprise a step of starting an original web page to which the content information belongs. According to this configuration, since the original web page to which the content information belongs can function, it is possible to recognize the content information that is the search result in more detail.

また、前記コンテンツ情報はテレビ放送のライブ映像、録画及び番組表に関する情報であり、前記表示制御部は、基準となる参照時刻と、前記ライブ映像、録画及び番組表に関する前記時刻情報とに基づいて前記ライブ映像、録画及び番組表を表示画面上で移動させ、参照時刻が現在の時刻に設定された場合は現在放送中のライブ映像を表示し、参照時刻が現在の時刻以降の時刻に設定された場合は以降に放送されるテレビ放送の番組表を表示し、参照時刻が現在の時刻以前の時刻に設定された場合は以前に放送されたテレビ放送の録画を表示するものであってもよい。かかる構成によれば、かかる構成によれば、参照時刻に応じてテレビ放送の動画、録画及び番組表を表示することができ、参照時刻に応じた最適な情報を取得することが可能となる。   Further, the content information is information related to live video, recording, and a program guide of a television broadcast, and the display control unit is based on a reference time as a reference and the time information related to the live video, recording, and a program guide. The live video, recording and program guide are moved on the display screen, and when the reference time is set to the current time, the live video currently being broadcast is displayed, and the reference time is set to a time after the current time. If the reference time is set to a time before the current time, it may display a previously broadcasted TV broadcast recording. . According to such a configuration, according to such a configuration, it is possible to display a moving image, a recording, and a program guide of a television broadcast according to the reference time, and it is possible to acquire optimal information according to the reference time.

また、上記課題を解決するために、本発明の別の観点によれば、ネットワークを介して接続されたコンテンツ情報提供サーバから、検索条件に応じた検索結果であるコンテンツ情報を取得する手段、前記コンテンツ情報に関係する特性値に基づいて、前記コンテンツ情報を表示画面上に配置し、前記コンテンツ情報を表示画面上で動的に移動させて表示する手段、としてコンピュータを機能させるためのプログラムが提供される。   In order to solve the above-described problem, according to another aspect of the present invention, means for acquiring content information that is a search result according to a search condition from a content information providing server connected via a network, Provided is a program for causing a computer to function as means for arranging the content information on a display screen and dynamically moving the content information on the display screen based on characteristic values related to the content information. Is done.

上記構成によれば、ネットワークを介して接続されたコンテンツ情報提供サーバから、検索条件に応じた検索結果であるコンテンツ情報が取得される。そして、コンテンツ情報に関係する特性値に基づいてコンテンツ情報が表示画面上に配置され、コンテンツ情報は表示画面上で動的に移動して表示される。従って、ユーザは特性値に基づいて動的に移動するコンテンツ情報を表示画面上で認識することが可能となり、特性値とコンテンツ情報を対応付けて認識することが可能となる。   According to the said structure, the content information which is a search result according to search conditions is acquired from the content information provision server connected via the network. Then, the content information is arranged on the display screen based on the characteristic values related to the content information, and the content information is dynamically moved and displayed on the display screen. Therefore, the user can recognize content information that dynamically moves based on the characteristic value on the display screen, and can recognize the characteristic value and the content information in association with each other.

本発明によれば、検索結果の活用の利便性を大幅に高めることが可能な検索結果表示装置、検索結果表示方法及びプログラムを提供することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the search result display apparatus, the search result display method, and program which can improve the convenience of utilization of a search result significantly.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

(第1の実施形態)
図1は、本発明の第1の実施形態に係る検索システム100の構成と、検索情報提供サーバ200、検索装置(検索結果表示装置)300の機能ブロックを共に示す模式図である。図1に示すように、本実施形態のシステム100は、検索情報提供サーバ200と検索装置300とが、インターネットなどのネットワーク400を介して接続されている。
(First embodiment)
FIG. 1 is a schematic diagram showing a configuration of a search system 100 according to the first embodiment of the present invention, and functional blocks of a search information providing server 200 and a search device (search result display device) 300. As shown in FIG. 1, in a system 100 according to this embodiment, a search information providing server 200 and a search device 300 are connected via a network 400 such as the Internet.

図1に示すように、検索情報提供サーバ200は、写真などのコンテンツ情報を格納したデータベース202を備えている。ここで、コンテンツ情報には、写真(静止画、動画)の他、ウエブ上のニュースなどのテキスト、ブログ、テレビ番組表、音楽などの様々な情報が含まれる。   As shown in FIG. 1, the search information providing server 200 includes a database 202 that stores content information such as photographs. Here, the content information includes various information such as texts such as news on the web, blogs, television program guides, music, etc., in addition to photos (still images, moving images).

また、検索情報提供サーバ200は、検索条件受信処理部204、検索処理部206、検索結果送信処理部208を備えている。検索条件受信処理部204は、検索装置300から送信された検索条件データを受信する処理を行う。また、検索処理部206は、データベース202に格納されたデータの中から検索条件データに合致するコンテンツ情報を抽出する。検索結果送信処理部208は、検索処理部206により抽出されたコンテンツ情報を検索装置300へ送信する処理を行う。   The search information providing server 200 includes a search condition reception processing unit 204, a search processing unit 206, and a search result transmission processing unit 208. The search condition reception processing unit 204 performs processing for receiving search condition data transmitted from the search device 300. Further, the search processing unit 206 extracts content information that matches the search condition data from the data stored in the database 202. The search result transmission processing unit 208 performs processing for transmitting the content information extracted by the search processing unit 206 to the search device 300.

検索装置300には、検索装置300と一体又は別体に構成された入力部(キーボード、マウスなど)600が接続されている。検索装置300は、検索制御部302、検索要求処理部304、検索結果受信処理部306、検索結果表示処理部308、検索結果保存部310、データベース312、を備えている。検索制御部302は、検索処理に関する全体的な制御を行う。検索制御部302には、入力部600から検索条件データが入力され、検索要求処理部304は、検索条件データに合致するコンテンツ情報を検索情報提供サーバ200へ要求し、検索結果受信処理部306は、検索情報提供サーバ200から送信されたコンテンツ情報を受信する処理を行う。検索結果表示処理部308は、検索情報提供サーバ200から受信したコンテンツ情報データを、コンテンツ情報が有するメタデータに応じて配列し、検索装置300と一体又は別体に構成された表示部700の表示画面上に動的に表示させる。データベース312には、検索装置300側でローカルに蓄積されたコンテンツ情報が格納されている。検索結果保存部310は、検索情報提供サーバ200から受信したコンテンツ情報を検索条件データとともに保存する。検索結果保存部310に保存された情報は、検索結果保存ファイル800として保存される。検索結果保存ファイル800は、磁気ディスクなどの記憶媒体に記憶させることで外部に出力可能である。   An input unit (a keyboard, a mouse, etc.) 600 configured integrally or separately with the search device 300 is connected to the search device 300. The search device 300 includes a search control unit 302, a search request processing unit 304, a search result reception processing unit 306, a search result display processing unit 308, a search result storage unit 310, and a database 312. The search control unit 302 performs overall control related to search processing. The search condition data is input to the search control unit 302 from the input unit 600, the search request processing unit 304 requests the search information providing server 200 for content information that matches the search condition data, and the search result reception processing unit 306 The content information transmitted from the search information providing server 200 is received. The search result display processing unit 308 arranges the content information data received from the search information providing server 200 according to the metadata included in the content information, and displays the display unit 700 configured integrally or separately with the search device 300. Display dynamically on the screen. The database 312 stores content information stored locally on the search device 300 side. The search result storage unit 310 stores the content information received from the search information providing server 200 together with the search condition data. Information stored in the search result storage unit 310 is stored as a search result storage file 800. The search result storage file 800 can be output to the outside by being stored in a storage medium such as a magnetic disk.

検索情報提供サーバ200及び検索装置300は、演算処理部(CPU(Central
Processing Unit))を備えたコンピュータとして構成され、検索装置300の各機能ブロックは、コンピュータを機能させるためのアプリケーションソフトウエア(プログラム)によって構成されることができる。同様に、検索情報提供サーバ200も演算処理部を備え、検索情報提供サーバ200の各機能ブロックはソフトウエア(プログラム)によって構成されることができる。また、検索情報提供サーバ200及び検索装置300は、これらのプログラムを格納するためのハードディスクドライブ等の記録媒体、または磁気ディスクなどの外部記録媒体を備えている。
The search information providing server 200 and the search device 300 include an arithmetic processing unit (CPU (Central
Each functional block of the search device 300 can be configured by application software (program) for causing the computer to function. Similarly, the search information providing server 200 also includes an arithmetic processing unit, and each functional block of the search information providing server 200 can be configured by software (program). In addition, the search information providing server 200 and the search apparatus 300 include a recording medium such as a hard disk drive or an external recording medium such as a magnetic disk for storing these programs.

図2は、データベース202に格納されたコンテンツ情報を示す模式図である。ここでは、コンテンツ情報として写真(静止画)の情報を例示する。図2に示すように、コンテンツ情報には、写真の画像データと、画像データに付加されたメタデータが含まれる。ここで、メタデータには、位置情報(撮影場所)、時間情報(撮影日時)、表示情報(写真の属するカテゴリー、ジャンル、写真に関係するキーワード又はタグ)等の情報が含まれる。   FIG. 2 is a schematic diagram showing content information stored in the database 202. Here, information of a photograph (still image) is illustrated as content information. As shown in FIG. 2, the content information includes image data of a photograph and metadata added to the image data. Here, the metadata includes information such as position information (photographing location), time information (photographing date and time), display information (category to which the photo belongs, genre, keyword or tag related to the photo), and the like.

ユーザにより入力部600から検索条件データが入力されると、検索条件データは、検索制御部302へ送られ、検索制御部302は、検索要求処理部304を介して検索情報提供サーバ200へ検索条件データに適合するコンテンツ情報を要求する。   When search condition data is input from the input unit 600 by the user, the search condition data is sent to the search control unit 302, and the search control unit 302 sends the search condition data to the search information providing server 200 via the search request processing unit 304. Request content information that fits the data.

検索情報提供サーバ200の検索条件受信処理部204は、検索条件データを受信すると、検索条件データを検索処理部206へ送る。検索処理部206では、検索条件データの検索条件に合致するコンテンツ情報をデータベース202から抽出し、検索結果送信処理部208へ送る。検索結果送信処理部208は、抽出されたコンテンツの情報を検索装置300へ送信する。   When receiving the search condition data, the search condition reception processing unit 204 of the search information providing server 200 sends the search condition data to the search processing unit 206. The search processing unit 206 extracts content information that matches the search condition of the search condition data from the database 202 and sends it to the search result transmission processing unit 208. The search result transmission processing unit 208 transmits the extracted content information to the search device 300.

検索装置300の検索結果受信処理部306は、検索情報提供サーバ200から送信されたコンテンツ情報を検索制御部302へ送る。検索制御部302は、コンテンツ情報を検索結果表示処理部308へ送り、検索結果表示処理部308では、検索結果を表示するための表示位置データを作成し、コンテンツ情報とともに表示部700へ送る。表示部700では、表示位置データに基づいて表示画面上にコンテンツ情報を動的に表示する。   The search result reception processing unit 306 of the search device 300 sends the content information transmitted from the search information providing server 200 to the search control unit 302. The search control unit 302 sends the content information to the search result display processing unit 308, and the search result display processing unit 308 creates display position data for displaying the search result and sends it to the display unit 700 together with the content information. The display unit 700 dynamically displays content information on the display screen based on the display position data.

図3は、検索結果表示処理部308と表示部700との間のデータのやり取りを示す模式図である。図3に示すように、検索結果表示処理部308は、表示位置計算モジュール308aを備えている。表示位置計算モジュール308aは、コンテンツ情報に含まれるメタデータに基づいて、表示画面上におけるコンテンツ情報の配列、コンテンツ情報の移動方向に関するデータを含む表示位置データ309を作成する。この際、必要に応じて入力部600から入力された表示条件データが参照される。   FIG. 3 is a schematic diagram showing data exchange between the search result display processing unit 308 and the display unit 700. As shown in FIG. 3, the search result display processing unit 308 includes a display position calculation module 308a. Based on the metadata included in the content information, the display position calculation module 308a creates display position data 309 including data on the arrangement of the content information on the display screen and the moving direction of the content information. At this time, display condition data input from the input unit 600 is referred to as necessary.

入力部600から入力される表示条件データには、後述する時間推移速度の設定、時間推移の方向などのデータが含まれる。従って、ユーザは、入力部600から表示条件データを入力することで、これらのデータを含む表示画面の表示状態を任意に設定することができる。表示位置データ309には、入力部600からの入力によって設定された時間推移速度のデータが含まれる。   The display condition data input from the input unit 600 includes data such as a time transition speed setting and a time transition direction which will be described later. Therefore, the user can arbitrarily set the display state of the display screen including these data by inputting the display condition data from the input unit 600. The display position data 309 includes time transition speed data set by input from the input unit 600.

図4は、表示部700の表示画面上に、検索情報提供サーバ200から取得したコンテンツ情報が表示される様子を示している。ここでは、検索情報提供サーバ200に格納されたコンテンツ情報が写真(静止画)の情報であるものとする。この場合、検索情報提供サーバ200としては、例えば投稿された写真をインターネット上に公開している写真サイトのサーバなどが該当する。   FIG. 4 shows how content information acquired from the search information providing server 200 is displayed on the display screen of the display unit 700. Here, it is assumed that the content information stored in the search information providing server 200 is information on a photograph (still image). In this case, the search information providing server 200 corresponds to a server of a photo site that publishes posted photos on the Internet, for example.

入力部600から検索条件データとしてキーワード「海」、「山」が入力されると、検索情報提供サーバ200のデータベース202の中から、キーワード「海」、「山」がメタデータの表示情報に添付された写真の情報が抽出されて、検索装置300へ送られる。   When the keywords “sea” and “mountain” are input as search condition data from the input unit 600, the keywords “sea” and “mountain” are attached to the display information of the metadata from the database 202 of the search information providing server 200. The information of the photograph that has been extracted is extracted and sent to the search device 300.

図4に示すように、表示画面には、横方向(X方向)に時間軸方向が設定され、X=0の位置は参照時刻とされる。図4の右側へ向かう方向は+X方向とされ、左側へ向かう方向は−X方向とされる。また、Y軸方向には、キーワード「海」、「山」が表示され、キーワード「海」に対応して抽出された写真500〜508が表示画面の上段にX方向に沿って表示され、キーワード「山」に対応して抽出された写真510〜516が表示画面の下段にX方向に沿って表示される。   As shown in FIG. 4, the time axis direction is set in the horizontal direction (X direction) on the display screen, and the position of X = 0 is set as the reference time. The direction toward the right side of FIG. 4 is the + X direction, and the direction toward the left side is the −X direction. In the Y-axis direction, the keywords “sea” and “mountain” are displayed, and photographs 500 to 508 extracted corresponding to the keyword “sea” are displayed along the X direction on the upper stage of the display screen. Photos 510 to 516 extracted corresponding to “mountains” are displayed along the X direction at the bottom of the display screen.

検索情報提供サーバ200から取得されたコンテンツ情報は、各コンテンツ情報に添付されたメタデータのうちの時刻情報(時間スタンプ)に基づいて、キーワードごとに時間軸方向に配列される。ここで、X=0の位置には、参照時刻と一致する時刻情報のコンテンツ情報が配置され、X=0の位置よりも+X側には、参照時刻以降に撮影されたコンテンツ情報、すなわち、参照時刻よりも新しい時刻情報を有するコンテンツ情報が配置される。また、X=0の位置よりも−X側には、参照時刻以前に撮影されたコンテンツ情報、すなわち、参照時刻よりも古い時刻情報を有するコンテンツ情報が配置される。   The content information acquired from the search information providing server 200 is arranged in the time axis direction for each keyword based on time information (time stamp) in metadata attached to each content information. Here, content information of time information that coincides with the reference time is arranged at the position of X = 0, and content information photographed after the reference time, that is, the reference, is located on the + X side from the position of X = 0. Content information having time information newer than the time is arranged. Further, content information taken before the reference time, that is, content information having time information older than the reference time is arranged on the −X side from the position of X = 0.

例えば、図4において、表示画面の上段には、5枚の写真500,502,504,506,508が表示されている。この5枚の写真のメタデータの時刻情報によれば、全ての写真は2007年3月1日に撮影されており、撮影時刻が相違している。各写真に添付された時刻情報によれば、写真500の撮影時刻は7:30、写真502の撮影時刻は8:30、写真504の撮影時刻は9:30、写真506の撮影時刻は10:30、写真508の撮影時刻は11:30である。   For example, in FIG. 4, five photographs 500, 502, 504, 506 and 508 are displayed in the upper part of the display screen. According to the time information of the metadata of these five photos, all the photos were taken on March 1, 2007, and the shooting times are different. According to the time information attached to each photo, the photo 500 was taken at 7:30, the photo 502 was taken at 8:30, the photo 504 was taken at 9:30, and the photo 506 was taken at 10: 30. The shooting time of the photograph 508 is 11:30.

検索結果表示処理部308では、これらの写真500,502,504,506,508の時刻情報に基づいて、図4のX方向に写真データ500,502,504,506,508を時系列に並べて表示するための表示位置データ309を作成する。図4の例では、最も時刻情報の古い写真データ500がX軸方向の最も左側に配置され、時刻情報の古い順、すなわち、写真データ500,502,504,506,508の順に+X方向に写真データ500〜508が配置される。   The search result display processing unit 308 displays the photo data 500, 502, 504, 506, and 508 in time series in the X direction of FIG. 4 based on the time information of these photos 500, 502, 504, 506, and 508. Display position data 309 is created. In the example of FIG. 4, the photo data 500 with the oldest time information is arranged on the leftmost side in the X-axis direction, and the photos are in the + X direction in the order of oldest time information, that is, photo data 500, 502, 504, 506, 508 Data 500 to 508 are arranged.

表示画面の中央、X=0の位置には、参照時刻を表す時計520が表示される。そして、X=0の位置には、時刻情報が参照時刻と一致する写真が位置する。図4の例では、写真504の時刻情報が9:30であり、時計520に表示された参照時刻も9:30であるため、写真504がX=0の位置に配置されている。   A clock 520 representing the reference time is displayed at the center of the display screen, at the position X = 0. A photo whose time information matches the reference time is located at the position X = 0. In the example of FIG. 4, since the time information of the photograph 504 is 9:30 and the reference time displayed on the clock 520 is 9:30, the photograph 504 is arranged at the position of X = 0.

通常の設定では、時計520の参照時刻は一定速度で刻々と進む。時計520の参照時刻が進むと、参照時刻が未来に向かって進み、これに伴って表示画面に配列された写真500,502,504,506,508が図4中の矢印A方向に移動する。そして、参照時刻が16:30になると、時刻情報が16:30である写真506がX=0の位置に配置される。   In a normal setting, the reference time of the clock 520 advances at a constant speed. When the reference time of the clock 520 advances, the reference time advances toward the future, and accordingly, the photos 500, 502, 504, 506, and 508 arranged on the display screen move in the direction of arrow A in FIG. Then, when the reference time is 16:30, the photograph 506 whose time information is 16:30 is arranged at the position of X = 0.

このように、時計520に表示される参照時刻が進むと、写真500,502,504,506,508が矢印A方向に向かって移動するため、ユーザは、矢印A方向への写真の流れとともに、時間の経過を認識することが可能となる。従って、検索されたコンテンツ情報を時間の経過に対応付けて認識することが可能となり、単に検索結果を表示するのみでは認識することが困難であった時間の経過とコンテンツ情報との対応付けを表示画面上で容易に認識することが可能となる。   As described above, when the reference time displayed on the clock 520 advances, the photos 500, 502, 504, 506, and 508 move in the direction of the arrow A, so that the user moves along with the flow of the photo in the direction of the arrow A. It becomes possible to recognize the passage of time. Accordingly, it is possible to recognize the searched content information in association with the passage of time, and display the association between the passage of time and the content information that was difficult to recognize simply by displaying the search result. It can be easily recognized on the screen.

このように、本実施形態のシステムによれば、検索情報提供サーバ200から取得したコンテンツ情報を、時間の流れに応じて表示画面上で移動させることができ、コンテンツ情報の時系列の変化を明確に表示することが可能となる。   As described above, according to the system of the present embodiment, the content information acquired from the search information providing server 200 can be moved on the display screen according to the flow of time, and the time series change of the content information can be clearly defined. Can be displayed.

なお、図4では、コンテンツ情報が写真の場合を示しているが、本実施形態はこれに限定されるものではなく、検索装置300が検索したウエブ上のニュースなどのテキスト、ブログ、テレビ番組表、音楽情報など様々な情報を同様に表示することが可能である。   FIG. 4 shows the case where the content information is a photograph, but the present embodiment is not limited to this. Text such as news on the web searched by the search device 300, a blog, and a TV program guide Various information such as music information can be displayed in the same manner.

また、図4の例では、コンテンツ情報のうちの時刻情報に基づいて、各コンテンツ情報を動的に移動させて表示しているが、位置情報またはその他の情報に基づいて各コンテンツ情報を動的に移動させて表示しても良い。例えば、コンテンツ情報がウェブ上のニュースの場合は、記事の書き込み時刻であっても良いし、コンテンツ情報が音楽情報である場合は、音楽のリリース日であっても良い。音楽情報の場合は、時刻情報に応じて表示画面上に曲の情報を表示するとともに、BGMとして再生することも可能である。また、コンテンツ情報の検索ヒット数、リンク数、GPSデータなど、メタデータに含まれる様々な数値情報に基づいて、図4と同様に表示を行うことが可能である。   In the example of FIG. 4, each content information is dynamically moved and displayed based on time information in the content information. However, each content information is dynamically displayed based on position information or other information. You may move to and display. For example, when the content information is news on the web, it may be an article writing time, and when the content information is music information, it may be a music release date. In the case of music information, the music information is displayed on the display screen according to the time information and can also be reproduced as BGM. In addition, display can be performed in the same manner as in FIG. 4 based on various numerical information included in the metadata such as the number of content information search hits, the number of links, and GPS data.

図4では、検索情報提供サーバ200から取得したコンテンツ情報を表示画面表示しているが、検索装置300のデータベース312に蓄積されたローカルのコンテンツ情報をともに表示しても良い。例えば、検索装置300のユーザが個人的に撮影した写真をローカルコンテンツ情報としてデータベース312に保存している場合、検索情報提供サーバ200から取得したコンテンツ情報とともに、ローカルコンテンツ情報を表示画面上に表示することが可能である。この場合、ローカルコンテンツ情報にも時刻情報が含まれるため、ローカルコンテンツ情報は、コンテンツ情報とともに、参照時刻に応じて移動されて表示される。従って、ユーザは、ネットワークを介して取得した写真と、個人的に撮影した写真を同じ参照時刻に基づいて配列し、動的に移動させて表示することができる。   In FIG. 4, content information acquired from the search information providing server 200 is displayed on the display screen, but local content information stored in the database 312 of the search device 300 may be displayed together. For example, when a photograph taken by a user of the search device 300 is stored in the database 312 as local content information, the local content information is displayed on the display screen together with the content information acquired from the search information providing server 200. It is possible. In this case, since the local content information also includes time information, the local content information is moved and displayed according to the reference time together with the content information. Therefore, the user can arrange and dynamically display a photograph acquired via the network and a photograph taken personally based on the same reference time.

更に、例えばネットワーク400上の歴史年表サイトにアクセスすることで得られた史実情報と、ネットワーク400を介して取得したコンテンツ情報、ユーザが個人的に取得したローカルコンテンツ情報を同時に表示しても良い。歴史年表サイトの史実情報には、史実情報に関する日付などの時刻情報が含まれるため、各コンテンツ情報とともに時系列に表示することが可能である。   Further, for example, historical information obtained by accessing a historical chronological site on the network 400, content information acquired via the network 400, and local content information acquired personally by the user may be displayed simultaneously. . Since the historical information of the historical chronological site includes time information such as dates related to historical information, it can be displayed in time series together with each content information.

図5は、本実施形態のシステムにおける処理手順を示すフローチャートである。先ず、ステップS1では、ユーザから検索条件が入力される。次のステップS2では、検索制御部302が検索条件データを記憶し、検索条件データを検索要求処理部304に送る。   FIG. 5 is a flowchart showing a processing procedure in the system of the present embodiment. First, in step S1, a search condition is input from the user. In the next step S <b> 2, the search control unit 302 stores the search condition data and sends the search condition data to the search request processing unit 304.

次のステップS3では、検索情報提供サーバ200から検索結果データであるコンテンツ情報を受け取り、検索結果データは検索処理部302に記憶される。次のステップS4では、検索制御部302が検索結果データを検索結果表示処理部308に送り、表示位置計算モジュール308aが検索結果データの表示位置データ309を計算する。次のステップS5では、表示位置データ309に従って検索結果データを表示部700の表示画面上に表示する。   In the next step S <b> 3, content information that is search result data is received from the search information providing server 200, and the search result data is stored in the search processing unit 302. In the next step S4, the search control unit 302 sends the search result data to the search result display processing unit 308, and the display position calculation module 308a calculates the display position data 309 of the search result data. In the next step S5, the search result data is displayed on the display screen of the display unit 700 in accordance with the display position data 309.

次のステップS6では、検索結果を画面で確認したユーザにより、検索結果の保存要求が行われたか否かを判定する。保存要求が行われた場合は、ステップS7へ進み、検索制御部302が検索条件データと検索結果データを検索結果保存部310に送る。一方、保存要求が行われなかった場合は、処理を終了する(RETURN)。   In the next step S6, it is determined whether or not a search result storage request has been made by the user who confirmed the search result on the screen. If a save request is made, the process proceeds to step S7, where the search control unit 302 sends the search condition data and the search result data to the search result storage unit 310. On the other hand, if a save request has not been made, the process ends (RETURN).

ステップS8では、検索結果保存部310が、検索結果データの内部に検索条件データを埋め込んで検索結果保存ファイル800を作成する。ステップS8の後は処理を終了する(RETURN)。   In step S8, the search result storage unit 310 creates the search result storage file 800 by embedding the search condition data in the search result data. After step S8, the process ends (RETURN).

図6は、検索結果データの内部に検索条件データが埋め込まれる様子を示す模式図である。図6に示すように、検索装置300のアプリケーションソフトにより、検索結果を保存したファイル(検索結果ファイル)の中に検索条件を構造化したメタデータが埋め込まれて、検索結果と検索条件が共に検索結果保存ファイル800として保存される。ここで保存されたファイルは、他のアプリケーションソフトでも読み込みが可能な一般的な形式であることが望ましい。アプリケーションソフトが検索結果保存ファイル800を読み込むと、検索結果データ、及び検索条件データが読み込まれ、再度検索を行うことなく図4に示す検索結果が直接的に再表示される。保存された検索結果保存ファイル800は、検索結果保存部310に格納することができ、また、磁気記録媒体などの外部記録媒体に記録することが可能である。また、検索装置300のデータベース312の中にブックマークとして保存することも可能である。   FIG. 6 is a schematic diagram showing how search condition data is embedded in search result data. As shown in FIG. 6, the application software of the search device 300 embeds metadata with the search conditions structured in a file (search result file) in which the search results are stored, and both the search results and the search conditions are searched. It is saved as a result saving file 800. The file saved here is preferably in a general format that can be read by other application software. When the application software reads the search result storage file 800, the search result data and the search condition data are read, and the search results shown in FIG. 4 are directly redisplayed without performing the search again. The stored search result storage file 800 can be stored in the search result storage unit 310 and can be recorded on an external recording medium such as a magnetic recording medium. Further, it can be stored as a bookmark in the database 312 of the search device 300.

図7は、検索結果データの内部に検索条件データを埋め込む具体例を示す模式図である。図7では、HTML文書の中に検索キーワードを埋め込んだ例を示している。図7(A)に示すように、検索結果はHTMLファイルとして作成され、HTMLファイルの中に図7(B)に示すコメントを埋め込むことで、アプリケーションがHTMLを読み込んだ際に検索条件データ(検索キーワード)を取得できる。他のアプリケーションソフトでもHTMLの部分は正常に読み込むことが可能である。   FIG. 7 is a schematic diagram showing a specific example in which search condition data is embedded in search result data. FIG. 7 shows an example in which a search keyword is embedded in an HTML document. As shown in FIG. 7A, the search result is created as an HTML file. By embedding the comment shown in FIG. 7B in the HTML file, the search condition data (search) is retrieved when the application reads the HTML. Keyword). Even with other application software, the HTML portion can be read normally.

図7(B)において、“<!-->”はHTMLでコメントを表現するものであり、“Marker”はこのコメントが検索条件を埋め込んでいることを示す目印である。また、“keyword”は、検索条件となるキーワードである。   In FIG. 7B, “<!->” Expresses a comment in HTML, and “Marker” is a mark indicating that this comment embeds a search condition. “Keyword” is a keyword that serves as a search condition.

図8は、検索結果データの内部に検索条件データを埋め込む他の具体例を示す模式図であって、検索結果キャプチャ画像に検索条件を埋め込んだ例を示している。図8(A)に示すように、検索結果は検索結果キャプチャ画像(JFIFファイル)として作成され、JFIF(JPEG)ファイルの中に図8(B)に示すコメントを埋め込むことで、アプリケーションソフトがJFIFファイルを読み込んだ際に検索条件を取得することができる。他のアプリケーションソフトでも、JFIFファイルのキャプチャ画像部分は正常に読み込むことができる。   FIG. 8 is a schematic diagram showing another specific example in which search condition data is embedded in search result data, and shows an example in which search conditions are embedded in a search result capture image. As shown in FIG. 8 (A), the search result is created as a search result capture image (JFIF file). By embedding the comment shown in FIG. 8 (B) in the JFIF (JPEG) file, the application software makes JFIF Search conditions can be acquired when a file is read. Even with other application software, the captured image part of the JFIF file can be read normally.

図8(B)において、“Marker”は、このコメントが検索条件を埋め込んでいることを表現する目印である。また、“conditions”は、検索条件を表しており、検索の種類(type)や検索キーワード(keyword)を埋め込んでいる。   In FIG. 8B, “Marker” is a mark representing that this comment embeds the search condition. “Conditions” represents a search condition, and includes a search type (type) and a search keyword (keyword).

図9は、表示位置計算モジュール308aで行われる処理を示すフローチャートであって、図5のステップS4,S5に対応する処理である。先ず、ステップS11では、時計520を動かし、時間軸方向に画面を移動する処理が行われる。次のステップS12では、検索サーバ200から取得したコンテンツ情報から時刻情報を取得し、次のステップS13では、表示位置データ309から参照時刻を取得する。   FIG. 9 is a flowchart showing processing performed in the display position calculation module 308a, and corresponds to steps S4 and S5 in FIG. First, in step S11, a process of moving the screen in the time axis direction by moving the timepiece 520 is performed. In the next step S12, time information is acquired from the content information acquired from the search server 200, and in the next step S13, a reference time is acquired from the display position data 309.

次のステップS14では、参照時刻とコンテンツの時刻情報からコンテンツ情報の表示位置を計算する。次のステップS15では、コンテンツ情報のタグ、キーワードと、ステップS14で算出されたコンテンツ情報の表示位置に基づいて、コンテンツ情報を表示画面に表示する。ステップS15の後は処理を終了する(RETURN)。   In the next step S14, the display position of the content information is calculated from the reference time and the time information of the content. In the next step S15, the content information is displayed on the display screen based on the tag and keyword of the content information and the display position of the content information calculated in step S14. After step S15, the process ends (RETURN).

図9の処理によれば、コンテンツ情報の時刻情報と、参照時刻とに基づいて、コンテンツ情報を表示画面上の所定位置に表示することが可能となる。そして、刻々と変化する参照時刻に応じて表示位置を変化させることで、図4で説明したように、時間軸方向にコンテンツ情報を移動させて表示することができる。   According to the process of FIG. 9, the content information can be displayed at a predetermined position on the display screen based on the time information of the content information and the reference time. Then, by changing the display position according to the reference time that changes every moment, the content information can be moved and displayed in the time axis direction as described with reference to FIG.

次に、検索結果の表示の詳細について説明する。先ず、時間推移速度の変更、時間推移の方向の逆転ついて説明する。上述したように、時計520が示す参照時刻は、所定の速さ(時間推移速度)で進む。本実施形態では、入力部600からの入力により、ユーザが時間推移速度を自由に変更することができる。   Next, details of search result display will be described. First, the change of the time transition speed and the reverse of the direction of the time transition will be described. As described above, the reference time indicated by the clock 520 advances at a predetermined speed (time transition speed). In the present embodiment, the user can freely change the time transition speed by an input from the input unit 600.

時間推移速度は、キーボードから速度を指定することで設定可能であるが、ユーザが入力部600のマウスを用いて所定の操作を行うことにより変更することも可能である。図4に示すように、時計520の下には、時間推移速度を変更するための矢印530が表示されている。矢印は、+X方向に向かう矢印530aと、−X方向に向かう矢印530bの2つに分かれており、ユーザは、矢印530a、矢印530bの一方をクリックして選択する。2つの矢印530a,530bは、ユーザがカーソルでドラッグすることにより、長さが可変される。   The time transition speed can be set by designating the speed from the keyboard, but can also be changed by the user performing a predetermined operation using the mouse of the input unit 600. As shown in FIG. 4, an arrow 530 for changing the time transition speed is displayed below the clock 520. The arrow is divided into an arrow 530a directed in the + X direction and an arrow 530b directed in the −X direction, and the user clicks and selects one of the arrow 530a and the arrow 530b. The lengths of the two arrows 530a and 530b are changed by the user dragging with the cursor.

ユーザが矢印530aをドラッグして矢印530aを長くすると、時間推移速度がより速くなり、時計520の示す参照時刻がより速い速度で進む。これにより、時計520の長針、短針の回転する速度が速くなり、表示画面上で矢印A方向への写真の移動速度もより速くなる。   When the user drags the arrow 530a and lengthens the arrow 530a, the time transition speed becomes faster and the reference time indicated by the clock 520 advances at a faster speed. As a result, the rotation speed of the long hand and the short hand of the timepiece 520 is increased, and the moving speed of the photo in the direction of arrow A on the display screen is also increased.

図10は、時間推移速度をより速くした場合を示す模式図である。ここで、図10(A)は、時間推移速度を図4と同一にした場合を示している。ユーザが矢印530aの長さをより長くし、時間推移速度が所定値よりも速くなると、図10(B)に示すように、時計520がカレンダー540に切り換わる。これにより、時間単位、分単位で推移していた時間が日単位で推移し、時間推移速度がより速くなる。   FIG. 10 is a schematic diagram showing a case where the time transition speed is further increased. Here, FIG. 10A shows a case where the time transition speed is the same as that in FIG. When the user makes the length of the arrow 530a longer and the time transition speed becomes faster than a predetermined value, the clock 520 is switched to the calendar 540 as shown in FIG. As a result, the time which has been changed in the hour unit and the minute unit changes in the day unit, and the time transition speed becomes faster.

図11は、時間推移の進む方向を逆転させた場合を示す模式図である。ここで、図11(A)では、時間推移の進む方向が図4と同一の方向に設定されている。ユーザが矢印530bをクリックすると、矢印530bが選択されて、今まで過去から未来へ推移していた時間推移の方向が、未来から過去の方向へ切り換わる。これにより、図11(B)に示すように、時計520の回転方向が反時計周りとなり、写真500〜508は、矢印B方向へ移動する。このように、時間推移方向を未来から過去の方向に切換えることで、中央のX=0の位置には、新しい写真から順に古い写真を表示することが可能となる。   FIG. 11 is a schematic diagram showing a case where the direction of time transition is reversed. Here, in FIG. 11A, the direction of time transition is set to the same direction as FIG. When the user clicks on the arrow 530b, the arrow 530b is selected, and the direction of time transition that has transitioned from the past to the future is switched from the future to the past. As a result, as shown in FIG. 11B, the rotation direction of the timepiece 520 is counterclockwise, and the photographs 500 to 508 move in the arrow B direction. In this way, by switching the time transition direction from the future to the past, it becomes possible to display the old photos in order from the newest photo at the central X = 0 position.

矢印530bを選択した場合においても、ドラッグにより矢印530bの長さを長くすると、時間推移速度が切り換わる。従って、矢印530bの長さを長くするほど、未来から過去の方向へ進む参照時刻の時間推移速度を速くすることができる。   Even when the arrow 530b is selected, if the length of the arrow 530b is increased by dragging, the time transition speed is switched. Therefore, the longer the length of the arrow 530b, the faster the time transition speed of the reference time that advances from the future toward the past.

また、時間推移速度を変更すると、背景に示されているX軸方向の時間スケールが変化する。図10(B)のように時計520を表示して時間推移速度を比較的低速に設定した場合は、背景画面の時間のスケール表示は1時間間隔であるが、図10(B)のようにカレンダー540を表示して時間推移速度を比較的高速にした場合は、背景画面の時間のスケール表示は1日間隔で表示される。このように、時間推移速度に応じてX軸方向の時間のスケールをより長い時間間隔に変更することで、表示画面上での写真500〜508の移動速度がある値以上とならないようにすることができ、表示画面上でのコンテンツ情報の視認性を向上できる。また、時間推移速度に応じてX軸方向の時間のスケールをより長い時間間隔に変更することで、より多くのデータを表示画面上に表示することができる。   When the time transition speed is changed, the time scale in the X-axis direction shown in the background changes. When the clock 520 is displayed as shown in FIG. 10B and the time transition speed is set to a relatively low speed, the time scale display of the background screen is 1 hour interval, but as shown in FIG. 10B. When the calendar 540 is displayed and the time transition speed is relatively high, the time scale display on the background screen is displayed at intervals of one day. In this way, by changing the time scale in the X-axis direction to a longer time interval according to the time transition speed, the moving speed of the photos 500 to 508 on the display screen should not exceed a certain value. And the visibility of the content information on the display screen can be improved. Also, by changing the time scale in the X-axis direction to a longer time interval according to the time transition speed, more data can be displayed on the display screen.

この他、参照時刻の推移は、ユーザがカーソル556で背景画面をドラッグして+X方向または−X方向に移動させることにより任意に行うことができる。   In addition, the transition of the reference time can be arbitrarily performed by the user dragging the background screen with the cursor 556 and moving it in the + X direction or the −X direction.

以上のような表示条件の変更は、ユーザが入力部600のキーボード、マウスを操作して表示条件データを変更することで実行することが可能である。表示位置計算モジュール308aは、入力された表示条件データに基づいて表示位置データ309を変更または新たに作成する。   The change of the display condition as described above can be executed by the user operating the keyboard and mouse of the input unit 600 to change the display condition data. The display position calculation module 308a changes or newly creates the display position data 309 based on the input display condition data.

次に、本実施形態のシステムのより具体的な構成について説明する。図12は、コンテンツ情報に関連する情報の詳細を示す図である。図12に示すように、コンテンツ情報には、ユーザ情報、画像情報、アルバム情報、タグ情報、コメント情報などの各種関連情報が紐付けられている。検索情報提供サーバ200のデータベース202には、コンテンツ情報とともに、これらの関連情報が格納されている。   Next, a more specific configuration of the system according to the present embodiment will be described. FIG. 12 is a diagram showing details of information related to content information. As shown in FIG. 12, the content information is associated with various related information such as user information, image information, album information, tag information, and comment information. The database 202 of the search information providing server 200 stores the related information as well as the content information.

図13は、検索装置300がコンテンツ情報及び関連情報を取得する処理を示すフローチャートである。先ずステップS21では、検索装置300から検索時間を指定した状態で検索要求が出され、ステップS22において、検索条件に適合するコンテンツ情報が検索装置300に取得される。ここでは、コンテンツID、オーナーID、撮影日時、タイトルなどの情報が検索装置300に取得されるものとする。コンテンツIDはコンテンツ情報のIDを示しており、オーナーIDは、コンテンツ情報を所有するオーナーのIDを示している。   FIG. 13 is a flowchart illustrating processing in which the search device 300 acquires content information and related information. First, in step S21, a search request is issued from the search device 300 with a search time specified, and in step S22, content information that meets the search conditions is acquired by the search device 300. Here, it is assumed that information such as a content ID, owner ID, shooting date / time, and title is acquired by the search device 300. The content ID indicates the ID of the content information, and the owner ID indicates the ID of the owner who owns the content information.

次のステップS23では、コンテンツIDに基づいて、検索装置300からコンテンツ情報のうちの基本情報の取得が要求される。次のステップS24では、コンテンツ情報のうち、オーナーのユーザID、オーナの名前、画像ページURLなどの基本情報がデータベース202から抽出され、検索装置300に取得される。   In the next step S <b> 23, acquisition of basic information of the content information is requested from the search device 300 based on the content ID. In the next step S 24, basic information such as the owner's user ID, owner name, and image page URL is extracted from the database 202 and acquired by the search device 300.

次のステップS25では、コンテンツIDに基づいて、検索装置300から画像情報のうち、小(SMALL)、中(MEDIUM)、大(LARGE)の画像情報の取得が要求され、次のステップS26では、データベース202から抽出された小(SMALL)、中(MEDIUM)、大(LARGE)の3サイズの画像情報が検索装置300に取得される。ここで、小(SMALL)、中(MEDIUM)、大(LARGE)の画像情報は、同一画像でデータ量の異なる画像情報である。   In the next step S25, based on the content ID, the retrieval device 300 requests acquisition of small, medium, and large image information from the image information. In the next step S26, Image information of three sizes of small (SMALL), medium (MEDIUM), and large (LARGE) extracted from the database 202 is acquired by the search device 300. Here, the small (SMALL), medium (MEDIUM), and large (LARGE) image information is image information having the same image but different data amount.

同様にして、ステップS27,S28では、タグリンクが検索装置300に取得され、ステップS29,S30では、アルバムリンクが検索装置300に取得される。また、ステップS31,S32では、ユーザリンクが検索装置300に取得され、ステップS33,S34では、コメントが検索装置300に取得される。   Similarly, the tag link is acquired by the search device 300 in steps S27 and S28, and the album link is acquired by the search device 300 in steps S29 and S30. In steps S31 and S32, a user link is acquired by the search device 300, and in steps S33 and S34, a comment is acquired by the search device 300.

図14は、検索時間指定範囲に応じて行われる検索の処理を示すフローチャートである。検索は、コンテンツグループ毎に行われる。コンテンツ情報提供サーバ200のデータベース202には、過去から現在までの時刻情報が付された膨大なコンテンツ情報が蓄積されているため、コンテンツグループ毎に検索を行うことで、検索にかかる負荷を低減できる。   FIG. 14 is a flowchart showing search processing performed in accordance with the search time designation range. The search is performed for each content group. The database 202 of the content information providing server 200 stores a large amount of content information with time information from the past to the present, so that the search load can be reduced by performing a search for each content group. .

また、20秒を検索の基準時間とし、20秒間で進む領域と、1年間分の大きい領域を検索領域とする。検索を行うか否かの判定は、図14に示すルールに基づいて行う。先ず
、ステップS101では、最新の検索済み領域と、これから行いたい検索領域のAND領域をとる。本実施形態のアプリケーションソフトウェアでは、時間軸をもとに検索を行うため、検索領域とは、どの時間からどの時間までを検索の対象とするかを示している。検索情報提供サーバ200が提供する情報に対して、検索領域をパラメータとして指定することが可能である。
Further, 20 seconds is set as a reference time for search, and an area that progresses in 20 seconds and a large area for one year are set as search areas. The determination as to whether or not to perform the search is performed based on the rules shown in FIG. First, in step S101, the latest searched area and the AND area of the search area to be performed are taken. In the application software of the present embodiment, the search is performed based on the time axis, so the search area indicates from which time to which time the search target is set. A search area can be designated as a parameter for information provided by the search information providing server 200.

ここで、最新の検索済み領域とは、最後にコンテンツサービスに対して検索要求を行った際に指定した時間帯を指す。また、本実施形態のアプリケーションソフトウェアは、ある一定時間毎に新たな検索を行うか否かのチェックをしており、新たに検索を行うか否かのチェックは、以下の2つの要素から決定される。
(1)アプリケーションの画面の参照時刻と、表示スケール、時間推移の方向、時間推移速度
(2)最新の検索済み領域
ここで、「これから行いたい検索領域」は、上記(1)の各要素から割り出されるものである。
Here, the latest searched area indicates a time zone designated when a search request is last made to the content service. In addition, the application software of this embodiment checks whether or not a new search is performed every certain time, and whether or not to perform a new search is determined from the following two factors. The
(1) Application screen reference time, display scale, time transition direction, time transition speed (2) Latest searched area Here, the “search area to be performed” is determined from each element of (1) above. It is to be determined.

次のステップS102では、ステップS101で設定したAND領域が無効(NULL)であるか否かを判定し、無効でない場合は、ステップS103へ進み、検索を実行する。ここで、無効でない場合とは、これから行いたい検索領域と最新の検索済み領域がオーバーラップしている状態を指す。   In the next step S102, it is determined whether or not the AND area set in step S101 is invalid (NULL). If not invalid, the process proceeds to step S103, and a search is executed. Here, the case where it is not invalid indicates a state where the search area to be performed and the latest searched area overlap each other.

一方、ステップS102でAND領域が無効の場合は、ステップS104へ進む。この場合は、例えば最新の検索済み領域が2006/1/1/0:00〜2007/2/2/2:22であり、これから行いたい検索領域が2004/1/1/0:00〜2005/10/30/10:30である場合など、最新の検索済み領域とこれから行いたい検索領域とがオーバーラップしていない状態である。   On the other hand, if the AND area is invalid in step S102, the process proceeds to step S104. In this case, for example, the latest searched area is 2006/1/1/0: 00 to 2007/2/2/2: 22, and the search area to be performed is 2004/1/1/0: 00 to 2005. In the case of / 10/30/10: 30, the latest searched area does not overlap with the search area to be performed.

なお、これから行いたい検索領域と最新の検索済み領域のそれぞれの時間帯は、必ずしも同じ大きさにはならない。これは、これから行いたい検索領域が、表示スケール、時間推移の方向、時間推移速度等によって決定されるためである。   Note that the time zones of the search area to be performed and the latest searched area are not necessarily the same size. This is because the search area to be performed is determined by the display scale, the direction of time transition, the time transition speed, and the like.

ステップS104では、AND領域が最新の検索済み領域であるか否かを判定する。ステップS104でAND領域が最新の検索済み領域である場合は、ステップS105へ進み、拡大率が300%以上であれば検索を実行する。ここで、拡大率300%とは、これから行いたい検索領域の時間幅が最新の検索済み領域の時間幅の3倍であることを意味しており、例えばユーザが参照時刻の表示を日表示から月表示に切換えた場合などに発生する。   In step S104, it is determined whether the AND area is the latest searched area. If the AND area is the latest searched area in step S104, the process proceeds to step S105, and if the enlargement ratio is 300% or more, the search is executed. Here, the enlargement rate of 300% means that the time width of the search area desired to be performed is three times the time width of the latest searched area. For example, the user can display the reference time from the day display. Occurs when switching to month display.

ステップS104でAND領域が最新の検索済み領域でない場合は、ステップS106へ進み、AND領域がこれから行いたい検索領域であるか否かを判定する。ステップS106でAND領域がこれから行いたい検索領域の場合は、ステップS107へ進み、拡大率が30%未満であれば検索を実行する。ここでは、これから行いたい検索領域の時間幅が最新の検索済み領域の時間幅の30%未満であれば検索を実行する。拡大率30%未満の状態は、例えばユーザが参照時刻の表示を年表示から月表示に切換えた場合などに発生する。   If it is determined in step S104 that the AND area is not the latest searched area, the process proceeds to step S106, and it is determined whether the AND area is a search area to be performed. If the AND area is the search area to be performed in step S106, the process proceeds to step S107, and if the enlargement ratio is less than 30%, the search is executed. Here, if the time width of the search area to be performed is less than 30% of the time width of the latest searched area, the search is executed. The state where the enlargement rate is less than 30% occurs, for example, when the user switches the display of the reference time from the year display to the month display.

ステップS106でAND領域がこれから行いたい検索領域でない場合は、ステップS108へ進む。ステップS108では、これから行いたい検索領域の時間幅と最新の検索済み領域の時間幅とのオーバーラップ領域が20%以下であれば検索を実行する。ステップS103,S105,S107,S108の後は処理を終了する(RETURN)。   If it is determined in step S106 that the AND area is not the search area to be performed, the process proceeds to step S108. In step S108, if the overlap area between the time width of the search area to be performed and the time width of the latest searched area is 20% or less, the search is executed. After steps S103, S105, S107, and S108, the process ends (RETURN).

図15は、検索要求処理部304に構成されるデータ取得モジュールの概要を示す模式図である。インターネットを介して接続されたコンテンツ提供サービスが複数存在する場合、コンテンツ情報提供サーバ200が複数存在する。この場合、複数のコンテンツ情報提供サーバ200から情報を取得するためには、優先度を設定して優先度を調停する必要がある。データ取得モジュールは、各コンテンツ提供サービスごとに優先度調停スレッドとN個の処理担当スレッドから構成されている。   FIG. 15 is a schematic diagram showing an outline of a data acquisition module configured in the search request processing unit 304. When there are a plurality of content providing services connected via the Internet, there are a plurality of content information providing servers 200. In this case, in order to acquire information from the plurality of content information providing servers 200, it is necessary to set priority and arbitrate the priority. The data acquisition module includes a priority arbitration thread and N processing threads for each content providing service.

図15に示すように、検索要求処理部304において、検索情報提供サーバ200に対して、図13のフローチャートで説明したようなコンテンツ情報要求、検索要求、LARGE画像取得要求などの各種要求が出され、これらの要求はデータ取得モジュールのリクエストキューに溜められる。   As shown in FIG. 15, the search request processing unit 304 issues various requests such as a content information request, a search request, and a LARGE image acquisition request as described in the flowchart of FIG. 13 to the search information providing server 200. These requests are stored in the request queue of the data acquisition module.

図15に示すように、データ取得モジュールは、優先度調停スレッドとN個の処理担当スレッドを備えている。処理担当スレッドに空きができた時点で、優先度調停スレッドは、リクエストキューに溜まっているリクエストから、優先度付けに従って、処理担当スレッドにアサインするリクエストを決定する。   As shown in FIG. 15, the data acquisition module includes a priority arbitration thread and N processing threads. When the processing thread becomes available, the priority arbitration thread determines a request to be assigned to the processing thread from the requests accumulated in the request queue according to the prioritization.

図16は、情報取得の際の優先度処理を示す模式図である。現在の表示領域や拡大画像表示時などの処理をスムーズに行うために、情報取得要求をデータ取得モジュール内で4つにグルーピングし、優先度が高い順に処理が実行される。ここでグルーピングされるグループは、LARGE画像取得処理、検索処理、名前やランキングの取得処理、コンテンツ情報取得処理の4つであり、この順に優先度が高く設定される。なお、ここでの優先度の順位付けは一例を示しており、優先度の順位付けは図16に示す以外にも任意に設定することができる。   FIG. 16 is a schematic diagram showing the priority processing at the time of information acquisition. In order to smoothly perform processing such as displaying the current display area and an enlarged image, information acquisition requests are grouped into four in the data acquisition module, and processing is executed in descending order of priority. There are four groups to be grouped here: large image acquisition processing, search processing, name and ranking acquisition processing, and content information acquisition processing, and the priority is set higher in this order. Note that the priority ranking here is an example, and the priority ranking can be arbitrarily set other than that shown in FIG.

コンテンツ情報の取得に関しては、更に優先度付け処理が行われる。図17は、コンテンツ情報取得の優先度処理を示す模式図であって、図17(A)は要求内容毎の重み付け値、図17(B)はフィルタ関数の例、を示している。優先付け処理は、これらの重み付け値とフィルタ関数とからスコア(得点)を算出し、得点の高いものから優先的に処理をい行う。スコアは以下の式によって算出される。
スコア=(要求内容毎の重み付け値)×(参照時刻からの時間差から得られたフィルタ出力値)
図17(B)に示すように、現在表示している中心の時刻(参照時刻)よりもn秒後の時刻で最もフィルタ関数の値が大きくなり、優先度が高く設定される。従って、時刻が過去から未来に推移している場合は、現在表示されている参照時刻からn秒後にX=0の位置に表示される表示内容に対して、フィルタ出力値を大きくすることができる。
A prioritization process is further performed regarding the acquisition of content information. FIG. 17 is a schematic diagram showing priority processing for content information acquisition, where FIG. 17A shows a weight value for each request content, and FIG. 17B shows an example of a filter function. In the prioritization process, a score (score) is calculated from these weighting values and the filter function, and processing is performed preferentially in descending order of score. The score is calculated by the following formula.
Score = (weight value for each request content) × (filter output value obtained from time difference from reference time)
As shown in FIG. 17B, the value of the filter function becomes the largest at the time n seconds after the currently displayed center time (reference time), and the priority is set high. Therefore, when the time changes from the past to the future, the filter output value can be increased with respect to the display content displayed at the position of X = 0 n seconds after the currently displayed reference time. .

重み付け値やフィルタ関数は、画面状況や処理状況に応じて動的に可変することが可能である。これにより、画像の表示と各リンク、コメントなどを適切なタイミングで取得することが可能となる。従って、図13の処理により、コンテンツ情報及び関連情報を取得する際に、優先度に応じて各種情報を適切なタイミングで取得することが可能となる。   The weighting value and the filter function can be dynamically changed according to the screen status and the processing status. Thereby, it is possible to acquire an image display, each link, a comment, and the like at an appropriate timing. Therefore, when the content information and the related information are acquired by the processing of FIG. 13, various information can be acquired at an appropriate timing according to the priority.

次に、図18〜図20に基づいて、コンテンツ情報が写真の情報である場合に、図13の処理によって取得された各種情報の表示について説明する。通常の表示状態では、写真550はサムネールの状態で表示され、最も小さい小(SMALL)サイズで表示される。一方、図18に示すように、写真が画面中央のX=0の位置に到達すると、写真が拡大表示され、最も大きい大(LARGE)サイズ552で表示される。   Next, display of various types of information acquired by the processing of FIG. 13 when the content information is photo information will be described with reference to FIGS. In a normal display state, the photograph 550 is displayed in a thumbnail state, and is displayed in the smallest SMALL size. On the other hand, as shown in FIG. 18, when the photograph reaches the position of X = 0 in the center of the screen, the photograph is enlarged and displayed with the largest large size 552.

また、図19に示すように、写真550がX=0の位置以外に位置する場合であっても、カーソル556の位置と写真550の位置を重ねると、写真550を拡大表示することができる。この場合、写真は中(MEDIAM)サイズ504で表示される。   Further, as shown in FIG. 19, even when the photograph 550 is located at a position other than the position X = 0, the photograph 550 can be enlarged and displayed by overlapping the position of the cursor 556 and the position of the photograph 550. In this case, the photograph is displayed in the medium (MEDIAM) size 504.

また、図19に示すように、カーソル556と写真550を重ねると、その写真に関する各種情報が記載された情報欄558が表示される。図20は、情報欄558を詳細に示す模式図である。図20に示すように、表示欄558には、例えば、画像データのURL、ユーザ、アルバム名、関係するタグ、コメントなどの情報が表示され、これらの各欄をクリックすると、クリックした情報の詳細を見ることができる。   As shown in FIG. 19, when the cursor 556 and the photograph 550 are overlapped, an information column 558 in which various information related to the photograph is described is displayed. FIG. 20 is a schematic diagram showing the information column 558 in detail. As shown in FIG. 20, in the display column 558, for example, information such as URL of image data, user, album name, related tags, comments, etc. are displayed. Clicking on these columns shows details of the clicked information. Can see.

例えば、情報欄558のURLをクリックすると、コンテンツ情報である写真の提供元のウェブが表示される。従って、ユーザは、写真の詳細なデータをURLから取得することが可能である。この処理は、検索制御部302が検索要求部304を介して写真の提供元のURLにアクセスすることによって行われる。また、情報欄558のタグの欄をクリックすることで、カーソル556で指定した写真504に関連する他のタグ、キーワードの一覧が表示される。そして、一覧表示された他のタグ、キーワードの1つを選択すると、選択したタグ、キーワードに基づいて検索が行われ、そのタグ、キーワードに関連する写真を新たに検索情報提供装置200から受け取り、表示することができる。   For example, when the URL in the information column 558 is clicked, the web of the photo provider that is the content information is displayed. Therefore, the user can acquire detailed data of the photograph from the URL. This process is performed when the search control unit 302 accesses the URL of the photo provider via the search request unit 304. In addition, by clicking a tag column in the information column 558, a list of other tags and keywords related to the photo 504 designated by the cursor 556 is displayed. Then, when one of the other tags and keywords displayed in the list is selected, a search is performed based on the selected tag and keyword, and a photo associated with the tag and keyword is newly received from the search information providing apparatus 200. Can be displayed.

次に、本実施形態において、写真の画像データの量に応じて時間推移速度を変更するオートクルーズ機能について説明する。図21は、表示部700の画面表示範囲700aに対して、配列されたコンテンツが順次に表示される様子を示している。時間軸に沿ってコンテンツ情報(写真500)を配置すると、検索結果によっては、図21に示すように、コンテンツが密集して配置される場所と、コンテンツの存在しない空間の双方が発生する。この状態では、コンテンツが密集している場所では、写真に重なりが生じてしまい、時間軸方向に流れる写真の全てをユーザが詳細に視認することが難しくなる。一方、コンテンツが存在しない空間では、画面表示範囲700aに一時的にコンテンツが全く表示されない事態が生じ得る。   Next, an auto-cruise function for changing the time transition speed according to the amount of photo image data in this embodiment will be described. FIG. 21 shows a state in which the arranged contents are sequentially displayed with respect to the screen display range 700a of the display unit 700. When content information (photo 500) is arranged along the time axis, depending on the search result, as shown in FIG. 21, both a place where contents are densely arranged and a space where no content exists are generated. In this state, where the contents are dense, the photographs are overlapped, and it is difficult for the user to visually recognize all the photographs flowing in the time axis direction in detail. On the other hand, in a space where no content exists, a situation may occur in which no content is temporarily displayed in the screen display range 700a.

このため、検索結果表示処理部308の表示位置計算モジュール308aは、コンテンツ情報の表示位置を自動的に調整するオートクルーズ機能を備えている。このオートクルーズ機能では、コンテンツの存在しない空間がある場合は、時間推移速度を速くして、次のコンテンツが早く画面表示範囲700a内に現れるように制御を行う。また、コンテンツが密集する場所では、時間推移速度を遅くして、密集している写真をユーザが認識し易いように調整する。   For this reason, the display position calculation module 308a of the search result display processing unit 308 has an auto-cruise function that automatically adjusts the display position of the content information. In this auto-cruise function, when there is a space where no content exists, the time transition speed is increased, and control is performed so that the next content appears in the screen display range 700a quickly. In a place where contents are dense, the time transition speed is slowed down so that the user can easily recognize dense photographs.

図22は、表示位置計算モジュール308aと各コンテンツ情報、表示位置データ309、表示部700の表示位置との関係を示す模式図である。表示位置計算モジュール308aは、コンテンツと現在の表示位置に基づいて、表示の密集又は空間が生じないように、次の時刻の表示位置データ309を計算し、表示部700へ送る。   FIG. 22 is a schematic diagram showing the relationship between the display position calculation module 308a, each piece of content information, display position data 309, and the display position of the display unit 700. The display position calculation module 308a calculates display position data 309 at the next time based on the content and the current display position, and sends the display position data 309 at the next time to the display unit 700.

図23は、オートクルーズ機能の処理の全体の流れを示すフローチャートである。先ず、ステップS41では、時間軸方向の時間推移速度を決定する処理が行われる。次のステップS42では、時間軸方向の表示範囲(表示スケール)を決定する処理が行われる。次のステップS43では、ステップS42,S43で決定した軸の表示速度、表示範囲に基づいて、描画処理が行われる。ステップS42、ステップS43の処理は、後述するように、コンテンツの密集状態、又はコンテンツが存在しない空間の状態に応じて決定される。ステップS43の後は、処理を一旦終了する(RETURN)。図23の処理は、一定時間間隔で繰り返し行われる。   FIG. 23 is a flowchart showing an overall flow of processing of the auto-cruise function. First, in step S41, processing for determining a time transition speed in the time axis direction is performed. In the next step S42, processing for determining a display range (display scale) in the time axis direction is performed. In the next step S43, a drawing process is performed based on the display speed and display range of the axes determined in steps S42 and S43. As will be described later, the processing in step S42 and step S43 is determined according to the dense state of the content or the state of the space where no content exists. After step S43, the process is temporarily ended (RETURN). The process in FIG. 23 is repeatedly performed at regular time intervals.

図24は、図23のステップS42の処理を詳細に示すフローチャートである。先ず、ステップS51では、速度変更対象のコンテンツが表示画面の中心に位置しているか否かを判定する。表示画面の中心にコンテンツが位置している場合は、速度変更を行うとコンテンツが見にくくなるため、時間軸の速度を通常の速度にする処理を行う。すなわち、この場合は、ステップS52へ進み、軸の速度を1倍速に変更する処理を行う。   FIG. 24 is a flowchart showing in detail the process of step S42 of FIG. First, in step S51, it is determined whether or not the speed change target content is located at the center of the display screen. When the content is located at the center of the display screen, it is difficult to see the content if the speed is changed. That is, in this case, the process proceeds to step S52, and a process of changing the shaft speed to 1 × speed is performed.

一方、ステップS51で表示画面の中心にコンテンツが位置していない場合は、コンテンツが存在しない空間が表示画面の中心に位置しているため、ステップS53へ進み、軸の速度を加速する処理を行う。ここで、ステップS53の加速処理により加速した後の速度を仮速度とすると、仮速度は例えば以下の式から算出される。
仮速度v=現在の速度×加速係数
滑らかに加速させる場合は、v=eatとする。
On the other hand, if the content is not located at the center of the display screen in step S51, the space where the content does not exist is located at the center of the display screen. . Here, assuming that the speed after acceleration by the acceleration process in step S53 is a temporary speed, the temporary speed is calculated from the following equation, for example.
Temporary speed v = current speed × acceleration coefficient When smoothly accelerating, v = e at .

次のステップS54では、ステップS53で決定した仮速度が許容速度を超えているか否かを判定し、仮速度が許容速度を超えている場合は、ステップS55へ進む。ステップS55では、仮速度を許容速度まで減らす処理を行う。許容速度は、例えば以下の式から算出される。
許容速度=(加速係数×直近コンテンツまでの距離)+1
許容速度を上記のように設定することで、滑らかに減速し、直近コンテンツが表示画面の中心に辿り着いた時に許容速度が1倍速となる。減速時の変化は、v=e−atとする。一方、ステップS4で仮速度が許容速度を超えていない場合は、ステップS56へ進む。
In the next step S54, it is determined whether or not the temporary speed determined in step S53 exceeds the allowable speed. If the temporary speed exceeds the allowable speed, the process proceeds to step S55. In step S55, a process of reducing the temporary speed to an allowable speed is performed. The allowable speed is calculated from the following equation, for example.
Allowable speed = (acceleration coefficient x distance to the nearest content) + 1
By setting the permissible speed as described above, the speed is smoothly decelerated, and the permissible speed becomes 1 × when the latest content reaches the center of the display screen. The change during deceleration is v = e− at . On the other hand, if the provisional speed does not exceed the allowable speed in step S4, the process proceeds to step S56.

ステップS55の後はステップS56へ進む。ステップS56では、時間軸の速度を仮速度に変更する処理を行う。ステップS56の後は処理を終了する(RETURN)。   After step S55, the process proceeds to step S56. In step S56, the time axis speed is changed to a temporary speed. After step S56, the process ends (RETURN).

以上のように、図24の処理によれば、コンテンツが表示画面の中心に存在する場合は、時間軸の速度が1倍速とされる。また、コンテンツが表示画面の中心に存在しない場合は、軸の移動速度が加速され、コンテンツが表示画面の中心に近づくと、軸の速度が1倍速に設定される。従って、コンテンツが表示画面の中心に近づくほど、速度を遅くし、コンテンツが表示画面の中心から離れるほど、速度を速くする処理が可能となる。   As described above, according to the processing in FIG. 24, when the content is present at the center of the display screen, the time axis speed is set to 1 × speed. When the content does not exist at the center of the display screen, the moving speed of the axis is accelerated, and when the content approaches the center of the display screen, the speed of the axis is set to 1 × speed. Accordingly, it is possible to perform a process of decreasing the speed as the content approaches the center of the display screen, and increasing the speed as the content moves away from the center of the display screen.

図25は、速度に応じて表示範囲(表示スケール)を広げる処理を示すフローチャートである。先ず、ステップS61では、図24の処理によって時間推移速度を設定する。次のステップS62では、速度が所定のしきい値を超えているか否かを判定し、所定のしきい値を超えている場合は、ステップS63へ進む。ステップS63では、表示範囲を広げる処理を行う。ステップS63の後は処理を終了する(RETURN)。   FIG. 25 is a flowchart showing a process of expanding the display range (display scale) according to the speed. First, in step S61, the time transition speed is set by the process of FIG. In the next step S62, it is determined whether or not the speed exceeds a predetermined threshold value. If the speed exceeds the predetermined threshold value, the process proceeds to step S63. In step S63, processing for expanding the display range is performed. After step S63, the process ends (RETURN).

上述したように、オートクルーズ機能を用いない場合においても、ユーザが設定した時間推移速度が所定のしきい値を超えた場合は、表示範囲を広げる処理が行われる。従って、図25の処理は、オートクルーズ機能を用いない場合も常時行われる。   As described above, even when the auto-cruise function is not used, if the time transition speed set by the user exceeds a predetermined threshold value, a process for expanding the display range is performed. Therefore, the process of FIG. 25 is always performed even when the auto-cruise function is not used.

図26は、時間軸方向の表示範囲を決定する処理を示すフローチャートである。先ず、ステップS71では、X=0の位置に対して直近のコンテンツと、そのコンテンツに対して時間軸方向の前後に位置するコンテンツの位置から、最適な表示範囲を計算して、表示範囲候補とする。   FIG. 26 is a flowchart illustrating processing for determining a display range in the time axis direction. First, in step S71, an optimal display range is calculated from the content nearest to the position of X = 0 and the position of the content positioned before and after the content in the time axis direction. To do.

次のステップS72では、直近のコンテンツが表示画面の中央に近づくか否かを判定し、表示画面の中央に近づく場合は、ステップS73へ進む。一方、直近のコンテンツが表示画面の中央に近づかない場合は、ステップS74へ進み、直近のコンテンツが中央に近づく程度に表示範囲候補を大きくする。ステップS74の後はステップS73へ進む。   In the next step S72, it is determined whether or not the most recent content approaches the center of the display screen. If it approaches the center of the display screen, the process proceeds to step S73. On the other hand, if the latest content does not approach the center of the display screen, the process proceeds to step S74, and the display range candidate is increased to the extent that the latest content approaches the center. After step S74, the process proceeds to step S73.

ステップS73では、速度が所定のしきい値よりも大きいか否かを判定し、所定のしきい値よりも大きい場合はステップS75へ進む。ステップS75では、速度が速すぎない程度に表示範囲候補を大きくする。   In step S73, it is determined whether or not the speed is higher than a predetermined threshold value. If the speed is higher than the predetermined threshold value, the process proceeds to step S75. In step S75, the display range candidate is enlarged so that the speed is not too high.

一方、ステップS73で速度が所定値以下の場合は、ステップS76へ進み、表示範囲候補を表示範囲として確定する。ステップS76の後は処理を終了する(RETURN)。   On the other hand, if the speed is equal to or lower than the predetermined value in step S73, the process proceeds to step S76, and the display range candidate is determined as the display range. After step S76, the process ends (RETURN).

図26の処理によれば、表示画面上でコンテンツ情報が密集している場合は、表示範囲を広くするため、コンテンツの密集を抑えることが可能となる。これにより、表示画面上でのコンテンツ情報の密集を抑えることができ、コンテンツの認識を良好に行うことが可能となる。   According to the processing of FIG. 26, when the content information is dense on the display screen, the display range is widened, so that the crowding of the content can be suppressed. Thereby, it is possible to suppress crowding of content information on the display screen, and it is possible to perform content recognition well.

表示位置計算モジュール308aでは、オートクルーズ機能により時間推移速度または表示範囲が変更された場合は、表示位置データ309を変更または新たに作成し、表示位置データ309に基づいて表示部600における表示を行う。   In the display position calculation module 308a, when the time transition speed or the display range is changed by the auto-cruise function, the display position data 309 is changed or newly created, and the display unit 600 performs display based on the display position data 309. .

以上説明したように第1の実施形態によれば、検索サーバ300から取得したコンテンツを時間に基づいて配列し、時間の流れに沿って表示部700の表示画面上に移動させることが可能となる。従って、ユーザは、コンテンツが移動する流れを時間の流れに沿って認識することができ、コンテンツの認識を確実に行うことが可能となる。   As described above, according to the first embodiment, the content acquired from the search server 300 can be arranged based on time and moved on the display screen of the display unit 700 along the time flow. . Therefore, the user can recognize the flow of moving content along the flow of time, and can surely recognize the content.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。第2の実施形態の基本的なシステム構成は、図1に示した第1の実施形態のシステムと同様である。第1の実施形態では、コンテンツ情報をX軸、Y軸の2次元的な平面で表示したが、第2の実施形態は、X軸、Y軸に加えてZ軸を用いて3次元的に表示することにより、コンテンツ情報の表示の利便性をより向上させたものである。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. The basic system configuration of the second embodiment is the same as the system of the first embodiment shown in FIG. In the first embodiment, the content information is displayed on a two-dimensional plane of the X axis and the Y axis. However, in the second embodiment, the Z axis is used in three dimensions in addition to the X axis and the Y axis. By displaying, the convenience of displaying the content information is further improved.

図27は、第2の実施形態における表示画面の一例を示す模式図である。ここで、図27(A)は、コンテンツ情報とZ軸方向の位置との関係を示しており、図27(B)は実際の表示画面を示している。図2で説明したように、コンテンツが有するメタデータには、コンテンツ情報が取得された位置の情報が含まれている。図27の例では、第1の実施形態と同様に、X軸を時間軸方向とし、Y軸をタグの配列方向としている。そして、第2の実施形態では、コンテンツ情報の位置情報に基づいて、各コンテンツ情報のZ軸方向の位置を定めている。   FIG. 27 is a schematic diagram illustrating an example of a display screen according to the second embodiment. Here, FIG. 27A shows the relationship between the content information and the position in the Z-axis direction, and FIG. 27B shows the actual display screen. As described with reference to FIG. 2, the metadata included in the content includes information on the position where the content information is acquired. In the example of FIG. 27, as in the first embodiment, the X axis is the time axis direction and the Y axis is the tag arrangement direction. And in 2nd Embodiment, the position of the Z-axis direction of each content information is defined based on the positional information on content information.

図27の例では、コンテンツ情報として写真が表示され、東京、沖縄、アメリカで撮影された複数の写真が表示される。ここで、表示画面から奥へ向かう方向を+Z方向とすると、図27(A)に示すように、現在のユーザの位置と撮影場所との距離に応じて、各写真のZ座標が決定され、Z座標に応じて写真が表示される大きさが決定される。なお、現在のユーザの位置は、入力部600からユーザにより入力され、表示位置データ309のデータに含まれる。   In the example of FIG. 27, a photograph is displayed as the content information, and a plurality of photographs taken in Tokyo, Okinawa, and the United States are displayed. Here, assuming that the direction from the display screen to the back is the + Z direction, as shown in FIG. 27A, the Z coordinate of each photo is determined according to the distance between the current user position and the shooting location. The display size of the photograph is determined according to the Z coordinate. Note that the current user position is input by the user from the input unit 600 and is included in the data of the display position data 309.

ここで、ユーザが東京に位置しているとすると、図27(A)に示すように、東京で撮影された写真は、撮影場所がユーザの現在位置に最も近いため、表示画面の最も手前側に配置される。また、アメリカで撮影された写真は、撮影場所が最も遠いため、表示画面の最も奥側に配置される。そして、沖縄で撮影された写真は東京で撮影された写真とアメリカで撮影された写真の中間に配置される。   Here, assuming that the user is located in Tokyo, as shown in FIG. 27A, the photograph taken in Tokyo is closest to the current position of the user, so the foreground of the display screen is the closest to the display screen. Placed in. In addition, since a photograph taken in the United States is farthest away, it is arranged on the farthest side of the display screen. The photos taken in Okinawa are placed between the photos taken in Tokyo and the United States.

図27(B)は、このようにしてZ軸方向の位置が規定された写真の表示画面を示す模式図である。東京で撮影された写真は、画面上で最も手前側に配置され、他の写真よりも拡大して表示される。一方、アメリカで撮影された写真は、画面上で最も奥側に配置されていることを示すため、他の写真よりも縮小して表示される。そして、沖縄で撮影された写真は、東京の写真とアメリカの写真の中間の大きさで表示される。   FIG. 27B is a schematic diagram showing a photo display screen in which the position in the Z-axis direction is defined in this way. Photos taken in Tokyo are placed on the foreground on the screen and are displayed larger than other photos. On the other hand, photographs taken in the United States are displayed smaller than other photographs in order to show that they are arranged on the farthest side on the screen. The photos taken in Okinawa are displayed in the middle size between the photos of Tokyo and America.

このように、撮影場所に応じて、表示画面上で写真の大きさを可変することにより、コンテンツ情報が取得された位置を視覚的に容易に認識することが可能となる。   In this way, by changing the size of the photo on the display screen according to the shooting location, it is possible to easily visually recognize the position where the content information is acquired.

図28は、図27の表示を行う場合に、表示位置計算モジュール308aで行われる処理を示すフローチャートである。先ず、ステップS81では、時間軸方向の移動処理が行われる。次のステップS82では、検索サーバ200から取得したコンテンツ情報から、位置情報を取得する。次のステップS83では、表示位置データから現在のユーザの位置を取得する。   FIG. 28 is a flowchart showing processing performed by the display position calculation module 308a when the display of FIG. 27 is performed. First, in step S81, movement processing in the time axis direction is performed. In the next step S82, position information is acquired from the content information acquired from the search server 200. In the next step S83, the current user position is acquired from the display position data.

次のステップS84では、コンテンツ情報が取得された位置と現在の位置との距離を計算する。次のステップS85では、ステップS84で算出した距離に従って、コンテンツの表示情報を表示部700に表示させる。ステップS85の後は処理を終了する(RETURN)。なお、時刻情報によるコンテンツ情報の移動は、第1の実施形態と同様に行う。   In the next step S84, the distance between the position where the content information is acquired and the current position is calculated. In the next step S85, the display information of the content is displayed on the display unit 700 according to the distance calculated in step S84. After step S85, the process ends (RETURN). Note that content information is moved by time information in the same manner as in the first embodiment.

図29は、第2の実施形態における表示画面の他の例を示す模式図である。図29の例では、コンテンツ情報が取得された位置に対応付けてコンテンツ情報を地図上の所定位置に表示し、コンテンツの作成時間に応じて写真の大きさを変化させている。   FIG. 29 is a schematic diagram illustrating another example of the display screen according to the second embodiment. In the example of FIG. 29, the content information is displayed at a predetermined position on the map in association with the position where the content information is acquired, and the size of the photo is changed according to the content creation time.

図29に示すように、東京タワーで撮影された写真は、その位置情報に基づいて、地図上の東京タワーの位置に配置される。また、浅草の浅草寺で撮影された雷門の写真は、地図上の浅草寺の位置に配置される。そして、写真の撮影日時に応じて写真の大きさが可変される。図29の例では、浅草寺の写真の時刻情報よりも東京タワーの写真の時刻情報の方が新しく、東京タワーの写真の方が後に撮影されているため、東京タワーの写真は浅草寺の写真よりも拡大して表示される。   As shown in FIG. 29, the photograph taken at Tokyo Tower is arranged at the position of Tokyo Tower on the map based on the position information. A picture of Kaminarimon, taken at Sensoji Temple in Asakusa, is placed at the location of Sensoji Temple on the map. Then, the size of the photo is changed according to the date and time when the photo was taken. In the example of FIG. 29, the time information of the Tokyo Tower photo is newer than the time information of the Sensoji photo, and the Tokyo Tower photo is taken later, so the Tokyo Tower photo is more than the Sensoji photo. Enlarged display.

従って、図29の例によれば、コンテンツ情報の位置情報に対応付けて、表示画面上でコンテンツ情報のX座標、Y座標の位置が規定される。また、撮影日時に応じて、写真の大きさが決定される。従って、ユーザは、地図上でコンテンツ情報の撮影場所を視覚的に認識できるとともに、コンテンツ情報の作成時間の前後関係を認識することが可能となる。   Therefore, according to the example of FIG. 29, the position of the X coordinate and the Y coordinate of the content information is defined on the display screen in association with the position information of the content information. Also, the size of the photo is determined according to the shooting date and time. Therefore, the user can visually recognize the shooting location of the content information on the map and can recognize the context of the creation time of the content information.

図30は、図29の表示を行う場合に、表示位置計算モジュールで行われる処理を示すフローチャートである。先ず、ステップS91では、検索サーバ200から取得したコンテンツ情報から、位置情報を取得する。次のステップS92では、コンテンツ情報から時刻情報を取得する。   FIG. 30 is a flowchart showing processing performed by the display position calculation module when the display of FIG. 29 is performed. First, in step S91, position information is acquired from the content information acquired from the search server 200. In the next step S92, time information is acquired from the content information.

次のステップS93では、コンテンツの位置を含む地域の地図を描画する。次のステップS94では、ステップS91、S92で取得された位置情報、時刻情報に従って、コンテンツの表示情報を表示部700に表示させる。ステップS94の後は処理を終了する(RETURN)。   In the next step S93, a map of the area including the position of the content is drawn. In the next step S94, content display information is displayed on the display unit 700 in accordance with the position information and time information acquired in steps S91 and S92. After step S94, the process ends (RETURN).

また、3次元表示の編集画面を用いてコンテンツ情報の配置位置を編集しても良い。図31は、各タグに関連するコンテンツ情報を時間軸に沿ってレーン型に配置した場合に、編集画面上で各レーン毎のコンテンツ情報の表示を編集し、実行画面に表示した例を示している。   Further, the arrangement position of the content information may be edited using a three-dimensional display editing screen. FIG. 31 shows an example in which the display of content information for each lane is edited on the editing screen and displayed on the execution screen when content information related to each tag is arranged in a lane shape along the time axis. Yes.

編集画面には、時間軸(X軸)、タグの配置軸(Y軸)、コンテンツの取得位置(Z軸)が3次元的に表示される。   On the editing screen, a time axis (X axis), a tag arrangement axis (Y axis), and a content acquisition position (Z axis) are three-dimensionally displayed.

例えば、タグ(City)に関連するコンテンツをZ軸の最も手前側に配置し、タグ(Sky)に関連するコンテンツをZ軸の最も奥側に配置し、タグ(Ocean)に関連するコンテンツをタグ(City)とタグ(Sky)の間に配置する場合、編集画面上で各タグに関連してレーン状に配置された一連のコンテンツをドラッグしてZ軸方向の位置を調整する。   For example, content related to the tag (City) is placed on the front side of the Z-axis, content related to the tag (Sky) is placed on the farthest side of the Z-axis, and content related to the tag (Ocean) is tagged When arranging between (City) and a tag (Sky), the position in the Z-axis direction is adjusted by dragging a series of contents arranged in a lane shape in relation to each tag on the editing screen.

編集後、実行画面に切換えると、Z軸の位置に応じて、表示画面の手前側に位置するコンテンツほど拡大して表示が行われる。このように、編集画面上で各コンテンツの配置位置を調整することで、編集操作を容易に行うことが可能となる。   When the screen is switched to the execution screen after editing, the content located on the front side of the display screen is enlarged and displayed according to the position of the Z axis. Thus, the editing operation can be easily performed by adjusting the arrangement position of each content on the editing screen.

また、図32は、各タグに関連するコンテンツ情報をレイヤー型に配置した場合に、編集画面上で各レイヤー毎のコンテンツ情報の表示を編集した後、実行画面に表示した例を示している。ここでは、東京、箱根、沖縄で撮影された写真をZ軸方向の複数のレイヤー上で編集する場合を例示する。編集を行う際には、編集画面上で各レイヤー(東京、箱根、沖縄)のZ軸方向の位置を調整する。実行画面には、編集画面で調整されたZ軸の位置に応じて、東京、箱根、沖縄のそれぞれで撮影された写真の大きさが決定されて表示される。   FIG. 32 shows an example in which, when content information related to each tag is arranged in a layer type, the display of content information for each layer is edited on the editing screen and then displayed on the execution screen. Here, a case where photographs taken in Tokyo, Hakone, and Okinawa are edited on a plurality of layers in the Z-axis direction is illustrated. When editing, the position of each layer (Tokyo, Hakone, Okinawa) in the Z-axis direction is adjusted on the editing screen. On the execution screen, the size of the photograph taken in Tokyo, Hakone, and Okinawa is determined and displayed in accordance with the Z-axis position adjusted on the editing screen.

以上説明したように第2の実施形態によれば、コンテンツ情報を3次元的に表示することで、コンテンツの取得場所などの情報を表示画面上から容易に識別することが可能となる。また、3次元で表示した編集画面上でコンテンツ情報の配置位置を編集することで、コンテンツ情報の3次元的な位置を視覚的に容易に認識することが可能となり、編集操作を確実に行うことが可能となる。   As described above, according to the second embodiment, it is possible to easily identify information such as a content acquisition location from the display screen by displaying the content information three-dimensionally. In addition, by editing the arrangement position of the content information on the editing screen displayed in three dimensions, the three-dimensional position of the content information can be easily recognized visually, and the editing operation can be performed reliably. Is possible.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。第3の実施形態は、コンテンツ情報として動画を表示するとともに、動画の作成時期に応じて、ライブ番組、録画映像、番組表を切換えて表示可能としたものである。
(Third embodiment)
Next, a third embodiment of the present invention will be described. In the third embodiment, a moving image is displayed as content information, and a live program, a recorded video, and a program table can be switched and displayed according to the creation time of the moving image.

図33は、動画を表示する場合の基本的な表示画面構成を示している。図33に示すように、動画を表示する場合においても、X=0の位置以外では、第1の実施形態と同様にSMALLサイズのサムネールの静止画像560がX軸方向に移動する(図33(A))。   FIG. 33 shows a basic display screen configuration when a moving image is displayed. As shown in FIG. 33, when displaying a moving image, the SMALL-sized thumbnail still image 560 moves in the X-axis direction in the same manner as in the first embodiment except for the position of X = 0 (FIG. 33 ( A)).

静止画像560が画面中央のX=0の位置に達すると、画像が拡大表示され、X軸方向の画像の移動が停止し、動画562の再生が開始される(図33(B))。そして、動画の再生が終了すると、再びSMALLサイズのサムネールの静止画像560がX軸方向に移動する(図33(C))。X=0の位置以外で表示される静止画像560は、例えば動画の初期画面、タイトルが表示された画面等にすることができる。   When the still image 560 reaches the position of X = 0 in the center of the screen, the image is enlarged and displayed, the movement of the image in the X-axis direction is stopped, and the reproduction of the moving image 562 is started (FIG. 33B). When the reproduction of the moving image ends, the SMALL-sized thumbnail still image 560 moves again in the X-axis direction (FIG. 33C). The still image 560 displayed at a position other than the position where X = 0 can be, for example, an initial screen of a moving image or a screen on which a title is displayed.

図34は、動画として現在放送中のテレビ映像、過去に放送されたテレビ映像、これから放送されるテレビ番組を表示した例を示している。図34において、参照時刻は現在の時刻である。   FIG. 34 shows an example in which a television image currently being broadcast, a television image broadcast in the past, and a television program to be broadcast in the future are displayed as moving images. In FIG. 34, the reference time is the current time.

この場合、表示画面の中央には、現在放送されているテレビ映像の動画(ライブ画像)570が表示される。また、X軸方向において、動画570よりも過去の位置には、既に放送されたテレビ映像の録画572が表示される。そして、動画570よりも未来の位置には、これから放送されるテレビ番組の番組表(EPG)574が表示されている。   In this case, a moving image (live image) 570 of the currently broadcast television image is displayed at the center of the display screen. In addition, in the X-axis direction, a previously recorded television video recording 572 is displayed at a position before the moving image 570. A program guide (EPG) 574 of a TV program to be broadcast is displayed at a future position than the moving image 570.

第1の実施形態と同様に、ライブ画像、録画、番組表のそれぞれは、検索条件データに基づいてコンテンツ情報提供装置200から検索されたものである。第3の実施形態によれば、各タグに関係する映像について、参照時刻を現在の時刻に設定すれば、検索条件データに対応したライブ映像を視聴することができる。   As in the first embodiment, each of the live image, recording, and program guide is searched from the content information providing apparatus 200 based on the search condition data. According to the third embodiment, if the reference time is set to the current time for the video related to each tag, a live video corresponding to the search condition data can be viewed.

また、参照時刻を変更して、時計の表示を現在の時刻から未来の時刻へ変更すると、参照時刻に対応する日時のテレビ番組表が画面中央に表示される。従って、任意の参照時刻におけるテレビ番組表を取得することができる。   When the reference time is changed and the display of the clock is changed from the current time to a future time, the TV program guide with the date and time corresponding to the reference time is displayed at the center of the screen. Therefore, a television program guide at an arbitrary reference time can be acquired.

更に、参照時刻を過去の時刻に設定すると、参照時刻の日時に放映されていた録画の動画が画面中央に表示される。従って、現在及び過去のテレビ映像の動画と、未来のテレビ番組表を1つの画面で認識することが可能となる。   Furthermore, when the reference time is set to a past time, the recorded moving image that was broadcast at the date and time of the reference time is displayed in the center of the screen. Therefore, it is possible to recognize the moving images of the current and past television images and the future television program guide on one screen.

以上説明したように第3の実施形態によれば、タグに関連するコンテンツ情報として動画及び番組表を取得し、参照時刻を現在にした場合は現在放送されているテレビ映像を表示し、参照時刻を過去の時刻にした場合は録画された動画を表示し、参照時刻を未来の時刻にした場合はテレビ番組表を表示するため、過去、現在、未来の映像に関する情報を、時間の流れに沿って1つの表示画面上で表示することが可能となる。   As described above, according to the third embodiment, a moving image and a program guide are acquired as content information related to the tag, and when the reference time is set to the current time, the currently broadcast television image is displayed, and the reference time is displayed. If the video is set to a past time, the recorded video is displayed, and if the reference time is set to a future time, the TV program guide is displayed. Display on a single display screen.

(第4の実施形態)
次に、本発明の第4の実施形態について説明する。第4の実施形態は、時系列に並べたコンテンツ情報をイベント毎にまとめて表示するものである。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described. In the fourth embodiment, content information arranged in time series is displayed collectively for each event.

図35に示すように、第4の実施形態において、時系列に並べられたコンテンツ情報は、複数の情報を含んでいる。ここで、1つのコンテンツ情報に含まれる複数の情報は、同じイベントで取得されたものである。   As shown in FIG. 35, in the fourth embodiment, content information arranged in time series includes a plurality of pieces of information. Here, a plurality of pieces of information included in one piece of content information are acquired by the same event.

例えば、図35の下段に配列されたコンテンツ情報580がタグ「旅行」に関係するものである場合、1つのコンテンツ情報580には、同じ旅行で撮影された一連の写真582が含まれている。このように、イベント毎にコンテンツ情報580を生成することで、同じイベントに属する情報を容易に抽出することが可能となる。   For example, when the content information 580 arranged in the lower part of FIG. 35 relates to the tag “travel”, one content information 580 includes a series of photographs 582 taken in the same travel. Thus, by generating the content information 580 for each event, it is possible to easily extract information belonging to the same event.

コンテンツ情報580を同じイベントにまとめる処理は、検索制御部302のイベントクラスタリング機能によって行われる。この機能は、コンテンツ情報のメタデータのうち、イベントを表す情報に基づいて、同じイベントのコンテンツ情報をまとめる機能である。   The process of collecting the content information 580 into the same event is performed by the event clustering function of the search control unit 302. This function is a function for collecting content information of the same event based on information representing the event in the metadata of the content information.

以上説明したように第4の実施形態によれば、検索処理部302はイベント毎にコンテンツ情報をまとめるイベントクラスタリング機能を備えるため、同じイベントに属するコンテンツ情報を抽出して、一括して表示することが可能となる。従って、同じイベントに属する情報が分散して表示されることがなく、表示を利便性を向上することが可能となる。   As described above, according to the fourth embodiment, since the search processing unit 302 has an event clustering function for collecting content information for each event, content information belonging to the same event is extracted and displayed in a batch. Is possible. Therefore, information belonging to the same event is not displayed in a distributed manner, and the convenience of display can be improved.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

本発明の第1の実施形態に係る検索システムの構成と、コンテンツ情報提供サーバ、検索装置の機能ブロックを共に示す模式図である。It is a schematic diagram which shows both the structure of the search system which concerns on the 1st Embodiment of this invention, the content information provision server, and the functional block of a search device. コンテンツ情報を示す模式図である。It is a schematic diagram which shows content information. 検索結果表示処理部と表示装置との間のデータのやり取りを示す模式図である。It is a schematic diagram which shows the exchange of data between a search result display process part and a display apparatus. 表示部の表示画面上に検索情報提供サーバから取得したコンテンツ情報が表示される様子を示す模式図である。It is a schematic diagram which shows a mode that the content information acquired from the search information provision server is displayed on the display screen of a display part. 第1の実施形態のシステムにおける処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in the system of 1st Embodiment. 検索結果データの内部に検索条件データが埋め込まれる様子を示す模式図である。It is a schematic diagram which shows a mode that search condition data are embedded inside search result data. 検索結果データの内部に検索条件データを埋め込む具体例を示す模式図である。It is a schematic diagram which shows the specific example which embeds search condition data inside search result data. 検索結果データの内部に検索条件データを埋め込む他の具体例を示す模式図である。It is a schematic diagram which shows the other specific example which embeds search condition data inside search result data. 表示位置計算モジュールで行われる処理を示すフローチャートである。It is a flowchart which shows the process performed with a display position calculation module. 時間推移速度をより速くした場合を示す模式図である。It is a schematic diagram which shows the case where time transition speed is made faster. 時間推移速度の進む方向を逆転させた場合を示す模式図である。It is a schematic diagram which shows the case where the direction which time transition speed advances is reversed. コンテンツ情報に関連する情報の詳細を示す図である。It is a figure which shows the detail of the information relevant to content information. 検索装置がコンテンツ情報及び関連情報を取得する処理を示すフローチャートである。It is a flowchart which shows the process in which a search device acquires content information and related information. 検索の処理を示すフローチャートである。It is a flowchart which shows the process of a search. データ取得モジュールの概要を示す模式図である。It is a schematic diagram which shows the outline | summary of a data acquisition module. 情報取得の際の優先度処理を示す模式図である。It is a schematic diagram which shows the priority process in the case of information acquisition. コンテンツ情報取得の優先度処理を示す模式図である。It is a schematic diagram which shows the priority process of content information acquisition. コンテンツ情報が画面中央で拡大表示される様子を示す模式図である。It is a schematic diagram which shows a mode that content information is enlargedly displayed by the screen center. カーソルをコンテンツ情報に重ねた場合に、コンテンツ情報が拡大表示される様子を示す模式図である。It is a schematic diagram which shows a mode that content information is enlargedly displayed when a cursor is superimposed on content information. 情報欄を詳細に示す模式図である。It is a schematic diagram which shows an information column in detail. 表示部の画面表示範囲に対して、配列されたコンテンツが順次に表示される様子を示す模式図である。It is a schematic diagram which shows a mode that the arranged content is displayed sequentially with respect to the screen display range of a display part. 表示位置計算モジュールと各コンテンツ情報、表示位置データ、表示部の表示位置との関係を示す模式図である。It is a schematic diagram which shows the relationship between a display position calculation module, each content information, display position data, and the display position of a display part. オートクルーズ機能の処理の全体の流れを示すフローチャートである。It is a flowchart which shows the flow of the whole process of an auto cruise function. 図23のステップS42の処理を詳細に示すフローチャートである。It is a flowchart which shows the process of FIG.23 S42 in detail. 速度に応じて表示範囲を広げる処理を示すフローチャートである。It is a flowchart which shows the process which expands a display range according to speed. 軸の表示範囲を決定する処理を示すフローチャートである。It is a flowchart which shows the process which determines the display range of an axis | shaft. 第2の実施形態における表示画面の一例を示す模式図である。It is a schematic diagram which shows an example of the display screen in 2nd Embodiment. 図27の表示を行う場合に、表示位置計算モジュールで行われる処理を示すフローチャートである。It is a flowchart which shows the process performed in a display position calculation module, when performing the display of FIG. 第2の実施形態における表示画面の他の例を示す模式図である。It is a schematic diagram which shows the other example of the display screen in 2nd Embodiment. 図29の表示を行う場合に、表示位置計算モジュールで行われる処理を示すフローチャートである。It is a flowchart which shows the process performed by the display position calculation module when performing the display of FIG. 各タグに関連するコンテンツ情報をレーン型に配置した場合に、編集画面上で各レーン毎のコンテンツ情報の表示を編集し、実行画面に表示した例を示す模式図である。It is a schematic diagram which shows the example which edited the display of the content information for every lane on the edit screen, and displayed on the execution screen when the content information relevant to each tag is arrange | positioned in a lane type. 各タグに関連するコンテンツ情報をレイヤー型に配置した場合に、編集画面上で各レイヤー毎のコンテンツ情報の表示を編集し、実行画面に表示した例を示す模式図である。It is a schematic diagram which shows the example which edited the display of the content information for every layer on the edit screen, and displayed on the execution screen, when the content information relevant to each tag is arrange | positioned in a layer type. 動画を表示する場合の基本的な表示画面構成を示す模式図である。It is a schematic diagram which shows the basic display screen structure in the case of displaying a moving image. 動画として現在放送中のテレビ映像、過去に放送されたテレビ映像、これから放送されるテレビ番組を表示した例を示す模式図である。It is a schematic diagram which shows the example which displayed the television image currently broadcasted as a moving image, the television image broadcast in the past, and the television program broadcast from now on. 時系列に並べられたコンテンツ情報を同じイベント毎にまとめた様子を示す模式図である。It is a schematic diagram which shows a mode that the content information arranged in time series was put together for every same event.

符号の説明Explanation of symbols

200 検索情報提供装置
300 検索装置
400 ネットワーク
302 検索制御部
304 検索要求処理部
306 検索結果受信処理部
308 検索結果表示処理部
308a 表示位置計算モジュール
310 検索結果保存部
600 入力部
700 表示部
800 検索結果保存ファイル
DESCRIPTION OF SYMBOLS 200 Search information provision apparatus 300 Search apparatus 400 Network 302 Search control part 304 Search request process part 306 Search result reception process part 308 Search result display process part 308a Display position calculation module 310 Search result storage part 600 Input part 700 Display part 800 Search result Save file

Claims (20)

ネットワークを介して接続されたコンテンツ情報提供サーバから、検索条件に応じた検索結果であるコンテンツ情報を取得するコンテンツ情報取得部と、
前記コンテンツ情報に関係する特性値に基づいて、前記コンテンツ情報を表示画面上に配置し、前記コンテンツ情報を表示画面上で動的に移動させて表示する表示制御部と、
を備えたことを特徴とする、検索結果表示装置。
A content information acquisition unit that acquires content information that is a search result according to a search condition from a content information providing server connected via a network;
A display control unit that arranges the content information on a display screen based on a characteristic value related to the content information, and dynamically moves and displays the content information on the display screen;
A search result display device comprising:
前記特性値は、前記コンテンツ情報が作成された時刻を表す時刻情報であり、前記表示制御部は、基準となる参照時刻と、前記コンテンツ情報に関係する前記時刻情報とに基づいて、前記コンテンツ情報を表示画面上で移動させることを特徴とする、請求項1に記載の検索結果表示装置。   The characteristic value is time information indicating a time when the content information is created, and the display control unit is configured to use the content information based on a reference time serving as a reference and the time information related to the content information. The search result display device according to claim 1, wherein the search result is moved on the display screen. 前記表示制御部は、前記参照時刻が推移する速度を変化させる速度変更部を含むことを特徴とする、請求項2に記載の検索結果表示装置。   The search result display device according to claim 2, wherein the display control unit includes a speed changing unit that changes a speed at which the reference time changes. 前記表示制御部は、前記参照時刻が推移する速度に応じて前記コンテンツ情報の表示範囲のスケールを可変する表示スケール変更部を含むことを特徴とする、請求項3に記載の検索結果表示装置。   The search result display device according to claim 3, wherein the display control unit includes a display scale changing unit that varies a scale of a display range of the content information according to a speed at which the reference time changes. 前記表示制御部は、前記参照時刻が推移する方向を過去から未来又は未来から過去のいずれかに設定する時刻推移方向変更部を含むことを特徴とする請求項2に記載の検索結果表示装置。   The search result display device according to claim 2, wherein the display control unit includes a time transition direction changing unit that sets a direction in which the reference time transitions from past to future or from future to past. 前記表示制御部は、表示画面上における前記コンテンツ情報の密集状態に応じて前記参照時刻が推移する速度又は前記コンテンツ情報の表示範囲のスケールを可変するオートクルーズ機能部を含むことを特徴とする、請求項2に記載の検索結果表示装置。   The display control unit includes an auto cruise function unit that varies a speed at which the reference time changes or a scale of a display range of the content information according to a crowded state of the content information on a display screen. The search result display device according to claim 2. 前記検索結果である前記コンテンツ情報と前記検索条件を共に保存する検索結果保存部を更に備えることを特徴とする、請求項1に記載の検索結果表示装置。   The search result display device according to claim 1, further comprising a search result storage unit that stores both the content information as the search result and the search condition. 前記特性値は、前記コンテンツ情報が作成された時刻を表す時刻情報と前記コンテンツ情報が作成された位置を表す位置情報を含み、前記表示制御部は、前記時刻情報及び前記位置情報に基づいて前記コンテンツ情報を表示画面上に3次元的に表示することを特徴とする、請求項1に記載の検索結果表示装置。   The characteristic value includes time information indicating a time at which the content information is generated and position information indicating a position at which the content information is generated, and the display control unit is configured based on the time information and the position information. The search result display device according to claim 1, wherein content information is three-dimensionally displayed on a display screen. 前記コンテンツ情報が属する元のウェブページを起動する起動部を更に備えたことを特徴とする、請求項1に記載の検索結果表示装置。   The search result display device according to claim 1, further comprising an activation unit that activates an original web page to which the content information belongs. 前記コンテンツ情報はテレビ放送のライブ映像、録画及び番組表に関する情報であり、
前記表示制御部は、基準となる参照時刻と、前記ライブ映像、録画及び番組表に関する時刻情報とに基づいて前記ライブ映像、録画及び番組表を表示画面上で移動させ、
参照時刻が現在の時刻に設定された場合は現在放送中のライブ映像を表示し、参照時刻が現在の時刻以降の時刻に設定された場合は以降に放映される番組の番組表を表示し、参照時刻が現在の時刻以前の時刻に設定された場合は以前に放送されたテレビ放送の録画を表示することを特徴とする、請求項1に記載の検索結果表示装置。
The content information is information related to live video, recording, and program guide of television broadcasting,
The display control unit moves the live video, recording and program guide on the display screen based on a reference time as a reference and time information regarding the live video, recording and program guide,
If the reference time is set to the current time, the live video that is currently being broadcast is displayed. If the reference time is set to a time after the current time, the program schedule of the program that will be broadcast after that is displayed. The search result display device according to claim 1, wherein when the reference time is set to a time before the current time, a recording of a previously broadcast television broadcast is displayed.
ネットワークを介して接続されたコンテンツ情報提供サーバから、検索条件に応じた検索結果であるコンテンツ情報を取得するステップと、
前記コンテンツ情報に関係する特性値に基づいて、前記コンテンツ情報を表示画面上に配置し、前記コンテンツ情報を表示画面上で動的に移動させて表示するステップと、
を備えたことを特徴とする、検索結果表示方法。
Acquiring content information as a search result according to a search condition from a content information providing server connected via a network;
Arranging the content information on a display screen based on a characteristic value related to the content information, and dynamically moving and displaying the content information on the display screen;
A search result display method characterized by comprising:
前記特性値は、前記コンテンツ情報が作成された時刻を表す時刻情報であり、前記コンテンツ情報を表示するステップにおいて、基準となる参照時刻と、前記コンテンツ情報に関係する前記時刻情報とに基づいて、前記コンテンツ情報を表示画面上で移動させることを特徴とする、請求項11に記載の検索結果表示方法。   The characteristic value is time information indicating a time when the content information was created, and in the step of displaying the content information, based on a reference time serving as a reference and the time information related to the content information, The search result display method according to claim 11, wherein the content information is moved on a display screen. 前記参照時刻が推移する速度を変化させるステップを更に備えることを特徴とする、請求項12に記載の検索結果表示方法。   The search result display method according to claim 12, further comprising a step of changing a speed at which the reference time changes. 前記参照時刻が推移する速度に応じて前記コンテンツ情報の表示範囲のスケールを可変するステップを更に備えることを特徴とする、請求項13に記載の検索結果表示方法。   The search result display method according to claim 13, further comprising a step of changing a scale of a display range of the content information according to a speed at which the reference time changes. 前記参照時刻が推移する方向を過去から未来又は未来から過去のいずれかに設定するステップを更に備えることを特徴とする請求項12に記載の検索結果表示方法。   The search result display method according to claim 12, further comprising the step of setting the direction in which the reference time changes from past to future or from future to past. 表示画面上における前記コンテンツ情報の密集状態に応じて前記参照時刻が推移する速度又は前記コンテンツ情報の表示範囲のスケールを可変するステップを更に備えることを特徴とする、請求項12に記載の検索結果表示方法。   The search result according to claim 12, further comprising a step of varying a speed at which the reference time changes or a scale of a display range of the content information according to a crowded state of the content information on a display screen. Display method. 前記検索結果である前記コンテンツ情報と前記検索条件を共に保存するステップを更に備えることを特徴とする、請求項11に記載の検索結果表示方法。   The search result display method according to claim 11, further comprising the step of storing both the content information as the search result and the search condition. 前記コンテンツ情報が属する元のウェブページを起動するステップを更に備えたことを特徴とする、請求項11に記載の検索結果表示方法。   12. The search result display method according to claim 11, further comprising a step of activating an original web page to which the content information belongs. 前記コンテンツ情報はテレビ放送のライブ映像、録画及び番組表に関する情報であり、前記表示制御部は、基準となる参照時刻と、前記ライブ映像、録画及び番組表に関する時刻情報とに基づいて前記ライブ映像、録画及び番組表を表示画面上で移動させ、
参照時刻が現在の時刻に設定された場合は現在放送中のライブ映像を表示し、参照時刻が現在の時刻以降の時刻に設定された場合は以降に放送されるテレビ放送の番組表を表示し、参照時刻が現在の時刻以前の時刻に設定された場合は以前に放送されたテレビ放送の録画を表示することを特徴とする、請求項11に記載の検索結果表示方法。
The content information is information related to live video, recording, and a program guide of a television broadcast, and the display control unit is configured to use the live video based on a reference time as a reference and time information related to the live video, recording, and program guide. , Move the recording and program guide on the display screen,
When the reference time is set to the current time, the live video currently being broadcast is displayed, and when the reference time is set to a time after the current time, the TV broadcast program guide to be broadcast after that is displayed. 12. The search result display method according to claim 11, wherein when the reference time is set to a time before the current time, a recorded television broadcast previously broadcast is displayed.
ネットワークを介して接続されたコンテンツ情報提供サーバから、検索条件に応じた検索結果であるコンテンツ情報を取得する手段、
前記コンテンツ情報に関係する特性値に基づいて、前記コンテンツ情報を表示画面上に配置し、前記コンテンツ情報を表示画面上で動的に移動させて表示する手段、
としてコンピュータを機能させるためのプログラム。
Means for acquiring content information, which is a search result according to a search condition, from a content information providing server connected via a network;
Means for arranging the content information on a display screen based on a characteristic value related to the content information, and dynamically moving and displaying the content information on the display screen;
As a program to make the computer function.
JP2007096587A 2007-04-02 2007-04-02 Search result display device, search result display method and program Withdrawn JP2008257341A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007096587A JP2008257341A (en) 2007-04-02 2007-04-02 Search result display device, search result display method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007096587A JP2008257341A (en) 2007-04-02 2007-04-02 Search result display device, search result display method and program

Publications (1)

Publication Number Publication Date
JP2008257341A true JP2008257341A (en) 2008-10-23

Family

ID=39980878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007096587A Withdrawn JP2008257341A (en) 2007-04-02 2007-04-02 Search result display device, search result display method and program

Country Status (1)

Country Link
JP (1) JP2008257341A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010108057A (en) * 2008-10-28 2010-05-13 Mitsubishi Electric Corp Content list display device
JP2011205518A (en) * 2010-03-26 2011-10-13 Nikon Corp Image browsing apparatus, camera, image browsing system, and program
JP2013544406A (en) * 2010-11-16 2013-12-12 マイクロソフト コーポレーション Browsing related image search result sets
CN104581343A (en) * 2014-12-24 2015-04-29 乐视致新电子科技(天津)有限公司 Multi-floating-layer display method and device
WO2015163140A1 (en) * 2014-04-22 2015-10-29 シャープ株式会社 Display device and display control program
JP2019049881A (en) * 2017-09-11 2019-03-28 株式会社日立システムズ Document processing system, processing system, and document processing program
JP2022050640A (en) * 2017-09-11 2022-03-30 株式会社日立システムズ Computer device and document processing program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010108057A (en) * 2008-10-28 2010-05-13 Mitsubishi Electric Corp Content list display device
JP2011205518A (en) * 2010-03-26 2011-10-13 Nikon Corp Image browsing apparatus, camera, image browsing system, and program
JP2013544406A (en) * 2010-11-16 2013-12-12 マイクロソフト コーポレーション Browsing related image search result sets
US9372873B2 (en) 2010-11-16 2016-06-21 Microsoft Technology Licensing, Llc Browsing related image search result sets
US9384216B2 (en) 2010-11-16 2016-07-05 Microsoft Technology Licensing, Llc Browsing related image search result sets
WO2015163140A1 (en) * 2014-04-22 2015-10-29 シャープ株式会社 Display device and display control program
CN104581343A (en) * 2014-12-24 2015-04-29 乐视致新电子科技(天津)有限公司 Multi-floating-layer display method and device
JP2019049881A (en) * 2017-09-11 2019-03-28 株式会社日立システムズ Document processing system, processing system, and document processing program
JP7011912B2 (en) 2017-09-11 2022-01-27 株式会社日立システムズ Document processing system, processing system and document processing program
JP2022050640A (en) * 2017-09-11 2022-03-30 株式会社日立システムズ Computer device and document processing program
JP7182022B2 (en) 2017-09-11 2022-12-01 株式会社日立システムズ computer equipment and word processing program

Similar Documents

Publication Publication Date Title
TWI461939B (en) Method, apparatus, computer-readable media, computer program product and computer system for supplementing an article of content
JP2008257341A (en) Search result display device, search result display method and program
JP5790509B2 (en) Image reproduction apparatus, image reproduction program, and image reproduction method
US9971485B2 (en) Interactive image thumbnails
US7908284B1 (en) Content reference page
KR101448325B1 (en) Rank graph
US8812945B2 (en) Method of dynamically creating real time presentations responsive to search expression
JP5308580B1 (en) Content display system
JP5386007B2 (en) Image clustering method
AU2013263220B2 (en) Knowledge panel
US20090055406A1 (en) Content Distribution System
US20100171763A1 (en) Organizing Digital Images Based on Locations of Capture
US20130332068A1 (en) System and method for discovering photograph hotspots
JP4433327B2 (en) Information processing apparatus and method, and program
JP2020140577A (en) Device, method, and program
JP2007052788A (en) Method and system for linking digital photograph to electronic document
TW201610816A (en) Gallery application for content viewing
JP2007018343A (en) Content browsing system, program, and content browsing method
KR20100046586A (en) Map-based web search method and apparatus
JP2007322847A (en) Image display method and device, and program
JP2007047962A (en) Editing device
CN102084641A (en) Method to control image processing apparatus, image processing apparatus, and image file
JP2008226235A (en) Information feedback system, information feedback method, information control server, information control method, and program
JP2010182008A (en) Program and apparatus for image display
US20150339325A1 (en) Method, an apparatus for labelling images, and a non-transitory computer-readable medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100706