JP2010257266A - Content output system, server device, device, method, and program for outputting content, and recording medium storing the content output program - Google Patents

Content output system, server device, device, method, and program for outputting content, and recording medium storing the content output program Download PDF

Info

Publication number
JP2010257266A
JP2010257266A JP2009107232A JP2009107232A JP2010257266A JP 2010257266 A JP2010257266 A JP 2010257266A JP 2009107232 A JP2009107232 A JP 2009107232A JP 2009107232 A JP2009107232 A JP 2009107232A JP 2010257266 A JP2010257266 A JP 2010257266A
Authority
JP
Japan
Prior art keywords
content
classification
search condition
terminal device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009107232A
Other languages
Japanese (ja)
Inventor
Atsushi Shintani
淳 新谷
Satoshi Terada
智 寺田
Shigeyuki Yamanaka
重幸 山中
Hidetomo Otsuki
英知 大槻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009107232A priority Critical patent/JP2010257266A/en
Priority to PCT/JP2010/057464 priority patent/WO2010126042A1/en
Publication of JP2010257266A publication Critical patent/JP2010257266A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/38Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/38Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/383Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To efficiently retrieve and use a useful content out of a large volume of contents accumulated in a server device or the like on a network. <P>SOLUTION: Other content related to the content is retrieved from the second content storage part 205 of the server device 201, when outputting the content in the first content storage part 104 of a terminal device 101, to output the contents together in a terminal device 101 side, and a user is not required to carry out operations for browsing a large number of contents in the second content storage part 205 of the server device 201, and for selecting the content. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像、音声等からなるコンテンツを表示したり再生するコンテンツ出力システム、サーバー装置、コンテンツ出力装置、コンテンツ出力方法、コンテンツ出力プログラム、及びコンテンツ出力プログラムを記憶した記録媒体に関する。   The present invention relates to a content output system that displays and reproduces content composed of images, sounds, and the like, a server device, a content output device, a content output method, a content output program, and a recording medium that stores the content output program.

近年、デジタルカメラやデジタルビデオカメラの普及に伴い、ユーザーは、写真画像等の静止画像、動画像、音楽などからなるコンテンツを簡単に作成することができるようになって来ており、また自ら作成したコンテンツを家庭内やネットワーク上の記録媒体に蓄積して、簡単にいつでもそのコンテンツにアクセスし、気軽に楽しむことができるようにもなっている。例えば、旅行に行ったときにユーザー自ら撮影した写真画像や動画を好きな音楽と組み合わせてスライドショーとして楽しむことが可能である。   In recent years, with the spread of digital cameras and digital video cameras, it has become possible for users to easily create content consisting of still images such as photographic images, moving images, music, etc. The stored contents can be stored in a recording medium at home or on a network so that the contents can be easily accessed and enjoyed at any time. For example, it is possible to enjoy photographic images and videos taken by the user himself / herself when traveling as a slide show by combining with favorite music.

一方、インターネット上には、静止画像、動画像、音楽等の大量のコンテンツが存在しており、ユーザーは、それらの大量のコンテンツにインターネットを通じていつでもアクセスし、取得、視聴することが可能である。   On the other hand, a large amount of content such as still images, moving images, and music exists on the Internet, and a user can access, acquire, and view such a large amount of content at any time through the Internet.

ここで、自分の所有するコンテンツと、インターネット上のコンテンツを組み合わせて楽しむ方法が、特許文献1に記載されている。この特許文献1においては、ユーザーが所有する写真画像と、インターネット上の多数の写真画像のうちからユーザーが選択した所望の写真画像とを組み合わせて配置し、これらの写真画像を印刷出力している。   Here, Patent Document 1 describes a method of enjoying content that the user owns and content on the Internet in combination. In this Patent Document 1, a photographic image owned by a user and a desired photographic image selected by the user from among a large number of photographic images on the Internet are arranged in combination, and these photographic images are printed out. .

特開2007−323614号公報(2007年12月13日公開)JP 2007-323614 A (published on December 13, 2007)

しかしながら、特許文献1では、コンテンツ及びその配置位置の全てをユーザーが指定しなければならず、このための入力操作が煩雑である。特に、サーバー上のコンテンツが大量にある場合は、この大量のコンテンツから所望のコンテンツを探し出して選択せねばならず、ユーザーにとっては極めて大きな手間となる。   However, in Patent Document 1, the user must specify all of the content and its arrangement position, and the input operation for this is complicated. In particular, when there is a large amount of content on the server, it is necessary to find and select the desired content from this large amount of content, which is extremely troublesome for the user.

そこで、本発明は、上記従来の問題点に鑑みてなされたものであり、ネットワーク上のサーバー装置等に蓄積されている大量のコンテンツのうちから有用なものを効率的に検索して利用することが可能なコンテンツ出力システム、サーバー装置、コンテンツ出力装置、コンテンツ出力方法、コンテンツ出力プログラム、及びコンテンツ出力プログラムを記憶した記録媒体を提供することを目的とする。   Therefore, the present invention has been made in view of the above-described conventional problems, and efficiently searches for and uses useful content from a large amount of content stored in a server device or the like on a network. It is an object to provide a content output system, a server device, a content output device, a content output method, a content output program, and a recording medium storing the content output program.

上記課題を解決するために、本発明のコンテンツ出力システムは、ネットワークを通じて、端末装置及びサーバー装置間で情報通信を行うコンテンツ出力システムにおいて、前記端末装置は、複数のコンテンツを記憶した第1コンテンツ記憶手段と、前記第1コンテンツ記憶手段内の各コンテンツの付随情報をコンテンツ群の分類条件で分類して、前記各コンテンツのうちからコンテンツ群に属するコンテンツを求める分類手段と、前記分類手段により求められたコンテンツ群のコンテンツの付随情報から検索条件を生成する検索条件生成手段と、前記検索条件生成手段により生成された検索条件を前記サーバー装置に送信し、この検索条件の送信に対する応答として検索条件に該当するコンテンツをサーバー装置から受信する通信手段と、前記分類手段により求められたコンテンツ群のコンテンツ及び前記サーバー装置から受信したコンテンツを共に出力する出力手段とを備え、前記サーバー装置は、複数のコンテンツを記憶した第2コンテンツ記憶手段と、前記端末装置からの検索条件を受信し、この検索条件に該当するコンテンツを端末装置に送信する通信手段と、前記第2コンテンツ記憶手段から前記受信した検索条件に該当するコンテンツを検索する検索手段とを備えている。   In order to solve the above problems, a content output system according to the present invention is a content output system that performs information communication between a terminal device and a server device through a network. The terminal device stores a plurality of contents in a first content storage. Classification means for classifying associated information of each content in the first content storage means according to a content group classification condition, and obtaining content belonging to the content group from among the contents, and the classification means Search condition generation means for generating a search condition from the accompanying information of the content of the selected content group, and the search condition generated by the search condition generation means is transmitted to the server device, and the search condition is used as a response to the transmission of the search condition. A communication means for receiving the corresponding content from the server device; Output means for outputting together the content of the content group obtained by the classification means and the content received from the server device, the server device having a second content storage means for storing a plurality of contents, and the terminal device Communication means for receiving a search condition from the terminal, and transmitting content corresponding to the search condition to the terminal device; and search means for searching for content corresponding to the received search condition from the second content storage means. Yes.

また、前記出力手段は、前記分類手段により求められたコンテンツ群のコンテンツと前記サーバー装置から受信したコンテンツとの表示レイアウトを設定して、これらのコンテンツを該表示レイアウトで表示出力している。   The output unit sets a display layout of the content of the content group obtained by the classification unit and the content received from the server device, and displays and outputs the content in the display layout.

更に、前記出力手段は、前記分類手段により求められたコンテンツ群のコンテンツと前記サーバー装置から受信したコンテンツとを識別可能に出力している。   Further, the output means outputs the content of the content group obtained by the classification means and the content received from the server device in an identifiable manner.

また、前記出力手段は、前記分類手段により求められたコンテンツ群のコンテンツ及び前記サーバー装置から受信したコンテンツを該各コンテンツの付随情報と共に出力している。   The output unit outputs the content of the content group obtained by the classification unit and the content received from the server device together with accompanying information of each content.

更に、前記端末装置は、前記コンテンツ群の分類条件を入力するための入力操作手段を備えている。   Furthermore, the terminal device includes an input operation means for inputting a classification condition of the content group.

また、前記コンテンツ群の分類条件は、予め設定されるか、入力操作手段の入力操作により変更されるか、又は入力操作手段の入力操作により入力設定される。   The content group classification conditions are set in advance, changed by an input operation of the input operation means, or input set by an input operation of the input operation means.

また、前記付随情報は、位置情報もしくは日時情報である。この場合、前記分類手段は、前記第1コンテンツ記憶手段内の各コンテンツの付随情報である位置情報もしくは日時情報を閾値と比較して、前記各コンテンツのうちからコンテンツ群に属するコンテンツを求めている。あるいは、前記分類手段は、前記第1コンテンツ記憶手段内の各コンテンツの付随情報である日時情報を用いて、各コンテンツを時系列で配列した後、各コンテンツの付随情報である位置情報を用いて、配列された各コンテンツをコンテンツ群に分類している。   The accompanying information is position information or date / time information. In this case, the classification unit compares the position information or date / time information, which is accompanying information of each content in the first content storage unit, with a threshold value, and obtains content belonging to a content group from the content. . Alternatively, the classifying unit uses date / time information that is associated information of each content in the first content storage unit, arranges the contents in time series, and then uses position information that is associated information of each content. The arranged contents are classified into content groups.

更に、前記閾値は、予め設定されるか、入力操作手段の入力操作により変更されるか、入力操作手段の入力操作により入力設定されるか、又はコンテンツの付随情報に基づいて変更される。   Further, the threshold value is set in advance, changed by an input operation of the input operation means, input set by an input operation of the input operation means, or changed based on accompanying information of the content.

また、前記端末装置は、前記第1コンテンツ記憶手段内の各コンテンツの付随情報を前記サーバー装置に送信して、コンテンツ群の分類条件を要求し、これに応答してサーバー装置は、各コンテンツの付随情報に基づいてコンテンツ群の分類条件を求め、このコンテンツ群の分類条件を端末装置に送信している。   Further, the terminal device transmits accompanying information of each content in the first content storage means to the server device to request a classification condition of the content group, and in response to this, the server device A content group classification condition is obtained based on the accompanying information, and the content group classification condition is transmitted to the terminal device.

更に、前記サーバー装置から前記端末装置へと送受されたコンテンツには、インターネット上のアドレスが含まれており、端末装置での入力操作に応答して端末装置から前記サーバー装置又は他のサーバー装置へと前記アドレスを送受し、このアドレスを受信したサーバー装置で該アドレスに基づき情報を収集して、この情報を該サーバー装置から端末装置へと送受し、端末装置で該情報を表示している。   Further, the content transmitted from the server device to the terminal device includes an address on the Internet, and from the terminal device to the server device or another server device in response to an input operation on the terminal device. The server device that receives and receives the address collects information based on the address, transmits and receives this information from the server device to the terminal device, and displays the information on the terminal device.

また、本発明のコンテンツ出力システムは、ネットワークを通じて、端末装置及びサーバー装置間で情報通信を行うコンテンツ出力システムにおいて、前記サーバー装置は、複数のコンテンツを記憶した第1コンテンツ記憶手段と、複数のコンテンツを記憶した第2コンテンツ記憶手段と、前記第1コンテンツ記憶手段内のコンテンツを前記端末装置に送信し、このコンテンツの送信に対する応答として端末装置からの検索条件を受信し、この検索条件に該当するコンテンツを端末装置に送信する通信手段と、前記第2コンテンツ記憶手段から前記受信した検索条件に該当するコンテンツを検索する検索手段とを備え、前記端末装置は、前記サーバー装置から前記第1コンテンツ記憶手段内の各コンテンツを受信して、該各コンテンツの付随情報をコンテンツ群の分類条件で分類し、前記各コンテンツのうちからコンテンツ群に属するコンテンツを求める分類手段と、前記分類手段により求められたコンテンツ群のコンテンツの付随情報から検索条件を生成する検索条件生成手段と、前記検索条件生成手段により生成された検索条件を前記サーバー装置に送信し、この検索条件の送信に対する応答として検索条件に該当するコンテンツをサーバー装置から受信する通信手段と、前記分類手段により求められたコンテンツ群のコンテンツ及び前記サーバー装置から受信した各コンテンツを出力する出力手段とを備えている。   The content output system of the present invention is a content output system that performs information communication between a terminal device and a server device via a network. The server device includes a first content storage unit that stores a plurality of contents, and a plurality of contents. The second content storage means storing the content, the content in the first content storage means is transmitted to the terminal device, the search condition from the terminal device is received as a response to the transmission of the content, and the search condition is met A communication unit that transmits content to the terminal device; and a search unit that searches for content that satisfies the received search condition from the second content storage unit. The terminal device stores the first content storage from the server device. Receiving each content in the means, and accompanying each content The information is classified according to the content group classification condition, the classification means for obtaining the content belonging to the content group among the contents, and the search condition for generating the search condition from the accompanying information of the content of the content group obtained by the classification means Generating means, communication means for transmitting the search condition generated by the search condition generating means to the server apparatus, and receiving content corresponding to the search condition from the server apparatus as a response to the transmission of the search condition, and the classification means Output means for outputting the content of the content group obtained by the above and each content received from the server device.

あるいは、本発明のコンテンツ出力システムは、ネットワークを通じて、端末装置及びサーバー装置間で情報通信を行うコンテンツ出力システムにおいて、前記サーバー装置は、複数のコンテンツをそれぞれ記憶した第1及び第2コンテンツ記憶手段と、前記第1コンテンツ記憶手段内の各コンテンツの付随情報をコンテンツ群の分類条件で分類して、前記各コンテンツのうちからコンテンツ群に属するコンテンツを求める分類手段と、前記分類手段により求められたコンテンツ群のコンテンツの付随情報から検索条件を生成する検索条件生成手段と、前記第2コンテンツ記憶手段から前記検索条件生成手段により生成された検索条件に該当するコンテンツを検索する検索手段と、前記分類手段により求められたコンテンツ群のコンテンツ及び前記検索手段により検索されたコンテンツを共に端末装置に送信する通信手段とを備え、前記端末装置は、前記各コンテンツをサーバー装置から受信する通信手段と、これらのコンテンツを出力する出力手段とを備えている。   Alternatively, the content output system of the present invention is a content output system in which information communication is performed between a terminal device and a server device through a network, wherein the server device includes first and second content storage units each storing a plurality of contents. Categorizing incidental information of each content in the first content storage means according to a content group classification condition, and obtaining a content belonging to the content group from the contents, and a content obtained by the classification means Search condition generating means for generating a search condition from accompanying information of a group of contents, search means for searching for content corresponding to the search condition generated by the search condition generating means from the second content storage means, and the classification means Content group content and A communication unit that transmits the content searched by the search unit to the terminal device, and the terminal device includes a communication unit that receives the content from the server device, and an output unit that outputs the content. ing.

また、本発明のサーバー装置は、ネットワークを通じて、端末装置との間で情報通信を行うサーバー装置において、複数のコンテンツをそれぞれ記憶した第1及び第2コンテンツ記憶手段と、前記第1コンテンツ記憶手段内の各コンテンツの付随情報をコンテンツ群の分類条件で分類して、前記各コンテンツのうちからコンテンツ群に属するコンテンツを求める分類手段と、前記分類手段により求められたコンテンツ群のコンテンツの付随情報から検索条件を生成する検索条件生成手段と、前記第2コンテンツ記憶手段から前記検索条件生成手段により生成された検索条件に該当するコンテンツを検索する検索手段と、前記分類手段により求められたコンテンツ群のコンテンツ及び前記検索手段により検索されたコンテンツを共に端末装置に送信する通信手段とを備えている。   The server device according to the present invention includes a first and second content storage means each storing a plurality of contents in a server device that performs information communication with a terminal device through a network, and the first content storage means The content associated with each content is classified according to the content group classification condition, and the classification means for obtaining the content belonging to the content group from among the content, and the content associated information of the content group obtained by the classification means are searched. Search condition generation means for generating a condition, search means for searching for content corresponding to the search condition generated by the search condition generation means from the second content storage means, and content of the content group obtained by the classification means And the content searched by the search means together in the terminal device And a communication means for signal.

一方、本発明のコンテンツ出力装置は、複数のコンテンツをそれぞれ記憶した第1及び第2コンテンツ記憶手段と、前記第1コンテンツ記憶手段内の各コンテンツの付随情報をコンテンツ群の分類条件で分類して、前記各コンテンツのうちからコンテンツ群に属するコンテンツを求める分類手段と、前記分類手段により求められたコンテンツ群のコンテンツの付随情報から検索条件を生成する検索条件生成手段と、前記第2コンテンツ記憶手段から前記検索条件生成手段により生成された検索条件に該当するコンテンツを検索する検索手段と、前記分類手段により求められたコンテンツ群のコンテンツ及び前記検索手段により検索されたコンテンツを共に出力する出力手段とを備えている。   On the other hand, the content output apparatus of the present invention classifies the first and second content storage means each storing a plurality of contents and the accompanying information of each content in the first content storage means according to the content group classification condition. Classification means for obtaining content belonging to a content group from among the contents; search condition generation means for generating a search condition from incidental information of content of the content group obtained by the classification means; and the second content storage means Search means for searching for content corresponding to the search condition generated by the search condition generation means, and output means for outputting together the content of the content group obtained by the classification means and the content searched by the search means It has.

また、本発明のコンテンツ出力方法は、コンピュータを用いて、コンテンツを出力するコンテンツ出力方法において、コンピュータを、複数のコンテンツをそれぞれ記憶した第1及び第2コンテンツ記憶手段と、前記第1コンテンツ記憶手段内の各コンテンツの付随情報をコンテンツ群の分類条件で分類して、前記各コンテンツのうちからコンテンツ群に属するコンテンツを求める分類手段と、前記分類手段により求められたコンテンツ群のコンテンツの付随情報から検索条件を生成する検索条件生成手段と、前記第2コンテンツ記憶手段から前記検索条件生成手段により生成された検索条件に該当するコンテンツを検索する検索手段と、前記分類手段により求められたコンテンツ群のコンテンツ及び前記検索手段により検索されたコンテンツを共に出力する出力手段として機能させている。   The content output method of the present invention is a content output method for outputting content using a computer, wherein the computer includes first and second content storage means each storing a plurality of contents, and the first content storage means. The content information of each content in the content group is classified according to the content group classification condition, the content belonging to the content group from among the content, and the content information of the content group obtained by the classification means Search condition generating means for generating a search condition, search means for searching for content corresponding to the search condition generated by the search condition generating means from the second content storage means, and content groups obtained by the classification means Content and content retrieved by the retrieval means The are both made to function as an output unit for outputting.

また、本発明のコンテンツ出力プログラムは、コンピュータを用いて、コンテンツを出力するコンテンツ出力プログラムにおいて、コンピュータを、複数のコンテンツをそれぞれ記憶した第1及び第2コンテンツ記憶手段と、前記第1コンテンツ記憶手段内の各コンテンツの付随情報をコンテンツ群の分類条件で分類して、前記各コンテンツのうちからコンテンツ群に属するコンテンツを求める分類手段と、前記分類手段により求められたコンテンツ群のコンテンツの付随情報から検索条件を生成する検索条件生成手段と、前記第2コンテンツ記憶手段から前記検索条件生成手段により生成された検索条件に該当するコンテンツを検索する検索手段と、前記分類手段により求められたコンテンツ群のコンテンツ及び前記検索手段により検索されたコンテンツを共に出力する出力手段として機能させている。   The content output program of the present invention is a content output program for outputting content using a computer, wherein the computer stores first and second content storage means each storing a plurality of contents, and the first content storage means. The content information of each content in the content group is classified according to the content group classification condition, the content belonging to the content group from among the content, and the content information of the content group obtained by the classification means Search condition generating means for generating a search condition, search means for searching for content corresponding to the search condition generated by the search condition generating means from the second content storage means, and content groups obtained by the classification means Searched by content and the search means And are both made to function as an output means for outputting the content.

また、本発明の記録媒体は、上記本発明のコンテンツ出力プログラムを記憶している。   The recording medium of the present invention stores the content output program of the present invention.

本発明のコンテンツ出力システムでは、第1コンテンツ記憶手段内の各コンテンツの付随情報をコンテンツ群の分類条件で分類して、各コンテンツのうちからコンテンツ群に属するコンテンツを求め、このコンテンツ群のコンテンツの付随情報から検索条件を生成し、第2コンテンツ記憶手段から検索条件に該当するコンテンツを検索し、分類条件から求められたコンテンツ及び検索条件から求められたコンテンツを共に出力している。第1コンテンツ記憶手段が自己のパーソナルコンピュータ等の端末装置に存在し、第2コンテンツ記憶手段がネットワーク上のサーバー装置に存在しているので、自己のパーソナルコンピュータに蓄積されている各コンテンツの付随情報を分類条件で分類して、コンテンツ群に属するコンテンツを求め、このコンテンツ群のコンテンツの付随情報から検索条件を生成し、サーバー装置に蓄積されている各コンテンツから検索条件に該当するコンテンツを検索する。そして、分類条件から求められたコンテンツ及び検索条件から求められたコンテンツを共に出力する。すなわち、自己のパーソナルコンピュータ側で分類条件を適宜に設定すれば、分類条件に合うコンテンツが求められ、コンテンツの付随情報から生成された検索条件が生成され、サーバー装置側で検索条件に合うコンテンツが検索されることになり、分類条件から求められたコンテンツ及び検索条件から求められたコンテンツが共に出力される。従って、自己のパーソナルコンピュータ側で分類条件を設定するだけで、自己のパーソナルコンピュータ側及びサーバー装置側のいずれにおいても相互に関連するコンテンツが選択されて、この相互に関連するコンテンツが出力される。   In the content output system of the present invention, the incidental information of each content in the first content storage means is classified according to the content group classification condition, the content belonging to the content group is obtained from each content, and the content of this content group is determined. A search condition is generated from the accompanying information, content corresponding to the search condition is searched from the second content storage means, and the content obtained from the classification condition and the content obtained from the search condition are output together. Since the first content storage means exists in a terminal device such as its own personal computer and the second content storage means exists in a server device on the network, the accompanying information of each content stored in its own personal computer Are classified according to the classification condition, the contents belonging to the content group are obtained, the search condition is generated from the accompanying information of the content of the content group, and the content corresponding to the search condition is searched from each content stored in the server device. . Then, the content obtained from the classification condition and the content obtained from the search condition are output together. In other words, if the classification conditions are appropriately set on the personal computer side, content that satisfies the classification conditions is obtained, the search conditions generated from the accompanying information of the content are generated, and the contents that match the search conditions are generated on the server device side. As a result of the search, the content obtained from the classification condition and the content obtained from the search condition are output together. Therefore, by setting the classification condition on the personal computer side, the content related to each other is selected on both the personal computer side and the server device side, and the content related to each other is output.

例えば、コンテンツは、写真画像等の静止画像、動画像、音楽などである。また、コンテンツの出力とは、静止画像や動画像の表示、音楽の再生である。   For example, the content is a still image such as a photographic image, a moving image, music, or the like. The output of content is the display of still images and moving images, and the reproduction of music.

また、分類条件から求められたコンテンツ及び検索条件から求められたコンテンツの表示レイアウトを設定して、これらのコンテンツを該表示レイアウトで表示出力しているので、これらのコンテンツの好ましい表示を実現することができる。   In addition, since the display layout of the content obtained from the classification condition and the content obtained from the search condition is set and the content is displayed and output in the display layout, a preferable display of these contents is realized. Can do.

更に、分類条件から求められたコンテンツ及び検索条件から求められたコンテンツを識別可能に出力しているので、これらのコンテンツを識別することができる。   Furthermore, since the content obtained from the classification condition and the content obtained from the search condition are output in an identifiable manner, these contents can be identified.

また、分類条件から求められたコンテンツ及び検索条件から求められたコンテンツを該各コンテンツの付随情報と共に出力しているので、付随情報の確認が可能である。   Further, since the content obtained from the classification condition and the content obtained from the search condition are output together with the accompanying information of each content, the accompanying information can be confirmed.

更に、コンテンツ群の分類条件を入力するための入力操作手段を備えているので、任意の分類条件を入力設定することができる。   Furthermore, since the input operation means for inputting the classification condition of the content group is provided, an arbitrary classification condition can be input and set.

また、コンテンツ群の分類条件は、予め設定されるか、入力操作手段の入力操作により変更されるか、入力操作手段の入力操作により入力設定される。このように分類条件を設定するための種々の方法を適用することができる。   Further, the content group classification conditions are set in advance, changed by an input operation of the input operation means, or input set by an input operation of the input operation means. As described above, various methods for setting the classification condition can be applied.

また、付随情報は、位置情報もしくは日時情報である。位置情報は、写真画像等の静止画像や動画像の撮像位置を示しており、相互に関連する撮像位置のコンテンツが出力されることになる。また、日時情報は、写真画像等の静止画像や動画像の撮像日時を示しており、相互に関連する撮像日時のコンテンツが出力されることになる。   The accompanying information is position information or date / time information. The position information indicates the image capturing position of a still image such as a photographic image or a moving image, and the content of the image capturing position related to each other is output. The date / time information indicates the imaging date / time of a still image such as a photographic image or a moving image, and the contents of the imaging date / time related to each other are output.

例えば、各コンテンツの付随情報である位置情報もしくは日時情報を閾値と比較して、各コンテンツのうちからコンテンツ群に属するコンテンツを求めることができる。あるいは、各コンテンツの付随情報である日時情報を用いて、各コンテンツを時系列で配列した後、各コンテンツの付随情報である位置情報を用いて、配列された各コンテンツをコンテンツ群に分類することができる。   For example, position information or date / time information, which is accompanying information of each content, is compared with a threshold value, and content belonging to the content group can be obtained from each content. Alternatively, after arranging each content in time series using date and time information which is accompanying information of each content, the arranged contents are classified into content groups using position information which is accompanying information of each content. Can do.

更に、閾値は、予め設定されるか、入力操作手段の入力操作により変更されるか、入力操作手段の入力操作により入力設定されるか、又はコンテンツの付随情報に基づいて変更される。このように閾値を設定するための種々の方法を適用することができる。   Further, the threshold value is set in advance, changed by an input operation of the input operation means, input set by an input operation of the input operation means, or changed based on accompanying information of the content. Various methods for setting the threshold in this way can be applied.

また、端末装置からサーバー装置へとコンテンツ群の分類条件を要求し、サーバー装置から端末装置へとコンテンツ群の分類条件を端末装置に返信してもよい。   Further, the content group classification condition may be requested from the terminal device to the server device, and the content group classification condition may be returned to the terminal device from the server device to the terminal device.

更に、サーバー装置から端末装置へと送受されたコンテンツにはインターネット上のアドレスが含まれており、端末装置での入力操作に応答して端末装置からサーバー装置へとアドレスを送受し、サーバー装置で該アドレスに基づき情報を収集し、この情報をサーバー装置から端末装置へと送受し、端末装置で該情報を表示している。この情報を収集して送信するサーバー装置は、インターネット上の如何なるサーバ装置であってもよい。これにより、端末装置で出力されたコンテンツを起点にして、様々な情報をユーザーに提供することが可能となる。   Further, the content transmitted from the server device to the terminal device includes an address on the Internet. In response to an input operation at the terminal device, the address is transmitted from the terminal device to the server device. Information is collected based on the address, this information is transmitted from the server device to the terminal device, and the terminal device displays the information. The server device that collects and transmits this information may be any server device on the Internet. Thereby, it becomes possible to provide various information to the user starting from the content output from the terminal device.

尚、本発明のコンテンツ出力システムにおいて、端末装置とサーバー装置は、ネットワークを通じて、協働して処理を進行させることができるので、端末装置とサーバー装置間で、第1及び第2コンテンツ記憶手段、分類手段、検索条件生成手段、検索手段等を適宜に入れ替えることが可能である。   In the content output system of the present invention, since the terminal device and the server device can cooperate with each other through the network, the first and second content storage means between the terminal device and the server device, Classification means, search condition generation means, search means, and the like can be appropriately replaced.

一方、本発明のサーバー装置、コンテンツ出力装置、コンテンツ出力方法、コンテンツ出力プログラム、及びコンテンツ出力プログラムを記憶した記録媒体のいずれにおいても、上記本発明のコンテンツ出力システムと同様の作用及び効果を奏する。   On the other hand, any of the server device, the content output device, the content output method, the content output program, and the recording medium storing the content output program of the present invention has the same operations and effects as those of the content output system of the present invention.

また、本発明のマルチディスプレイ方法、及びその方法実施するためにコンピュータにより実行されるプログラムにおいても、上記本発明の表示装置と同様の作用効果を達成することができる。   The same effects as the display device of the present invention can also be achieved in the multi-display method of the present invention and the program executed by the computer for carrying out the method.

コンピュータは、プログラムを記録媒体から読出したり、プログラムを通信ネットワークを通じて受信し、プログラムを実行して、本発明を実施することができる。複数のコンピュータやインターネットからなるシステムにおいては、複数の処理を複数の端末に分散して行い得る。従って、プログラムは、コンピュータ等の単一の端末だけではなく、システムにも適用し得る。   The computer can implement the present invention by reading a program from a recording medium, receiving the program through a communication network, and executing the program. In a system composed of a plurality of computers and the Internet, a plurality of processes can be distributed to a plurality of terminals. Therefore, the program can be applied not only to a single terminal such as a computer but also to a system.

本発明のコンテンツ出力システムの一実施形態を示すブロック図である。It is a block diagram which shows one Embodiment of the content output system of this invention. 図1の端末装置におけるコンテンツの検索及び出力処理を示すフローチャートである。It is a flowchart which shows the search and output process of the content in the terminal device of FIG. 図1の端末装置における画面に表示される写真画像の付随情報のリストを例示する図である。It is a figure which illustrates the list | wrist of the accompanying information of the photograph image displayed on the screen in the terminal device of FIG. 広いエリアに入る撮影位置の写真画像を含むコンテンツ群を例示する図である。It is a figure which illustrates the content group containing the photograph image of the imaging position which enters into a wide area. 図1の端末装置における写真画像をコンテンツ群に分類するための処理を示すフローチャートである。It is a flowchart which shows the process for classifying the photograph image in the terminal device of FIG. 1 into a content group. 図1の端末装置からサーバー装置に与えられる検索条件を例示する図である。It is a figure which illustrates the search conditions given to the server apparatus from the terminal device of FIG. 図1のサーバー装置で検索された写真画像の付随情報を例示する図である。It is a figure which illustrates the accompanying information of the photographic image searched with the server apparatus of FIG. (a)、(b)は、図1の端末装置における画面上のコンテンツの表示形態をそれぞれ例示する図である。(A), (b) is a figure which respectively illustrates the display form of the content on the screen in the terminal device of FIG. 図1の端末装置における画面上のコンテンツの他の表示形態を例示する図である。It is a figure which illustrates the other display form of the content on the screen in the terminal device of FIG. 図1の端末装置における画面上のコンテンツを削除するときの操作を説明するため用いた図である。It is the figure used in order to demonstrate operation when deleting the content on the screen in the terminal device of FIG. (a)、(b)は、図1の端末装置におけるコンテンツの別の表示形態としての作品購買画面を示す図である。(A), (b) is a figure which shows the work purchase screen as another display form of the content in the terminal device of FIG. (a)、(b)は、図11の作品購買画面を表示するための端末装置及びサーバー装置による処理を示すフローチャートである。(A), (b) is a flowchart which shows the process by the terminal device and server apparatus for displaying the work purchase screen of FIG. 図1の端末装置におけるコンテンツの更に他の表示形態を例示する図である。It is a figure which illustrates the further another display form of the content in the terminal device of FIG. (a)、(b)は、図1の端末装置における画面上のコンテンツとして商品画像を表示した一例を示す図である。(A), (b) is a figure which shows an example which displayed the product image as the content on the screen in the terminal device of FIG. 図1の端末装置における画面上のコンテンツとして商品画像を表示した他の例を示す図である。It is a figure which shows the other example which displayed the product image as the content on the screen in the terminal device of FIG. 図1の端末装置の変形例を示すブロック図である。It is a block diagram which shows the modification of the terminal device of FIG. 図1のシステムの変形例を示すブロック図である。It is a block diagram which shows the modification of the system of FIG. 図1のシステムの他の変形例を示すブロック図である。It is a block diagram which shows the other modification of the system of FIG. 本発明のコンテンツ出力装置の一実施形態を示すブロック図である。It is a block diagram which shows one Embodiment of the content output device of this invention.

以下、本発明の実施形態を添付図面を参照しつつ詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明のコンテンツ出力システムの一実施形態を示すブロック図である。本実施形態のシステムは、ユーザー側の端末装置101、サーバー装置201、及び端末装置101とサーバー装置201を相互に接続するネットワークNを備えている。   FIG. 1 is a block diagram showing an embodiment of a content output system of the present invention. The system of this embodiment includes a terminal device 101 on the user side, a server device 201, and a network N that connects the terminal device 101 and the server device 201 to each other.

端末装置101は、パーソナルコンピュータやその周辺機器等からなるものであり、入力部102、コンテンツ管理部103、第1コンテンツ記憶部104、コンテンツ分類部105、検索条件生成部106、通信部107、表示生成部108、及び表示部109等を備えている。   The terminal device 101 includes a personal computer and peripheral devices thereof, and includes an input unit 102, a content management unit 103, a first content storage unit 104, a content classification unit 105, a search condition generation unit 106, a communication unit 107, a display. A generation unit 108, a display unit 109, and the like are provided.

入力部102は、キーボードやマウス等である。コンテンツ管理部103、コンテンツ分類部105、検索条件生成部106、及び表示生成部108は、CPUによりROM内のプログラムが読出され実行されて、それらの機能が具現化されるものである。第1コンテンツ記憶部104は、ハードディスク装置等の記憶装置である。通信部107は、通信用インターフェース等であり、ネットワークNを通じて、サーバー装置201との間でデータ通信を行う。表示部109は、液晶表示装置等の表示デバイスである。   The input unit 102 is a keyboard, a mouse, or the like. The content management unit 103, the content classification unit 105, the search condition generation unit 106, and the display generation unit 108 are implemented by reading out and executing programs in the ROM by the CPU and implementing their functions. The first content storage unit 104 is a storage device such as a hard disk device. The communication unit 107 is a communication interface or the like, and performs data communication with the server apparatus 201 through the network N. The display unit 109 is a display device such as a liquid crystal display device.

尚、第1コンテンツ記憶部104は、ハードディスク装置に限定されず、端末装置101で読取り可能なSDカード、DVDメディア、BDメディアなどの外部記憶媒体であってもよい。   Note that the first content storage unit 104 is not limited to a hard disk device, and may be an external storage medium such as an SD card, a DVD medium, or a BD medium that can be read by the terminal device 101.

サーバー装置201は、コンピュータやその周辺機器等からなるものであり、通信部202、検索部203、変換表記憶部204、及び第2コンテンツ記憶部205等を備えている。   The server device 201 includes a computer and its peripheral devices, and includes a communication unit 202, a search unit 203, a conversion table storage unit 204, a second content storage unit 205, and the like.

通信部202は、通信用インターフェース等であり、ネットワークNを通じて、端末装置101との間でデータ通信を行う。検索部203は、CPUによりROM内のプログラムが読出され実行されて、その機能が具現化されるものである。変換表記憶部204及び第2記憶部205は、ハードディスク装置等の記憶装置である。   The communication unit 202 is a communication interface or the like, and performs data communication with the terminal device 101 through the network N. In the search unit 203, a program in the ROM is read and executed by the CPU, and its function is realized. The conversion table storage unit 204 and the second storage unit 205 are storage devices such as a hard disk device.

ここで、端末装置101の第1コンテンツ記憶部104には、該端末装置101のインターフェース(図示せず)を通じて、複数のコンテンツが入力され記憶されている。第1コンテンツ記憶部104内のコンテンツは、端末装置101のユーザーが取得した個人の所有物である。   Here, a plurality of contents are inputted and stored in the first content storage unit 104 of the terminal device 101 through an interface (not shown) of the terminal device 101. The content in the first content storage unit 104 is a personal property acquired by the user of the terminal device 101.

また、サーバー装置201の第2コンテンツ記憶部205には、ネットワークN及び該サーバー装置201のインターフェース(図示せず)を通じて、多数のコンテンツが入力され記憶されている。第2コンテンツ記憶部205内のコンテンツは、不特定多数の人々が利用可能な共有物である。   In addition, a large number of contents are input and stored in the second content storage unit 205 of the server device 201 through the network N and an interface (not shown) of the server device 201. The content in the second content storage unit 205 is a shared material that can be used by an unspecified number of people.

これらのコンテンツは、写真画像等の静止画像などであり、撮影日時、撮影位置等を示す付随情報を有している。   These contents are still images such as photographic images, and have accompanying information indicating shooting date and time, shooting position, and the like.

このようなシステムにおいては、端末装置101の第1コンテンツ記憶部104内のコンテンツを出力するときに、このコンテンツに関連する他のコンテンツをサーバー装置201の第2コンテンツ記憶部205から検索して、端末装置101側でそれらのコンテンツを共に出力することができる。   In such a system, when content in the first content storage unit 104 of the terminal device 101 is output, other content related to this content is searched from the second content storage unit 205 of the server device 201, and These contents can be output together on the terminal device 101 side.

次に、図2のフローチャートに従って、そのようなコンテンツの検索及び出力処理を説明する。   Next, such content search and output processing will be described with reference to the flowchart of FIG.

端末装置101では、該端末装置101の電源スイッチが入れられて、端末装置101が起動された後、入力部102の入力操作によりコンテンツの分類が指示されると(ステップS301)、これに応答してコンテンツ管理部103は、第1コンテンツ記憶部104内のコンテンツを検索して、この検索したコンテンツのリストを生成し、このコンテンツのリストを表示生成部108を通じて表示部109の画面に表示する(ステップS302)。   In the terminal device 101, after the power switch of the terminal device 101 is turned on and the terminal device 101 is activated, when content classification is instructed by an input operation of the input unit 102 (step S301), the terminal device 101 responds thereto. The content management unit 103 searches the content in the first content storage unit 104, generates a list of the searched content, and displays the content list on the screen of the display unit 109 through the display generation unit 108 ( Step S302).

この際、第1コンテンツ記憶部104内のコンテンツ全てのリストを生成するようにしてもよいし、コンテンツの作成期間や年代、フォルダ階層、特定のタグがついたものなど、一部のコンテンツのリストを生成するようにしても構わない。一部のコンテンツのリストを生成する場合は、入力部102の入力操作によりコンテンツの分類を指示すると共に、作成期間や年代、フォルダ階層、特定のタグ等を指示する。コンテンツ管理部103は、指示された作成期間や年代、フォルダ階層、特定のタグ等に該当するコンテンツを選択して、選択したコンテンツのリストを生成する。例えば、コンテンツのサムネイルやファイル名をリストにして表示する。   At this time, a list of all the contents in the first content storage unit 104 may be generated, or a list of some contents such as a content creation period, age, folder hierarchy, and a specific tag. May be generated. When generating a list of some contents, the classification of contents is instructed by an input operation of the input unit 102, and the creation period, age, folder hierarchy, specific tag, and the like are instructed. The content management unit 103 selects content corresponding to the instructed creation period, age, folder hierarchy, specific tag, and the like, and generates a list of the selected content. For example, content thumbnails and file names are displayed as a list.

このコンテンツのリストは、表示部109の画面に表示されると同時に、コンテンツ分類部105に出力される。コンテンツ分類部105は、リストの各コンテンツの付随情報を参照し、各コンテンツを分類条件で幾つかのコンテンツ群に分類する(ステップS303)。この分類条件は、予め設定された複数種類のうちから入力部102の入力操作により選択されてもよいし、入力部102の入力操作により設定されてもよい。   This list of contents is displayed on the screen of the display unit 109 and simultaneously output to the content classification unit 105. The content classification unit 105 refers to the accompanying information of each content in the list, and classifies each content into several content groups under the classification condition (step S303). This classification condition may be selected from a plurality of preset types by an input operation of the input unit 102 or may be set by an input operation of the input unit 102.

検索条件生成部106は、コンテンツ群のコンテンツをコンテンツ分類部105からコンテンツ管理部103を介して受け取り、コンテンツの付随情報を参照して、付随情報から検索条件を生成する(ステップS304)。このとき、コンテンツ分類部105により1つのコンテンツ群が作成される度に、コンテンツ群に含まれる各コンテンツの付随情報から検索条件を生成してもよいし、コンテンツ分類部105により第1コンテンツ記憶部104内の全てのコンテンツの分類が終了して、全てのコンテンツ群が作成されてから、コンテンツ群別に、それぞれの検索条件を生成しても構わない。   The search condition generation unit 106 receives content of the content group from the content classification unit 105 via the content management unit 103, refers to the accompanying information of the content, and generates a search condition from the accompanying information (step S304). At this time, every time one content group is created by the content classification unit 105, a search condition may be generated from the accompanying information of each content included in the content group, or the first content storage unit may be generated by the content classification unit 105. After the classification of all the contents in 104 is completed and all the content groups are created, each search condition may be generated for each content group.

コンテンツ管理部103は、検索条件生成部106により生成された検索条件を受け取ると、この検索条件を通信部107からネットワークNを通じてサーバー装置201へと送信し、この検索条件に該当するコンテンツをサーバー装置201に要求する(ステップS305)。   When the content management unit 103 receives the search condition generated by the search condition generation unit 106, the content management unit 103 transmits the search condition from the communication unit 107 to the server device 201 through the network N, and the content corresponding to the search condition is transmitted to the server device. It requests to 201 (step S305).

サーバー装置201では、端末装置101からの検索条件をネットワークNを通じて通信部202で受信し、この検索条件を検索部203に入力する。   In the server device 201, the search condition from the terminal device 101 is received by the communication unit 202 through the network N, and this search condition is input to the search unit 203.

検索部203は、変換表記憶部204内の変換テーブルを参照して、この検索条件を第2コンテンツ記憶部205内の各コンテンツの付随情報に整合するように変換し、第2コンテンツ記憶部205内の各コンテンツの付随情報を参照して、その変換した検索条件に該当する付随情報を有するコンテンツを検索し、この検索したコンテンツを通信部202からネットワークNを通じて端末装置101に送信する。   The search unit 203 refers to the conversion table in the conversion table storage unit 204 and converts this search condition so as to match the accompanying information of each content in the second content storage unit 205, and the second content storage unit 205. The content having the accompanying information corresponding to the converted search condition is searched by referring to the accompanying information of each content, and the searched content is transmitted from the communication unit 202 to the terminal device 101 through the network N.

端末装置101では、サーバー装置201の応答を待機しており(ステップS306)、第2コンテンツ記憶部205内のコンテンツをネットワークNを通じて通信部107で受信すると(ステップS306で「yes」)、このコンテンツをコンテンツ管理部103に入力する(ステップS307)。コンテンツ管理部103は、第2コンテンツ記憶部205内のコンテンツと、ステップS303で分類されたコンテンツ群のコンテンツとを表示生成部108に出力する。   The terminal device 101 waits for a response from the server device 201 (step S306), and when the content in the second content storage unit 205 is received by the communication unit 107 through the network N (“yes” in step S306), this content Is input to the content management unit 103 (step S307). The content management unit 103 outputs the content in the second content storage unit 205 and the content of the content group classified in step S303 to the display generation unit 108.

表示生成部108は、これらのコンテンツを入力すると、これらのコンテンツの表示レイアウトを生成し(ステップS308)、これらのコンテンツをその表示レイアウトで表示部109の画面上に共に表示出力する(ステップS309)。   When these contents are input, the display generation unit 108 generates a display layout of these contents (step S308), and displays and outputs these contents together on the screen of the display unit 109 in the display layout (step S309). .

また、サーバー装置201の応答がなくて、サーバー装置201からのコンテンツが受信されなかった場合は(ステップS306で「no」)、ステップS303で分類されたコンテンツ群のコンテンツのみが表示部109の画面に表示出力される(ステップS308、S309)。   If no response is received from the server apparatus 201 and no content is received from the server apparatus 201 (“no” in step S306), only the contents of the content group classified in step S303 are displayed on the screen of the display unit 109. Is displayed and output (steps S308 and S309).

引き続いて、コンテンツ分類部105で分類された全てのコンテンツ群について、ステップS304〜S309の処理が終了したか否かが判定され(ステップS310)、終了していなければ(ステップS310で「no」)、ステップS304〜S309の処理が繰り返され、終了していれば(ステップS310で「yes」)、図2の処理が終了する。   Subsequently, for all content groups classified by the content classification unit 105, it is determined whether or not the processing in steps S304 to S309 has been completed (step S310). If not completed ("no" in step S310). If the processes in steps S304 to S309 are repeated and completed (“yes” in step S310), the process in FIG. 2 ends.

尚、ここでは、端末装置101の電源スイッチがオンにされ、入力部102の入力操作によりコンテンツの分類が指示されてから、ステップS302S以降の処理に進んで、コンテンツの分類を開始しているが、この代わりに、端末装置101の電源スイッチがオンにされると、ステップS302S以降の処理に直ちに進んでもよい。   Here, although the power switch of the terminal device 101 is turned on and the content classification is instructed by the input operation of the input unit 102, the process proceeds to the processing after step S302S and the content classification is started. Instead of this, when the power switch of the terminal device 101 is turned on, the process may proceed immediately to step S302S and subsequent steps.

また、端末装置101の動作中に、フラッシュメモリ等の記録媒体が端末装置101に装着もしくは接続されると、この記録媒体にコンテンツが記録されているか否かを判定し、コンテンツが記録されていると判定したときに、ステップS302S以降の処理に進んでもよい。   Further, when a recording medium such as a flash memory is attached or connected to the terminal apparatus 101 during operation of the terminal apparatus 101, it is determined whether or not content is recorded on the recording medium, and the content is recorded. If it is determined, the process may proceed to step S302S and subsequent steps.

更に、端末装置101の動作中に、ICカードやカード機能を有する携帯電話機等のカードがかざされると、カードをスキャンして、カードに特定の情報が記録されている否かを判定し、特定の情報が含まれていると判定したときに、ステップS302S以降の処理に進んでもよい。これにより、ユーザーは、カードのスキャンを行うだけで、ステップS302S以降の処理に進むことができる。例えば、カードを読み取り機(カードリーダやFelica等)によりスキャンして、端末装置101の(C:\user)、あるいはサーバー装置201の (\10.23.45.67\japan)やURL(http://pro/)等のインターネット上のアドレスがカードに記録されているか否かを判定し、このアドレスが記録されていると判定したときに、ステップS302S以降の処理に進む。この場合、アドレスとして第1コンテンツ記憶部104や第2コンテンツ記憶部205の所在を示すものを設定して、このアドレスを図2のフローチャートの処理を実行するアプリケーションに引き渡して、このアドレスに基づいて第1コンテンツ記憶部104や第2コンテンツ記憶部205にアクセスするようにしても構わない。また、このアドレスが記録されていると判定したときに、図2のフローチャートの処理を実行するアプリケーションを起動してもよい。あるいは、このアドレスが記録されていると判定したときに、この旨を表示部109の画面に表示し、この後の入力部102の入力操作による指示に応答してアプリケーションを起動してもよい。更に、このアドレスが記録されていると判定し、このアドレスに基づいて第1コンテンツ記憶部104や第2コンテンツ記憶部205にアクセスし、これらの記憶部に記憶されているコンテンツを確認してから、アプリケーションを起動してもよい。   Furthermore, when a card such as an IC card or a mobile phone having a card function is held over while the terminal device 101 is operating, the card is scanned to determine whether or not specific information is recorded on the card. When it is determined that the information is included, the process may proceed to step S302S and subsequent steps. As a result, the user can proceed to the processing after step S302S only by scanning the card. For example, a card is scanned by a reader (such as a card reader or Felica) and (C: \ user) of the terminal device 101 or (\ 10.23.45.67 \ japan) or URL (http: // pro) of the server device 201 is scanned. It is determined whether an address on the Internet such as /) is recorded on the card, and when it is determined that this address is recorded, the process proceeds to step S302S and subsequent steps. In this case, an address indicating the location of the first content storage unit 104 or the second content storage unit 205 is set as an address, and this address is delivered to an application that executes the processing of the flowchart of FIG. The first content storage unit 104 and the second content storage unit 205 may be accessed. Further, when it is determined that this address is recorded, an application for executing the processing of the flowchart of FIG. 2 may be activated. Alternatively, when it is determined that this address is recorded, this fact may be displayed on the screen of the display unit 109, and the application may be started in response to an instruction by an input operation of the input unit 102 thereafter. Furthermore, it is determined that this address is recorded, the first content storage unit 104 or the second content storage unit 205 is accessed based on this address, and the content stored in these storage units is confirmed. The application may be activated.

また、カードに記録される特定の情報としてユーザー情報を設定し、かつユーザー情報と第1コンテンツ記憶部104や第2コンテンツ記憶部205のアドレスとの対応テーブルを端末装置101のメモリに記憶しておく。そして、カードからユーザー情報を読み出すと、メモリ内のテーブルを参照して、ユーザー情報に対応する第1コンテンツ記憶部104や第2コンテンツ記憶部205のアドレスを取得し、このアドレスを図2のフローチャートの処理を実行するアプリケーションに引き渡して、このアドレスに基づいて第1コンテンツ記憶部104や第2コンテンツ記憶部205にアクセスするようにしても構わない。また、ユーザー情報と第1コンテンツ記憶部104や第2コンテンツ記憶部205のアドレスとの対応テーブルを作成するための処理を設定して、ユーザーが対応テーブルを作成することができるようにしてもよい。更に、ユーザー情報として、パスワード、個人名、会員番号、指紋等を設定してもよい。指紋等で有る場合は、この指紋を認識して識別する必要がある。   Further, user information is set as specific information recorded on the card, and a correspondence table between the user information and the addresses of the first content storage unit 104 and the second content storage unit 205 is stored in the memory of the terminal device 101. deep. Then, when the user information is read from the card, the addresses of the first content storage unit 104 and the second content storage unit 205 corresponding to the user information are obtained by referring to the table in the memory, and these addresses are shown in the flowchart of FIG. The first content storage unit 104 and the second content storage unit 205 may be accessed based on this address. Further, a process for creating a correspondence table between the user information and the addresses of the first content storage unit 104 and the second content storage unit 205 may be set so that the user can create the correspondence table. . Furthermore, a password, personal name, membership number, fingerprint, etc. may be set as user information. If it is a fingerprint, it is necessary to recognize and identify this fingerprint.

また、記録媒体やカード等にコンテンツの分類条件をも記憶しておき、カードがかざされると、カードからコンテンツの分類条件を読み出して、この分類条件をコンテンツ分類部105に引き渡し、コンテンツ分類部105によるコンテンツの分類を開始するようにしてもよい。   Further, content classification conditions are also stored in a recording medium or a card, and when the card is held over, the content classification conditions are read from the card, and the classification conditions are transferred to the content classification unit 105, and the content classification unit 105. The content classification by may be started.

次に、コンテンツの分類、検索、及び表示別に、具体例を述べる。   Next, specific examples will be described for each content classification, search, and display.

まず、コンテンツの分類について説明する。例えば、コンテンツが写真画像であるとすると、第1コンテンツ記憶部104には、端末装置101のユーザーが取得した個人の所有物である複数の写真画像が記憶されている。また、第2コンテンツ記憶部205には、不特定多数の人々が利用可能な共有物であって、例えば写真サービス会社などから提供された多数の写真画像が記憶されている。   First, content classification will be described. For example, if the content is a photographic image, the first content storage unit 104 stores a plurality of photographic images that are personal belongings acquired by the user of the terminal device 101. The second content storage unit 205 stores a large number of photographic images provided by, for example, a photographic service company, which are shared materials that can be used by an unspecified number of people.

ここで、端末装置101において、入力部102の入力操作により写真画像の分類が指示されると、これに応答してコンテンツ管理部103は、第1コンテンツ記憶部104内の写真画像を検索して、この検索した写真画像のリストを生成し、この写真画像のリストを表示生成部108を通じて表示部109の画面に表示する。   Here, when the terminal device 101 is instructed to classify a photographic image by an input operation of the input unit 102, in response to this, the content management unit 103 searches for a photographic image in the first content storage unit 104. Then, a list of the retrieved photographic images is generated, and the photographic image list is displayed on the screen of the display unit 109 through the display generation unit 108.

図3は、写真画像のリストを例示している。このリストには、各写真画像の付随情報が記載されている。付随情報は、写真画像の識別子<picture id=" ">、写真画像のURLである<url>、撮影日時情報<time>、撮影位置の緯度情報<gps-lat>、撮影位置の経度情報<gps-long>、ユーザーコメント<comment>等である。勿論、付随情報として他の情報が含まれていてもよいし、情報の種類が増減されても構わない。また、写真画像の付随情報をXMLにて記述しているが、他の記述言語やバイナリデータ、プログラム内部で扱う構造データの形式で記述しても構わない。   FIG. 3 illustrates a list of photographic images. In this list, accompanying information of each photographic image is described. The accompanying information includes a photo image identifier <picture id = "">, a photo image URL <url>, shooting date and time information <time>, shooting position latitude information <gps-lat>, and shooting position longitude information < gps-long>, user comment <comment>, etc. Of course, other information may be included as accompanying information, and the types of information may be increased or decreased. Although the accompanying information of the photographic image is described in XML, it may be described in another description language, binary data, or a structure data format handled in the program.

この写真画像のリストは、表示部109の画面に表示されると同時に、コンテンツ分類部105に出力される。コンテンツ分類部105は、このリストの各写真画像の付随情報を参照し、各写真画像を分類条件で幾つかのコンテンツ群に分類する。   This list of photographic images is displayed on the screen of the display unit 109 and simultaneously output to the content classification unit 105. The content classification unit 105 refers to the accompanying information of each photographic image in this list and classifies each photographic image into several content groups based on the classification condition.

例えば、コンテンツ分類部105では、写真画像の付随情報である撮影位置の経度情報<gps-long>に着眼し、各写真画像の経度情報<gps-long>を参照して、1枚の写真画像の撮影位置を基点とする一定エリアに入る写真画像の撮影位置を求め、この一定エリアに撮影位置が入る写真画像の全てを1つのコンテンツ群とする分類条件で、各写真画像を分類する。   For example, the content classification unit 105 focuses on the longitude information <gps-long> of the shooting position, which is accompanying information of the photographic image, and refers to the longitude information <gps-long> of each photographic image to obtain one photographic image. The photographic position of a photographic image that falls within a certain area with the photographic position as the base point is obtained, and each photographic image is classified under a classification condition in which all the photographic images that have the photographing position within this certain area are set as one content group.

識別子<picture id="1">の写真画像の撮影位置を基点とした場合は、識別子<picture id="2">、<picture id="3">等の他の写真画像別に、基点からの撮影位置の離間距離を算出する。基点と識別子<picture id="2">の写真画像の撮影位置の差は経度にして2分、つまり約3kmの離間距離である。これと同様に経度の差に対応する離間距離を求めると、基点と識別子<picture id="3">の写真画像の撮影位置間の離間距離が6km、基点と識別子<picture id="4">の写真画像の撮影位置間の離間距離が7.5km、基点と識別子<picture id="5">の写真画像の撮影位置間の離間距離が1.5kmである。   When the shooting position of the photo image with the identifier <picture id = "1"> is used as the base point, the base point for each other photo image such as the identifier <picture id = "2"> or <picture id = "3"> The separation distance of the shooting positions is calculated. The difference between the shooting positions of the photographic image of the base point and the identifier <picture id = "2"> is 2 minutes in longitude, that is, a separation distance of about 3 km. Similarly, when the separation distance corresponding to the difference in longitude is obtained, the separation distance between the shooting position of the photograph image of the base point and the identifier <picture id = "3"> is 6 km, and the base point and the identifier <picture id = "4" The separation distance between the photographing positions of the photographic image is 7.5 km, and the separation distance between the photographing positions of the photographic image with the base point and the identifier <picture id = "5"> is 1.5 km.

そして、識別子<picture id="2">、<picture id="3">等の他の写真画像別に、基点からの撮影位置の離間距離を閾値と比較し、この離間距離が閾値未満であれば、その写真画像を識別子<picture id="1">の写真画像と同一のコンテンツ群に分類し、また離間距離が閾値以上であれば、その写真画像を識別子<picture id="1">の写真画像と同一のコンテンツ群に分類しない。   Then, for each of other photographic images such as the identifier <picture id = "2">, <picture id = "3">, the separation distance of the shooting position from the base point is compared with a threshold value, and if this separation distance is less than the threshold value, For example, the photo image is classified into the same content group as the photo image with the identifier <picture id = "1">, and if the separation distance is equal to or greater than the threshold, the photo image is identified with the identifier <picture id = "1"> Do not categorize in the same content group as the photographic image.

幾つかの写真画像の撮影位置を基点として、基点毎に、基点からの写真画像の撮影位置の離間距離を求め、この写真画像の撮影位置の離間距離を閾値と比較して、この写真画像を基点の写真画像と同一のコンテンツ群に分類するか否かを決める。これにより、複数のコンテンツ群を求めることができる。   Taking the shooting position of several photographic images as a base point, for each base point, the separation distance of the shooting position of the photographic image from the base point is obtained, and the separation distance of the shooting position of this photographic image is compared with a threshold value, Decide whether to classify into the same content group as the photographic image of the base point. Thereby, a plurality of content groups can be obtained.

勿論、経度情報<gps-long>だけではなく、緯度情報<gps-lat>を用いたり、両者を用いて、各写真画像の撮影位置間の離間距離を求めてもよい。   Of course, not only the longitude information <gps-long> but also the latitude information <gps-lat> may be used, or the distance between the shooting positions of each photographic image may be obtained using both.

尚、閾値は、端末装置101のメモリに予め設定して記憶しておいてもよいし、ユーザーの入力部102の入力操作により適宜に変更したり入力設定しても構わない。また、基点や撮影日時、コンテンツの種類などによって閾値を変化させることも可能である。他にも、第1コンテンツ記憶部104内の写真画像全ての撮影位置から、全体の撮影範囲を求めて、この全体の撮影範囲に応じた閾値を算出してもよい。例えば、全体の撮影範囲が広い場合は、閾値を大きくし、全体の撮影範囲が狭い場合は、閾値を小さく設定する。これにより、各コンテンツ群に含まれる写真画像数を調整することが可能となる。   Note that the threshold value may be set and stored in advance in the memory of the terminal device 101, or may be appropriately changed or input set by an input operation of the input unit 102 by the user. It is also possible to change the threshold according to the base point, shooting date and time, content type, and the like. In addition, the entire shooting range may be obtained from the shooting positions of all the photographic images in the first content storage unit 104, and a threshold value corresponding to the entire shooting range may be calculated. For example, when the entire shooting range is wide, the threshold value is increased, and when the entire shooting range is narrow, the threshold value is set small. As a result, the number of photographic images included in each content group can be adjusted.

更に、閾値を端末装置101からサーバー装置201に問合せてもよい。例えば、端末装置101では、識別子<picture id="1">の写真画像の撮影位置をサーバー装置201に送信して、閾値を要求する。サーバー装置201では、エリアと閾値を対応付けたデータテーブルを備えており、端末装置101からの撮影位置が入るエリアを求め、このエリアに対応する閾値をデータテーブルから検索して、この閾値を端末装置101に送信する。より具体的には、データテーブルとして、富士山の広いエリアに対応して大きな閾値を設定し、遊園地等の狭いエリアに対応して小さな閾値を設定したデータテーブルを用いる。そして、撮影位置が富士山の広いエリアに入れば、このエリアに対応する大きな閾値を端末装置101に送信し、また撮影位置が遊園地の狭いエリアに入れば、このエリアに対応する小さな閾値を端末装置101に送信する。これにより、広いエリアに入る撮影位置の写真画像を1つのコンテンツ群に含ませたり、狭いエリアに入る撮影位置の写真画像を1つのコンテンツ群に含ませることができる。図4は、広いエリアに入る撮影位置の写真画像を含むコンテンツ群を例示する図である。ここでは、識別子<picture id="1">、識別子<picture id="2">、<picture id="5">の各写真画像が1つのコンテンツ群として纏められている。   Furthermore, the threshold value may be inquired from the terminal device 101 to the server device 201. For example, the terminal device 101 transmits the shooting position of the photographic image with the identifier <picture id = "1"> to the server device 201 to request a threshold value. The server device 201 includes a data table in which areas and thresholds are associated with each other. The server device 201 obtains an area where the shooting position from the terminal device 101 is entered, searches the data table for a threshold value corresponding to this area, and sets the threshold value to the terminal. Send to device 101. More specifically, as the data table, a data table in which a large threshold value is set corresponding to a large area of Mt. Fuji and a small threshold value is set corresponding to a narrow area such as an amusement park is used. If the shooting position enters a wide area of Mt. Fuji, a large threshold value corresponding to this area is transmitted to the terminal device 101. If the shooting position enters a narrow area of the amusement park, a small threshold value corresponding to this area is set to the terminal. Send to device 101. Accordingly, a photographic image at a shooting position that falls within a wide area can be included in one content group, and a photographic image at a shooting position that falls within a narrow area can be included in one content group. FIG. 4 is a diagram illustrating a content group including a photographic image at a shooting position that falls within a wide area. Here, each picture image of identifier <picture id = "1">, identifier <picture id = "2">, and <picture id = "5"> is collected as one content group.

コンテンツの他の分類方法として、撮影位置ではなく、撮影日時に着眼し、各写真画像の撮影日時情報<time>を参照して、相互の撮影時間間隔が短い写真画像を1つのコンテンツ群に分類するという分類条件で、各写真画像を分類することも可能である。   As another method of classifying content, focus on the shooting date and time, not the shooting position, and refer to the shooting date and time information <time> of each photo image to classify photographic images with short mutual shooting time intervals into one content group It is also possible to classify each photographic image under the classification condition of performing.

例えば、コンテンツ分類部105は、図3のコンテンツリストにおける各写真画像の撮影日時情報<time>を参照して、各写真画像をそれらの撮影順に並び替える。そして、コンテンツ分類部105は、各写真画像を先頭から順次選択し、一つの写真画像と次の順番の写真画像間の撮影日時差を算出して、その日時差が閾値未満であるか否かを判定し、閾値未満であれば、一つの写真画像のコンテンツ群に次の順番の写真画像を含ませ、閾値以上であれば、コンテンツ群を新たに設定して、この新たなコンテンツ群に次の順番の写真画像を含ませる。これにより、相互の撮影時間間隔が短い写真画像を1つのコンテンツ群に分類することができる。   For example, the content classification unit 105 refers to the shooting date / time information <time> of each photographic image in the content list of FIG. 3 and rearranges the photographic images in the shooting order. Then, the content classification unit 105 sequentially selects each photo image from the top, calculates a shooting date difference between one photo image and the next photo image, and determines whether the date difference is less than a threshold value. If it is less than the threshold, the next group of photographic images is included in the content group of one photographic image, and if it is greater than or equal to the threshold, a new content group is set, and the next content group is set to the next content group. Include sequential photographic images. Thereby, it is possible to classify photographic images having a short shooting time interval into one content group.

すなわち、ある基点の写真画像からどれだけの時間が空いたかを算出し、ある一定の時間内の写真画像を一つのコンテンツ群に纏める。   That is, how much time is available from a photographic image at a certain base point is calculated, and photographic images within a certain period of time are combined into one content group.

例えば、図3において、識別子<picture id="1">の写真画像を基点とすると、<id="2">の写真画像との時間差は0分、<id="3">の写真画像との時間差は17分、<id="4">の写真画像との時間差は17分、<id="5">の写真との時間差は22分となる。そして、それぞれの写真画像の時間差と閾値を比較し、時間差が閾値未満であるか否かに応じて、これらの写真画像を、<picture id="1">の写真画像のコンテンツ群に纏めるか否かを決定する。   For example, in FIG. 3, assuming that the photograph image with the identifier <picture id = "1"> is the base point, the time difference from the photograph image with <id = "2"> is 0 minute, and the photograph image with <id = "3"> The time difference from the photo image of <id = "4"> is 17 minutes, and the time difference from the photo of <id = "5"> is 22 minutes. Then, the time difference of each photographic image is compared with a threshold value, and depending on whether or not the time difference is less than the threshold value, whether these photographic images are grouped into a content group of photographic image of <picture id = "1"> Decide whether or not.

閾値を10分とした場合は、<picture id="1">、<id="2">、<id="3">が1つのコンテンツ群に纏められる。   When the threshold is 10 minutes, <picture id = "1">, <id = "2">, <id = "3"> are combined into one content group.

1つのコンテンツ群を纏め終わると、次の基点となる写真画像を選んで、いずれのコンテンツ群にも属していない写真画像との時間差を算出して、この時間差が閾値未満であれば、写真画像を新たなコンテンツ群に纏める。   When one content group is gathered, the next photographic image is selected, the time difference from a photographic image that does not belong to any content group is calculated, and if this time difference is less than the threshold, the photographic image Are grouped into new content groups.

また、基点とする写真画像をずらしていくという方法もある。   There is also a method of shifting a photographic image as a base point.

例えば、図3において、識別子<picture id="1">の写真画像を基点として、<id="2">の写真画像との時間差を取得し、この時間差が閾値未満であれば、写真画像をコンテンツ群に入れる。閾値を超えているなら、新たなコンテンツ群を作成する。そして、<id="2">の写真画像を基点として、<id="3">の写真画像との時間差を取得し、この時間差が閾値未満であれば、写真画像を新たなコンテンツ群に入れ、閾値を超えているなら、新たなコンテンツ群を作成する。以降、同様の処理を繰り返す。   For example, in FIG. 3, the time difference from the photo image of <id = "2"> is acquired from the photo image of the identifier <picture id = "1"> as a base point, and if this time difference is less than the threshold, the photo image Into the content group. If the threshold is exceeded, a new content group is created. Then, using the photo image of <id = "2"> as a base point, the time difference from the photo image of <id = "3"> is acquired. If this time difference is less than the threshold, the photo image is added to a new content group. If it exceeds the threshold, a new content group is created. Thereafter, the same processing is repeated.

閾値を10分とした場合、<picture id="1">、<id="2">、 <id="3">、 <id="4">が1つのコンテンツ群となり、<id="5">が他の1つのコンテンツ群となる。これにより、撮影の時間間隔が短い写真画像を一つのコンテンツ群とすることができる。   When the threshold is 10 minutes, <picture id = "1">, <id = "2">, <id = "3">, <id = "4"> are one content group, and <id = “5”> is another content group. As a result, photographic images with a short photographing time interval can be made into one content group.

閾値の設定については、先に述べた写真画像の撮影位置の離間距離と比較される閾値と同様に、多様な方法で設定することができる。例えば、第1コンテンツ記憶部104内の写真画像全体で時間差の最大値を算出しておき、この最大値が大きいときに閾値を小さく、時間差が小さいときに閾値を小さく設定してもよい。これにより、コンテンツ群に含まれる写真画像の数を調整する事ができる。   The threshold value can be set by various methods in the same manner as the threshold value compared with the separation distance of the photographing position of the photographic image described above. For example, the maximum value of the time difference may be calculated for the entire photographic image in the first content storage unit 104, and the threshold value may be set small when the maximum value is large, and the threshold value may be set small when the time difference is small. As a result, the number of photographic images included in the content group can be adjusted.

また、写真画像の撮影時刻だけではなく、1日単位や1週間単位、1ヶ月単位、1年単位、更には季節単位や朝昼夜単位でコンテンツ群を作成することもできる。   In addition, the content group can be created not only at the photographing time of the photographic image, but also on a daily basis, on a weekly basis, on a monthly basis, on a yearly basis, or on a seasonal basis or morning / day / night basis.

更に、閾値を自動で調整するのではなく、端末装置101からサーバー装置201へと日時情報を送信し、サーバー201側で該日時情報の日時に近いコンテンツのリストを作成して、このコンテンツのリストをサーバー装置201に返信するようにしてもよい。   Further, instead of automatically adjusting the threshold value, the date and time information is transmitted from the terminal apparatus 101 to the server apparatus 201, and a list of contents close to the date and time of the date and time information is created on the server 201 side. May be returned to the server apparatus 201.

コンテンツの他の分類方法として、撮影日時又は撮影位置を選択的に用いるのではなく、撮影日時及び撮影位置を共に用いて、写真画像をコンテンツ群に分類してもよい。   As another method for classifying content, a photographic image may be classified into a content group by using both the shooting date and the shooting position instead of selectively using the shooting date and the shooting position.

例えば、図3のコンテンツリストにおける各写真画像の撮影日時情報<time>を参照して、各写真画像をそれらの撮影順に並び替える。そして、コンテンツ分類部105は、各写真画像を先頭から順次選択し、一つの写真画像の撮影位置と次の順番の写真画像の撮影位置間の離間距離を求め、この離間距離が閾値未満であるか否かを判定し、閾値未満であれば、一つの写真画像のコンテンツ群に次の順番の写真画像を含ませ、閾値以上であれば、コンテンツ群を新たに設定して、この新たなコンテンツ群に次の順番の写真画像を含ませる。これにより、撮影日時順にかつ相互に近い撮影位置の写真画像を1つのコンテンツ群に分類することができる。この方法を用いれば、旅行等の写真画像に関しては、日時に従って、かつその場所場所での写真画像を同一のコンテンツ群に纏めることができるので、ユーザーにとってより好ましい分類が可能となる。   For example, referring to the shooting date / time information <time> of each photo image in the content list of FIG. 3, the photo images are rearranged in the shooting order thereof. Then, the content classification unit 105 sequentially selects each photographic image from the top, obtains a separation distance between the photographing position of one photographic image and the photographing position of the next photographic image, and this separation distance is less than the threshold value. If it is less than the threshold, the next group of photographic images is included in the content group of one photographic image, and if it is greater than or equal to the threshold, a new content group is set and this new content is set. Include the next photographic image in the group. Thereby, it is possible to classify photographic images at photographing positions close to each other in order of photographing date and time into one content group. By using this method, it is possible to classify photographic images such as travel according to the date and time and place them in the same content group, so that it can be classified more favorably for the user.

更に、一部の写真画像だけに撮影位置が付随する場合は、撮影位置及び撮影日時を用いて、写真画像をコンテンツ群に分類することができる。   Furthermore, when a shooting position is attached to only some of the photographic images, the photographic images can be classified into content groups using the shooting position and the shooting date / time.

図5のフローチャートを参照しつつ、そのように写真画像をコンテンツ群に分類するための処理を説明する。   A process for classifying photographic images into content groups will be described with reference to the flowchart of FIG.

コンテンツ分類部105は、写真画像のリストを受け取ると、各写真画像の付随情報を参照して、写真画像毎に、撮影位置の有無を判定する(ステップS601)。そして、撮影位置が付随する写真画像があれば、この写真画像の撮影位置を基点として設定し、この写真画像の付随情報から撮影日時情報を取得する(ステップS602)。   Upon receiving the list of photographic images, the content classification unit 105 refers to the accompanying information of each photographic image and determines the presence / absence of a shooting position for each photographic image (step S601). If there is a photographic image accompanied by a photographing position, the photographing position of the photographic image is set as a base point, and photographing date / time information is acquired from the accompanying information of the photographic image (step S602).

引き続いて、コンテンツ分類部105は、基点となった写真画像よりも1つ前の順番の写真画像の付随情報から撮影日時情報を取得し(ステップS603)、これらの写真画像の撮影日時の時間差を求め、この時間差が閾値未満であるか否かを判定する(S604)。そして、閾値未満であれば(ステップS604で「yes」)、ステップS603に戻って、更に1つ前の写真画像の付随情報から撮影日時情報を取得し(ステップS603)、この写真画像の撮影日時と前回のステップS603で求められた写真画像との撮影日時の時間差を求め、この時間差が閾値未満であるか否かを判定する(S604)。以降同様に、閾値未満であれば(ステップS604で「yes」)、ステップS603に戻って、更に1つ前の写真画像の付随情報から撮影日時情報を取得し(ステップS603)、リスト上で隣り合う2つの写真画像の撮影日時の時間差を求め、この時間差が閾値未満であるか否かを判定する(ステップS604)。そして、閾値以上になると(ステップS604で「no」)、1つ後の順番の写真画像に戻って、この写真画像をコンテンツ群の最初の写真画像とする(ステップS605)。   Subsequently, the content classification unit 105 acquires shooting date / time information from the incidental information of the photo image one order before the photo image that is the base point (step S603), and calculates the time difference between the shooting dates / times of these photo images. Then, it is determined whether or not this time difference is less than the threshold value (S604). If it is less than the threshold (“yes” in step S604), the process returns to step S603 to obtain shooting date / time information from the accompanying information of the previous photographic image (step S603). The time difference between the photographing date and time of the photograph image obtained in the previous step S603 is obtained, and it is determined whether or not this time difference is less than the threshold value (S604). Thereafter, similarly, if it is less than the threshold value (“yes” in step S604), the process returns to step S603 to obtain shooting date / time information from the accompanying information of the previous photographic image (step S603), and is adjacent on the list. A time difference between the shooting dates and times of two matching photographic images is obtained, and it is determined whether or not this time difference is less than a threshold value (step S604). When the threshold value is exceeded ("no" in step S604), the process returns to the next photographic image in order, and this photographic image is set as the first photographic image in the content group (step S605).

すなわち、撮影日時の時間差が閾値未満である限りは、写真画像を順次遡って1つのコンテンツ群に含ませる。   That is, as long as the time difference between the shooting dates and times is less than the threshold value, the photographic images are sequentially included in one content group.

次に、コンテンツ分類部105は、基点となった写真画像に戻って(ステップS606)、この写真画像よりも1つ後の順番の写真画像の付随情報から撮影日時情報を取得し(ステップS607)、これらの写真画像の撮影日時の時間差を求め、この時間差が閾値未満であるか否かを判定する(S608)。そして、閾値未満であれば(ステップS608で「yes」)、ステップS607に戻って、更に1つ後の写真画像の付随情報から撮影日時情報を取得し(ステップS607)、この写真画像の撮影日時と前回のステップS607で求められた写真画像との撮影日時の時間差を求め、この時間差が閾値未満であるか否かを判定する(S608)。以降同様に、閾値未満であれば(ステップS608で「yes」)、ステップS607に戻って、更に1つ後の写真画像の付随情報から撮影日時情報を取得し(ステップS607)、リスト上で隣り合う2つの写真画像の撮影日時の時間差を求め、この時間差が閾値未満であるか否かを判定する(ステップS608)。そして、閾値以上になると(ステップS608で「no」)、1つ前の順番の写真画像に戻って、この写真画像をコンテンツ群の最後の写真画像とする(ステップS609)。   Next, the content classification unit 105 returns to the photographic image that is the base point (step S606), and obtains the shooting date / time information from the accompanying information of the photographic image one order after the photographic image (step S607). Then, a time difference between the photographing dates and times of these photographic images is obtained, and it is determined whether or not this time difference is less than a threshold value (S608). If it is less than the threshold value (“yes” in step S608), the process returns to step S607 to acquire shooting date / time information from the accompanying information of the next photographic image (step S607). The time difference between the photographing date and time of the photograph image obtained in the previous step S607 is obtained, and it is determined whether or not this time difference is less than the threshold value (S608). Thereafter, similarly, if it is less than the threshold value (“yes” in step S608), the process returns to step S607 to obtain shooting date / time information from the accompanying information of the next photographic image (step S607), and is adjacent on the list. A time difference between the shooting dates and times of two matching photographic images is obtained, and it is determined whether or not this time difference is less than a threshold value (step S608). When the value is equal to or greater than the threshold (“no” in step S608), the process returns to the previous photographic image and sets this photographic image as the last photographic image in the content group (step S609).

すなわち、撮影日時の時間差が閾値未満である限りは、写真画像を順次進めて1つのコンテンツ群に含ませる。   That is, as long as the time difference between the shooting dates and times is less than the threshold, the photographic images are sequentially advanced and included in one content group.

こうして最初の写真画像と最後の写真画像を求め、最初の写真画像から最後の写真画像までを1つのコンテンツ群とする(ステップS610)。   Thus, the first photographic image and the last photographic image are obtained, and the contents from the first photographic image to the last photographic image are set as one content group (step S610).

尚、図5の処理では、リスト上で隣り合う2つの写真画像の撮影日時の時間差が閾値未満である限り、これらの写真画像を1つのコンテンツ群に纏めているが、基点の写真画像の撮影日時を中心とする一定時間内に撮影された写真画像を1つのコンテンツ群とする分類条件を用いてもよい。例えば、基点の写真画像の撮影日時がAM9:00で、一定時間を2時間とした場合は、AM8:00〜AM10:00の範囲に撮影日時が含まれる写真画像の全てを1つのコンテンツ群に纏める。   In the process of FIG. 5, as long as the time difference between the shooting dates and times of two adjacent photographic images on the list is less than the threshold, these photographic images are combined into one content group. You may use the classification conditions which make the photograph image image | photographed within the fixed time centering on the date and time as one content group. For example, when the photographing date and time of the base photographic image is AM 9:00 and the predetermined time is 2 hours, all the photographic images whose photographing date and time are included in the range of AM 8:00 to AM 10:00 are combined into one content group. Put together.

また、写真画像の付随情報として、コメントもしくはマークが設定されている場合は、これらのコメントもしくはマークを用いて、写真画像をコンテンツ群に分類することができる。   When comments or marks are set as accompanying information of photographic images, the photographic images can be classified into content groups using these comments or marks.

例えば、図3の写真画像のリストにおいては、付随情報にコメント情報<comment>が設定されている写真画像と設定されていない写真画像がある。コンテンツ分類部105は、写真画像のリストにおける各写真画像の付随情報を参照して、写真画像毎に、コメント情報<comment>の有無を判定し、コメント情報<comment>を有する写真画像だけを抽出して1つのコンテンツ群に纏める。   For example, in the list of photographic images in FIG. 3, there are photographic images in which comment information <comment> is set as accompanying information and photographic images that are not set. The content classification unit 105 refers to the accompanying information of each photographic image in the list of photographic images, determines the presence or absence of comment information <comment> for each photographic image, and extracts only photographic images having the comment information <comment>. Into one content group.

あるいは、リスト上の写真画像の順番や、撮影日時等に従って配列された写真画像の順番で、各写真画像の付随情報を順次読み出して、写真画像毎に、コメント情報<comment>の有無を判定し、コメント情報<comment>を有する写真画像があったならば、この写真画像までの順番の各写真画像を1つのコンテンツ群に纏め、次の写真画像からコメント情報<comment>を有する別の写真画像までの順番の各写真画像を他の1つのコンテンツ群に纏めるようにする。又は、コメント情報<comment>を有する写真画像があったならば、この写真画像よりも1つ手前までの順番の各写真画像を1つのコンテンツ群に纏め、この写真画像からコメント情報<comment>を有する別の写真画像の1つ手前までの順番の各写真画像を他の1つのコンテンツ群に纏めてもよい。勿論、コメントと同様に、マークを指標にして、各写真画像をコンテンツ群に纏めることができる。   Alternatively, the accompanying information of each photographic image is sequentially read out in the order of the photographic images on the list and in the order of the photographic images arranged according to the shooting date and time, and the presence or absence of comment information <comment> is determined for each photographic image. If there is a photographic image having comment information <comment>, each photographic image in the order up to this photographic image is collected into one content group, and another photographic image having comment information <comment> from the next photographic image. Each photographic image in the order up to is collected into another content group. Alternatively, if there is a photographic image having comment information <comment>, the photographic images in the order one order before this photographic image are collected into one content group, and the comment information <comment> is obtained from this photographic image. Each photographic image in the order up to one prior to another photographic image may be combined into another content group. Of course, as with comments, each photographic image can be grouped into a content group using a mark as an index.

このように写真画像を分類するための幾つかの方法を述べたが、更に他の方法もある。例えば、利用者が手動で分類しても構わない。手動での分類方法は、例えば画面上に写真画像をサムネイル表示して、ユーザーがコンテンツ群に属する写真画像を選択したり、写真画像のスライドショーを表示しているときに、ユーザーがコンテンツ群に属する写真画像を逐次入力指定するなどがある。   Although several methods have been described for classifying photographic images in this way, there are still other methods. For example, the user may manually classify. The manual classification method is, for example, when thumbnails of photographic images are displayed on the screen, and the user selects a photographic image belonging to the content group or displays a slideshow of photographic images, the user belongs to the content group. For example, you can specify input of photographic images sequentially.

尚、分類条件は、デフォルト設定されてもよいし、入力部102の入力操作により入力設定されたり変更されてもよい。あるいは、複数種類の分類条件を予め設定しておき、これらの分類条件を表示部109の画面に表示し、入力部102の入力操作により、画面上のいずれかの分類条件を選択するようにしても構わない。また、上記ステップS302でコンテンツのリストが表示された後、分類条件の入力や選択が行われてからステップS303に進んだり、分類条件の入力や選択が行われない限りは、ステップS303への移行を禁止してもよい。   The classification condition may be set as default, or may be input or changed by an input operation of the input unit 102. Alternatively, a plurality of types of classification conditions are set in advance, these classification conditions are displayed on the screen of the display unit 109, and one of the classification conditions on the screen is selected by an input operation of the input unit 102. It doesn't matter. After the content list is displayed in step S302, the process proceeds to step S303 after the classification condition is input or selected, or the process proceeds to step S303 unless the classification condition is input or selected. May be prohibited.

次に、コンテンツの検索について説明する。端末装置101において、コンテンツ分類部105によりコンテンツ群が作成されると、コンテンツ群がコンテンツ管理部103を介して検索条件生成部106に引き渡される。検索条件生成部106は、コンテンツ群に含まれる写真画像の付随情報を用いて、サーバー装置201の第2コンテンツ記憶部205内の写真画像のうちから該コンテンツ群に関連する写真画像を検索するための検索条件を生成する。例えば、図4のコンテンツ群の各写真画像の付随情報からそれぞれの撮影位置を取得し、これらの撮影位置の中心の位置を検索条件として求める。この検索条件は、端末装置101からサーバー装置201へと送受される。   Next, content search will be described. In the terminal device 101, when a content group is created by the content classification unit 105, the content group is delivered to the search condition generation unit 106 via the content management unit 103. The search condition generation unit 106 uses the accompanying information of the photographic images included in the content group to search for photographic images related to the content group from among the photographic images in the second content storage unit 205 of the server device 201. Generate search conditions for. For example, each shooting position is acquired from the accompanying information of each photo image of the content group in FIG. 4, and the center position of these shooting positions is obtained as a search condition. This search condition is transmitted and received from the terminal device 101 to the server device 201.

サーバー装置201では、端末装置101からの検索条件が通信部202で受信されて検索部203に入力される。検索部203は、検索条件を入力すると、変換表記憶部204内の対応テーブルを参照して、検索条件である中心の位置に対応する写真画像の識別子を検索する。変換表記憶部204には、多数の位置を含むエリアと写真画像の識別子を対応付けた対応テーブルが予め記憶されており、この対応テーブルを参照して、特定された位置を含むエリアに対応する写真画像の識別子を検索することができる。検索部203は、検索条件である中心の位置に対応する識別子を検索すると、第2コンテンツ記憶部205の各写真画像の付随情報を参照して、検索された識別子を付随情報に含む写真画像を検索する。この検索した写真画像は、サーバー装置201から端末装置101へと送受される。   In the server device 201, the search condition from the terminal device 101 is received by the communication unit 202 and input to the search unit 203. When the search condition is input, the search unit 203 refers to the correspondence table in the conversion table storage unit 204 and searches for the identifier of the photographic image corresponding to the center position as the search condition. The conversion table storage unit 204 stores in advance a correspondence table in which areas including a large number of positions are associated with identifiers of photographic images. With reference to the correspondence table, the conversion table storage unit 204 corresponds to an area including a specified position. The identifier of a photographic image can be searched. When the search unit 203 searches for an identifier corresponding to the center position that is the search condition, the search unit 203 refers to the accompanying information of each photographic image in the second content storage unit 205 and searches for a photographic image including the searched identifier in the accompanying information. Search for. The retrieved photographic image is transmitted / received from the server apparatus 201 to the terminal apparatus 101.

尚、検索条件に対応する複数の写真画像が第2コンテンツ記憶部205内に存在するのであれば、これらの写真画像全てをサーバー装置201から端末装置101へと送受してもよく、あるいはサーバー装置201側で写真画像の上限枚数を設定して、この上限枚数以下の写真画像を端末装置101に送信するようにしても構わない。また、サーバー装置201側で検索条件に対応する地名等を検索し、この地名を写真画像の付随情報に付加してから、写真画像を端末装置101に送信してもよい。   If a plurality of photographic images corresponding to the search condition exist in the second content storage unit 205, all of these photographic images may be transmitted from the server device 201 to the terminal device 101, or the server device The upper limit number of photographic images may be set on the 201 side, and photographic images equal to or smaller than the upper limit number may be transmitted to the terminal device 101. Alternatively, the place name corresponding to the search condition may be searched on the server apparatus 201 side, and the place name may be added to the accompanying information of the photograph image, and then the photograph image may be transmitted to the terminal apparatus 101.

検索条件として、コンテンツ群の各写真画像の撮影位置の中心位置そのものではなく、中心位置を含む地名を設定してもよい。この場合は、端末装置101側に多数の位置を含むエリアと地名を対応付けたデータテーブルを設けておき、検索条件生成部106により中心位置を含むエリアに対応する地名をデータテーブルから検索して、この地名を検索条件として端末装置101からサーバー装置201へと送受する。サーバー装置201では、検索条件の地名を受信すると、検索部203により検索条件の地名を第2コンテンツ記憶部205の各写真画像の付随情報から検索し、この地名を付随情報に含む写真画像を求め、この写真画像を端末装置101に送信する。   As a search condition, a place name including the center position may be set instead of the center position of the photographing position of each photographic image in the content group. In this case, a data table in which an area including a large number of positions and a place name are associated is provided on the terminal device 101 side, and a place name corresponding to the area including the center position is searched from the data table by the search condition generation unit 106. The terminal name 101 is transmitted from the terminal device 101 to the server device 201 as a search condition. In the server apparatus 201, when the place name of the search condition is received, the search unit 203 searches the place name of the search condition from the accompanying information of each photographic image in the second content storage unit 205, and obtains a photographic image including the place name in the accompanying information. The photographic image is transmitted to the terminal device 101.

あるいは、検索条件をひとつに絞るのではなく、複数の検索条件を用いることも可能である。例えば、端末装置101では、検索条件生成部106によりコンテンツ群の各写真画像の付随情報からそれぞれの撮影位置を全て抜き出して、図6に示すような各写真画像の撮影位置のリストを生成し、このリストを検索条件としてサーバー装置201に送信する。サーバー装置201では、このリストの各写真画像の撮影位置と第2コンテンツ記憶部205内の各写真画像の付随情報の撮影位置を照合比較し、リスト側と一致する撮影位置の写真画像を第2コンテンツ記憶部205から検索して、この写真画像を求め、この写真画像を端末装置101に送信する。この場合、リストの撮影位置と完全に一致しなくても、リストの撮影位置を中心位置とするエリア内にある撮影位置の写真画像を第2コンテンツ記憶部205から検索してもよく、撮影位置が完全に一致した写真画像と、エリア内にある撮影位置の写真画像とを区別して、端末装置101に送信し、端末装置101側で、これらの写真画像を区別して表示してもよい。例えば、図7に示すように撮影位置が完全に一致したか否かを示すマッチタグ<match>を付随情報として付加しておき、マッチタグ<match>に基づきそのような区別表示を行うようにする。   Alternatively, a plurality of search conditions can be used instead of limiting the search conditions to one. For example, in the terminal device 101, the search condition generation unit 106 extracts all the shooting positions from the accompanying information of each photographic image of the content group, and generates a list of the shooting positions of each photographic image as shown in FIG. This list is transmitted to the server apparatus 201 as a search condition. In the server apparatus 201, the photographing position of each photographic image in the list is compared with the photographing position of the accompanying information of each photographic image in the second content storage unit 205, and the photographic image at the photographing position that matches the list side is secondly compared. A search is made from the content storage unit 205 to obtain this photographic image, and this photographic image is transmitted to the terminal device 101. In this case, even if it does not completely match the shooting position of the list, a photo image of the shooting position within the area centered on the shooting position of the list may be retrieved from the second content storage unit 205. May be distinguished from a photographic image at a shooting position in the area and transmitted to the terminal device 101, and these photographic images may be distinguished and displayed on the terminal device 101 side. For example, as shown in FIG. 7, a match tag <match> indicating whether or not the photographing positions completely match is added as accompanying information, and such distinction display is performed based on the match tag <match>.

次に、コンテンツの表示について説明する。端末装置101では、第2コンテンツ記憶部205から検索された写真画像が通信部107で受信され、第2コンテンツ記憶部205の写真画像がコンテンツ管理部103に入力される。コンテンツ管理部103は、第2コンテンツ記憶部205の写真画像と、先にコンテンツ分類部105により分類されたコンテンツ群の写真画像、つまり第1コンテンツ記憶部104の写真画像とを表示生成部108に出力する。表示生成部108は、これらの写真画像の表示順序や表示レイアウトを設定した上で、これらの写真画像を表示部109の画面に表示する。   Next, content display will be described. In the terminal device 101, the photographic image retrieved from the second content storage unit 205 is received by the communication unit 107, and the photographic image in the second content storage unit 205 is input to the content management unit 103. The content management unit 103 displays the photographic image in the second content storage unit 205 and the photographic image of the content group previously classified by the content classification unit 105, that is, the photographic image in the first content storage unit 104, on the display generation unit 108. Output. The display generation unit 108 sets the display order and display layout of these photographic images, and displays these photographic images on the screen of the display unit 109.

例えば、図8(a)に示すように第2コンテンツ記憶部205の写真画像P1を表示部109の画面に表示し、この後に図8(b)に示すように第1コンテンツ記憶部104の各写真画像P2、P3を順次表示する。   For example, the photographic image P1 of the second content storage unit 205 is displayed on the screen of the display unit 109 as shown in FIG. 8A, and each of the first content storage unit 104 is thereafter displayed as shown in FIG. 8B. The photographic images P2 and P3 are sequentially displayed.

また、図8(a)に示すように第2コンテンツ記憶部205の写真画像P1と共に、検索条件の地名11を表示したり、サーバー装置201の第2コンテンツ記憶部205の写真画像であることを示すマーク12、あるいは各写真画像の撮影位置の離間距離13等を表示してもよい。これにより、自分が撮った写真画像と写真サービス会社から提供された写真画像との区別が容易になる。   Further, as shown in FIG. 8A, the place name 11 of the search condition is displayed together with the photographic image P1 of the second content storage unit 205, or the photographic image of the second content storage unit 205 of the server device 201 is displayed. You may display the mark 12 to show, or the separation distance 13 of the photographing position of each photograph image. This facilitates the distinction between the photograph image taken by the photographer and the photograph image provided by the photograph service company.

また、図9に示すように第2コンテンツ記憶部205の写真画像P11と第1コンテンツ記憶部104の写真画像P12とを表示部109の画面上にレイアウトして表示しても構わない。   Further, as shown in FIG. 9, the photographic image P11 of the second content storage unit 205 and the photographic image P12 of the first content storage unit 104 may be laid out and displayed on the screen of the display unit 109.

更に、第1コンテンツ記憶部104及び第2コンテンツ記憶部205から取得された写真画像は、自動的に選択もしくは検索されたものであるから、ユーザーにとって好ましいものであるとは限らず、ユーザーの意図にそぐわないことがある。このため、入力部102の入力操作により、意図にそぐわない写真画像を選択して、この写真画像を削除することができるようにしている。   Further, since the photographic images acquired from the first content storage unit 104 and the second content storage unit 205 are automatically selected or searched, they are not necessarily preferable for the user, and are not intended by the user. It may not be suitable. For this reason, an unintended photographic image can be selected by the input operation of the input unit 102, and the photographic image can be deleted.

例えば、図10に示すように写真画像P21が表示部109の画面上に表示されているときに、入力部102の入力操作により画面上の写真画像P21を選択して、この写真画像P21の削除を指示する。これに応答してコンテンツ管理部103は、第1コンテンツ記憶部104及び第2コンテンツ記憶部205から取得された写真画像のうちから該選択された写真画像を削除する。   For example, as shown in FIG. 10, when the photographic image P21 is displayed on the screen of the display unit 109, the photographic image P21 on the screen is selected by the input operation of the input unit 102, and the photographic image P21 is deleted. Instruct. In response to this, the content management unit 103 deletes the selected photographic image from the photographic images acquired from the first content storage unit 104 and the second content storage unit 205.

また、第2コンテンツ記憶部205の写真画像の付随情報として、写真画像の提供者の作品購買画面にアクセスするためのURL等の情報を含ませてもよい。そして、図11(a)に示すように表示部109の画面上にブラウザを起動するためのボタンB1等表示しておき、入力部102の入力操作により画面上のボタンB1が操作されると、これに応答してコンテンツ管理部103は、ブラウザ等を起動し、インターネットを通じて、URLに対応する作品購買画面を呼び出し、図11(b)に示すような作品購買画面を表示部109の画面に表示する。これにより、写真画像の提供者が自分で撮った写真画像の紹介や販売を広く展開することができる。   In addition, information such as a URL for accessing the work purchase screen of the photograph image provider may be included as the accompanying information of the photograph image in the second content storage unit 205. Then, as shown in FIG. 11A, a button B1 or the like for starting the browser is displayed on the screen of the display unit 109, and when the button B1 on the screen is operated by an input operation of the input unit 102, In response to this, the content management unit 103 activates a browser or the like, calls a work purchase screen corresponding to the URL via the Internet, and displays a work purchase screen as shown in FIG. 11B on the screen of the display unit 109. To do. This makes it possible to widely introduce and sell photographic images taken by the photographic image provider.

ここで、図12(a)、(b)のフローチャートを参照しつつ、写真画像の付随情報であるURLを用いて、画面を呼び出すための処理手順を説明する。   Here, with reference to the flowcharts of FIGS. 12A and 12B, a processing procedure for calling a screen using a URL that is accompanying information of a photographic image will be described.

まず、端末装置101では、入力部102の入力操作により画面上のボタンB1が操作されると(図12(a)のステップS701)、これに応答してコンテンツ管理部103は、ブラウザ等を起動し、作品購買画面にアクセスするためのURL等の情報を含むリクエストメッセージを作成して、このリクエストメッセージをネットワークNを通じてサーバー装置201に送信し(図12(a)のステップS702)、このリクエストメッセージに対するサーバー装置201からの応答を待機する(図12(a)のステップS703)。   First, in the terminal device 101, when the button B1 on the screen is operated by an input operation of the input unit 102 (step S701 in FIG. 12A), in response to this, the content management unit 103 activates a browser or the like. Then, a request message including information such as a URL for accessing the work purchase screen is created, and this request message is transmitted to the server apparatus 201 through the network N (step S702 in FIG. 12A). The server apparatus 201 waits for a response from the server apparatus 201 (step S703 in FIG. 12A).

サーバー装置201では、リクエストメッセージを受信すると(図12(b)のステップS721「yes」)、リクエストメッセージを解析して、このメッセージに含まれているURL等の情報を抽出し(図12(b)のステップS722)、このURL等の情報を用いて、作品購買画面に必要なコンテンツ等を収集し、この作品購買画面に必要なコンテンツ等を含むレスポンスメッセージを作成して(図12(b)のステップS723)、このレスポンスメッセージをネットワークNを通じて端末装置101に返信する(図12(b)のステップS724)。   Upon receiving the request message (step S721 “yes” in FIG. 12B), the server apparatus 201 analyzes the request message and extracts information such as a URL included in the message (FIG. 12B). Step S722)), using the information such as the URL, the contents necessary for the work purchase screen are collected, and a response message including the contents necessary for the work purchase screen is created (FIG. 12B). Step S723), this response message is returned to the terminal device 101 through the network N (Step S724 in FIG. 12B).

端末装置101ではレスポンスメッセージを受信すると(図12(a)のステップS704)、このレスポンスメッセージを解析して、このメッセージに含まれている作品購買画面に必要なコンテンツ等を抽出し(図12(a)のステップS705)、このコンテンツ等を用いて、作品購買画面を作成し(図12(a)のステップS706)、この作品購買画面を表示部109の画面に表示する(図12(a)のステップS707)。   When the terminal device 101 receives the response message (step S704 in FIG. 12A), the response message is analyzed, and the content necessary for the work purchase screen included in the message is extracted (FIG. 12 ( Step S705 of a), a work purchase screen is created using this content or the like (step S706 of FIG. 12A), and this work purchase screen is displayed on the screen of the display unit 109 (FIG. 12A). Step S707).

尚、ボタンB1の操作に応答してブラウザを起動しているが、ブラウザを起動せずに、HTTP等のプロトコルに従ってリクエストメッセージを送信するだけでもよい。この場合も、このリクエストメッセージの応答として作品購買画面もしくは作品購買画面に必要なコンテンツを受信することが可能である。また、端末装置101からのリクエストメッセージを受信して応答するサーバー装置は、サーバー装置201に特定されず、インターネット上の如何なるサーバー装置であってもよい。   Although the browser is activated in response to the operation of the button B1, the request message may be transmitted according to a protocol such as HTTP without activating the browser. Also in this case, it is possible to receive the work purchase screen or the content necessary for the work purchase screen as a response to this request message. The server device that receives and responds to the request message from the terminal device 101 is not specified by the server device 201 and may be any server device on the Internet.

このように本実施形態のシステムでは、端末装置101の第1コンテンツ記憶部104のコンテンツを出力するときに、このコンテンツに関連する他のコンテンツをサーバー装置201の第2コンテンツ記憶部205から検索して、端末装置101側でそれらのコンテンツを共に出力することができる。例えば、第1コンテンツ記憶部104に自分で撮った旅行の写真画像が記憶され、第2コンテンツ記憶部205に写真サービス会社提供の写真画像が記憶されている場合は、ユーザーが第2コンテンツ記憶部205内の写真画像を選択しなくても、第1コンテンツ記憶部104の写真画像に関連する写真画像が第2コンテンツ記憶部205から選択されて、自分で撮った写真画像と写真サービス会社の写真画像とが共に表示出力されるので、クオリティの高い写真画像もしくはスライドショーの表示が可能となる。   As described above, in the system according to the present embodiment, when content in the first content storage unit 104 of the terminal device 101 is output, other content related to this content is searched from the second content storage unit 205 of the server device 201. Thus, the content can be output together on the terminal device 101 side. For example, when a photographic image of a trip taken by the user is stored in the first content storage unit 104 and a photographic image provided by a photo service company is stored in the second content storage unit 205, the user can use the second content storage unit. Even if a photographic image in 205 is not selected, a photographic image related to the photographic image in the first content storage unit 104 is selected from the second content storage unit 205, and the photographic image taken by himself and the photo of the photographic service company are selected. Since the images are displayed and output together, it is possible to display high-quality photographic images or slide shows.

また、付随情報として、地名、写真画像の提供者の作品購買画面にアクセスするためのURL等の情報を設定しているので、写真画像の撮影位置の地名を表示したり、作品購買画面を速やかに呼び出して、作品購買を促進することができる。   In addition, information such as the place name and URL for accessing the work purchase screen of the photograph image provider is set as accompanying information, so the place name of the shooting position of the photo image can be displayed, and the work purchase screen can be quickly displayed. Can be called to promote the purchase of works.

尚、写真画像だけではなく、写真画像と共にBGM等の音声情報を第2コンテンツ記憶部205に記憶しておけば、写真画像及びBGM等の音声情報を第2コンテンツ記憶部205から検索して、これらをサーバー装置201から端末装置101に送受することができ、端末装置101では、写真画像もしくはスライドショーの表示に際し、BGM等を音声再生することができる。この場合も、音声情報に、BGM等の提供者の作品購買画面にアクセスするためのURL等の情報を付随情報として設け、図13示すように表示部109の画面上にブラウザを起動するためのボタンB2等表示しておく。そして、入力部102の入力操作により画面上のボタンB2が操作されると、これに応答してコンテンツ管理部103は、ブラウザ等を起動して、インターネットを通じて、URLに対応する作品購買画面を呼び出すようにしてもよい。これにより、BGM等の提供者が自分で作曲した音楽の紹介や販売を広く展開することができる。特に、セミプロ、インディーズなどのアーティストは、楽曲の認知度がプロアーティストに比べて低いため、そのような写真画像の提供サービスとの連携によって作品提供や広告を広く行うことができるようになる。   If not only the photographic image but also audio information such as BGM is stored in the second content storage unit 205 together with the photographic image, the audio information such as the photographic image and BGM is retrieved from the second content storage unit 205, These can be transmitted / received from the server apparatus 201 to the terminal apparatus 101. The terminal apparatus 101 can reproduce sound of BGM or the like when displaying a photographic image or a slide show. In this case as well, information such as URL for accessing the work purchase screen of the provider such as BGM is provided as accompanying information in the voice information, and the browser is started on the screen of the display unit 109 as shown in FIG. Button B2 etc. are displayed. When the button B2 on the screen is operated by the input operation of the input unit 102, in response to this, the content management unit 103 activates a browser or the like and calls the work purchase screen corresponding to the URL through the Internet. You may do it. This makes it possible to widely introduce and sell music composed by providers such as BGM. In particular, artists such as semi-professional and independent artists have a lower degree of music recognition than professional artists, and thus can provide a wide range of works and advertisements in cooperation with such a photo image providing service.

また、本実施形態のシステムを他の様々な情報サービスに応用することができる。例えば、本実施形態のシステムをECサービスに利用することができる。端末装置101では、第1コンテンツ記憶部104にユーザーの購入済み商品画像及び付随情報を記憶しておき、コンテンツ分類部105によりその付随情報に基づき商品画像をコンテンツ群に分類し、検索条件生成部106によりコンテンツ群の商品画像の付随情報から検索条件を生成し、この検索条件をサーバー装置201に送信する。サーバー装置201では、検索条件を用いて、第2コンテンツ記憶部205から商品画像を検索し、この商品画像を端末装置101に送信する。端末装置101では、図14(a)に示すように第1コンテンツ記憶部104の商品画像を購入済みのものとして表示部109の画面に表示した後に、図14(b)に示すように第2コンテンツ記憶部205から検索された商品画像をお勧めのものとして表示する。あるいは、図15に示すように購入済みの商品画像及びお勧めの商品画像を表示部109の画面にレイアウトして表示する。   In addition, the system of this embodiment can be applied to various other information services. For example, the system of this embodiment can be used for EC services. In the terminal device 101, the user's purchased product image and accompanying information are stored in the first content storage unit 104, the product image is classified into content groups based on the accompanying information by the content classifying unit 105, and a search condition generating unit A search condition is generated from the accompanying information of the product image of the content group by 106, and the search condition is transmitted to the server device 201. The server device 201 searches for the product image from the second content storage unit 205 using the search condition, and transmits the product image to the terminal device 101. In the terminal device 101, as shown in FIG. 14 (a), the product image in the first content storage unit 104 is displayed on the screen of the display unit 109 as already purchased, and then the second image as shown in FIG. 14 (b). The product images retrieved from the content storage unit 205 are displayed as recommended ones. Alternatively, as shown in FIG. 15, the purchased product image and the recommended product image are laid out and displayed on the screen of the display unit 109.

このようなECサービスを実施する場合は、絵画やアマチュアの種々の作品、スーパーなどの店頭に並んでいる種々の商品等をコンテンツとして扱って、これらをスライドショーで見せたり、これらを販売することができる。   When implementing such EC services, it is possible to treat various products such as paintings, amateur works, and various products that are lined up in stores such as supermarkets as content and show them as a slide show or sell them. it can.

更に、コンテンツとして、写真画像や音声情報だけではなく、動画像やテキスト等を扱ってもよい。   Further, not only photographic images and audio information but also moving images and texts may be handled as contents.

図16は、図1の端末装置101の変形例を示すブロック図である。この変形例では、ユーザー個人のコンテンツを記憶する第1コンテンツ記憶部111をネットワークN上のサーバーストレージ等に設けている。また、端末装置101に、ネットワークN上の第1コンテンツ記憶部111をアクセスするための第1コンテンツ取得部112を設けている。不特定多数の人々が利用可能なコンテンツを記憶する第2コンテンツ記憶部113もネットワークN上のサーバーストレージ等に設けている。   FIG. 16 is a block diagram illustrating a modification of the terminal device 101 of FIG. In this modified example, a first content storage unit 111 that stores user's personal content is provided in a server storage or the like on the network N. Further, the terminal device 101 is provided with a first content acquisition unit 112 for accessing the first content storage unit 111 on the network N. A second content storage unit 113 that stores content that can be used by an unspecified number of people is also provided in a server storage or the like on the network N.

端末装置101の第1コンテンツ取得部112は、通信部107を介して、ネットワークN上の第1コンテンツ記憶部111をアクセスし、第1コンテンツ記憶部111からコンテンツを読み出して取得する。以降は、図1のシステムと同様の処理を行って、第1コンテンツ記憶部111内のコンテンツをコンテンツ群に分類し、検索条件を生成して、この検索条件に基づき、ネットワークNを通じて第2コンテンツ記憶部113内のコンテンツを検索して、このコンテンツを端末装置101に取り込み、第1コンテンツ記憶部111のコンテンツと第2コンテンツ記憶部113のコンテンツを共に出力する。   The first content acquisition unit 112 of the terminal device 101 accesses the first content storage unit 111 on the network N via the communication unit 107 and reads and acquires the content from the first content storage unit 111. Thereafter, the same processing as in the system of FIG. 1 is performed, the contents in the first content storage unit 111 are classified into content groups, search conditions are generated, and the second content is transmitted through the network N based on the search conditions. The content in the storage unit 113 is searched, the content is taken into the terminal device 101, and the content in the first content storage unit 111 and the content in the second content storage unit 113 are output together.

図17は、図1のコンテンツ出力システムの変形例を示している。ここでは、サーバー装置201に、第1コンテンツ記憶部104を設け、また端末装置101に、ネットワークN上の第1コンテンツ記憶部104をアクセスするための第1コンテンツ取得部112を設けている。   FIG. 17 shows a modification of the content output system of FIG. Here, the server device 201 is provided with the first content storage unit 104, and the terminal device 101 is provided with the first content acquisition unit 112 for accessing the first content storage unit 104 on the network N.

端末装置101の第1コンテンツ取得部112は、通信部107を介して、サーバー装置201の第1コンテンツ記憶部104をアクセスし、第1コンテンツ記憶部104からコンテンツを読み出して取得する。以降は、図1のシステムと同様の処理を行って、第1コンテンツ記憶部104内のコンテンツをコンテンツ群に分類し、検索条件を生成して、この検索条件に基づき、サーバー装置201の第2コンテンツ記憶部205内のコンテンツを検索して、このコンテンツを端末装置101に取り込み、第1コンテンツ記憶部104のコンテンツと第2コンテンツ記憶部205のコンテンツを共に出力する。   The first content acquisition unit 112 of the terminal device 101 accesses the first content storage unit 104 of the server device 201 via the communication unit 107 and reads and acquires the content from the first content storage unit 104. Thereafter, the same processing as in the system of FIG. 1 is performed, the contents in the first content storage unit 104 are classified into content groups, search conditions are generated, and the second of the server apparatus 201 is based on the search conditions. The content in the content storage unit 205 is searched, the content is taken into the terminal device 101, and the content in the first content storage unit 104 and the content in the second content storage unit 205 are output together.

図18は、図1のコンテンツ出力システムの他の変形例を示している。ここでは、サーバー装置201に、第1コンテンツ記憶部104、コンテンツ管理部103、コンテンツ分類部105、及び検索条件生成部106を設けている。   FIG. 18 shows another modification of the content output system of FIG. Here, the server device 201 is provided with a first content storage unit 104, a content management unit 103, a content classification unit 105, and a search condition generation unit 106.

端末装置101では、入力部102の入力操作によりコンテンツの分類が指示されると、これに応答して制御部115は、コンテンツ分類の指示を通信部107からネットワークNを通じてサーバー装置201へと送信する。   In the terminal device 101, when content classification is instructed by an input operation of the input unit 102, in response to this, the control unit 115 transmits a content classification instruction from the communication unit 107 to the server device 201 through the network N. .

サーバー装置201では、コンテンツ分類の指示を通信部202で受信してコンテンツ管理部103に入力する。以降は、図1のシステムと同様の処理を行って、第1コンテンツ記憶部111内のコンテンツをコンテンツ群に分類し、検索条件を生成して、この検索条件に基づき、第2コンテンツ記憶部113内のコンテンツを検索する。そして、コンテンツ群別に、第1コンテンツ記憶部111のコンテンツと第2コンテンツ記憶部113のコンテンツを読み出して、これらのコンテンツをネットワークNを通じて端末装置101に返信する。   In the server apparatus 201, a content classification instruction is received by the communication unit 202 and input to the content management unit 103. Thereafter, the same processing as in the system of FIG. 1 is performed to classify the contents in the first content storage unit 111 into content groups, generate search conditions, and the second content storage unit 113 based on the search conditions. Search for content in Then, for each content group, the content in the first content storage unit 111 and the content in the second content storage unit 113 are read, and these contents are returned to the terminal device 101 through the network N.

端末装置101では、コンテンツ群別に、複数のコンテンツを受信して表示部109の画面に表示する。   The terminal device 101 receives a plurality of contents for each content group and displays them on the screen of the display unit 109.

図19は、本発明のコンテンツ出力装置の一実施形態を示すブロック図である。本実施形態のコンテンツ出力装置121は、図1の端末装置101に第2コンテンツ記憶部205及び変換表記憶部204を付加して構成される。第2コンテンツ記憶部205には、多数のコンテンツが記憶されている。これらのコンテンツは、他の端末装置やサーバー装置等からネットワークNを通じて収集されたものである。変換表記憶部204は、図1のサーバー装置201における変換表記憶部204と同様の機能を果たす。   FIG. 19 is a block diagram showing an embodiment of the content output apparatus of the present invention. The content output device 121 of this embodiment is configured by adding a second content storage unit 205 and a conversion table storage unit 204 to the terminal device 101 of FIG. The second content storage unit 205 stores a large number of contents. These contents are collected through the network N from other terminal devices and server devices. The conversion table storage unit 204 performs the same function as the conversion table storage unit 204 in the server apparatus 201 of FIG.

このようなコンテンツ出力装置121においては、第2コンテンツ記憶部205及び変換表記憶部204を内蔵することから、図1の端末装置101のように外部のサーバー装置をアクセスする必要がなく、第1コンテンツ記憶部104のコンテンツを出力するときに、このコンテンツに関連する他のコンテンツを第2コンテンツ記憶部205から検索して、それらのコンテンツを共に出力することができる。   Since such a content output device 121 includes the second content storage unit 205 and the conversion table storage unit 204, there is no need to access an external server device unlike the terminal device 101 of FIG. When the content stored in the content storage unit 104 is output, other content related to the content can be searched from the second content storage unit 205 and the content can be output together.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. It is understood.

例えば、写真画像や音声情報だけではなく、図形等の他の静止画像、動画像等のコンテンツであっても、写真画像や音声情報と同様に、本発明で扱うことが出来る。   For example, not only photographic images and audio information but also other still images such as graphics and moving images can be handled by the present invention in the same manner as photographic images and audio information.

また、第1及び第2コンテンツ記憶部のいずれも単一である必要はなく、複数のものを設けることが可能であり、複数種のメモリデバイスを混合して適用しても構わない。例えば、複数の第1コンテンツ記憶部を端末装置及びサーバー装置の一方又は両方に設けたり、ネットワーク上に分散して設けることができる。同様に、第2コンテンツ記憶部を設けることができる。   Further, it is not necessary for each of the first and second content storage units to be single, and a plurality of them can be provided, and a plurality of types of memory devices may be mixed and applied. For example, a plurality of first content storage units can be provided in one or both of the terminal device and the server device, or distributed on the network. Similarly, a second content storage unit can be provided.

更に、端末装置101の表示部109を用いる代わりに、端末装置101からTVへとTV用の画像信号を出力して、表示部109の画面と同様の表示内容をTVの画面に表示することも可能である。あるいは、端末装置101の機能を、TVセットに内蔵させることも可能である。この場合は、TV番組の視聴と同様に、コンテンツを視聴したり、ECサービスを受けることができる。   Further, instead of using the display unit 109 of the terminal device 101, a TV image signal may be output from the terminal device 101 to the TV, and the display content similar to the screen of the display unit 109 may be displayed on the TV screen. Is possible. Alternatively, the function of the terminal device 101 can be incorporated in the TV set. In this case, content can be viewed and EC service can be received in the same manner as viewing TV programs.

あるいは、他の種類の表示装置用の画像信号を出力して、表示部109の画面と同様の表示内容を該他の種類の表示装置の画面に表示しても構わない。他の種類の表示装置としては、携帯型端末等がある。   Alternatively, an image signal for another type of display device may be output, and the display content similar to the screen of the display unit 109 may be displayed on the screen of the other type of display device. Other types of display devices include portable terminals.

また、本発明は、コンテンツ出力装置やコンテンツ出力システムに限定されるものではなく、コンピュータの利用を前提としたコンテンツ出力方法、コンテンツ出力プログラム、及びコンテンツ出力プログラムを記憶した記録媒体を含む。コンピュータは、プログラムを実行し得るデバイスであれば、如何なるものであってもよい。   The present invention is not limited to a content output device or a content output system, and includes a content output method, a content output program, and a recording medium storing the content output program on the premise of using a computer. The computer may be any device that can execute the program.

また、コンピュータは、プログラムを記録媒体から読出したり、プログラムを通信ネットワークを通じて受信し、プログラムを実行して、本発明を実施することができる。複数のコンピュータやインターネットからなるシステムにおいては、複数の処理を複数の端末に分散して行い得る。従って、プログラムは、コンピュータ等の単一の端末だけではなく、システムにも適用し得る。   Further, the computer can implement the present invention by reading a program from a recording medium, receiving the program through a communication network, and executing the program. In a system composed of a plurality of computers and the Internet, a plurality of processes can be distributed to a plurality of terminals. Therefore, the program can be applied not only to a single terminal such as a computer but also to a system.

本発明は、画像、音声等からなるコンテンツを表示したり再生するパーソナルコンピュータ等に適用することが可能である。   The present invention can be applied to a personal computer or the like that displays or reproduces content composed of images, sounds, and the like.

101 端末装置
102 入力部
103 コンテンツ管理部
104 第1コンテンツ記憶部
105 コンテンツ分類部
106 検索条件生成部
107 通信部
108 表示生成部
109 表示部
201 サーバー装置
202 通信部
203 検索部
204 変換表記憶部
205 第2コンテンツ記憶部
101 terminal device 102 input unit 103 content management unit 104 first content storage unit 105 content classification unit 106 search condition generation unit 107 communication unit 108 display generation unit 109 display unit 201 server device 202 communication unit 203 search unit 204 conversion table storage unit 205 Second content storage unit

Claims (19)

ネットワークを通じて、端末装置及びサーバー装置間で情報通信を行うコンテンツ出力システムにおいて、
前記端末装置は、
複数のコンテンツを記憶した第1コンテンツ記憶手段と、
前記第1コンテンツ記憶手段内の各コンテンツの付随情報をコンテンツ群の分類条件で分類して、前記各コンテンツのうちからコンテンツ群に属するコンテンツを求める分類手段と、
前記分類手段により求められたコンテンツ群のコンテンツの付随情報から検索条件を生成する検索条件生成手段と、
前記検索条件生成手段により生成された検索条件を前記サーバー装置に送信し、この検索条件の送信に対する応答として検索条件に該当するコンテンツをサーバー装置から受信する通信手段と、
前記分類手段により求められたコンテンツ群のコンテンツ及び前記サーバー装置から受信したコンテンツを共に出力する出力手段とを備え、
前記サーバー装置は、
複数のコンテンツを記憶した第2コンテンツ記憶手段と、
前記端末装置からの検索条件を受信し、この検索条件に該当するコンテンツを端末装置に送信する通信手段と、
前記第2コンテンツ記憶手段から前記受信した検索条件に該当するコンテンツを検索する検索手段とを備えることを特徴とするコンテンツ出力システム。
In a content output system that performs information communication between a terminal device and a server device through a network,
The terminal device
First content storage means for storing a plurality of contents;
Classification means for classifying accompanying information of each content in the first content storage means according to a content group classification condition, and obtaining content belonging to the content group from the contents;
Search condition generation means for generating a search condition from the accompanying information of the content of the content group obtained by the classification means;
Communication means for transmitting the search condition generated by the search condition generation means to the server apparatus, and receiving content corresponding to the search condition from the server apparatus as a response to the transmission of the search condition;
An output unit that outputs both the content of the content group obtained by the classification unit and the content received from the server device;
The server device is
Second content storage means for storing a plurality of contents;
Communication means for receiving a search condition from the terminal device and transmitting content corresponding to the search condition to the terminal device;
A content output system comprising: search means for searching for content that satisfies the received search condition from the second content storage means.
前記出力手段は、前記分類手段により求められたコンテンツ群のコンテンツと前記サーバー装置から受信したコンテンツとの表示レイアウトを設定して、これらのコンテンツを該表示レイアウトで表示出力することを特徴とする請求項1に記載のコンテンツ出力システム。   The output means sets a display layout of the content of the content group obtained by the classification means and the content received from the server device, and displays and outputs these contents in the display layout. Item 4. The content output system according to Item 1. 前記出力手段は、前記分類手段により求められたコンテンツ群のコンテンツと前記サーバー装置から受信したコンテンツとを識別可能に出力することを特徴とする請求項1に記載のコンテンツ出力システム。   The content output system according to claim 1, wherein the output unit outputs the content of the content group obtained by the classification unit and the content received from the server device in an identifiable manner. 前記出力手段は、前記分類手段により求められたコンテンツ群のコンテンツ及び前記サーバー装置から受信したコンテンツを該各コンテンツの付随情報と共に出力することを特徴とする請求項1に記載のコンテンツ出力システム。   2. The content output system according to claim 1, wherein the output unit outputs the content of the content group obtained by the classification unit and the content received from the server device together with accompanying information of each content. 前記端末装置は、前記コンテンツ群の分類条件を入力するための入力操作手段を備えることを特徴とする請求項1に記載のコンテンツ出力システム。   The content output system according to claim 1, wherein the terminal device includes input operation means for inputting a classification condition of the content group. 前記コンテンツ群の分類条件は、予め設定されるか、入力操作手段の入力操作により変更されるか、又は入力操作手段の入力操作により入力設定されることを特徴とする請求項1に記載のコンテンツ出力システム。   2. The content according to claim 1, wherein the classification condition of the content group is set in advance, changed by an input operation of an input operation unit, or input set by an input operation of an input operation unit. Output system. 前記付随情報は、位置情報もしくは日時情報であることを特徴とする請求項1に記載のコンテンツ出力システム。   The content output system according to claim 1, wherein the accompanying information is position information or date / time information. 前記分類手段は、前記第1コンテンツ記憶手段内の各コンテンツの付随情報である位置情報もしくは日時情報を閾値と比較して、前記各コンテンツのうちからコンテンツ群に属するコンテンツを求めることを特徴とする請求項7に記載のコンテンツ出力システム。   The classification means compares position information or date / time information, which is accompanying information of each content in the first content storage means, with a threshold value, and obtains content belonging to a content group from the contents. The content output system according to claim 7. 前記分類手段は、前記第1コンテンツ記憶手段内の各コンテンツの付随情報である日時情報を用いて、各コンテンツを時系列で配列した後、各コンテンツの付随情報である位置情報を用いて、配列された各コンテンツをコンテンツ群に分類することをを特徴とする請求項7に記載のコンテンツ出力システム。   The classifying unit arranges each content in time series using date and time information that is associated information of each content in the first content storage unit, and then uses position information that is associated information of each content to arrange 8. The content output system according to claim 7, wherein each of the contents is classified into a content group. 前記閾値は、予め設定されるか、入力操作手段の入力操作により変更されるか、入力操作手段の入力操作により入力設定されるか、又はコンテンツの付随情報に基づいて変更されることを特徴とする請求項8に記載のコンテンツ出力システム。   The threshold value is preset, changed by an input operation of an input operation unit, input set by an input operation of an input operation unit, or changed based on accompanying information of content. The content output system according to claim 8. 前記端末装置は、前記第1コンテンツ記憶手段内の各コンテンツの付随情報を前記サーバー装置に送信して、コンテンツ群の分類条件を要求し、
これに応答してサーバー装置は、各コンテンツの付随情報に基づいてコンテンツ群の分類条件を求め、このコンテンツ群の分類条件を端末装置に送信することを特徴とする請求項1に記載のコンテンツ出力システム。
The terminal device transmits accompanying information of each content in the first content storage means to the server device to request a classification condition of the content group;
The content output according to claim 1, wherein in response to this, the server device obtains a classification condition for the content group based on the accompanying information of each content, and transmits the classification condition for the content group to the terminal device. system.
前記サーバー装置から前記端末装置へと送受されたコンテンツには、インターネット上のアドレスが含まれており、
端末装置での入力操作に応答して端末装置から前記サーバー装置又は他のサーバー装置へと前記アドレスを送受し、このアドレスを受信したサーバー装置で該アドレスに基づき情報を収集して、この情報を該サーバー装置から端末装置へと送受し、端末装置で該情報を表示することを特徴とする請求項1に記載のコンテンツ出力システム。
The content transmitted from the server device to the terminal device includes an address on the Internet,
In response to an input operation at the terminal device, the address is transmitted from the terminal device to the server device or another server device, and the server device that has received the address collects information based on the address. 2. The content output system according to claim 1, wherein the server device transmits and receives the information to the terminal device, and displays the information on the terminal device.
ネットワークを通じて、端末装置及びサーバー装置間で情報通信を行うコンテンツ出力システムにおいて、
前記サーバー装置は、
複数のコンテンツを記憶した第1コンテンツ記憶手段と、
複数のコンテンツを記憶した第2コンテンツ記憶手段と、
前記第1コンテンツ記憶手段内のコンテンツを前記端末装置に送信し、このコンテンツの送信に対する応答として端末装置からの検索条件を受信し、この検索条件に該当するコンテンツを端末装置に送信する通信手段と、
前記第2コンテンツ記憶手段から前記受信した検索条件に該当するコンテンツを検索する検索手段とを備え、
前記端末装置は、
前記サーバー装置から前記第1コンテンツ記憶手段内の各コンテンツを受信して、該各コンテンツの付随情報をコンテンツ群の分類条件で分類し、前記各コンテンツのうちからコンテンツ群に属するコンテンツを求める分類手段と、
前記分類手段により求められたコンテンツ群のコンテンツの付随情報から検索条件を生成する検索条件生成手段と、
前記検索条件生成手段により生成された検索条件を前記サーバー装置に送信し、この検索条件の送信に対する応答として検索条件に該当するコンテンツをサーバー装置から受信する通信手段と、
前記分類手段により求められたコンテンツ群のコンテンツ及び前記サーバー装置から受信した各コンテンツを出力する出力手段とを備えることを特徴とするコンテンツ出力システム。
In a content output system that performs information communication between a terminal device and a server device through a network,
The server device is
First content storage means for storing a plurality of contents;
Second content storage means for storing a plurality of contents;
Communication means for transmitting content in the first content storage means to the terminal device, receiving a search condition from the terminal device as a response to the transmission of the content, and transmitting content corresponding to the search condition to the terminal device; ,
Search means for searching for content corresponding to the received search condition from the second content storage means,
The terminal device
Classification means for receiving each content in the first content storage means from the server device, classifying the accompanying information of each content according to a content group classification condition, and obtaining content belonging to the content group from among the contents When,
Search condition generation means for generating a search condition from the accompanying information of the content of the content group obtained by the classification means;
Communication means for transmitting the search condition generated by the search condition generation means to the server apparatus, and receiving content corresponding to the search condition from the server apparatus as a response to the transmission of the search condition;
A content output system comprising: output means for outputting content of the content group obtained by the classification means and each content received from the server device.
ネットワークを通じて、端末装置及びサーバー装置間で情報通信を行うコンテンツ出力システムにおいて、
前記サーバー装置は、
複数のコンテンツをそれぞれ記憶した第1及び第2コンテンツ記憶手段と、
前記第1コンテンツ記憶手段内の各コンテンツの付随情報をコンテンツ群の分類条件で分類して、前記各コンテンツのうちからコンテンツ群に属するコンテンツを求める分類手段と、
前記分類手段により求められたコンテンツ群のコンテンツの付随情報から検索条件を生成する検索条件生成手段と、
前記第2コンテンツ記憶手段から前記検索条件生成手段により生成された検索条件に該当するコンテンツを検索する検索手段と、
前記分類手段により求められたコンテンツ群のコンテンツ及び前記検索手段により検索されたコンテンツを共に端末装置に送信する通信手段とを備え、
前記端末装置は、
前記各コンテンツをサーバー装置から受信する通信手段と、
これらのコンテンツを出力する出力手段とを備えることを特徴とするコンテンツ出力システム。
In a content output system that performs information communication between a terminal device and a server device through a network,
The server device is
First and second content storage means each storing a plurality of contents;
Classification means for classifying accompanying information of each content in the first content storage means according to a content group classification condition, and obtaining content belonging to the content group from the contents;
Search condition generation means for generating a search condition from the accompanying information of the content of the content group obtained by the classification means;
Search means for searching the content corresponding to the search condition generated by the search condition generation means from the second content storage means;
Communication means for transmitting both the content of the content group obtained by the classification means and the content searched by the search means to the terminal device;
The terminal device
Communication means for receiving each content from a server device;
A content output system comprising output means for outputting these contents.
ネットワークを通じて、端末装置との間で情報通信を行うサーバー装置において、
複数のコンテンツをそれぞれ記憶した第1及び第2コンテンツ記憶手段と、
前記第1コンテンツ記憶手段内の各コンテンツの付随情報をコンテンツ群の分類条件で分類して、前記各コンテンツのうちからコンテンツ群に属するコンテンツを求める分類手段と、
前記分類手段により求められたコンテンツ群のコンテンツの付随情報から検索条件を生成する検索条件生成手段と、
前記第2コンテンツ記憶手段から前記検索条件生成手段により生成された検索条件に該当するコンテンツを検索する検索手段と、
前記分類手段により求められたコンテンツ群のコンテンツ及び前記検索手段により検索されたコンテンツを共に端末装置に送信する通信手段とを備えることを特徴とするサーバー装置。
In a server device that performs information communication with a terminal device through a network,
First and second content storage means each storing a plurality of contents;
Classification means for classifying accompanying information of each content in the first content storage means according to a content group classification condition, and obtaining content belonging to the content group from the contents;
Search condition generation means for generating a search condition from the accompanying information of the content of the content group obtained by the classification means;
Search means for searching the content corresponding to the search condition generated by the search condition generation means from the second content storage means;
A server device comprising: a communication unit that transmits the content of the content group obtained by the classification unit and the content searched by the search unit to a terminal device.
複数のコンテンツをそれぞれ記憶した第1及び第2コンテンツ記憶手段と、
前記第1コンテンツ記憶手段内の各コンテンツの付随情報をコンテンツ群の分類条件で分類して、前記各コンテンツのうちからコンテンツ群に属するコンテンツを求める分類手段と、
前記分類手段により求められたコンテンツ群のコンテンツの付随情報から検索条件を生成する検索条件生成手段と、
前記第2コンテンツ記憶手段から前記検索条件生成手段により生成された検索条件に該当するコンテンツを検索する検索手段と、
前記分類手段により求められたコンテンツ群のコンテンツ及び前記検索手段により検索されたコンテンツを共に出力する出力手段とを備えることを特徴とするコンテンツ出力装置。
First and second content storage means each storing a plurality of contents;
Classification means for classifying accompanying information of each content in the first content storage means according to a content group classification condition, and obtaining content belonging to the content group from the contents;
Search condition generation means for generating a search condition from the accompanying information of the content of the content group obtained by the classification means;
Search means for searching the content corresponding to the search condition generated by the search condition generation means from the second content storage means;
A content output apparatus comprising: output means for outputting together the content of the content group obtained by the classification means and the content searched by the search means.
コンピュータを用いて、コンテンツを出力するコンテンツ出力方法において、
コンピュータを、
複数のコンテンツをそれぞれ記憶した第1及び第2コンテンツ記憶手段と、
前記第1コンテンツ記憶手段内の各コンテンツの付随情報をコンテンツ群の分類条件で分類して、前記各コンテンツのうちからコンテンツ群に属するコンテンツを求める分類手段と、
前記分類手段により求められたコンテンツ群のコンテンツの付随情報から検索条件を生成する検索条件生成手段と、
前記第2コンテンツ記憶手段から前記検索条件生成手段により生成された検索条件に該当するコンテンツを検索する検索手段と、
前記分類手段により求められたコンテンツ群のコンテンツ及び前記検索手段により検索されたコンテンツを共に出力する出力手段として機能させることを特徴とするコンテンツ出力方法。
In a content output method for outputting content using a computer,
Computer
First and second content storage means each storing a plurality of contents;
Classification means for classifying accompanying information of each content in the first content storage means according to a content group classification condition, and obtaining content belonging to the content group from the contents;
Search condition generation means for generating a search condition from the accompanying information of the content of the content group obtained by the classification means;
Search means for searching the content corresponding to the search condition generated by the search condition generation means from the second content storage means;
A content output method comprising: functioning as an output unit that outputs the content of the content group obtained by the classification unit and the content searched by the search unit together.
コンピュータを用いて、コンテンツを出力するコンテンツ出力プログラムにおいて、
コンピュータを、
複数のコンテンツをそれぞれ記憶した第1及び第2コンテンツ記憶手段と、
前記第1コンテンツ記憶手段内の各コンテンツの付随情報をコンテンツ群の分類条件で分類して、前記各コンテンツのうちからコンテンツ群に属するコンテンツを求める分類手段と、
前記分類手段により求められたコンテンツ群のコンテンツの付随情報から検索条件を生成する検索条件生成手段と、
前記第2コンテンツ記憶手段から前記検索条件生成手段により生成された検索条件に該当するコンテンツを検索する検索手段と、
前記分類手段により求められたコンテンツ群のコンテンツ及び前記検索手段により検索されたコンテンツを共に出力する出力手段として機能させることを特徴とするコンテンツ出力プログラム。
In a content output program for outputting content using a computer,
Computer
First and second content storage means each storing a plurality of contents;
Classification means for classifying accompanying information of each content in the first content storage means according to a content group classification condition, and obtaining content belonging to the content group from the contents;
Search condition generation means for generating a search condition from the accompanying information of the content of the content group obtained by the classification means;
Search means for searching the content corresponding to the search condition generated by the search condition generation means from the second content storage means;
What is claimed is: 1. A content output program that functions as an output unit that outputs a content group content obtained by the classification unit and a content searched by the search unit together.
請求項18に記載のコンテンツ出力プログラムを記憶した記録媒体。   A recording medium storing the content output program according to claim 18.
JP2009107232A 2009-04-27 2009-04-27 Content output system, server device, device, method, and program for outputting content, and recording medium storing the content output program Pending JP2010257266A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009107232A JP2010257266A (en) 2009-04-27 2009-04-27 Content output system, server device, device, method, and program for outputting content, and recording medium storing the content output program
PCT/JP2010/057464 WO2010126042A1 (en) 2009-04-27 2010-04-27 Content output system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009107232A JP2010257266A (en) 2009-04-27 2009-04-27 Content output system, server device, device, method, and program for outputting content, and recording medium storing the content output program

Publications (1)

Publication Number Publication Date
JP2010257266A true JP2010257266A (en) 2010-11-11

Family

ID=43032186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009107232A Pending JP2010257266A (en) 2009-04-27 2009-04-27 Content output system, server device, device, method, and program for outputting content, and recording medium storing the content output program

Country Status (2)

Country Link
JP (1) JP2010257266A (en)
WO (1) WO2010126042A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012244634A (en) * 2011-05-24 2012-12-10 Canon Inc Image clustering method
JP2015015574A (en) * 2013-07-04 2015-01-22 キヤノン株式会社 Display control apparatus, control method therefor, and control program
JP2016031439A (en) * 2014-07-28 2016-03-07 ソニー株式会社 Information processing apparatus and information processing method, computer program, and image display system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004222056A (en) * 2003-01-16 2004-08-05 Fuji Photo Film Co Ltd Method, device, and program for preserving image
JP2007034403A (en) * 2005-07-22 2007-02-08 Nikon Corp Image display device and image display program
JP2009516951A (en) * 2005-11-21 2009-04-23 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ System and method for finding related audio companions using digital image content features and metadata

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4853915B2 (en) * 2006-10-19 2012-01-11 Kddi株式会社 Search system
JP2009086727A (en) * 2007-09-27 2009-04-23 Fujifilm Corp Image display device and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004222056A (en) * 2003-01-16 2004-08-05 Fuji Photo Film Co Ltd Method, device, and program for preserving image
JP2007034403A (en) * 2005-07-22 2007-02-08 Nikon Corp Image display device and image display program
JP2009516951A (en) * 2005-11-21 2009-04-23 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ System and method for finding related audio companions using digital image content features and metadata

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012244634A (en) * 2011-05-24 2012-12-10 Canon Inc Image clustering method
JP2015015574A (en) * 2013-07-04 2015-01-22 キヤノン株式会社 Display control apparatus, control method therefor, and control program
JP2016031439A (en) * 2014-07-28 2016-03-07 ソニー株式会社 Information processing apparatus and information processing method, computer program, and image display system

Also Published As

Publication number Publication date
WO2010126042A1 (en) 2010-11-04

Similar Documents

Publication Publication Date Title
CN103124968B (en) For the Content Transformation of back-tilting type amusement
JP2007334696A (en) Data sharing system, communication terminal and server
JP2007052788A (en) Method and system for linking digital photograph to electronic document
JP5870742B2 (en) Information processing apparatus, system, and information processing method
US9203986B2 (en) Imaging device, imaging system, image management server, image communication system, imaging method, and image management method
US7889967B2 (en) Information editing and displaying device, information editing and displaying method, information editing and displaying program, recording medium, server, and information processing system
US20100228751A1 (en) Method and system for retrieving ucc image based on region of interest
US20090083642A1 (en) Method for providing graphic user interface (gui) to display other contents related to content being currently generated, and a multimedia apparatus applying the same
JP2009217828A (en) Image retrieval device
JP5552987B2 (en) Search result output device, search result output method, and search result output program
JP2010257266A (en) Content output system, server device, device, method, and program for outputting content, and recording medium storing the content output program
JP2021005390A (en) Content management device, and control method
JP2005196615A (en) Information processing system and information processing method
JP2005039359A (en) Image reproducing device and program
JP5342509B2 (en) CONTENT REPRODUCTION DEVICE, CONTENT REPRODUCTION DEVICE CONTROL METHOD, CONTROL PROGRAM, AND RECORDING MEDIUM
TWM564225U (en) Image information sharing system
JP2004062216A (en) Method and device for data filing, storage medium, and program
JP2007104326A (en) Content creating device and content creating method
JP2005196613A (en) Information processor and information processing method, information processing system, recording medium and program
JP2005196614A (en) Information processing system and information processing method
JP2017084037A (en) Program and information processing method
JP2005198139A (en) Information processing system, information processor and information processing method, recording medium, and program
JP4561358B2 (en) Electronic album creation apparatus and electronic album creation system
KR20170124861A (en) Terminal apparatus, search server and method for providing searching results
JP6527650B2 (en) Content management system, content management server, and content management method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121002

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130312