JP5849815B2 - Content display device - Google Patents

Content display device Download PDF

Info

Publication number
JP5849815B2
JP5849815B2 JP2012072984A JP2012072984A JP5849815B2 JP 5849815 B2 JP5849815 B2 JP 5849815B2 JP 2012072984 A JP2012072984 A JP 2012072984A JP 2012072984 A JP2012072984 A JP 2012072984A JP 5849815 B2 JP5849815 B2 JP 5849815B2
Authority
JP
Japan
Prior art keywords
priority
content
color
auxiliary information
complexity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012072984A
Other languages
Japanese (ja)
Other versions
JP2013206030A (en
Inventor
なぎさ 渕上
なぎさ 渕上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2012072984A priority Critical patent/JP5849815B2/en
Publication of JP2013206030A publication Critical patent/JP2013206030A/en
Application granted granted Critical
Publication of JP5849815B2 publication Critical patent/JP5849815B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、コンテンツ表示装置に関し、特に、ディスプレイ画面上にユーザが所望するコンテンツの内容を表示するとともに、当該コンテンツに関連した補助情報を表示する機能をもったコンテンツ表示装置に関する。   The present invention relates to a content display device, and more particularly, to a content display device having a function of displaying content of a content desired by a user on a display screen and displaying auxiliary information related to the content.

ここ数年来、パソコンの出荷台数を凌駕するほど、スマートフォンやタブレット型電子端末などの電子機器の普及が進んでおり、デジタルコンテンツを提示する機能をもった機器は実社会に急速に浸透してきている。特に、出版業界では、電子書籍の形態でコンテンツを提供するビジネスの重要度が増しており、ユーザは多くの書籍を電子書籍の形態で入手することが可能である。今後は、インターネット上のWebページを閲覧するのと同じように、電子端末上で電子書籍を閲覧することも一般化するものと思われる。   Over the past few years, electronic devices such as smartphones and tablet-type electronic terminals have become more widespread as they surpassed the number of PCs shipped, and devices with the function of presenting digital content have rapidly penetrated the real world. In particular, in the publishing industry, the importance of the business of providing content in the form of electronic books has increased, and users can obtain many books in the form of electronic books. In the future, it is expected that browsing electronic books on electronic terminals will be generalized in the same way as browsing Web pages on the Internet.

電子書籍やWebページなどのデジタルコンテンツを電子機器のディスプレイ画面上に表示し、ユーザに閲読させる形態を採ると、電子機器ならではの機能を利用した付加的なサービスを提供することが可能になる。たとえば、専用の閲覧用アプリケーションプログラムを組み込んだ電子機器では、閲覧対象として表示中のコンテンツに対して、これに関連した補助情報を付加的に提示することが可能になる。   If a digital content such as an electronic book or a Web page is displayed on the display screen of the electronic device and read by the user, an additional service using functions unique to the electronic device can be provided. For example, an electronic device incorporating a dedicated browsing application program can additionally present auxiliary information related to content being displayed as a browsing target.

このような補助情報を提示するための技術の一例として、下記の特許文献1には、表示部に表示しているコンテンツに関連するコンテンツの一部やその作者などの情報を補助情報として脇に表示する技術が開示されており、特許文献2には、電子書籍を画面上に表示させたときに生じる空白領域に、当該電子書籍の内容に関連性のある情報を付加情報として挿入する技術が開示されている。また、表示中の文字列の中の特定の単語をユーザが指示すると、当該単語に関連した補助情報(たとえば、当該単語を辞書で引いた内容)を画面に表示する技術も利用されている。   As an example of a technique for presenting such auxiliary information, the following Patent Document 1 includes a part of content related to the content displayed on the display unit and information such as the author as auxiliary information. A technique for displaying is disclosed, and Patent Document 2 discloses a technique for inserting information related to the contents of the electronic book as additional information into a blank area generated when the electronic book is displayed on the screen. It is disclosed. In addition, when the user designates a specific word in the displayed character string, auxiliary technology related to the word (for example, content obtained by drawing the word with a dictionary) is displayed on the screen.

一般に、文字列に関連する情報を参照データベースから検索する方法は、古くから様々な形態のものが知られている。たとえば、参照データベース内の個々の情報に、それぞれキーワードを付加しておけば、対象となる文字列に一致するキーワードが付された情報を検索結果として抽出することができる。このような検索方法を利用すれば、表示中のコンテンツ内の特定の文字列に関連する情報を参照データベースから検索し、検索された情報を補助情報として提示することができる。   In general, various types of methods for retrieving information related to a character string from a reference database have been known for a long time. For example, if a keyword is added to each piece of information in the reference database, information with a keyword that matches the target character string can be extracted as a search result. If such a search method is used, information related to a specific character string in the content being displayed can be searched from the reference database, and the searched information can be presented as auxiliary information.

一方、最近は、画像に関する検索を行う技術も提案されてきている。たとえば、下記の特許文献3には、キーワードを名詞と感性語とに分割し、感性語および名詞の組み合わせと画像の特徴を示す特徴量とを対応づけて画像検索を行う技術が開示されており、特許文献4には、任意の画像に対しその画像特徴量から付与すべきキーワードを予測するために画像特徴量とキーワード予測値との対応関係を格納したデータベースを作成し、当該データベースを利用した画像検索を行う方法が開示されている。また、特許文献5には、入力した言語文を言語解析手段によって解析して検索を行い、検索された対象データが背景・パーツのどちらを表すものであるかを識別し、背景とパーツに分割して画像を検索する技術が開示されており、特許文献6には、テキスト及び図形で構成される電子文書のうち、ユーザが入力したあいまいな語に対応する図形を検索する技術が開示されている。   On the other hand, recently, techniques for searching for images have also been proposed. For example, Patent Document 3 below discloses a technique for dividing an keyword into a noun and a sensitivity word, and performing an image search by associating the combination of the sensitivity word and the noun with a feature amount indicating the feature of the image. In Patent Document 4, in order to predict a keyword to be assigned to an arbitrary image from the image feature amount, a database storing a correspondence relationship between the image feature amount and the keyword predicted value is created, and the database is used. A method for performing an image search is disclosed. Further, in Patent Document 5, the input language sentence is analyzed by a language analysis means, a search is performed, and it is identified whether the searched target data represents a background or a part, and is divided into a background and a part. A technique for searching for an image is disclosed, and Patent Document 6 discloses a technique for searching for a graphic corresponding to an ambiguous word input by a user among electronic documents composed of text and graphics. Yes.

特開2010−198084号公報JP 2010-198084 A 特開2011−123786号公報JP 2011-123786 A 特開2011−065499号公報JP 2011-065499 A 特許第3996723号公報Japanese Patent No. 3996723 特開平6−119405号公報JP-A-6-119405 特開平7−85092号公報Japanese Patent Laid-Open No. 7-85092

多くのデジタルコンテンツは、文字列だけでなく画像を含んでいる。したがって、実用上は、コンテンツ内の文字列だけでなく、画像についても補助情報の提示が行われるようにするのが好ましい。しかしながら、文字列を対象として、これに関連する情報を検索する技術は古くから確立されているのに対して、画像を対象として、これに関連する情報を検索する技術は日が浅いため、従来の方法では、画像に関連した適切な補助情報を選択して提示することは困難である。   Many digital contents include images as well as character strings. Therefore, in practice, it is preferable to present auxiliary information not only for character strings in content but also for images. However, while the technology for searching for information related to a character string has been established for a long time, the technology for searching for information related to an image as a target is shallow. In this method, it is difficult to select and present appropriate auxiliary information related to the image.

もちろん、前述の各公報に開示されているように、従来から、画像自体の特徴を定量的に捉える試みがなされているが、これらの技術の多くは、画像上の絵柄を解析して、そこから様々な特徴量を抽出する処理を行い、画像を構成する絵柄自体の特徴を把握する処理を行う必要がある。このような処理は比較的負担の重い処理であり、タブレット型電子端末など、処理能力が比較的低い電子機器での利用には不向きであり、一般ユーザ向けの商用コンテンツ表示装置に適用するには効率的でない。   Of course, as disclosed in the above-mentioned publications, attempts have been made to quantitatively capture the characteristics of the image itself. However, many of these techniques analyze the pattern on the image and Therefore, it is necessary to perform a process of extracting various feature amounts from the image and to grasp the characteristics of the patterns constituting the image. Such a process is a relatively heavy process, and is not suitable for use in an electronic device having a relatively low processing capability such as a tablet electronic terminal, and can be applied to a commercial content display device for general users. Not efficient.

そこで、本発明は、表示中のコンテンツに含まれる画像に関連した、より適切な補助情報を効率的に選択して提示することが可能なコンテンツ表示装置を提供することを目的とする。   Accordingly, an object of the present invention is to provide a content display device that can efficiently select and present more appropriate auxiliary information related to an image included in the content being displayed.

(1) 本発明の第1の態様は、画像を含む主コンテンツの内容を表示するとともに、表示中の主コンテンツ内の画像に関連した補助情報を副コンテンツから検索し、検索された補助情報を提示する機能をもったコンテンツ表示装置において、
検索用文字列が付された画像データを含む主コンテンツデータを格納する主コンテンツデータ格納部と、
それぞれ異なるカテゴリーに所属する複数の副コンテンツデータを格納する副コンテンツデータ格納部と、
ユーザの指示を入力する指示入力部と、
コンテンツの内容を表示するディスプレイと、
ユーザの指示に基づいて、主コンテンツデータ格納部に格納されている主コンテンツデータの所定部分をディスプレイの画面に主コンテンツとして表示する主コンテンツ表示処理部と、
ユーザの指示に基づいて、ディスプレイの画面に表示されている主コンテンツ内の特定の対象画像に関連した補助情報を複数の副コンテンツデータから検索する検索処理を実行し、検索処理の結果として得られた補助情報を副コンテンツとして提示する副コンテンツ提示処理部と、
を設け、
副コンテンツ提示処理部には、
対象画像に付されている検索用文字列を認識する検索用文字列認識部と、
認識した検索用文字列を検索キーとして用いて、複数の副コンテンツデータに対する検索処理を実行し、ヒットした補助情報を抽出する検索処理部と、
個々のカテゴリーと色との関連性を示す関連性情報を格納した関連性情報格納部と、
対象画像について色を認識する色認識部と、
色認識部が認識した色に基づいて関連性情報を参照し、より関連性の高いカテゴリーに所属する副コンテンツデータから抽出された補助情報に、より高い優先度を付与する優先度付与部と、
付与された優先度に応じた優先順位に基づいて、抽出された補助情報の提示を行う補助情報提示処理部と、
を設けるようにしたものである。
(1) In the first aspect of the present invention, the contents of the main content including the image are displayed, auxiliary information related to the image in the main content being displayed is searched from the sub content, and the searched auxiliary information is displayed. In a content display device having a function to present,
A main content data storage unit for storing main content data including image data to which a search character string is attached;
A sub content data storage unit for storing a plurality of sub content data belonging to different categories,
An instruction input unit for inputting user instructions;
A display that displays the content, and
A main content display processing unit that displays a predetermined portion of the main content data stored in the main content data storage unit as main content on a display screen based on a user instruction;
Based on a user instruction, a search process for searching auxiliary information related to a specific target image in the main content displayed on the display screen from a plurality of sub-content data is executed and obtained as a result of the search process. A subsidiary content presentation processing unit for presenting the auxiliary information as subsidiary content;
Provided,
In the secondary content presentation processing unit,
A search character string recognition unit for recognizing a search character string attached to the target image;
A search processing unit that executes a search process for a plurality of sub-content data using the recognized search character string as a search key, and extracts auxiliary information that has been hit;
A relevance information storage unit that stores relevance information indicating the relevance between individual categories and colors;
A color recognition unit for recognizing the color of the target image;
A priority assigning unit that refers to the relevance information based on the color recognized by the color recognizing unit, and gives higher priority to the auxiliary information extracted from the sub-content data belonging to the more relevant category;
An auxiliary information presentation processing unit for presenting the extracted auxiliary information based on the priority order according to the given priority;
Is provided.

(2) 本発明の第2の態様は、上述した第1の態様に係るコンテンツ表示装置において、
関連性情報格納部が、個々のカテゴリーについて、色相値、彩度値、明度値のうちのいずれか1つの値の分布範囲もしくはこれらの値の組み合わせの分布範囲を対応づけた関連性情報を格納しており、
色認識部が、対象画像についての代表色を、色相値、彩度値、明度値のうちのいずれか1つの代表値もしくはその組み合わせとして認識し、
優先度付与部が、個々のカテゴリーに対応づけられた色相値、彩度値、明度値の分布範囲もしくはこれらの値の組み合わせの分布範囲と、色認識部が認識した色相値、彩度値、明度値の代表値もしくはその組み合わせと、を比較し、両者の近似度に応じた優先度を付与するようにしたものである。
(2) According to a second aspect of the present invention, in the content display device according to the first aspect described above,
The relevance information storage unit stores relevance information that associates the distribution range of any one of hue value, saturation value, and lightness value or the combination range of these values for each category. And
The color recognition unit recognizes the representative color for the target image as one representative value of a hue value, a saturation value, and a lightness value or a combination thereof,
The priority assigning unit has a hue range, saturation value, brightness value distribution range associated with each category, or a combination range of these values, and a hue value, saturation value, A representative value of lightness values or a combination thereof is compared, and a priority according to the degree of approximation of both is given.

(3) 本発明の第3の態様は、上述した第2の態様に係るコンテンツ表示装置において、
関連性情報格納部が、個々のカテゴリーについて、彩度値、明度値、色相値の組み合わせの分布範囲を対応づけた関連性情報を含み、
色認識部が、対象画像について、彩度の代表値、明度の代表値、色相の代表値を認識し、
優先度付与部が、個々のカテゴリーに対応づけられた彩度値、明度値、色相値の組み合わせの分布範囲と、色認識部が認識した彩度の代表値、明度の代表値、色相の代表値の組み合わせと、を比較し、両者の近似度に応じた優先度を付与するようにしたものである。
(3) According to a third aspect of the present invention, in the content display device according to the second aspect described above,
The relevance information storage unit includes relevance information that associates the distribution range of combinations of saturation value, lightness value, and hue value for each category,
The color recognition unit recognizes the representative value of saturation, the representative value of brightness, and the representative value of hue for the target image,
The priority assigning unit has a distribution range of combinations of saturation values, lightness values, and hue values associated with individual categories, and the representative value of saturation, the representative value of lightness, and the representative of hue recognized by the color recognition unit The combination of values is compared, and a priority is given according to the degree of approximation between the two.

(4) 本発明の第4の態様は、上述した第3の態様に係るコンテンツ表示装置において、
関連性情報格納部が、基準座標軸上の位置を明度値、基準座標軸からの距離を彩度値、基準座標軸まわりの角度を色相値とする三次元色空間上に個々のカテゴリーに対応する閉領域をマッピングしたマッピング情報を関連性情報として格納し、
優先度付与部が、色認識部が認識した色を、三次元色空間上に、彩度の代表値、明度の代表値、色相の代表値をそれぞれ座標値とする認識点としてプロットし、プロットされた認識点とマッピングされた個々の閉領域との位置関係に基づいて優先度を付与するようにしたものである。
(4) According to a fourth aspect of the present invention, in the content display device according to the third aspect described above,
Closed area corresponding to each category in a three-dimensional color space where the relevance information storage unit has a lightness value for the position on the reference coordinate axis, a saturation value for the distance from the reference coordinate axis, and a hue value for the angle around the reference coordinate axis The mapping information that maps is stored as relevance information,
The priority assigning unit plots the color recognized by the color recognition unit as a recognition point in the three-dimensional color space, with the representative value of saturation, the representative value of lightness, and the representative value of hue as coordinate values. The priority is given based on the positional relationship between the recognized recognition points and the mapped individual closed regions.

(5) 本発明の第5の態様は、上述した第2の態様に係るコンテンツ表示装置において、
関連性情報格納部が、個々のカテゴリーについて、彩度値と明度値との組み合わせの分布範囲を対応づけた関連性情報を含み、
色認識部が、対象画像について、彩度の代表値および明度の代表値を認識し、
優先度付与部が、個々のカテゴリーに対応づけられた彩度値と明度値との組み合わせの分布範囲と、色認識部が認識した彩度の代表値と明度の代表値との組み合わせと、を比較し、両者の近似度に応じた優先度を付与するようにしたものである。
(5) According to a fifth aspect of the present invention, in the content display device according to the second aspect described above,
The relevance information storage unit includes relevance information that associates distribution ranges of combinations of saturation values and lightness values for each category,
The color recognition unit recognizes a representative value of saturation and a representative value of brightness for the target image,
The priority assigning unit determines the distribution range of the combination of the saturation value and the lightness value associated with each category, and the combination of the representative value of the saturation and the representative value of the lightness recognized by the color recognition unit. In comparison, priority is given according to the degree of approximation between the two.

(6) 本発明の第6の態様は、上述した第5の態様に係るコンテンツ表示装置において、
関連性情報格納部が、第1の座標軸に彩度値、第2の座標軸に明度値をとった二次元色平面上に個々のカテゴリーに対応する閉領域をマッピングしたマッピング情報を関連性情報として格納し、
優先度付与部が、色認識部が認識した色を、二次元色平面上に、彩度の代表値と明度の代表値とをそれぞれ座標値とする認識点としてプロットし、プロットされた認識点とマッピングされた個々の閉領域との位置関係に基づいて優先度を付与するようにしたものである。
(6) According to a sixth aspect of the present invention, in the content display device according to the fifth aspect described above,
Relevance information storage unit uses mapping information obtained by mapping closed areas corresponding to individual categories on a two-dimensional color plane having a saturation value on the first coordinate axis and a lightness value on the second coordinate axis. Store and
The priority assigning unit plots the color recognized by the color recognition unit on the two-dimensional color plane as a recognition point with the representative value of saturation and the representative value of lightness as coordinate values, and the plotted recognition points The priority is given based on the positional relationship with each of the mapped closed regions.

(7) 本発明の第7の態様は、上述した第2〜第6の態様に係るコンテンツ表示装置において、
色認識部が、対象画像についての代表色を、当該対象画像を構成する各部の色相値、彩度値、もしくは明度値の面積を考慮した重み付け平均値、またはその組み合わせとして認識するようにしたものである。
(7) According to a seventh aspect of the present invention, in the content display device according to the second to sixth aspects described above,
The color recognition unit recognizes the representative color of the target image as a weighted average value considering the area of the hue value, saturation value, or lightness value of each part constituting the target image, or a combination thereof. It is.

(8) 本発明の第8の態様は、上述した第1の態様に係るコンテンツ表示装置において、
副コンテンツ提示処理部が、対象画像について複雑度を認識する複雑度認識部を更に有し、
関連性情報格納部が、個々のカテゴリーと色との関連性とともに個々のカテゴリーと複雑度との関連性を示す関連性情報を格納しており、
優先度付与部が、色認識部が認識した色と、複雑度認識部が認識した複雑度と、の双方に基づいて関連性情報を参照し、より関連性の高いカテゴリーに所属する副コンテンツデータから抽出された補助情報に、より高い優先度を付与するようにしたものである。
(8) According to an eighth aspect of the present invention, in the content display device according to the first aspect described above,
The secondary content presentation processing unit further includes a complexity recognition unit that recognizes the complexity of the target image,
The relevance information storage unit stores relevance information indicating the relevance between individual categories and color as well as the relevance between individual categories and colors.
Sub-content data belonging to a category with higher relevance by the relevance information referring to the relevance information based on both the color recognized by the color recognizing unit and the complexity recognized by the complexity recognizing unit A higher priority is given to the auxiliary information extracted from.

(9) 本発明の第9の態様は、上述した第8の態様に係るコンテンツ表示装置において、
関連性情報格納部が、個々のカテゴリーについて、彩度値、明度値、複雑度の組み合わせの分布範囲を対応づけた関連性情報を格納しており、
色認識部が、対象画像について、彩度の代表値および明度の代表値を認識し、
優先度付与部が、個々のカテゴリーに対応づけられた彩度値、明度値、複雑度の組み合わせの分布範囲と、色認識部が認識した彩度の代表値、色認識部が認識した明度の代表値、複雑度認識部が認識した複雑度の組み合わせと、を比較し、両者の近似度に応じた優先度を付与するようにしたものである。
(9) According to a ninth aspect of the present invention, in the content display device according to the eighth aspect described above,
The relevance information storage unit stores relevance information that associates the distribution range of the combination of saturation value, lightness value, and complexity for each category,
The color recognition unit recognizes a representative value of saturation and a representative value of brightness for the target image,
The priority assigning unit has a distribution range of combinations of saturation value, lightness value, and complexity associated with each category, a representative value of saturation recognized by the color recognition unit, and a lightness value recognized by the color recognition unit. The combination of the representative value and the complexity recognized by the complexity recognition unit is compared, and a priority according to the degree of approximation of both is given.

(10) 本発明の第10の態様は、上述した第9の態様に係るコンテンツ表示装置において、
関連性情報格納部が、第1の座標軸に彩度値、第2の座標軸に明度値、第3の座標軸に複雑度をとった三次元空間上に個々のカテゴリーに対応する閉領域をマッピングしたマッピング情報を関連性情報として格納し、
優先度付与部が、色認識部が認識した色および複雑度認識部が認識した複雑度を、三次元空間上に、彩度の代表値、明度の代表値、複雑度をそれぞれ座標値とする認識点としてプロットし、プロットされた認識点とマッピングされた個々の閉領域との位置関係に基づいて優先度を付与するようにしたものである。
(10) According to a tenth aspect of the present invention, in the content display device according to the ninth aspect described above,
The relevance information storage unit maps closed regions corresponding to individual categories on a three-dimensional space having a saturation value on the first coordinate axis, a lightness value on the second coordinate axis, and a complexity on the third coordinate axis. Store mapping information as relevance information,
The priority assigning unit uses the color recognized by the color recognizing unit and the complexity recognized by the complexity recognizing unit as coordinate values for the representative value of saturation, the representative value of lightness, and the complexity on a three-dimensional space. Plotting is performed as recognition points, and priority is given based on the positional relationship between the plotted recognition points and the mapped closed regions.

(11) 本発明の第11の態様は、上述した第4,6,10の態様に係るコンテンツ表示装置において、
優先度付与部が、各カテゴリーに対応する閉領域が認識点を含むか否かを判定し、認識点を含む閉領域に対応するカテゴリーに所属する副コンテンツデータから抽出された補助情報に対して、より高い優先度を付与するようにしたものである。
(11) An eleventh aspect of the present invention is the content display device according to the fourth, sixth, and tenth aspects described above,
The priority assigning unit determines whether or not the closed region corresponding to each category includes a recognition point, and the auxiliary information extracted from the sub-content data belonging to the category corresponding to the closed region including the recognition point , Higher priority is given.

(12) 本発明の第12の態様は、上述した第4,6,10,11の態様に係るコンテンツ表示装置において、
優先度付与部が、各カテゴリーに対応する閉領域について定義される所定の参照点と認識点との間のユークリッド距離を計算し、相互間距離の小さい閉領域に対応するカテゴリーに所属する副コンテンツデータから抽出された補助情報に対して、より高い優先度を付与するようにしたものである。
(12) According to a twelfth aspect of the present invention, in the content display device according to the fourth, sixth, tenth, and eleventh aspects described above,
A sub-content belonging to a category corresponding to a closed region with a small mutual distance by the priority assigning unit calculating a Euclidean distance between a predetermined reference point defined for the closed region corresponding to each category and a recognition point. A higher priority is given to the auxiliary information extracted from the data.

(13) 本発明の第13の態様は、上述した第12の態様に係るコンテンツ表示装置において、
優先度付与部が、個々の閉領域について、その重心点を参照点と定義するようにしたものである。
(13) According to a thirteenth aspect of the present invention, in the content display device according to the twelfth aspect described above,
The priority assigning unit defines the center of gravity of each closed region as a reference point.

(14) 本発明の第14の態様は、上述した第1の態様に係るコンテンツ表示装置において、
副コンテンツ提示処理部が、対象画像について複雑度を認識する複雑度認識部を更に有し、
副コンテンツデータ格納部に格納されている個々の副コンテンツデータには、それぞれ所定の複雑度が設定されており、
優先度付与部が、複雑度認識部が認識した複雑度により近似する複雑度が設定されている副コンテンツデータから抽出された補助情報に、より高い優先度を付与するようにしたものである。
(14) According to a fourteenth aspect of the present invention, in the content display device according to the first aspect described above,
The secondary content presentation processing unit further includes a complexity recognition unit that recognizes the complexity of the target image,
Each sub-content data stored in the sub-content data storage unit is set with a predetermined complexity,
The priority assigning unit gives higher priority to the auxiliary information extracted from the sub-content data in which the complexity approximated by the complexity recognized by the complexity recognizing unit is set.

(15) 本発明の第15の態様は、上述した第8〜10,14の態様に係るコンテンツ表示装置において、
複雑度認識部が、対象画像の空間周波数を検出する機能を有し、検出された空間周波数値に応じた値を複雑度として認識するようにしたものである。
(15) According to a fifteenth aspect of the present invention, in the content display device according to the eighth to tenth and fourteenth aspects described above,
The complexity recognition unit has a function of detecting the spatial frequency of the target image, and recognizes a value corresponding to the detected spatial frequency value as the complexity.

(16) 本発明の第16の態様は、上述した第8〜10,14の態様に係るコンテンツ表示装置において、
複雑度認識部が、幾何学図形の集合体によって構成される対象画像について、予め個々の幾何学図形に対応づけて定義されたポイントを集計する機能を有し、ポイントの集計値を複雑度として認識するようにしたものである。
(16) According to a sixteenth aspect of the present invention, in the content display device according to the eighth to tenth and fourteenth aspects described above,
The complexity recognition unit has the function of counting points defined in advance in association with individual geometric figures for the target image composed of a collection of geometric figures. It is intended to be recognized.

(17) 本発明の第17の態様は、上述した第8〜10,14〜16の態様に係るコンテンツ表示装置において、
指示入力部が、提示される補助情報について希望する難易度を設定するユーザの指示を入力する機能を有し、
優先度付与部が、難易度が難を示しているほど、より複雑度が高いカテゴリーに所属する副コンテンツデータもしくはより高い複雑度が設定されている副コンテンツデータから抽出された補助情報に、より高い優先度を付与するようにしたものである。
(17) According to a seventeenth aspect of the present invention, in the content display device according to the eighth to tenth and fourteenth to sixteenth aspects described above,
The instruction input unit has a function of inputting a user instruction to set a desired difficulty level for the auxiliary information to be presented,
As the priority assignment unit indicates difficulty, the auxiliary information extracted from the sub-content data belonging to the category with higher complexity or the sub-content data set with higher complexity is more A high priority is given.

(18) 本発明の第18の態様は、上述した第1〜17の態様に係るコンテンツ表示装置において、
検索処理部が、検索キーに対する合致度が所定の基準以上の補助情報を、ヒットした補助情報として抽出する検索処理を実行し、
優先度付与部が、合致度の高い補助情報に、より高い優先度を付与するようにしたものである。
(18) According to an eighteenth aspect of the present invention, in the content display device according to the first to seventeenth aspects described above,
The search processing unit executes a search process for extracting auxiliary information whose degree of match with the search key is equal to or higher than a predetermined reference as hit auxiliary information,
The priority assigning unit gives higher priority to auxiliary information having a high degree of match.

(19) 本発明の第19の態様は、上述した第1〜18の態様に係るコンテンツ表示装置において、
補助情報提示処理部が、検索処理部によって抽出された補助情報のうち、その優先順位に基づいて、上位n番目以内(nは、所定の自然数)の補助情報のみを提示するようにしたものである。
(19) According to a nineteenth aspect of the present invention, in the content display device according to the first to eighteenth aspects described above,
The auxiliary information presentation processing unit presents only auxiliary information within the upper nth (n is a predetermined natural number) based on the priority among the auxiliary information extracted by the search processing unit. is there.

(20) 本発明の第20の態様は、上述した第19の態様に係るコンテンツ表示装置において、
検索処理部が、関連性の高いカテゴリーから関連性の低いカテゴリーの順に、副コンテンツデータに対する検索処理を実行し、上位n番目の補助情報が抽出された時点で、以後の検索処理を中止するようにしたものである。
(20) According to a twentieth aspect of the present invention, in the content display device according to the nineteenth aspect described above,
The search processing unit executes the search process for the sub-content data in the order from the highly relevant category to the less relevant category, and stops the subsequent search process when the top nth auxiliary information is extracted. It is a thing.

(21) 本発明の第21の態様は、上述した第1〜第20の態様に係るコンテンツ表示装置において、
補助情報提示処理部が、提示対象となる補助情報が複数存在する場合に、その優先順位に基づいた配置順もしくは時間順に従って、これら複数の補助情報の提示を行うようにしたものである。
(21) According to a twenty-first aspect of the present invention, in the content display device according to the first to twentieth aspects described above,
When there are a plurality of pieces of auxiliary information to be presented, the auxiliary information presentation processing unit presents the plurality of pieces of auxiliary information according to the arrangement order or the time order based on the priority order.

(22) 本発明の第22の態様は、上述した第1〜第21の態様に係るコンテンツ表示装置において、
指示入力部が、ディスプレイの画面上の指示点を指定するユーザの指示を入力する機能を有し、
副コンテンツ提示処理部が、指示点近傍に表示されていた画像を対象画像として認識し、当該対象画像に関連した補助情報の提示を行うようにしたものである。
(22) According to a twenty-second aspect of the present invention, in the content display device according to the first to twenty-first aspects described above,
The instruction input unit has a function of inputting a user instruction to specify an instruction point on the display screen,
The sub-content presentation processing unit recognizes an image displayed near the designated point as a target image and presents auxiliary information related to the target image.

(23) 本発明の第23の態様は、上述した第1〜第22の態様に係るコンテンツ表示装置を、コンピュータにプログラムを組み込むことにより構成したものである。   (23) In a twenty-third aspect of the present invention, the content display device according to the first to twenty-second aspects described above is configured by incorporating a program into a computer.

(24) 本発明の第24の態様は、画像を含む主コンテンツの内容を表示するとともに、表示中の主コンテンツ内の画像に関連した補助情報を副コンテンツから検索し、検索された補助情報を提示するコンテンツ表示方法において、
コンピュータが、ユーザの指示に基づいて、主コンテンツの所定部分をディスプレイの画面に表示する主コンテンツ表示段階と、
コンピュータが、ユーザの指示に基づいて、ディスプレイの画面に表示されている主コンテンツ内の特定の画像を対象画像として認識するとともに、当該対象画像に付されている検索用文字列を認識する対象認識段階と、
コンピュータが、認識した検索用文字列を検索キーとして用いて、それぞれ異なるカテゴリーに所属する複数の副コンテンツデータに対する検索処理を実行し、ヒットした補助情報を抽出する検索処理段階と、
コンピュータが、対象画像について色を認識する色認識段階と、
コンピュータが、予め定義されている個々のカテゴリーと色との関連性を示す関連性情報を参照し、より関連性の高いカテゴリーに所属する副コンテンツデータから抽出された補助情報に、より高い優先度を付与する優先度付与段階と、
コンピュータが、付与された優先度に応じた優先順位に基づいて、抽出された補助情報の提示を行う補助情報提示段階と、
を行うようにしたものである。
(24) According to a twenty-fourth aspect of the present invention, the contents of the main content including the image are displayed, auxiliary information related to the image in the main content being displayed is searched from the sub-content, and the searched auxiliary information is displayed. In the content display method to be presented,
A main content display stage in which a computer displays a predetermined portion of the main content on a display screen based on a user instruction;
Target recognition for recognizing a specific image in the main content displayed on the display screen as a target image and a search character string attached to the target image based on a user instruction Stages,
A search processing stage in which the computer executes a search process for a plurality of sub-content data belonging to different categories, using the recognized search character string as a search key, and extracts the hit auxiliary information;
A color recognition stage in which the computer recognizes the color of the target image;
The computer refers to the relevance information that indicates the relevance between individual categories and colors, and the auxiliary information extracted from the sub-content data belonging to the more relevant category has a higher priority. A priority granting stage for granting
An auxiliary information presentation stage in which the computer presents the extracted auxiliary information based on the priority order according to the given priority;
Is to do.

(25) 本発明の第25の態様は、上述した第24の態様に係るコンテンツ表示方法において、
コンピュータが、対象画像について複雑度を認識する複雑度認識段階を更に有し、
優先度付与段階において、コンピュータが、予め定義されている個々のカテゴリーと色との関連性および個々のカテゴリーと複雑度との関連性を示す関連性情報を参照し、より関連性の高いカテゴリーに所属する副コンテンツデータから抽出された補助情報に、より高い優先度を付与するようにしたものである。
(25) According to a twenty-fifth aspect of the present invention, in the content display method according to the twenty-fourth aspect described above,
The computer further comprises a complexity recognition stage for recognizing the complexity of the target image;
In the prioritization stage, the computer looks at the relevance information that shows the association between each predefined category and color, and the association between each category and complexity, and makes the category more relevant A higher priority is given to the auxiliary information extracted from the sub-content data to which it belongs.

(26) 本発明の第26の態様は、上述した第24の態様に係るコンテンツ表示方法において、
コンピュータが、対象画像について複雑度を認識する複雑度認識段階を更に有し、
優先度付与段階において、コンピュータが、予め設定されている個々の副コンテンツデータの複雑度を参照し、複雑度認識段階で認識した複雑度により近似する複雑度が設定されている副コンテンツデータから抽出された補助情報に、より高い優先度を付与するようにしたものである。
(26) According to a twenty-sixth aspect of the present invention, in the content display method according to the twenty-fourth aspect described above,
The computer further comprises a complexity recognition stage for recognizing the complexity of the target image;
In the priority assignment stage, the computer refers to the complexity of each sub-content data set in advance, and is extracted from the sub-content data in which the complexity approximated by the complexity recognized in the complexity recognition stage is set A higher priority is given to the auxiliary information.

本発明に係るコンテンツ表示装置では、補助情報を含む副コンテンツデータがカテゴリーごとに用意され、しかも、個々のカテゴリーと色との関連性を示す関連性情報が用意される。そして、表示中の主コンテンツに含まれる対象画像について認識された色に基づいて、各カテゴリーの関連性が評価され、より関連性の高いカテゴリーに所属する副コンテンツデータから抽出された補助情報に、より高い優先度が付与され、この優先度に応じた優先順位に基づいて、補助情報の提示が行われる。このため、表示中のコンテンツに含まれる画像に関連した、より適切な補助情報を効率的に選択して提示することが可能になる。   In the content display device according to the present invention, sub-content data including auxiliary information is prepared for each category, and further, relevance information indicating the relevance between individual categories and colors is prepared. Then, based on the color recognized for the target image included in the main content being displayed, the relevance of each category is evaluated, and the auxiliary information extracted from the sub content data belonging to the more relevant category, A higher priority is given, and auxiliary information is presented based on a priority order corresponding to the priority. For this reason, it is possible to efficiently select and present more appropriate auxiliary information related to the image included in the displayed content.

本発明では、対象画像について、予め検索用文字列を付しておくだけの作業を行えばよく、複雑な画像解析処理によって画像の様々な特徴量を抽出する作業は不要である。また、補助情報を検索する際には、対象画像の色を認識し、認識した色とカテゴリーに関連づけられた色との比較を行えばよいので、検索処理時の作業負担も軽減される。したがって、比較的単純な作業負担、処理負担で、適切な補助情報を効率的に提示することが可能になる。   In the present invention, it is only necessary to perform a task of attaching a search character string in advance to the target image, and it is not necessary to extract various feature amounts of the image by complicated image analysis processing. Further, when searching for auxiliary information, the color of the target image is recognized, and the recognized color is compared with the color associated with the category, so the work load during the search process is reduced. Therefore, appropriate auxiliary information can be efficiently presented with a relatively simple work load and processing load.

また、複雑度との関連性を示す情報を用意する実施形態では、対象画像について認識された複雑度を考慮することにより、更に適切な補助情報を選択して提示することが可能になる。   In the embodiment in which information indicating the relationship with the complexity is prepared, more appropriate auxiliary information can be selected and presented by considering the complexity recognized for the target image.

本発明の第1の実施形態に係るコンテンツ表示装置100の構成を示すブロック図である。It is a block diagram which shows the structure of the content display apparatus 100 which concerns on the 1st Embodiment of this invention. 図1に示すコンテンツ表示装置100の表示形態の一例を示す平面図である。It is a top view which shows an example of the display form of the content display apparatus 100 shown in FIG. 図2の主コンテンツ表示領域150Mに表示されているコンテンツに関連した主コンテンツデータの具体的な構成例を示すブロック図である。It is a block diagram which shows the specific structural example of the main content data relevant to the content currently displayed on the main content display area 150M of FIG. 図2に示す表示状態において、ユーザが、画像152を対象画像として補助情報の要求指示を行った状態を示す平面図である。FIG. 5 is a plan view showing a state in which a user issues an auxiliary information request instruction using an image 152 as a target image in the display state shown in FIG. 2. 図1に示すコンテンツ表示装置100において、主コンテンツ内の対象画像に関連した補助情報が表示された状態の別な一例を示す平面図である。It is a top view which shows another example of the state in which the auxiliary information relevant to the target image in main content was displayed in the content display apparatus 100 shown in FIG. 図1に示す副コンテンツデータ格納部160内に格納される副コンテンツデータをカテゴリーごとに示したブロック図である(図1には、3つのカテゴリーC1〜C3のみしか示されていないが、図6では、5つのカテゴリーC1〜C5を定義した例が示されている)。FIG. 6 is a block diagram showing sub-content data stored in the sub-content data storage unit 160 shown in FIG. 1 for each category (only three categories C1 to C3 are shown in FIG. 1; In this example, five categories C1 to C5 are defined). 一般的なHSV三次元色空間を示す斜視図である。It is a perspective view which shows a general HSV three-dimensional color space. 図1に示す関連性情報格納部145内に格納する関連性情報として、HSV三次元色空間上の閉領域を定義する情報を用いた例を示す斜視図である。It is a perspective view which shows the example using the information which defines the closed area | region on HSV three-dimensional color space as the relevance information stored in the relevance information storage part 145 shown in FIG. 図1に示す関連性情報格納部145内に格納する関連性情報として、SV二次元色平面上の閉領域を定義する情報を用いた例を示す平面図である。It is a top view which shows the example using the information which defines the closed area | region on SV two-dimensional color plane as the relevance information stored in the relevance information storage part 145 shown in FIG. 図9に示す関連性情報を利用して、対象画像から認識した色の認識点と各カテゴリーとの関連性に基づく優先度を定義する方法を示す平面図である。It is a top view which shows the method of defining the priority based on the relevance of the recognition point of the color recognized from the target image, and each category using the relevance information shown in FIG. 図9に示す関連性情報において、各閉領域についての重心点を参照点として定義した状態を示す平面図である。FIG. 10 is a plan view showing a state in which the center of gravity point for each closed region is defined as a reference point in the relevance information shown in FIG. 9. 図11に示す関連性情報を利用して、対象画像から認識した色の認識点と各カテゴリーとの関連性に基づく優先度を定義する方法を示す平面図である。It is a top view which shows the method of defining the priority based on the relevance of the recognition point of the color recognized from the target image, and each category using the relevance information shown in FIG. 図1に示す関連性情報格納部145内に格納する関連性情報として、一次元彩度軸上の区間を定義する情報を用いた例を示す平面図である。It is a top view which shows the example using the information which defines the area on a one-dimensional chroma-axis as the relevance information stored in the relevance information storage part 145 shown in FIG. 図1に示す色認識部143による色認識方法の一例を示す平面図である。It is a top view which shows an example of the color recognition method by the color recognition part 143 shown in FIG. 本発明の第2の実施形態に係るコンテンツ表示装置100Aの構成を示すブロック図である。It is a block diagram which shows the structure of 100 A of content display apparatuses which concern on the 2nd Embodiment of this invention. 図15に示す複雑度認識部147による複雑度認識方法の一例を示す平面図である。It is a top view which shows an example of the complexity recognition method by the complexity recognition part 147 shown in FIG. 図15に示す関連性情報格納部145A内に格納する関連性情報として、SVC三次元空間上の分布範囲を定義する情報を用いた例を示す斜視図である。It is a perspective view which shows the example using the information which defines the distribution range in SVC three-dimensional space as the relevance information stored in relevance information storage part 145A shown in FIG. 図17に示す関連性情報を利用して、各カテゴリーについての優先度を定義する方法を示す斜視図である。It is a perspective view which shows the method of defining the priority about each category using the relevance information shown in FIG. 本発明の第3の実施形態に係るコンテンツ表示装置100Bの構成を示すブロック図である。It is a block diagram which shows the structure of the content display apparatus 100B which concerns on the 3rd Embodiment of this invention. 図19に示す優先度付与部144Bによる優先度決定方法の一例を示す斜視図である。It is a perspective view which shows an example of the priority determination method by the priority provision part 144B shown in FIG. 図6に示すカテゴリーC4に所属する副コンテンツデータについて設定された複雑度の一例を示す図である。It is a figure which shows an example of the complexity set about the subcontent data which belongs to the category C4 shown in FIG. 本発明に係るコンテンツ表示方法の基本手順を示す流れ図である。It is a flowchart which shows the basic procedure of the content display method which concerns on this invention.

以下、本発明を図示する実施形態に基づいて説明する。   Hereinafter, the present invention will be described based on the illustrated embodiments.

<<< §1. 本発明の第1の実施形態 >>>
図1は、本発明の第1の実施形態に係るコンテンツ表示装置100の構成を示すブロック図である。図示のとおり、このコンテンツ表示装置100は、主コンテンツデータ格納部110、指示入力部120、主コンテンツ表示処理部130、副コンテンツ提示処理部140、ディスプレイ150、副コンテンツデータ格納部160によって構成されている。
<<< §1. First embodiment of the present invention >>>
FIG. 1 is a block diagram showing a configuration of a content display device 100 according to the first embodiment of the present invention. As illustrated, the content display device 100 includes a main content data storage unit 110, an instruction input unit 120, a main content display processing unit 130, a sub content presentation processing unit 140, a display 150, and a sub content data storage unit 160. Yes.

本発明に係るコンテンツ表示装置の特徴は、ユーザにとって直接的な閲覧対象となるコンテンツを表示するとともに、このコンテンツ内の画像に関連する補助情報を提示する機能を有する点である。ここでは、ユーザにとって直接的な閲覧対象となるコンテンツを主コンテンツと呼び、画像に関連して提示される補助情報を構成するコンテンツを副コンテンツと呼ぶことにする。   A feature of the content display device according to the present invention is that it has a function of displaying content that is directly viewed by the user and presenting auxiliary information related to images in the content. Here, the content that is directly browsed by the user is called main content, and the content that constitutes auxiliary information presented in association with the image is called sub-content.

主コンテンツは、主コンテンツデータ格納部110に主コンテンツデータとして格納されており、ユーザが、指示入力部120に対して指示を与えると、主コンテンツ表示処理部130により、ユーザ所望のコンテンツが、ディスプレイ150の画面上に表示される。一方、副コンテンツデータ格納部160には、補助情報として提示すべき内容が副コンテンツデータとして格納されており、表示中の主コンテンツに画像が含まれていた場合に、副コンテンツ提示処理部140により、当該画像に関連した補助情報が副コンテンツデータから検索され、検索された補助情報の提示が行われる。   The main content is stored as main content data in the main content data storage unit 110. When the user gives an instruction to the instruction input unit 120, the main content display processing unit 130 displays the content desired by the user on the display. 150 screens are displayed. On the other hand, in the sub-content data storage unit 160, contents to be presented as auxiliary information are stored as sub-content data, and when the main content being displayed includes an image, the sub-content presentation processing unit 140 Auxiliary information related to the image is retrieved from the sub-content data, and the retrieved auxiliary information is presented.

なお、このコンテンツ表示装置100は、実際には、タブレット型電子端末、スマートフォン、パソコンなど、コンピュータを内蔵した電子機器に専用のプログラムを組み込むことによって構成することができる。この場合、主コンテンツデータ格納部110および副コンテンツデータ格納部160は、この電子機器に内蔵されたメモリや記憶媒体によって構成され、指示入力部120は、タッチパネルやキーボードなどの入力機器によって構成され、ディスプレイ150は、この電子機器用のディスプレイによって構成され、主コンテンツ表示処理部130および副コンテンツ提示処理部140は、組み込まれた専用プログラム(ソフトウエア)と電子機器に内蔵されたCPUなどの電子部品(ハードウエア資源)とが協働して実行する情報処理機能として実現される。   Note that the content display device 100 can actually be configured by incorporating a dedicated program into an electronic device with a built-in computer, such as a tablet electronic terminal, a smartphone, or a personal computer. In this case, the main content data storage unit 110 and the sub content data storage unit 160 are configured by a memory or a storage medium built in the electronic device, and the instruction input unit 120 is configured by an input device such as a touch panel or a keyboard. The display 150 is configured by a display for the electronic device, and the main content display processing unit 130 and the sub content presentation processing unit 140 are electronic components such as a built-in dedicated program (software) and a CPU built in the electronic device. This is realized as an information processing function executed in cooperation with (hardware resources).

図1に示す例の場合、主コンテンツデータ格納部110には、3つの主コンテンツデータM1,M2,M3が格納された状態が示されている。各コンテンツは、小説、物語、随筆、記事、映画など、その内容はどのようなものでもかまわない。図には、主コンテンツデータM1を、複数のテキストデータT,複数の画像データP,複数の音声データAの各ファイルによって構成した例が示されている。   In the case of the example shown in FIG. 1, the main content data storage unit 110 shows a state in which three main content data M1, M2, and M3 are stored. Each content can be anything, such as a novel, story, essay, article, or movie. In the figure, an example is shown in which the main content data M1 is composed of files of a plurality of text data T, a plurality of image data P, and a plurality of audio data A.

一般に、コンテンツデータの構成には、様々なフォーマットが利用されている。たとえば、Webページ表示用のデータとしては、HTML形式のコンテンツデータが広く普及しており、電子書籍表示用のデータとしては、EPUB形式のコンテンツデータが広く普及している。これらのフォーマットを採用した場合、テキストデータTには、コンテンツに含まれるテキスト情報だけでなく、その配置、色、サイズ、フォントなどを示す情報、特定の位置に特定の画像データPを貼付ける情報、特定の音声データAを再生する再生ボタンを表示する情報などが、タグ付きデータとして挿入されており、画像データPや音声データAは、このタグ付きデータによって参照され、必要に応じて提示されることになる。   In general, various formats are used for the configuration of content data. For example, HTML-format content data is widely used as Web page display data, and EPUB-format content data is widely used as electronic book display data. When these formats are adopted, the text data T includes not only the text information included in the content but also information indicating its arrangement, color, size, font, etc., and information for pasting the specific image data P at a specific position. Information for displaying a playback button for reproducing specific audio data A is inserted as tagged data, and image data P and audio data A are referred to by the tagged data and presented as necessary. Will be.

もちろん、本発明を実施するにあたり、用意するコンテンツデータのフォーマットに特に制限はなく、様々なフォーマットで記述されたコンテンツデータを利用することが可能である。ただ、本発明を実施する場合、主コンテンツデータMは、少なくとも画像データPが含まれているコンテンツである必要があり、当該画像データPには、検索用文字列Kが付されている必要がある。これは、本発明では、表示中の主コンテンツ内の画像に関連した補助情報を、当該画像に付された検索用文字列を用いて検索する必要があるためである。   Of course, in carrying out the present invention, there is no particular limitation on the format of the content data to be prepared, and it is possible to use content data described in various formats. However, when the present invention is implemented, the main content data M needs to be content that includes at least the image data P, and the search character string K needs to be attached to the image data P. is there. This is because in the present invention, it is necessary to search auxiliary information related to an image in the main content being displayed using a search character string attached to the image.

したがって、本発明において、主コンテンツデータ格納部110内に用意する主コンテンツデータMとしては、テキストデータTや音声データAを含まず、画像データPのみを含むコンテンツ(絵本や写真集など)であってもかまわない。また、本発明において、画像データPとは動画データも含むものであり、主コンテンツデータMとして動画コンテンツを用いてもかまわない。なお、動画の場合、検索用文字列Kは、動画を構成する1枚1枚のフレーム画像についてそれぞれ用意してもよいが、実用上は、シーンごとや、一定周期ごと(たとえば、1秒おき)に用意しておけば十分である。   Therefore, in the present invention, the main content data M prepared in the main content data storage unit 110 is content (such as a picture book or a photo book) that does not include text data T and audio data A but includes only image data P. It doesn't matter. In the present invention, the image data P includes moving image data, and moving image content may be used as the main content data M. In the case of a moving image, the search character string K may be prepared for each frame image that constitutes the moving image. However, in practice, for each scene or every certain period (for example, every second). ) Is sufficient.

一方、副コンテンツデータ格納部160には、それぞれ異なるカテゴリーに所属する複数の副コンテンツデータSが格納されている。図1には、それぞれ一点鎖線で囲って示すように、3つのカテゴリーC1,C2,C3が定義されており、カテゴリーC1には副コンテンツデータS1,S2,S3、カテゴリーC2には副コンテンツデータS4,S5、カテゴリーC3には副コンテンツデータS6,S7,S8がそれぞれ所属する状態が示されている。実際には、個々の副コンテンツデータがどのカテゴリーに所属するかを示す所属リストなどを格納部160内に用意しておけば、当該所属リストを参照することにより、個々の副コンテンツデータの所属カテゴリーを認識することができる。   On the other hand, the sub content data storage unit 160 stores a plurality of sub content data S belonging to different categories. In FIG. 1, three categories C1, C2, and C3 are defined, respectively, as enclosed by a one-dot chain line. The category C1 includes sub-content data S1, S2, and S3, and the category C2 includes sub-content data S4. , S5, and category C3 show the states to which the sub-content data S6, S7, and S8 belong. Actually, if a belonging list or the like indicating to which category each sub-content data belongs is prepared in the storage unit 160, the belonging category of each sub-content data is referred to by referring to the belonging list. Can be recognized.

本発明において、副コンテンツは、表示中の主コンテンツ内の特定の画像に関連した補助情報を構成するためのものであり、上述したように、当該画像に付された検索用文字列を用いた検索対象となるものである。したがって、実用上は、補助情報として提示するのに適した単元ごとの情報の集合体からなるコンテンツ(たとえば、辞書、百科事典、小話、豆知識といった内容)を副コンテンツとして利用するのが好ましい。   In the present invention, the sub-content is for constructing auxiliary information related to a specific image in the main content being displayed, and as described above, the search character string attached to the image is used. It is a search target. Therefore, in practice, it is preferable to use content (for example, contents such as a dictionary, an encyclopedia, an ilustration, and bean knowledge), which is a collection of information for each unit suitable for presentation as auxiliary information, as sub-contents.

指示入力部120は、ユーザの指示を入力する構成要素であり、入力された指示は、主コンテンツ表示処理部130および副コンテンツ提示処理部140に与えられ、その結果、ユーザ所望のコンテンツの内容がディスプレイ150に表示される。すなわち、主コンテンツ表示処理部130は、与えられたユーザの指示に基づいて、主コンテンツデータ格納部110に格納されている主コンテンツデータMの所定部分をディスプレイ150の画面に主コンテンツとして表示する処理を行う。一方、副コンテンツ提示処理部140は、与えられたユーザの指示に基づいて、ディスプレイ150の画面に表示されている主コンテンツ内の特定の対象画像に関連した補助情報を複数の副コンテンツデータSから検索する検索処理を実行し、検索処理の結果として得られた補助情報を副コンテンツとして提示する処理を行う。   The instruction input unit 120 is a component that inputs a user instruction. The input instruction is given to the main content display processing unit 130 and the sub content presentation processing unit 140. As a result, the content of the content desired by the user is determined. It is displayed on the display 150. That is, the main content display processing unit 130 displays a predetermined portion of the main content data M stored in the main content data storage unit 110 as main content on the screen of the display 150 based on a given user instruction. I do. On the other hand, the sub-content presentation processing unit 140 obtains auxiliary information related to a specific target image in the main content displayed on the screen of the display 150 from the plurality of sub-content data S based on a given user instruction. A search process for searching is executed, and a process of presenting auxiliary information obtained as a result of the search process as sub-contents is performed.

図2は、図1に示すコンテンツ表示装置100の表示形態の一例を示す平面図である。ここでは、タブレット型電子端末に専用プログラムを組み込むことによりコンテンツ表示装置100を構成した例を図示することにする。図2に示す例は、このタブレット型電子端末を横長に保持した場合の利用モードを示しており、表示画面の左半分が主コンテンツ表示領域150M、右半分が副コンテンツ表示領域150Sを構成している。図2は、主コンテンツ表示領域150Mに主コンテンツの表示が行われた直後の状態を示しており、副コンテンツ表示領域150Sは未表示の状態である。   FIG. 2 is a plan view showing an example of a display form of the content display apparatus 100 shown in FIG. Here, an example in which the content display apparatus 100 is configured by incorporating a dedicated program into a tablet electronic terminal will be illustrated. The example shown in FIG. 2 shows a usage mode when the tablet-type electronic terminal is held in landscape orientation, with the left half of the display screen constituting the main content display area 150M and the right half constituting the sub content display area 150S. Yes. FIG. 2 shows a state immediately after the main content is displayed in the main content display area 150M, and the sub-content display area 150S is not displayed.

前述したとおり、ユーザは、指示入力部120から所望の主コンテンツの所定部分を表示させる指示を入力することができ、主コンテンツ表示処理部130は、主コンテンツ表示領域150Mに、与えられた指示に応じた表示を行う。一般的なタブレット型電子端末では、ディスプレイ画面上のタッチパネルが指示入力部120としての機能を果たすことになるので、ユーザは、このタッチパネルに対して指を使って様々な指示を入力することができる。   As described above, the user can input an instruction to display a predetermined portion of the desired main content from the instruction input unit 120, and the main content display processing unit 130 responds to the given instruction in the main content display area 150M. Display accordingly. In a general tablet electronic terminal, the touch panel on the display screen functions as the instruction input unit 120, and thus the user can input various instructions to the touch panel using a finger. .

たとえば、図2に示す主コンテンツ表示領域150M上で、ユーザが1本指を使ってスライド動作を行うと、ページ送りの指示を入力することができ、2本指をタッチパネルに接触させた状態で指の間隔を広げたり狭めたりする動作を行うと、拡大や縮小の指示を入力することができる。このような主コンテンツ表示処理部130の機能自体は、既に、様々なコンテンツ表示装置で利用されている公知の技術であるため、ここでは詳しい説明は省略する。   For example, when the user performs a slide operation using one finger on the main content display area 150M shown in FIG. 2, an instruction for page turning can be input, and two fingers are in contact with the touch panel. When an operation for widening or narrowing the interval between fingers is performed, an instruction to enlarge or reduce can be input. Since the function itself of the main content display processing unit 130 is a known technique that is already used in various content display apparatuses, detailed description thereof is omitted here.

図2に示す例の場合、主コンテンツ表示領域150Mには、テキスト本文151、画像152、音声提示ボタン153が表示されている。これらの情報提示は、図1に示す主コンテンツデータ格納部110に格納されている主コンテンツデータに基づいて行われる。図3は、図2の主コンテンツ表示領域150Mに表示されているコンテンツに関連した主コンテンツデータの具体的な構成例を示すブロック図である。図示のとおり、この主コンテンツデータは、テキストデータT,画像データP,音声データAによって構成されており、画像データPには5つの検索用文字列Kが付与されている。テキスト本文151は、テキストデータT内の文字情報に基づいて表示され、画像152は、画像データPに基づいて表示される。また、ユーザが音声提示ボタン153をタップして再生指示を与えると、音声データAが再生されることになる。   In the example shown in FIG. 2, a text body 151, an image 152, and an audio presentation button 153 are displayed in the main content display area 150M. The information presentation is performed based on the main content data stored in the main content data storage unit 110 shown in FIG. FIG. 3 is a block diagram showing a specific configuration example of main content data related to the content displayed in the main content display area 150M of FIG. As shown in the figure, the main content data is composed of text data T, image data P, and audio data A, and five search character strings K are assigned to the image data P. The text body 151 is displayed based on the character information in the text data T, and the image 152 is displayed based on the image data P. When the user taps the voice presentation button 153 to give a playback instruction, the voice data A is played back.

なお、図3に示す例の場合、画像データPには、「狼」,「満月」,「月」,「雲」,「大草原」なる5組の検索用文字列Kが付されているが、検索用文字列Kの数には特に制限はなく、少なくとも1組の文字列が付されていれば足りる。ただ、より適切な検索を行うためには、複数組の文字列を付しておくのが好ましい。検索用文字列Kは、主コンテンツデータMの作成時に予め付与しておくようにすればよい。具体的には、コンテンツの作者や編集者が、個々の画像に相応しいと思われる文字列を適宜定め、これを各画像についての検索用文字列Kとして、所定のフォーマットで記述して、各画像データPに付加する作業を行えばよい。図3に示す画像データPに付された5組の検索用文字列Kは、このようにして定められた文字列である。   In the case of the example shown in FIG. 3, five sets of search character strings K such as “wolf”, “full moon”, “moon”, “cloud”, and “grassland” are attached to the image data P. However, the number of search character strings K is not particularly limited, and it is sufficient that at least one set of character strings is attached. However, in order to perform a more appropriate search, it is preferable to attach a plurality of character strings. The search character string K may be given in advance when the main content data M is created. Specifically, the author or editor of the content appropriately determines a character string that seems to be appropriate for each image, describes this in a predetermined format as a search character string K for each image, and each image An operation to be added to the data P may be performed. The five sets of search character strings K attached to the image data P shown in FIG. 3 are character strings determined in this way.

本発明の特徴となる機能は、ディスプレイ150上に表示された主コンテンツ内の画像に関連する補助情報を、ユーザの求めに応じて提示する機能である。ここでは、図2に示すように、主コンテンツ表示領域150M内に画像152を含む主コンテンツが表示されている状態において、ユーザが、画像152に関する補助情報を要求する指示を入力した場合を考えてみよう。指示入力部120に、ディスプレイ150の画面上の任意の指示点を指定するユーザの指示を入力する機能を設けておけば、副コンテンツ提示処理部140は、この指示点近傍に表示されていた画像を対象画像として認識し、当該対象画像に関連した補助情報を提示する処理を行うことができる。   The function that characterizes the present invention is a function that presents auxiliary information related to an image in the main content displayed on the display 150 in response to a user request. Here, as shown in FIG. 2, a case where the user inputs an instruction to request auxiliary information related to the image 152 in a state where the main content including the image 152 is displayed in the main content display area 150M is considered. let's see. If the instruction input unit 120 is provided with a function of inputting a user instruction for designating an arbitrary instruction point on the screen of the display 150, the sub-content presentation processing unit 140 displays the image displayed in the vicinity of the instruction point. Can be recognized as a target image, and auxiliary information related to the target image can be presented.

図4は、図2に示す表示状態において、ユーザが、画像152を対象画像として補助情報の要求指示を行った状態を示す平面図である。この例では、ディスプレイ画面上のタッチパネルが指示入力部120としての機能を果たすため、ユーザが指Fで画像をタッチする操作を行った場合に、当該画像を対象画像として、関連する補助情報を要求する指示を行ったものとして取り扱っている。したがって、図示のように、ユーザの指Fが画像152の表示領域に触れると、指示入力部120は、画像152を対象画像として補助情報の要求指示がなされたものと判断し、当該指示を副コンテンツ提示処理部140に伝達する。もちろん、タッチの代わりに、ダブルタップ等の操作により補助情報の要求指示を行うようにしてもよい。   FIG. 4 is a plan view showing a state in which the user issues an auxiliary information request instruction using the image 152 as a target image in the display state shown in FIG. In this example, since the touch panel on the display screen functions as the instruction input unit 120, when the user performs an operation of touching the image with the finger F, the relevant image is requested to be related auxiliary information. It is handled as if the instructions were given. Therefore, as shown in the figure, when the user's finger F touches the display area of the image 152, the instruction input unit 120 determines that the auxiliary information request instruction has been made with the image 152 as the target image, and the instruction is sub-addressed. This is transmitted to the content presentation processing unit 140. Of course, instead of touching, an auxiliary information request instruction may be issued by an operation such as a double tap.

副コンテンツ提示処理部140は、このような要求指示に基づいて、副コンテンツデータ格納部160内に格納されている複数の副コンテンツデータS1〜S8の内容を検索し、対象画像152に関連した補助情報を抽出し、これを副コンテンツ表示領域150Sに表示する。図4に示す例は、副コンテンツ表示領域150S内に、検索された3つの補助情報154,155,156が表示された例である。具体的には、「オオカミ」なる見出しの補助情報154、「お月見の風習」なる見出しの補助情報155、「オオカミ男っているの?」なる見出しの補助情報156が検索結果として表示されている。検索された補助情報が多数ある場合には、たとえば、副コンテンツ表示領域150S内をスクロールして順次表示できるようにしてもよい。   The sub-content presentation processing unit 140 searches the contents of the plurality of sub-content data S1 to S8 stored in the sub-content data storage unit 160 based on such a request instruction, and assists related to the target image 152. Information is extracted and displayed in the sub-content display area 150S. The example shown in FIG. 4 is an example in which the searched three auxiliary information 154, 155, and 156 are displayed in the sub-content display area 150S. Specifically, auxiliary information 154 with the heading “Wolf”, auxiliary information 155 with the heading “Obamitsu custom”, and auxiliary information 156 with the heading “Wolf man?” Are displayed as search results. ing. When there are a lot of searched auxiliary information, for example, the sub-content display area 150S may be scrolled so that it can be sequentially displayed.

これらの補助情報154〜156は、いずれも対象画像152に関連した補助情報であり、ユーザは、対象画像152に関して、より詳しい知識を得ることができる。このような補助情報は、いずれも、画像データPに付されている検索用文字列Kを検索キーとして用いた検索によって抽出されたものである。図3に示す例の場合、対象画像152に対応する画像データPには、「狼」,「満月」,「月」,「雲」,「大草原」なる5組の検索用文字列Kが付されており、副コンテンツ提示処理部140は、これらの文字列を検索用キーとして副コンテンツデータS1〜S8に対する検索を行い、抽出された補助情報を副コンテンツ表示領域150S内に表示する処理を行う。   These auxiliary information 154 to 156 are all auxiliary information related to the target image 152, and the user can obtain more detailed knowledge about the target image 152. Such auxiliary information is all extracted by a search using the search character string K attached to the image data P as a search key. In the case of the example shown in FIG. 3, the image data P corresponding to the target image 152 includes five sets of search character strings K of “wolf”, “full moon”, “moon”, “cloud”, and “meadow”. The sub-content presentation processing unit 140 searches the sub-content data S1 to S8 using these character strings as search keys, and displays the extracted auxiliary information in the sub-content display area 150S. Do.

ユーザが、別な画像を対象画像とする補助情報の要求指示を与えれば、副コンテンツ表示領域150Sには、新たに指定された対象画像に関する補助情報が表示されることになる。もちろん、必要に応じて、各検索用文字列Kに重み付けを行い、当該重み付けを考慮した検索を行うことも可能である。   If the user gives an auxiliary information request instruction for another image as a target image, auxiliary information related to the newly specified target image is displayed in the sub-content display area 150S. Of course, if necessary, it is possible to weight each search character string K and perform a search in consideration of the weight.

図5は、図1に示すコンテンツ表示装置100において、主コンテンツ内の対象画像152に関連した補助情報が表示された状態の別な一例を示す平面図である。この例は、タブレット型電子端末を縦長に保持した場合の表示例であり、補助情報が表示されていない状態では、全画面領域が主コンテンツ表示領域150Mを構成し、主コンテンツの内容は全画面に表示される。その状態で、ユーザが指Fを用いて画像152をタッチすると、副コンテンツ提示処理部140による検索が行われ、画像152に関連した補助情報が副コンテンツ表示領域150S内に表示される。   FIG. 5 is a plan view showing another example of a state in which auxiliary information related to the target image 152 in the main content is displayed on the content display device 100 shown in FIG. This example is a display example when the tablet electronic terminal is held vertically, and in a state where auxiliary information is not displayed, the full screen area constitutes the main content display area 150M, and the content of the main content is the full screen. Is displayed. In this state, when the user touches the image 152 with the finger F, a search is performed by the sub-content presentation processing unit 140, and auxiliary information related to the image 152 is displayed in the sub-content display area 150S.

この図5に示す例では、副コンテンツ表示領域150Sを、必要に応じて、主コンテンツ表示領域150Mの上に重ねて表示するようにしており、補助情報154は、吹き出し状の副コンテンツ表示領域150S内に表示されている。図5に示す例では、図4に示す例に比べて副コンテンツ表示領域150Sの面積が小さいため、「オオカミ」なる見出しの補助情報154のみが表示されているが、たとえば、ユーザが指Fで副コンテンツ表示領域150S内をタップするたびに、補助情報155,補助情報156と、検索された残りの補助情報が順次表示されるようにしてもよい。また、ユーザがこれら補助情報の内容を読み終えたら、たとえば、対象画像152上を指Fで再度タッチすることにより、副コンテンツ表示領域150Sを画面上から消し去ることができるようにしてもよい。   In the example shown in FIG. 5, the sub-content display area 150S is displayed so as to be superimposed on the main content display area 150M as necessary. The auxiliary information 154 is a balloon-shaped sub-content display area 150S. It is displayed in. In the example shown in FIG. 5, since the area of the sub-content display area 150S is smaller than that in the example shown in FIG. 4, only the auxiliary information 154 with the heading “Wolf” is displayed. Each time the sub content display area 150S is tapped, the auxiliary information 155, the auxiliary information 156, and the remaining auxiliary information that has been searched may be sequentially displayed. When the user finishes reading the auxiliary information, the sub-content display area 150S may be erased from the screen by touching the target image 152 again with the finger F, for example.

以上、ディスプレイ150の画面上に、主コンテンツ表示領域150Mと副コンテンツ表示領域150Sとを表示する形態として、図4に示す例と図5に示す例を示したが、もちろん、本発明はこれらの表示形態に限定されるものではない。たとえば、補助情報を提示する必要がある場合だけ、全画面を主コンテンツ表示領域150Mから副コンテンツ表示領域150Sに切り替えるようにし、補助情報の提示が終了したら、全画面を主コンテンツ表示領域150Mに戻すようにしてもかまわない。   As described above, the example shown in FIG. 4 and the example shown in FIG. 5 have been shown as the forms for displaying the main content display area 150M and the sub-content display area 150S on the screen of the display 150. The display form is not limited. For example, only when it is necessary to present auxiliary information, the entire screen is switched from the main content display area 150M to the sub-content display area 150S, and when the presentation of auxiliary information is completed, the entire screen is returned to the main content display area 150M. It doesn't matter if you do.

本発明の重要な特徴は、副コンテンツ提示処理部140の機能にある。上述したとおり、副コンテンツ提示処理部140は、ユーザの指示に基づいて、特定の対象画像に関連した補助情報を複数の副コンテンツデータから検索する検索処理を実行し、検索処理の結果として得られた補助情報を提示する処理を行う構成要素であるが、検索でヒットした補助情報が複数存在する場合、これらに優先順位を定める取り扱いが必要である。   An important feature of the present invention resides in the function of the subsidiary content presentation processing unit 140. As described above, the sub-content presentation processing unit 140 executes a search process for searching auxiliary information related to a specific target image from a plurality of sub-content data based on a user instruction, and is obtained as a result of the search process. However, when there are a plurality of pieces of auxiliary information hit in the search, it is necessary to set a priority order for them.

たとえば、図4に示す例のように、副コンテンツ表示領域150Sが3件分の補助情報を表示するスペースしかない場合や、図5に示す例のように、1件分の補助情報を表示するスペースしかない場合では、スクロール表示や時分割表示(頁切替などの方法を用いた表示)を行わない限り、3件分もしくは1件分の補助情報しか表示することはできない。この場合、検索によりヒットした複数の補助情報に優先順位を定め、上位3件もしくは上位1件の補助情報のみを表示する処理が必要になる。   For example, when the sub-content display area 150S has only a space for displaying auxiliary information for three cases as in the example shown in FIG. 4, or displays auxiliary information for one case as in the example shown in FIG. If there is only space, only three or one auxiliary information can be displayed unless scroll display or time-division display (display using a method such as page switching) is performed. In this case, it is necessary to set a priority order for a plurality of auxiliary information hit by the search and display only the top 3 or top 1 auxiliary information.

もちろん、スクロール表示や時分割表示を行えば、理論的には何件の補助情報であっても提示可能であるが、複数の補助情報を提示する以上、相互に順番を定め、その順番に従った提示を行わざるを得ない。たとえば、図4に示す例の場合、副コンテンツ表示領域150Sには、3件分の補助情報を表示するスペースがあるので、ヒットした補助情報の数が3件であった場合は、全件を同時に表示することが可能である。それでも、副コンテンツ表示領域150Sは、上段、中段、下段の3つのスペースに分かれているため、何らかの方法で順序を定めて表示する必要がある。   Of course, if scroll display or time-division display is performed, it is theoretically possible to present any number of auxiliary information. However, as long as multiple pieces of auxiliary information are presented, the order is determined mutually and the order is followed. I have to make a presentation. For example, in the example shown in FIG. 4, since there is a space for displaying auxiliary information for three items in the sub-content display area 150S, if the number of hit auxiliary information is three, all items are displayed. It is possible to display simultaneously. Nevertheless, since the sub-content display area 150S is divided into three spaces of an upper stage, a middle stage, and a lower stage, it is necessary to determine and display the order by some method.

一般に、文字列を検索キーとした検索を行った場合、ヒットした項目について、それぞれ検索キーに対する合致度を算出し、この合致度の高い順に優先順位を定義する方法が利用されている。したがって、本発明においても、検索用文字列Kを検索キーとした検索を行った結果、複数の補助情報がヒットした場合、個々の補助情報に合致度を与え(たとえば、1つの文字列が一致した場合に1ポイント加算したり、当該文字列に固有の重み付け値を加算したりすればよい)、この合致度の高い順に提示を行うようにすることも可能である。   In general, when a search is performed using a character string as a search key, a method is used in which the degree of matching of each hit item with the search key is calculated and the priority is defined in descending order of the degree of matching. Therefore, also in the present invention, when a plurality of pieces of auxiliary information are hit as a result of performing a search using the search character string K as a search key, a degree of match is given to each piece of auxiliary information (for example, one character string matches) In this case, one point may be added or a unique weight value may be added to the character string), or presentation may be performed in descending order of the degree of match.

しかしながら、本発明では、提示する補助情報が対象画像に関連した情報であるため、対象画像の色を考慮して優先順位を定めるというユニークな方法を採る。前述したとおり、副コンテンツデータ格納部160内には、副コンテンツデータSがカテゴリーごとに分類されて格納されている。そこで、個々のカテゴリーにそれぞれ色を対応づけておき、対象画像の色に合致するカテゴリーに所属する副コンテンツデータから抽出された補助情報に、より高い優先度を付与するようにする。このように、対象画像の色に応じて、提示対象となる補助情報の優先度を定める点が、本発明の重要な特徴である。このような方法を採用すると、表示中のコンテンツに含まれる画像に関連した、より適切な補助情報を選択して提示することが可能になる。その具体的な手法について、以下に詳細な説明を行う。   However, in the present invention, since the auxiliary information to be presented is information related to the target image, a unique method is adopted in which priority is determined in consideration of the color of the target image. As described above, the sub content data storage unit 160 stores the sub content data S classified for each category. Therefore, a color is associated with each category, and higher priority is given to auxiliary information extracted from sub-content data belonging to a category that matches the color of the target image. Thus, the important feature of the present invention is that the priority of auxiliary information to be presented is determined according to the color of the target image. By adopting such a method, it becomes possible to select and present more appropriate auxiliary information related to the image included in the content being displayed. The specific method will be described in detail below.

<<< §2. 本発明の基本原理となる色とカテゴリーとの関係 >>>
§1で述べたように、副コンテンツ提示処理部140は、特定の対象画像に関連した補助情報を複数の副コンテンツデータから検索し、対象画像の色に基づいて検索結果に優先度を定義し、この優先度を考慮して補助情報の提示を行う。ここで、色と直接対応づけられる要素は、副コンテンツデータのカテゴリーである。そこで、以下、具体的な例を挙げて、本発明における色とカテゴリーとの関係について述べ、本発明の基本原理を説明しよう。なお、本発明における「色」とは、赤/青/黄といった一般的な色、すなわち、色相のみを意味するものではなく、彩度や明度を含めた広義の色を意味するものである。そこで、以下の説明も、色相,彩度,明度を色の3要素として捉えたものになっている。
<<< §2. Relationship between color and category as the basic principle of the present invention >>>
As described in §1, the sub-content presentation processing unit 140 searches auxiliary information related to a specific target image from a plurality of sub-content data, and defines a priority for the search result based on the color of the target image. The auxiliary information is presented in consideration of this priority. Here, the element directly associated with the color is a category of sub-content data. Therefore, a specific example will be given below to describe the relationship between colors and categories in the present invention and explain the basic principle of the present invention. The “color” in the present invention does not mean a general color such as red / blue / yellow, that is, a hue, but a broad color including saturation and lightness. Therefore, the following explanation also considers hue, saturation, and lightness as three elements of color.

図1のブロック図には、副コンテンツデータ格納部160内に、3つのカテゴリーC1〜C3のいずれかに所属する8組のコンテンツデータS1〜S8が格納されている例が示されているが、ここでは、図6に示すように、5つのカテゴリーC1〜C5のいずれかに所属する13組のコンテンツデータS1〜S13が格納されている場合を考えてみる。ここで、5つのカテゴリーは、図示のとおり、「カテゴリーC1:辞書」,「カテゴリーC2:専門書」,「カテゴリーC3:小話・豆知識」,「カテゴリーC4:生活情報」,「カテゴリーC5:ビジネス書」である。   The block diagram of FIG. 1 shows an example in which eight sets of content data S1 to S8 belonging to any of the three categories C1 to C3 are stored in the sub content data storage unit 160. Here, as shown in FIG. 6, let us consider a case where 13 sets of content data S1 to S13 belonging to any of the five categories C1 to C5 are stored. Here, as shown in the figure, the five categories are “Category C1: Dictionary”, “Category C2: Specialized Book”, “Category C3: Ilustration / Bean Knowledge”, “Category C4: Life Information”, “Category C5: Business” "

そして、「カテゴリーC1:辞書」には、「S1:国語辞典」、「S2:漢字大辞典」、「S3:歴史人名辞典」なる副コンテンツが所属し、「カテゴリーC2:専門書」には、「S4:世界動植物体系」、「S5:高分子材料入門」なる副コンテンツが所属し、「カテゴリーC3:小話・豆知識」には、「S6:世界のジョーク集」、「S7:季節の豆知識」、「S8:童話の中の怪物たち」なる副コンテンツが所属し、「カテゴリーC4:生活情報」には、「S9:子供生活百科」、「S10:京都散策」、「S11:おそうじ読本」なる副コンテンツが所属し、「カテゴリーC5:ビジネス書」には、「S12:証券取引の基礎知識」、「S13:セールスのポイント」なる副コンテンツが所属している(各コンテンツのタイトルは、発明の理解を容易にするために架空のタイトルを例示したものであり、実在のコンテンツに関係したものではない)。   The subcategory “S1: Japanese dictionary”, “S2: Kanji large dictionary”, “S3: Historian dictionary” belongs to “Category C1: Dictionary”. The sub-contents “S4: World Animal and Plant System” and “S5: Introduction to Polymer Materials” belong to “Category C3: Ilustration / Bean Knowledge”, “S6: World Joke Collection”, “S7: Seasonal Beans”. Sub-contents such as “Knowledge” and “S8: Monsters in Fairy Tale” belong to “Category C4: Life Information”, “S9: Child Life Encyclopedia”, “S10: Walk in Kyoto”, “S11: Cleansing Book” "Category C5: Business Document" belongs to "S12: Basic Knowledge of Securities Transactions" and "S13: Sales Points" (the title of each content is And an illustration of a fictitious title in order to facilitate understanding of the bright, not related to the content of the real).

実際には、図4に示す例の場合、たとえば、見出し「オオカミ」が付された補助情報154は、「カテゴリーC1:辞書」に所属する「副コンテンツS1:国語辞典」から抽出された情報、見出し「お月見の風習」が付された補助情報155は、「カテゴリーC3:小話・豆知識」に所属する「副コンテンツS7:季節の豆知識」から抽出された情報、見出し「オオカミ男っているの?」が付された補助情報156は、「カテゴリーC3:小話・豆知識」に所属する「副コンテンツS8:童話の中の怪物たち」から抽出された情報というように、様々なカテゴリーに所属する様々な副コンテンツデータから、複数の補助情報の抽出が行われることになる。   Actually, in the case of the example shown in FIG. 4, for example, the auxiliary information 154 with the heading “Wolf” is information extracted from “Sub-content S1: Japanese dictionary” belonging to “Category C1: Dictionary”. Auxiliary information 155 with the headline “Otsukimi no Kanto” is information extracted from “Sub-content S7: Seasonal Bean Knowledge” belonging to “Category C3: Ilustration / Bean Knowledge”, headline “Wolf Man” The supplementary information 156 to which “is it?” Includes various categories such as information extracted from “Sub-contents S8: Monsters in the fairy tale” belonging to “Category C3: Ilustration / Bean Knowledge”. A plurality of auxiliary information is extracted from various sub-content data belonging to.

本発明では、このように副コンテンツデータを複数のカテゴリーに分類し、個々のカテゴリーごとにそれぞれ固有の色が対応づけられる。一般に、色は、コミュニケーションの手段として利用することができ、個々の色には、それぞれ何らかのメッセージを読み取ることができるものとされている。したがって、個々のカテゴリーごとに、どのようなメッセージを伝達するカテゴリーであるかを考えれば、それぞれに固有の色を対応づけることができる。   In the present invention, the sub-content data is classified into a plurality of categories as described above, and a unique color is associated with each category. In general, colors can be used as a means of communication, and each color can read some message. Therefore, when considering what kind of message is transmitted for each category, a unique color can be associated with each category.

色彩学上の見地からは、各色について、次のような単語が連想され、次のようなイメージが連想されるものとされている。   From the viewpoint of color, the following words are associated with each color, and the following images are associated.

(1) 「明度が高く、彩度が低い色」
薄い、軽い、繊細な、柔らかな、といった単語が連想され、あっさりしたイメージや、ロマンティックなイメージが連想される。
(1) “Color with high brightness and low saturation”
Words such as light, light, delicate, and soft are associated with light and romantic images.

(2) 「明度が中の上、彩度が中の上の色」
明るい、澄んだ、はっきりした、といった単語が連想され、気品を保ちつつ派手なイメージが連想される。
(2) "Color with lightness above and saturation above middle"
Words such as bright, clear, and clear are associated, and a flashy image is associated with maintaining dignity.

(3) 「明度が低の上、彩度が中の下の色」
地味な、淀んだような、おとなしい、といった単語が連想され、淀んだようなイメージや、幻想的なイメージが連想される。
(3) “Color with low brightness and low saturation inside”
Words such as plain, jealous, and subtle are associated, and jealous and fantastic images are associated.

(4) 「明度が中くらい、彩度が高い色」
明快な、強い、刺激的な、といった単語が連想され、派手なイメージや、賑やかなイメージが連想される。
(4) “Medium lightness and high saturation”
Words such as clear, strong and stimulating are associated with flashy and lively images.

(5) 「明度が中の下、彩度が低い色」
くすんだ、暗い、長老的な、といった単語が連想され、フォーマルなイメージや、個性やスピード感に欠けるイメージが連想される。
(5) “Color with low brightness and low saturation”
Words such as dull, dark, and elder are associated, and formal images and images lacking individuality and speed are associated.

(6) 「明度が中くらい、彩度が高い色」
濃い、強い、熟練した、重厚な、手応えのある、といった単語が連想され、熟練したベテランのイメージや、古風なイメージが連想される。
(6) “Medium lightness and high saturation”
Words such as dark, strong, skilled, profound, and responsive are associated with the image of skilled veterans and old-fashioned images.

(7) 「明度が中くらい、彩度が中の下の色」
鈍い、地味な、ぼんやりした、渋い、したたかな、といった単語が連想され、老猾なイメージや、渋みや風格のあるイメージが連想される。
(7) "Color with medium brightness and low saturation"
Words such as dull, sober, dull, astringent, and sultry are associated, and an old-fashioned image, an astringent image, and an image with a personality are associated.

本願発明者は、上例のように、個々の色には、それぞれ相応しい単語やイメージが対応づけられるのであるから、逆に、図6に例示するような個々のカテゴリーについても、それぞれ相応しい色を対応づけられるであろう、と考えた。たとえば、「カテゴリーC1:辞書」については、「明度が低く、彩度も低い色」が相応しく、「カテゴリーC2:専門書」については、「明度が低く、彩度が中くらいの色」が相応しく、「カテゴリーC3:小話・豆知識」については、「明度が中くらい、彩度が高い色」が相応しい、といった具合である。   As shown in the above example, the inventor of the present application associates each color with an appropriate word or image, and conversely, for each category as illustrated in FIG. I thought it would be matched. For example, for “Category C1: Dictionary”, “low-lightness and low-saturation color” is appropriate, and for “Category C2: Special Book”, “low-lightness and medium-saturation color” is appropriate. As for “Category C3: Ilustration / Bean Knowledge”, “medium color, high chroma” is appropriate.

このように、副コンテンツデータが所属するカテゴリーに特定の色を関連づけておけば、補助情報を提示する対象となる対象画像の色を認識した上で、この認識色に対する関連性の高いカテゴリーに所属する副コンテンツデータから抽出された補助情報に、より高い優先度を付与するようにし、付与された優先度に応じた優先順位に基づいて、抽出された補助情報の提示を行うことが可能になる。そして、そのような方法で優先順位を決定して補助情報の提示を行うようにすれば、対象画像に関連した、より適切な補助情報を効率的に選択して提示することができる。   In this way, if a specific color is associated with the category to which the sub-content data belongs, it recognizes the color of the target image for which the auxiliary information is to be presented, and then belongs to the category highly related to the recognized color. It is possible to give higher priority to the auxiliary information extracted from the sub-content data and to present the extracted auxiliary information based on the priority order according to the given priority. . If the priority order is determined and the auxiliary information is presented by such a method, more appropriate auxiliary information related to the target image can be efficiently selected and presented.

たとえば、図4に示す例において、対象画像152の色が「明度が低く、彩度も低い色」であったとすると、主コンテンツを構成するテキスト本文151の内容も、「明度が低く、彩度も低い色」というイメージ(フォーマルなイメージ)に対応した内容である可能性が高く、ユーザは、現在、そのようなイメージに対応したコンテンツを閲覧している可能性が高い。したがって、対象画像152について提示する補助情報が複数存在する場合には、「明度が低く、彩度も低い色」に対する関連性の高いカテゴリー(この例の場合は「カテゴリーC1:辞書」)に所属する副コンテンツデータから抽出された補助情報を優先的に提示するのが好ましいと言える。   For example, in the example shown in FIG. 4, if the color of the target image 152 is “a color with low brightness and low saturation”, the content of the text body 151 constituting the main content also has “low brightness and saturation”. It is highly possible that the content corresponds to an image of “low color” (formal image), and the user is likely to be browsing content corresponding to such an image. Therefore, when there are a plurality of pieces of auxiliary information to be presented for the target image 152, it belongs to a category (“Category C1: Dictionary” in this example) that is highly relevant to “color with low brightness and low saturation”. It can be said that it is preferable to preferentially present auxiliary information extracted from sub-content data.

上例の場合、同じ「狼/満月/月/雲/大草原」なる検索キーでヒットした補助情報であっても、「副コンテンツS1:国語辞典」から抽出した補助情報(カテゴリーC1)が、「副コンテンツS7:季節の豆知識」や「副コンテンツS8:童話の中の怪物たち」から抽出した補助情報(カテゴリーC3)よりも優先して提示されることになる。図4の副コンテンツ表示領域150S内の表示結果は、このような優先順位に基づいた結果となっている。これは、「フォーマルなイメージのコンテンツ」と推定される主コンテンツを閲覧しているユーザにとっては、より適切な補助情報の提示態様になる。   In the case of the above example, the auxiliary information (category C1) extracted from the “sub-content S1: Japanese dictionary” is the auxiliary information hit with the same search key “wolf / full moon / moon / cloud / prair”. It is presented with priority over auxiliary information (category C3) extracted from “sub-content S7: seasonal knowledge” and “sub-content S8: monsters in a fairy tale”. The display result in the sub content display area 150S of FIG. 4 is a result based on such priorities. This is a mode of presentation of auxiliary information that is more appropriate for a user who is viewing the main content estimated to be “formal image content”.

一方、図4に示す例において、対象画像152の色が「明度が中くらい、彩度が高い色」であったとすると、主コンテンツを構成するテキスト本文151の内容も、「明度が中くらい、彩度が高い色」というイメージ(派手で賑やかなイメージ)に対応した内容である可能性が高く、ユーザは、現在、そのようなイメージに対応したコンテンツを閲覧している可能性が高い。したがって、対象画像152について提示する補助情報が複数存在する場合には、「明度が中くらい、彩度が高い色」に対する関連性の高いカテゴリー(この例の場合は「カテゴリーC3:小話・豆知識」)に所属する副コンテンツデータから抽出された補助情報を優先的に提示するのが好ましいと言える。   On the other hand, in the example shown in FIG. 4, if the color of the target image 152 is “a color with medium brightness and high saturation”, the content of the text body 151 constituting the main content is also “medium brightness, It is highly possible that the content corresponds to the image of “color with high saturation” (flashy and lively image), and the user is likely to be browsing content corresponding to such an image. Therefore, when there are a plurality of pieces of auxiliary information to be presented for the target image 152, a category that is highly relevant to “a color with medium brightness and high saturation” (in this example, “category C3: ilustration / bean knowledge”). It can be said that it is preferable to preferentially present auxiliary information extracted from sub-content data belonging to “)”.

上例の場合、同じ「狼/満月/月/雲/大草原」なる検索キーでヒットした補助情報であっても、「副コンテンツS7:季節の豆知識」や「副コンテンツS8:童話の中の怪物たち」から抽出した補助情報(カテゴリーC3)が、「副コンテンツS1:国語辞典」から抽出した補助情報(カテゴリーC1)よりも優先して提示されることになる。すなわち、図4に示す例とは異なり、見出し「オオカミ」が付された補助情報154が下段に表示され、補助情報155,156がそれぞれ上段および中段に繰り上がって表示されることになる。これは、「派手で賑やかなイメージのコンテンツ」と推定される主コンテンツを閲覧しているユーザにとっては、より適切な補助情報の提示態様になる。   In the case of the above example, even if the auxiliary information is hit with the same search key “wolf / full moon / moon / cloud / grass”, “sub content S7: seasonal knowledge” and “sub content S8: in fairy tales” The auxiliary information (category C3) extracted from “monsters of” is presented in preference to the auxiliary information (category C1) extracted from “sub-content S1: Japanese dictionary”. That is, unlike the example shown in FIG. 4, the auxiliary information 154 with the heading “Wolf” is displayed in the lower row, and the auxiliary information 155 and 156 are moved up and displayed in the upper and middle rows, respectively. This is a more appropriate mode of presentation of auxiliary information for a user who is browsing the main content estimated to be “flashy and lively image content”.

<<< §3. 副コンテンツ提示処理部の構成および動作態様 >>>
<3−1:副コンテンツ提示処理部の基本構成>
ここでは、図1に示す副コンテンツ提示処理部140の基本構成について詳述する。副コンテンツ提示処理部140は、§2で述べた基本原理に基づいて、検索された副コンテンツの内容を補助情報として提示する機能をもった構成要素であり、図示のとおり、検索用文字列認識部141、検索処理部142、色認識部143、優先度付与部144、関連性情報格納部145、補助情報提示処理部146によって構成されている。
<<< §3. Configuration and operation mode of sub-content presentation processing unit >>
<3-1: Basic Configuration of Sub-Content Presentation Processing Unit>
Here, the basic configuration of the subsidiary content presentation processing unit 140 shown in FIG. 1 will be described in detail. The sub-content presentation processing unit 140 is a component having a function of presenting the content of the searched sub-content as auxiliary information based on the basic principle described in §2, and as shown in FIG. Part 141, search processing part 142, color recognition part 143, priority assignment part 144, relevance information storage part 145, and auxiliary information presentation processing part 146.

検索用文字列認識部141は、対象画像に付されている検索用文字列Kを認識する構成要素である。たとえば、図4に示す例のように、ユーザが指Fを用いて、画像152を対象画像として、補助情報の提示要求を行った場合、指示入力部120から検索用文字列認識部141に対して、当該提示要求が伝達される。一方、主コンテンツ表示処理部130には、主コンテンツを構成するテキスト本文151を表示するためのテキストデータTおよび対象画像152を表示するための画像データPが読み出されている。そこで、検索用文字列認識部141は、この画像データPに付されている検索用文字列Kを抽出し、検索に必要な文字列として認識する処理を行えばよい。   The search character string recognition unit 141 is a component that recognizes the search character string K attached to the target image. For example, as in the example illustrated in FIG. 4, when the user uses the finger F to request presentation of auxiliary information using the image 152 as the target image, the instruction input unit 120 requests the search character string recognition unit 141. The presentation request is transmitted. On the other hand, the main content display processing unit 130 reads text data T for displaying the text body 151 constituting the main content and image data P for displaying the target image 152. Therefore, the search character string recognizing unit 141 may perform a process of extracting the search character string K attached to the image data P and recognizing it as a character string necessary for the search.

検索処理部142は、検索用文字列認識部141が認識した検索用文字列Kを検索キーとして用いて、副コンテンツデータ格納部160に格納されている複数の副コンテンツデータS1〜S8に対する検索処理をそれぞれ実行し、ヒットした補助情報を抽出して、これを検索結果として補助情報提示処理部146に報告する処理を行う(必要に応じて、どのカテゴリーのどの副コンテンツデータから抽出した補助情報であるかを示す情報も報告する。)。ヒットした補助情報が複数存在する場合には、これらすべてを抽出し、補助情報提示処理部146に報告する。このように、文字列を検索キーとしてコンテンツデータに対する検索を行い、ヒットした内容を抽出する技術は、様々な分野で利用されている公知の技術であるため、ここでは詳しい説明は省略する。   The search processing unit 142 uses the search character string K recognized by the search character string recognition unit 141 as a search key to perform a search process on the plurality of sub content data S1 to S8 stored in the sub content data storage unit 160. Are executed, the auxiliary information that has been hit is extracted, and this is processed as a search result and reported to the auxiliary information presentation processing unit 146 (if necessary, the auxiliary information extracted from which sub-content data in which category) Also report information indicating whether there is.) When there are a plurality of hit auxiliary information, all of them are extracted and reported to the auxiliary information presentation processing unit 146. As described above, a technique for performing a search on content data using a character string as a search key and extracting a hit content is a well-known technique used in various fields, and thus detailed description thereof is omitted here.

一方、色認識部143は、対象画像152について色を認識する処理を行う。ここで、「色」とは、前述したとおり、色相,彩度,明度という3要素から構成され、色認識部143は、対象画像152全体を代表する代表色の色相値,彩度値,明度値を求める処理を行う。具体的な色の認識方法については、後の§3−5において、いくつかの例を挙げて説明する。   On the other hand, the color recognition unit 143 performs processing for recognizing the color of the target image 152. Here, as described above, the “color” is composed of three elements of hue, saturation, and brightness, and the color recognition unit 143 has a hue value, saturation value, and brightness of representative colors that represent the entire target image 152. Performs processing to obtain a value. Specific methods for recognizing colors will be described with some examples in §3-5 below.

関連性情報格納部145は、副コンテンツデータ格納部160に格納されている副コンテンツデータが所属する個々のカテゴリーと色との関連性を示す関連性情報を格納する構成要素である。たとえば、§2で述べた簡単な例の場合、「カテゴリーC1:辞書」に対しては「明度が低く、彩度も低い色」に対する関連性が高い、「カテゴリーC3:小話・豆知識」に対しては「明度が中くらい、彩度が高い色」に対する関連性が高い、といった関連性情報を格納しておけばよい。より具体的な関連性の定義方法については、後の§3−2〜§3−4において、いくつかの実施例として示すことにする。   The relevance information storage unit 145 is a component that stores relevance information indicating the relevance between each category and color to which the sub content data stored in the sub content data storage unit 160 belongs. For example, in the case of the simple example described in §2, “Category C1: Dictionary” is highly related to “Category C1: Dictionary”. On the other hand, it is only necessary to store relevance information such as “relevance to“ medium color, high chroma ”. More specific definition methods of relevance will be shown as some examples in the following §3-2 to §3-4.

優先度付与部144は、色認識部143が認識した色に基づいて関連性情報格納部145内の関連性情報を参照し、検索処理部142によって検索された補助情報のうち、より関連性の高いカテゴリーに所属する副コンテンツデータから抽出された補助情報に、より高い優先度を付与する処理を行う。具体的な優先度の付与方法については、後の§3−2〜§3−4において、いくつかの実施例として示すことにする。   The priority assigning unit 144 refers to the relevance information in the relevance information storage unit 145 based on the color recognized by the color recognizing unit 143, and among the auxiliary information retrieved by the search processing unit 142, the relevance information is more relevant. A process of giving higher priority to auxiliary information extracted from sub-content data belonging to a higher category is performed. Specific methods of assigning priorities will be described as some examples in the following §3-2 to §3-4.

補助情報提示処理部146は、優先度付与部144によって付与された優先度に応じた優先順位に基づいて、検索処理部142によって抽出された補助情報の提示を行う。図4および図5に示す実施例の場合、補助情報154〜156はテキストデータによって構成されており、補助情報提示処理部146は、ディスプレイ150の副コンテンツ表示領域150S内にテキストからなる補助情報を表示することになる。   The auxiliary information presentation processing unit 146 presents the auxiliary information extracted by the search processing unit 142 based on the priority order corresponding to the priority given by the priority assigning unit 144. In the case of the embodiment shown in FIGS. 4 and 5, the auxiliary information 154 to 156 is composed of text data, and the auxiliary information presentation processing unit 146 displays auxiliary information consisting of text in the sub-content display area 150 </ b> S of the display 150. Will be displayed.

検索処理部142によって抽出された補助情報が複数存在する場合には、補助情報提示処理部146は、これら複数の補助情報のうち、その優先順位に基づいて、上位n番目以内(nは、所定の自然数)の補助情報のみを提示することにより、補助情報の提示を簡潔化することができる。たとえば、図4に示す例のように、副コンテンツ表示領域150Sには、3件分の補助情報を表示するスペースしかない場合、n=3に設定しておき、抽出された補助情報のうち、上位3番目までの補助情報のみを提示するようにすれば、提示される補助情報は副コンテンツ表示領域150Sに収まる。もちろん、図5に示すように、1件分の補助情報を吹き出し状に表示する場合は、n=1に設定しておき、抽出された補助情報のうち、最も優先度の高い補助情報のみを提示するようにすればよい。   When there are a plurality of pieces of auxiliary information extracted by the search processing unit 142, the auxiliary information presentation processing unit 146 selects the n-th subordinate information (n is a predetermined number) based on the priority among the plurality of pieces of auxiliary information. By presenting only the auxiliary information of (natural number), presentation of the auxiliary information can be simplified. For example, as in the example shown in FIG. 4, if there is only a space for displaying auxiliary information for three cases in the sub-content display area 150 </ b> S, n = 3 is set, and among the extracted auxiliary information, If only the upper third auxiliary information is presented, the presented auxiliary information will fit in the sub-content display area 150S. Of course, as shown in FIG. 5, when displaying one piece of auxiliary information in a balloon shape, n = 1 is set, and only the auxiliary information with the highest priority is extracted from the extracted auxiliary information. It should be presented.

なお、上例のように、上位n番目以内の補助情報のみを提示する形態を採る場合は、検索処理部142は、関連性の高いカテゴリーから関連性の低いカテゴリーの順に、副コンテンツデータに対する検索処理を実行するようにし、上位n番目の補助情報が抽出された時点で、以後の検索処理を中止するようにしてもかまわない。すなわち、検索の順序を、色認識部143が認識した色に対する関連性の高いカテゴリーから関連性の低いカテゴリーの順に行うようにし、優先度付与部144が、当該色に対する関連性のみに基づいて優先度を付与することにすれば、優先度の高い補助情報から低い補助情報の順に検索されることになるので、上位n番目の補助情報が抽出された時点で、以後の検索処理は不要になる。よって、この場合、以後の検索処理を中止することにより、無駄な検索時間を節約することができるようになる。   In the case where only the top n-th auxiliary information is presented as in the above example, the search processing unit 142 searches the sub-content data in the order from the highly relevant category to the less relevant category. The process may be executed, and the subsequent search process may be stopped when the top nth auxiliary information is extracted. That is, the order of search is performed in the order of the category having high relevance to the color recognized by the color recognizing unit 143 and the category having low relevance, and the priority assigning unit 144 prioritizes only based on the relevance to the color. If the degree is given, since the auxiliary information with the highest priority is searched in the order of the low auxiliary information, the subsequent search processing becomes unnecessary when the top n-th auxiliary information is extracted. . Therefore, in this case, useless search time can be saved by canceling the subsequent search processing.

必要に応じて、補助情報提示処理部146は、副コンテンツ表示領域150Sの表示スペース内に一度では表示しきれない件数の補助情報を、スクロール表示や時分割表示によって表示することも可能である。たとえば、図4に示す例の場合、副コンテンツ表示領域150S内の表示内容をスクロールできるようにしておけば、4件以上の補助情報を表示することも可能である。あるいは、副コンテンツ表示領域150S内の頁を切り替えられるようにしておき、1頁目には1〜3件目の補助情報、2頁目には4〜6件目の補助情報、というように頁を切り替えながら時分割形式で表示させるようにしてもよい。図5に示す例の場合も、吹き出し内をスクロールさせたり、吹き出し内を頁切替させることにより、2件目以降の補助情報を表示させることができる。   If necessary, the auxiliary information presentation processing unit 146 can display the number of auxiliary information items that cannot be displayed at one time in the display space of the sub-content display area 150S by scroll display or time-division display. For example, in the example shown in FIG. 4, if the display content in the sub-content display area 150S can be scrolled, four or more pieces of auxiliary information can be displayed. Alternatively, the pages in the sub-content display area 150S can be switched, and the first page includes the first to third auxiliary information, the second page includes the fourth to sixth auxiliary information, and so on. You may make it display in a time division format, switching. In the case of the example shown in FIG. 5 as well, the second and subsequent auxiliary information can be displayed by scrolling within the balloon or switching pages within the balloon.

もちろん、補助情報提示処理部146は、提示対象となる補助情報が複数存在する場合、その優先順位に基づいた提示を行うことになる。たとえば、図4に示す副コンテンツ表示領域150Sのように、一度に3件分の補助情報を表示するスペースがある場合、上段、中段、下段の順に優先順位を定義し、優先順位に応じて、順位の高いものほど先行する位置に配置されるように配置順を決めるようにすればよい。また、頁切替などの方法で時分割表示を行う場合は、優先順位に応じて、順位の高いものほど先に提示されるように時間順を決めるようにすればよい。   Of course, when there are a plurality of pieces of auxiliary information to be presented, the auxiliary information presentation processing unit 146 performs presentation based on the priority order. For example, when there is a space for displaying auxiliary information for three items at a time as in the sub-content display area 150S shown in FIG. 4, the priority order is defined in the order of the upper level, the middle level, and the lower level. What is necessary is just to determine an arrangement | positioning order so that it may arrange | position to the position which precedes the thing with a high order | rank. In addition, when performing time-division display by a method such as page switching, the time order may be determined so that the higher the order, the higher the order is presented.

<3−2:三次元色空間上に閉領域をマッピングする実施例>
続いて、関連性情報格納部145に格納する関連性情報の具体的な実施例を述べる。まず、ここでは、三次元色空間上に閉領域をマッピングすることにより関連性情報を構成した実施例を述べる。
<3-2: Example of mapping closed region on three-dimensional color space>
Subsequently, a specific example of the relevance information stored in the relevance information storage unit 145 will be described. First, an embodiment in which relevance information is configured by mapping closed regions on a three-dimensional color space will be described.

ここに示す実施形態の場合、「色」は、色相,彩度,明度という3要素によって定義される。一般に、このような3要素によって色を定義する場合、個々の色は、図7に示すようなHSV三次元色空間上の1点で表される。すなわち、この色空間上の任意の点には、色相値H(Hue)、彩度値S(Saturation)、明度値V(Value)の3要素を定義することができる。   In the embodiment shown here, “color” is defined by three elements of hue, saturation, and brightness. In general, when a color is defined by such three elements, each color is represented by one point on the HSV three-dimensional color space as shown in FIG. That is, three elements of a hue value H (Hue), a saturation value S (Saturation), and a lightness value V (Value) can be defined at an arbitrary point in this color space.

ここで、明度値Vは、図において縦方向に伸びる明度軸Vに沿った方向に関する座標値として定義される。たとえば、明度軸V上の点P1はV=0、点P2はV=0.5、点P3はV=1.0なる明度値をもつ点ということになる(図に矩形で囲って示す数字は、具体的な明度値Vを示している)。   Here, the lightness value V is defined as a coordinate value related to a direction along the lightness axis V extending in the vertical direction in the drawing. For example, the point P1 on the brightness axis V is a point having a brightness value of V = 0, the point P2 is V = 0.5, and the point P3 is a point having a brightness value of V = 1.0 (numbers enclosed in a rectangle in the figure). Indicates a specific brightness value V).

また、彩度値Sは、図に示す明度軸Vからの距離として定義される。より具体的には、図示のとおり、明度軸Vに直交する半径rをもつ円周Cを定義すれば、この円周C上の点は、いずれも彩度値rをもつ点ということになる。そして、この半径方向に彩度軸Sを定義すれば、この彩度軸S上の点P2はS=0、点P4はS=0.5、点P5はS=1.0なる彩度値をもつ点ということになる(図に楕円で囲って示す数字は、具体的な彩度値Sを示している)。   The saturation value S is defined as the distance from the brightness axis V shown in the figure. More specifically, as shown, if a circumference C having a radius r orthogonal to the lightness axis V is defined, all points on the circumference C are points having a saturation value r. . Then, if the saturation axis S is defined in the radial direction, the point P2 on the saturation axis S is S = 0, the point P4 is S = 0.5, and the point P5 is S = 1.0. (The numbers surrounded by ellipses in the figure indicate specific saturation values S).

一方、色相値Hは、図に示す明度軸Vまわりの角度として定義される。より具体的には、図示の例の場合、彩度軸Sの方位角を0°として基準にとり、円周Cを上から見たときに、時計まわりの方向に0°〜360°を定義したとすれば、円周C上の点P5はH=0°、点P6はH=120°、点P7はH=180°、点P8はH=240°なる色相値をもつ点ということになる(図に三角形で囲って示す数字は、具体的な色相値Hを示している)。具体的には、0°が赤、120°が緑、240°が青に対応し、角度が180°異なる一対の色は互いに補色の関係にある。   On the other hand, the hue value H is defined as an angle around the brightness axis V shown in the figure. More specifically, in the case of the illustrated example, the azimuth angle of the saturation axis S is defined as 0 °, and 0 ° to 360 ° is defined in the clockwise direction when the circumference C is viewed from above. Then, the point P5 on the circumference C is H = 0 °, the point P6 is H = 120 °, the point P7 is H = 180 °, and the point P8 is a point having a hue value of H = 240 °. (Numbers enclosed in triangles in the figure indicate specific hue values H). Specifically, a pair of colors corresponding to 0 ° corresponding to red, 120 ° corresponding to green, and 240 ° corresponding to blue and having an angle of 180 ° are complementary to each other.

ここでは、明度値Vの範囲を0〜1.0に設定し、彩度値Sの範囲を0〜1.0に設定し、色相値Hの範囲を0°〜360°に設定している。このような設定を行えば、この3要素によって定義される色は、高さ1.0、半径1.0の円柱内の座標空間内の1点として表されることになる。たとえば、図示の点P6は、色相値H=120°、彩度値S=1.0、明度値V=0.5をもった色に対応することになる。   Here, the range of the lightness value V is set to 0 to 1.0, the range of the saturation value S is set to 0 to 1.0, and the range of the hue value H is set to 0 ° to 360 °. . With this setting, the color defined by these three elements is represented as one point in the coordinate space in a cylinder having a height of 1.0 and a radius of 1.0. For example, the illustrated point P6 corresponds to a color having a hue value H = 120 °, a saturation value S = 1.0, and a lightness value V = 0.5.

さて、関連性情報格納部145に格納する関連性情報とは、副コンテンツデータ格納部160に格納されている副コンテンツデータSが所属する個々のカテゴリーと色との関連性を示す情報であり、三次元色空間上にマッピングされた閉領域として示すことができる。図8は、このような関連性情報として、HSV三次元色空間上に閉領域をマッピングした例を示す斜視図である。図示の例では、図7に示すHSV色空間内に、3つの閉領域C1,C2,C3がマッピングされた例が示されている。各閉領域C1,C2,C3は、図1の副コンテンツデータ格納部160内のカテゴリーC1,C2,C3に対応しており、それぞれ個々のカテゴリーに関連性をもった色の分布範囲を示している。   Now, the relevance information stored in the relevance information storage unit 145 is information indicating the relevance between individual categories and colors to which the sub content data S stored in the sub content data storage unit 160 belongs. It can be shown as a closed region mapped on a three-dimensional color space. FIG. 8 is a perspective view showing an example in which a closed region is mapped on the HSV three-dimensional color space as such relevance information. In the illustrated example, an example is shown in which three closed regions C1, C2, and C3 are mapped in the HSV color space shown in FIG. The closed regions C1, C2, and C3 correspond to the categories C1, C2, and C3 in the sub-content data storage unit 160 of FIG. 1, and indicate the color distribution ranges that are related to the respective categories. Yes.

この図8に例示するようなHSV三次元色空間上の閉領域C1,C2,C3を示す情報を、個々のカテゴリーC1,C2,C3と色との関連性を示す関連性情報として関連性情報格納部145内に格納しておけば、優先度付与部144は、色認識部143が認識した色に基づいてこの関連性情報を参照し、より関連性の高いカテゴリーに所属する副コンテンツデータから抽出された補助情報に、より高い優先度を付与する処理を行うことができる。たとえば、色認識部143が認識した色(図4に示す例の場合、対象画像152についての代表色)を、HSV色空間にプロットすることにより、図8に示す点Q(以下、認識点という)が得られた場合、プロットされた認識点Qとマッピングされた個々の閉領域C1,C2,C3との位置関係に基づいて優先度を付与することができる。   The information indicating the closed regions C1, C2, and C3 on the HSV three-dimensional color space illustrated in FIG. 8 is used as the relationship information indicating the relationship between the individual categories C1, C2, and C3 and the color. If stored in the storage unit 145, the priority assigning unit 144 refers to this relevance information based on the color recognized by the color recognizing unit 143, and from the sub-content data belonging to the category having higher relevance. A process of assigning a higher priority to the extracted auxiliary information can be performed. For example, by plotting the color recognized by the color recognition unit 143 (in the example shown in FIG. 4, the representative color for the target image 152) in the HSV color space, the point Q shown in FIG. 8 (hereinafter referred to as a recognition point). ) Is obtained, priority can be given based on the positional relationship between the plotted recognition points Q and the individual closed regions C1, C2, C3 mapped.

色認識部143が行う色認識の方法についての詳細は§3−5で述べるが、色認識部143が、対象画像について、彩度の代表値、明度の代表値、色相の代表値を認識するようにすれば、優先度付与部144は、これら認識した代表値を座標値としてもつ色として、図8に示すようなHSV色空間上に認識点Qをプロットすることができる。一方、関連性情報格納部145には、個々のカテゴリーC1,C2,C3について、彩度値、明度値、色相値の組み合わせの分布範囲(すなわち、閉領域C1,C2,C3)を対応づけた関連性情報が格納されているので、優先度付与部144は、個々のカテゴリーC1,C2,C3に対応づけられた彩度値、明度値、色相値の組み合わせの分布範囲(すなわち、閉領域C1,C2,C3の位置)と、色認識部143が認識した彩度の代表値、明度の代表値、色相の代表値の組み合わせ(すなわち、認識点Qの位置)と、を比較し、両者の近似度に応じた優先度を付与することができる。   The details of the color recognition method performed by the color recognition unit 143 will be described in §3-5. However, the color recognition unit 143 recognizes the representative value of saturation, the representative value of brightness, and the representative value of hue for the target image. By doing so, the priority assigning unit 144 can plot the recognition points Q on the HSV color space as shown in FIG. 8 as colors having the recognized representative values as coordinate values. On the other hand, in the relevance information storage unit 145, for each category C1, C2, and C3, a distribution range of combinations of saturation values, lightness values, and hue values (ie, closed regions C1, C2, and C3) is associated. Since the relevance information is stored, the priority assigning unit 144 has a distribution range of combinations of saturation values, lightness values, and hue values associated with the individual categories C1, C2, and C3 (that is, the closed region C1). , C2, C3) and the combination of the representative value of saturation, the representative value of lightness, and the representative value of hue (that is, the position of the recognition point Q) recognized by the color recognition unit 143. A priority according to the degree of approximation can be given.

図8に示すHSV色空間は、明度軸Vを基準座標軸と呼ぶことにすれば、基準座標軸上の位置を明度値Vとし、基準座標軸からの距離を彩度値Sとし、基準座標軸まわりの角度を色相値Hとする三次元色空間上に、個々のカテゴリーC1,C2,C3に対応する閉領域C1,C2,C3をマッピングしたマッピング情報ということができる。関連性情報格納部145には、このようなマッピング情報が関連性情報として格納されていることになる。そして、優先度付与部144は、色認識部143が認識した色を、この三次元色空間上に、彩度の代表値、明度の代表値、色相の代表値をそれぞれ座標値とする認識点Qとしてプロットし、プロットされた認識点Qとマッピングされた個々の閉領域C1,C2,C3との位置関係に基づいて優先度を付与することになる。   In the HSV color space shown in FIG. 8, if the brightness axis V is called a reference coordinate axis, the position on the reference coordinate axis is the brightness value V, the distance from the reference coordinate axis is the saturation value S, and the angle around the reference coordinate axis It can be said that mapping information is obtained by mapping the closed regions C1, C2, and C3 corresponding to the individual categories C1, C2, and C3 on the three-dimensional color space in which the hue value is H. In the relevance information storage unit 145, such mapping information is stored as relevance information. Then, the priority assigning unit 144 recognizes the color recognized by the color recognition unit 143 in this three-dimensional color space with the representative value of saturation, the representative value of lightness, and the representative value of hue as coordinate values, respectively. Plotting is performed as Q, and a priority is given based on the positional relationship between the plotted recognition point Q and each of the mapped closed regions C1, C2, and C3.

両者の位置関係に基づいて優先度を付与する最も単純な方法は、対応する閉領域が認識点Qを含むか含まないか、という基準に基づいて、二者択一の優先度を付与する方法である。たとえば、認識点Qを含む場合は優先度1、含まない場合は優先度0を付与するようにすれば、図8に示す例の場合、カテゴリーC3に所属する副コンテンツデータから抽出された補助情報には優先度1が付与され、カテゴリーC1,C2に所属する副コンテンツデータから抽出された補助情報には優先度0が付与されることになる。いわば、優先度として二値情報の付与が行われることになる。   The simplest method of assigning priority based on the positional relationship between the two is a method of assigning an alternative priority based on the criterion whether the corresponding closed region includes the recognition point Q or not. It is. For example, if the priority level 1 is given when the recognition point Q is included, and the priority level 0 is not given, the auxiliary information extracted from the sub-content data belonging to the category C3 in the example shown in FIG. Is given priority 1, and priority 0 is given to auxiliary information extracted from sub-content data belonging to categories C1 and C2. In other words, binary information is given as a priority.

もちろん、付与する優先度は、必ずしも二値情報にする必要はなく、閉領域C1,C2,C3と認識点Qとの位置に関する近似度に応じた段階的な優先度を付与することも可能である。たとえば、認識点Qが閉領域内の境界近傍に位置する場合は優先度1、閉領域内部に位置する場合は優先度2、閉領域外の境界近傍に位置する場合は優先度0.5、それ以外は優先度0とするような方法を採ることも可能である。このような段階的な優先度を付与する方法については、§3−3の例において、より詳細に説明することにする。要するに、個々のカテゴリーに対応づけられた色の分布範囲と色認識部143が認識した色とを比較し、両者の近似度に応じた優先度を付与するようにすればよい。   Of course, the priority to be given does not necessarily need to be binary information, and a stepwise priority according to the degree of approximation regarding the positions of the closed regions C1, C2, C3 and the recognition point Q can be given. is there. For example, when the recognition point Q is located near the boundary in the closed region, the priority is 1, the priority is 2 when it is located inside the closed region, the priority is 0.5 when located near the boundary outside the closed region, Other than that, it is possible to adopt a method of setting the priority to 0. A method for assigning such stepwise priorities will be described in more detail in the example of §3-3. In short, it is only necessary to compare the color distribution range associated with each category with the color recognized by the color recognition unit 143 and to give priority according to the degree of approximation between the two.

<3−3:二次元色平面上に閉領域をマッピングする実施例>
上述した§3−2では、色相,彩度,明度という3要素によって色を定義したHSV三次元色空間上にマッピングされた閉領域によって、個々のカテゴリーに対応づけられた色の分布範囲を示す例を述べた。すべての色は、このような3要素によって定義することができるので、三次元色空間上に閉領域をマッピングすることにより関連性情報を定義することは理にかなっている。
<3-3: Example of mapping a closed region on a two-dimensional color plane>
In the above §3-2, the distribution range of the color associated with each category is shown by the closed region mapped on the HSV three-dimensional color space in which the color is defined by the three elements of hue, saturation, and lightness. An example was given. Since all colors can be defined by such three elements, it makes sense to define relevance information by mapping closed regions on a three-dimensional color space.

しかしながら、本発明を実施する場合、実用的な観点からは、SV二次元色平面上にマッピングされた閉領域によって、個々のカテゴリーに対応づけられた色の分布範囲を示せば十分である。その理由は、実用上、副コンテンツデータのカテゴリーと色相との間には、それほど顕著な相関関係が見出されないためである。   However, when practicing the present invention, from a practical point of view, it is sufficient to indicate the color distribution range associated with each category by the closed region mapped on the SV two-dimensional color plane. The reason is that, in practice, no significant correlation is found between the category of the sub-content data and the hue.

すなわち、「生活情報」なるカテゴリーのコンテンツであろうが、「小話・豆知識」なるカテゴリーのコンテンツであろうが、「専門書」なるカテゴリーのコンテンツであろうが、「イチゴ」という対象物については通常「赤色」を用い、「海」という対象物については通常「青色」を用い、「樹木」という対象物については通常「緑色」を用いることになる。もちろん、同じ「赤色」であっても、「生活情報」では「明度の高い赤」が用いられ、「小話・豆知識」では「彩度の高い赤」が用いられ、「専門書」では「明度の低い赤」が用いられるという傾向があるかもしれないが、「イチゴ」という対象物については「赤」という色相を用いる点に変わりはない。   In other words, whether it is content in the category of “living information”, content in the category of “story / bean knowledge”, content of the category of “specialized books”, Is normally “red”, “blue” is normally used for the object “sea”, and “green” is normally used for the object “tree”. Of course, even if it is the same "red", "highly light red" is used for "living information", "highly saturated red" is used for "especial knowledge / beans", and "specialized books" There may be a tendency that “red with low brightness” is used, but there is no change in using the hue “red” for the object “strawberry”.

したがって、本願発明者は、本発明を実施する上で、実用上は、個々のカテゴリーと色との関連性を示す関連性情報として、彩度値Sと明度値Vに関する情報を用意しておけば十分であると考えている。この場合、SV二次元色平面上に閉領域をマッピングした関連性情報を用意すれば足りる。すなわち、関連性情報格納部145には、個々のカテゴリーについて、彩度値Sと明度値Vとの組み合わせの分布範囲(二次元平面上での閉領域)を対応づけた関連性情報を格納しておくようにし、色認識部143が、対象画像について、彩度の代表値および明度の代表値を認識するようにし、優先度付与部144が、個々のカテゴリーに対応づけられた彩度値と明度値との組み合わせの分布範囲(各閉領域の位置)と、色認識部143が認識した彩度の代表値と明度の代表値との組み合わせと、を比較し、両者の近似度に応じた優先度を付与するようにすればよい。   Therefore, the inventor of the present application should prepare information relating to the saturation value S and the lightness value V as relevance information indicating the relevance between individual categories and colors in practice in implementing the present invention. I think that is enough. In this case, it is sufficient to prepare relevance information in which the closed region is mapped on the SV two-dimensional color plane. That is, the relevance information storage unit 145 stores relevance information in which the distribution range (closed region on the two-dimensional plane) of the combination of the saturation value S and the lightness value V is associated with each category. The color recognizing unit 143 recognizes the representative value of saturation and the representative value of lightness for the target image, and the priority assigning unit 144 determines the saturation value associated with each category. The distribution range of the combination with the lightness value (the position of each closed region) is compared with the combination of the representative value of saturation and the representative value of lightness recognized by the color recognition unit 143, and according to the degree of approximation of both What is necessary is just to give a priority.

図9は、図1に示す関連性情報格納部145内に格納する関連性情報として、SV二次元色平面上の閉領域を定義する情報を用いた例を示す平面図である。なお、図1に示す例では、副コンテンツデータのカテゴリーとして、C1〜C3の3つのカテゴリーしか定義されていないが、図9では、図6に示す例と同様に、C1〜C5の5つのカテゴリーを定義した例を示す。   FIG. 9 is a plan view showing an example in which information defining a closed region on the SV two-dimensional color plane is used as the relevance information stored in the relevance information storage unit 145 shown in FIG. In the example shown in FIG. 1, only three categories C1 to C3 are defined as sub-content data categories. However, in FIG. 9, five categories C1 to C5 are provided as in the example shown in FIG. An example of defining

すなわち、図9には、横軸として彩度Sの座標軸(座標値0〜1.0)、縦軸として明度Vの座標軸(座標値0〜1.0)をとったSV色平面が定義されており、ここに、「カテゴリーC1:辞書」,「カテゴリーC2:専門書」,「カテゴリーC3:小話・豆知識」,「カテゴリーC4:生活情報」,「カテゴリーC5:ビジネス書」のそれぞれに対応する閉領域C1〜C5を定義した例が示されている。なお、一部の閉領域は互いに重なりを生じているため、図9では、「カテゴリーC2:専門書」に対応する閉領域C2の輪郭線を破線で示し、「カテゴリーC3:小話・豆知識」に対応する閉領域C3を一点鎖線で示すことにより、各閉領域を相互に区別できるようにしている。   That is, in FIG. 9, an SV color plane is defined with the coordinate axis of saturation S (coordinate value 0 to 1.0) as the horizontal axis and the coordinate axis of lightness V (coordinate value 0 to 1.0) as the vertical axis. Corresponding to “Category C1: Dictionary”, “Category C2: Special Book”, “Category C3: Ilustration / Bean Knowledge”, “Category C4: Life Information”, “Category C5: Business Book” An example in which closed regions C1 to C5 are defined is shown. Since some of the closed areas overlap each other, in FIG. 9, the outline of the closed area C2 corresponding to “Category C2: Specialized Book” is indicated by a broken line, and “Category C3: Ilustration / That Knowledge” The closed region C3 corresponding to is indicated by a one-dot chain line so that the closed regions can be distinguished from each other.

もちろん、図9に示す関連性情報は一例として示すものであり、各カテゴリーの設定や、各閉領域の位置や形状は、本発明に係るコンテンツ表示装置の設計者が自由に定めることができる。ただ、より適切な補助情報を選択して提示する、という本発明の効果を得るためには、各カテゴリーの特徴を考慮して、各閉領域の位置や形状の設定を行う必要がある。   Of course, the relevance information shown in FIG. 9 is shown as an example, and the setting of each category and the position and shape of each closed region can be freely determined by the designer of the content display device according to the present invention. However, in order to obtain the effect of the present invention of selecting and presenting more appropriate auxiliary information, it is necessary to set the position and shape of each closed region in consideration of the characteristics of each category.

図9に示す例の場合、「カテゴリーC1:辞書」についての閉領域C1は、彩度Sおよび明度Vがともに中以下の低い領域を占め、「カテゴリーC2:専門書」についての閉領域C2は、彩度Sは中程度で明度Vが低い領域を占め、「カテゴリーC3:小話・豆知識」についての閉領域C3は、彩度Sが中以上、明度Vが高低両端を除く領域を占め、「カテゴリーC4:生活情報」についての閉領域C4は、彩度Sが中〜低、明度Vが比較的高い領域を占め、「カテゴリーC5:ビジネス書」についての閉領域C5は、彩度Sが中〜高、明度Vが中程度の領域を占めている。このような領域分布は、各カテゴリーの色に関する特徴を考慮したものである。   In the case of the example shown in FIG. 9, the closed region C1 for “Category C1: Dictionary” occupies a low region where the saturation S and the lightness V are both low or medium, and the closed region C2 for “Category C2: Technical Book” is , Saturation S is moderate and occupies an area where brightness V is low, and closed area C3 for “Category C3: Ilustration / Bean Knowledge” occupies an area where saturation S is medium and above and brightness V is excluding both high and low ends. The closed area C4 for “Category C4: Life information” occupies an area where the saturation S is medium to low and the brightness V is relatively high, and the closed area C5 for “Category C5: Business book” has the saturation S Medium to high and lightness V occupies a medium region. Such a region distribution takes into consideration the characteristics regarding the color of each category.

このように、図9に示す例は、第1の座標軸に彩度値S、第2の座標軸に明度値Vをとった二次元SV色平面上に、個々のカテゴリーに対応する閉領域C1〜C5をマッピングしたマッピング情報によって関連性情報を構成したものである。このような関連性情報を関連性情報格納部145に格納しておけば、優先度付与部144は、色認識部143が認識した色を、この二次元SV色平面上に、彩度の代表値と明度の代表値とをそれぞれ座標値とする認識点Qとしてプロットし、プロットされた認識点Qとマッピングされた個々の閉領域C1〜C5との位置関係に基づいて優先度を付与することができる。   As described above, in the example shown in FIG. 9, the closed regions C1 to C1 corresponding to the individual categories are displayed on the two-dimensional SV color plane having the saturation value S on the first coordinate axis and the lightness value V on the second coordinate axis. Relevance information is configured by mapping information obtained by mapping C5. If such relevance information is stored in the relevance information storage unit 145, the priority assigning unit 144 displays the color recognized by the color recognition unit 143 on the two-dimensional SV color plane as a representative of saturation. A value and a representative value of brightness are plotted as recognition points Q each having a coordinate value, and priorities are given based on the positional relationship between the plotted recognition points Q and the individual closed regions C1 to C5 mapped. Can do.

図10は、図9に示す関連性情報を利用して、対象画像から認識した色の認識点と各カテゴリーに対応する閉領域との位置関係に基づいて優先度を定義する具体的な方法を示す平面図である。両者の位置関係に基づいて優先度を付与する最も単純な方法は、§3−2で述べた三次元色空間上に閉領域をマッピングする実施例と同様に、認識点を含むか含まないか、という基準に基づいて、二者択一の優先度を付与する方法である。この場合、優先度付与部144は、各カテゴリーに対応する閉領域C1〜C5が認識点を含むか否かを判定し、認識点を含む閉領域に対応するカテゴリーに所属する副コンテンツデータから抽出された補助情報に対して、より高い優先度を付与することになる。   FIG. 10 shows a specific method for defining priorities based on the positional relationship between the color recognition points recognized from the target image and the closed regions corresponding to the respective categories using the relevance information shown in FIG. FIG. The simplest method for assigning priority based on the positional relationship between the two includes whether or not a recognition point is included, as in the embodiment for mapping a closed region on the three-dimensional color space described in §3-2. This is a method of giving an alternative priority based on the standard. In this case, the priority assigning unit 144 determines whether or not the closed regions C1 to C5 corresponding to each category include a recognition point, and extracts from the sub-content data belonging to the category corresponding to the closed region including the recognition point. A higher priority is given to the auxiliary information.

たとえば、認識点を含む場合は優先度1、含まない場合は優先度0という二値情報を付与することにすれば、図10に示す例の場合、認識点Q1が得られた場合には、「カテゴリーC4:生活情報」に所属する副コンテンツデータから抽出された補助情報に優先度1が付与され、その他の補助情報には優先度0が付与されることになる。同様に、認識点Q2が得られた場合には、「カテゴリーC5:ビジネス書」および「カテゴリーC3:小話・豆知識」に所属する副コンテンツデータから抽出された補助情報に優先度1が付与され、その他の補助情報には優先度0が付与されることになる。ただ、認識点Q3が得られた場合は、当該認識点Q3は、いずれの閉領域にも含まれないので、いずれの補助情報にも優先度0が付与されることになり、実質的には、優先度の付与は行われないことになる。   For example, if binary information of priority 1 is included when a recognition point is included and priority 0 is not included when the recognition point is not included, in the case of the example shown in FIG. 10, when the recognition point Q1 is obtained, Priority 1 is given to the auxiliary information extracted from the sub-content data belonging to “Category C4: Life information”, and priority 0 is given to the other auxiliary information. Similarly, when the recognition point Q2 is obtained, priority 1 is given to the auxiliary information extracted from the sub-content data belonging to “Category C5: Business Book” and “Category C3: Ilustration / Bean Knowledge”. The other auxiliary information is given priority 0. However, when the recognition point Q3 is obtained, since the recognition point Q3 is not included in any closed region, priority level 0 is given to any auxiliary information. Therefore, no priority is given.

結局、図10に示す認識点Q3のように、色認識部143が取得した認識点がいずれの閉領域にも含まれない場合は、優先度は付与されず、すべてのカテゴリーに所属する副コンテンツデータから抽出された補助情報が平等に取り扱われることになる。もちろん、そのような取り扱いを行うことに何ら支障はないが、きめの細かい優先度付与を行うのであれば、閉領域C1〜C5と認識点Qとの位置に関する近似度に応じた段階的な優先度を付与すればよい。たとえば、§3−2で述べたように、認識点Qが閉領域内の境界近傍に位置する場合は優先度1、閉領域内部に位置する場合は優先度2、閉領域外の境界近傍に位置する場合は優先度0.5、それ以外は優先度0とするような方法を採ることも可能である。要するに、本発明では、個々のカテゴリーに対応づけられた色の分布範囲と色認識部143が認識した色とを比較し、両者の近似度に応じた優先度を付与するようにすればよい。   After all, when the recognition point acquired by the color recognition unit 143 is not included in any closed region as in the recognition point Q3 shown in FIG. 10, no priority is given and the sub-contents belonging to all categories. The auxiliary information extracted from the data is handled equally. Of course, there is no problem in performing such handling, but if fine priority is given, stepwise priority according to the degree of approximation regarding the positions of the closed regions C1 to C5 and the recognition point Q. The degree should be given. For example, as described in §3-2, priority 1 when the recognition point Q is located near the boundary in the closed region, priority 2 when the recognition point Q is located inside the closed region, and near the boundary outside the closed region It is also possible to adopt a method in which priority is set to 0.5 when positioned, and priority is set to 0 otherwise. In short, in the present invention, the color distribution range associated with each category and the color recognized by the color recognition unit 143 may be compared to give priority according to the degree of approximation between them.

ここでは、よりきめの細かい優先度付与を行う方法の一例として、各カテゴリーに対応する閉領域について定義される所定の参照点と認識点との間のユークリッド距離を計算し、相互間距離の小さい閉領域に対応するカテゴリーに所属する副コンテンツデータから抽出された補助情報に対して、より高い優先度を付与する方法を説明する。個々の閉領域についての参照点としては、当該閉領域を代表する位置にある点を採用すればよい。具体的には、たとえば、個々の閉領域の幾何学的な重心点を参照点として定義すればよい。   Here, as an example of a method for assigning finer priorities, the Euclidean distance between a predetermined reference point defined for the closed region corresponding to each category and the recognition point is calculated, and the distance between them is small. A method for giving higher priority to auxiliary information extracted from sub-content data belonging to a category corresponding to a closed region will be described. As a reference point for each closed region, a point at a position representing the closed region may be employed. Specifically, for example, the geometric center of gravity of each closed region may be defined as the reference point.

図11は、図9に示す関連性情報において、各閉領域C1〜C5についての幾何学的な重心点を、それぞれ参照点G1〜G5として定義した状態を示す平面図である。各閉領域C1〜C5の位置は、それぞれ参照点G1〜G5の位置によって代表されることになり、特定の認識点が定まった場合、当該認識点に対する各カテゴリーの優先度は、当該認識点と各参照点G1〜G5との間のユークリッド距離(両点を結ぶ線分の長さ)に基づいて決定される。具体的には、距離が短いほど、より高い優先度が付与されるようにする。   FIG. 11 is a plan view showing a state in which the geometric barycentric points for the closed regions C1 to C5 are defined as reference points G1 to G5 in the relevance information shown in FIG. The positions of the closed regions C1 to C5 are represented by the positions of the reference points G1 to G5, respectively. When a specific recognition point is determined, the priority of each category with respect to the recognition point is It is determined based on the Euclidean distance (the length of the line segment connecting both points) between each of the reference points G1 to G5. Specifically, a higher priority is given as the distance is shorter.

図12は、図11に示す関連性情報を利用して、対象画像から認識した色の認識点Q4,Q5と各カテゴリーとの関連性に基づく優先度を定義する方法を示す平面図である。この例の場合、認識点Q4は、閉領域C3,C4の双方に含まれる位置にプロットされているので、前述した二値情報を付与する方法を採用した場合、カテゴリーC3,C4に所属する副コンテンツデータから抽出された補助情報に対して優先度1が付与され、その他の補助情報に対しては優先度0が付与されることになる。   FIG. 12 is a plan view showing a method of defining priorities based on the relevance between the color recognition points Q4 and Q5 recognized from the target image and each category using the relevance information shown in FIG. In this example, since the recognition point Q4 is plotted at a position included in both of the closed regions C3 and C4, when the above-described method of adding binary information is adopted, the subordinates belonging to the categories C3 and C4 are used. Priority 1 is assigned to the auxiliary information extracted from the content data, and priority 0 is assigned to the other auxiliary information.

これに対して、参照点に対する距離に基づいて優先度を付与する方法を採用した場合、カテゴリーC3については、認識点Q4と参照点G3との距離L3に基づく優先度が付与され、カテゴリーC4については、認識点Q4と参照点G4との距離L4に基づく優先度が付与される。図示の例の場合、L3>L4であるから、距離が短いほど、より高い優先度を付与することにすれば、カテゴリーC4に所属する副コンテンツデータから抽出された補助情報(生活情報)の方が、カテゴリーC3に所属する副コンテンツデータから抽出された補助情報(小話・豆知識)よりも高い優先度が付与されることになる。もちろん、認識点Q4と参照点G1,G2,G5との距離を求めれば、カテゴリーC1,C2,C5についても優先度を付与することができる。   On the other hand, when the method of assigning priority based on the distance to the reference point is adopted, the priority based on the distance L3 between the recognition point Q4 and the reference point G3 is assigned to the category C3, and the category C4 is assigned. Is given priority based on the distance L4 between the recognition point Q4 and the reference point G4. In the case of the illustrated example, since L3> L4, if the higher priority is given as the distance is shorter, the auxiliary information (life information) extracted from the sub-content data belonging to the category C4 However, a higher priority is given to the auxiliary information (ilustration / bean knowledge) extracted from the sub-content data belonging to the category C3. Of course, if the distance between the recognition point Q4 and the reference points G1, G2, and G5 is obtained, priority can be given to the categories C1, C2, and C5.

一方、認識点Q5は、いずれの閉領域にも含まれない位置にプロットされているので、前述した二値情報を付与する方法を採用した場合、すべてのカテゴリーC1〜C5に所属する副コンテンツデータから抽出された補助情報に対して優先度0が付与され、実質的に、優先度の付与は行われないことになる。これに対して、参照点に対する距離に基づいて優先度を付与する方法を採用した場合、認識点Q5と各参照点G1〜G5との距離に基づいて、各カテゴリーC1〜C5について優先度を付与することができる。たとえば、カテゴリーC4についての優先度は、図示のとおり、認識点Q5と参照点G4との距離L5に基づいて決定される。   On the other hand, since the recognition point Q5 is plotted at a position that is not included in any closed region, the sub-content data belonging to all the categories C1 to C5 is adopted when the above-described method of adding binary information is adopted. Priority 0 is assigned to the auxiliary information extracted from the above, and priority is not substantially assigned. On the other hand, when the method of assigning priority based on the distance to the reference point is adopted, priority is assigned to each category C1 to C5 based on the distance between the recognition point Q5 and each of the reference points G1 to G5. can do. For example, the priority for the category C4 is determined based on the distance L5 between the recognition point Q5 and the reference point G4 as illustrated.

距離に基づいて優先度を決定するには、たとえば、予め距離に反比例するような優先度を定義しておけば、距離が短いほど高くなる優先度を決定することができる(距離が0に近づくと優先度は急激に増加するので、実用上は、優先度に上限値を設けるようにすればよい)。   In order to determine the priority based on the distance, for example, if a priority that is inversely proportional to the distance is defined in advance, the priority that becomes higher as the distance is shorter can be determined (distance approaches 0). Since the priority increases rapidly, in practice, an upper limit may be set for the priority).

なお、優先度は必ずしも連続的な値をとる必要はないので、距離に基づいて段階的な優先度を定義することも可能である。図示の例の場合、彩度値Sは0〜1.0、明度値Vは0〜1.0の範囲で定義されるので、SV色平面は、縦横ともに1.0の寸法をもった正方形内の領域に定義されることになる。そこで、たとえば、認識点Qと任意の参照点Gとの距離をLとして、L<0.1の場合は優先度3とし、0.1≦L<0.2の場合は優先度2とし、0.2≦L<0.3の場合は優先度1とし、0.3≦Lの場合は優先度0とする、というような段階的な定義を行えば、0〜3の範囲内の4段階の優先度を定義することができる。   In addition, since the priority does not necessarily need to take a continuous value, it is also possible to define a stepwise priority based on the distance. In the case of the illustrated example, the saturation value S is defined in the range of 0 to 1.0 and the lightness value V is defined in the range of 0 to 1.0. Therefore, the SV color plane is a square having a size of 1.0 both vertically and horizontally. It will be defined in the area. Therefore, for example, let L be the distance between the recognition point Q and an arbitrary reference point G, priority 3 if L <0.1, priority 2 if 0.1 ≦ L <0.2, If a stepwise definition is made such that the priority is 1 when 0.2 ≦ L <0.3, and the priority is 0 when 0.3 ≦ L, 4 within the range of 0 to 3 Stage priorities can be defined.

このように、認識点Qと参照点Gとの距離Lだけに基づいて優先度を決定する方法を採る場合、各カテゴリーについて閉領域を定義する必要はなく、参照点のみを定義しておけば足りることになる。しかしながら、実際には、各カテゴリーの色に関する特徴は、参照点Gという1点だけで表現することは困難であり、ある程度の広がりをもった閉領域、すなわち、彩度値Sおよび明度値Vの組み合わせの分布範囲として表現するのが好ましい。したがって、実用上は、認識点Qが各カテゴリーについて定義された閉領域に含まれるか含まれないか、という二値情報に基づいて優先度の定義を行うという基本方針を採用しつつ、認識点Qと参照点Gとの距離Lも考慮に入れて、きめ細かな優先度定義を行うようにするのが好ましい。   As described above, when the priority is determined based only on the distance L between the recognition point Q and the reference point G, it is not necessary to define a closed region for each category, and only the reference point is defined. It will be enough. However, in reality, it is difficult to express the characteristics regarding the color of each category by only one point, which is the reference point G, and the closed region having a certain extent, that is, the saturation value S and the lightness value V It is preferable to express as a distribution range of the combination. Therefore, in practice, the recognition point Q is adopted while adopting the basic policy of defining the priority based on binary information whether the recognition point Q is included in the closed region defined for each category or not. It is preferable to perform fine priority definition in consideration of the distance L between Q and the reference point G.

具体的には、たとえば、認識点Qが各カテゴリーについて定義された閉領域に含まれる場合は、当該カテゴリーについてポイント5を加算し、更に、認識点Qと参照点Gとの距離に応じて、上述した例のように0〜3の範囲内の4段階のポイントを定めて加算し、これらポイントの総合計を優先度とするような取り扱いを行えばよい。そうすれば、図12に示す認識点Q4の場合、カテゴリーC3,C4にポイント5が加算されるとともに、更に、カテゴリーC1〜C5のすべてについて、認識点Qと参照点Gとの距離に応じて0〜3ポイントが加算されることになる。また、図12に示す認識点Q5の場合は、いずれの閉領域にも含まれないため、ポイント5の加算は行われないが、カテゴリーC1〜C5のすべてについて、認識点Qと参照点Gとの距離に応じて0〜3ポイントが加算されることになる。   Specifically, for example, when the recognition point Q is included in the closed region defined for each category, the point 5 is added for the category, and further, according to the distance between the recognition point Q and the reference point G, As in the example described above, four levels of points in the range of 0 to 3 are determined and added, and the total of these points may be handled as a priority. Then, in the case of the recognition point Q4 shown in FIG. 12, the point 5 is added to the categories C3 and C4, and further, for all the categories C1 to C5, depending on the distance between the recognition point Q and the reference point G. 0 to 3 points will be added. Further, since the recognition point Q5 shown in FIG. 12 is not included in any closed region, the addition of the point 5 is not performed, but the recognition point Q, the reference point G, and all of the categories C1 to C5. 0 to 3 points are added according to the distance.

なお、このように、認識点Qが各カテゴリーについて定義された閉領域に含まれるか含まれないか、という二値情報に基づいて優先度の定義を行う方法と、認識点Qと参照点Gとの距離Lも考慮に入れた優先度定義を行う方法とを併用する手法は、§3−2で述べた三次元HSV色空間上に閉領域をマッピングする実施例においても有効である。   As described above, a method for defining priority based on binary information indicating whether the recognition point Q is included or not included in the closed region defined for each category, the recognition point Q, and the reference point G The method of using the priority definition method that also takes into account the distance L to the above is also effective in the embodiment in which the closed region is mapped on the three-dimensional HSV color space described in §3-2.

<3−4:一次元色座標軸上に閉区間をマッピングする実施例>
これまで、関連性情報格納部145に格納する関連性情報の実施例として、§3−2において三次元HSV色空間上に閉領域をマッピングした実施例を示し、§3−3において二次元SV色平面上に閉領域をマッピングする実施例を示した。そこで、ここでは、一次元色座標軸上に閉区間をマッピングする実施例を示すことにする。
<3-4: Example of mapping closed section on one-dimensional color coordinate axis>
Up to now, as an example of the relevance information stored in the relevance information storage unit 145, an example in which a closed region is mapped on the three-dimensional HSV color space in §3-2 is shown, and a two-dimensional SV in §3-3. An example of mapping a closed region on a color plane has been shown. Therefore, here, an embodiment in which the closed section is mapped on the one-dimensional color coordinate axis will be shown.

図13は、図1に示す関連性情報格納部145内に格納する関連性情報として、一次元彩度軸上の区間を定義する情報を用いた例を示す平面図である。この例は、一次元色座標軸を用いた例であるため、横軸として彩度Sの座標軸(座標値0〜1.0)のみが定義されており、縦軸は定義されていない(図では便宜上、上下方向に各カテゴリーを並べて示しているが、縦軸が定義されているわけではない。)。   FIG. 13 is a plan view showing an example in which information defining a section on the one-dimensional saturation axis is used as the relevance information stored in the relevance information storage unit 145 shown in FIG. Since this example is an example using a one-dimensional color coordinate axis, only the coordinate axis of saturation S (coordinate values 0 to 1.0) is defined as the horizontal axis, and the vertical axis is not defined (in the figure). For convenience, the categories are shown side by side in the vertical direction, but the vertical axis is not defined.)

この図13に示す例では、図6に示す例と同様に、C1〜C5の5つのカテゴリーについて、それぞれ対応する閉区間が、彩度軸上にマッピングされている。すなわち、「カテゴリーC1:辞書」についての閉区間C1は、彩度Sが中以下の低い領域を占め、「カテゴリーC2:専門書」についての閉区間C2は、彩度Sが中程度の領域を占め、「カテゴリーC3:小話・豆知識」についての閉区間C3は、彩度Sが中以上の領域を占め、「カテゴリーC4:生活情報」についての閉区間C4は、彩度Sが中〜低の領域を占め、「カテゴリーC5:ビジネス書」についての閉区間C5は、彩度Sが中〜高の領域を占めている。このような領域分布は、各カテゴリーの色に関する特徴を考慮したものである。   In the example shown in FIG. 13, similar to the example shown in FIG. 6, the corresponding closed sections for the five categories C1 to C5 are mapped on the saturation axis. That is, the closed section C1 for “Category C1: Dictionary” occupies a low area where the saturation S is medium or lower, and the closed section C2 for “Category C2: Specialized book” is an area where the saturation S is medium. The closed section C3 for "Category C3: Ilustration / Bean Knowledge" occupies an area where the saturation S is medium or higher, and the closed section C4 for "Category C4: Living information" has a medium to low saturation S The closed section C5 for “Category C5: Business book” occupies an area where the saturation S is medium to high. Such a region distribution takes into consideration the characteristics regarding the color of each category.

図13では、一次元色座標軸として彩度軸Sをとった例が示されているが、もちろん、一次元色座標軸としては、明度軸Vをとることもできるし、色相軸Hをとることもできる。このような関連性情報を関連性情報格納部145に格納しておけば、優先度付与部144は、色認識部143が認識した色を、この一次元色座標軸上の位置Q(認識点Q)としてプロットし、プロットされた認識点Qとマッピングされた個々の閉区間C1〜C5との位置関係に基づいて優先度を付与することができる。   FIG. 13 shows an example in which the saturation axis S is taken as the one-dimensional color coordinate axis. Of course, the lightness axis V or the hue axis H can be taken as the one-dimensional color coordinate axis. it can. If such relevance information is stored in the relevance information storage unit 145, the priority assigning unit 144 determines the color recognized by the color recognition unit 143 as the position Q (recognition point Q on the one-dimensional color coordinate axis). ) And a priority can be given based on the positional relationship between the plotted recognition points Q and the individual closed sections C1 to C5 mapped.

この場合も、認識点Qが各カテゴリーについて定義された閉区間に含まれるか含まれないか、という二値情報に基づいて優先度の定義を行う方法と、認識点Qと参照点G(たとえば、各閉区間の中心点)との距離Lを考慮に入れた優先度定義を行う方法とを併用することができる。二値情報に基づいて優先度の定義を行えば、図13に示す認識点Qに対して、カテゴリーC1,C4は優先度1、カテゴリーC2,C3,C5は優先度0が与えられる。   In this case as well, a method for defining priority based on binary information indicating whether or not the recognition point Q is included in the closed section defined for each category, and the recognition point Q and the reference point G (for example, , A method of defining priority taking into account the distance L to the center point of each closed section). If the priority is defined based on the binary information, the category C1 and C4 are given priority 1 and the categories C2, C3 and C5 are given priority 0 for the recognition point Q shown in FIG.

結局、§3−2〜§3−4に示す実施例を踏まえると、関連性情報格納部145には、個々のカテゴリーについて、色相値H、彩度値S、明度値Vのうちのいずれか1つの値の分布範囲もしくはこれらの値の組み合わせの分布範囲を対応づけた関連性情報を格納しておくようにすればよい。そして、色認識部143が、対象画像についての代表色を、色相値H、彩度値S、明度値Vのうちのいずれか1つの代表値もしくはその組み合わせとして認識するようにすれば、優先度付与部144は、個々のカテゴリーに対応づけられた色相値H、彩度値S、明度値Vの分布範囲もしくはこれらの値の組み合わせの分布範囲と、色認識部143が認識した色相値H、彩度値S、明度値Vの代表値もしくはその組み合わせと、を比較し、両者の近似度に応じた優先度を付与することができる。   After all, based on the examples shown in §3-2 to §3-4, the relevance information storage unit 145 has one of hue value H, saturation value S, and brightness value V for each category. Relevance information in which a distribution range of one value or a combination range of these values is associated may be stored. Then, if the color recognition unit 143 recognizes the representative color for the target image as one of the representative values of the hue value H, the saturation value S, and the lightness value V, or a combination thereof, the priority The assigning unit 144 includes a distribution range of hue values H, saturation values S, lightness values V or combinations of these values associated with individual categories, and a hue value H recognized by the color recognition unit 143, It is possible to compare the saturation value S, the representative value of the lightness value V, or a combination thereof, and give priority according to the degree of approximation of both.

<3−5:色認識部による色の認識方法>
ここでは、図1に示す色認識部143による具体的な色の認識方法を簡単に説明しておく。たとえば図4に示すような方法で、対象画像152についての補助情報の要求指示が与えられた場合、色認識部143は、この対象画像152全体を代表する代表色についての色相値H,彩度値S,明度値Vを求める処理を行えばよい。具体的には、色認識部143は、対象画像152についての代表色を、当該対象画像152を構成する各部の色相値H、彩度値S、もしくは明度値Hの面積を考慮した重み付け平均値(§3−4で説明した一次元色座標軸上に閉区間をマッピングする実施例の場合)、またはその組み合わせ(§3−2,§3−3で説明した三次元色空間上や二次元色平面上に閉領域をマッピングする実施例の場合)として認識すればよい。
<3-5: Color recognition method by color recognition unit>
Here, a specific color recognition method by the color recognition unit 143 shown in FIG. 1 will be briefly described. For example, when the auxiliary information request instruction for the target image 152 is given by the method shown in FIG. 4, the color recognition unit 143 displays the hue value H and saturation for the representative color representing the entire target image 152. A process for obtaining the value S and the lightness value V may be performed. Specifically, the color recognition unit 143 sets the representative color for the target image 152 as a weighted average value in consideration of the area of the hue value H, the saturation value S, or the lightness value H of each unit constituting the target image 152. (In the case of the embodiment in which the closed section is mapped on the one-dimensional color coordinate axis described in §3-4), or a combination thereof (in the three-dimensional color space described in §3-2 and §3-3 or two-dimensional color) In the case of the embodiment in which the closed region is mapped on the plane, it may be recognized.

たとえば、対象画像152が、縦横マトリックス状に配置された多数の画素についての画素値の集合体からなるラスター画像であった場合、個々の画素の画素値の平均値を求めれば、当該平均値は、面積(すなわち、同じ画素値をもった画素の数)を考慮した重み付け平均値ということになり、当該平均値で示される色は、対象画像152全体を代表する代表色ということになる。   For example, in the case where the target image 152 is a raster image composed of a collection of pixel values for a large number of pixels arranged in a vertical and horizontal matrix, if the average value of pixel values of individual pixels is obtained, the average value is , The weighted average value considering the area (that is, the number of pixels having the same pixel value), and the color indicated by the average value is a representative color representing the entire target image 152.

また、対象画像152が、図形の集合体として表現されたベクター画像であった場合、個々の図形内の色について、当該図形の面積を考慮した重み付け平均値を求めれば、当該平均値で示される色は、対象画像152全体を代表する代表色ということになる。   In addition, when the target image 152 is a vector image expressed as a collection of graphics, if a weighted average value considering the area of the graphic is obtained for each color in the graphic, the average value is indicated. The color is a representative color that represents the entire target image 152.

図14は、対象画像152内の絵柄が、ベクター画像として用意された一例を示す平面図である。この例の場合、たとえば、絵柄の部分領域E1(月の絵柄部分)は、円によって表現されており、円の中心点座標、円の半径、内部の色、輪郭線の色を示すデータによって構成することができる。一方、部分領域E2,E3,E4(雲、狼、岩場の絵柄部分)は、任意形状の輪郭線を示すデータ(たとえば、ベジェ曲線データ)、内部の色、輪郭線の色を示すデータによって構成することができる。また、部分領域E5は背景であり、画像全体の形成領域から、各部分領域E1〜E4を除外した領域として定義され、色を示すデータのみによって表現することができる。   FIG. 14 is a plan view showing an example in which the pattern in the target image 152 is prepared as a vector image. In the case of this example, for example, the pattern partial area E1 (the pattern portion of the moon) is represented by a circle, and is constituted by data indicating the center point coordinates of the circle, the radius of the circle, the internal color, and the color of the contour line. can do. On the other hand, the partial areas E2, E3, and E4 (clouds, wolves, and rock pattern parts) are configured by data indicating contours of arbitrary shapes (for example, Bezier curve data), internal colors, and data indicating contour colors. can do. The partial area E5 is a background, is defined as an area excluding the partial areas E1 to E4 from the formation area of the entire image, and can be expressed only by data indicating color.

この図14に示すような例では、個々の部分領域を構成する図形は、図形内部に塗られている色を示す値と、輪郭線を構成する色を示す値とを含んでいるので、これら色を示す値について、その面積を考慮した重み付け平均を行うことにより、対象画像152全体を代表する代表色を示す値を求めることができる。   In the example shown in FIG. 14, the figure constituting each partial area includes a value indicating the color painted inside the figure and a value indicating the color constituting the contour line. A value indicating a representative color representing the entire target image 152 can be obtained by performing a weighted average in consideration of the area of the value indicating the color.

通常、ディスプレイ画面上に表示される画像の色は、三原色R,G,Bの成分値の組み合わせによって表現される。たとえば、1つの色を8ビットで表現した場合、三原色R,G,Bの各成分値は、それぞれ0〜255の値をとることになる。対象画像152がラスター画像であった場合は、個々の画素が、それぞれ三原色R,G,Bの画素値(たとえば、0〜255の値)をもつことになるので、三原色R,G,Bごとに画素値の平均Rav,Gav,Bavを求めれば、得られた平均値(Rav,Gav,Bav)で示される色が、当該画像の代表色ということになる。   Usually, the color of the image displayed on the display screen is expressed by a combination of the component values of the three primary colors R, G, and B. For example, when one color is expressed by 8 bits, the component values of the three primary colors R, G, and B take values of 0 to 255, respectively. When the target image 152 is a raster image, each pixel has pixel values of three primary colors R, G, and B (for example, values of 0 to 255). If the average Rav, Gav, and Bav of the pixel values are obtained, the color indicated by the obtained average value (Rav, Gav, Bav) is the representative color of the image.

対象画像152がベクター画像であった場合は、個々の図形の内部もしくは輪郭線の色が、それぞれ三原色R,G,Bの画素値(たとえば、0〜255の値)をもつことになるので、各図形や輪郭線の面積を考慮して、やはり三原色R,G,Bごとに画素値の平均Rav,Gav,Bavを求めれば、得られた平均値(Rav,Gav,Bav)で示される色が、当該画像の代表色ということになる。   When the target image 152 is a vector image, the color of the inside of each figure or the outline has pixel values (for example, values of 0 to 255) of the three primary colors R, G, and B. If the average Rav, Gav, and Bav of the pixel values are obtained for each of the three primary colors R, G, and B in consideration of the area of each figure and outline, the colors indicated by the obtained average values (Rav, Gav, and Bav) Is the representative color of the image.

なお、これまで述べてきた実施例では、色を色相,彩度,明度という3要素によって定義するHSV表色系を用いた取り扱いを行っているが、RGB表色系とHSV表色系との間には1対1の対応関係があり、成分値(R,G,B)によって表される色は、次のような変換式によって成分値(H,S,V)に置き換えることができる。
H=60×(G−B)/Max −Min )+0 (Max =Rの場合)
H=60×(B−R)/Max −Min )+120 (Max =Gの場合)
H=60×(R−G)/Max −Min )+240 (Max =Bの場合)
S=(Max −Min )/Max
V=Max
但し、Max とは、R,G,Bのうちの最大のもの、Min とは、R,G,Bのうちの最小のものを指し、H<0の場合は、H=H+360°とする。また、S=0の場合、Hは定義されない。
In the embodiment described so far, the HSV color system is used which defines colors by three elements of hue, saturation, and brightness. However, the RGB color system and the HSV color system are different from each other. There is a one-to-one correspondence between them, and the color represented by the component values (R, G, B) can be replaced with the component values (H, S, V) by the following conversion formula.
H = 60 × (GB) / Max−Min) +0 (when Max = R)
H = 60 × (BR) / Max−Min) +120 (when Max = G)
H = 60 × (RG) / Max−Min) +240 (when Max = B)
S = (Max-Min) / Max
V = Max
However, Max refers to the largest one of R, G, and B, and Min refers to the smallest one of R, G, and B. When H <0, H = H + 360 °. Further, when S = 0, H is not defined.

このような対応関係を考慮すれば、RGB表色系で表された色であっても、HSV表色系に置き換えて取り扱うことができる。したがって、色認識部143が認識した代表色がRGB表色系を用いた(R,G,B)なる値で表現されていたとしても、これを(H,S,V)なる値で表現したHSV表色系に置き換え、三次元HSV色空間や、二次元SV色平面上に認識した色を認識点Qとしてプロットすることができる。   In consideration of such a correspondence, even a color expressed in the RGB color system can be handled by replacing it with the HSV color system. Therefore, even if the representative color recognized by the color recognition unit 143 is expressed by the value (R, G, B) using the RGB color system, this is expressed by the value (H, S, V). The color recognized on the three-dimensional HSV color space or the two-dimensional SV color plane can be plotted as the recognition point Q by replacing with the HSV color system.

<<< §4. 本発明の第2の実施形態 >>>
続いて、ここでは、これまで述べてきた第1の実施形態に若干の変更を加えた第2の実施形態を述べる。第1の実施形態では、色認識部143によって対象画像の色を認識し、この認識した色に基づいて、各カテゴリーに対する優先度を決定する処理が行われた。ここで述べる第2の実施形態では、色とともに画像の複雑度(ここでは、Complexityの頭文字をとって、複雑度をCで表す)を認識し、認識した色と複雑度Cとに基づいて、各カテゴリーに対する優先度を決定する処理が行われる。
<<< §4. Second embodiment of the present invention >>>
Subsequently, here, a second embodiment will be described in which some modifications are added to the first embodiment described so far. In the first embodiment, the color recognition unit 143 recognizes the color of the target image, and the process of determining the priority for each category is performed based on the recognized color. In the second embodiment described here, the complexity of the image (here, Complexity is represented by C by taking the acronym for Complexity) is recognized together with the color, and based on the recognized color and the complexity C. A process for determining the priority for each category is performed.

図15は、この第2の実施形態に係るコンテンツ表示装置100Aの構成を示すブロック図である。図1に示す第1の実施形態に係るコンテンツ表示装置100との相違点は、副コンテンツ提示処理部140Aの構成だけである。まず、図15に示す副コンテンツ提示処理部140Aでは、新たな構成要素として、複雑度認識部147が付加されている。また、図15に示す優先度付与部144Aおよび関連情報格納部145Aは、図1に示す優先度付与部144および関連情報格納部145とは若干異なる機能を有している。以下、これら相違点のみについて説明を行い、その余の構成要素についての説明は省略する。   FIG. 15 is a block diagram showing a configuration of a content display device 100A according to the second embodiment. The only difference from the content display device 100 according to the first embodiment shown in FIG. 1 is the configuration of the sub-content presentation processing unit 140A. First, in the sub-content presentation processing unit 140A shown in FIG. 15, a complexity recognition unit 147 is added as a new component. Further, the priority assignment unit 144A and the related information storage unit 145A shown in FIG. 15 have slightly different functions from the priority assignment unit 144 and the related information storage unit 145 shown in FIG. Hereinafter, only these differences will be described, and description of the remaining components will be omitted.

まず、複雑度認識部147は、対象画像について複雑度Cを認識する処理を行う構成要素である。たとえば、図4に示すように、ユーザが画像152を対象画像として指定して、当該対象画像152についての補助情報の要求を行うと、色認識部143によって当該対象画像152についての色が認識されるとともに、複雑度認識部147によって当該対象画像152についての複雑度Cが認識されることになる。そして、優先度付与部144Aは、対象画像152について認識された色と複雑度Cとの双方に基づいて、検索処理部142によって検索された補助情報に対して優先度の付与を行うことになる。   First, the complexity recognition unit 147 is a component that performs processing for recognizing the complexity C for the target image. For example, as illustrated in FIG. 4, when the user designates an image 152 as a target image and requests auxiliary information regarding the target image 152, the color recognition unit 143 recognizes the color of the target image 152. At the same time, the complexity recognition unit 147 recognizes the complexity C of the target image 152. Then, the priority assigning unit 144A gives priority to the auxiliary information searched by the search processing unit 142 based on both the color recognized for the target image 152 and the complexity C. .

そのために、関連性情報格納部145Aには、個々のカテゴリーと色との関連性とともに個々のカテゴリーと複雑度Cとの関連性を示す関連性情報が格納されており、優先度付与部144Aは、色認識部143が認識した色と、複雑度認識部147が認識した複雑度Cと、の双方に基づいて関連性情報を参照し、より関連性の高いカテゴリーに所属する副コンテンツデータから抽出された補助情報に、より高い優先度を付与する処理を行うことになる。   For this purpose, the relevance information storage unit 145A stores relevance information indicating the relevance between the individual categories and the complexity C as well as the relevance between the individual categories and the colors. Based on both the color recognized by the color recognizing unit 143 and the complexity C recognized by the complexity recognizing unit 147, the relevance information is referred to and extracted from the sub-content data belonging to the category having higher relevance A process for assigning a higher priority to the auxiliary information is performed.

ここで、複雑度認識部147によって認識される複雑度Cとは、画像の上に表現されている絵柄の込み入り具合、濃淡や色の変化の発生頻度を意味するものである。このような複雑度Cを定量的な値として求めるには、複雑度認識部147に、対象画像の空間周波数を検出する機能をもたせておき、検出された空間周波数値に応じた値を複雑度Cとして認識できるようにすればよい。   Here, the complexity C recognized by the complexity recognition unit 147 means the complexity of the pattern expressed on the image, the frequency of occurrence of shades and colors. In order to obtain such a complexity C as a quantitative value, the complexity recognition unit 147 has a function of detecting the spatial frequency of the target image, and a value corresponding to the detected spatial frequency value is set as the complexity. It can be recognized as C.

一般に、多数の画素の集合体から構成されるラスター画像については、公知の方法で空間周波数を求めることが可能である。具体的には、所定方向について、画素値の変動を波形として取り出し、当該波形の周波数成分を一般的な信号解析の方法で認識すれば、当該方向に関する画像の空間周波数が得られる。1枚の画像について、1つの代表的な空間周波数を求めるのであれば、縦方向の空間周波数と横方向の空間周波数との平均をとればよい。また、カラー画像の場合は、各原色成分の画素値について、それぞれ空間周波数を求め、その平均をとればよい。もちろん、空間周波数が高い画像ほど、複雑度Cが高い画像ということになる。   In general, for a raster image composed of an aggregate of a large number of pixels, the spatial frequency can be obtained by a known method. Specifically, if the fluctuation of the pixel value is extracted as a waveform in a predetermined direction and the frequency component of the waveform is recognized by a general signal analysis method, the spatial frequency of the image in the direction can be obtained. If one representative spatial frequency is obtained for one image, the average of the spatial frequency in the vertical direction and the spatial frequency in the horizontal direction may be taken. In the case of a color image, the spatial frequency may be obtained for the pixel values of the respective primary color components and averaged. Of course, the higher the spatial frequency, the higher the complexity C.

また、幾何学図形の集合体によって構成されるベクター画像については、より単純な方法で複雑度Cを定義することも可能である。具体的には、複雑度認識部147が、幾何学図形の集合体によって構成される対象画像について、予め個々の幾何学図形に対応づけて定義されたポイントを集計する処理を行い、ポイントの集計値を複雑度Cとして認識するようにすればよい。   Further, it is possible to define the complexity C by a simpler method for a vector image constituted by a collection of geometric figures. Specifically, the complexity recognizing unit 147 performs a process of counting points defined in advance in association with individual geometric figures for a target image configured by a collection of geometric figures, and totaling the points. The value may be recognized as complexity C.

図16は、このような原理で複雑度Cを認識する方法の一例を示す平面図である。ここに示す例は、四角形、円、楕円、直線、折れ線、多角形という各図形の集合によってベクター画像が構成されている例であり、個々の図形は、それぞれ図の記述子の欄に示されている記号によって表現される。パラメータの欄には、各記述子の括弧内に引数として用いられているパラメータの内容が示されている。   FIG. 16 is a plan view showing an example of a method for recognizing the complexity C based on such a principle. The example shown here is an example in which a vector image is composed of a set of figures such as a rectangle, a circle, an ellipse, a straight line, a polygonal line, and a polygon. Each figure is shown in the descriptor column of the figure. Is represented by a symbol. In the parameter column, the content of the parameter used as an argument is shown in parentheses of each descriptor.

たとえば、四角形は、中心点の座標を(x,y)、幅をw、高さをhとして、「Rect(x,y,w,h)」なる記述子によって表現され、円は、中心点の座標を(x,y)、半径をrとして、「Circle(x,y,r)」なる記述子によって表現される。なお、ここでは、図形内部の色や輪郭線の色を示すパラメータは省略されているが、実際には、個々の図形ごとに、それぞれ色を示すパラメータ(たとえば、三原色R,G,Bの成分値など)が付加される。一般的なベクター画像は、この図16に例示するような記述子を羅列したデータによって構成されている。   For example, a rectangle is represented by a descriptor “Rect (x, y, w, h)”, where the coordinates of the center point are (x, y), the width is w, and the height is h, and the circle is the center point The coordinates of (x, y) and the radius of r are represented by a descriptor “Circle (x, y, r)”. Here, the parameters indicating the color inside the figure and the color of the outline are omitted, but actually, the parameters indicating the colors (for example, the components of the three primary colors R, G, and B) for each figure. Value). A general vector image is composed of data in which descriptors as exemplified in FIG. 16 are listed.

一方、図16の右端欄に示すポイントは、複雑度Cを求めるために定義されたポイントである。この例の場合、四角形、円、楕円にはそれぞれ4ポイント、直線には2ポイント、折れ線や多角形には構成要素となる点の数に相当するポイントが対応づけられている。したがって、複雑度認識部147内に、このような個々の記述子とポイントとを対応づけるテーブルを用意しておけば、対応画像(ベクター画像)を構成するデータに含まれる記述子を1つ1つチェックしながら、当該記述子に対応するポイントを加算して集計する処理を行うことにより、ポイントの集計値として複雑度Cを決定することができる。   On the other hand, the points shown in the rightmost column in FIG. 16 are points defined for obtaining the complexity C. In the case of this example, quadrilateral, circle, and ellipse are each associated with 4 points, straight lines are associated with 2 points, and broken lines and polygons are associated with points corresponding to the number of constituent points. Therefore, if a table for associating such individual descriptors with points is prepared in the complexity recognition unit 147, descriptors included in the data constituting the corresponding image (vector image) are one by one. The complexity C can be determined as the total value of the points by performing a process of adding and totaling the points corresponding to the descriptor while checking the two.

このように、本発明における複雑度Cは、画像をラスター画像として捉えたときの空間周波数に基づいて決定することもできるし、画像をベクター画像として捉えたときの構成要素となる図形のポイント集計値に基づいて決定することもできる。なお、実用上は、空間周波数やポイント集計値に上限基準値を設定しておき、この上限基準値を複雑度Cの最大値に設定するようにし、空間周波数やポイント集計値が上限基準値を超えた場合には、常に複雑度Cの最大値を対応づけるようにするのが好ましい。すなわち、ある程度以上複雑な画像については、一律して、最大の複雑度Cが与えられることになる。   As described above, the complexity C in the present invention can be determined based on the spatial frequency when an image is captured as a raster image, or the number of points of a figure that is a constituent element when the image is captured as a vector image. It can also be determined based on the value. In practice, an upper limit reference value is set for the spatial frequency and the point total value, and this upper limit reference value is set to the maximum value of the complexity C, and the spatial frequency and the point total value are set to the upper limit reference value. When exceeding, it is preferable to always associate the maximum value of the complexity C. That is, the maximum complexity C is uniformly given to an image that is more than a certain degree.

前述したとおり、この第2の実施形態に用いられる関連性情報格納部145Aには、個々のカテゴリーと色との関連性とともに個々のカテゴリーと複雑度Cとの関連性を示す関連性情報が格納されている。図17は、この関連性情報格納部145A内に格納する関連性情報として、SVC三次元空間上の分布範囲を定義する情報を用いた例を示す斜視図である。このSVC三次元空間は、彩度値S、明度値V、複雑度Cを互いに直交する座標軸上にとることにより定義される空間であり、このSVC空間上の任意の1点は、特定の彩度値S、明度値V、複雑度Cを有する点になる。   As described above, the relevance information storage unit 145A used in the second embodiment stores relevance information indicating the relevance between the individual categories and the complexity C as well as the relevance between the individual categories and the colors. Has been. FIG. 17 is a perspective view showing an example in which information defining a distribution range in the SVC three-dimensional space is used as the relevance information stored in the relevance information storage unit 145A. This SVC three-dimensional space is a space defined by taking the saturation value S, the lightness value V, and the complexity C on mutually orthogonal coordinate axes. An arbitrary point on the SVC space is a specific chromatic space. This is a point having a degree value S, a lightness value V, and a complexity C.

関連性情報格納部145Aには、このSVC空間上に、個々のカテゴリーに対応する閉領域をマッピングしたマッピング情報を関連性情報として格納しておけばよい。図17には、図15の副コンテンツデータ格納部160内に設定されている3つのカテゴリーC1,C2,C3に対応して、それぞれ閉領域C1,C2,C3をマッピングすることにより構成された関連性情報の一例が示されている。   In the relevance information storage unit 145A, mapping information obtained by mapping closed regions corresponding to individual categories may be stored as relevance information on the SVC space. FIG. 17 shows relations formed by mapping closed regions C1, C2, and C3 corresponding to the three categories C1, C2, and C3 set in the sub-content data storage unit 160 of FIG. An example of sex information is shown.

結局、この関連性情報は、個々のカテゴリーC1,C2,C3について、彩度値S、明度値V、複雑度Cの組み合わせの分布範囲を対応づけたものということができる。関連性情報格納部145Aにこのような関連性情報を格納しておき、色認識部143が、対象画像について彩度の代表値および明度の代表値を認識し、複雑度認識部147が、対象画像についての複雑度を認識すれば、優先度付与部144Aは、個々のカテゴリーC1,C2,C3に対応づけられた彩度値S、明度値V、複雑度Cの組み合わせの分布範囲と、色認識部143が認識した彩度Sの代表値、色認識部143が認識した明度Vの代表値、複雑度認識部147が認識した複雑度Cの組み合わせ(S,V,C)と、を比較し、両者の近似度に応じた優先度を付与することができる。   After all, it can be said that this relevance information is obtained by associating distribution ranges of combinations of the saturation value S, the lightness value V, and the complexity C with respect to the individual categories C1, C2, and C3. Such relevance information is stored in the relevance information storage unit 145A, the color recognition unit 143 recognizes the representative value of saturation and the representative value of lightness for the target image, and the complexity recognition unit 147 If the complexity of the image is recognized, the priority assigning unit 144A can determine the distribution range of the combination of the saturation value S, the lightness value V, and the complexity C associated with each category C1, C2, and C3, The combination of the representative value of saturation S recognized by the recognition unit 143, the representative value of lightness V recognized by the color recognition unit 143, and the complexity C recognized by the complexity recognition unit 147 (S, V, C). And priority according to the degree of approximation of both can be given.

より具体的に説明すれば、関連性情報格納部145Aには、図17に示す例のように、第1の座標軸に彩度値S、第2の座標軸に明度値V、第3の座標軸に複雑度CをとったSVC三次元空間上に個々のカテゴリーに対応する閉領域C1,C2,C3をマッピングしたマッピング情報が関連性情報として格納されているので、優先度付与部144Aは、色認識部143が認識した色および複雑度認識部147が認識した複雑度Cを、このSVC三次元空間上に、彩度Sの代表値、明度Vの代表値、複雑度Cをそれぞれ座標値とする認識点Qとしてプロットし、プロットされた認識点Qとマッピングされた個々の閉領域C1,C2,C3との位置関係に基づいて優先度を付与する処理を行えばよい。   More specifically, the relevance information storage unit 145A has a saturation value S on the first coordinate axis, a lightness value V on the second coordinate axis, and a brightness value V on the third coordinate axis, as in the example shown in FIG. Since mapping information obtained by mapping the closed areas C1, C2, and C3 corresponding to individual categories is stored as relevance information on the SVC three-dimensional space having the complexity C, the priority assigning unit 144A performs color recognition. The color recognized by the unit 143 and the complexity C recognized by the complexity recognizing unit 147 are represented in this SVC three-dimensional space with the representative value of saturation S, the representative value of lightness V, and the complexity C as coordinate values, respectively. A process of plotting as recognition points Q and assigning priority based on the positional relationship between the plotted recognition points Q and the individual closed regions C1, C2, and C3 mapped may be performed.

図18は、図17に示す関連性情報を利用して、各カテゴリーについての優先度を定義する方法を示す斜視図である。この第2の実施形態の場合も、前述した第1の実施形態と同様に、認識点Qが各カテゴリーについて定義された閉領域C1〜C3に含まれるか含まれないか、という二値情報に基づいて優先度の定義を行う方法と、認識点Qと参照点G1〜G3(たとえば、各閉領域の中心点)との距離Lを考慮に入れた優先度定義を行う方法とを採用することができ、もちろん、両者を併用することもできる。   FIG. 18 is a perspective view showing a method of defining priorities for each category using the relevance information shown in FIG. Also in the case of the second embodiment, similarly to the first embodiment described above, binary information indicating whether the recognition point Q is included in the closed regions C1 to C3 defined for each category is included in the binary information. A method of defining priority based on the above and a method of defining priority taking into account the distance L between the recognition point Q and the reference points G1 to G3 (for example, the center point of each closed region). Of course, both can be used together.

たとえば、二値情報に基づいて優先度の定義を行えば、図18に示す認識点Q6については、カテゴリーC1には優先度1、カテゴリーC2,C3には優先度0が与えられ、認識点Q7については、カテゴリーC1〜C3のすべてに優先度0が与えられることになる。一方、距離Lを考慮に入れた優先度の定義を行う場合は、たとえば、認識点Q7についてのカテゴリーC3の優先度は、認識点Q7と参照点G3とのユークリッド距離L7に基づいて決定されることになる。   For example, if the priority is defined based on the binary information, the recognition point Q6 shown in FIG. 18 is given priority 1 to the category C1, priority 0 to the categories C2 and C3, and recognition point Q7. With respect to, all of the categories C1 to C3 are given priority 0. On the other hand, when defining the priority taking into account the distance L, for example, the priority of the category C3 for the recognition point Q7 is determined based on the Euclidean distance L7 between the recognition point Q7 and the reference point G3. It will be.

§3−3で述べたように、本発明を実施する場合、色に関しては、実用上は、彩度Sおよび明度Vに着目して、SV二次元色平面上にマッピングされた閉領域によって、個々のカテゴリーに対応づけられた色の分布範囲を示せば十分である。この第2の実施形態は、この色の2要素SおよびVに、更に複雑度Cを加えることにより、カテゴリーに対する優先度の評価をより適切に行うことができるようにしたものである。   As described in §3-3, when practicing the present invention, with regard to color, in practical terms, focusing on the saturation S and the lightness V, by the closed region mapped on the SV two-dimensional color plane, It is sufficient to show the color distribution range associated with each category. In the second embodiment, a priority C for a category can be more appropriately evaluated by adding a complexity C to the two elements S and V of this color.

すなわち、この第2の実施形態の基本概念は、色とカテゴリーとの間に相関関係が見られるのと同様に、複雑度とカテゴリーとの間にも相関関係が見られるであろう、との着想に基づくものである。たとえば、複雑度Cの高い画像について提示する補助情報としては、「専門書」や「ビジネス書」といったカテゴリーに属するコンテンツから抽出した情報がより適切であるが、逆に、複雑度Cの低い画像について提示する補助情報としては、「生活情報」や「小話・豆知識」といったカテゴリーに属するコンテンツから抽出した情報がより適切であると考えられる。このように、第2の実施形態の利点は、色だけでなく、更に複雑度も考慮することにより、更に適切な補助情報を選択して提示することが可能になる点にある。   In other words, the basic concept of the second embodiment is that, as the correlation between the color and the category is seen, the correlation between the complexity and the category will be seen. It is based on an idea. For example, information extracted from content belonging to a category such as “specialized books” or “business books” is more appropriate as auxiliary information to be presented for images with a high degree of complexity C, but conversely, images with a low degree of complexity C As supplementary information to be presented, information extracted from content belonging to categories such as “living information” and “ilustration / bean knowledge” is considered more appropriate. As described above, the advantage of the second embodiment is that it is possible to select and present more appropriate auxiliary information by considering not only the color but also the complexity.

<<< §5. 本発明の第3の実施形態 >>>
上述した§4では、第2の実施形態として、対象画像の色と複雑度とに基づいて、各カテゴリーに対する優先度を決定する形態を述べた。ここで述べる第3の実施形態においても、対象画像の色と複雑度とを認識することになる。ただ、この第3の実施形態では、各カテゴリーに対する優先度は色のみに基づいて決定し、複雑度は、同一カテゴリー内の副コンテンツ間に異なる優先度を設定するために利用される。
<<< §5. Third embodiment of the present invention >>>
In §4 mentioned above, the form which determines the priority with respect to each category based on the color and complexity of a target image as 2nd Embodiment was described. Also in the third embodiment described here, the color and complexity of the target image are recognized. However, in the third embodiment, the priority for each category is determined based only on the color, and the complexity is used to set different priorities between sub-contents in the same category.

図19は、この第3の実施形態に係るコンテンツ表示装置100Bの構成を示すブロック図である。図1に示す第1の実施形態に係るコンテンツ表示装置100との相違点は、副コンテンツ提示処理部140Bの構成と、副コンテンツデータ格納部160Bの構成だけである。   FIG. 19 is a block diagram showing a configuration of a content display device 100B according to the third embodiment. The only difference from the content display device 100 according to the first embodiment shown in FIG. 1 is the configuration of the sub-content presentation processing unit 140B and the configuration of the sub-content data storage unit 160B.

副コンテンツデータ格納部160Bは、基本的には、これまで述べてきた実施形態と同様に、それぞれ異なるカテゴリーC1〜C3に所属する複数の副コンテンツデータS1〜S8を格納する構成要素であるが、ここに格納されている個々の副コンテンツデータS1〜S8には、それぞれ所定の複雑度Cが設定されている。図19における副コンテンツデータS1〜S8のブロック内に示されている、丸に「複」の字のマークは、それぞれに設定された複雑度Cを示すものである。   The sub-content data storage unit 160B is basically a component that stores a plurality of sub-content data S1 to S8 belonging to different categories C1 to C3, as in the above-described embodiments. A predetermined complexity C is set in each of the sub-content data S1 to S8 stored here. In FIG. 19, the circled “duplicate” marks shown in the blocks of the sub-content data S1 to S8 indicate the complexity C set for each.

一方、図19に示す副コンテンツ提示処理部140Bには、複雑度認識部147が付加されている。この複雑度認識部147は、図15に示す複雑度認識部147と全く同じ構成要素であり、対象画像について複雑度Cを認識する処理を行う機能を有している。複雑度Cについての具体的な認識方法は、既に§4で説明したとおりであるので、ここでは説明を省略する。   On the other hand, a complexity recognition unit 147 is added to the sub-content presentation processing unit 140B shown in FIG. The complexity recognition unit 147 is the same component as the complexity recognition unit 147 shown in FIG. 15, and has a function of performing processing for recognizing the complexity C for the target image. The specific method for recognizing the complexity C is as already described in §4, and thus the description thereof is omitted here.

図19に示す副コンテンツ提示処理部140B内の関連性情報格納部145は、図1に示す関連性情報格納部145と全く同じ構成要素であり、個々のカテゴリーと色との関連性を示す関連性情報を格納する機能を有している。図15に示す関連性情報格納部145Aには、図17に示すように、個々のカテゴリーと、色および複雑度と、の関連性を示す関連性情報が格納されているが、図19に示す関連性情報格納部145には、複雑度Cに関する関連性を示す情報は格納されていない(複雑度Cに関する情報は、前述したように、副コンテンツデータ格納部160B内の個々の副コンテンツデータに設定されている。)。   The relevance information storage unit 145 in the sub-content presentation processing unit 140B shown in FIG. 19 is the same component as the relevance information storage unit 145 shown in FIG. 1, and the relationship indicating the relationship between individual categories and colors. It has a function to store sex information. The relevance information storage unit 145A shown in FIG. 15 stores relevance information indicating the relevance between individual categories, colors and complexity as shown in FIG. 17, but it is shown in FIG. The relevance information storage unit 145 does not store information indicating the relevance related to the complexity C (the information related to the complexity C is stored in each sub content data in the sub content data storage unit 160B as described above. Is set.)

一方、この第3の実施形態に特有の優先度付与部144Bは、基本的には、色認識部143が認識した色に基づいて関連性情報格納部145内の関連性情報を参照し、より関連性の高いカテゴリーに所属する副コンテンツデータから抽出された補助情報に、より高い優先度を付与する処理を行うが、更に、複雑度認識部147が認識した複雑度Cにより近似する複雑度が設定されている副コンテンツデータから抽出された補助情報に、より高い優先度を付与する処理も併せて行う機能を有している。   On the other hand, the priority assigning unit 144B unique to the third embodiment basically refers to the relevance information in the relevance information storage unit 145 based on the color recognized by the color recognizing unit 143, and more A process of giving higher priority to auxiliary information extracted from sub-content data belonging to a highly relevant category is performed, but the complexity approximated by the complexity C recognized by the complexity recognition unit 147 is further increased. The auxiliary information extracted from the set sub-content data also has a function of performing a process of assigning a higher priority.

要するに、この第3の実施形態では、色認識部143が認識した色に基づいて、個々のカテゴリーに対して所定の優先度が付与されるとともに、複雑度認識部147が認識した複雑度Cに基づいて、個々の副コンテンツデータに対して直接的に所定の優先度が付与されることになる。このため、同一のカテゴリーに所属する副コンテンツデータであっても、それぞれ設定された複雑度に基づいて、互いに異なる優先度が付与されることになる。   In short, in the third embodiment, a predetermined priority is assigned to each category based on the color recognized by the color recognition unit 143, and the complexity C recognized by the complexity recognition unit 147 is added. Based on this, a predetermined priority is directly given to each sub-content data. For this reason, even if the sub-content data belongs to the same category, different priorities are given based on the set complexity.

以下、より具体的な例として、図6に示すような5つのカテゴリーC1〜C5を定義し、これら各カテゴリーに対応する閉領域C1〜C5を図9に示すような二次元SV色平面上に配置することによって関連性情報を構成し、これを関連性情報格納部145内に格納した例について、第3の実施形態を説明しよう。図20は、このような具体例における優先度付与部144Bによる優先度決定方法を示す斜視図である。この図20に示す空間は、図17と同様に、彩度S,明度V、複雑度Cをそれぞれ座標軸にとった三次元座標空間であるが、関連性情報格納部145内に格納されている情報は、このうちの二次元SV色平面上の情報(すなわち、図9に示す情報)のみである。上述したとおり、関連性情報には、複雑度Cに関する情報は含まれていない。   Hereinafter, as a more specific example, five categories C1 to C5 as shown in FIG. 6 are defined, and closed regions C1 to C5 corresponding to these categories are arranged on a two-dimensional SV color plane as shown in FIG. The third embodiment will be described with respect to an example in which the relevance information is configured by arranging and stored in the relevance information storage unit 145. FIG. 20 is a perspective view showing a priority determination method by the priority assigning unit 144B in such a specific example. The space shown in FIG. 20 is a three-dimensional coordinate space in which the saturation S, the lightness V, and the complexity C are taken as coordinate axes, as in FIG. 17, but is stored in the relevance information storage unit 145. The information is only information on the two-dimensional SV color plane (that is, information shown in FIG. 9). As described above, the relevance information does not include information on the complexity C.

図19に示すとおり、優先度付与部144Bには、色認識部143から認識した色の情報(この実施例の場合、彩度Sの代表値と明度Vの代表値)が与えられ、複雑度認識部から認識した複雑度Cが与えられる。これらの情報(S,V,C)を、図20の座標空間にプロットすれば、図示のような認識点Q8が得られる。しかしながら、関連性情報は二次元SV色平面上の閉領域C1〜C5として定義されているだけなので、結局、各カテゴリーに対して付与する優先度は、§3−3で述べた二次元SV色平面上に閉領域をマッピングする実施例と同様に、SV色平面上の閉領域C1〜C5の情報に基づいて決定される。   As shown in FIG. 19, information on the color recognized from the color recognition unit 143 (in this example, a representative value of saturation S and a representative value of lightness V) is given to the priority assigning unit 144B, and the complexity The complexity C recognized from the recognition unit is given. When these pieces of information (S, V, C) are plotted in the coordinate space of FIG. 20, a recognition point Q8 as shown is obtained. However, since the relevance information is only defined as closed regions C1 to C5 on the two-dimensional SV color plane, the priority given to each category is eventually the two-dimensional SV color described in §3-3. Similar to the embodiment in which the closed region is mapped on the plane, the determination is made based on the information of the closed regions C1 to C5 on the SV color plane.

すなわち、認識点Q8をSV色平面上に正射影投影して得られる認識点Q9に基づいて、§3−3で述べた方法により、各カテゴリーC1〜C5に対する優先度が決定される。たとえば、閉領域内に含まれるか含まれないかという二値情報に基づいて優先度の定義を行えば、図20に示す認識点Q9については、カテゴリーC4には優先度1、カテゴリーC1〜C3,C5には優先度0が与えられることになる。もちろん、認識点Q9と各参照点G1〜G5との距離を考慮に入れて優先度を決定することも可能である。   That is, the priority for each of the categories C1 to C5 is determined by the method described in §3-3 based on the recognition point Q9 obtained by orthographic projection of the recognition point Q8 on the SV color plane. For example, if the priority is defined on the basis of binary information indicating whether it is included or not included in the closed region, for the recognition point Q9 shown in FIG. 20, the category C4 has a priority 1, and the categories C1 to C3. , C5 is given priority 0. Of course, the priority can be determined in consideration of the distance between the recognition point Q9 and each of the reference points G1 to G5.

いずれにしても、SV色平面上の認識点Q9に基づいて決定された優先度は、個々のカテゴリーごとの優先度であるから、同一カテゴリーに所属する副コンテンツデータに対しては、同一の優先度が付与されることになる。一方、優先度付与部144Bには、複雑度Cの情報も与えられており、この複雑度Cも考慮に入れた認識点Q8は、図示のとおり、SV色平面上の認識点Q9から距離L8(すなわち、複雑度Cの値)だけ隔たっていることになる。ここで説明する第3の実施形態の場合、この複雑度Cを利用して、同一カテゴリーに所属する個々の副コンテンツデータに対して、それぞれ設定されている複雑度に応じた優先度を付与する処理が行われる。   In any case, since the priority determined based on the recognition point Q9 on the SV color plane is a priority for each category, the same priority is given to sub-content data belonging to the same category. A degree will be given. On the other hand, the priority assigning unit 144B is also provided with information on the complexity C, and the recognition point Q8 taking into account the complexity C is a distance L8 from the recognition point Q9 on the SV color plane as shown in the figure. (Ie, the value of complexity C). In the case of the third embodiment described here, this complexity C is used to give priority according to the set complexity to each sub-content data belonging to the same category. Processing is performed.

ここでは、説明の便宜上、副コンテンツデータ格納部160Bには、図6に示すような5つのカテゴリーC1〜C5に所属する合計13組の副コンテンツデータS1〜S13が格納されているものとし、このうちのカテゴリーC4に所属する副コンテンツデータS9〜S11について、図21に示すような複雑度が設定されていたものとしよう(図19において、丸に「複」の字のマークで示すように、各副コンテンツデータのすべてに、それぞれ所定の複雑度Cが設定されている)。   Here, for convenience of explanation, it is assumed that the sub content data storage unit 160B stores a total of 13 sets of sub content data S1 to S13 belonging to five categories C1 to C5 as shown in FIG. Assume that the complexity shown in FIG. 21 is set for the sub-content data S9 to S11 belonging to the category C4 (in FIG. 19, as indicated by a circle with a “double” character, A predetermined complexity C is set for each sub-content data).

ここで、各副コンテンツデータに対する複雑度Cは、個々のコンテンツの内容の複雑さに応じて、この装置の設計者が適宜設定すればよい。たとえば、図21に示す例の場合、「S9:子供生活百科」なる子供向けの情報については、C=0.1という低い複雑度が設定され、「S10:京都散策」なる大人向けの情報については、C=0.8という比較的高い複雑度が設定され、「S11:おそうじ読本」なる一般向けの情報については、C=0.5という中程度の複雑度が設定されている。   Here, the degree of complexity C for each sub-content data may be appropriately set by the designer of this apparatus according to the complexity of the contents of each content. For example, in the case of the example shown in FIG. 21, a low complexity of C = 0.1 is set for information for children “S9: Encyclopedia of children's life”, and information for adults “S10: stroll in Kyoto” is set. Has a relatively high complexity of C = 0.8, and a medium complexity of C = 0.5 is set for general information “S11: Clean reading”.

したがって、同じ「C4:生活情報」というカテゴリーに所属する副コンテンツデータS9〜S11から抽出された補助情報であっても、対象画像について認識された複雑度Cに基づいて、それぞれ異なる優先度が付与されることになる。すなわち、認識された複雑度Cにより近似する複雑度が設定されている副コンテンツデータから抽出された補助情報に、より高い優先度が付与されることになる。たとえば、対象画像が非常に単純な画像であった場合には、「S9:子供生活百科」から抽出された補助情報の優先度が高くなり、対象画像が複雑な画像であった場合には、「S10:京都散策」から抽出された補助情報の優先度が高くなる。   Therefore, even if the auxiliary information is extracted from the sub-content data S9 to S11 belonging to the same category “C4: life information”, different priorities are assigned based on the complexity C recognized for the target image. Will be. That is, higher priority is given to the auxiliary information extracted from the sub-content data in which the complexity approximated by the recognized complexity C is set. For example, when the target image is a very simple image, the priority of auxiliary information extracted from “S9: Child Life Encyclopedia” is high, and when the target image is a complex image, The priority of the auxiliary information extracted from “S10: Kyoto walk” becomes high.

具体的には、たとえば、各副コンテンツデータに予め設定されている複雑度と複雑度認識部147によって認識された複雑度Cとの差に基づいて、差が小さいほど大きな優先度を付与するようにすればよい。この場合、実用上は、各副コンテンツデータに予め設定されている複雑度の分布範囲と、複雑度認識部147によって認識される複雑度Cの分布範囲と、がほぼ同じになるような設定にするのが好ましい。たとえば、分布範囲が0〜1.0の範囲内となるように設定し、上記差が0.1以内の副コンテンツに対しては優先度1を付与し、上記差が0.3以内の副コンテンツに対しては優先度0.5を付与する、という取り決めをした場合において、複雑度認識部147によって認識された複雑度Cが0.2であったとすると、図21に示す「S9:子供生活百科」には優先度1(差は0.1)、「S10:京都散策」には優先度0(差は0.6)、「S11:おそうじ読本」には優先度0.5(差は0.3)が付与されることになる。   Specifically, for example, based on the difference between the complexity set in advance in each sub-content data and the complexity C recognized by the complexity recognition unit 147, a higher priority is given as the difference is smaller. You can do it. In this case, practically, the setting is made so that the complexity distribution range preset for each sub-content data and the distribution range of the complexity C recognized by the complexity recognition unit 147 are substantially the same. It is preferable to do this. For example, the distribution range is set to be in the range of 0 to 1.0, and priority 1 is assigned to sub-contents whose difference is within 0.1 and sub-contents whose difference is within 0.3. If it is decided that a priority of 0.5 is assigned to content, and the complexity C recognized by the complexity recognition unit 147 is 0.2, “S9: Child” shown in FIG. “Encyclopedia of Life” has a priority of 1 (difference is 0.1), “S10: Walk in Kyoto” has a priority of 0 (difference is 0.6), and “S11: Cleanup Reader” has a priority of 0.5 (difference 0.3) is given.

もちろん、各カテゴリーに対しては、色認識部143が認識した色に基づいて優先度が付与されることになるので、結局、検索処理部142によって検索された個々の補助情報には、色に基づく優先度と複雑度に基づく優先度との双方が付与されることになる。たとえば、上例の場合、認識点Q9が閉領域C4内に含まれるため、カテゴリー「C4:生活情報」に対して色に基づく優先度1が付与されたとすると、「S9:子供生活百科」から抽出された補助情報には合計の優先度2が付与され、「S10:京都散策」から抽出された補助情報には合計の優先度1が付与され、「S11:おそうじ読本」から抽出された補助情報には合計の優先度1.5が付与されることになる。   Of course, since each category is given priority based on the color recognized by the color recognition unit 143, eventually, the individual auxiliary information searched by the search processing unit 142 includes color. Both the priority based on the priority and the priority based on the complexity are given. For example, in the above example, since the recognition point Q9 is included in the closed region C4, if priority 1 based on color is given to the category “C4: life information”, “S9: Child Life Encyclopedia” The extracted auxiliary information is given a total priority of 2, and the auxiliary information extracted from “S10: Kyoto walk” is given a total priority of 1, and the extracted auxiliary information is extracted from “S11: clean reading”. The information is given a total priority of 1.5.

このように、この第3の実施形態の場合も、色だけでなく、複雑度も考慮して優先度が付与されるため、更に適切な補助情報を選択して提示することが可能になる。   As described above, also in the case of the third embodiment, since priority is given in consideration of not only color but also complexity, it is possible to select and present more appropriate auxiliary information.

<<< §6. 本発明に係るコンテンツ表示方法 >>>
ここでは、本発明をコンテンツ表示方法として把握した場合の当該方法の手順を説明する。図22は、本発明に係るコンテンツ表示方法の基本手順を示す流れ図である。この方法は、画像を含む主コンテンツの内容を表示するとともに、表示中の主コンテンツ内の画像に関連した補助情報を副コンテンツから検索し、検索された補助情報を提示するコンテンツ表示方法であり、図示のとおり、ステップN1〜N7の各段階によって構成される。これらの各段階は、いずれもコンピュータによって実行される。
<<< §6. Content display method according to the present invention >>
Here, a procedure of the method when the present invention is grasped as a content display method will be described. FIG. 22 is a flowchart showing the basic procedure of the content display method according to the present invention. This method is a content display method for displaying the content of the main content including the image, searching auxiliary information related to the image in the main content being displayed from the sub content, and presenting the searched auxiliary information. As shown in the figure, each stage of Steps N1 to N7 is configured. Each of these steps is executed by a computer.

まず、ステップN1では、コンピュータが、ユーザの指示に基づいて、主コンテンツの所定部分をディスプレイの画面に表示する主コンテンツ表示段階が行われる。具体的には、たとえば、図2に例示するように、主コンテンツ表示領域150M内に主コンテンツの表示が行われる。   First, in step N1, a main content display stage is performed in which the computer displays a predetermined portion of the main content on the screen of the display based on a user instruction. Specifically, for example, as illustrated in FIG. 2, the main content is displayed in the main content display area 150M.

続くステップN2では、コンピュータが、ユーザの指示に基づいて、ディスプレイの画面に表示されている主コンテンツ内の特定の画像を対象画像として認識するとともに、当該対象画像に付されている検索用文字列を認識する対象認識段階が行われる。たとえば、図4に例示するように、ユーザが指Fによって、主コンテンツ内の特定の画像152を指定する入力を行うと、当該画像152が対象画像として認識されるとともに、図3に示すような検索用文字列K(画像152に付されている検索用文字列)が認識されることになる。   In the subsequent step N2, the computer recognizes a specific image in the main content displayed on the screen of the display as a target image based on a user's instruction, and a search character string attached to the target image. An object recognition stage for recognizing is performed. For example, as illustrated in FIG. 4, when the user performs an input specifying a specific image 152 in the main content with the finger F, the image 152 is recognized as a target image, and as illustrated in FIG. 3. The search character string K (the search character string attached to the image 152) is recognized.

次のステップN3では、コンピュータが、認識した検索用文字列Kを検索キーとして用いて、それぞれ異なるカテゴリーに所属する複数の副コンテンツデータに対する検索処理を実行し、ヒットした補助情報を抽出する検索処理段階が行われる。そして、ステップN4では、対象画像152について色を認識する色認識段階が行われ、更に、ステップN5では、コンピュータが、対象画像152について複雑度Cを認識する複雑度認識段階が行われる。なお、このステップN5は、§4で説明した第2の実施形態および§5で説明した第3の実施形態を実施する場合に必要な段階であり、§1で説明した第1の実施形態を行う場合は必要ない。   In the next step N3, the computer executes a search process for a plurality of sub-content data belonging to different categories using the recognized search character string K as a search key, and extracts the hit auxiliary information. Stages are performed. In step N4, a color recognition stage for recognizing the color of the target image 152 is performed. Further, in step N5, a complexity recognition stage for recognizing the complexity C for the target image 152 is performed. Note that this step N5 is a stage necessary when the second embodiment described in §4 and the third embodiment described in §5 are implemented, and the first embodiment described in §1 is the same as step N5. No need to do.

続くステップN6では、コンピュータが、予め定義されている個々のカテゴリーと色との関連性を示す関連性情報を参照し、より関連性の高いカテゴリーに所属する副コンテンツデータから抽出された補助情報に、より高い優先度を付与する優先度付与段階が実行される。   In the subsequent step N6, the computer refers to the relevance information indicating the relevance between the individual categories and colors defined in advance, and adds the auxiliary information extracted from the sub-content data belonging to the more relevant category. A priority giving step for giving higher priority is executed.

但し、§4で説明した第2の実施形態を実施する場合は、このステップN6において、コンピュータが、予め定義されている個々のカテゴリーと色との関連性および個々のカテゴリーと複雑度との関連性を示す関連性情報を参照し、より関連性の高いカテゴリーに所属する副コンテンツデータから抽出された補助情報に、より高い優先度を付与する処理が行われる。   However, in the case where the second embodiment described in §4 is implemented, in this step N6, the computer associates the predefined categories with the colors and the relationships between the individual categories and the complexity. A process of giving higher priority to auxiliary information extracted from sub-content data belonging to a more relevant category is performed with reference to relevance information indicating sex.

また、§5で説明した第3の実施形態を実施する場合は、このステップN6において、コンピュータが、予め設定されている個々の副コンテンツデータの複雑度を参照し、ステップN5の複雑度認識段階で認識した複雑度により近似する複雑度が設定されている副コンテンツデータから抽出された補助情報に、より高い優先度を付与する処理が行われる。   When implementing the third embodiment described in §5, in this step N6, the computer refers to the complexity of each sub-content data set in advance, and the complexity recognition stage in step N5. A process of assigning a higher priority to the auxiliary information extracted from the sub-content data in which the complexity approximated by the complexity recognized in (2) is set is performed.

そして、最後のステップN7では、コンピュータが、付与された優先度に応じた優先順位に基づいて、抽出された補助情報の提示を行う補助情報提示段階が実行される。   In the final step N7, an auxiliary information presentation stage is performed in which the computer presents the extracted auxiliary information based on the priority order corresponding to the assigned priority.

<<< §7. その他の変形例 >>>
以上、本発明をいくつかの実施形態に基づいて説明したが、最後に、本発明のいくつかの変形例を述べておく。
<<< §7. Other variations >>
As mentioned above, although this invention was demonstrated based on some embodiment, finally the some modification of this invention is described.

<7−1:補助情報の形態>
図4および図5に示す実施例では、補助情報154〜156としてテキストデータによって構成される情報を用いた例を示したが、補助情報は、必ずしもテキストデータによって構成される情報である必要はなく、画像データ、動画データ、音声データによって構成される情報であってもかまわない(この場合、副コンテンツデータSが、画像データ、動画データ、音声データによって構成されることになり、何らかの検索用インデックスを付加しておくようにする。)。なお、補助情報が音声データのみによって構成される場合は、ディスプレイ150の画面上に表示されるわけではなく、スピーカなどから音として提示されることになるので、副コンテンツ表示領域150Sを表示する必要はない。
<7-1: Form of auxiliary information>
In the embodiment shown in FIG. 4 and FIG. 5, an example in which information configured by text data is used as the auxiliary information 154 to 156 is shown, but the auxiliary information does not necessarily need to be information configured by text data. May be information composed of image data, moving image data, and audio data (in this case, the sub-content data S is composed of image data, moving image data, and audio data, and some sort of search index) To be added.) When the auxiliary information is composed only of audio data, it is not displayed on the screen of the display 150, but is presented as sound from a speaker or the like, so it is necessary to display the sub-content display area 150S. There is no.

<7−2:検索合致度に基づく優先度の付与>
本発明では、まず、検索処理部142が検索用文字列Kを検索キーとして用いた検索を行い、副コンテンツデータの中から補助情報を抽出することになる。通常、このような検索用文字列Kを検索キーとして用いた検索では、検索キーに対する合致度が所定の基準以上の補助情報が、ヒットした補助情報として抽出されることになる。
<7-2: Giving priority based on search match>
In the present invention, first, the search processing unit 142 performs a search using the search character string K as a search key, and extracts auxiliary information from the sub-content data. Normally, in such a search using the search character string K as a search key, auxiliary information whose degree of match with the search key is a predetermined standard or more is extracted as hit auxiliary information.

たとえば、図3に示す例のように5つの単語が検索用文字列Kとして設定されていた場合、これら5つの単語を検索キーとする検索が行われることになるので、1つの単語についてのみ合致した補助情報もあれば、複数の単語について合致した補助情報もある。そして、1つの単語でも合致した場合にヒットした補助情報として抽出することもできれば、2つ以上の単語が合致した場合にのみヒットした補助情報として抽出することもできる。この場合、合致した単語の数を合致度として把握することができる。   For example, when five words are set as the search character string K as in the example shown in FIG. 3, a search is performed using these five words as a search key, and therefore only one word is matched. Some auxiliary information is matched, and some auxiliary information is matched for a plurality of words. Then, it can be extracted as auxiliary information that is hit when even one word is matched, or it can be extracted as auxiliary information that is hit only when two or more words are matched. In this case, the number of matched words can be grasped as the degree of matching.

このように、合致度が把握可能な態様で検索が行われた場合、優先度付与部144は、検索処理時の合致度の高い補助情報に、より高い優先度を付与することも可能である。すなわち、色や複雑度に基づく優先度に加えて、検索時の合致度に基づく優先度が付加されることになる。もちろん、各検索用文字列Kに重み付けが行われていた場合、検索処理部142は、当該重み付けを考慮した検索を行い、ヒットした補助情報に当該重み付けに基づく優先度を付与することも可能である。   As described above, when the search is performed in such a manner that the degree of match can be grasped, the priority assigning unit 144 can also give a higher priority to auxiliary information having a high degree of match at the time of search processing. . That is, in addition to the priority based on the color and the complexity, a priority based on the matching degree at the time of search is added. Of course, when each search character string K is weighted, the search processing unit 142 can perform a search in consideration of the weighting, and can give priority to the hit auxiliary information based on the weighting. is there.

<7−3:ユーザによる難易度設定>
§4で説明した第2の実施形態および§5で説明した第3の実施形態では、複雑度Cを考慮した優先度付与が行われるが、このように複雑度Cを考慮した取り扱いを行う実施形態の場合、指示入力部120に、提示される補助情報について、希望する難易度を設定するユーザの指示を入力する機能をもたせておき、ユーザの希望に応じた難易度に該当する補助情報が優先的に提示されるようにすることも可能である。
<7-3: Difficulty level setting by user>
In the second embodiment described in §4 and the third embodiment described in §5, the priority is given in consideration of the complexity C, and thus the operation in which the complexity C is taken into consideration is performed. In the case of the form, the instruction input unit 120 is provided with a function of inputting a user instruction for setting a desired difficulty level for the auxiliary information to be presented, and auxiliary information corresponding to the difficulty level according to the user's desire is provided. It is also possible to present it with priority.

たとえば、ユーザが博識をもった大人である場合には、指示入力部120に対して、予め「難」を示す難易度設定を行っておくようにし、ユーザが子供である場合には、指示入力部120に対して、予め「易」を示す難易度設定を行っておくようにする。これらの難易度設定は、提示される補助情報に対してユーザが希望する難易度を示す情報であり、「難」を示す難易度設定は、ユーザが高度な知識を必要とする、難しい内容の補助情報を希望していることを示し、「易」を示す難易度設定は、ユーザが高度な知識を必要としない、易しい内容の補助情報を希望していることを示している。   For example, when the user is an adult with knowledge, the difficulty level setting indicating “difficult” is set in advance in the instruction input unit 120. When the user is a child, the instruction input is performed. The difficulty level setting indicating “easy” is set in advance for the unit 120. These difficulty level settings are information indicating the difficulty level desired by the user with respect to the presented auxiliary information, and the difficulty level settings indicating “difficulty” are difficult contents that require advanced knowledge by the user. The difficulty level setting indicating that the auxiliary information is desired and indicating “easy” indicates that the user desires auxiliary information with easy contents that does not require advanced knowledge.

そして、第2の実施形態の場合は、優先度付与部144Aが、設定された難易度が難を示しているほど、より複雑度が高いカテゴリーに所属する副コンテンツデータから抽出された補助情報に、より高い優先度を付与するようにする。また、第3の実施形態の場合は、優先度付与部144Bが、設定された難易度が難を示しているほど、より高い複雑度が設定されている副コンテンツデータから抽出された補助情報に、より高い優先度を付与するようにする。そうすれば、上例の大人のユーザに対しては、より複雑度が高い補助情報が優先的に提示されるようになり、上例の子供のユーザに対しては、より複雑度が低い補助情報が優先的に提示されるようになる。すなわち、ユーザが希望する難易度に応じた適切な補助情報を優先的に提示できるようになる。   And in the case of 2nd Embodiment, 144 A of priority provision parts are added to the auxiliary information extracted from the subcontent data which belongs to the category with higher complexity, so that the set difficulty level has shown difficulty. To give higher priority. Further, in the case of the third embodiment, the priority assigning unit 144B displays the auxiliary information extracted from the sub-content data set with a higher complexity as the set difficulty level indicates difficulty. To give higher priority. As a result, auxiliary information with higher complexity is preferentially presented to the adult user of the above example, and auxiliary information with lower complexity is provided to the user of the upper example. Information is presented preferentially. That is, appropriate auxiliary information according to the degree of difficulty desired by the user can be preferentially presented.

100:本発明の第1の実施形態に係るコンテンツ表示装置
100A:本発明の第2の実施形態に係るコンテンツ表示装置
100B:本発明の第3の実施形態に係るコンテンツ表示装置
110:主コンテンツデータ格納部
120:指示入力部
130:主コンテンツ表示処理部
140:副コンテンツ提示処理部
141:検索用文字列認識部
142:検索処理部
143:色認識部
144,144A,144B:優先度付与部
145,145A:関連性情報格納部
146:補助情報提示処理部
147:複雑度認識部
150:ディスプレイ
150M:主コンテンツ表示領域
150S:副コンテンツ表示領域
151:主コンテンツを構成するテキスト本文
152:主コンテンツを構成する画像(対象画像)
153:音声提示ボタン
154〜156:補助情報(副コンテンツ)
160:副コンテンツデータ格納部
A:音声データ
C:円周
C1〜C5:副コンテンツデータのカテゴリー/色の分布範囲を示す閉領域・閉区間
E1〜E5:絵柄の部分領域
F:ユーザの指
G1〜G5:各閉領域の参照点(重心点)
H:色相値
K:検索用文字列
L3〜L8:2点間のユークリッド距離
M1〜M3:主コンテンツデータ
N1〜N7:流れ図の各ステップ
P:画像データ
P1〜P8:三次元色空間上での点
Q,Q1〜Q9:認識点
r:円周の半径
S:彩度値
S1〜S13:副コンテンツデータ
T:テキストデータ
V:明度値
100: Content display device 100A according to the first embodiment of the present invention: Content display device 100B according to the second embodiment of the present invention: Content display device 110 according to the third embodiment of the present invention: Main content data Storage unit 120: Instruction input unit 130: Main content display processing unit 140: Sub content presentation processing unit 141: Search character string recognition unit 142: Search processing unit 143: Color recognition units 144, 144A, 144B: Priority giving unit 145 145A: Relevance information storage unit 146: Auxiliary information presentation processing unit 147: Complexity recognition unit 150: Display 150M: Main content display area 150S: Sub content display area 151 1: Text body constituting main content 152: Main content Constituent image (target image)
153: Voice presentation buttons 154 to 156: Auxiliary information (sub-contents)
160: Sub-content data storage unit A: Audio data C: Circumference C1-C5: Closed area / closed section E1-E5 indicating the category / color distribution range of the sub-content data F: User's finger G1 -G5: Reference point (centroid point) of each closed region
H: Hue value K: Search character string L3 to L8: Euclidean distance between two points M1 to M3: Main content data N1 to N7: Steps in flowchart P: Image data P1 to P8: Three-dimensional color space Points Q, Q1 to Q9: Recognition point r: Circumference radius S: Saturation value S1 to S13: Sub-content data T: Text data V: Lightness value

Claims (26)

画像を含む主コンテンツの内容を表示するとともに、表示中の主コンテンツ内の画像に関連した補助情報を副コンテンツから検索し、検索された補助情報を提示する機能をもったコンテンツ表示装置であって、
検索用文字列が付された画像データを含む主コンテンツデータを格納する主コンテンツデータ格納部と、
それぞれ異なるカテゴリーに所属する複数の副コンテンツデータを格納する副コンテンツデータ格納部と、
ユーザの指示を入力する指示入力部と、
コンテンツの内容を表示するディスプレイと、
前記ユーザの指示に基づいて、前記主コンテンツデータ格納部に格納されている主コンテンツデータの所定部分を前記ディスプレイの画面に主コンテンツとして表示する主コンテンツ表示処理部と、
前記ユーザの指示に基づいて、前記ディスプレイの画面に表示されている主コンテンツ内の特定の対象画像に関連した補助情報を前記複数の副コンテンツデータから検索する検索処理を実行し、検索処理の結果として得られた補助情報を副コンテンツとして提示する副コンテンツ提示処理部と、
を備え、
前記副コンテンツ提示処理部は、
前記対象画像に付されている検索用文字列を認識する検索用文字列認識部と、
認識した検索用文字列を検索キーとして用いて、前記複数の副コンテンツデータに対する検索処理を実行し、ヒットした補助情報を抽出する検索処理部と、
個々のカテゴリーと色との関連性を示す関連性情報を格納した関連性情報格納部と、
前記対象画像について色を認識する色認識部と、
前記色認識部が認識した色に基づいて前記関連性情報を参照し、より関連性の高いカテゴリーに所属する副コンテンツデータから抽出された補助情報に、より高い優先度を付与する優先度付与部と、
付与された優先度に応じた優先順位に基づいて、抽出された補助情報の提示を行う補助情報提示処理部と、
を有することを特徴とするコンテンツ表示装置。
A content display device having a function of displaying contents of main content including an image, searching auxiliary information related to an image in the main content being displayed from sub-contents, and presenting the searched auxiliary information ,
A main content data storage unit for storing main content data including image data to which a search character string is attached;
A sub content data storage unit for storing a plurality of sub content data belonging to different categories,
An instruction input unit for inputting user instructions;
A display that displays the content, and
A main content display processing unit that displays a predetermined portion of main content data stored in the main content data storage unit as main content on the screen of the display based on an instruction from the user;
Based on the user's instruction, a search process for searching auxiliary information related to a specific target image in the main content displayed on the display screen from the plurality of sub-content data is executed, and the result of the search process A sub-contents presentation processing unit that presents the auxiliary information obtained as sub-contents,
With
The sub-content presentation processing unit
A search character string recognition unit for recognizing the search character string attached to the target image;
A search processing unit that performs a search process on the plurality of sub-content data using the recognized search character string as a search key, and extracts auxiliary information that has been hit;
A relevance information storage unit that stores relevance information indicating the relevance between individual categories and colors;
A color recognition unit for recognizing a color of the target image;
A priority assigning unit that refers to the relevance information based on the color recognized by the color recognizing unit and gives higher priority to auxiliary information extracted from sub-content data belonging to a more relevant category When,
An auxiliary information presentation processing unit for presenting the extracted auxiliary information based on the priority order according to the given priority;
A content display device comprising:
請求項1に記載のコンテンツ表示装置において、
関連性情報格納部が、個々のカテゴリーについて、色相値、彩度値、明度値のうちのいずれか1つの値の分布範囲もしくはこれらの値の組み合わせの分布範囲を対応づけた関連性情報を格納しており、
色認識部が、対象画像についての代表色を、色相値、彩度値、明度値のうちのいずれか1つの代表値もしくはその組み合わせとして認識し、
優先度付与部が、個々のカテゴリーに対応づけられた色相値、彩度値、明度値の分布範囲もしくはこれらの値の組み合わせの分布範囲と、色認識部が認識した色相値、彩度値、明度値の代表値もしくはその組み合わせと、を比較し、両者の近似度に応じた優先度を付与することを特徴とするコンテンツ表示装置。
The content display device according to claim 1,
The relevance information storage unit stores relevance information that associates the distribution range of any one of hue value, saturation value, and lightness value or the combination range of these values for each category. And
The color recognition unit recognizes the representative color for the target image as one representative value of a hue value, a saturation value, and a lightness value or a combination thereof,
The priority assigning unit has a hue range, saturation value, brightness value distribution range associated with each category, or a combination range of these values, and a hue value, saturation value, A content display device characterized by comparing a representative value of brightness values or a combination thereof and assigning a priority according to the degree of approximation between the two.
請求項2に記載のコンテンツ表示装置において、
関連性情報格納部が、個々のカテゴリーについて、彩度値、明度値、色相値の組み合わせの分布範囲を対応づけた関連性情報を含み、
色認識部が、対象画像について、彩度の代表値、明度の代表値、色相の代表値を認識し、
優先度付与部が、個々のカテゴリーに対応づけられた彩度値、明度値、色相値の組み合わせの分布範囲と、色認識部が認識した彩度の代表値、明度の代表値、色相の代表値の組み合わせと、を比較し、両者の近似度に応じた優先度を付与することを特徴とするコンテンツ表示装置。
The content display device according to claim 2,
The relevance information storage unit includes relevance information that associates the distribution range of combinations of saturation value, lightness value, and hue value for each category,
The color recognition unit recognizes the representative value of saturation, the representative value of brightness, and the representative value of hue for the target image,
The priority assigning unit has a distribution range of combinations of saturation values, lightness values, and hue values associated with individual categories, and the representative value of saturation, the representative value of lightness, and the representative of hue recognized by the color recognition unit A content display device that compares a combination of values and gives a priority according to the degree of approximation between the two.
請求項3に記載のコンテンツ表示装置において、
関連性情報格納部が、基準座標軸上の位置を明度値、前記基準座標軸からの距離を彩度値、前記基準座標軸まわりの角度を色相値とする三次元色空間上に個々のカテゴリーに対応する閉領域をマッピングしたマッピング情報を関連性情報として格納し、
優先度付与部が、色認識部が認識した色を、前記三次元色空間上に、彩度の代表値、明度の代表値、色相の代表値をそれぞれ座標値とする認識点としてプロットし、プロットされた認識点とマッピングされた個々の閉領域との位置関係に基づいて優先度を付与することを特徴とするコンテンツ表示装置。
The content display device according to claim 3,
The relevance information storage unit corresponds to each category in a three-dimensional color space in which a position on a reference coordinate axis is a brightness value, a distance from the reference coordinate axis is a saturation value, and an angle around the reference coordinate axis is a hue value. Store the mapping information mapping the closed area as relevance information,
The priority assigning unit plots the color recognized by the color recognition unit on the three-dimensional color space as a recognition point having a representative value of saturation, a representative value of brightness, and a representative value of hue as coordinate values, A content display device, wherein a priority is given based on a positional relationship between a plotted recognition point and each mapped closed region.
請求項2に記載のコンテンツ表示装置において、
関連性情報格納部が、個々のカテゴリーについて、彩度値と明度値との組み合わせの分布範囲を対応づけた関連性情報を含み、
色認識部が、対象画像について、彩度の代表値および明度の代表値を認識し、
優先度付与部が、個々のカテゴリーに対応づけられた彩度値と明度値との組み合わせの分布範囲と、色認識部が認識した彩度の代表値と明度の代表値との組み合わせと、を比較し、両者の近似度に応じた優先度を付与することを特徴とするコンテンツ表示装置。
The content display device according to claim 2,
The relevance information storage unit includes relevance information that associates distribution ranges of combinations of saturation values and lightness values for each category,
The color recognition unit recognizes a representative value of saturation and a representative value of brightness for the target image,
The priority assigning unit determines the distribution range of the combination of the saturation value and the lightness value associated with each category, and the combination of the representative value of the saturation and the representative value of the lightness recognized by the color recognition unit. A content display device that compares and assigns a priority according to the degree of approximation between the two.
請求項5に記載のコンテンツ表示装置において、
関連性情報格納部が、第1の座標軸に彩度値、第2の座標軸に明度値をとった二次元色平面上に個々のカテゴリーに対応する閉領域をマッピングしたマッピング情報を関連性情報として格納し、
優先度付与部が、色認識部が認識した色を、前記二次元色平面上に、彩度の代表値と明度の代表値とをそれぞれ座標値とする認識点としてプロットし、プロットされた認識点とマッピングされた個々の閉領域との位置関係に基づいて優先度を付与することを特徴とするコンテンツ表示装置。
The content display device according to claim 5,
Relevance information storage unit uses mapping information obtained by mapping closed areas corresponding to individual categories on a two-dimensional color plane having a saturation value on the first coordinate axis and a lightness value on the second coordinate axis. Store and
The priority assigning unit plots the color recognized by the color recognition unit on the two-dimensional color plane as a recognition point having a representative value of saturation and a representative value of brightness as coordinate values, respectively, and plotted recognition A content display device characterized in that a priority is given based on a positional relationship between a point and each mapped closed region.
請求項2〜6のいずれかに記載のコンテンツ表示装置において、
色認識部が、対象画像についての代表色を、当該対象画像を構成する各部の色相値、彩度値、もしくは明度値の面積を考慮した重み付け平均値、またはその組み合わせとして認識することを特徴とするコンテンツ表示装置。
In the content display apparatus in any one of Claims 2-6,
The color recognition unit recognizes the representative color of the target image as a weighted average value considering the hue value, saturation value, or brightness value area of each unit constituting the target image, or a combination thereof. Content display device.
請求項1に記載のコンテンツ表示装置において、
副コンテンツ提示処理部が、対象画像について複雑度を認識する複雑度認識部を更に有し、
関連性情報格納部が、個々のカテゴリーと色との関連性とともに個々のカテゴリーと複雑度との関連性を示す関連性情報を格納しており、
優先度付与部が、色認識部が認識した色と、複雑度認識部が認識した複雑度と、の双方に基づいて前記関連性情報を参照し、より関連性の高いカテゴリーに所属する副コンテンツデータから抽出された補助情報に、より高い優先度を付与することを特徴とするコンテンツ表示装置。
The content display device according to claim 1,
The secondary content presentation processing unit further includes a complexity recognition unit that recognizes the complexity of the target image,
The relevance information storage unit stores relevance information indicating the relevance between individual categories and color as well as the relevance between individual categories and colors.
A sub-content belonging to a category with higher relevance by the priority giving unit referring to the relevance information based on both the color recognized by the color recognizing unit and the complexity recognized by the complexity recognizing unit A content display device, wherein higher priority is given to auxiliary information extracted from data.
請求項8に記載のコンテンツ表示装置において、
関連性情報格納部が、個々のカテゴリーについて、彩度値、明度値、複雑度の組み合わせの分布範囲を対応づけた関連性情報を格納しており、
色認識部が、対象画像について、彩度の代表値および明度の代表値を認識し、
優先度付与部が、個々のカテゴリーに対応づけられた彩度値、明度値、複雑度の組み合わせの分布範囲と、色認識部が認識した彩度の代表値、色認識部が認識した明度の代表値、複雑度認識部が認識した複雑度の組み合わせと、を比較し、両者の近似度に応じた優先度を付与することを特徴とするコンテンツ表示装置。
The content display device according to claim 8,
The relevance information storage unit stores relevance information that associates the distribution range of the combination of saturation value, lightness value, and complexity for each category,
The color recognition unit recognizes a representative value of saturation and a representative value of brightness for the target image,
The priority assigning unit has a distribution range of combinations of saturation value, lightness value, and complexity associated with each category, a representative value of saturation recognized by the color recognition unit, and a lightness value recognized by the color recognition unit. A content display device that compares a representative value and a combination of complexity recognized by a complexity recognition unit and assigns a priority according to the degree of approximation of both.
請求項9に記載のコンテンツ表示装置において、
関連性情報格納部が、第1の座標軸に彩度値、第2の座標軸に明度値、第3の座標軸に複雑度をとった三次元空間上に個々のカテゴリーに対応する閉領域をマッピングしたマッピング情報を関連性情報として格納し、
優先度付与部が、色認識部が認識した色および複雑度認識部が認識した複雑度を、前記三次元空間上に、彩度の代表値、明度の代表値、複雑度をそれぞれ座標値とする認識点としてプロットし、プロットされた認識点とマッピングされた個々の閉領域との位置関係に基づいて優先度を付与することを特徴とするコンテンツ表示装置。
The content display device according to claim 9,
The relevance information storage unit maps closed regions corresponding to individual categories on a three-dimensional space having a saturation value on the first coordinate axis, a lightness value on the second coordinate axis, and a complexity on the third coordinate axis. Store mapping information as relevance information,
The priority assigning unit displays the color recognized by the color recognizing unit and the complexity recognized by the complexity recognizing unit on the three-dimensional space as a representative value of saturation, a representative value of lightness, and a complexity as coordinate values, respectively. A content display device characterized in that a priority is given based on the positional relationship between the plotted recognition points and the mapped individual closed regions.
請求項4、6、10のいずれかに記載のコンテンツ表示装置において、
優先度付与部が、各カテゴリーに対応する閉領域が認識点を含むか否かを判定し、認識点を含む閉領域に対応するカテゴリーに所属する副コンテンツデータから抽出された補助情報に対して、より高い優先度を付与することを特徴とするコンテンツ表示装置。
The content display device according to claim 4,
The priority assigning unit determines whether or not the closed region corresponding to each category includes a recognition point, and the auxiliary information extracted from the sub-content data belonging to the category corresponding to the closed region including the recognition point A content display device characterized by giving higher priority.
請求項4、6、10、11のいずれかに記載のコンテンツ表示装置において、
優先度付与部が、各カテゴリーに対応する閉領域について定義される所定の参照点と認識点との間のユークリッド距離を計算し、相互間距離の小さい閉領域に対応するカテゴリーに所属する副コンテンツデータから抽出された補助情報に対して、より高い優先度を付与することを特徴とするコンテンツ表示装置。
The content display device according to any one of claims 4, 6, 10, and 11,
A sub-content belonging to a category corresponding to a closed region with a small mutual distance by the priority assigning unit calculating a Euclidean distance between a predetermined reference point defined for the closed region corresponding to each category and a recognition point. A content display device, wherein higher priority is given to auxiliary information extracted from data.
請求項12に記載のコンテンツ表示装置において、
優先度付与部が、個々の閉領域について、その重心点を参照点と定義することを特徴とするコンテンツ表示装置。
The content display device according to claim 12,
A content display apparatus, wherein the priority assigning unit defines the center of gravity of each closed region as a reference point.
請求項1に記載のコンテンツ表示装置において、
副コンテンツ提示処理部が、対象画像について複雑度を認識する複雑度認識部を更に有し、
副コンテンツデータ格納部に格納されている個々の副コンテンツデータには、それぞれ所定の複雑度が設定されており、
優先度付与部が、複雑度認識部が認識した複雑度により近似する複雑度が設定されている副コンテンツデータから抽出された補助情報に、より高い優先度を付与することを特徴とするコンテンツ表示装置。
The content display device according to claim 1,
The secondary content presentation processing unit further includes a complexity recognition unit that recognizes the complexity of the target image,
Each sub-content data stored in the sub-content data storage unit is set with a predetermined complexity,
A content display in which the priority assigning unit assigns a higher priority to the auxiliary information extracted from the sub-content data in which the complexity approximated by the complexity recognized by the complexity recognizing unit is set. apparatus.
請求項8〜10、14のいずれかに記載のコンテンツ表示装置において、
複雑度認識部が、対象画像の空間周波数を検出する機能を有し、検出された空間周波数値に応じた値を複雑度として認識することを特徴とするコンテンツ表示装置。
In the content display apparatus in any one of Claims 8-10, 14,
A content display device, wherein the complexity recognition unit has a function of detecting a spatial frequency of a target image, and recognizes a value corresponding to the detected spatial frequency value as a complexity.
請求項8〜10、14のいずれかに記載のコンテンツ表示装置において、
複雑度認識部が、幾何学図形の集合体によって構成される対象画像について、予め個々の幾何学図形に対応づけて定義されたポイントを集計する機能を有し、ポイントの集計値を複雑度として認識することを特徴とするコンテンツ表示装置。
In the content display apparatus in any one of Claims 8-10, 14,
The complexity recognition unit has the function of counting points defined in advance in association with individual geometric figures for the target image composed of a collection of geometric figures. A content display device characterized by recognition.
請求項8〜10、14〜16のいずれかに記載のコンテンツ表示装置において、
指示入力部が、提示される補助情報について希望する難易度を設定するユーザの指示を入力する機能を有し、
優先度付与部が、前記難易度が難を示しているほど、より複雑度が高いカテゴリーに所属する副コンテンツデータもしくはより高い複雑度が設定されている副コンテンツデータから抽出された補助情報に、より高い優先度を付与することを特徴とするコンテンツ表示装置。
In the content display apparatus in any one of Claims 8-10 and 14-16,
The instruction input unit has a function of inputting a user instruction to set a desired difficulty level for the auxiliary information to be presented,
In the auxiliary information extracted from the sub-content data belonging to the category with higher complexity or the sub-content data set with higher complexity, the priority assigning unit indicates the difficulty level, A content display device characterized by giving a higher priority.
請求項1〜17のいずれかに記載のコンテンツ表示装置において、
検索処理部が、検索キーに対する合致度が所定の基準以上の補助情報を、ヒットした補助情報として抽出する検索処理を実行し、
優先度付与部が、前記合致度の高い補助情報に、より高い優先度を付与することを特徴とするコンテンツ表示装置。
The content display device according to any one of claims 1 to 17,
The search processing unit executes a search process for extracting auxiliary information whose degree of match with the search key is equal to or higher than a predetermined reference as hit auxiliary information,
A content display device, wherein a priority assigning unit assigns a higher priority to the auxiliary information having a high degree of match.
請求項1〜18のいずれかに記載のコンテンツ表示装置において、
補助情報提示処理部が、検索処理部によって抽出された補助情報のうち、その優先順位に基づいて、上位n番目以内(nは、所定の自然数)の補助情報のみを提示することを特徴とするコンテンツ表示装置。
The content display device according to any one of claims 1 to 18,
The auxiliary information presentation processing unit presents only auxiliary information within the top nth (n is a predetermined natural number) based on the priority among the auxiliary information extracted by the search processing unit. Content display device.
請求項19に記載のコンテンツ表示装置において、
検索処理部が、関連性の高いカテゴリーから関連性の低いカテゴリーの順に、副コンテンツデータに対する検索処理を実行し、上位n番目の補助情報が抽出された時点で、以後の検索処理を中止することを特徴とするコンテンツ表示装置。
The content display device according to claim 19,
The search processing unit executes the search processing for the sub-content data in the order from the highly relevant category to the less relevant category, and stops the subsequent search processing when the top nth auxiliary information is extracted. A content display device characterized by the above.
請求項1〜20のいずれかに記載のコンテンツ表示装置において、
補助情報提示処理部が、提示対象となる補助情報が複数存在する場合に、その優先順位に基づいた配置順もしくは時間順に従って、これら複数の補助情報の提示を行うことを特徴とするコンテンツ表示装置。
The content display device according to any one of claims 1 to 20,
When the auxiliary information presentation processing unit has a plurality of auxiliary information to be presented, the content display device presents the plurality of auxiliary information according to an arrangement order or a time order based on the priority order. .
請求項1〜21のいずれかに記載のコンテンツ表示装置において、
指示入力部が、ディスプレイの画面上の指示点を指定するユーザの指示を入力する機能を有し、
副コンテンツ提示処理部が、前記指示点近傍に表示されていた画像を対象画像として認識し、当該対象画像に関連した補助情報の提示を行うことを特徴とするコンテンツ表示装置。
The content display device according to any one of claims 1 to 21,
The instruction input unit has a function of inputting a user instruction to specify an instruction point on the display screen,
A content display apparatus, wherein the sub-content presentation processing unit recognizes an image displayed in the vicinity of the designated point as a target image and presents auxiliary information related to the target image.
請求項1〜22のいずれかに記載のコンテンツ表示装置としてコンピュータを機能させるプログラム。   A program causing a computer to function as the content display device according to any one of claims 1 to 22. 画像を含む主コンテンツの内容を表示するとともに、表示中の主コンテンツ内の画像に関連した補助情報を副コンテンツから検索し、検索された補助情報を提示するコンテンツ表示方法であって、
コンピュータが、ユーザの指示に基づいて、主コンテンツの所定部分をディスプレイの画面に表示する主コンテンツ表示段階と、
コンピュータが、ユーザの指示に基づいて、前記ディスプレイの画面に表示されている主コンテンツ内の特定の画像を対象画像として認識するとともに、当該対象画像に付されている検索用文字列を認識する対象認識段階と、
コンピュータが、認識した検索用文字列を検索キーとして用いて、それぞれ異なるカテゴリーに所属する複数の副コンテンツデータに対する検索処理を実行し、ヒットした補助情報を抽出する検索処理段階と、
コンピュータが、前記対象画像について色を認識する色認識段階と、
コンピュータが、予め定義されている個々のカテゴリーと色との関連性を示す関連性情報を参照し、より関連性の高いカテゴリーに所属する副コンテンツデータから抽出された補助情報に、より高い優先度を付与する優先度付与段階と、
コンピュータが、付与された優先度に応じた優先順位に基づいて、抽出された補助情報の提示を行う補助情報提示段階と、
を有することを特徴とするコンテンツ表示方法。
A content display method for displaying contents of main content including an image, searching auxiliary information related to an image in the main content being displayed from sub-contents, and presenting the searched auxiliary information,
A main content display stage in which a computer displays a predetermined portion of the main content on a display screen based on a user instruction;
The computer recognizes a specific image in the main content displayed on the screen of the display as a target image and recognizes a search character string attached to the target image based on a user instruction The recognition stage;
A search processing stage in which the computer executes a search process for a plurality of sub-content data belonging to different categories, using the recognized search character string as a search key, and extracts the hit auxiliary information;
A color recognition stage in which a computer recognizes a color of the target image;
The computer refers to the relevance information that indicates the relevance between individual categories and colors, and the auxiliary information extracted from the sub-content data belonging to the more relevant category has a higher priority. A priority granting stage for granting
An auxiliary information presentation stage in which the computer presents the extracted auxiliary information based on the priority order according to the given priority;
A content display method characterized by comprising:
請求項24に記載のコンテンツ表示方法において、
コンピュータが、対象画像について複雑度を認識する複雑度認識段階を更に有し、
優先度付与段階において、コンピュータが、予め定義されている個々のカテゴリーと色との関連性および個々のカテゴリーと複雑度との関連性を示す関連性情報を参照し、より関連性の高いカテゴリーに所属する副コンテンツデータから抽出された補助情報に、より高い優先度を付与することを特徴とするコンテンツ表示方法。
The content display method according to claim 24, wherein
The computer further comprises a complexity recognition stage for recognizing the complexity of the target image;
In the prioritization stage, the computer looks at the relevance information that shows the association between each predefined category and color, and the association between each category and complexity, and makes the category more relevant A content display method, wherein higher priority is given to auxiliary information extracted from sub-content data to which the user belongs.
請求項24に記載のコンテンツ表示方法において、
コンピュータが、対象画像について複雑度を認識する複雑度認識段階を更に有し、
優先度付与段階において、コンピュータが、予め設定されている個々の副コンテンツデータの複雑度を参照し、前記複雑度認識段階で認識した複雑度により近似する複雑度が設定されている副コンテンツデータから抽出された補助情報に、より高い優先度を付与することを特徴とするコンテンツ表示方法。
The content display method according to claim 24, wherein
The computer further comprises a complexity recognition stage for recognizing the complexity of the target image;
In the priority assignment stage, the computer refers to the complexity of each sub-content data set in advance, and from the sub-content data in which the complexity approximated by the complexity recognized in the complexity recognition stage is set A content display method, wherein higher priority is given to extracted auxiliary information.
JP2012072984A 2012-03-28 2012-03-28 Content display device Expired - Fee Related JP5849815B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012072984A JP5849815B2 (en) 2012-03-28 2012-03-28 Content display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012072984A JP5849815B2 (en) 2012-03-28 2012-03-28 Content display device

Publications (2)

Publication Number Publication Date
JP2013206030A JP2013206030A (en) 2013-10-07
JP5849815B2 true JP5849815B2 (en) 2016-02-03

Family

ID=49525062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012072984A Expired - Fee Related JP5849815B2 (en) 2012-03-28 2012-03-28 Content display device

Country Status (1)

Country Link
JP (1) JP5849815B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6656570B2 (en) * 2015-07-13 2020-03-04 国立大学法人 筑波大学 Cross-modal sensory analysis system, presentation information determination system, information presentation system, cross-modal sensory analysis program, presentation information determination program, and information presentation program
CN114875822B (en) * 2022-05-09 2024-01-12 安徽旗首科技有限公司 Electronic information display equipment based on internet of things

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4650103B2 (en) * 2005-05-26 2011-03-16 ソニー株式会社 Electronic book display device, information processing method, recording medium, and program
JP2009116530A (en) * 2007-11-05 2009-05-28 Sharp Corp Electronic apparatus, its control method, and computer program
JP2011221605A (en) * 2010-04-05 2011-11-04 Sony Corp Information processing apparatus, information processing method and program

Also Published As

Publication number Publication date
JP2013206030A (en) 2013-10-07

Similar Documents

Publication Publication Date Title
US9990377B1 (en) Content based systems and methods for conducting spectrum color based image search
US10691744B2 (en) Determining affiliated colors from keyword searches of color palettes
US9792303B2 (en) Identifying data from keyword searches of color palettes and keyword trends
US10073860B2 (en) Generating visualizations from keyword searches of color palettes
US9898487B2 (en) Determining color names from keyword searches of color palettes
US9922050B2 (en) Identifying data from keyword searches of color palettes and color palette trends
JP4341408B2 (en) Image display method and apparatus
US8606775B2 (en) Graphically representing associations between referents and stories
US9940745B2 (en) Image manipulation for electronic display
US20150379005A1 (en) Identifying data from keyword searches of color palettes
JP2014130408A (en) Graph preparation program, information processing device, and graph preparation method
EP1665085A2 (en) Method and apparatus for indexing and searching graphic elements
CN102902807A (en) Visual search using a pluraligy of visual input modal
JP2011221606A (en) Information processing method and graphical user interface
US20230169700A1 (en) Systems and methods for automatically recolouring a design
JP2011221605A (en) Information processing apparatus, information processing method and program
CN103678593B (en) A kind of interactive space scene search method described based on spatial scene sketch
US20150371411A1 (en) Computerized systems and methods for rendering a user interface element
JP5849815B2 (en) Content display device
JP6572746B2 (en) Information processing apparatus and program
US8615513B2 (en) Graphically representing associations between referents and points in a story
JP2017129901A (en) Book search apparatus, method, and program
KR20200065685A (en) Auto design generation method and apparatus for online electronic commerce shopping mall
JP6623597B2 (en) Information processing device and program
CN106547891A (en) For the quick visualization method of the pictured text message of palm display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150123

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151030

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151117

R150 Certificate of patent or registration of utility model

Ref document number: 5849815

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees