JP2011048527A - Sensitivity information extraction device, sensitivity retrieval device and method, and program - Google Patents

Sensitivity information extraction device, sensitivity retrieval device and method, and program Download PDF

Info

Publication number
JP2011048527A
JP2011048527A JP2009195093A JP2009195093A JP2011048527A JP 2011048527 A JP2011048527 A JP 2011048527A JP 2009195093 A JP2009195093 A JP 2009195093A JP 2009195093 A JP2009195093 A JP 2009195093A JP 2011048527 A JP2011048527 A JP 2011048527A
Authority
JP
Japan
Prior art keywords
information
search
sensitivity
expression
search target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009195093A
Other languages
Japanese (ja)
Other versions
JP5311488B2 (en
Inventor
Izumi Takahashi
いづみ 高橋
Hisako Asano
久子 浅野
Nozomi Kobayashi
のぞみ 小林
Yoshihiro Matsuo
義博 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009195093A priority Critical patent/JP5311488B2/en
Publication of JP2011048527A publication Critical patent/JP2011048527A/en
Application granted granted Critical
Publication of JP5311488B2 publication Critical patent/JP5311488B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To perform retrieval wherein various aspects of a retrieval target such as quality, an external characteristic, and personality are considered when performing the information retrieval by use of sensitivity representation representing an image of the retrieval target. <P>SOLUTION: In this sensitivity information extraction device, the sensitivity representation is extracted from a set of inputted texts by a retrieval target information extraction part 31, the extracted sensitivity representation is connected to the retrieval target, and sensitivity information of each aspect to the retrieval target is generated by use of a sensitivity representation DB 1 storing at least the sensitivity information to the sensitivity representation and aspect information to which the sensitivity representation belongs with the connected retrieval target and sensitivity representation as input by a sensitivity information generation part 32 and is stored in a retrieval target DB2, so that sensitivity retrieval about the aspect to which the sensitivity representation inputted as a retrieval condition becomes possible, it is avoided that an image related to the aspect entirely different from the aspect becomes noise, and retrieval accuracy can be improved. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、テキストから感性情報を抽出してデータベース化し、このデータベースを利用して情報検索を行う技術に関する。   The present invention relates to a technique for extracting sensibility information from text to form a database and performing information retrieval using this database.

現在、Web上で商品などの情報を検索する場合は、当該検索対象の名前やカテゴリ、定性的な特徴などを検索クエリ(検索条件)とする検索が主流である。自動車を例に取ると、「T社」の「セダン」、「4ドア」、色は「白」…などが検索条件となる。しかし、欲しい情報はあるが、それに対する上記のような検索条件を記述できず、「かわいい」、「上品な」などのイメージ(印象)や、それを使用した際の気分といった「感性」でしか対象を特徴付けられない場合、このような感性を直接、検索条件として検索できると便利である。しかし、現在、実用化されている感性検索では、その対象が有するイメージを表す定量的な情報(感性情報)を、検索対象毎に人手で付与しておく必要があった(例えば、非特許文献1参照)。   At present, when searching for information such as a product on the Web, a search using a search query (search condition) based on the name, category, qualitative characteristics, and the like of the search target is the mainstream. Taking a car as an example, the search conditions are “sedan” of “Company T”, “4-door”, color “white”, etc. However, there is information that I want, but I can't describe the search conditions as above, but only with an image (impression) such as “cute” or “classy” or “feel” when using it. If the object cannot be characterized, it is convenient if such sensitivity can be directly searched as a search condition. However, in the Kansei search currently in practical use, it is necessary to manually add quantitative information (kansei information) representing the image of the target for each search target (for example, non-patent literature) 1).

”アマナ 写真130万点を「形容詞」で検索可能に―事例データベース:ITpro”、[online]、日経BP社、[平成21年8月14日検索]、インターネット<URL:http://itpro.nikkeibp.co.jp/article/JIREI/20070827/280366/>“Amana 1.3 million photos can be searched with“ adjectives ”-Case database: ITpro”, [online], Nikkei Business Publications, Inc., [August 14, 2009 search], Internet <URL: http: // itpro. nikkeibp.co.jp/article/JIREI/20070827/280366/ >

(1)感性検索を行うために各検索対象に対する感性情報を人手で付与するのは手間が大きいため、その作業をできるだけ省力化することが望ましい。   (1) Since it is troublesome to manually apply the sensitivity information for each search target in order to perform a sensitivity search, it is desirable to save the work as much as possible.

(2)こうした感性検索を低コストに実現する手法としては、検索対象のイメージを表す感性表現をテキストから抽出して足し合わせることで、検索対象のイメージを表現する方法が考えられる。しかし、感性表現は検索対象が有する様々な側面(外見的特長、品質、性格など)毎についてのイメージを表しており、全てを足し合わせてしまうと、却ってその特徴が鈍ってしまう可能性がある。   (2) As a technique for realizing such a Kansei search at a low cost, a method of expressing an image to be searched by extracting Kansei expressions representing the image to be searched from text and adding them together can be considered. However, Kansei expression represents the image of various aspects (appearance features, quality, personality, etc.) that the search target has, and if all of them are added together, there is a possibility that the features will be dull. .

例えば、ある検索対象のイメージを表す感性表現として「ゴージャス」と「苦い」があった場合、前者は容姿、後者は味という側面についてのイメージを表しており、これを足し合わせることで「ゴージャス」のもつ「美しい」、「派手」といったイメージが損なわれてしまい、望ましい検索結果が得られない。よって感性表現を用いて検索対象の感性情報を生成する際には、異なる側面の特徴がノイズとなることを避ける必要がある。   For example, if there are `` gorgeous '' and `` bitter '' as sensibility expressions representing an image to be searched, the former expresses the image of the appearance and the latter expresses the aspect of taste, and by adding these, `` gorgeous '' The images such as “beautiful” and “flashy” are lost, and desirable search results cannot be obtained. Therefore, it is necessary to avoid the feature of different aspects from becoming noise when the sensitivity information to be searched is generated using the sensitivity expression.

(3)また感性表現を検索条件として用いる際には、どういった感性表現を用いたかによりユーザの注目している側面が異なる。例えば「苦い」で検索した場合には検索対象の味に注目しているため、味の側面においてイメージが類似している検索対象が出力されることが望ましい。よって検索条件と検索対象との距離計算は、ユーザの注目する側面において行う必要がある。   (3) When using emotional expressions as search conditions, the aspect that the user is paying attention depends on what kind of emotional expression is used. For example, when searching for “bitter”, attention is paid to the taste of the search object, so it is desirable to output a search object whose image is similar in terms of taste. Therefore, it is necessary to calculate the distance between the search condition and the search target in the aspect that the user pays attention to.

本発明は、上記の点に鑑みなされたもので、
(1)予め検索対象のイメージ(=感性情報)を大規模なテキストの集合(コーパス)から抽出しておき、感性検索時には、検索条件として入力される感性表現の表すイメージと検索対象のイメージとの感性的な距離を利用することにより、運用コストを省力化した感性検索を行う装置および方法を提供する、
(2)感性表現を用いて検索対象の感性情報を生成する際に、感性表現が検索対象のどういった側面(外見的特長、品質、性格など)についてのイメージを表しているのか考慮する、
(3)ユーザの注目する側面においてイメージの近い検索対象を出力するため、検索条件である感性表現がどういった側面についてのイメージを表しているか考慮する、
という3つの点により、全く異なる側面に関するイメージがノイズとなることを避け、検索精度を向上させることを目的とする。
The present invention has been made in view of the above points.
(1) An image to be searched (= sensitivity information) is extracted from a large set of texts (corpus) in advance, and at the time of a sensitivity search, an image represented by a sensitivity expression input as a search condition and an image to be searched Providing an apparatus and a method for performing a sensitivity search with reduced operation costs by using the sensitivity distance of
(2) Considering what aspect of the search object (appearance features, quality, personality, etc.) represents the image of the search object when generating the sensitivity information of the search object using the sensitivity expression.
(3) In order to output a search target that is close to the image in the aspect that the user pays attention to, consider what aspect the emotional expression that is the search condition represents.
With the above three points, the object is to improve the search accuracy by avoiding the image of completely different aspects from becoming noise.

以下、検索対象や感性表現が有するイメージを定量化した情報を「感性情報」と記述する。   Hereinafter, information obtained by quantifying an image included in a search target or Kansei expression is described as “Kansei information”.

上記の課題(1)については、本発明では、検索対象に関するテキストを入力すると、テキスト解析を行って感性表現を抽出し、抽出した感性表現を用いて検索対象毎の感性情報を生成することで、検索条件として入力される感性表現と感性的に距離の近い検索対象を提示することを特徴とする。   Regarding the above problem (1), in the present invention, when text related to a search target is input, text analysis is performed to extract a sensitivity expression, and the extracted sensitivity expression is used to generate sensitivity information for each search target. The present invention is characterized by presenting a search target that is sensibly close to the emotional expression input as a search condition.

また、課題(2)については、テキストから抽出した感性表現を用いて検索対象の感性情報を生成する際に、検索対象の「外見的特長」や「品質」といった側面毎に感性情報を生成することで、異なる側面の特徴がノイズとなるのを避けることを特徴とする。   As for the problem (2), when the emotion information of the search target is generated using the emotion expression extracted from the text, the sensitivity information is generated for each aspect such as “appearance features” and “quality” of the search target. Thus, the feature of different aspects is to avoid noise.

また、課題(3)については、検索条件として感性表現を入力すると、その感性表現が表す「外見的特長」や「品質」といった側面において検索条件である感性表現と検索対象との距離計算を行うことで、ユーザの注目する側面においてイメージの類似する検索対象を出力することを特徴とする。   As for the problem (3), when a Kansei expression is input as a search condition, the distance between the Kansei expression that is the search condition and the search target is calculated in terms of “appearance features” and “quality” represented by the Kansei expression. Thus, it is characterized in that a search target similar in image is output in the aspect that the user pays attention to.

詳細には、
テキストの集合から感性情報を抽出し、検索対象データベースを作成する感性情報抽出装置であって、
感性表現に対する感性情報および当該感性表現が属する側面情報を少なくとも格納した感性表現データベースと、
入力されたテキストの集合から感性表現を抽出し、抽出した感性表現を検索対象に結び付ける検索対象情報抽出部と、
結び付けられた検索対象と感性表現とを入力とし、感性表現データベースを用いて検索対象に対する側面情報毎の感性情報を生成し、検索対象データベースに格納する感性情報生成部とを備えた感性情報抽出装置、
並びに、
検索対象に対する側面情報毎の感性情報を少なくとも格納した検索対象データベースを利用して情報検索を行う感性検索装置であって、
感性表現に対する感性情報および当該感性表現が属する側面情報を少なくとも格納した感性表現データベースと、
検索条件を受け付ける条件入力部と、
前記受け付けた検索条件と感性表現データベースとを用いて、前記検索対象データベースの前記検索条件に感性的に近い検索を行う検索部と、
前記検索結果を予め定められた形式で出力する結果出力部とを備えた感性検索装置、
を提案する。
In detail,
A sensitivity information extraction device that extracts sensitivity information from a set of texts and creates a search target database,
A sensitivity expression database storing at least the sensitivity information for the sensitivity expression and the side information to which the sensitivity expression belongs;
A search object information extraction unit that extracts a Kansei expression from a set of input texts and links the extracted Kansei expression to a search object;
Kansei information extraction device comprising a Kansei information generation unit that receives the linked search target and Kansei expression as input, generates Kansei information for each side information with respect to the search target using the Kansei expression database, and stores the Kansei information in the search target database ,
And
A sensitivity search device that performs an information search using a search target database that stores at least sensitivity information for each side information for a search target,
A sensitivity expression database storing at least the sensitivity information for the sensitivity expression and the side information to which the sensitivity expression belongs;
A condition input unit for receiving search conditions;
A search unit that performs a search close to the search condition of the search target database using the received search condition and the sensitivity expression database,
A sensitivity search device comprising a result output unit for outputting the search results in a predetermined format;
Propose.

本発明によれば、テキストから検索対象についての感性情報を抽出してデータベース化し、このデータベースを利用して感性表現と検索対象との感性的な距離の計算を行い、その距離を用いて情報検索を行うことにより、感性表現を入力するだけで結果が得られる感性的な検索が可能となるとともに、対象に関するメタデータなどを人手で付与する必要が無く、その分省力化でき、運用コストを低減できる(課題(1)の解消)。   According to the present invention, Kansei information about a search target is extracted from a text and made into a database, and the Kansei expression and the search target are calculated using this database, and information search is performed using the distance. By doing this, it is possible to perform a sensuous search that results can be obtained simply by inputting a sensibility expression, and there is no need to manually add metadata related to the target, thereby saving labor and reducing operational costs. Yes (solve the problem (1)).

また、本発明によれば、検索対象の感性情報を生成する際と、実際に感性表現を用いて検索を行う際の両方において、感性表現が検索対象のどの側面に関するものなのかを考慮することで、異なる側面の特徴がノイズとなるのを避けることができ、検索精度の向上につながる(課題(2)(3)の解消)。   Further, according to the present invention, it is necessary to consider which aspect of the search object the sensitivity expression relates to both when generating the sensitivity information of the search object and when actually performing the search using the sensitivity expression. Thus, it is possible to avoid the feature of different aspects from becoming noise, leading to improvement of search accuracy (solving problems (2) and (3)).

本発明の感性情報抽出装置および感性検索装置の概要を示す構成図The block diagram which shows the outline | summary of the Kansei information extraction apparatus and Kansei search apparatus of this invention 感性表現データベースの一例を示す説明図Explanatory drawing showing an example of Kansei expression database 検索対象データベースの一例を示す説明図Explanatory diagram showing an example of the search target database 感性情報抽出部の実施の形態の一例を示す構成図The block diagram which shows an example of embodiment of the sensitivity information extraction part 感性情報抽出部における感性情報抽出処理を示す流れ図Flow chart showing sensitivity information extraction processing in the sensitivity information extraction unit 感性検索部の実施の形態の一例を示す構成図The block diagram which shows an example of embodiment of a sensitivity search part 感性検索部における感性検索処理を示す流れ図Flow chart showing Kansei Search Process in Kansei Search Unit 感性情報抽出部での具体的な処理のようすの一例を示す説明図Explanatory drawing which shows an example of the concrete process in the sensitivity information extraction part 感性情報抽出部での具体的な処理のようすの他の例を示す説明図Explanatory drawing which shows the other example of the concrete process in the sensitivity information extraction part

以下、本発明を図示の実施の形態により詳細に説明する。   Hereinafter, the present invention will be described in detail with reference to the illustrated embodiments.

図1は本発明の感性情報抽出装置および感性検索装置の概要を示すもので、感性情報抽出装置は感性表現データベース(DB)1、検索対象データベース(DB)2および感性情報抽出部3から構成され、感性検索装置は感性表現DB1、検索対象DB2および感性検索部4から構成される。   FIG. 1 shows an outline of a sensitivity information extraction device and a sensitivity search device according to the present invention. The sensitivity information extraction device is composed of a sensitivity expression database (DB) 1, a search target database (DB) 2, and a sensitivity information extraction unit 3. The sensitivity search device includes a sensitivity expression DB 1, a search target DB 2, and a sensitivity search unit 4.

<感性表現データベース>
感性表現DB1は、感性表現に対する感性情報および当該感性表現が属する側面情報を少なくとも格納したデータベースであり、各レコードは感性表現IDと、感性情報と、側面情報とを少なくとも有する。感性表現DB1は、後述するように、感性情報抽出部3でテキストから抽出される感性表現や感性検索部4で検索条件として入力される感性表現に、感性情報および側面情報を付与するために用いられる。
<Kansei expression database>
The sensitivity expression DB 1 is a database that stores at least sensitivity information for the sensitivity expression and side information to which the sensitivity expression belongs, and each record has at least a sensitivity expression ID, sensitivity information, and side information. As described later, the sensitivity expression DB 1 is used to add sensitivity information and side information to the sensitivity expression extracted from the text by the sensitivity information extraction unit 3 and the sensitivity expression input as a search condition by the sensitivity search unit 4. It is done.

感性表現IDは、各感性表現を一意に識別するためのIDであり、例えば感性表現の標準形を用いることができる。この際、いくつかの感性表現に同じ感性表現IDを付与すれば、複数の感性表現のイメージをまとめて一つの感性情報として表現することも可能となる。   The sensitivity expression ID is an ID for uniquely identifying each sensitivity expression. For example, a standard form of the sensitivity expression can be used. At this time, if the same emotion expression ID is assigned to several emotion expressions, it is also possible to combine a plurality of images of emotion expressions and express them as one piece of sensitivity information.

感性情報は、感性表現が有するイメージを何らかの定量的な値で表したものであり、例えば感性表現同士の共起情報を用いて作成した単語ベクトルを用いても良い。   Sensitivity information represents an image of an emotional expression with some quantitative value. For example, a word vector created using co-occurrence information between the emotional expressions may be used.

側面情報は、「外見的特長」、「容姿」、「性格」など、感性表現が表すイメージの種類を示す情報であり、既存のオントロジ等の予め定めた分類体系に従い、1つの感性表現に対して少なくとも1つの側面情報を付与するものとする。   Aspect information is information that indicates the type of image represented by emotional expressions, such as “appearance features”, “appearance”, “personality”, etc., according to a predetermined classification system such as existing ontology, etc. At least one aspect information is given.

図2は感性表現データベースの一例を示すもので、本例では感性表現IDとして感性表現の標準形を用いている。また、本例では、感性情報は予め定められた次元数を有するベクトル空間の各次元の軸(感性軸)に対して予め定められた値を有する感性ベクトルとする。ここで、感性ベクトルの次元数は7であり、第一次元の軸=美しさ(より美しいほど値が大きい)、第二次元の軸=静かさ、…、第7次元の軸=強さと定めているものとする。また、本例では、側面情報として日本語語彙大系の一般名詞意味属性体系のカテゴリ(高級な,柔らかな:「品質」、明るい:「性格」など)を利用する。但し、以下の説明においては、分かり難いカテゴリ名を便宜上変更してある場合がある。   FIG. 2 shows an example of a sensitivity expression database. In this example, a standard form of sensitivity expression is used as the sensitivity expression ID. In this example, the sensitivity information is a sensitivity vector having a predetermined value for each dimension axis (sensitivity axis) in a vector space having a predetermined number of dimensions. Here, the dimension number of the sensitivity vector is 7, the first dimension axis = beauty (the value is larger as it is more beautiful), the second dimension axis = silence,..., The seventh dimension axis = strength It shall be defined. Further, in this example, a category of a general noun semantic attribute system of a large Japanese vocabulary system (high quality, soft: “quality”, bright: “personality”, etc.) is used as side information. However, in the following description, a category name that is difficult to understand may be changed for convenience.

<検索対象データベース>
検索対象DB2は、後述するように、感性情報抽出部3から出力される、検索対象に対する側面情報毎の感性情報を少なくとも格納したデータベースであり、各レコードは検索対象IDと、少なくとも1つの側面情報と、側面情報毎の感性情報とを少なくとも有する。検索対象DB2は、後述するように、感性検索部4における検索の際に感性表現DB1とともに参照され、検索結果を得るために用いられる。
<Search target database>
As will be described later, the search target DB 2 is a database that stores at least sensitivity information for each side information for the search target that is output from the sensitivity information extraction unit 3, and each record includes a search target ID and at least one side information. And sensitivity information for each side information. As will be described later, the search target DB 2 is referred to together with the sensitivity expression DB 1 when searching in the sensitivity search unit 4 and is used to obtain a search result.

検索対象IDは、各検索対象を一意に識別するためのIDであり、例えば検索対象の標準形を用いることができる。側面情報は、検索対象が有するイメージの種類を示す、感性表現DB1で用いられるものと同様な情報である。感性情報は、検索対象が有するイメージを側面情報毎に何らかの定量的な値で表したものであり、感性表現DB1と同じ表現形式を用いるものとする。   The search target ID is an ID for uniquely identifying each search target. For example, a standard form of the search target can be used. The side information is information similar to that used in the emotional expression DB 1 that indicates the type of image that the search target has. Sensitivity information is an image of a search target represented by some quantitative value for each side information, and uses the same expression format as the sensitivity expression DB1.

図3は検索対象データベース2の一例を示すもので、本例では検索対象IDとして検索対象の標準形を用いている。また、本例では、側面情報として図2の感性表現DB1の場合と同様な情報を用いている。また、本例では、感性情報として図2の感性表現DB1の感性情報と同じ次元数および軸を有する感性ベクトルを用いている。   FIG. 3 shows an example of the search target database 2. In this example, the standard form of the search target is used as the search target ID. In this example, the same information as the case of the sensitivity expression DB 1 in FIG. 2 is used as the side information. Further, in this example, a sensitivity vector having the same number of dimensions and axes as the sensitivity information of the sensitivity expression DB 1 in FIG. 2 is used as sensitivity information.

図3の「アメリカン・ショートヘア」を例に取ると、[品質][外見的特長][善意][人柄]の4つの側面情報毎にその感性情報が生成されており、これにより異なった側面のイメージが混ざるのを避けている。図3において側面情報の後に書かれている感性表現は、各側面情報に属する感性表現の例である。   Taking “American short hair” in FIG. 3 as an example, the sensibility information is generated for each of the four aspect information of [quality] [appearance features] [good faith] [personality]. To avoid mixing the images. The emotional expression written after the side information in FIG. 3 is an example of the emotional expression belonging to each side information.

<感性情報抽出部3>
感性情報抽出部3は、図示しない入力手段から直接入力され又は記憶手段から読み出されて入力され又は通信媒体を介して他の装置等から入力されたテキストの集合を入力とし、検索対象単位の感性情報を生成して検索対象DB2に出力するもので、図4に示すように検索対象情報抽出部31および感性情報生成部32からなる。
<Sensitivity information extraction unit 3>
The sensibility information extraction unit 3 receives a set of texts that are directly input from an input unit (not shown), read from a storage unit, or input from another device or the like via a communication medium. Sensitivity information is generated and output to the search target DB 2 and includes a search target information extraction unit 31 and a sensitivity information generation unit 32 as shown in FIG.

検索対象情報抽出部31は、入力されたテキストの集合から感性表現を抽出し、抽出した感性表現を検索対象に結び付けて出力する。   The search target information extraction unit 31 extracts a sensitivity expression from the set of input texts, and outputs the extracted sensitivity expression in association with the search target.

感性情報生成部32は、感性表現抽出部31で結びつけられた検索対象と感性表現とを入力とし、感性表現DB1を用いて各検索対象に対する側面情報毎の感性情報を生成し、検索対象DB2に格納する。   The sensibility information generation unit 32 receives the search object and the sensibility expression linked by the sensibility expression extraction unit 31, generates the sensibility information for each side information for each search object using the sensitivity expression DB 1, and stores it in the search object DB 2. Store.

図5は感性表現抽出部3における感性情報抽出処理の流れを示すもので、以下、その動作を詳細に説明する。   FIG. 5 shows the flow of the sensibility information extraction process in the sensibility expression extraction unit 3, and its operation will be described in detail below.

(ステップS1)検索対象情報抽出部31において、入力されたテキストの集合から、検索対象のイメージを表す感性表現を抽出し、抽出した感性表現を予め定められた方法に従って検索対象に結び付け、ステップS32へ進む。   (Step S1) The search target information extraction unit 31 extracts a sentiment expression representing the search target image from the set of input texts, and associates the extracted sentiment expression with the search target according to a predetermined method. Proceed to

感性表現とは、ある対象に関する印象や感じ方を表す、「もの静か」「かっこいい」「しっかりした」「クール」等の表現である。   Kansei expression is an expression such as “quiet”, “cool”, “solid”, “cool”, etc. that expresses the impression and feeling of a certain object.

テキストからの感性表現の抽出は、周知の形態素解析処理(単語情報を生成)を含む言語解析処理を行った後、表記、品詞、読み、単語境界等の単語情報を利用したルール等を用いたり、既存技術、例えば特開2008−140359号公報(「評価情報抽出装置、評価情報抽出方法およびそのプログラム」)記載の評価表現抽出部の処理を利用したりすることにより可能である。   Kansei expressions are extracted from texts after performing language analysis processing including well-known morphological analysis processing (generating word information) and then using rules that use word information such as notation, parts of speech, readings, word boundaries, etc. It is possible to use existing techniques, for example, the processing of the evaluation expression extraction unit described in Japanese Patent Application Laid-Open No. 2008-140359 (“Evaluation Information Extraction Device, Evaluation Information Extraction Method and Program”).

また、抽出した感性表現を検索対象に結び付ける方法としては、テキストとして明確に特定の検索対象のみについて書かれているもの(例:図鑑など)が利用できる場合は、テキスト中に出現する感性表現の全てを当該特定の検索対象に結び付けることができる。またそういったテキストが利用できない場合でも、検索対象の名称リスト(対象語リスト)があれば、当該リスト中の各検索対象について、テキスト中での当該検索対象と感性表現との共起情報や係り受け関係情報を利用する手法の他、関係抽出技術(例えば、特開2008−225565号公報「相互に関係する固有表現の組抽出装置及びその方法」)を利用するなどにより同様の処理が可能であり、任意の手法を選択することができる。   In addition, as a method of linking the extracted emotional expression to the search target, if a text that is clearly written only for a specific search target (for example, a picture book) can be used, the emotional expression that appears in the text can be used. Everything can be tied to that particular search target. Even if such text is not available, if there is a name list (target word list) to be searched, for each search target in the list, co-occurrence information and dependency between the search target and the emotional expression in the text In addition to the method of using the relationship information, the same processing can be performed by using a relationship extraction technique (for example, Japanese Patent Application Laid-Open No. 2008-225565 “Correlated Expression Combination Extraction Device and Method”). Any method can be selected.

(ステップS2)感性情報生成部32において、検索対象情報抽出部31で作成された検索対象とそれに結び付けられた感性表現とから、各感性表現の側面情報毎に検索対象の感性情報を生成し、結果を検索対象DB2へ格納する。   (Step S2) In the sensitivity information generation unit 32, from the search target created by the search target information extraction unit 31 and the emotional expression associated therewith, the sensitivity information of the search target is generated for each side information of each emotional expression, The result is stored in the search target DB2.

検索対象の感性情報は、当該検索対象に結び付けられた感性表現それぞれの感性情報と側面情報とを感性表現DB1から得て、側面情報が同じ感性情報毎(感性情報を構成する感性ベクトル毎)にその値の平均を取ることで当該側面情報の感性情報を計算し、これを全ての側面情報単位で行う。平均を取る際には、検索対象と感性表現との共起頻度などにより重み付けを行っても良い。   Sensitivity information to be searched is obtained from the sensitivity expression DB 1 for each of the sensitivity expressions associated with the search object, and for each sensitivity information having the same side information (for each sensitivity vector constituting the sensitivity information). Sensitivity information of the side information is calculated by taking the average of the values, and this is performed for all side information units. When taking the average, weighting may be performed according to the co-occurrence frequency of the search target and the emotional expression.

<感性検索部4>
感性検索部4は、図示しない入力手段から直接入力され又は記憶手段から読み出されて入力され又は通信媒体を介して他の装置等から入力された検索条件を入力とし、検索結果を出力するもので、図6に示すように条件入力部41、検索部42および結果出力部43からなる。
<Sensitivity search unit 4>
The sensibility search unit 4 inputs search conditions inputted directly from an input means (not shown), read from a storage means, or inputted from another device or the like via a communication medium, and outputs a search result. As shown in FIG. 6, it comprises a condition input unit 41, a search unit 42 and a result output unit 43.

条件入力部41は、入力された検索条件を受け付け、解釈する。   The condition input unit 41 receives and interprets the input search condition.

検索部42は、前記検索条件と感性表現DB1とを用いて、検索対象DB2の検索、ここでは検索条件に感性的に近い検索対象の検索を行う。   The search unit 42 searches the search target DB 2 using the search condition and the emotional expression DB 1, here, the search target close to the search condition.

結果出力部43は、前記検索結果を予め定められた形式で表示装置の表示画面等に出力する。   The result output unit 43 outputs the search result to a display screen of the display device in a predetermined format.

図7は感性検索部4における感性検索処理の流れを示すもので、以下、その動作を詳細に説明する。   FIG. 7 shows the flow of the sensibility search process in the sensibility search unit 4, and the operation will be described in detail below.

(ステップS11)条件入力部41において、検索条件として少なくとも1つの感性表現を取得し、S12へ進む。この際、検索条件の他に提示方法(上位X件のみ表示する、距離が設定した閾値以内である検索結果を表示する、等)を入力しても良い。   (Step S11) In the condition input unit 41, at least one sensitivity expression is acquired as a search condition, and the process proceeds to S12. At this time, in addition to the search condition, a presentation method (display only the top X items, display a search result whose distance is within a set threshold value, or the like) may be input.

検索条件の入力形式としては、様々な方法が考えられる。例えば、複数の感性表現を入力可能とすることも可能である。また、特定の用途に用いる感性検索を行うために、検索条件の一部は固定(例えば、感性表現の一つを「あっさり」に指定する等)として予め保持し、任意に入力可能な検索条件のみ、グラフィカルユーザインタフェース等を用いてユーザに入力させても良い。   Various methods are conceivable as the search condition input format. For example, it is possible to input a plurality of emotional expressions. In addition, in order to perform a sensitivity search for a specific application, a part of the search conditions is fixed in advance (for example, one of the emotional expressions is designated as “light”), and the search conditions can be arbitrarily input. Alternatively, the user may be input using a graphical user interface or the like.

以後、検索条件は1単語として説明するが、2単語以上であった場合は(S14)において全ての感性表現についての側面情報を得てその論理積をとった後、感性情報抽出部3の(S2)と同様の方法でその側面情報毎に感性情報を足し合わせ、平均を取ることで検索条件の感性情報を作成するものとする。   Hereinafter, the search condition will be described as one word. If there are two or more words, the side information about all the emotional expressions is obtained in (S14) and the logical product is obtained. It is assumed that the sensitivity information of the search condition is created by adding the sensitivity information for each aspect information in the same manner as in S2) and taking the average.

(ステップS12)検索部42において、入力された検索条件である感性表現が感性表現DB1に登録されているかないか否か調べ、登録されていればS14へ、登録されていなければS13へ進む。   (Step S12) In the search unit 42, it is checked whether or not the sentiment expression as the input search condition is registered in the sentiment expression DB1, and if it is registered, the process proceeds to S14, and if not registered, the process proceeds to S13.

(ステップS13)結果出力部43において、感性検索ができないため、結果が無いことを示すメッセージを表示する。または、代替としてWebのキーワード検索を行った結果などを表示しても良い。   (Step S <b> 13) The result output unit 43 displays a message indicating that there is no result because the sensibility search cannot be performed. Alternatively, the results of a web keyword search may be displayed as an alternative.

(ステップS14)検索部42において、感性表現DB1から、検索条件として入力された感性表現に対応する感性情報Xおよび側面情報Yを取り出し、S15へ進む。   (Step S14) In the search unit 42, the sensitivity information X and the side information Y corresponding to the sensitivity expression input as the search condition are extracted from the sensitivity expression DB 1, and the process proceeds to S15.

(ステップS15)検索対象DB2から前記側面情報Yを含むレコードを検索し、当該レコードの感性情報と前記感性情報Xとの間の距離を計算し、結果出力部43へ出力してS16へ進む。   (Step S15) A record including the side information Y is searched from the search target DB 2, the distance between the sensitivity information of the record and the sensitivity information X is calculated, output to the result output unit 43, and the process proceeds to S16.

感性情報を図2、図3のようにベクトルで表現した場合、感性的に近いかどうかを判定するための距離計算は、検索条件として入力された感性表現に対応する感性情報Xを表す感性ベクトルと検索対象DB2中の感性情報を表す感性ベクトルとの間の距離をユークリッド距離、コサイン類似度などの任意の距離尺度を用いて行うことができる。   When the sensitivity information is expressed as a vector as shown in FIG. 2 and FIG. 3, the distance calculation for determining whether it is close to the sensitivity is the sensitivity vector representing the sensitivity information X corresponding to the sensitivity expression input as a search condition. And the sensitivity vector representing the sensitivity information in the search target DB 2 can be performed using an arbitrary distance scale such as Euclidean distance and cosine similarity.

(ステップS16)結果出力部43において、距離が近いレコード順に検索対象IDその他の情報を並べて画面等に出力し、終了する。   (Step S16) In the result output unit 43, search target IDs and other information are arranged in the order of records having a short distance and output to a screen or the like, and the process ends.

以下、前述した実施の形態における具体的な処理例、ここではペットの検索を対象とした場合を例に取って詳細に説明する。なお、検索部42における検索条件と検索対象DB2に登録された検索対象との感性的な距離の計算にはコサイン距離を用いるものとする。また、検索対象情報抽出部31において使用するテキストは、(1)明確に検索対象のみについて書かれている場合と、(2)そうでない場合との両方について説明する。   Hereinafter, a specific processing example in the above-described embodiment will be described in detail by taking as an example a case of searching for a pet. Note that the cosine distance is used for the calculation of the sensibility distance between the search condition in the search unit 42 and the search target registered in the search target DB 2. The text used in the search target information extraction unit 31 will be described for both (1) a case where only the search target is clearly written and (2) a case where it is not.

<感性情報抽出部3で行う処理>
(1)テキストが検索対象について書かれている場合
テキスト中に出現する感性表現の全てを検索対象に結び付けることができる場合のペット検索(入力した感性表現からペットを検索)を実現するための検索対象データベースの作成方法の一例は以下になる。
<Processing performed by the sensitivity information extraction unit 3>
(1) When the text is written about the search target Search for realizing a pet search (search for pets from the input emotional expression) when all the Kansei expressions appearing in the text can be linked to the search target An example of how to create a target database is as follows.

(ステップS1)検索対象情報抽出部31へのある時点(文書ID=100の時)での入力の一例を図8(a)に示す。(a)テキスト文書は、文書メタ情報としてペット名、文書IDを有するテキストの例である。テキスト解析結果の例が図8(b)の下線を除く部分であり、テキストから感性表現を抽出した結果が図8(b)の下線部分となる。   (Step S1) FIG. 8A shows an example of input to the search target information extraction unit 31 at a certain point in time (when document ID = 100). (A) A text document is an example of text having a pet name and a document ID as document meta information. An example of the text analysis result is a part excluding the underline in FIG. 8B, and the result of extracting the emotional expression from the text is the underline part in FIG. 8B.

テキストから抽出した感性表現は、メタ情報にあるペット名に結び付けて保持する。同一検索対象に関するテキストが複数ある場合は、各テキストから抽出した感性表現を検索対象毎にまとめておく。ここでの抽出内容の例を図8(c)に示す。図8の例のように検索対象が「アメリカン・ショートヘア」であった場合、「力強い」、「やさしい」などの感性表現は文書ID=100以外のテキストからも抽出されており、(c)の抽出総数に反映されている。S2へ進む。   The emotional expression extracted from the text is held in association with the pet name in the meta information. When there are a plurality of texts related to the same search target, the emotional expressions extracted from each text are collected for each search target. An example of the extracted contents is shown in FIG. When the search target is “American short hair” as in the example of FIG. 8, emotional expressions such as “strong” and “easy” are extracted from texts other than document ID = 100, and (c) This is reflected in the total number of extractions. Proceed to S2.

(ステップS2)感性情報生成部32において、感性表現DB1から、S1で抽出した感性表現に対応する感性情報および側面情報を得て、側面情報毎に感性情報を生成する。全てのテキストから感性表現を抽出した結果、検索対象が「アメリカン・ショートヘア」である全てのレコードが図8(c)にある4レコードのみだったとすると、検索対象「アメリカン・ショートヘア」の感性ベクトルは、その各感性表現「ふっくら」、「力強い」、「がっしり」、「やさしい」に対応する感性情報および側面情報を感性表現DB1(図2)より得て、同じ側面に関する感性表現の感性情報を足し合わせ、平均を取ることで計算する。またこの際、(c)の抽出回数で重み付けすることも可能である。   (Step S2) In the sensitivity information generation unit 32, the sensitivity information and the side information corresponding to the sensitivity expression extracted in S1 are obtained from the sensitivity expression DB1, and the sensitivity information is generated for each side information. As a result of extracting emotional expressions from all texts, if all the records whose search target is “American short hair” are only the four records in FIG. 8C, the sensitivity of the search target “American short hair” The vector obtains sensibility information and side information corresponding to each of the sensibility expressions “fluffy”, “powerful”, “gassy”, and “easy” from the sensibility expression DB 1 (FIG. 2), and the sensibility information of the sensibility expression regarding the same aspect Calculate by taking the average and adding. At this time, it is also possible to weight by the number of extractions in (c).

「ふっくら」の側面が[品質][外見的特長]、「力強い」および「がっしり」の側面が[外見的特長]、「優しい」の側面が[善意][人柄]であった場合、「アメリカン・ショートヘア」には[品質][外見的特長][善意][人柄]の合計4つの側面についての感性情報が生成される(図3の検索対象ID=「アメリカン・ショートヘア」の行を参照のこと。側面情報の欄にある感性表現は、抽出された感性表現のうち、同欄の側面情報に属するものが記されている。)。   If the plump side is [Quality] [Appearance Features], the “Strong” and “Something” sides are [Appearance Features], and the “Friendly” side is [Goodwill] [Personality], then “American” “Short hair” generates sensibility information for a total of four aspects of [quality] [appearance features] [good intentions] [personality] (search ID = “American short hair” in FIG. 3) (See Kansei expression in the side information column, which describes the extracted Kansei expressions that belong to the side information in the same column.)

同様にして他の全ての検索対象についても感性情報を求め、検索対象DB2に格納して終了する。検索対象とともに、以上の方法により求めた側面毎の感性情報を含む検索対象DB2を示したのが図3である。   Similarly, sensibility information is obtained for all other search targets, stored in the search target DB 2, and the process ends. FIG. 3 shows the search target DB 2 that includes sensitivity information for each aspect obtained by the above method together with the search target.

(2)その他のテキストを用いる場合
検索対象について書かれたテキストが利用できない場合は、対象語リストが必要となる。
(2) When using other texts When the text written about the search target is not available, a target word list is required.

(ステップS1)検索対象情報抽出部31へのある時点(文書ID=300の時)での入力の一例を図9(a−1)に示す。(a−1)テキスト文書は、文書メタ情報として文書IDのみを有するテキストの例である。また、対象語リストを図9(a−2)に示す。これは「アメリカン・ショートヘア」、「シンガプーラ」など、検索対象となるペットの表記のリストであり、少なくとも検索対象の標準形である検索対象IDを持つ他、(a−2)ではテキスト中の表記ゆれを吸収するための表記ゆれ情報を保持するものである。   (Step S1) FIG. 9A-1 shows an example of input to the search target information extraction unit 31 at a certain point in time (when document ID = 300). (A-1) A text document is an example of text having only a document ID as document meta information. The target word list is shown in FIG. This is a list of notation of pets to be searched such as “American short hair”, “Singapura”, etc., and at least has a search target ID which is a standard form of search target. It holds notation fluctuation information for absorbing the notation fluctuation.

テキスト解析結果の例が図9(b)の下線を除く部分であり、テキストから感性表現を抽出した結果が図9(b)の下線部分となる。入力された対象語リストの検索対象またはその表記ゆれがテキスト中に出現する文の前後2文内に含まれる感性表現を、検索対象と結び付けて作成した抽出結果の例を図9(c)に示す(この例で処理中の対象語は「アメリカン・ショートヘア」)。S2へ進む。   The example of the text analysis result is a part excluding the underline in FIG. 9B, and the result of extracting the emotional expression from the text is the underline part in FIG. 9B. FIG. 9C shows an example of an extraction result created by linking Kansei expressions included in two sentences before and after a sentence in which the search target of the input target word list or its notation fluctuation appears in the text. Shown (in this example, the target word being processed is “American short hair”). Proceed to S2.

(ステップ S2)以降の処理は(1)の場合と同様のため省略する。   Since the processing after (Step S2) is the same as the case of (1), it is omitted.

<感性検索部4で行う処理>
上述したペット検索用の検索対象データベース(図3)の検索例を説明する。
<Processing performed by the sensitivity search unit 4>
A search example of the above-described search target database (FIG. 3) for pet search will be described.

(ステップS11)条件入力部で以下の4パターンの検索条件が入力されたとする(なお、[度量衡][装い,外見的特長,人柄]等の側面情報は説明の便宜上、記載したもので、実際に入力されるわけではない。)。   (Step S11) Assume that the following four patterns of search conditions are input in the condition input unit (Note that the side information such as [measurement] [appearance, appearance features, personality] is described for convenience of explanation, Is not entered in.)

〈入力1〉小さい[度量衡]
〈入力2〉おしゃれ[装い,外見的特長,人柄]
〈入力3〉おしゃれ[装い,外見的特長,人柄],華やか[外見的特長]
〈入力4〉異国情緒あふれる
〈入力1〉の場合
(ステップS12)検索条件「小さい」は感性表現DB1に登録があるので、S14へ進む。
<Input 1> Small [Measurement and Measure]
<Input 2> Fashionable [Apparel, appearance features, personality]
<Input 3> Fashionable [Appearance, Appearance Features, Personality], Glamorous [Appearance Features]
<Input 4> Exotic Feeling <Input 1> (Step S12) Since the search condition “small” is registered in the emotional expression DB1, the process proceeds to S14.

(ステップS14)感性表現DB1から「小さい」の感性情報および側面情報[度量衡]を得る。   (Step S14) “Small” sensitivity information and side information [metrics] are obtained from the sensitivity expression DB1.

(ステップS15)S14で得た感性情報と、検索対象DB2において側面が[度量衡]になっているレコードの感性情報との距離計算を行い、S16へ進む。   (Step S15) A distance calculation is performed between the sensitivity information obtained in S14 and the sensitivity information of the record whose side is [metrics] in the search target DB2, and the process proceeds to S16.

(ステップS16)S15での距離が近かった順に検索対象を出力する。検索対象DB2のレコードが図3にある「アメリカン・ショートヘア」、「シンガプーラ」、「シャム」、「ペルシャ」のみと仮定した場合、「小さい」との距離順に検索対象を並べると、「シンガプーラ」、「シャム」、「ペルシャ」となる(「アメリカン・ショートヘア」には側面が[度量衡]である感性情報がないため、検索結果には含まない。)。その3件の検索結果を画面に出力して終了する。   (Step S16) The search objects are output in the order from the shortest distance in S15. Assuming that the records in the search target DB 2 are only “American short hair”, “Singapura”, “Sham”, “Persia” in FIG. 3, “Singapura” , “Siam” and “Persian” (“American short hair” is not included in the search results because there is no sensitivity information with the [Measurement] aspect). The three search results are output to the screen and the process ends.

〈入力2〉の場合
(ステップS12)検索条件「おしゃれ」は感性表現DB1に登録があるので、S14へ進む。
In the case of <Input 2> (Step S12) Since the search condition “fashionable” is registered in the emotional expression DB1, the process proceeds to S14.

(ステップS14)感性表現DB1から「おしゃれ」の感性情報および側面情報を得る。この際、側面情報は[装い,外見的特長,人柄]である。   (Step S14) The “fashionable” sensitivity information and side information are obtained from the sensitivity expression DB1. At this time, the side information is [appearance, appearance features, personality].

(ステップS15)S14で得た感性情報と、検索対象DB2において側面が[装い,外見的特長,人柄]の3つのうちのどれかに該当するレコードの感性情報との距離計算を行い、S16へ進む。1検索対象で該当する側面が2つ以上ある場合は、最も距離が近い側面との距離を次のステップで使用する。   (Step S15) A distance calculation is performed between the sensitivity information obtained in S14 and the sensitivity information of the record corresponding to any one of the three aspects “Appearance, Appearance Features, Personality” in the search target DB2, and the process goes to S16 move on. When there are two or more corresponding side faces in one search target, the distance to the side face with the closest distance is used in the next step.

(ステップS16)S15での距離が近かった順に検索対象を出力する。検索対象DB2のレコードが図3にある「アメリカン・ショートヘア」、「シンガプーラ」、「シャム」、「ペルシャ」のみと仮定した場合、「おしゃれ」との距離順に検索対象を並べると、「シャム」、「ペルシャ」、「シンガプーラ」、「アメリカン・ショートヘア」となる。結果を画面に出力して終了する。   (Step S16) The search objects are output in the order from the shortest distance in S15. Assuming that the records in the search target DB 2 are only “American short hair”, “Singapura”, “Siam”, “Persia” in FIG. 3, “Siam” , "Persia", "Singapura", "American short hair". Output the result to the screen and exit.

〈入力3〉の場合
(ステップS12)検索条件は「おしゃれ」と「華やか」の2単語であり、両方とも感性表現DB1に登録があるため、次のステップへ進む。複数の単語入力があり、感性表現DB1に登録が無い単語があった場合は、登録がある単語の情報のみを用いて次ステップ以降の処理を行う。
In the case of <Input 3> (Step S12) The search conditions are two words “fashionable” and “gorgeous”, both of which are registered in the emotional expression DB1, and therefore the process proceeds to the next step. If there are a plurality of word inputs and there is a word that is not registered in the emotional expression DB 1, only the information of the registered word is used to perform the subsequent steps.

(ステップS14)感性表現DB1から「おしゃれ」と「華やか」の両単語の感性情報および側面情報を得る。まず、側面情報はそれぞれの単語の側面情報[装い,外見的特長,人柄]と[外見的特長]との論理積をとって、[外見的特長]のみとする。そして、両単語の側面情報が[外見的特長]である感性情報の平均を取ることで、検索条件の感性情報を計算する。S15へ進む。   (Step S14) Sensitivity information and side information of both words “fashionable” and “gorgeous” are obtained from the sensitivity expression DB1. First, the side information is obtained by performing a logical product of the side information [dressing, appearance features, personality] and [appearance features] of each word, and only “appearance features” are obtained. Then, the sensitivity information of the search condition is calculated by taking the average of the sensitivity information whose side information of both words is [appearance feature]. Proceed to S15.

(ステップS15)S14で得た感性情報と、検索対象DB2において側面が[外見的特長]であるレコードの感性情報との距離計算を行い、S16へ進む。   (Step S15) Distance calculation is performed between the sensitivity information obtained in S14 and the sensitivity information of the record whose side surface is [appearance feature] in the search target DB2, and the process proceeds to S16.

(ステップS16)S15での距離が近かった順に検索対象を出力する。検索対象DB2のレコードが図3にある「アメリカン・ショートヘア」、「シンガプーラ」、「シャム」、「ペルシャ」のみと仮定した場合、「おしゃれ」「華やか」との距離順に検索対象を並べると、「ペルシャ」、「シャム」、「アメリカン・ショートヘア」、「シンガプーラ」となる。結果を画面に出力して終了する。   (Step S16) The search objects are output in the order from the shortest distance in S15. Assuming that the records in the search target DB2 are only “American short hair”, “Singapura”, “Siam”, and “Persia” in FIG. "Persia", "Siam", "American short hair", "Singapura". Output the result to the screen and exit.

〈入力4〉の場合
(ステップS12)検索条件は「異国情緒あふれる」であり、感性表現DB1に登録がないため、S13へ進む。
In the case of <Input 4> (Step S12) Since the search condition is “exotic feeling overflowing” and there is no registration in the emotional expression DB1, the process proceeds to S13.

(ステップS13)感性検索ができないため、結果が無いことを示すメッセージ、例えば「残念ながら感性検索ができませんでした。通常の検索結果を表示します。」を画面に出力して終了する。   (Step S13) Since Kansei search cannot be performed, a message indicating that there is no result, for example, “Unfortunately Kansei search could not be performed. Normal search results are displayed.” Is output to the screen and the process is terminated.

なお、本発明は、周知のコンピュータに媒体もしくは通信回線を介して、図1、図4、図6の構成図に示された機能を実現するプログラムあるいは図5、図7の流れ図に示された手順を備えるプログラムをインストールすることによっても実現可能である。   The present invention is shown in a program for realizing the functions shown in the configuration diagrams of FIGS. 1, 4 and 6 or a flowchart of FIGS. 5 and 7 via a medium or communication line on a known computer. It can also be realized by installing a program having a procedure.

1:感性表現データベース(DB)、2:検索対象データベース(DB)、3:感性情報抽出部、4:感性検索部、31:検索対象情報抽出部、32:感性情報生成部、41:条件入力部、42:検索部、43:結果出力部。   1: Sensitivity expression database (DB) 2: Search object database (DB) 3: Sensitivity information extraction unit 4: Sensitivity search unit 31: Search object information extraction unit 32: Sensitivity information generation unit 41: Condition input Part, 42: search part, 43: result output part.

Claims (10)

テキストの集合から感性情報を抽出し、検索対象データベースを作成する感性情報抽出装置であって、
入力されたテキストの集合から感性表現を抽出し、抽出した感性表現を検索対象に結び付ける検索対象情報抽出部と、
結び付けられた検索対象と感性表現とを入力とし、感性表現に対する感性情報および当該感性表現が属する側面情報を少なくとも格納した感性表現データベースを用いて検索対象に対する側面情報毎の感性情報を生成し、検索対象データベースに格納する感性情報生成部とを備えた
ことを特徴とする感性情報抽出装置。
A sensitivity information extraction device that extracts sensitivity information from a set of texts and creates a search target database,
A search object information extraction unit that extracts a Kansei expression from a set of input texts and links the extracted Kansei expression to a search object;
Using the linked search target and the emotional expression as input, and using the emotional expression database that stores at least the emotional information for the emotional expression and the side information to which the emotional expression belongs, the emotional information for each aspect information for the search target is generated and searched. A sensibility information extraction device comprising a sensibility information generation unit for storing in a target database.
検索対象情報抽出部では、
入力されたテキストが特定の検索対象のみについて記述しているものである場合、当該テキスト中に出現する感性表現の全てを当該特定の検索対象に結び付ける
ことを特徴とする請求項1に記載の感性情報抽出装置。
In the search target information extraction unit,
The sensibility according to claim 1, wherein when the input text describes only a specific search object, all of the sensibility expressions appearing in the text are linked to the specific search object. Information extraction device.
検索対象情報抽出部では、
入力されたテキストが検索対象を特定しないものである場合、当該テキスト中に出現する感性表現を、所定の検索対象リスト中の各検索対象に当該テキスト中での当該検索対象と感性表現との共起情報や係り受け関係情報を利用して結び付ける
ことを特徴とする請求項1に記載の感性情報抽出装置。
In the search target information extraction unit,
If the input text does not specify the search target, the emotional expression that appears in the text is shared with each search target in the predetermined search target list. The sensibility information extraction device according to claim 1, wherein the information is linked using starting information and dependency relationship information.
感性情報生成部では、
検索対象に結び付けられた感性表現それぞれの感性情報と側面情報とを感性表現データベースから得て、側面情報が同じ感性情報毎にその値の平均を取ることで当該側面情報の感性情報を生成する
ことを特徴とする請求項1に記載の感性情報抽出装置。
In the Kansei information generator,
Kansei information and side information of each Kansei expression linked to the search target is obtained from the Kansei expression database, and the sensitivity information of the side information is generated by averaging the values for each Kansei information with the same side information. The sensibility information extraction device according to claim 1.
検索対象に対する側面情報毎の感性情報を少なくとも格納した検索対象データベースを利用して情報検索を行う感性検索装置であって、
検索条件を受け付ける条件入力部と、
前記受け付けた検索条件と、感性表現に対する感性情報および当該感性表現が属する側面情報を少なくとも格納した感性表現データベースとを用いて、前記検索対象データベースの前記検索条件に感性的に近い検索を行う検索部と、
前記検索結果を予め定められた形式で出力する結果出力部とを備えた
ことを特徴とする感性検索装置。
A sensitivity search device that performs information search using a search target database that stores at least sensitivity information for each side information for a search target,
A condition input unit for receiving search conditions;
A search unit that performs a search that is sensibly close to the search condition in the search target database using the received search condition and a sensitivity expression database that stores at least the sensitivity information for the sensitivity expression and the side information to which the sensitivity expression belongs. When,
And a result output unit for outputting the search result in a predetermined format.
検索部は、
検索条件として入力された感性表現に対応する感性情報および側面情報を感性表現データベースから取り出し、検索対象データベースから同じ側面情報を含むレコードを検索し、当該レコードの感性情報と前記検索条件として入力された感性表現に対応する感性情報との間の距離を計算する
ことを特徴とする請求項5に記載の感性検索装置。
The search part
Sensitivity information and aspect information corresponding to the sensitivity expression input as a search condition are extracted from the sensitivity expression database, a record including the same aspect information is searched from the search target database, and the sensitivity information of the record and the search condition are input. The sensibility search device according to claim 5, wherein a distance between the sensibility information corresponding to the sensibility expression is calculated.
検索条件として入力された感性表現が複数の場合、各感性表現に対応する感性情報および側面情報を感性表現データベースから取り出し、側面情報の論理積をとった後、側面情報が同じ感性情報毎にその値の平均を取ることで検索条件としての感性情報を作成する
ことを特徴とする請求項6に記載の感性検索装置。
When there are multiple Kansei expressions input as search conditions, Kansei information and side information corresponding to each Kansei expression are extracted from the Kansei expression database, and after calculating the logical product of the side information, the side information is The sensitivity search apparatus according to claim 6, wherein sensitivity information as a search condition is created by taking an average of values.
テキストの集合から感性情報を抽出し、検索対象データベースを作成する感性情報抽出方法であって、
検索対象情報抽出部が、入力されたテキストの集合から感性表現を抽出し、抽出した感性表現を検索対象に結び付けるステップと、
感性情報生成部が、結び付けられた検索対象と感性表現とを入力とし、感性表現に対する感性情報および当該感性表現が属する側面情報を少なくとも格納した感性表現データベースを用いて検索対象に対する側面情報毎の感性情報を生成し、検索対象データベースに格納するステップとを含む
ことを特徴とする感性情報抽出方法。
A method for extracting Kansei information by extracting Kansei information from a set of texts and creating a search target database,
A search target information extraction unit extracts a Kansei expression from a set of input text, and links the extracted Kansei expression to the search target;
Sensitivity information generation unit receives the linked search object and emotional expression as input, and uses the emotional expression database that stores at least the emotional information for the emotional expression and the aspect information to which the emotional expression belongs to And a method of generating information and storing it in a search target database.
検索対象に対する側面情報毎の感性情報を少なくとも格納した検索対象データベースを利用して情報検索を行う感性検索方法であって、
条件入力部が、検索条件を受け付けるステップと、
検索部が、前記受け付けた検索条件と、感性表現に対する感性情報および当該感性表現が属する側面情報を少なくとも格納した感性表現データベースとを用いて、前記検索対象データベースの前記検索条件に感性的に近い検索を行うステップと、
結果出力部が、前記検索結果を予め定められた形式で出力するステップとを含む
ことを特徴とする感性検索方法。
A sensitivity search method for performing an information search using a search target database that stores at least sensitivity information for each side information for a search target,
A condition input unit accepting a search condition;
The search unit uses the received search condition and the emotional expression database storing at least the sensitivity information for the emotional expression and the side information to which the emotional expression belongs to perform a search close to the search condition in the search target database. The steps of
A result output unit including the step of outputting the search result in a predetermined format.
コンピュータに、請求項8または9に記載の方法の各処理ステップを実行させるためのプログラム。   The program for making a computer perform each process step of the method of Claim 8 or 9.
JP2009195093A 2009-08-26 2009-08-26 KANSEI information extraction device, KANSEI search device, method and program thereof Active JP5311488B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009195093A JP5311488B2 (en) 2009-08-26 2009-08-26 KANSEI information extraction device, KANSEI search device, method and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009195093A JP5311488B2 (en) 2009-08-26 2009-08-26 KANSEI information extraction device, KANSEI search device, method and program thereof

Publications (2)

Publication Number Publication Date
JP2011048527A true JP2011048527A (en) 2011-03-10
JP5311488B2 JP5311488B2 (en) 2013-10-09

Family

ID=43834795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009195093A Active JP5311488B2 (en) 2009-08-26 2009-08-26 KANSEI information extraction device, KANSEI search device, method and program thereof

Country Status (1)

Country Link
JP (1) JP5311488B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018122919A1 (en) * 2016-12-26 2018-07-05 三菱電機株式会社 Device for searching based on feeling word
CN110866408A (en) * 2018-08-28 2020-03-06 本田技研工业株式会社 Database creation device and search system
KR102500164B1 (en) * 2022-06-15 2023-02-17 주식회사 스타일여신 Emotional information analysis system automatically extracting emotional information from objects and emotional information analysis method using the same
US11960522B2 (en) 2021-03-09 2024-04-16 Honda Motor Co., Ltd. Information management system for database construction

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0887520A (en) * 1994-09-19 1996-04-02 Sharp Corp Sensitivity input optimum document file extraction mechanism
JP2001022778A (en) * 1999-07-09 2001-01-26 Fuji Xerox Co Ltd Device and method for retrieval
JP2001101222A (en) * 1999-10-01 2001-04-13 Just Syst Corp Data retrieving device and storage medium in which program for data retrieval is stored
JP2003178083A (en) * 2002-12-06 2003-06-27 Hideki Nishimoto Document content discriminating device, document, paper band, document content discriminating program
JP2005284776A (en) * 2004-03-30 2005-10-13 Honda Motor Co Ltd Text mining apparatus and text analysis method
JP2007018234A (en) * 2005-07-07 2007-01-25 National Institute Of Information & Communication Technology Automatic feeling-expression word and phrase dictionary generating method and device, and automatic feeling-level evaluation value giving method and device
JP2008140359A (en) * 2006-11-08 2008-06-19 Nippon Telegr & Teleph Corp <Ntt> Evaluation information extractor, evaluation information extraction method, and program therefor

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0887520A (en) * 1994-09-19 1996-04-02 Sharp Corp Sensitivity input optimum document file extraction mechanism
JP2001022778A (en) * 1999-07-09 2001-01-26 Fuji Xerox Co Ltd Device and method for retrieval
JP2001101222A (en) * 1999-10-01 2001-04-13 Just Syst Corp Data retrieving device and storage medium in which program for data retrieval is stored
JP2003178083A (en) * 2002-12-06 2003-06-27 Hideki Nishimoto Document content discriminating device, document, paper band, document content discriminating program
JP2005284776A (en) * 2004-03-30 2005-10-13 Honda Motor Co Ltd Text mining apparatus and text analysis method
JP2007018234A (en) * 2005-07-07 2007-01-25 National Institute Of Information & Communication Technology Automatic feeling-expression word and phrase dictionary generating method and device, and automatic feeling-level evaluation value giving method and device
JP2008140359A (en) * 2006-11-08 2008-06-19 Nippon Telegr & Teleph Corp <Ntt> Evaluation information extractor, evaluation information extraction method, and program therefor

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG199900209002; 原田,田中,伊東,中谷: '画像検索のための形状特徴空間の構築' 電子情報通信学会技術研究報告 第95巻,第322号, 19951019, pp.7-12(NLC95-31,PRU95-136), 社団法人電子情報通信学会 *
CSNG199901082010; 中森,佐藤,和多田: 'ファジィデータの因子空間モデル' 日本ファジィ学会誌 第9巻,第1号, 19970215, pp.99-107, 日本ファジィ学会 *
JPN6012060670; 中森,佐藤,和多田: 'ファジィデータの因子空間モデル' 日本ファジィ学会誌 第9巻,第1号, 19970215, pp.99-107, 日本ファジィ学会 *
JPN6012060672; 原田,田中,伊東,中谷: '画像検索のための形状特徴空間の構築' 電子情報通信学会技術研究報告 第95巻,第322号, 19951019, pp.7-12(NLC95-31,PRU95-136), 社団法人電子情報通信学会 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018122919A1 (en) * 2016-12-26 2018-07-05 三菱電機株式会社 Device for searching based on feeling word
CN110866408A (en) * 2018-08-28 2020-03-06 本田技研工业株式会社 Database creation device and search system
US11436278B2 (en) 2018-08-28 2022-09-06 Honda Motor Co., Ltd. Database creation apparatus and search system
CN110866408B (en) * 2018-08-28 2023-10-24 本田技研工业株式会社 Database creation device and search system
US11960522B2 (en) 2021-03-09 2024-04-16 Honda Motor Co., Ltd. Information management system for database construction
KR102500164B1 (en) * 2022-06-15 2023-02-17 주식회사 스타일여신 Emotional information analysis system automatically extracting emotional information from objects and emotional information analysis method using the same

Also Published As

Publication number Publication date
JP5311488B2 (en) 2013-10-09

Similar Documents

Publication Publication Date Title
JP4347226B2 (en) Information extraction program, recording medium thereof, information extraction apparatus, and information extraction rule creation method
CN102890701B (en) The system and method that affection data is used
US8412650B2 (en) Device and method and program of text analysis based on change points of time-series signals
JP2005182280A (en) Information retrieval system, retrieval result processing system, information retrieval method, and program
JP6605410B2 (en) Emotion factor estimation support device, emotion factor estimation support method, and emotion factor estimation support program
JP5311488B2 (en) KANSEI information extraction device, KANSEI search device, method and program thereof
JP6821528B2 (en) Evaluation device, evaluation method, noise reduction device, and program
JP5204203B2 (en) Example translation system, example translation method, and example translation program
JP2001084256A (en) Device and method for processing database and computer readable storage medium with database processing program recorded therein
JP2000163437A (en) Method and device for classifying document and recording medium where document classifying program is recorded
JP2007279978A (en) Document retrieval device and document retrieval method
JP6305630B2 (en) Document search apparatus, method and program
JP4361299B2 (en) Evaluation expression extraction apparatus, program, and storage medium
KR20090126862A (en) System and method for analyzing emotional information from natural language sentence, and medium for storaging program for the same
JP6529698B2 (en) Data analyzer and data analysis method
JP2016162357A (en) Analysis device and program of user&#39;s emotion to product
Brunner et al. Neural symbolic music genre transfer insights
US11495225B2 (en) Response device, response method, and storage medium
JP7427510B2 (en) Information processing device, information processing method and program
JP2019061522A (en) Document recommendation system, document recommendation method and document recommendation program
JP5137134B2 (en) Kansei information extraction / retrieval device, method and program thereof
JP5326781B2 (en) Extraction rule creation system, extraction rule creation method, and extraction rule creation program
Gala et al. Product Sentiment Trend Prediction
JP2021174339A (en) Retrieval device and method
JP2008171243A (en) Content retrieval device and method, and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20101215

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110613

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110614

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110615

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120709

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121122

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130508

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130627

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5311488

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350