JP2011048527A - Sensitivity information extraction device, sensitivity retrieval device and method, and program - Google Patents
Sensitivity information extraction device, sensitivity retrieval device and method, and program Download PDFInfo
- Publication number
- JP2011048527A JP2011048527A JP2009195093A JP2009195093A JP2011048527A JP 2011048527 A JP2011048527 A JP 2011048527A JP 2009195093 A JP2009195093 A JP 2009195093A JP 2009195093 A JP2009195093 A JP 2009195093A JP 2011048527 A JP2011048527 A JP 2011048527A
- Authority
- JP
- Japan
- Prior art keywords
- information
- search
- sensitivity
- expression
- search target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、テキストから感性情報を抽出してデータベース化し、このデータベースを利用して情報検索を行う技術に関する。 The present invention relates to a technique for extracting sensibility information from text to form a database and performing information retrieval using this database.
現在、Web上で商品などの情報を検索する場合は、当該検索対象の名前やカテゴリ、定性的な特徴などを検索クエリ(検索条件)とする検索が主流である。自動車を例に取ると、「T社」の「セダン」、「4ドア」、色は「白」…などが検索条件となる。しかし、欲しい情報はあるが、それに対する上記のような検索条件を記述できず、「かわいい」、「上品な」などのイメージ(印象)や、それを使用した際の気分といった「感性」でしか対象を特徴付けられない場合、このような感性を直接、検索条件として検索できると便利である。しかし、現在、実用化されている感性検索では、その対象が有するイメージを表す定量的な情報(感性情報)を、検索対象毎に人手で付与しておく必要があった(例えば、非特許文献1参照)。 At present, when searching for information such as a product on the Web, a search using a search query (search condition) based on the name, category, qualitative characteristics, and the like of the search target is the mainstream. Taking a car as an example, the search conditions are “sedan” of “Company T”, “4-door”, color “white”, etc. However, there is information that I want, but I can't describe the search conditions as above, but only with an image (impression) such as “cute” or “classy” or “feel” when using it. If the object cannot be characterized, it is convenient if such sensitivity can be directly searched as a search condition. However, in the Kansei search currently in practical use, it is necessary to manually add quantitative information (kansei information) representing the image of the target for each search target (for example, non-patent literature) 1).
(1)感性検索を行うために各検索対象に対する感性情報を人手で付与するのは手間が大きいため、その作業をできるだけ省力化することが望ましい。 (1) Since it is troublesome to manually apply the sensitivity information for each search target in order to perform a sensitivity search, it is desirable to save the work as much as possible.
(2)こうした感性検索を低コストに実現する手法としては、検索対象のイメージを表す感性表現をテキストから抽出して足し合わせることで、検索対象のイメージを表現する方法が考えられる。しかし、感性表現は検索対象が有する様々な側面(外見的特長、品質、性格など)毎についてのイメージを表しており、全てを足し合わせてしまうと、却ってその特徴が鈍ってしまう可能性がある。 (2) As a technique for realizing such a Kansei search at a low cost, a method of expressing an image to be searched by extracting Kansei expressions representing the image to be searched from text and adding them together can be considered. However, Kansei expression represents the image of various aspects (appearance features, quality, personality, etc.) that the search target has, and if all of them are added together, there is a possibility that the features will be dull. .
例えば、ある検索対象のイメージを表す感性表現として「ゴージャス」と「苦い」があった場合、前者は容姿、後者は味という側面についてのイメージを表しており、これを足し合わせることで「ゴージャス」のもつ「美しい」、「派手」といったイメージが損なわれてしまい、望ましい検索結果が得られない。よって感性表現を用いて検索対象の感性情報を生成する際には、異なる側面の特徴がノイズとなることを避ける必要がある。 For example, if there are `` gorgeous '' and `` bitter '' as sensibility expressions representing an image to be searched, the former expresses the image of the appearance and the latter expresses the aspect of taste, and by adding these, `` gorgeous '' The images such as “beautiful” and “flashy” are lost, and desirable search results cannot be obtained. Therefore, it is necessary to avoid the feature of different aspects from becoming noise when the sensitivity information to be searched is generated using the sensitivity expression.
(3)また感性表現を検索条件として用いる際には、どういった感性表現を用いたかによりユーザの注目している側面が異なる。例えば「苦い」で検索した場合には検索対象の味に注目しているため、味の側面においてイメージが類似している検索対象が出力されることが望ましい。よって検索条件と検索対象との距離計算は、ユーザの注目する側面において行う必要がある。 (3) When using emotional expressions as search conditions, the aspect that the user is paying attention depends on what kind of emotional expression is used. For example, when searching for “bitter”, attention is paid to the taste of the search object, so it is desirable to output a search object whose image is similar in terms of taste. Therefore, it is necessary to calculate the distance between the search condition and the search target in the aspect that the user pays attention to.
本発明は、上記の点に鑑みなされたもので、
(1)予め検索対象のイメージ(=感性情報)を大規模なテキストの集合(コーパス)から抽出しておき、感性検索時には、検索条件として入力される感性表現の表すイメージと検索対象のイメージとの感性的な距離を利用することにより、運用コストを省力化した感性検索を行う装置および方法を提供する、
(2)感性表現を用いて検索対象の感性情報を生成する際に、感性表現が検索対象のどういった側面(外見的特長、品質、性格など)についてのイメージを表しているのか考慮する、
(3)ユーザの注目する側面においてイメージの近い検索対象を出力するため、検索条件である感性表現がどういった側面についてのイメージを表しているか考慮する、
という3つの点により、全く異なる側面に関するイメージがノイズとなることを避け、検索精度を向上させることを目的とする。
The present invention has been made in view of the above points.
(1) An image to be searched (= sensitivity information) is extracted from a large set of texts (corpus) in advance, and at the time of a sensitivity search, an image represented by a sensitivity expression input as a search condition and an image to be searched Providing an apparatus and a method for performing a sensitivity search with reduced operation costs by using the sensitivity distance of
(2) Considering what aspect of the search object (appearance features, quality, personality, etc.) represents the image of the search object when generating the sensitivity information of the search object using the sensitivity expression.
(3) In order to output a search target that is close to the image in the aspect that the user pays attention to, consider what aspect the emotional expression that is the search condition represents.
With the above three points, the object is to improve the search accuracy by avoiding the image of completely different aspects from becoming noise.
以下、検索対象や感性表現が有するイメージを定量化した情報を「感性情報」と記述する。 Hereinafter, information obtained by quantifying an image included in a search target or Kansei expression is described as “Kansei information”.
上記の課題(1)については、本発明では、検索対象に関するテキストを入力すると、テキスト解析を行って感性表現を抽出し、抽出した感性表現を用いて検索対象毎の感性情報を生成することで、検索条件として入力される感性表現と感性的に距離の近い検索対象を提示することを特徴とする。 Regarding the above problem (1), in the present invention, when text related to a search target is input, text analysis is performed to extract a sensitivity expression, and the extracted sensitivity expression is used to generate sensitivity information for each search target. The present invention is characterized by presenting a search target that is sensibly close to the emotional expression input as a search condition.
また、課題(2)については、テキストから抽出した感性表現を用いて検索対象の感性情報を生成する際に、検索対象の「外見的特長」や「品質」といった側面毎に感性情報を生成することで、異なる側面の特徴がノイズとなるのを避けることを特徴とする。 As for the problem (2), when the emotion information of the search target is generated using the emotion expression extracted from the text, the sensitivity information is generated for each aspect such as “appearance features” and “quality” of the search target. Thus, the feature of different aspects is to avoid noise.
また、課題(3)については、検索条件として感性表現を入力すると、その感性表現が表す「外見的特長」や「品質」といった側面において検索条件である感性表現と検索対象との距離計算を行うことで、ユーザの注目する側面においてイメージの類似する検索対象を出力することを特徴とする。 As for the problem (3), when a Kansei expression is input as a search condition, the distance between the Kansei expression that is the search condition and the search target is calculated in terms of “appearance features” and “quality” represented by the Kansei expression. Thus, it is characterized in that a search target similar in image is output in the aspect that the user pays attention to.
詳細には、
テキストの集合から感性情報を抽出し、検索対象データベースを作成する感性情報抽出装置であって、
感性表現に対する感性情報および当該感性表現が属する側面情報を少なくとも格納した感性表現データベースと、
入力されたテキストの集合から感性表現を抽出し、抽出した感性表現を検索対象に結び付ける検索対象情報抽出部と、
結び付けられた検索対象と感性表現とを入力とし、感性表現データベースを用いて検索対象に対する側面情報毎の感性情報を生成し、検索対象データベースに格納する感性情報生成部とを備えた感性情報抽出装置、
並びに、
検索対象に対する側面情報毎の感性情報を少なくとも格納した検索対象データベースを利用して情報検索を行う感性検索装置であって、
感性表現に対する感性情報および当該感性表現が属する側面情報を少なくとも格納した感性表現データベースと、
検索条件を受け付ける条件入力部と、
前記受け付けた検索条件と感性表現データベースとを用いて、前記検索対象データベースの前記検索条件に感性的に近い検索を行う検索部と、
前記検索結果を予め定められた形式で出力する結果出力部とを備えた感性検索装置、
を提案する。
In detail,
A sensitivity information extraction device that extracts sensitivity information from a set of texts and creates a search target database,
A sensitivity expression database storing at least the sensitivity information for the sensitivity expression and the side information to which the sensitivity expression belongs;
A search object information extraction unit that extracts a Kansei expression from a set of input texts and links the extracted Kansei expression to a search object;
Kansei information extraction device comprising a Kansei information generation unit that receives the linked search target and Kansei expression as input, generates Kansei information for each side information with respect to the search target using the Kansei expression database, and stores the Kansei information in the search target database ,
And
A sensitivity search device that performs an information search using a search target database that stores at least sensitivity information for each side information for a search target,
A sensitivity expression database storing at least the sensitivity information for the sensitivity expression and the side information to which the sensitivity expression belongs;
A condition input unit for receiving search conditions;
A search unit that performs a search close to the search condition of the search target database using the received search condition and the sensitivity expression database,
A sensitivity search device comprising a result output unit for outputting the search results in a predetermined format;
Propose.
本発明によれば、テキストから検索対象についての感性情報を抽出してデータベース化し、このデータベースを利用して感性表現と検索対象との感性的な距離の計算を行い、その距離を用いて情報検索を行うことにより、感性表現を入力するだけで結果が得られる感性的な検索が可能となるとともに、対象に関するメタデータなどを人手で付与する必要が無く、その分省力化でき、運用コストを低減できる(課題(1)の解消)。 According to the present invention, Kansei information about a search target is extracted from a text and made into a database, and the Kansei expression and the search target are calculated using this database, and information search is performed using the distance. By doing this, it is possible to perform a sensuous search that results can be obtained simply by inputting a sensibility expression, and there is no need to manually add metadata related to the target, thereby saving labor and reducing operational costs. Yes (solve the problem (1)).
また、本発明によれば、検索対象の感性情報を生成する際と、実際に感性表現を用いて検索を行う際の両方において、感性表現が検索対象のどの側面に関するものなのかを考慮することで、異なる側面の特徴がノイズとなるのを避けることができ、検索精度の向上につながる(課題(2)(3)の解消)。 Further, according to the present invention, it is necessary to consider which aspect of the search object the sensitivity expression relates to both when generating the sensitivity information of the search object and when actually performing the search using the sensitivity expression. Thus, it is possible to avoid the feature of different aspects from becoming noise, leading to improvement of search accuracy (solving problems (2) and (3)).
以下、本発明を図示の実施の形態により詳細に説明する。 Hereinafter, the present invention will be described in detail with reference to the illustrated embodiments.
図1は本発明の感性情報抽出装置および感性検索装置の概要を示すもので、感性情報抽出装置は感性表現データベース(DB)1、検索対象データベース(DB)2および感性情報抽出部3から構成され、感性検索装置は感性表現DB1、検索対象DB2および感性検索部4から構成される。
FIG. 1 shows an outline of a sensitivity information extraction device and a sensitivity search device according to the present invention. The sensitivity information extraction device is composed of a sensitivity expression database (DB) 1, a search target database (DB) 2, and a sensitivity
<感性表現データベース>
感性表現DB1は、感性表現に対する感性情報および当該感性表現が属する側面情報を少なくとも格納したデータベースであり、各レコードは感性表現IDと、感性情報と、側面情報とを少なくとも有する。感性表現DB1は、後述するように、感性情報抽出部3でテキストから抽出される感性表現や感性検索部4で検索条件として入力される感性表現に、感性情報および側面情報を付与するために用いられる。
<Kansei expression database>
The
感性表現IDは、各感性表現を一意に識別するためのIDであり、例えば感性表現の標準形を用いることができる。この際、いくつかの感性表現に同じ感性表現IDを付与すれば、複数の感性表現のイメージをまとめて一つの感性情報として表現することも可能となる。 The sensitivity expression ID is an ID for uniquely identifying each sensitivity expression. For example, a standard form of the sensitivity expression can be used. At this time, if the same emotion expression ID is assigned to several emotion expressions, it is also possible to combine a plurality of images of emotion expressions and express them as one piece of sensitivity information.
感性情報は、感性表現が有するイメージを何らかの定量的な値で表したものであり、例えば感性表現同士の共起情報を用いて作成した単語ベクトルを用いても良い。 Sensitivity information represents an image of an emotional expression with some quantitative value. For example, a word vector created using co-occurrence information between the emotional expressions may be used.
側面情報は、「外見的特長」、「容姿」、「性格」など、感性表現が表すイメージの種類を示す情報であり、既存のオントロジ等の予め定めた分類体系に従い、1つの感性表現に対して少なくとも1つの側面情報を付与するものとする。 Aspect information is information that indicates the type of image represented by emotional expressions, such as “appearance features”, “appearance”, “personality”, etc., according to a predetermined classification system such as existing ontology, etc. At least one aspect information is given.
図2は感性表現データベースの一例を示すもので、本例では感性表現IDとして感性表現の標準形を用いている。また、本例では、感性情報は予め定められた次元数を有するベクトル空間の各次元の軸(感性軸)に対して予め定められた値を有する感性ベクトルとする。ここで、感性ベクトルの次元数は7であり、第一次元の軸=美しさ(より美しいほど値が大きい)、第二次元の軸=静かさ、…、第7次元の軸=強さと定めているものとする。また、本例では、側面情報として日本語語彙大系の一般名詞意味属性体系のカテゴリ(高級な,柔らかな:「品質」、明るい:「性格」など)を利用する。但し、以下の説明においては、分かり難いカテゴリ名を便宜上変更してある場合がある。 FIG. 2 shows an example of a sensitivity expression database. In this example, a standard form of sensitivity expression is used as the sensitivity expression ID. In this example, the sensitivity information is a sensitivity vector having a predetermined value for each dimension axis (sensitivity axis) in a vector space having a predetermined number of dimensions. Here, the dimension number of the sensitivity vector is 7, the first dimension axis = beauty (the value is larger as it is more beautiful), the second dimension axis = silence,..., The seventh dimension axis = strength It shall be defined. Further, in this example, a category of a general noun semantic attribute system of a large Japanese vocabulary system (high quality, soft: “quality”, bright: “personality”, etc.) is used as side information. However, in the following description, a category name that is difficult to understand may be changed for convenience.
<検索対象データベース>
検索対象DB2は、後述するように、感性情報抽出部3から出力される、検索対象に対する側面情報毎の感性情報を少なくとも格納したデータベースであり、各レコードは検索対象IDと、少なくとも1つの側面情報と、側面情報毎の感性情報とを少なくとも有する。検索対象DB2は、後述するように、感性検索部4における検索の際に感性表現DB1とともに参照され、検索結果を得るために用いられる。
<Search target database>
As will be described later, the
検索対象IDは、各検索対象を一意に識別するためのIDであり、例えば検索対象の標準形を用いることができる。側面情報は、検索対象が有するイメージの種類を示す、感性表現DB1で用いられるものと同様な情報である。感性情報は、検索対象が有するイメージを側面情報毎に何らかの定量的な値で表したものであり、感性表現DB1と同じ表現形式を用いるものとする。
The search target ID is an ID for uniquely identifying each search target. For example, a standard form of the search target can be used. The side information is information similar to that used in the
図3は検索対象データベース2の一例を示すもので、本例では検索対象IDとして検索対象の標準形を用いている。また、本例では、側面情報として図2の感性表現DB1の場合と同様な情報を用いている。また、本例では、感性情報として図2の感性表現DB1の感性情報と同じ次元数および軸を有する感性ベクトルを用いている。
FIG. 3 shows an example of the
図3の「アメリカン・ショートヘア」を例に取ると、[品質][外見的特長][善意][人柄]の4つの側面情報毎にその感性情報が生成されており、これにより異なった側面のイメージが混ざるのを避けている。図3において側面情報の後に書かれている感性表現は、各側面情報に属する感性表現の例である。 Taking “American short hair” in FIG. 3 as an example, the sensibility information is generated for each of the four aspect information of [quality] [appearance features] [good faith] [personality]. To avoid mixing the images. The emotional expression written after the side information in FIG. 3 is an example of the emotional expression belonging to each side information.
<感性情報抽出部3>
感性情報抽出部3は、図示しない入力手段から直接入力され又は記憶手段から読み出されて入力され又は通信媒体を介して他の装置等から入力されたテキストの集合を入力とし、検索対象単位の感性情報を生成して検索対象DB2に出力するもので、図4に示すように検索対象情報抽出部31および感性情報生成部32からなる。
<Sensitivity
The sensibility
検索対象情報抽出部31は、入力されたテキストの集合から感性表現を抽出し、抽出した感性表現を検索対象に結び付けて出力する。
The search target
感性情報生成部32は、感性表現抽出部31で結びつけられた検索対象と感性表現とを入力とし、感性表現DB1を用いて各検索対象に対する側面情報毎の感性情報を生成し、検索対象DB2に格納する。
The sensibility
図5は感性表現抽出部3における感性情報抽出処理の流れを示すもので、以下、その動作を詳細に説明する。
FIG. 5 shows the flow of the sensibility information extraction process in the sensibility
(ステップS1)検索対象情報抽出部31において、入力されたテキストの集合から、検索対象のイメージを表す感性表現を抽出し、抽出した感性表現を予め定められた方法に従って検索対象に結び付け、ステップS32へ進む。
(Step S1) The search target
感性表現とは、ある対象に関する印象や感じ方を表す、「もの静か」「かっこいい」「しっかりした」「クール」等の表現である。 Kansei expression is an expression such as “quiet”, “cool”, “solid”, “cool”, etc. that expresses the impression and feeling of a certain object.
テキストからの感性表現の抽出は、周知の形態素解析処理(単語情報を生成)を含む言語解析処理を行った後、表記、品詞、読み、単語境界等の単語情報を利用したルール等を用いたり、既存技術、例えば特開2008−140359号公報(「評価情報抽出装置、評価情報抽出方法およびそのプログラム」)記載の評価表現抽出部の処理を利用したりすることにより可能である。 Kansei expressions are extracted from texts after performing language analysis processing including well-known morphological analysis processing (generating word information) and then using rules that use word information such as notation, parts of speech, readings, word boundaries, etc. It is possible to use existing techniques, for example, the processing of the evaluation expression extraction unit described in Japanese Patent Application Laid-Open No. 2008-140359 (“Evaluation Information Extraction Device, Evaluation Information Extraction Method and Program”).
また、抽出した感性表現を検索対象に結び付ける方法としては、テキストとして明確に特定の検索対象のみについて書かれているもの(例:図鑑など)が利用できる場合は、テキスト中に出現する感性表現の全てを当該特定の検索対象に結び付けることができる。またそういったテキストが利用できない場合でも、検索対象の名称リスト(対象語リスト)があれば、当該リスト中の各検索対象について、テキスト中での当該検索対象と感性表現との共起情報や係り受け関係情報を利用する手法の他、関係抽出技術(例えば、特開2008−225565号公報「相互に関係する固有表現の組抽出装置及びその方法」)を利用するなどにより同様の処理が可能であり、任意の手法を選択することができる。 In addition, as a method of linking the extracted emotional expression to the search target, if a text that is clearly written only for a specific search target (for example, a picture book) can be used, the emotional expression that appears in the text can be used. Everything can be tied to that particular search target. Even if such text is not available, if there is a name list (target word list) to be searched, for each search target in the list, co-occurrence information and dependency between the search target and the emotional expression in the text In addition to the method of using the relationship information, the same processing can be performed by using a relationship extraction technique (for example, Japanese Patent Application Laid-Open No. 2008-225565 “Correlated Expression Combination Extraction Device and Method”). Any method can be selected.
(ステップS2)感性情報生成部32において、検索対象情報抽出部31で作成された検索対象とそれに結び付けられた感性表現とから、各感性表現の側面情報毎に検索対象の感性情報を生成し、結果を検索対象DB2へ格納する。
(Step S2) In the sensitivity
検索対象の感性情報は、当該検索対象に結び付けられた感性表現それぞれの感性情報と側面情報とを感性表現DB1から得て、側面情報が同じ感性情報毎(感性情報を構成する感性ベクトル毎)にその値の平均を取ることで当該側面情報の感性情報を計算し、これを全ての側面情報単位で行う。平均を取る際には、検索対象と感性表現との共起頻度などにより重み付けを行っても良い。
Sensitivity information to be searched is obtained from the
<感性検索部4>
感性検索部4は、図示しない入力手段から直接入力され又は記憶手段から読み出されて入力され又は通信媒体を介して他の装置等から入力された検索条件を入力とし、検索結果を出力するもので、図6に示すように条件入力部41、検索部42および結果出力部43からなる。
<
The
条件入力部41は、入力された検索条件を受け付け、解釈する。
The
検索部42は、前記検索条件と感性表現DB1とを用いて、検索対象DB2の検索、ここでは検索条件に感性的に近い検索対象の検索を行う。
The
結果出力部43は、前記検索結果を予め定められた形式で表示装置の表示画面等に出力する。
The
図7は感性検索部4における感性検索処理の流れを示すもので、以下、その動作を詳細に説明する。
FIG. 7 shows the flow of the sensibility search process in the
(ステップS11)条件入力部41において、検索条件として少なくとも1つの感性表現を取得し、S12へ進む。この際、検索条件の他に提示方法(上位X件のみ表示する、距離が設定した閾値以内である検索結果を表示する、等)を入力しても良い。
(Step S11) In the
検索条件の入力形式としては、様々な方法が考えられる。例えば、複数の感性表現を入力可能とすることも可能である。また、特定の用途に用いる感性検索を行うために、検索条件の一部は固定(例えば、感性表現の一つを「あっさり」に指定する等)として予め保持し、任意に入力可能な検索条件のみ、グラフィカルユーザインタフェース等を用いてユーザに入力させても良い。 Various methods are conceivable as the search condition input format. For example, it is possible to input a plurality of emotional expressions. In addition, in order to perform a sensitivity search for a specific application, a part of the search conditions is fixed in advance (for example, one of the emotional expressions is designated as “light”), and the search conditions can be arbitrarily input. Alternatively, the user may be input using a graphical user interface or the like.
以後、検索条件は1単語として説明するが、2単語以上であった場合は(S14)において全ての感性表現についての側面情報を得てその論理積をとった後、感性情報抽出部3の(S2)と同様の方法でその側面情報毎に感性情報を足し合わせ、平均を取ることで検索条件の感性情報を作成するものとする。 Hereinafter, the search condition will be described as one word. If there are two or more words, the side information about all the emotional expressions is obtained in (S14) and the logical product is obtained. It is assumed that the sensitivity information of the search condition is created by adding the sensitivity information for each aspect information in the same manner as in S2) and taking the average.
(ステップS12)検索部42において、入力された検索条件である感性表現が感性表現DB1に登録されているかないか否か調べ、登録されていればS14へ、登録されていなければS13へ進む。
(Step S12) In the
(ステップS13)結果出力部43において、感性検索ができないため、結果が無いことを示すメッセージを表示する。または、代替としてWebのキーワード検索を行った結果などを表示しても良い。
(Step S <b> 13) The
(ステップS14)検索部42において、感性表現DB1から、検索条件として入力された感性表現に対応する感性情報Xおよび側面情報Yを取り出し、S15へ進む。
(Step S14) In the
(ステップS15)検索対象DB2から前記側面情報Yを含むレコードを検索し、当該レコードの感性情報と前記感性情報Xとの間の距離を計算し、結果出力部43へ出力してS16へ進む。
(Step S15) A record including the side information Y is searched from the
感性情報を図2、図3のようにベクトルで表現した場合、感性的に近いかどうかを判定するための距離計算は、検索条件として入力された感性表現に対応する感性情報Xを表す感性ベクトルと検索対象DB2中の感性情報を表す感性ベクトルとの間の距離をユークリッド距離、コサイン類似度などの任意の距離尺度を用いて行うことができる。
When the sensitivity information is expressed as a vector as shown in FIG. 2 and FIG. 3, the distance calculation for determining whether it is close to the sensitivity is the sensitivity vector representing the sensitivity information X corresponding to the sensitivity expression input as a search condition. And the sensitivity vector representing the sensitivity information in the
(ステップS16)結果出力部43において、距離が近いレコード順に検索対象IDその他の情報を並べて画面等に出力し、終了する。
(Step S16) In the
以下、前述した実施の形態における具体的な処理例、ここではペットの検索を対象とした場合を例に取って詳細に説明する。なお、検索部42における検索条件と検索対象DB2に登録された検索対象との感性的な距離の計算にはコサイン距離を用いるものとする。また、検索対象情報抽出部31において使用するテキストは、(1)明確に検索対象のみについて書かれている場合と、(2)そうでない場合との両方について説明する。
Hereinafter, a specific processing example in the above-described embodiment will be described in detail by taking as an example a case of searching for a pet. Note that the cosine distance is used for the calculation of the sensibility distance between the search condition in the
<感性情報抽出部3で行う処理>
(1)テキストが検索対象について書かれている場合
テキスト中に出現する感性表現の全てを検索対象に結び付けることができる場合のペット検索(入力した感性表現からペットを検索)を実現するための検索対象データベースの作成方法の一例は以下になる。
<Processing performed by the sensitivity
(1) When the text is written about the search target Search for realizing a pet search (search for pets from the input emotional expression) when all the Kansei expressions appearing in the text can be linked to the search target An example of how to create a target database is as follows.
(ステップS1)検索対象情報抽出部31へのある時点(文書ID=100の時)での入力の一例を図8(a)に示す。(a)テキスト文書は、文書メタ情報としてペット名、文書IDを有するテキストの例である。テキスト解析結果の例が図8(b)の下線を除く部分であり、テキストから感性表現を抽出した結果が図8(b)の下線部分となる。
(Step S1) FIG. 8A shows an example of input to the search target
テキストから抽出した感性表現は、メタ情報にあるペット名に結び付けて保持する。同一検索対象に関するテキストが複数ある場合は、各テキストから抽出した感性表現を検索対象毎にまとめておく。ここでの抽出内容の例を図8(c)に示す。図8の例のように検索対象が「アメリカン・ショートヘア」であった場合、「力強い」、「やさしい」などの感性表現は文書ID=100以外のテキストからも抽出されており、(c)の抽出総数に反映されている。S2へ進む。 The emotional expression extracted from the text is held in association with the pet name in the meta information. When there are a plurality of texts related to the same search target, the emotional expressions extracted from each text are collected for each search target. An example of the extracted contents is shown in FIG. When the search target is “American short hair” as in the example of FIG. 8, emotional expressions such as “strong” and “easy” are extracted from texts other than document ID = 100, and (c) This is reflected in the total number of extractions. Proceed to S2.
(ステップS2)感性情報生成部32において、感性表現DB1から、S1で抽出した感性表現に対応する感性情報および側面情報を得て、側面情報毎に感性情報を生成する。全てのテキストから感性表現を抽出した結果、検索対象が「アメリカン・ショートヘア」である全てのレコードが図8(c)にある4レコードのみだったとすると、検索対象「アメリカン・ショートヘア」の感性ベクトルは、その各感性表現「ふっくら」、「力強い」、「がっしり」、「やさしい」に対応する感性情報および側面情報を感性表現DB1(図2)より得て、同じ側面に関する感性表現の感性情報を足し合わせ、平均を取ることで計算する。またこの際、(c)の抽出回数で重み付けすることも可能である。
(Step S2) In the sensitivity
「ふっくら」の側面が[品質][外見的特長]、「力強い」および「がっしり」の側面が[外見的特長]、「優しい」の側面が[善意][人柄]であった場合、「アメリカン・ショートヘア」には[品質][外見的特長][善意][人柄]の合計4つの側面についての感性情報が生成される(図3の検索対象ID=「アメリカン・ショートヘア」の行を参照のこと。側面情報の欄にある感性表現は、抽出された感性表現のうち、同欄の側面情報に属するものが記されている。)。 If the plump side is [Quality] [Appearance Features], the “Strong” and “Something” sides are [Appearance Features], and the “Friendly” side is [Goodwill] [Personality], then “American” “Short hair” generates sensibility information for a total of four aspects of [quality] [appearance features] [good intentions] [personality] (search ID = “American short hair” in FIG. 3) (See Kansei expression in the side information column, which describes the extracted Kansei expressions that belong to the side information in the same column.)
同様にして他の全ての検索対象についても感性情報を求め、検索対象DB2に格納して終了する。検索対象とともに、以上の方法により求めた側面毎の感性情報を含む検索対象DB2を示したのが図3である。
Similarly, sensibility information is obtained for all other search targets, stored in the
(2)その他のテキストを用いる場合
検索対象について書かれたテキストが利用できない場合は、対象語リストが必要となる。
(2) When using other texts When the text written about the search target is not available, a target word list is required.
(ステップS1)検索対象情報抽出部31へのある時点(文書ID=300の時)での入力の一例を図9(a−1)に示す。(a−1)テキスト文書は、文書メタ情報として文書IDのみを有するテキストの例である。また、対象語リストを図9(a−2)に示す。これは「アメリカン・ショートヘア」、「シンガプーラ」など、検索対象となるペットの表記のリストであり、少なくとも検索対象の標準形である検索対象IDを持つ他、(a−2)ではテキスト中の表記ゆれを吸収するための表記ゆれ情報を保持するものである。
(Step S1) FIG. 9A-1 shows an example of input to the search target
テキスト解析結果の例が図9(b)の下線を除く部分であり、テキストから感性表現を抽出した結果が図9(b)の下線部分となる。入力された対象語リストの検索対象またはその表記ゆれがテキスト中に出現する文の前後2文内に含まれる感性表現を、検索対象と結び付けて作成した抽出結果の例を図9(c)に示す(この例で処理中の対象語は「アメリカン・ショートヘア」)。S2へ進む。 The example of the text analysis result is a part excluding the underline in FIG. 9B, and the result of extracting the emotional expression from the text is the underline part in FIG. 9B. FIG. 9C shows an example of an extraction result created by linking Kansei expressions included in two sentences before and after a sentence in which the search target of the input target word list or its notation fluctuation appears in the text. Shown (in this example, the target word being processed is “American short hair”). Proceed to S2.
(ステップ S2)以降の処理は(1)の場合と同様のため省略する。 Since the processing after (Step S2) is the same as the case of (1), it is omitted.
<感性検索部4で行う処理>
上述したペット検索用の検索対象データベース(図3)の検索例を説明する。
<Processing performed by the
A search example of the above-described search target database (FIG. 3) for pet search will be described.
(ステップS11)条件入力部で以下の4パターンの検索条件が入力されたとする(なお、[度量衡][装い,外見的特長,人柄]等の側面情報は説明の便宜上、記載したもので、実際に入力されるわけではない。)。 (Step S11) Assume that the following four patterns of search conditions are input in the condition input unit (Note that the side information such as [measurement] [appearance, appearance features, personality] is described for convenience of explanation, Is not entered in.)
〈入力1〉小さい[度量衡]
〈入力2〉おしゃれ[装い,外見的特長,人柄]
〈入力3〉おしゃれ[装い,外見的特長,人柄],華やか[外見的特長]
〈入力4〉異国情緒あふれる
〈入力1〉の場合
(ステップS12)検索条件「小さい」は感性表現DB1に登録があるので、S14へ進む。
<
<
<
<
(ステップS14)感性表現DB1から「小さい」の感性情報および側面情報[度量衡]を得る。 (Step S14) “Small” sensitivity information and side information [metrics] are obtained from the sensitivity expression DB1.
(ステップS15)S14で得た感性情報と、検索対象DB2において側面が[度量衡]になっているレコードの感性情報との距離計算を行い、S16へ進む。 (Step S15) A distance calculation is performed between the sensitivity information obtained in S14 and the sensitivity information of the record whose side is [metrics] in the search target DB2, and the process proceeds to S16.
(ステップS16)S15での距離が近かった順に検索対象を出力する。検索対象DB2のレコードが図3にある「アメリカン・ショートヘア」、「シンガプーラ」、「シャム」、「ペルシャ」のみと仮定した場合、「小さい」との距離順に検索対象を並べると、「シンガプーラ」、「シャム」、「ペルシャ」となる(「アメリカン・ショートヘア」には側面が[度量衡]である感性情報がないため、検索結果には含まない。)。その3件の検索結果を画面に出力して終了する。
(Step S16) The search objects are output in the order from the shortest distance in S15. Assuming that the records in the
〈入力2〉の場合
(ステップS12)検索条件「おしゃれ」は感性表現DB1に登録があるので、S14へ進む。
In the case of <
(ステップS14)感性表現DB1から「おしゃれ」の感性情報および側面情報を得る。この際、側面情報は[装い,外見的特長,人柄]である。 (Step S14) The “fashionable” sensitivity information and side information are obtained from the sensitivity expression DB1. At this time, the side information is [appearance, appearance features, personality].
(ステップS15)S14で得た感性情報と、検索対象DB2において側面が[装い,外見的特長,人柄]の3つのうちのどれかに該当するレコードの感性情報との距離計算を行い、S16へ進む。1検索対象で該当する側面が2つ以上ある場合は、最も距離が近い側面との距離を次のステップで使用する。 (Step S15) A distance calculation is performed between the sensitivity information obtained in S14 and the sensitivity information of the record corresponding to any one of the three aspects “Appearance, Appearance Features, Personality” in the search target DB2, and the process goes to S16 move on. When there are two or more corresponding side faces in one search target, the distance to the side face with the closest distance is used in the next step.
(ステップS16)S15での距離が近かった順に検索対象を出力する。検索対象DB2のレコードが図3にある「アメリカン・ショートヘア」、「シンガプーラ」、「シャム」、「ペルシャ」のみと仮定した場合、「おしゃれ」との距離順に検索対象を並べると、「シャム」、「ペルシャ」、「シンガプーラ」、「アメリカン・ショートヘア」となる。結果を画面に出力して終了する。
(Step S16) The search objects are output in the order from the shortest distance in S15. Assuming that the records in the
〈入力3〉の場合
(ステップS12)検索条件は「おしゃれ」と「華やか」の2単語であり、両方とも感性表現DB1に登録があるため、次のステップへ進む。複数の単語入力があり、感性表現DB1に登録が無い単語があった場合は、登録がある単語の情報のみを用いて次ステップ以降の処理を行う。
In the case of <
(ステップS14)感性表現DB1から「おしゃれ」と「華やか」の両単語の感性情報および側面情報を得る。まず、側面情報はそれぞれの単語の側面情報[装い,外見的特長,人柄]と[外見的特長]との論理積をとって、[外見的特長]のみとする。そして、両単語の側面情報が[外見的特長]である感性情報の平均を取ることで、検索条件の感性情報を計算する。S15へ進む。 (Step S14) Sensitivity information and side information of both words “fashionable” and “gorgeous” are obtained from the sensitivity expression DB1. First, the side information is obtained by performing a logical product of the side information [dressing, appearance features, personality] and [appearance features] of each word, and only “appearance features” are obtained. Then, the sensitivity information of the search condition is calculated by taking the average of the sensitivity information whose side information of both words is [appearance feature]. Proceed to S15.
(ステップS15)S14で得た感性情報と、検索対象DB2において側面が[外見的特長]であるレコードの感性情報との距離計算を行い、S16へ進む。 (Step S15) Distance calculation is performed between the sensitivity information obtained in S14 and the sensitivity information of the record whose side surface is [appearance feature] in the search target DB2, and the process proceeds to S16.
(ステップS16)S15での距離が近かった順に検索対象を出力する。検索対象DB2のレコードが図3にある「アメリカン・ショートヘア」、「シンガプーラ」、「シャム」、「ペルシャ」のみと仮定した場合、「おしゃれ」「華やか」との距離順に検索対象を並べると、「ペルシャ」、「シャム」、「アメリカン・ショートヘア」、「シンガプーラ」となる。結果を画面に出力して終了する。 (Step S16) The search objects are output in the order from the shortest distance in S15. Assuming that the records in the search target DB2 are only “American short hair”, “Singapura”, “Siam”, and “Persia” in FIG. "Persia", "Siam", "American short hair", "Singapura". Output the result to the screen and exit.
〈入力4〉の場合
(ステップS12)検索条件は「異国情緒あふれる」であり、感性表現DB1に登録がないため、S13へ進む。
In the case of <
(ステップS13)感性検索ができないため、結果が無いことを示すメッセージ、例えば「残念ながら感性検索ができませんでした。通常の検索結果を表示します。」を画面に出力して終了する。 (Step S13) Since Kansei search cannot be performed, a message indicating that there is no result, for example, “Unfortunately Kansei search could not be performed. Normal search results are displayed.” Is output to the screen and the process is terminated.
なお、本発明は、周知のコンピュータに媒体もしくは通信回線を介して、図1、図4、図6の構成図に示された機能を実現するプログラムあるいは図5、図7の流れ図に示された手順を備えるプログラムをインストールすることによっても実現可能である。 The present invention is shown in a program for realizing the functions shown in the configuration diagrams of FIGS. 1, 4 and 6 or a flowchart of FIGS. 5 and 7 via a medium or communication line on a known computer. It can also be realized by installing a program having a procedure.
1:感性表現データベース(DB)、2:検索対象データベース(DB)、3:感性情報抽出部、4:感性検索部、31:検索対象情報抽出部、32:感性情報生成部、41:条件入力部、42:検索部、43:結果出力部。 1: Sensitivity expression database (DB) 2: Search object database (DB) 3: Sensitivity information extraction unit 4: Sensitivity search unit 31: Search object information extraction unit 32: Sensitivity information generation unit 41: Condition input Part, 42: search part, 43: result output part.
Claims (10)
入力されたテキストの集合から感性表現を抽出し、抽出した感性表現を検索対象に結び付ける検索対象情報抽出部と、
結び付けられた検索対象と感性表現とを入力とし、感性表現に対する感性情報および当該感性表現が属する側面情報を少なくとも格納した感性表現データベースを用いて検索対象に対する側面情報毎の感性情報を生成し、検索対象データベースに格納する感性情報生成部とを備えた
ことを特徴とする感性情報抽出装置。 A sensitivity information extraction device that extracts sensitivity information from a set of texts and creates a search target database,
A search object information extraction unit that extracts a Kansei expression from a set of input texts and links the extracted Kansei expression to a search object;
Using the linked search target and the emotional expression as input, and using the emotional expression database that stores at least the emotional information for the emotional expression and the side information to which the emotional expression belongs, the emotional information for each aspect information for the search target is generated and searched. A sensibility information extraction device comprising a sensibility information generation unit for storing in a target database.
入力されたテキストが特定の検索対象のみについて記述しているものである場合、当該テキスト中に出現する感性表現の全てを当該特定の検索対象に結び付ける
ことを特徴とする請求項1に記載の感性情報抽出装置。 In the search target information extraction unit,
The sensibility according to claim 1, wherein when the input text describes only a specific search object, all of the sensibility expressions appearing in the text are linked to the specific search object. Information extraction device.
入力されたテキストが検索対象を特定しないものである場合、当該テキスト中に出現する感性表現を、所定の検索対象リスト中の各検索対象に当該テキスト中での当該検索対象と感性表現との共起情報や係り受け関係情報を利用して結び付ける
ことを特徴とする請求項1に記載の感性情報抽出装置。 In the search target information extraction unit,
If the input text does not specify the search target, the emotional expression that appears in the text is shared with each search target in the predetermined search target list. The sensibility information extraction device according to claim 1, wherein the information is linked using starting information and dependency relationship information.
検索対象に結び付けられた感性表現それぞれの感性情報と側面情報とを感性表現データベースから得て、側面情報が同じ感性情報毎にその値の平均を取ることで当該側面情報の感性情報を生成する
ことを特徴とする請求項1に記載の感性情報抽出装置。 In the Kansei information generator,
Kansei information and side information of each Kansei expression linked to the search target is obtained from the Kansei expression database, and the sensitivity information of the side information is generated by averaging the values for each Kansei information with the same side information. The sensibility information extraction device according to claim 1.
検索条件を受け付ける条件入力部と、
前記受け付けた検索条件と、感性表現に対する感性情報および当該感性表現が属する側面情報を少なくとも格納した感性表現データベースとを用いて、前記検索対象データベースの前記検索条件に感性的に近い検索を行う検索部と、
前記検索結果を予め定められた形式で出力する結果出力部とを備えた
ことを特徴とする感性検索装置。 A sensitivity search device that performs information search using a search target database that stores at least sensitivity information for each side information for a search target,
A condition input unit for receiving search conditions;
A search unit that performs a search that is sensibly close to the search condition in the search target database using the received search condition and a sensitivity expression database that stores at least the sensitivity information for the sensitivity expression and the side information to which the sensitivity expression belongs. When,
And a result output unit for outputting the search result in a predetermined format.
検索条件として入力された感性表現に対応する感性情報および側面情報を感性表現データベースから取り出し、検索対象データベースから同じ側面情報を含むレコードを検索し、当該レコードの感性情報と前記検索条件として入力された感性表現に対応する感性情報との間の距離を計算する
ことを特徴とする請求項5に記載の感性検索装置。 The search part
Sensitivity information and aspect information corresponding to the sensitivity expression input as a search condition are extracted from the sensitivity expression database, a record including the same aspect information is searched from the search target database, and the sensitivity information of the record and the search condition are input. The sensibility search device according to claim 5, wherein a distance between the sensibility information corresponding to the sensibility expression is calculated.
ことを特徴とする請求項6に記載の感性検索装置。 When there are multiple Kansei expressions input as search conditions, Kansei information and side information corresponding to each Kansei expression are extracted from the Kansei expression database, and after calculating the logical product of the side information, the side information is The sensitivity search apparatus according to claim 6, wherein sensitivity information as a search condition is created by taking an average of values.
検索対象情報抽出部が、入力されたテキストの集合から感性表現を抽出し、抽出した感性表現を検索対象に結び付けるステップと、
感性情報生成部が、結び付けられた検索対象と感性表現とを入力とし、感性表現に対する感性情報および当該感性表現が属する側面情報を少なくとも格納した感性表現データベースを用いて検索対象に対する側面情報毎の感性情報を生成し、検索対象データベースに格納するステップとを含む
ことを特徴とする感性情報抽出方法。 A method for extracting Kansei information by extracting Kansei information from a set of texts and creating a search target database,
A search target information extraction unit extracts a Kansei expression from a set of input text, and links the extracted Kansei expression to the search target;
Sensitivity information generation unit receives the linked search object and emotional expression as input, and uses the emotional expression database that stores at least the emotional information for the emotional expression and the aspect information to which the emotional expression belongs to And a method of generating information and storing it in a search target database.
条件入力部が、検索条件を受け付けるステップと、
検索部が、前記受け付けた検索条件と、感性表現に対する感性情報および当該感性表現が属する側面情報を少なくとも格納した感性表現データベースとを用いて、前記検索対象データベースの前記検索条件に感性的に近い検索を行うステップと、
結果出力部が、前記検索結果を予め定められた形式で出力するステップとを含む
ことを特徴とする感性検索方法。 A sensitivity search method for performing an information search using a search target database that stores at least sensitivity information for each side information for a search target,
A condition input unit accepting a search condition;
The search unit uses the received search condition and the emotional expression database storing at least the sensitivity information for the emotional expression and the side information to which the emotional expression belongs to perform a search close to the search condition in the search target database. The steps of
A result output unit including the step of outputting the search result in a predetermined format.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009195093A JP5311488B2 (en) | 2009-08-26 | 2009-08-26 | KANSEI information extraction device, KANSEI search device, method and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009195093A JP5311488B2 (en) | 2009-08-26 | 2009-08-26 | KANSEI information extraction device, KANSEI search device, method and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011048527A true JP2011048527A (en) | 2011-03-10 |
JP5311488B2 JP5311488B2 (en) | 2013-10-09 |
Family
ID=43834795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009195093A Active JP5311488B2 (en) | 2009-08-26 | 2009-08-26 | KANSEI information extraction device, KANSEI search device, method and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5311488B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018122919A1 (en) * | 2016-12-26 | 2018-07-05 | 三菱電機株式会社 | Device for searching based on feeling word |
CN110866408A (en) * | 2018-08-28 | 2020-03-06 | 本田技研工业株式会社 | Database creation device and search system |
KR102500164B1 (en) * | 2022-06-15 | 2023-02-17 | 주식회사 스타일여신 | Emotional information analysis system automatically extracting emotional information from objects and emotional information analysis method using the same |
US11960522B2 (en) | 2021-03-09 | 2024-04-16 | Honda Motor Co., Ltd. | Information management system for database construction |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0887520A (en) * | 1994-09-19 | 1996-04-02 | Sharp Corp | Sensitivity input optimum document file extraction mechanism |
JP2001022778A (en) * | 1999-07-09 | 2001-01-26 | Fuji Xerox Co Ltd | Device and method for retrieval |
JP2001101222A (en) * | 1999-10-01 | 2001-04-13 | Just Syst Corp | Data retrieving device and storage medium in which program for data retrieval is stored |
JP2003178083A (en) * | 2002-12-06 | 2003-06-27 | Hideki Nishimoto | Document content discriminating device, document, paper band, document content discriminating program |
JP2005284776A (en) * | 2004-03-30 | 2005-10-13 | Honda Motor Co Ltd | Text mining apparatus and text analysis method |
JP2007018234A (en) * | 2005-07-07 | 2007-01-25 | National Institute Of Information & Communication Technology | Automatic feeling-expression word and phrase dictionary generating method and device, and automatic feeling-level evaluation value giving method and device |
JP2008140359A (en) * | 2006-11-08 | 2008-06-19 | Nippon Telegr & Teleph Corp <Ntt> | Evaluation information extractor, evaluation information extraction method, and program therefor |
-
2009
- 2009-08-26 JP JP2009195093A patent/JP5311488B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0887520A (en) * | 1994-09-19 | 1996-04-02 | Sharp Corp | Sensitivity input optimum document file extraction mechanism |
JP2001022778A (en) * | 1999-07-09 | 2001-01-26 | Fuji Xerox Co Ltd | Device and method for retrieval |
JP2001101222A (en) * | 1999-10-01 | 2001-04-13 | Just Syst Corp | Data retrieving device and storage medium in which program for data retrieval is stored |
JP2003178083A (en) * | 2002-12-06 | 2003-06-27 | Hideki Nishimoto | Document content discriminating device, document, paper band, document content discriminating program |
JP2005284776A (en) * | 2004-03-30 | 2005-10-13 | Honda Motor Co Ltd | Text mining apparatus and text analysis method |
JP2007018234A (en) * | 2005-07-07 | 2007-01-25 | National Institute Of Information & Communication Technology | Automatic feeling-expression word and phrase dictionary generating method and device, and automatic feeling-level evaluation value giving method and device |
JP2008140359A (en) * | 2006-11-08 | 2008-06-19 | Nippon Telegr & Teleph Corp <Ntt> | Evaluation information extractor, evaluation information extraction method, and program therefor |
Non-Patent Citations (4)
Title |
---|
CSNG199900209002; 原田,田中,伊東,中谷: '画像検索のための形状特徴空間の構築' 電子情報通信学会技術研究報告 第95巻,第322号, 19951019, pp.7-12(NLC95-31,PRU95-136), 社団法人電子情報通信学会 * |
CSNG199901082010; 中森,佐藤,和多田: 'ファジィデータの因子空間モデル' 日本ファジィ学会誌 第9巻,第1号, 19970215, pp.99-107, 日本ファジィ学会 * |
JPN6012060670; 中森,佐藤,和多田: 'ファジィデータの因子空間モデル' 日本ファジィ学会誌 第9巻,第1号, 19970215, pp.99-107, 日本ファジィ学会 * |
JPN6012060672; 原田,田中,伊東,中谷: '画像検索のための形状特徴空間の構築' 電子情報通信学会技術研究報告 第95巻,第322号, 19951019, pp.7-12(NLC95-31,PRU95-136), 社団法人電子情報通信学会 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018122919A1 (en) * | 2016-12-26 | 2018-07-05 | 三菱電機株式会社 | Device for searching based on feeling word |
CN110866408A (en) * | 2018-08-28 | 2020-03-06 | 本田技研工业株式会社 | Database creation device and search system |
US11436278B2 (en) | 2018-08-28 | 2022-09-06 | Honda Motor Co., Ltd. | Database creation apparatus and search system |
CN110866408B (en) * | 2018-08-28 | 2023-10-24 | 本田技研工业株式会社 | Database creation device and search system |
US11960522B2 (en) | 2021-03-09 | 2024-04-16 | Honda Motor Co., Ltd. | Information management system for database construction |
KR102500164B1 (en) * | 2022-06-15 | 2023-02-17 | 주식회사 스타일여신 | Emotional information analysis system automatically extracting emotional information from objects and emotional information analysis method using the same |
Also Published As
Publication number | Publication date |
---|---|
JP5311488B2 (en) | 2013-10-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4347226B2 (en) | Information extraction program, recording medium thereof, information extraction apparatus, and information extraction rule creation method | |
CN102890701B (en) | The system and method that affection data is used | |
US8412650B2 (en) | Device and method and program of text analysis based on change points of time-series signals | |
JP2005182280A (en) | Information retrieval system, retrieval result processing system, information retrieval method, and program | |
JP6605410B2 (en) | Emotion factor estimation support device, emotion factor estimation support method, and emotion factor estimation support program | |
JP5311488B2 (en) | KANSEI information extraction device, KANSEI search device, method and program thereof | |
JP6821528B2 (en) | Evaluation device, evaluation method, noise reduction device, and program | |
JP5204203B2 (en) | Example translation system, example translation method, and example translation program | |
JP2001084256A (en) | Device and method for processing database and computer readable storage medium with database processing program recorded therein | |
JP2000163437A (en) | Method and device for classifying document and recording medium where document classifying program is recorded | |
JP2007279978A (en) | Document retrieval device and document retrieval method | |
JP6305630B2 (en) | Document search apparatus, method and program | |
JP4361299B2 (en) | Evaluation expression extraction apparatus, program, and storage medium | |
KR20090126862A (en) | System and method for analyzing emotional information from natural language sentence, and medium for storaging program for the same | |
JP6529698B2 (en) | Data analyzer and data analysis method | |
JP2016162357A (en) | Analysis device and program of user's emotion to product | |
Brunner et al. | Neural symbolic music genre transfer insights | |
US11495225B2 (en) | Response device, response method, and storage medium | |
JP7427510B2 (en) | Information processing device, information processing method and program | |
JP2019061522A (en) | Document recommendation system, document recommendation method and document recommendation program | |
JP5137134B2 (en) | Kansei information extraction / retrieval device, method and program thereof | |
JP5326781B2 (en) | Extraction rule creation system, extraction rule creation method, and extraction rule creation program | |
Gala et al. | Product Sentiment Trend Prediction | |
JP2021174339A (en) | Retrieval device and method | |
JP2008171243A (en) | Content retrieval device and method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20101215 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20110613 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20110614 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20110615 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20110616 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120709 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120905 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121122 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130508 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130604 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130626 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130627 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5311488 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |