JP3164872B2 - 情報データベース装置 - Google Patents

情報データベース装置

Info

Publication number
JP3164872B2
JP3164872B2 JP06155292A JP6155292A JP3164872B2 JP 3164872 B2 JP3164872 B2 JP 3164872B2 JP 06155292 A JP06155292 A JP 06155292A JP 6155292 A JP6155292 A JP 6155292A JP 3164872 B2 JP3164872 B2 JP 3164872B2
Authority
JP
Japan
Prior art keywords
feature vector
class
keyword
encoder
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP06155292A
Other languages
English (en)
Other versions
JPH05233707A (ja
Inventor
潤 豊浦
英一 有田
和男 瀬尾
隆一 小船
隆史 横田
裕喜 小中
一裕 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP06155292A priority Critical patent/JP3164872B2/ja
Publication of JPH05233707A publication Critical patent/JPH05233707A/ja
Application granted granted Critical
Publication of JP3164872B2 publication Critical patent/JP3164872B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、文章情報が属するク
ラスの決定や文章情報から連想ワードを連想する情報デ
ータベース装置に関するものである。
【0002】
【従来の技術】従来はこの種の情報データベース装置は
存在しなかったため、人間が文章情報からキーワードを
抽出し、その抽出したキーワードに基づいてその文章情
報が属するクラスを決定していた。
【0003】
【発明が解決しようとする課題】従来はこの種の情報デ
ータベース装置は存在しなかったので、人間の主観によ
り文章情報が属するクラスを決定しなければならず、多
大な労力を必要とし、また、このクラスの決定を正確な
ものにするためには専門的知識が要求され、限られた人
間しかできないなどの問題点があった。
【0004】この発明は上記のような問題点を解消する
ためになされたもので、人間の情報記憶と似た機構を有
するニューラルネットワークを用いることにより、人為
性を排除して自動的にクラスの決定や連想ワードを連想
できる情報データベース装置を得ることを目的とする。
【0005】
【課題を解決するための手段】請求項1の発明に係る情
報データベース装置は、キーワード抽出手段により文章
情報から抽出されたキーワードを特徴ベクトルに変換す
るエンコーダ、並びにそのエンコーダにより変換された
特徴ベクトルを過去の学習結果に基づいて分類すること
によりその文章情報が属するクラスを決定するととも
に、そのクラスから過去の学習結果に基づいて連想ワー
ドを表す特徴ベクトルを連想するニューラルネットワー
クを設け、デコーダにて、そのニューラルネットワーク
により連想された特徴ベクトルを連想ワードに変換する
ようにしたものである。
【0006】また、請求項2の発明に係る情報データベ
ース装置は、エンコーダにより検索用ベクトルから変換
された特徴ベクトルを過去の学習結果に基づいて分類す
ることによりその検索用ベクトルが属するクラスを決定
するとともに、そのクラスから過去の学習結果に基づい
て連想ワードを表す特徴ベクトルを連想するニューラル
ネットワークを設け、デコーダにて、そのニューラルネ
ットワークにより連想された特徴ベクトルを連想ワード
に変換するようにしたものである。
【0007】
【作用】請求項1の発明における情報データベース装置
は、ニューラルネットワークを設けたことにより、文章
情報のキーワードを表す特徴ベクトルが過去の学習結果
に基づいて分類され、その文章情報が属するクラスが決
定される。また、デコーダを設けたことにより、ニュー
ラルネットワークに連想された特徴ベクトルが連想ワー
ドに変換される。
【0008】また、請求項2の発明における情報データ
ベース装置は、ニューラルネットワークを設けたことに
より、検索用キーワードを表す特徴ベクトルが過去の学
習結果に基づいて分類され、その検索用キーワードが属
するクラスが決定される。また、デコーダを設けたこと
により、ニューラルネットワークに連想された特徴ベク
トルが連想ワードに変換される。
【0009】
【実施例】実施例1.以下、この発明の一実施例を図に
ついて説明する。図1はこの発明の一実施例による情報
データベース装置を示す構成図であり、図において、1
は文章情報を入力し、その文章情報から所定のキーワー
ドを抽出するキーワード抽出手段、2はキーワード抽出
手段1により抽出されたキーワードを特徴ベクトルVt
1に変換するエンコーダ、3はエンコーダ2により変換
された特徴ベクトルVt1を過去の学習結果に基づいて
分類することによりその文章情報が属するクラスを決定
するとともに、そのクラスから過去の学習結果に基づい
て連想ワードを表す特徴ベクトルVt2を連想するニュ
ーラルネットワーク、4はニューラルネットワーク3に
より連想された特徴ベクトルVt2を連想ワードに変換
するデコーダである。
【0010】次に動作について説明する。まず、図2は
文章情報を示すデータ図であり、この文章情報がキーワ
ード抽出手段1から入力されると、例えばキーワード抽
出手段1がキーワードの候補としてA,B,C,D,
E,Fを有していた場合、この文章の中にはA,C,E
が存在するので、この文章中からキーワードとしてA,
C,Eを抽出する。
【0011】次に、キーワード抽出手段1により抽出さ
れたキーワードA,C,Eをエンコーダ2が下記に示す
ような特徴ベクトルVt1に変換する。 Vt1=(A,B,C,D,E,F) =(1,0,1,0,1,0) この例では、抽出されたキーワードを、特徴ベクトルV
t1の次元に対応させ、キーワードが抽出された次元を
“1”、抽出されなかった次元を“0”としている。こ
の他、特徴ベクトルVt1の作成方法として、キーワー
ドが抽出された回数を特徴ベクトルVt1の次元の値と
するものなどがある。
【0012】次に、エンコーダ2により変換された特徴
ベクトルVt1をニューラルネットワーク3が自己の入
力層3aに入力する(図3参照)。これにより、ニュー
ラルネットワーク3は特徴ベクトルVt1を過去の学習
結果に基づいて分類することにより文章情報が属するク
ラスを決定し、その決定したクラスを出力層3cから出
力する。ここで、この分類をするにあたり過去の学習結
果を用いて行うが、過去の学習結果はニューラルネット
ワーク3のリンク3bのリンク値、即ち入力層3aと出
力層3cを結びつける“重み”で表されている(重みの
値は、通常初期値としてすべて“1”が与えられるが、
分類・学習ごとに変化していくものである)。例えば、
クラスC2に着目した場合に、“重み”が図4に示す通
りであれば、入力層3aとクラスC2の結合度Qは以下
のように示すことができる。 Q=A×2+B×0+C×1+D×1+E×3+F×2 =1×2+0×0+1×1+0×1+1×3+0×2 =6 従って、入力層3aとクラスC2の結合度Qは6とな
る。
【0013】同様にして、入力層3aとクラスC1,C
3,C4の結合度Qをそれぞれ求め、この結合度Qが最
大のクラスを今回入力した文章情報の属するクラスとし
て決定する。例えば、クラスC1,C2,C3,C4の
結合度Qがそれぞれ“4”,“6”,“3”,“5”で
あればクラスC2が選択される。なお、この決定結果は
出力層3cから出力するとともに、次回の分類のために
この結果を学習すべく、決定結果と整合する方向にリン
ク3bの“重み”の値を変更する。
【0014】また、ニューラルネットワーク3は、上記
の如く決定された文章情報の属するクラスから連想され
る連想ワード、即ちキーワード群を得るために、決定し
たクラスから過去の学習結果に基づいて連想ワードを表
す特徴ベクトルを連想する。ここで、この連想をするに
あたり、上記の分類のときと同様に過去の学習結果を用
いて行うが、過去の学習結果はニューラルネットワーク
3のリンク3f(図5参照)のリンク値(重み)で表さ
れている。上記の例では、クラスC2が選択されている
ので、図5に示す通り、入力層3eのC1,C2,C
3,C4にはそれぞれ“0”,“1”,“0”,“0”
が入力される。ここで、上記の分類のときと同様にし
て、入力層3eとA,B,・・・Fの結合度Qをそれ
ぞれ求め、例えば、結合度Qが“3”以上であれば、連
想が成立したものとみなす。仮に、入力層3eとA,
B,・・・Fの結合度Qがそれぞれ“5”,“6”,
“7”,“2”,“0”,“2”であれば、A,B,C
について連想が成立する。従って、この場合、出力層3
gから特徴ベクトルVt2=(1,1,1,0,0,
0)が出力される。
【0015】そして、ニューラルネットワーク3が出力
する特徴ベクトルVt2をデコーダ4が連想ワードに変
換して処理を終了する。なお、この例では、A,B,C
が連想ワードとして出力される。また、デコーダ4の動
作はエンコーダ2の反対動作である。
【0016】実施例2.図6はこの発明の他の実施例に
よる情報データベース装置を示す構成図であり、図にお
いて、5は検索用キーワードを入力し、その検索用キー
ワードを特徴ベクトルVt1に変換するエンコーダであ
る。実施例2は、文章情報からキーワードを抽出すると
いう手順を省略し、エンコーダ5に直接検索用キーワー
ドを入力したものであり、この点を除き実施例1と同様
であるため説明を省略する。
【0017】
【発明の効果】以上のように、請求項1の発明によれ
ば、キーワード抽出手段により文章情報から抽出された
キーワードを特徴ベクトルに変換するエンコーダ、並び
にそのエンコーダにより変換された特徴ベクトルを過去
の学習結果に基づいて分類することによりその文章情報
が属するクラスを決定するとともに、そのクラスから過
去の学習結果に基づいて連想ワードを表す特徴ベクトル
を連想するニューラルネットワークを設け、デコーダに
て、そのニューラルネットワークにより連想された特徴
ベクトルを連想ワードに変換するように構成したので、
人為性を介さずに自動的にクラスの決定や連想ワードの
連想ができるなどの効果がある。
【0018】また、請求項2の発明によれば、エンコー
ダにより検索用ベクトルから変換された特徴ベクトルを
過去の学習結果に基づいて分類することによりその検索
用ベクトルが属するクラスを決定するとともに、そのク
ラスから過去の学習結果に基づいて連想ワードを表す特
徴ベクトルを連想するニューラルネットワークを設け、
デコーダにて、そのニューラルネットワークにより連想
された特徴ベクトルを連想ワードに変換するように構成
したので、人為性を介さずに自動的にクラスの決定や連
想ワードの連想ができるなどの効果がある。
【図面の簡単な説明】
【図1】この発明の一実施例による情報データベース装
置を示す構成図である。
【図2】文章情報を示すデータ図である。
【図3】ニューラルネットワークを示す構成図である。
【図4】ニューラルネットワークの動作を示す説明図で
ある。
【図5】ニューラルネットワークの動作を示す説明図で
ある。
【図6】この発明の他の実施例による情報データベース
装置を示す構成図である。
【符号の説明】
1 キーワード抽出手段 2,5 エンコーダ 3 ニューラルネットワーク 4 デコーダ
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI G06F 9/44 554 G06F 9/44 554L G06N 3/02 G06N 3/02 (72)発明者 小船 隆一 尼崎市塚口本町8丁目1番1号 三菱電 機株式会社 中央研究所内 (72)発明者 横田 隆史 尼崎市塚口本町8丁目1番1号 三菱電 機株式会社 中央研究所内 (72)発明者 小中 裕喜 尼崎市塚口本町8丁目1番1号 三菱電 機株式会社 中央研究所内 (72)発明者 阿部 一裕 尼崎市塚口本町8丁目1番1号 三菱電 機株式会社 中央研究所内 (56)参考文献 特開 平2−163876(JP,A) 特開 平2−285419(JP,A) 有田「2種類のニューラルネットの縦 列接続によるテキストの自動分類の試 み」情報処理学会第42回(平成3年前 期)全国大会講演論文集(3)pp. 315−316(平3−3−12) 木本,外3名「日本語テキストデータ ベース検索分類技術」NTT R&D, Vol.40,No.7,1991,pp. 915−924(平3−7−10) (58)調査した分野(Int.Cl.7,DB名) G06F 17/30 G06F 9/44 G06N 3/02 JICSTファイル(JOIS)

Claims (2)

    (57)【特許請求の範囲】
  1. 【請求項1】 文章情報を入力し、その文章情報から所
    定のキーワードを抽出するキーワード抽出手段と、上記
    キーワード抽出手段により抽出されたキーワードを特徴
    ベクトルに変換するエンコーダと、上記エンコーダによ
    り変換された特徴ベクトルを過去の学習結果に基づいて
    分類することによりその文章情報が属するクラスを決定
    するとともに、そのクラスから過去の学習結果に基づい
    て連想ワードを表す特徴ベクトルを連想するニューラル
    ネットワークと、上記ニューラルネットワークにより連
    想された特徴ベクトルを連想ワードに変換するデコーダ
    とを備えた情報データベース装置。
  2. 【請求項2】 検索用キーワードを入力し、その検索用
    キーワードを特徴ベクトルに変換するエンコーダと、上
    記エンコーダにより変換された特徴ベクトルを過去の学
    習結果に基づいて分類することによりその検索用キーワ
    ードが属するクラスを決定するとともに、そのクラスか
    ら過去の学習結果に基づいて連想ワードを表す特徴ベク
    トルを連想するニューラルネットワークと、上記ニュー
    ラルネットワークにより連想された特徴ベクトルを連想
    ワードに変換するデコーダとを備えた情報データベース
    装置。
JP06155292A 1992-02-17 1992-02-17 情報データベース装置 Expired - Lifetime JP3164872B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06155292A JP3164872B2 (ja) 1992-02-17 1992-02-17 情報データベース装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06155292A JP3164872B2 (ja) 1992-02-17 1992-02-17 情報データベース装置

Publications (2)

Publication Number Publication Date
JPH05233707A JPH05233707A (ja) 1993-09-10
JP3164872B2 true JP3164872B2 (ja) 2001-05-14

Family

ID=13174396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06155292A Expired - Lifetime JP3164872B2 (ja) 1992-02-17 1992-02-17 情報データベース装置

Country Status (1)

Country Link
JP (1) JP3164872B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107491541A (zh) * 2017-08-24 2017-12-19 北京丁牛科技有限公司 文本分类方法及装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3244005B2 (ja) * 1995-09-04 2002-01-07 松下電器産業株式会社 情報フィルタ装置及び情報フィルタリング方法
EP2560108A4 (en) * 2010-07-02 2013-12-11 Takatoshi Yanase SYSTEM FOR LOGICAL OPERATIONS
JP5442083B1 (ja) * 2012-09-07 2014-03-12 ヤフー株式会社 同義語推定装置、同義語推定方法および同義語推定プログラム
JP6680655B2 (ja) * 2016-09-16 2020-04-15 ヤフー株式会社 学習装置および学習方法
JP2019021218A (ja) * 2017-07-20 2019-02-07 ヤフー株式会社 学習装置、プログラムパラメータ、学習方法およびモデル
JP6971103B2 (ja) * 2017-09-13 2021-11-24 ヤフー株式会社 情報処理装置、情報処理方法、およびプログラム
JP7169770B2 (ja) * 2018-05-20 2022-11-11 株式会社タカラトミー 人工知能プログラミングサーバおよびそのプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
有田「2種類のニューラルネットの縦列接続によるテキストの自動分類の試み」情報処理学会第42回(平成3年前期)全国大会講演論文集(3)pp.315−316(平3−3−12)
木本,外3名「日本語テキストデータベース検索分類技術」NTT R&D,Vol.40,No.7,1991,pp.915−924(平3−7−10)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107491541A (zh) * 2017-08-24 2017-12-19 北京丁牛科技有限公司 文本分类方法及装置
CN107491541B (zh) * 2017-08-24 2021-03-02 北京丁牛科技有限公司 文本分类方法及装置

Also Published As

Publication number Publication date
JPH05233707A (ja) 1993-09-10

Similar Documents

Publication Publication Date Title
CN111026842A (zh) 自然语言处理方法、自然语言处理装置及智能问答系统
CN114743020B (zh) 一种结合标签语义嵌入和注意力融合的食物识别方法
US20080097937A1 (en) Distributed method for integrating data mining and text categorization techniques
JP3164872B2 (ja) 情報データベース装置
JPH08227408A (ja) ニューラルネットワーク
CN113836928A (zh) 文本实体生成方法、装置、设备及存储介质
CN112417063A (zh) 一种基于异构关系网络的相容功能项推荐方法
Palash et al. Bangla image caption generation through cnn-transformer based encoder-decoder network
Anandika et al. A study on machine learning approaches for named entity recognition
CN112836067B (zh) 基于知识图谱的智能搜索方法
Khorashadizadeh et al. Attention-based convolutional neural network for answer selection using BERT
CN110134866A (zh) 信息推荐方法及装置
CN114579605B (zh) 表格问答数据处理方法、电子设备及计算机存储介质
CN115828888A (zh) 一种针对多种网络日志进行语义解析及结构化的方法
CN115033695A (zh) 一种基于常识知识图谱的长对话情感检测方法及系统
JPH06168129A (ja) 知識抽出装置
CN111159360A (zh) 获得讯询问话题分类模型、讯询问话题分类的方法和装置
JPH0535710A (ja) ニユーラルネツトワークの学習方法および学習装置
WO2019189951A1 (ko) 고객의 소리 데이터로부터 주요 자질 추출 방법 및 이를 이용한 데이터 유형 분류 방법
JPH08339360A (ja) ニューラルネットを応用した学習システム
CN117851577B (zh) 基于知识图谱增强大语言模型的政府服务问答方法
CN111859990B (zh) 基于语义逻辑唯一性判断的处理问答数据的方法及系统
CN115168548B (zh) 一种基于召回-排序的地址匹配方法
CN113515621B (zh) 数据检索方法、装置、设备及计算机可读存储介质
Neiling et al. Data fusion and object identification

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080302

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090302

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100302

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100302

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110302

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110302

Year of fee payment: 10

EXPY Cancellation because of completion of term