JP2020107085A - 学習装置、妥当性判定装置、学習方法、妥当性判定方法、学習プログラム、及び妥当性判定プログラム - Google Patents

学習装置、妥当性判定装置、学習方法、妥当性判定方法、学習プログラム、及び妥当性判定プログラム Download PDF

Info

Publication number
JP2020107085A
JP2020107085A JP2018245365A JP2018245365A JP2020107085A JP 2020107085 A JP2020107085 A JP 2020107085A JP 2018245365 A JP2018245365 A JP 2018245365A JP 2018245365 A JP2018245365 A JP 2018245365A JP 2020107085 A JP2020107085 A JP 2020107085A
Authority
JP
Japan
Prior art keywords
speech
information
text
validity
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018245365A
Other languages
English (en)
Other versions
JP6899367B2 (ja
Inventor
拓也 村上
Takuya Murakami
拓也 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Priority to JP2018245365A priority Critical patent/JP6899367B2/ja
Publication of JP2020107085A publication Critical patent/JP2020107085A/ja
Application granted granted Critical
Publication of JP6899367B2 publication Critical patent/JP6899367B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】テキストの妥当性の判定精度を向上する学習装置、方法及びプログラム並びに妥当性判定装置、方法及びプログラムを提供する。【解決手段】学習装置は、テキストを構成する1以上の単語を示す1以上の単語情報と、1以上の単語の品詞を示す1以上の品詞情報と、をそれぞれ含む複数の訓練データを取得する。学習装置は、複数の訓練データからの機械学習により、所与のテキストの妥当性を示す妥当性情報を出力するモデルを生成する。【選択図】図6

Description

本発明は、機械学習の技術分野に関し、特に、テキストを分類するための方法の技術分野に関する。
近年、多数のテキストを分類するための機械学習の研究開発が盛んに行われている。例えば、非特許文献1には、ニューラルネットワークを用いた分類方法が開示されている。具体的に、文章を構成する語の特徴ベクトルが連結されて、その文章が表現される。連結された特徴ベクトルに対して畳み込み層においてフィルタが適用されて、新しい特徴が生成される。新しい特徴に対してマックスプーリングが適用されて、全結合ソフトマックス層から確率分布が出力される。
ユン・キム(Yoon Kim)、「文書分類のための畳み込みニューラルネットワーク(Convolutional Neural Networks for Sentence Classification)」、実践的自然言語処理方法に関する2014年会議報告(Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing)、計算言語学協会(Association for Computational Linguistics)、2014年、p.1746-1751
例えば、人々により作成又は入力等されたテキストが妥当なものであるかを判定することを想定する。テキストとして決まった正解が存在しない状況である場合においては、例えばルールベースで妥当性を判定するにも限界がある。そのため、人間がテキストを確認して判定を行うことになる。この場合、判定すべきテキストが多数に昇ると、作業負担が膨大になる。
例えば、自由回答式のアンケートが実施される場合に、これに対して様々な回答を記入可能である。例えば見当違いの回答や、でたらめな回答等、質問に対して妥当ではない回答は、情報としての価値が低い。そのため、回答の妥当性を適切に判定することが望ましい。
人間に代わって妥当性の判定を柔軟に行うために、機械学習を利用することが考えられる。しかしながら、従来の技術では、テキストの妥当性の観点で学習及び分類が行われていなかった。
本発明は、以上の点に鑑みてなされたものであり、テキストの妥当性の判定精度を向上させることを可能とする学習装置、妥当性判定装置、学習方法、妥当性判定方法、学習プログラム、及び妥当性判定プログラムを提供することを目的とする。
上記課題を解決するために、請求項1に記載の発明は、第1テキストを構成する1以上の単語を示す1以上の単語情報と、前記1以上の単語の品詞を示す1以上の品詞情報と、をそれぞれ含む複数の訓練データを記憶する記憶手段から、前記複数の訓練データを取得する訓練データ取得手段と、前記取得された複数の訓練データからの機械学習により、所与の第2テキストの妥当性を示す妥当性情報を出力するモデルを生成するモデル生成手段と、を備えることを特徴とする。
この発明によれば、単語情報に加え、品詞情報をも用いた機械学習により、モデルが生成される。品詞情報により、テキストに含まれる単語についてのヒントや、テキストに用いられている文法をモデルに与えることができる。従って、生成されたモデルを用いることにより、テキストの妥当性の判定精度を向上させることができる。
請求項2に記載の発明は、前記複数の訓練データそれぞれについて、前記1以上の単語情報から、前記1以上の単語それぞれの特徴を示す1以上の単語特徴ベクトルを含む二次元配列単語情報を生成する特徴情報生成手段を更に備え、前記モデル生成手段は、前記1以上の品詞情報それぞれを、前記1以上の単語特徴ベクトルのうち該品詞情報により示される品詞に対応する単語の単語特徴ベクトルに関連付けた状態で、前記二次元配列単語情報及び前記1以上の品詞情報を畳み込み層に入力して前記機械学習させることにより、前記モデルを生成することを特徴とする。
この発明によれば、単語の特徴ベクトルと、その単語の品詞の情報とが関連付けられた状態で畳み込まれて、テキストの特徴が出力される。このテキストの特徴を用いた妥当性の判定結果に基づいてモデルが最適化される。従って、テキストの妥当性の判定精度を向上させることができる。
請求項3に記載の発明は、前記特徴情報生成手段は、更に、前記1以上の品詞情報から、前記1以上の品詞それぞれの特徴を示す1以上の品詞特徴ベクトルを含む二次元配列品詞情報を生成し、前記モデル生成手段は、前記二次元配列単語情報と前記二次元配列品詞情報とを重ねてなる三次元配列情報を前記畳み込み層に入力することを特徴とする。
この発明によれば、単語特徴ベクトルで構成される二次元配列と、品詞特徴ベクトルで構成される二次元配列とで構成される三次元配列に対して、畳み込み層において三次元のフィルタが適用されて、テキストの特徴が出力される。従って、テキストの妥当性の判定精度を向上させることができる。
請求項4に記載の発明は、前記特徴情報生成手段は、更に、前記1以上の品詞情報から、前記1以上の品詞それぞれの特徴を示す1以上の品詞特徴ベクトルを含む二次元配列品詞情報を生成し、前記モデル生成手段は、前記二次元配列単語情報と前記二次元配列品詞情報とを連結してなる二次元配列情報を前記畳み込み層に入力することを特徴とする。
この発明によれば、単語特徴ベクトルで構成される二次元配列と、品詞特徴ベクトルで構成される二次元配列とで構成される二次元配列に対して、畳み込み層において二次元のフィルタが適用されて、テキストの特徴が出力される。従って、テキストの妥当性の判定精度を向上させることができる。
請求項5に記載の発明は、前記モデル生成手段は、前記1以上の品詞それぞれを示す数値を、前記1以上の単語特徴ベクトルのうち該品詞に対応する単語の単語特徴ベクトルに付加して、前記二次元配列単語情報を前記畳み込み層に入力することを特徴とする。
この発明によれば、各単語特徴ベクトルに、品詞を示す数値が付加された状態で畳み込まれる。従って、テキストの妥当性の判定精度を向上させることができる。
請求項6に記載の発明は、前記複数の訓練データそれぞれは、前記1以上の単語それぞれについて、所定の品詞体系により階層化された複数の品詞を示す複数の前記品詞情報を含むことを特徴とする。
この発明によれば、複数の品詞情報により、テキストに含まれる単語についてのヒントや、テキストに用いられている文法を、階層的にモデルを与えることができる。従って、テキストの妥当性の判定精度を向上させることができる。
請求項7に記載の発明は、前記複数の訓練データそれぞれは、如何なる種類の内容が前記第1テキストに示されることが要求されているかを示す種類情報を更に含むことを特徴とする。
この発明によれば、要求される内容の種類に応じて、テキストに含まれる単語の品詞や、テキストに用いられている文法が異なる場合において、テキストの妥当性の判定精度を向上させることができる。
請求項8に記載の発明は、前記複数の訓練データそれぞれは、如何なる内容が前記第1テキストに示されることが要求されるかを示す第3テキストを構成する1以上の第2単語を示す1以上の第2単語情報と、前記1以上の第2単語の品詞を示す1以上の第2品詞情報と、を更に含むことを特徴とする。
この発明によれば、テキストにより示される内容として、要求内容を示すテキストの単語情報及び品詞情報をも用いた機械学習により、モデルが生成される。従って、要求内容を示すテキストと、この要求に対して作成されたテキストとが対で学習されるので、テキストの妥当性の判定精度を向上させることができる。
請求項9に記載の発明は、前記複数の訓練データそれぞれは、前記1以上の単語それぞれの文字数を示す1以上の文字数情報を更に含むことを特徴とする。
この発明によれば、文字数情報により、テキストに含まれる単語についての更なるヒントをモデルを与えることができる。従って、テキストの妥当性の判定精度を向上させることができる。
請求項10に記載の発明は、前記複数の訓練データそれぞれは、前記1以上の単語それぞれに含まれる文字の種類を示す1以上の文字種情報を更に含むことを特徴とする。
この発明によれば、文字種情報により、テキストに含まれる単語についての更なるヒントをモデルを与えることができる。従って、テキストの妥当性の判定精度を向上させることができる。
請求項11に記載の発明は、前記第1テキストは、アンケートにおける質問に対する回答を示し、前記生成されるモデルは、所与のアンケートにおける質問に対する回答を示すものとしての前記第2テキストの妥当性を示す前記妥当性情報を出力することを特徴とする。
この発明によれば、アンケートにおける質問に対する回答の妥当性を判定することができる。
請求項12に記載の発明は、前記複数の訓練データそれぞれは、前記第1テキストの妥当性を示すラベルを更に含むことを特徴とする。
請求項13に記載の発明は、請求項1乃至12の何れか一項に記載の学習装置により生成されたモデルを記憶するモデル記憶手段から、前記モデルを読み出す読み出し手段と、所与のテキストを構成する1以上の単語を示す1以上の判定単語情報と、前記1以上の単語の品詞を示す1以上の判定品詞情報と、を取得するテキスト情報取得手段と、前記取得された1以上の判定単語情報及び1以上の判定品詞情報を、前記読み出されたモデルに入力することにより、前記所与のテキストの妥当性を示す妥当性情報を出力する出力手段と、を備えることを特徴とする。
この発明によれば、単語情報に加え、品詞情報をも用いた機械学習により生成されたモデルを用いて、テキストの妥当性が判定される。従って、テキストの妥当性の判定精度を向上させることができる。
請求項14に記載の発明は、コンピュータにより実行される学習方法において、第1テキストを構成する1以上の単語を示す1以上の単語情報と、前記1以上の単語の品詞を示す1以上の品詞情報と、をそれぞれ含む複数の訓練データを記憶する記憶手段から、前記複数の訓練データを取得する訓練データ取得ステップと、前記取得された複数の訓練データからの機械学習により、所与の第2テキストの妥当性を示す妥当性情報を出力するモデルを生成するモデル生成ステップと、を含むことを特徴とする。
請求項15に記載の発明は、コンピュータにより実行される妥当性判定方法において、請求項1乃至12の何れか一項に記載の学習装置により生成されたモデルを記憶するモデル記憶手段から、前記モデルを読み出す読み出しステップと、所与のテキストを構成する1以上の単語を示す1以上の判定単語情報と、前記1以上の単語の品詞を示す1以上の判定品詞情報と、を取得するテキスト情報取得ステップと、前記取得された1以上の判定単語情報及び1以上の判定品詞情報を、前記読み出されたモデルに入力することにより、前記所与のテキストの妥当性を示す妥当性情報を出力する出力ステップと、を含むことを特徴とする。
請求項16に記載の発明は、コンピュータを、第1テキストを構成する1以上の単語を示す1以上の単語情報と、前記1以上の単語の品詞を示す1以上の品詞情報と、をそれぞれ含む複数の訓練データを記憶する記憶手段から、前記複数の訓練データを取得する訓練データ取得手段と、前記取得された複数の訓練データからの機械学習により、所与の第2テキストの妥当性を示す妥当性情報を出力するモデルを生成するモデル生成手段と、として機能させることを特徴とする。
請求項17に記載の発明は、コンピュータを、請求項1乃至12の何れか一項に記載の学習装置により生成されたモデルを記憶するモデル記憶手段から、前記モデルを読み出す読み出し手段と、所与のテキストを構成する1以上の単語を示す1以上の判定単語情報と、前記1以上の単語の品詞を示す1以上の判定品詞情報と、を取得するテキスト情報取得手段と、前記取得された1以上の判定単語情報及び1以上の判定品詞情報を、前記読み出されたモデルに入力することにより、前記所与のテキストの妥当性を示す妥当性情報を出力する出力手段と、として機能させることを特徴とする。
本発明によれば、テキストの妥当性の判定精度を向上させることができる。
一実施形態に係る妥当性判定装置1の概要構成の一例を示すブロック図である。 一実施形態に係る妥当性判定装置1のシステム制御部11及びGPU18の機能ブロックの一例を示す図である。 モデル2の構成例を示す図である。 変換部21で生成される情報の一例を示す図である。 フィルタの構成例を示す図である。 妥当性判定装置1のシステム制御部11及びGPU18による学習処理の一例を示すフローチャートである。 妥当性判定装置1のシステム制御部11及びGPU18による妥当性判定処理の一例を示すフローチャートである。 モデル2の構成例を示す図である。 変換部21−2で生成される情報尾ニチレイを示す図である。 モデル2の構成例を示す図である 変換部21−3で生成される情報の一例を示す図である。 モデル2の構成例を示す図である。 変換部21−4で生成される情報の一例を示す図である。 変換部21−4で生成される情報の一例を示す図である。 モデル2の構成例を示す図である。 判定部23−5で生成される情報の一例を示す図である。 モデル2の構成例を示す図である。 変換部21−6において生成される情報の一例を示す図である。 モデル2の構成例を示す図である。 変換部21−7において生成される情報の一例を示す図である。 モデル2の構成例を示す図である。 変換部21−8において生成される情報の一例を示す図である。
以下、図面を参照して本発明の実施形態について詳細に説明する。以下に説明する実施形態においては、テキストを用いた学習及びこの学習により生成されたモデルを用いてテキストの妥当性を判定する妥当性判定装置に対して本発明を適用した場合の実施形態である。妥当性が判定されるテキストは、例えば文章、文、句又は名詞等である。これらのテキストは、通常、何らかの状況の下で作成、入力等される。状況の例として、アンケートの質問に回答する場合、商品又はサービスの広告の文章を作成する場合、ビジネスメールを作成する場合、与えられたテーマ、課題等に対して文章を作成する場合等が上げられる。例えばアンケートの場合であっても、質問の内容によって状況は様々である。妥当性判定装置は、例えば所与の状況に対してのテキストの妥当性を判定する。妥当性の判定は、例えば、回答が質問に合っているか否か、広告の文章に不適切な文言が含まれているか否か、メールに不適切な表現が含まれているか否か、文章がテーマ等に合っているか否か等である。なお、学習を実行する装置と、妥当性の判定を実行する装置とは別々の装置であってもよい。
[1.第1実施形態]
[1−1.妥当性判定装置の構成]
先ず、妥当性判定装置1の構成について、図1を用いて説明する。図1は、本実施形態に係る妥当性判定装置1の概要構成の一例を示すブロック図である。図1に示すように、妥当性判定装置1は、システム制御部11と、システムバス12と、入出力インターフェース13と、記憶部14と、通信部15と、入力部16と、表示部17と、GPU(Graphics Processing Unit)18を備えている。システム制御部11と入出力インターフェース13とは、システムバス12を介して接続されている。妥当性判定装置1は、例えばサーバ装置であってもよいし、パーソナルコンピュータであってもよい。
システム制御部11は、CPU(Central Processing Unit)11a、ROM(Read Only Memory)11b、RAM(Random Access Memory)11c等により構成されている。
入出力インターフェース13は、記憶部14〜GPU18とシステム制御部11との間のインターフェース処理を行う。
記憶部14は、例えば、ハードディスクドライブ又はソリッドステートドライブ等により構成されている。この記憶部14には、生成されたモデル2、及びモデル2の生成に用いられる複数の訓練データ等が記憶される。記憶部14には、更にオペレーティングシステム、モデル生成用のプログラム、妥当性判定用のプログラム等が記憶されている。訓練データ及び各種プログラムは、例えば、所定のコンピュータからネットワークを介して取得されるようにしてもよいし、光ディスク、メモリカード、磁気テープ等の記録媒体に記録されてドライブ装置を介して読み込まれるようにしてもよい。モデル2を生成する装置と妥当性を判定する装置とが別々の装置である場合、生成されたモデル2の受け渡しは、ネットワークを介して行われてもよいし、記録媒体を介して行われてもよい。
通信部15は、例えばネットワークインターフェースコントローラ等により構成されている。通信部15は、インターネット、LAN(Local Area Network)等のネットワークを介して他のコンピュータと接続し、そのコンピュータとの通信状態を制御する。
入力部16は、オペレータによる操作を受け付け、操作内容に対応する信号をシステム制御部11に出力する。入力部16の例として、キーボード、マウス、タッチパネル等が挙げられる。
表示部17は、例えば、グラフィックコントローラ及びディスプレイ等により構成されている。表示部17は、システム制御部11の制御により、画像、文字等の情報を表示する。ディスプレイのパネルの例として、液晶パネル、有機EL(Light Emitting)パネル等が挙げられる。
GPU18は、システム制御部11からの制御により、機械学習における行列演算等を実行する。GPU18は、複数の演算を並列にパイプライン処理する。GPU18には、VRAM(Video RAM)が接続されている。なお、CPU11aが、この行列演算等を行ってもよい。
[1−2.妥当性判定装置のシステム制御部の機能概要]
次に、図2乃至図5を用いて、システム制御部11及びGPU18の機能概要について説明する。図2は、本実施形態に係る妥当性判定装置1のシステム制御部11及びGPU18の機能ブロックの一例を示す図である。システム制御部11及びGPU18は、CPU11aが、記憶部14に記憶されているプログラムに含まれる各種コード等を読み出し実行することにより、図2に示すように、訓練データ取得部111、モデル生成部112、モデル読み出し部113、判定対象データ取得部114、妥当性情報出力部115等として機能する。
[1−2−1.モデルの生成]
訓練データ取得部111は、複数の訓練データを記憶部14から取得する。各訓練データは、1以上の単語情報、及び1以上の品詞情報を含む。1以上の単語情報は、テキストを構成する1以上の単語をそれぞれ示す。例えば、アンケート、テーマ、課題等に対して作成されたテキストについて訓練データが準備される場合、アンケートの一の質問、一のテーマ、一の課題等のみについて作成された複数のテキストから、複数の訓練データが作成されてもよい。或いは、複数の質問、複数のテーマ、複数の課題等について作成された複数のテキストから、複数の訓練データが作成されてもよい。1以上の品詞情報は、テキストを構成する1以上の単語それぞれの品詞を示す。形態素解析によりテキストから単語が抽出されるとともに、各単語の品詞が特定される。単語情報及び品詞情報は、例えばone-hotベクトルである。単語情報の並び順及び品詞情報の並び順は、テキスト内の単語の並び順に一致する。全訓練データ間で単語情報及び品詞情報の数が一致するように、必要に応じてパディングが行われる。従って、テキストが一の単語のみで構成される場合であっても、実際には複数の単語情報及び複数の品詞情報が生成される。形態素解析、one-hotベクトル化及びパディングは、訓練データ取得部111により行われてもよいし、他のコンピュータにより行われて予め記憶部14に記憶されてもよい。
各訓練データは、更に妥当性ラベルを含んでもよい。妥当性ラベルは、テキストの妥当性を示すラベルである。例えば、テキストが妥当である場合、妥当性ラベルは1を示し、テキストが妥当はない場合、妥当性ラベルは0を示す。例えば、アンケートの質問、テーマ、課題等、作成されるテキストに対して、そのテキストが如何なる内容を示すべきであるかが要求されている場合、テキストにより示される内容が、要求される内容に合致しているか否かの観点で、妥当性ラベルが作成されてもよい。例えば、アンケートの回答が質問に合っている場合、妥当性ラベルは1を示し、回答が質問に合っていない場合、妥当性ラベルは0を示す。また例えば、広告、ビジネスメール等、テキストが用いられる状況に応じて、そのテキストが不適切な語句を含むか否かの観点で、妥当性ラベルが作成されてもよい。妥当性ラベルは、例えば手作業により作成される。
モデル生成部112は、所与のテキストの妥当性を示す妥当性情報を出力するモデル2を、訓練データ取得部111により取得された複数の訓練データからの機械学習により生成する。
モデル2は、例えば畳み込みニューラルネットワーク等のニューラルネットワークであってもよい。モデル生成部112は、モデル2内の各層として、その層に対応する演算処理を実行してテキストの妥当性を計算して、妥当性情報を出力する。モデル生成部112は、妥当性情報と妥当性ラベルとを比較して学習を実行する。モデル生成部112は、複数の訓練データそれぞれについて、1以上の単語情報から、テキストを構成する1以上の単語それぞれの特徴を示す1以上の単語特徴ベクトルを含む単語特徴二次元配列を生成する。単語特徴ベクトルは、例えば一次元配列であり、複数の数値を含む。モデル生成部112は、1以上の品詞情報それぞれを、1以上の単語特徴ベクトルのうち、その品詞情報により示される品詞に対応する単語の単語特徴ベクトルに関連付けた状態で、単語特徴二次元配列及び1以上の品詞情報を畳み込み層に入力して、その畳み込み層による学習を行わせる。これにより、モデル生成部112は、モデル2を生成する。
モデル生成部112は、更に、1以上の品詞情報から、テキストを構成する単語それぞれに対応する1以上の品詞それぞれの特徴を示す1以上の品詞特徴ベクトルを含む品詞特徴二次元配列を生成してもよい。品詞特徴ベクトルも、例えば一次元配列であり、複数の数値を含む。そして、モデル生成部112は、単語特徴ベクトルに対する品詞情報の関連付けの一例として、単語特徴二次元配列と品詞特徴二次元配列とを重ねてなる特徴三次元配列を畳み込み層に入力してもよい。
図3は、モデル2の構成例を示す図である。図3に示すように、モデル2は、変換部21と、特徴抽出部22と、判定部23とを含む。変換部21は、テキストから得られた単語情報及び品詞情報を、テキストの特徴抽出に適した形態の情報に変換するためのレイヤーグループである。特徴抽出部22は、テキストの特徴情報を出力するためのレイヤーグループである。判定部23は、テキストの特徴情報に基づいて、このテキストの妥当性を示す妥当性情報を出力するためのレイヤーグループである。
変換部21は、入力層201−1及び201−2と、埋め込み層202−1及び202−2と、連結層203と、リシェイプ層204とを含む。入力層201−1には、複数の単語情報が入力される。埋め込み層202−1は、入力層201−1から出力された複数の単語情報それぞれに対応する複数の単語特徴ベクトルで構成される単語特徴二次元配列を生成する。特徴ベクトルの生成には、例えばWord2vecモデルが用いられてもよし、他のモデルが用いられてもよい。図4は、変換部21で生成される情報の一例を示す図である。図4に示す単語特徴二次元配列301において、一の単語の特徴ベクトルを構成する数値が並ぶ方向をx軸とし、x軸方向における単語特徴二次元配列301のサイズを、幅という。単語特徴二次元配列301の幅は、特徴ベクトルの次元数と一致する。単語特徴二次元配列301において、複数の単語特徴ベクトルが単語順に従って並ぶ方向をy軸とし、y軸方向における単語特徴二次元配列301のサイズを、高さという。テキストを構成する単語の順序と、単語特徴二次元配列301において、それらの単語の単語特徴ベクトルの順序は一致する。入力層201−2には、複数の品詞情報が入力される。埋め込み層202−2は、入力層201−2から出力された複数の品詞情報それぞれに対応する複数の品詞特徴ベクトルで構成される品詞特徴二次元配列を出力する。例えば、各品詞を示す単語の特徴ベクトルが、品詞特徴ベクトルとして出力されてもよい。この場合、埋め込み層202−1に適用されたモデルを、埋め込み層202−2にそのまま適用することができる。図4に示す品詞特徴二次元配列302において、一の品詞の特徴ベクトルを構成する数値が並ぶ方向をx軸とし、複数の品詞特徴ベクトルが単語順に従って並ぶ方向をy軸とする。
連結層203は、埋め込み層202−1及び202−2から出力された単語特徴二次元配列301と品詞特徴二次元配列302とを高さ方向に連結する。リシェイプ層204は、連結された配列のx軸方向の要素数を元の要素数の半分にし、z軸方向の要素数を2にして、連結された配列の形状を三次元形状に変換することにより、図4に示す特徴三次元配列310を出力する。なお、単語特徴二次元配列301及び品詞特徴二次元配列302がそれぞれ先ずリシェイプ層により三次元配列に変換されてもよい。この変換によって出力される単語特徴の三次元配列及び品詞特徴の三次元配列それぞれのz軸方向における要素数は1である。そして、単語特徴の三次元配列及び品詞特徴の三次元配列が連結層によりz軸方向に連結されて、特徴三次元配列310が出力されてもよい。特徴三次元配列310において、単語特徴二次元配列301と品詞特徴二次元配列302とがz軸方向に積層されている。すなわち、リシェイプ層204は、単語特徴二次元配列301と品詞特徴二次元配列302とを別々のチャネルに分離する。z軸方向における特徴三次元配列310のサイズを、奥行きという。特徴三次元配列310の奥行きはチャネル数に一致する。テキストを構成する単語それぞれについて、特徴三次元配列310における単語の特徴ベクトルのy座標と、その単語の品詞の特徴ベクトルのy座標とが一致する。例えば、テキストの最初の単語「高級感」の特徴ベクトルと、その「高級感」の品詞「名詞」の特徴ベクトルは、z軸方向に重なる。
特徴抽出部22は、複数の畳み込み層205と、複数のMAXプーリング層206と、連結層207とを含む。各畳み込み層205は、各テキストについて特徴三次元配列310を受け入れ可能な畳み込み層である。例えば、畳み込み層205は、マルチチャネルの2D畳み込み層又はシングルチャネルの3D畳み込み層であってもよい。各畳み込み層205は、変換部21から出力された特徴三次元配列310に対する畳み込みを行い、テキストの特徴マップを出力する。各畳み込み層205において、特徴三次元配列310に三次元のフィルタが適用される。フィルタのサイズは畳み込み層205間で異なる。図5は、フィルタの構成例を示す図である。図5に示すフィルタ410〜430それぞれの幅及び奥行きは、特徴三次元配列310の幅及び奥行きと一致する。フィルタ410〜430の高さは互いに異なる。フィルタ410〜430それぞれは、特徴三次元配列310に対して高さ方向にスライドする。図4においては、3個の畳み込み層205が示されている。しかしながら、畳み込み層205は2個であってもよいし、4個以上であってもよい。MAXプーリング層206の数は、畳み込み層205の数と一致する。各MAXプーリング層206は、そのMAXプーリング層206に対応する畳み込み層205から出力された特徴マップ内の数値のうち最大値を出力する。連結層207は、複数のMAXプーリング層206から出力された最大値を連結して、テキストの特徴情報を出力する。この特徴情報は、一次元配列であり、テキストを構成する単語及びそれらの順序、並びに品詞及びそれらの順序を反映している。
判定部23は、1又は複数の全結合層208と、出力層209とを含む。全結合層208は、特徴抽出部22から出力されたテキストの特徴情報をアフィン変換して、妥当性情報を出力する。全結合層208が複数ある場合、全結合層208は直列に連結されて、アフィン変換が順次実行される。各全結合層208において、ドロップアウト等の正則化が行われてもよい。また、バッチ正規化が行われてもよい。出力層209は、全結合層208により生成された妥当性情報を出力する。出力層209においては、例えばシグモイド関数により、全結合層208からの妥当性情報が0から1までの範囲内の数値に変換されてもよい。
[1−2−2.テキストの妥当性の判定]
モデル読み出し部113は、記憶部14に記憶されたモデル2を読み出して、RAM14c又はGPU18に接続されたVRAMにロードする。
判定対象データ取得部114は、判定対象となる所与のテキストを構成する1以上の単語を示す1以上の単語情報と、その1以上の単語の品詞を示す1以上の品詞情報とを取得する。例えば、アンケート、テーマ、課題等について作成されたテキストの妥当性を判定する場合、判定対象となるテキストに対応するアンケートの質問、テーマ又は課題と、訓練データの作成のために収集されたテキストに対応するアンケートの質問、テーマ又は課題とは、一致してもよいし、一致していなくてもよい。テキストにより示される内容として、決まった正解が必ずしも存在しないので、テキストの妥当性を判定する観点では、質問、テーマ又は課題自体よりも、それによって如何なる種類の内容を示すテキストが要求さているかの方が重要である。従って、判定対象となるテキストについて要求された内容の種類が、訓練データの作成のために収集された全テキストのうち少なくとも幾つかのテキストについて要求された内容の種類に一致していることが望ましい。アンケートの場合、要求される回答の種類の例として、理由、純粋想起、印象、ポジティブなこと、ネガティブなこと、名詞での回答等が挙げられる。判定対象となるテキストは、例えば、ネットワークを介して他のコンピュータから取得されてもよい。或いは、テキストが記録媒体に記録されてドライブ装置を介して記憶部14に読み込まれてもよい。単語情報及び品詞情報の生成方法は、訓練データにおける単語情報及び品詞情報の生成方法と同様である。
妥当性情報出力部115は、判定対象データ取得部114により取得された1以上の単語情報及び1以上の品詞情報を、モデル読み出し部113により読み出されたモデル2に入力することにより、所与のテキストの妥当性を示す妥当性情報を出力する。妥当性情報出力部115は、モデル2内の各層として、その層に対応する演算処理を実行してテキストの妥当性を計算して、妥当性情報を出力する。妥当性情報出力部115は、例えば記憶部14に妥当性情報を記憶させてもよい。或いは、妥当性情報出力部115は、ネットワークを介して他のコンピュータへ妥当性情報を送信してもよい。或いは、妥当性情報出力部115は、表示部17に妥当性情報を表示してもよい。妥当性情報は、本来は0から1までの範囲内の数値である。例えば、妥当性情報が0.5以上である場合、テキストは妥当であると解釈され、妥当性情報が0.5未満である場合、テキストは妥当ではないと解釈されてもよい。妥当性情報出力部115は、妥当性情報を実際に0又は1の数値に変換して出力してもよい。或いは、例えば妥当である、要注意である、妥当ではない、の3段階で妥当性が解釈されてもよい。要注意は、妥当であるか否かを一概に判断すべきではないテキストを示す。
モデル2による学習及び妥当性の判定に、テキストを構成する単語の品詞を示す情報が用いられることで、テキストの妥当性の判定精度を向上させることができる。判定精度の向上の理由の1つとして、テキストに含まれる単語に対するヒントが与えられることが考えられる。訓練データには全く出現しない又は出現頻度が低い単語を含んだテキストについて、単語情報のみを用いた機械学習では妥当性を適切に判断することが難しい場合がある。これに対して、品詞情報によって、各単語の品詞と、その前後にある単語の品詞との関係、すなわち品詞をベースとした文脈が考慮されることで、そのようなテキストであっても適切に妥当性を判定することが可能となると推察される。別の理由として、テキストに用いられている文法が考慮されることが考えられる。状況又は要求される内容の種類によって、妥当なテキストに用いられる文法が或る程度限定されることが想定される。テキストが文法的に正しいか否かという観点ではなく、テキストに用いられる文法が、状況又は要求される内容の種類に合っているか否かという観点で、テキストの妥当性が判定されるものと推察される。
[1−3.妥当性判定装置の動作]
次に、妥当性判定装置1の動作について、図6及び図7を用いて説明する。図6は、妥当性判定装置1のシステム制御部11及びGPU18による学習処理の一例を示すフローチャートである。モデル生成用のプログラムに従って、システム制御部11及びGPU18は学習処理を実行する。図6に示すように、訓練データ取得部111は、訓練データとしての複数のテキストと、各テキストに対応する妥当性ラベルを記憶部14から取得する(ステップS11)。次いで、訓練データ取得部111は、形態素解析により、各テキストを構成する単語を抽出し、抽出された各単語の品詞を特定する。そして、訓練データ取得部111は、各テキストについて1以上の単語情報及び1以上の品詞情報を生成する(ステップS12)。次いで、モデル生成部112は、単語情報、品詞情報及び妥当性ラベルを含む複数の訓練データを用いた学習により、モデル2を生成する(ステップS13)。例えば、モデル生成部112は、モデル2となる畳み込みニューラルネットワークに単語情報及び品詞情報を入力して、このネットワーク内の各層における演算処理を実行する。モデル生成部112は、各テキストの妥当性を計算し、妥当性情報と妥当性ラベルとを比較して、誤差逆伝搬により各層の重み及びバイアスを更新する。モデル生成部112は、例えばエポック数が所定数に達したとき等に学習を終了させて、モデル2を生成する。モデル生成部112は、生成されたモデル2を記憶部14に記憶させて(ステップS14)、学習処理を終了させる。
図7は、妥当性判定装置1のシステム制御部11及びGPU18による妥当性判定処理の一例を示すフローチャートである。妥当性判定用のプログラムに従って、システム制御部11及びGPU18は妥当性判定処理を実行する。図7に示すように、モデル読み出し部113は、モデル2を記憶部14から読み出す(ステップS21)。次いで、判定対象データ取得部114は、妥当性の判定対処となるテキストを取得する(ステップS22)。次いで、判定対象データ取得部114は、形態素解析により、このテキストを構成する単語を抽出し、抽出された各単語の品詞を特定する。そして、判定対象データ取得部114は、1以上の単語情報及び1以上の品詞情報を生成する(ステップS23)。次いで、妥当性情報出力部115は、モデル2の変換部21において、1以上の単語情報から、1以上の単語特徴ベクトルを含む単語特徴二次元配列301を生成し、1以上の品詞情報から、1以上の品詞特徴ベクトルを含む品詞特徴二次元配列302を生成する。妥当性情報出力部115は、単語特徴二次元配列301と品詞特徴二次元配列302とを重ねてなる特徴三次元配列310を生成する(ステップS24)。次いで、妥当性情報出力部115は、モデル2の特徴抽出部22において、特徴三次元配列310に対して複数のフィルタで畳み込みを行って複数の特徴マップを生成する(ステップS25)。妥当性情報出力部115は、複数の特徴マップそれぞれの最大値を連結して、テキストの特徴情報を生成する(ステップS26)。次いで、妥当性情報出力部115は、モデル2の判定部23において、テキストの特徴情報をアフィン変換する(ステップS27)。妥当性情報出力部115は、この変換によって生成された妥当性情報を出力して(ステップS28)、妥当性判定処理を終了させる。
以上説明したように、本実施形態によれば、妥当性判定装置1が、テキストを構成する1以上の単語を示す1以上の単語情報と、その1以上の単語の品詞を示す1以上の品詞情報と、をそれぞれ含む複数の訓練データを記憶する記憶部14から、複数の訓練データを取得する。また、妥当性判定装置1が、取得された複数の訓練データからの機械学習により、所与のテキストの妥当性を示す妥当性情報を出力するモデル2を生成する。従って、生成されたモデル2を用いることにより、テキストの妥当性の判定精度を向上させることができる。
また、妥当性判定装置1が、複数の訓練データそれぞれについて、1以上の単語情報から、1以上の単語それぞれの特徴を示す1以上の単語特徴ベクトルを含む単語特徴二次元配列を生成してもよい。また、妥当性判定装置1が、1以上の品詞情報それぞれを、1以上の単語特徴ベクトルのうちその品詞情報により示される品詞に対応する単語の単語特徴ベクトルに関連付けた状態で、単語特徴二次元配列及び1以上の品詞情報を畳み込み層205に入力して機械学習させることにより、モデル2を生成してもよい。この場合、単語の特徴ベクトルと、その単語の品詞の情報とが関連付けられた状態で畳み込まれて、テキストの特徴が出力される。このテキストの特徴を用いた妥当性の判定結果に基づいてモデル2が最適化される。従って、テキストの妥当性の判定精度を向上させることができる。
また、妥当性判定装置1が、更に、1以上の品詞情報から、1以上の品詞それぞれの特徴を示す複数の品詞特徴ベクトルを含む品詞特徴二次元配列を生成してもよい。また、妥当性判定装置1が、単語特徴二次元配列と品詞特徴二次元配列とを重ねてなる特徴三次元配列を畳み込み層205に入力してもよい。この場合、単語特徴ベクトルを含む二次元配列と、品詞特徴ベクトルを含む二次元配列とで構成される三次元配列に対して、畳み込み層205において三次元のフィルタが適用されて、テキストの特徴が出力される。従って、テキストの妥当性の判定精度を向上させることができる。
また、テキストは、アンケートにおける質問に対する回答を示してもよい。妥当性判定装置1が、所与のアンケートにおける質問に対する回答を示すものとしてのテキストの妥当性を示す妥当性情報を出力してもよい。この場合、アンケートにおける質問に対する回答の妥当性を判定することができる。
また、妥当性判定装置1は、生成されたモデル2を記憶する記憶部14から、モデル2を読み出してもよい。また、妥当性判定装置1は、判定対象のテキストを構成する1以上の単語を示す1以上の単語情報と、その1以上の単語の品詞を示す1以上の品詞情報と、を取得してもよい。また、妥当性判定装置1が、取得された1以上の単語情報及び1以上の品詞情報を、読み出されたモデル2に入力することにより、所与のテキストの妥当性を示す妥当性情報を出力してもよい。この場合、単語情報に加え、品詞情報をも用いた機械学習により生成されたモデル2を用いて、テキストの妥当性が判定される。従って、テキストの妥当性の判定精度を向上させることができる。
[2.第2実施形態]
次に、図8及び図9を用いて第2実施形態について説明する。学習の際、モデル生成部112は、単語特徴ベクトルに対する品詞情報の関連付けの別の例として、単語特徴二次元配列と品詞特徴二次元配列とを連結してなる特徴二次元配列を畳み込み層に入力してもよい。
図8は、モデル2の構成例を示す図である。図8において、図3と同様の要素については同様の符号が付されている。図8に示すように、本実施形態において生成されるモデル2は、変換部21−2と、特徴抽出部22−2と、判定部23とを含む。
変換部21−2は、入力層201−1及び201−2と、埋め込み層202−1及び202−2と、連結層211とを含む。図9は、変換部21−2で生成される情報の一例を示す図である。図9において、図4と同様の要素については同様の符号が付されている。連結層211は、埋め込み層202−1及び202−2から出力された単語特徴二次元配列301と品詞特徴二次元配列302とを幅方向に連結して、特徴二次元配列320を出力する。すなわち、連結層211からは1チャネルの二次元配列が出力される。テキストを構成する単語それぞれについて、特徴二次元配列320における単語の特徴ベクトルのy座標と、その単語の品詞の特徴ベクトルのy座標とは一致する。例えば、テキストの最初の単語「高級感」の特徴ベクトルと、その「高級感」の品詞「名詞」の特徴ベクトルは、x軸方向に連なる。
特徴抽出部22−2は、複数の畳み込み層212と、複数のMAXプーリング層206と、連結層207とを含む。各畳み込み層212は、各テキストについて特徴二次元配列320を受け入れ可能な畳み込み層である。すなわち、各畳み込み層212は、1チャネルの2D畳み込み層である。各畳み込み層212において、特徴二次元配列320に二次元のフィルタが適用される。このフィルタは、特徴二次元配列320に対して高さ方向のみにスライドしてもよいし、高さ方向及び幅方向の両方にスライドしてもよい。畳み込み層212間で、フィルタの高さは異なる。各フィルタの幅は、特徴二次元配列320の幅と同一であってもよいし、これよりも小さくてもよい。畳み込み層212間で、フィルタの幅は同一であってもよいし異なってもよい。各畳み込み層212から出力された特徴マップは、その畳み込み層212に対応するMAXプーリング層206に入力される。
テキストの妥当性の判定において、妥当性情報出力部115も同様に、単語特徴二次元配列と品詞特徴二次元配列とを連結してなる特徴二次元配列を畳み込み層に入力する。
以上説明したように、本実施形態によれば、妥当性判定装置1が、更に、1以上の品詞情報から、1以上の品詞それぞれの特徴を示す1以上の品詞特徴ベクトルを含む品詞特徴二次元配列を生成する。また、妥当性判定装置1が、単語特徴二次元配列と品詞特徴二次元配列とを連結してなる二次元配列を畳み込み層212に入力する。従って、単語特徴ベクトルを含む二次元配列と、品詞特徴ベクトルを含む二次元配列とで構成される二次元配列に対して、畳み込み層において二次元のフィルタが適用されて、テキストの特徴が出力される。そのため、テキストの妥当性の判定精度を向上させることができる。
[3.第3実施形態]
次に、図10及び図11を用いて第3実施形態について説明する。学習の際、モデル生成部112は、単語特徴ベクトルに対する品詞情報の関連付けの更に別の例として、テキストを構成する1以上の単語の品詞それぞれを示す一の数値を生成し、各品詞の数値を、1以上の単語特徴ベクトルのうちその品詞に対応する単語の単語特徴ベクトルに付加して、二次元配列を畳み込み層に入力してもよい。
図10は、モデル2の構成例を示す図である。図10において、図8と同様の要素については同様の符号が付されている。図10に示すように、本実施形態において生成されるモデル2は、変換部21−3と、特徴抽出部22−2と、判定部23とを含む。
変換部21−3は、入力層201−1及び201−2と、埋め込み層202−1と、埋め込み層213と、連結層211とを含む。図11は、変換部21−3で生成される情報の一例を示す図である。図11において、図4と同様の要素については同様の符号が付されている。埋め込み層213は、入力層201−2から出力された複数の品詞情報それぞれに対応する複数の数値で構成される一次元配列303を出力する。例えば、品詞に対応する数値は、品詞のone-hotベクトルにおいて、1が格納されている位置に対応する数値であってもよいし、別の方法で算出された数値であってもよい。連結層211は、埋め込み層202−1から出力された単語特徴二次元配列301と、埋め込み層213から出力された一次元配列303とを幅方向に連結して、特徴二次元配列330を出力する。すなわち、連結層211からは1チャネルの二次元配列が出力される。テキストを構成する単語それぞれについて、特徴二次元配列330における単語の特徴ベクトルのy座標と、その単語の品詞の数値のy座標とは一致する。例えば、テキストの最初の単語「高級感」の特徴ベクトルと、その「高級感」の品詞「名詞」の数値は、x軸方向に連なる。特徴二次元配列320は、特徴抽出部22−2の各畳み込み層212に入力される。
テキストの妥当性の判定において、妥当性情報出力部115も同様に、1以上の品詞それぞれを示す数値を、1以上の単語特徴ベクトルのうちその品詞に対応する単語の単語特徴ベクトルに付加して、二次元配列を畳み込み層に入力する。
以上説明したように、本実施形態によれば、妥当性判定装置1が、1以上の品詞それぞれを示す数値を、1以上の単語特徴ベクトルのうちその品詞に対応する単語の単語特徴ベクトルに付加して生成された二次元配列を畳み込み層212に入力する。従って、各単語特徴ベクトルに、品詞を示す数値が付加された状態で畳み込まれる。そのため、テキストの妥当性の判定精度を向上させることができる。
[4.第4実施形態]
次に、図12乃至図14を用いて第4実施形態について説明する。訓練データ取得部111は、テキストを構成する1以上の単語それぞれについて、所定の品詞体系により階層化された複数の品詞を示す複数の品詞情報を含む訓練データを取得してもよい。階層化された品詞において、下位の品詞は、上位の品詞を分けた複数の品詞分類のうち、対象の単語に対応する品詞分類である。品詞の階層の数は、2以上であればよい。日本語の場合、品詞体系は、例えばIPA(Information-technology Promotion Agency)品詞体系であってもよい。
モデル生成部112は、テキストを構成する1以上の単語それぞれについて、その単語に対応する複数の品詞情報を、その単語の単語特徴ベクトルに関連付けた状態で、単語特徴二次元配列及び複数の品詞情報を畳み込み層に入力する。例えば、モデル生成部112は、単語特徴二次元配列と複数の品詞特徴二次元配列とを重ねてなる特徴三次元配列を畳み込み層に入力してもよい。
図12は、モデル2の構成例を示す図である。図12において、図3と同様の要素については同様の符号が付されている。図12に示すように、本実施形態において生成されるモデル2は、変換部21−4と、特徴抽出部22と、判定部23とを含む。変換部21−4は、入力層201−1と、入力層201−2−1〜201−2−Nと、埋め込み層202−1と、埋め込み層202−2−1〜202−2−Nと、連結層203と、リシェイプ層204とを含む。Nは、品詞の階層の数である。入力層201−2−1〜201−2−Nの数、及び埋め込み層202−2−1〜202−2−Nの数は、品詞の階層の数と一致する。
入力層201−2−1〜201−2−Nそれぞれには、階層化された複数の品詞のうち、その入力層に対応する階層の品詞情報が入力される。埋め込み層202−2−1〜202−2−Nは、入力層201−2−1〜201−2−Nのうち、その埋め込み層に対応する入力層から出力された複数の品詞情報それぞれに対応する複数の品詞特徴ベクトルを含む品詞特徴二次元配列を出力する。図13は、変換部21−4で生成される情報の一例を示す図である。図13において、図4と同様の要素については同様の符号が付されている。品詞特徴二次元配列302−1は、埋め込み層202−2−1から出力される二次元配列であり、第1位の階層の品詞に対応する。品詞特徴二次元配列302−2は、埋め込み層202−2−2から出力される二次元配列であり、第2位の階層の品詞に対応する。品詞特徴二次元配列302−Nは、埋め込み層202−2−Nから出力される二次元配列であり、第N位の階層の品詞に対応する。
図14は、変換部21−4で生成される情報の一例を示す図である。連結層203は、埋め込み層202−1、202−2−1〜202−2−Nから出力された単語特徴二次元配列301と、品詞特徴二次元配列302−1〜302−Nとを高さ方向に連結する。リシェイプ層204は、連結された配列の形状を三次元形状に変換することにより、図14に示す特徴三次元配列340を出力する。すなわち、リシェイプ層204は、単語特徴二次元配列301、202−2−1〜202−2−Nを別々のチャネルに分離する。特徴三次元配列340は、特徴抽出部22の各畳み込み層205に入力される。各畳み込み層205のチャネル数はN+1である。
テキストの妥当性の判定において、判定対象データ取得部114も同様に、判定対象のテキストを構成する1以上の単語それぞれについて、所定の品詞体系により階層化された複数の品詞を示す複数の品詞情報を取得する。妥当性情報出力部115は、判定対象のテキストを構成する1以上の単語それぞれについて、その単語に対応する複数の品詞情報を、その単語の単語特徴ベクトルに関連付けた状態で、単語特徴二次元配列及び複数の品詞情報を畳み込み層に入力する。
図12乃至図14は、第1実施形態に対して、品詞の階層化が適用された場合の例を示す。しかしながら、第2実施形態又は第3実施形態に対して、品詞の階層化が適用されてもよい。例えば、単語特徴二次元配列と複数の品詞特徴二次元配列とを幅方向に連結してなる特徴二次元配列が畳み込み層に入力されてもよい。また、テキストを構成する1以上の単語それぞれに対応する複数の階層の品詞を示す複数の数値が生成され、複数の品詞の数値が、1以上の単語特徴ベクトルのうちそれらの品詞に対応する単語の単語特徴ベクトルに付加されてなる二次元配列が、畳み込み層に入力されてもよい。
以上説明したように、本実施形態によれば、複数の訓練データそれぞれは、1以上の単語それぞれについて、所定の品詞体系により階層化された複数の品詞を示す複数の品詞情報を含む。従って、複数の品詞情報により、テキストに含まれる単語についてのヒントや、テキストに用いられている文法を階層的に、モデル2を与えることができる。そのため、テキストの妥当性の判定精度を向上させることができる。
[5.第5実施形態]
次に、図15及び図16を用いて第5実施形態について説明する。訓練データ取得部111は、テキストに示されることが要求される内容の種類を示す要求内容種別を更に含む訓練データを取得してもよい。アンケートにおける質問、テーマ、課題等の内容に応じて、要求される内容は様々である。例えば、アンケートの場合、要求内容種別は、アンケートにおける質問で要求される回答の種類を示すアンケート種別であってもよい。アンケート種別の例として、理由を答えさせるもの、或る事物に対する純粋想起について答えさせるもの、印象を答えさせるもの、ポジティブなことについて答えさせるもの、ネガティブなことについて答えさせるもの、名詞で答えさせるもの等が挙げられる。各テキストは、一の要求内容種別のみに該当してもよいし、複数の要求内容種別に該当してもよい。
図15は、モデル2の構成例を示す図である。図15において、図3と同様の要素については同様の符号が付されている。図15に示すように、本実施形態において生成されるモデル2は、変換部21と、特徴抽出部22と、判定部23−5とを含む。
判定部23−5は、入力層221と、連結層222と、1又は複数の全結合層208と、出力層209とを含む。入力層221には、アンケート種別等の要求内容種別が入力される。図16は、判定部23−5で生成される情報の一例を示す図である。図16に示すアンケート種別520は、例えば要素数が6の一次元配列である。アンケート種別520の6個の要素は、前述した種類にそれぞれ対応している。例えば、各要素には、テキストがその種類に該当する場合、1が格納され、テキストがその種類に該当しない場合、0が格納されてもよい。連結層222は、特徴抽出部22から出力されたテキストの特徴情報510と、入力層221から出力されたアンケート種別520とを連結して、一次元配列530を出力する。一次元配列530は、全結合層208に入力される。従って、判定部23−5は、テキストの特徴情報510とアンケート種別520とに基づいて、テキストの妥当性を示す妥当性情報を出力する。
テキストの妥当性の判定において、判定対象データ取得部114も同様に、テキストに示されることが要求される内容の種類を示す要求内容種別を更に取得する。妥当性情報出力部115は、モデル生成部112の場合と同様に、要求内容種別を更に用いて妥当性情報を出力する。
図15及び図16は、第1実施形態に対して、要求内容種別の使用が適用された場合の例を示す。しかしながら、第2実施形態〜第4実施形態に対して、要求内容種別の使用が適用されてもよい。
以上説明したように、本実施形態によれば、複数の訓練データそれぞれは、テキストに示されることが要求される内容の種類を示す要求内容種別を更に含む。従って、要求される内容の種類に応じて、テキストに含まれる単語の品詞や、テキストに用いられている文法が異なる場合において、テキストの妥当性の判定精度を向上させることができる。
[6.第6実施形態]
次に、図17及び図18を用いて第6実施形態について説明する。訓練データ取得部111は、如何なる内容がテキストに示されることが要求されるかを示す要求内容テキストを構成する1以上の単語を示す1以上の要求内容単語情報と、要求内容テキストを構成する1以上の単語の品詞を示す1以上の要求内容品詞情報と、を更に含む訓練データを取得してもよい。要求内容テキストは、例えばアンケートの質問、テーマ、課題等を示すテキストある。
図17は、モデル2の構成例を示す図である。図17において、図3と同様の要素については同様の符号が付されている。図17に示すように、本実施形態において生成されるモデル2は、変換部21−6と、特徴抽出部22と、判定部23とを含む。図18は、変換部21−6において生成される情報の一例を示す図である。変換部21−6は、入力層201−1〜201−4と、埋め込み層202−1〜202−4と、連結層231〜233と、リシェイプ層234とを含む。入力層201−3には、要求内容単語情報の一例として、アンケートの質問を示すテキストを構成する1以上の単語を示す質問単語情報が入力される。入力層201−4には、要求内容品詞情報の一例として、アンケートの質問を示すテキストを構成する1以上の単語の品詞を示す質問品詞情報が入力される。埋め込み層202−3は、入力層201−3から出力された複数の質問単語情報それぞれに対応する複数の質問単語特徴ベクトルで構成される質問単語特徴二次元配列304を生成する。埋め込み層202−4は、入力層201−4から出力された複数の質問品詞情報それぞれに対応する複数の質問品詞特徴ベクトルで構成される質問品詞特徴二次元配列305を生成する。連結層231は、埋め込み層202−1及び202−3から出力された単語特徴二次元配列301と質問単語特徴二次元配列304とを幅方向に連結して、第1の二次元配列を出力する。連結層232は、埋め込み層202−2及び202−4から出力された品詞特徴二次元配列302と質問品詞特徴二次元配列305とを幅方向に連結して、第2の二次元配列を出力する。連結層233は、連結層231及び232から出力された第1及び第2の二次元配列を高さ方向に連結することにより、第3の二次元配列を出力する。リシェイプ層234は、連結層233から出力された第3の二次元配列の形状を三次元形状に変換することにより、図18に示す特徴三次元配列360を出力する。特徴三次元配列360において、単語特徴二次元配列301及び質問単語特徴二次元配列304は、同一のチャネルで連結されている。また、品詞特徴二次元配列302及び質問品詞特徴二次元配列305は、同一のチャネルで連結されている。単語と品詞とで別々のチャネルに二次元配列が形成される。特徴三次元配列360は、特徴抽出部22の各畳み込み層205に入力される。
テキストの妥当性の判定において、判定対象データ取得部114も同様に、要求内容単語情報及び要求内容品詞情報を更に取得する。妥当性情報出力部115は、モデル生成部112の場合と同様に、要求内容単語情報及び要求内容品詞情報を更に用いて妥当性情報を出力する。
図17及び図18は、第1実施形態に対して、要求内容単語情報及び要求内容品詞情報の追加が適用された場合の例を示す。しかしながら、第2実施形態〜第4実施形態に、要求内容単語情報及び要求内容品詞情報の追加が適用されてもよい。例えば、単語特徴二次元配列301と品詞特徴二次元配列302とを幅方向に連結して、テキスト用の二次元配列が生成されるとともに、質問単語特徴二次元配列304と質問品詞特徴二次元配列305とを幅方向に連結して、質問用のテキスト用の二次元配列が生成され、生成されたこれらの二次元配列が幅方向に連結されてなる二次元配列が、畳み込み層212に入力されてもよい。また、単語特徴二次元配列301に、テキストを構成する単語の品詞を示す数値が付加されるとともに、質問品詞特徴二次元配列305に、質問を示すテキストを構成する単語の品詞を示す数値が付加され、これらの二次元配列が幅方向に連結してなる二次元配列が、畳み込み層212に入力されてもよい。また、テキストを構成する1以上の単語それぞれについて、階層化された複数の品詞を示す複数の品詞情報が取得されるとともに、要求内容テキストを構成する1以上の単語それぞれについて、階層化された複数の品詞を示す複数の要求内容品詞情報が取得されてもよい。
以上説明したように、本実施形態によれば、複数の訓練データそれぞれは、テキストに如何なる内容が示されることが要求されるかを示す要求内容テキストを構成する1以上の単語を示す1以上の要求内容単語情報と、その1以上の単語の品詞を示す1以上の要求内容品詞情報と、を更に含む。従って、如何なる内容を示していることが要求されるかを示すテキストの単語情報及び品詞情報をも用いた機械学習により、モデル2が生成される。そのため、如何なる内容を示していることが要求されるかを示すテキストと、この要求に対して作成されたテキストとが対で学習されるので、テキストの妥当性の判定精度を向上させることができる。
[7.第7実施形態]
次に、図19及び図20を用いて第7実施形態について説明する。訓練データ取得部111は、テキストを構成する1以上の単語それぞれの文字数を示す1以上の文字数情報を更に含む訓練データを取得してもよい。訓練データ取得部111が、各単語の文字数をカウントして文字数情報を生成してもよいし、予め記憶部14に文字数情報が記憶されていてもよい。
モデル生成部112は、品詞情報の場合と同様に、1以上の文字数情報それぞれを、1以上の単語特徴ベクトルのうち、その文字数情報により示される文字数に対応する単語の単語特徴ベクトルに関連付けた状態で、単語特徴二次元配列及び1以上の文字数情報を畳み込み層に入力してもよい。
図19は、モデル2の構成例を示す図である。図19において、図3と同様の要素については同様の符号が付されている。図19に示すように、本実施形態において生成されるモデル2は、変換部21−7と、特徴抽出部22と、判定部23とを含む。図20は、変換部21−7において生成される情報の一例を示す図である。変換部21−7は、入力層201−1、201−2、及び201−5と、埋め込み層202−1、202−2、及び202−5と、連結層203と、リシェイプ層204とを含む。入力層201−5には、文字数情報が入力される。埋め込み層202−5は、入力層201−5から出力された複数の文字数情報それぞれに対応する複数の文字数特徴ベクトルで構成される文字数特徴二次元配列306を生成する。例えば、文字数を示す単語の特徴ベクトルが、文字数特徴ベクトルとして出力されてもよい。連結層203は、埋め込み層202−1、202−2、及び202−5から出力された単語特徴二次元配列301と、品詞特徴二次元配列302と、文字数特徴二次元配列306とを高さ方向に連結する。リシェイプ層204は、連結された配列の形状を三次元形状に変換することにより、図20に示す特徴三次元配列370を出力する。特徴三次元配列370において、単語特徴二次元配列301、品詞特徴二次元配列302、及び文字数特徴二次元配列306は、別々のチャネルに分離される。特徴三次元配列370は、特徴抽出部22の各畳み込み層205に入力される。
テキストの妥当性の判定において、判定対象データ取得部114も同様に、文字数情報を更に取得する。妥当性情報出力部115は、モデル生成部112の場合と同様に、文字数情報を更に用いて妥当性情報を出力する。
図19及び図20は、第1実施形態に対して、文字数情報の追加が適用された場合の例を示す。しかしながら、第2実施形態〜第6実施形態に、文字数情報の追加が適用されてもよい。例えば、単語特徴二次元配列301と、品詞特徴二次元配列302と、文字数特徴二次元配列306とを幅方向に連結してなる二次元配列が、畳み込み層212に入力されてもよい。また、単語特徴二次元配列301に、品詞を示す数値及び文字数を示す数値が付加されてなる二次元配列が、畳み込み層212に入力されてもよい。また、文字数情報とともに、階層化された複数の品詞を示す複数の品詞情報が取得されてもよい。また、文字数情報とともに、要求内容種別が取得されてもよい。また、テキストを構成する単語について、単語情報、品詞情報及び文字数情報が取得されるとともに、要求内容テキストを構成する単語について、要求内容単語情報、要求内容品詞情報、及び要求内容テキストを構成する単語の文字数を示す文字数情報が取得されてもよい。
以上説明したように、本実施形態によれば、複数の訓練データそれぞれは、1以上の単語それぞれの文字数を示す1以上の文字数情報を更に含む。従って、文字数情報により、テキストに含まれる単語についての更なるヒントをモデル2を与えることができる。そのため、テキストの妥当性の判定精度を向上させることができる。
[8.第8実施形態]
次に、図21及び図22を用いて第8実施形態について説明する。訓練データ取得部111は、テキストを構成する1以上の単語それぞれに含まれる文字の種類を示す1以上の文字種数情報を更に含む訓練データを取得してもよい。訓練データ取得部111が、各単語に含まれる文字の種類を特定して文字種情報を生成してもよいし、予め記憶部14に文字種情報が記憶されていてもよい。例えば、日本語の場合、文字種情報は、漢字を含むか否か、平仮名を含むか否か、片仮名を含むか否か、ローマ字を含むか否か、数字を含むか否か等であってもよい。訓練データ取得部111は、テキストを構成する1以上の単語それぞれについて、複数の文字種情報を取得してもよい。
モデル生成部112は、品詞情報の場合と同様に、1以上の文字種情報それぞれを、1以上の単語特徴ベクトルのうち、その文字種情報により示される文字種に対応する単語の単語特徴ベクトルに関連付けた状態で、単語特徴二次元配列及び1以上の文字種情報を畳み込み層に入力してもよい。
図21は、モデル2の構成例を示す図である。図21において、図3と同様の要素については同様の符号が付されている。図21に示すように、本実施形態において生成されるモデル2は、変換部21−8と、特徴抽出部22と、判定部23とを含む。図22は、変換部21−8において生成される情報の一例を示す図である。変換部21−8は、入力層201−1、201−2、及び201−6と、埋め込み層202−1、202−2、及び202−6と、連結層203と、リシェイプ層204とを含む。入力層201−6には、文字種情報が入力される。この文字種情報は、例えば単語が漢字を含むか否かを示す。埋め込み層202−6は、入力層201−6から出力された複数の文字種情報それぞれに対応する複数の文字種特徴ベクトルで構成される文字種特徴二次元配列307を生成する。例えば、文字種を示す単語の特徴ベクトルが、文字種特徴ベクトルとして出力されてもよい。各単語について複数の文字種情報が存在する場合、変換部21−8は、複数の文字種情報に対応する複数の入力層201−6及び複数の埋め込み層202−6を含んでもよい。連結層203は、埋め込み層202−1、202−2、及び202−6から出力された単語特徴二次元配列301と、品詞特徴二次元配列302と、文字種特徴二次元配列307とを高さ方向に連結する。リシェイプ層204は、連結された配列の形状を三次元形状に変換することにより、図22に示す特徴三次元配列380を出力する。特徴三次元配列380において、単語特徴二次元配列301、品詞特徴二次元配列302、及び文字種特徴二次元配列307は、別々のチャネルに分離される。特徴三次元配列380は、特徴抽出部22の各畳み込み層205に入力される。
テキストの妥当性の判定において、判定対象データ取得部114も同様に、文字種情報を更に取得する。妥当性情報出力部115は、モデル生成部112の場合と同様に、文字種情報を更に用いて妥当性情報を出力する。
図21及び図22は、第1実施形態に対して、文字種情報の追加が適用された場合の例を示す。しかしながら、第2実施形態〜第7実施形態に、文字種情報の追加が適用されてもよい。第2実施形態〜第6実施形態に対する文字種情報の追加の適用例は、文字数の追加の適用例と同様である。また、文字種情報とともに、文字数情報が取得されてもよい。
以上説明したように、本実施形態によれば、複数の訓練データそれぞれは、1以上の単語それぞれに含まれる文字の種類を示す1以上の文字種情報を更に含む。従って、この発明によれば、文字種情報により、テキストに含まれる単語についての更なるヒントをモデル2を与えることができる。そのため、テキストの妥当性の判定精度を向上させることができる。
上記各実施形態においては、本発明が、テキストの妥当性の判定に用いられていた。しかしながら、本発明は、テキストの分類に適用されてもよい。また、本発明は、妥当性が問題となるテキスト以外の様々なテキストの分類に対しても適用されてもよい。2クラス分類及び多クラス分類の何れが適用されてもよい。テキスト分類の場合、訓練データは、妥当性ラベルに変えて、テキストが属するカテゴリーを示すラベルを含む。モデル2は、分類結果を示す情報を出力する。なお、テキストの妥当性の判定は、テキスト分類の一例である。
1 妥当性判定装置
11 システム制御部
12 システムバス
13 入出力インターフェース
14 記憶部
15 通信部
16 入力部
17 表示部
18 GPU
111 訓練データ取得部
112 モデル生成部
113 モデル読み出し部
114 判定対象データ取得部
115 妥当性情報出力部
2 モデル
21、21−1〜4、21−6〜21−8 変換部
22、22−2 特徴抽出部
23、23−5 判定部
205、212 畳み込み層

Claims (17)

  1. 第1テキストを構成する1以上の単語を示す1以上の単語情報と、前記1以上の単語の品詞を示す1以上の品詞情報と、をそれぞれ含む複数の訓練データを記憶する記憶手段から、前記複数の訓練データを取得する訓練データ取得手段と、
    前記取得された複数の訓練データからの機械学習により、所与の第2テキストの妥当性を示す妥当性情報を出力するモデルを生成するモデル生成手段と、
    を備えることを特徴とする学習装置。
  2. 前記複数の訓練データそれぞれについて、前記1以上の単語情報から、前記1以上の単語それぞれの特徴を示す1以上の単語特徴ベクトルを含む二次元配列単語情報を生成する特徴情報生成手段を更に備え、
    前記モデル生成手段は、前記1以上の品詞情報それぞれを、前記1以上の単語特徴ベクトルのうち該品詞情報により示される品詞に対応する単語の単語特徴ベクトルに関連付けた状態で、前記二次元配列単語情報及び前記1以上の品詞情報を畳み込み層に入力して前記機械学習させることにより、前記モデルを生成することを特徴とする請求項1に記載の学習装置。
  3. 前記特徴情報生成手段は、更に、前記1以上の品詞情報から、前記1以上の品詞それぞれの特徴を示す1以上の品詞特徴ベクトルを含む二次元配列品詞情報を生成し、
    前記モデル生成手段は、前記二次元配列単語情報と前記二次元配列品詞情報とを重ねてなる三次元配列情報を前記畳み込み層に入力することを特徴とする請求項2に記載の学習装置。
  4. 前記特徴情報生成手段は、更に、前記1以上の品詞情報から、前記1以上の品詞それぞれの特徴を示す1以上の品詞特徴ベクトルを含む二次元配列品詞情報を生成し、
    前記モデル生成手段は、前記二次元配列単語情報と前記二次元配列品詞情報とを連結してなる二次元配列情報を前記畳み込み層に入力することを特徴とする請求項2に記載の学習装置。
  5. 前記モデル生成手段は、前記1以上の品詞それぞれを示す数値を、前記1以上の単語特徴ベクトルのうち該品詞に対応する単語の単語特徴ベクトルに付加して、前記二次元配列単語情報を前記畳み込み層に入力することを特徴とする請求項2に記載の学習装置。
  6. 前記複数の訓練データそれぞれは、前記1以上の単語それぞれについて、所定の品詞体系により階層化された複数の品詞を示す複数の前記品詞情報を含むことを特徴とする請求項1乃至5の何れか一項に記載の学習装置。
  7. 前記複数の訓練データそれぞれは、如何なる種類の内容が前記第1テキストに示されることが要求されているかを示す種類情報を更に含むことを特徴とする請求項1乃至6の何れか一項に記載の学習装置。
  8. 前記複数の訓練データそれぞれは、如何なる内容が前記第1テキストに示されることが要求されるかを示す第3テキストを構成する1以上の第2単語を示す1以上の第2単語情報と、前記1以上の第2単語の品詞を示す1以上の第2品詞情報と、を更に含むことを特徴とする請求項1乃至7の何れか一項に記載の学習装置。
  9. 前記複数の訓練データそれぞれは、前記1以上の単語それぞれの文字数を示す1以上の文字数情報を更に含むことを特徴とする請求項1乃至8の何れか一項に記載の学習装置。
  10. 前記複数の訓練データそれぞれは、前記1以上の単語それぞれに含まれる文字の種類を示す1以上の文字種情報を更に含むことを特徴とする請求項1乃至9の何れか一項に記載の学習装置。
  11. 前記第1テキストは、アンケートにおける質問に対する回答を示し、
    前記生成されるモデルは、所与のアンケートにおける質問に対する回答を示すものとしての前記第2テキストの妥当性を示す前記妥当性情報を出力することを特徴とする請求項1乃至10の何れか一項に記載の学習装置。
  12. 前記複数の訓練データそれぞれは、前記第1テキストの妥当性を示すラベルを更に含むことを特徴とする請求項1乃至11の何れか一項に記載の学習装置。
  13. 請求項1乃至12の何れか一項に記載の学習装置により生成されたモデルを記憶するモデル記憶手段から、前記モデルを読み出す読み出し手段と、
    所与のテキストを構成する1以上の単語を示す1以上の判定単語情報と、前記1以上の単語の品詞を示す1以上の判定品詞情報と、を取得するテキスト情報取得手段と、
    前記取得された1以上の判定単語情報及び1以上の判定品詞情報を、前記読み出されたモデルに入力することにより、前記所与のテキストの妥当性を示す妥当性情報を出力する出力手段と、
    を備えることを特徴とする妥当性判定装置。
  14. コンピュータにより実行される学習方法において、
    第1テキストを構成する1以上の単語を示す1以上の単語情報と、前記1以上の単語の品詞を示す1以上の品詞情報と、をそれぞれ含む複数の訓練データを記憶する記憶手段から、前記複数の訓練データを取得する訓練データ取得ステップと、
    前記取得された複数の訓練データからの機械学習により、所与の第2テキストの妥当性を示す妥当性情報を出力するモデルを生成するモデル生成ステップと、
    を含むことを特徴とする学習方法。
  15. コンピュータにより実行される妥当性判定方法において、
    請求項1乃至12の何れか一項に記載の学習装置により生成されたモデルを記憶するモデル記憶手段から、前記モデルを読み出す読み出しステップと、
    所与のテキストを構成する1以上の単語を示す1以上の判定単語情報と、前記1以上の単語の品詞を示す1以上の判定品詞情報と、を取得するテキスト情報取得ステップと、
    前記取得された1以上の判定単語情報及び1以上の判定品詞情報を、前記読み出されたモデルに入力することにより、前記所与のテキストの妥当性を示す妥当性情報を出力する出力ステップと、
    を含むことを特徴とする妥当性判定方法。
  16. コンピュータを、
    第1テキストを構成する1以上の単語を示す1以上の単語情報と、前記1以上の単語の品詞を示す1以上の品詞情報と、をそれぞれ含む複数の訓練データを記憶する記憶手段から、前記複数の訓練データを取得する訓練データ取得手段と、
    前記取得された複数の訓練データからの機械学習により、所与の第2テキストの妥当性を示す妥当性情報を出力するモデルを生成するモデル生成手段と、
    として機能させることを特徴とする学習プログラム。
  17. コンピュータを、
    請求項1乃至12の何れか一項に記載の学習装置により生成されたモデルを記憶するモデル記憶手段から、前記モデルを読み出す読み出し手段と、
    所与のテキストを構成する1以上の単語を示す1以上の判定単語情報と、前記1以上の単語の品詞を示す1以上の判定品詞情報と、を取得するテキスト情報取得手段と、
    前記取得された1以上の判定単語情報及び1以上の判定品詞情報を、前記読み出されたモデルに入力することにより、前記所与のテキストの妥当性を示す妥当性情報を出力する出力手段と、
    として機能させることを特徴とする妥当性判定プログラム。
JP2018245365A 2018-12-27 2018-12-27 学習装置、妥当性判定装置、学習方法、妥当性判定方法、学習プログラム、及び妥当性判定プログラム Active JP6899367B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018245365A JP6899367B2 (ja) 2018-12-27 2018-12-27 学習装置、妥当性判定装置、学習方法、妥当性判定方法、学習プログラム、及び妥当性判定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018245365A JP6899367B2 (ja) 2018-12-27 2018-12-27 学習装置、妥当性判定装置、学習方法、妥当性判定方法、学習プログラム、及び妥当性判定プログラム

Publications (2)

Publication Number Publication Date
JP2020107085A true JP2020107085A (ja) 2020-07-09
JP6899367B2 JP6899367B2 (ja) 2021-07-07

Family

ID=71449170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018245365A Active JP6899367B2 (ja) 2018-12-27 2018-12-27 学習装置、妥当性判定装置、学習方法、妥当性判定方法、学習プログラム、及び妥当性判定プログラム

Country Status (1)

Country Link
JP (1) JP6899367B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112348158A (zh) * 2020-11-04 2021-02-09 重庆大学 基于多参数深度分布学习的工业设备状态评估方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040019650A1 (en) * 2000-01-06 2004-01-29 Auvenshine John Jason Method, system, and program for filtering content using neural networks
JP2008084064A (ja) * 2006-09-28 2008-04-10 National Institute Of Advanced Industrial & Technology テキスト分類処理方法、テキスト分類処理装置ならびにテキスト分類処理プログラム
CN106649275A (zh) * 2016-12-28 2017-05-10 成都数联铭品科技有限公司 基于词性信息和卷积神经网络的关系抽取方法
US20170147682A1 (en) * 2015-11-19 2017-05-25 King Abdulaziz City For Science And Technology Automated text-evaluation of user generated text
CN106855853A (zh) * 2016-12-28 2017-06-16 成都数联铭品科技有限公司 基于深度神经网络的实体关系抽取系统
US10162850B1 (en) * 2018-04-10 2018-12-25 Icertis, Inc. Clause discovery for validation of documents

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040019650A1 (en) * 2000-01-06 2004-01-29 Auvenshine John Jason Method, system, and program for filtering content using neural networks
JP2008084064A (ja) * 2006-09-28 2008-04-10 National Institute Of Advanced Industrial & Technology テキスト分類処理方法、テキスト分類処理装置ならびにテキスト分類処理プログラム
US20170147682A1 (en) * 2015-11-19 2017-05-25 King Abdulaziz City For Science And Technology Automated text-evaluation of user generated text
CN106649275A (zh) * 2016-12-28 2017-05-10 成都数联铭品科技有限公司 基于词性信息和卷积神经网络的关系抽取方法
CN106855853A (zh) * 2016-12-28 2017-06-16 成都数联铭品科技有限公司 基于深度神经网络的实体关系抽取系统
US10162850B1 (en) * 2018-04-10 2018-12-25 Icertis, Inc. Clause discovery for validation of documents

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
吉見 孔孝 外3名: "音声対話システムにおける条件付確率場に基づく自動応答文選択", 日本音響学会 2008年 春季研究発表会講演論文集CD−ROM [CD−ROM], JPN6020038059, 10 March 2008 (2008-03-10), JP, pages 95 - 96, ISSN: 0004362177 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112348158A (zh) * 2020-11-04 2021-02-09 重庆大学 基于多参数深度分布学习的工业设备状态评估方法
CN112348158B (zh) * 2020-11-04 2024-02-13 重庆大学 基于多参数深度分布学习的工业设备状态评估方法

Also Published As

Publication number Publication date
JP6899367B2 (ja) 2021-07-07

Similar Documents

Publication Publication Date Title
Guo Deep learning approach to text analysis for human emotion detection from big data
US9514098B1 (en) Iteratively learning coreference embeddings of noun phrases using feature representations that include distributed word representations of the noun phrases
Dai et al. Glyph-aware embedding of chinese characters
US20220059186A1 (en) Method and apparatus for detecting molecule binding site, electronic device, and storage medium
US20170228654A1 (en) Methods and systems for base map and inference mapping
CN110377702A (zh) 一种简历信息匹配方法及装置
US20230244849A1 (en) Content aware font recommendation
CN111985243B (zh) 情感模型的训练方法、情感分析方法、装置及存储介质
Zhao et al. Contextual self-organizing map: software for constructing semantic representations
CN114818691A (zh) 文章内容的评价方法、装置、设备及介质
Banik et al. Gru based named entity recognition system for bangla online newspapers
CN116541493A (zh) 基于意图识别的交互应答方法、装置、设备、存储介质
Lee et al. Gemini pro defeated by gpt-4v: Evidence from education
JP2020107085A (ja) 学習装置、妥当性判定装置、学習方法、妥当性判定方法、学習プログラム、及び妥当性判定プログラム
CN116719999A (zh) 文本相似度检测方法和装置、电子设备及存储介质
Tashu et al. Deep Learning Architecture for Automatic Essay Scoring
CN112948580B (zh) 一种文本分类的方法和系统
Ruichen The Basic Principles of Marxism with the Internet as a Carrier
Tannert et al. FlowchartQA: the first large-scale benchmark for reasoning over flowcharts
CN111566665B (zh) 在自然语言处理中应用图像编码识别的装置和方法
CN115878762A (zh) 课件生成方法、课件显示方法、装置、设备及存储介质
Wang et al. Using sentence-level neural network models for multiple-choice reading comprehension tasks
US20230376687A1 (en) Multimodal extraction across multiple granularities
US11537262B1 (en) Using attributes for font recommendations
Minatani A Practical CAD Method for the Visually Impaired: A Case of Modeling the Leaning Tower of Pisa

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210614

R150 Certificate of patent or registration of utility model

Ref document number: 6899367

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150