JP7283718B2 - 音響信号検索装置、音響信号検索方法、データ検索装置、データ検索方法、プログラム - Google Patents

音響信号検索装置、音響信号検索方法、データ検索装置、データ検索方法、プログラム Download PDF

Info

Publication number
JP7283718B2
JP7283718B2 JP2021522679A JP2021522679A JP7283718B2 JP 7283718 B2 JP7283718 B2 JP 7283718B2 JP 2021522679 A JP2021522679 A JP 2021522679A JP 2021522679 A JP2021522679 A JP 2021522679A JP 7283718 B2 JP7283718 B2 JP 7283718B2
Authority
JP
Japan
Prior art keywords
data
acoustic signal
domain
input
natural language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021522679A
Other languages
English (en)
Other versions
JPWO2020241070A1 (ja
JPWO2020241070A5 (ja
Inventor
邦夫 柏野
翔太 井川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
University of Tokyo NUC
Original Assignee
Nippon Telegraph and Telephone Corp
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, University of Tokyo NUC filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2020241070A1 publication Critical patent/JPWO2020241070A1/ja
Publication of JPWO2020241070A5 publication Critical patent/JPWO2020241070A5/ja
Application granted granted Critical
Publication of JP7283718B2 publication Critical patent/JP7283718B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/632Query formulation
    • G06F16/634Query by example, e.g. query by humming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • G06F40/56Natural language generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/44Statistical methods, e.g. probability models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Description

特許法第30条第2項適用 (1)発行日 2018年8月29日 刊行物 一般社団法人日本音響学会 2018年秋季研究発表会講演論文集 講演要旨・講演論文 CD-ROM 2-2-1 (2)ウェブサイト掲載日 2019年5月27日 ウェブサイトのアドレス 日本電信電話株式会社 ニュースリリース ウェブサイト https://www.ntt.co.jp/news2019/1905/190527b.html (3)開催日 2019年5月30日~2019年5月31日(公知日:2019年5月30日、31日) 集会名、開催場所 NTTコミュニケーション科学基礎研究所オープンハウス2019 http://www.kecl.ntt.co.jp/openhouse/2019/index.html 主催:日本電信電話株式会社 NTTコミュニケーション科学基礎研究所 開催場所 京都府相楽郡精華町光台2-4(けいはんな学研都市)NTT京阪奈ビルB棟3階大会議室 (4)開催日 2019年10月25日~2019年10月26日(公知日2019年10月25日) 集会名 DCASE Workshop (予稿集) http://dcase.community/articles/dcase2019-best-paper-awards
本発明は、音響信号を検索する技術に関する。
近年、膨大な量の音響信号が蓄積されるようになり、目的の音響信号を効率的に検索する技術(以下、音響信号検索技術という)の需要が増大している。例えば、音響情報を他者に伝える際に、類似する音を音響信号データベースから選択して説明に用いることは、設備の保守点検・警備・ヘルプデスク業務など様々な場面において効率的な情報伝達を可能とする。また、効果音データベースから適切な効果音を選択することは、映像やゲーム、楽曲などの制作において重要な役割を果たす。
音響信号検索技術の手法の1つとして、テキストデータをクエリとする検索手法がある。この手法では、音響信号に付与された分類タグや説明文などとクエリとを照合することによる検索を行う。こうしたテキストデータを用いた検索の1つとして、擬音語をクエリとした検索が提案されている。人間が日常生活で用いる擬音語をクエリとして用いることで、より自然なヒューマン・コンピュータ・インタラクションが実現される。非特許文献1では、例えば擬音語をクエリとした検索として、音響信号にあらかじめ付与された擬音語タグと擬音語クエリとの間のテキスト類似度に基づくテキストベース音響信号検索が提案されている。
岡本香帆里, 山西良典, 松下光範, "複数観点に基づく探索的効果音検索システム:SERVAの開発とユーザ観察", DEIM Forum 2016, E3-6, 2016年.
しかし、擬音語をクエリとするテキストベース音響信号検索には、以下に挙げる問題がある。
(問題)1種類の擬音語に対応する音響信号は数多く存在するため、多くの同順位の音響信号が存在し得ることである。例えば、“パン”という擬音語は打撃音や破裂音など特徴の大きく異なる音響信号に共通して用いられる。また、このうち打撃音のみについても、周波数スペクトルやパワーエンベロープの異なる多数の音が“パン”という擬音語で表現される。この問題は、擬音語が音響情報を極めて圧縮した離散的な表現形式であるため発生する。このような音響信号のうち、より擬音語クエリへの適合度の高い音響信号が得られることが望ましいが、テキストベース音響信号検索ではこれらに順位付けを行うことは困難である。この問題はデータベースのサイズが大きくなるにつれ顕在化し、多くの音響信号を同列にユーザに提示することでユーザビリティが著しく損なわれる。
そこで本発明では、テキストデータによりタグ付けすることなく、音響信号を検索することができる音響信号検索技術を提供することを目的とする。
本発明の一態様は、音響信号エンコーダを用いて音響信号から生成した、当該音響信号に対応する潜在変数と、当該音響信号とを含むレコードから構成される音響信号データベースを記録する記録部と、入力となる自然言語表現(以下、入力自然言語表現という)から、自然言語表現エンコーダを用いて、前記入力自然言語表現に対応する潜在変数を生成する潜在変数生成部と、前記音響信号データベースを用いて、前記入力自然言語表現に対応する潜在変数から、前記入力自然言語表現に対応する音響信号を検索結果として決定する検索部と、を含む。
本発明の一態様は、音響信号エンコーダを用いて音響信号から生成した、当該音響信号に対応する潜在変数と、当該音響信号とを含むレコードから構成される音響信号データベースを記録する記録部と、入力となる音響信号(以下、入力音響信号という)から、前記音響信号エンコーダを用いて、前記入力音響信号に対応する潜在変数を生成する潜在変数生成部と、前記音響信号データベースを用いて、前記入力音響信号に対応する潜在変数から、前記入力音響信号に対応する音響信号を検索結果として決定する検索部と、を含む。
本発明の一態様は、音響信号エンコーダを用いて音響信号から生成した、当該音響信号に対応する潜在変数と、当該音響信号とを含むレコードから構成される音響信号データベースを記録する記録部と、入力となる自然言語表現(以下、入力自然言語表現という)から、自然言語表現エンコーダを用いて、前記入力自然言語表現に対応する潜在変数を生成する第1潜在変数生成部と、前記音響信号データベースを用いて、前記入力自然言語表現に対応する潜在変数または選択音響信号に対応する潜在変数から、前記入力自然言語表現に対応する音響信号または前記選択音響信号に対応する音響信号を検索結果として決定する検索部と、前記検索結果の中にユーザの要求を満たす音響信号がある場合は、当該音響信号を出力し、そうでない場合は、前記検索結果の1つを前記選択音響信号として決定する選択音響信号決定部と、前記選択音響信号から、前記音響信号エンコーダを用いて、前記選択音響信号に対応する潜在変数を生成する第2潜在変数生成部と、を含む。
本発明によれば、テキストデータによりタグ付けすることなく、音響信号を検索することが可能となる。
SCGを説明する図である。 文の詳細度を説明する図である。 文の詳細度を説明する図である。 CSCGを説明する図である。 実験結果を示す図である。 実験結果を示す図である。 実験結果を示す図である。 実験結果を示す図である。 データ生成モデルの概要を示す図である。 データ生成モデル学習装置100の構成を示すブロック図である。 データ生成モデル学習装置100の動作を示すフローチャートである。 データ生成モデル学習装置150の構成を示すブロック図である。 データ生成モデル学習装置150の動作を示すフローチャートである。 データ生成装置200の構成を示すブロック図である。 データ生成装置200の動作を示すフローチャートである。 音響信号検索処理の概要を示す図である。 潜在変数生成モデル学習装置300の構成を示すブロック図である。 潜在変数生成モデル学習装置300の動作を示すフローチャートである。 音響信号検索装置400の構成を示すブロック図である。 音響信号検索装置400の動作を示すフローチャートである。 音響信号検索装置500の構成を示すブロック図である。 音響信号検索装置500の動作を示すフローチャートである。 音響信号検索装置600の構成を示すブロック図である。 音響信号検索装置600の動作を示すフローチャートである。 選択音響信号決定部640の構成を示すブロック図である。 選択音響信号決定部640の動作を示すフローチャートである。 データ生成モデル学習装置1100の構成を示すブロック図である。 データ生成モデル学習装置1100の動作を示すフローチャートである。 データ生成モデル学習装置1150の構成を示すブロック図である。 データ生成モデル学習装置1150の動作を示すフローチャートである。 データ生成装置1200の構成を示すブロック図である。 データ生成装置1200の動作を示すフローチャートである。 潜在変数生成モデル学習装置1300の構成を示すブロック図である。 潜在変数生成モデル学習装置1300の動作を示すフローチャートである。 データ検索装置1400の構成を示すブロック図である。 データ検索装置1400の動作を示すフローチャートである。 データ検索装置1500の構成を示すブロック図である。 データ検索装置1500の動作を示すフローチャートである。 データ検索装置1600の構成を示すブロック図である。 データ検索装置1600の動作を示すフローチャートである。
以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
各実施形態の説明に先立って、この明細書における表記方法について説明する。
^(キャレット)は上付き添字を表す。例えば、xy^zはyzがxに対する上付き添字であり、xy^zはyzがxに対する下付き添字であることを表す。また、_(アンダースコア)は下付き添字を表す。例えば、xy_zはyzがxに対する上付き添字であり、xy_zはyzがxに対する下付き添字であることを表す。
ある文字xに対する^xや~xのような上付き添え字の”^”や”~”は、本来”x”の真上に記載されるべきであるが、明細書の記載表記の制約上、^xや~xと記載しているものである。
<技術的背景>
本発明の実施形態では、音響信号から、当該音響信号に対応する文を生成する際、文生成モデルを用いる。ここで、文生成モデルとは、音響信号を入力とし、対応する文を出力する関数のことである。また、音響信号に対応する文とは、例えば、当該音響信号がどのような音であるのかを説明する文(当該音響信号の説明文)のことである。
まず、文生成モデルの一例としてSCG (Sequence-to-sequence Caption Generator)と呼ぶモデルについて説明する。
《SCG》
SCGは、図1に示すように、デコーダに参考非特許文献1に記載のRLM(Recurrent Language Model)を採用したエンコーダ-デコーダモデルである。
(参考非特許文献1:T. Mikolov, M. Karafiat, L. Burget, J. Cernock`y, and S. Khudanpur, “Recurrent neural network based language model”, In INTERSPEECH 2010, pp.1045-1048, 2010.)
図1を参照して、SCGを説明する。SCGは、以下のステップにより、入力された音響信号から、当該音響信号に対応する文を生成し、出力する。なお、音響信号の代わりに、音響信号から抽出された音響特徴量(Acoustic features)、例えば、メル周波数ケプストラム係数(MFCC)の系列を用いてもよい。また、テキストデータである文は、単語の列である。
(1)SCGは、エンコーダによって、音響信号から音の分散表現である潜在変数(Latent variable)zを抽出する。潜在変数zは、所定の次元(例えば、128次元)のベクトルとして表現される。この潜在変数zは、文生成のための十分な情報を含んだ音響信号の要約特徴量であるといえる。したがって、潜在変数zは音響信号と文の双方の特徴を有する固定長ベクトルであるともいえる。
(2)SCGは、デコーダによって、潜在変数zから、時刻t(t=1, 2, …)における単語wtを出力していくことにより、文を生成する。デコーダの出力層(Output layer)は、時刻tにおける単語の生成確率pt(w)から、次式により時刻tにおける単語wtを出力する。
Figure 0007283718000001
図1は、時刻t=1における単語w1が”Birds”、時刻t=2における単語w2が”are”、時刻t=3における単語w3が”singing”であり、文”Birds are singing”が生成されることを表している。なお、図1中の<BOS>、<EOS>はそれぞれ開始記号、終端記号である。
SCGを構成するエンコーダとデコーダには、時系列データを処理することができる任意のニューラルネットワークを用いることができる。例えば、RNN(Recurrent Neural Network)やLSTM(Long Short-Term Memory)を用いることができる。なお、図1中のBLSTM、layered LSTMはそれぞれ双方向LSTM(Bi-directional LSTM)、多層LSTMを表す。
SCGは、音響信号と当該音響信号に対応する文(この文のことを教師データという)の組を教師あり学習データとして用いる教師あり学習により学習される。時刻tにおいてデコーダが出力する単語と、教師データの文に含まれる、時刻tにおける単語とのクロスエントロピーの総和を誤差関数LSCGとして、誤差逆伝播法によりSCGを学習する。
上記学習により得られるSCGの出力である文は、その記述の詳細さにおいて、ばらつきが生じてしまう。これは、以下のような理由による。1つの音響信号に対して正しい文は1つではない。言い換えると、1つの音響信号に対して記述の詳細さが様々に異なる多数の“正しい文”が存在しうる。例えば、“低い音が鳴る”、“楽器をしばらく鳴らしている”、“弦楽器を低い音で鳴らし始めて、その後ゆっくりと音量が下がっていく”のように、1つの音響信号に対してその音響信号の様子を記述する正しい文は複数ありえ、これらの文の中でどの文が好ましいのかは場面によって異なる。例えば、端的な記述が欲しい場面もあれば、詳しい記述が欲しい場面もある。そのため、記述の詳細さが異なる文を区別せずにSCGの学習を実行すると、SCGは、生成する文の傾向を制御することができなくなる。
《詳細度》
上記ばらつきの問題を解決するために、文の詳細さの程度を示す指標である詳細度(Specificity)を定義する。n個の単語の列[w1, w2, …, wn]である文sの詳細度Isを次式により定義する。
Figure 0007283718000002
ただし、Iw_tは単語wtの出現確率pw_tに基づき定まる単語wtの情報量である。例えば、Iw_t=-log(pw_t)とするとよい。ここで、単語wtの出現確率pw_tは、例えば、説明文データベースを用いて求めることができる。説明文データベースとは、複数の音響信号に対して各々の音響信号を説明する文を1以上格納したデータベースであり、説明文データベースに含まれる文に含まれる単語ごとにその出現頻度を求め、当該単語の出現頻度をすべての単語の出現頻度の和で割ることにより、単語の出現確率を求めることができる。
このように定義した詳細度は、以下のような特徴を有する。
(1)具体的な物体や動作を表す単語を用いた文は詳細度が高くなる(図2参照)。
これは、このような単語は出現頻度が低く、情報量が大きくなるためである。
(2)使用する単語数が多い文は詳細度が高くなる(図3参照)。
詳細度の最適値は、対象とする音の性質や用途により異なる。例えば、より詳しく音を描写したい場合は、文の詳細度は高い方が好ましいし、端的な説明が欲しい場合は、文の詳細度は低い方が好ましい。また、詳細度が高い文は不正確になりやすいという問題もある。したがって、音響信号の記述に求められる情報の粒度に応じて、詳細度を自由に制御して、音響信号に対応する文を生成できることが重要になる。このような文生成を可能とするモデルとして、CSCG (Conditional Sequence-to-sequence Caption Generator)を説明する。
《CSCG》
CSCGは、SCGと同様、デコーダにRLMを採用したエンコーダ-デコーダモデルである。ただし、CSCGでは、デコーダに条件付けを行うことにより、生成される文の詳細度(Specificity of the sentence)を制御する(図4参照)。条件付けは、文の詳細度に関する条件(Specificitical Condition)をデコーダの入力とすることにより行う。ここで、文の詳細度に関する条件とは、生成される文の詳細度に関する条件を指定するものである。
図4を参照して、CSCGを説明する。CSCGは、以下のステップにより、入力された音響信号と文の詳細度に関する条件から、当該音響信号に対応する文を生成し、出力する。
(1)CSCGは、エンコーダによって、音響信号から音の分散表現である潜在変数zを抽出する。
(2)CSCGは、デコーダによって、潜在変数zと文の詳細度に関する条件Cから、時刻t(t=1, 2, …)における単語を出力していくことにより、文を生成する。生成された文は文の詳細度に関する条件Cに近い詳細度を持つ文となる。図4は、生成された文s=”Birds are singing”の詳細度Isが文の詳細度に関する条件Cに近いものとなることを示している。
CSCGは、音響信号と当該音響信号に対応する文の組である学習データ(以下、第1学習データという)を用いる教師あり学習(以下、第1学習という)により学習することができる。また、CSCGは、第1学習データを用いる第1学習と、文の詳細度と当該詳細度に対応する文の組である学習データ(以下、第2学習データという)を用いる教師あり学習(以下、第2学習という)とにより学習することもできる。この場合、例えば、第1学習と第2学習を1エポックずつ交互に実行することにより、CSCGは学習される。また、例えば、第1学習と第2学習を所定の方法で混在させながら両学習を実行することにより、CSCGは学習される。このとき、第1学習の実行回数と第2学習の実行回数は異なる値となってもよい。
(1)第1学習
音響信号に対応する文(つまり、教師データの要素である文)は、人手により付与されたものを用いる。第1学習では、音響信号に対応する文の詳細度を求めて教師データに含める。第1学習では、生成された文と教師データの文の誤差であるLSCGと詳細度に関する誤差であるLspの最小化を同時に達成するように学習する。誤差関数LCSCGには、2つの誤差LSCGとLspを用いて定義されるものを用いることができる。例えば、誤差関数LCSCGとして、次式のような2つの誤差の線形和を用いることができる。
Figure 0007283718000003
ここで、λは所定の定数である。
なお、誤差Lspの具体的な定義については後述する。
(2)第2学習
第1学習データの数が少ない場合、第1学習のみによりCSCGを学習すると、CSCGが第1学習データの要素である音響信号に過剰に適合してしまい、詳細度が適切に反映されにくくなることも考えられる。そこで、第1学習データを用いる第1学習に加えて、第2学習データを用いる第2学習により、CSCGを構成するデコーダを学習する。
第2学習では、学習中のデコーダを用いて、第2学習データの要素である詳細度cに対応する文を生成し、第2学習データの要素である文を当該生成された文に対する教師データとして、誤差Lspを最小化するようにデコーダを学習する。なお、第2学習データの要素である詳細度cは、例えば、乱数生成のように、所定の方法で生成されたものを用いればよい。また、第2学習データの要素である文は、詳細度cと近い(つまり、詳細度cとの差が所定の閾値より小さいあるいは以下である)詳細度を持つ文である。
具体的には、生成された文と詳細度cと近い詳細度を持つ文の誤差であるLSCGを用いて正則化する。
Figure 0007283718000004
ここで、λ’はλ’<1を満たす定数である。
第1学習に加えて、第2学習を実行することにより、CSCGの汎化性能を向上させることができる。
誤差Lspは、第1学習の場合は、生成された文の詳細度と教師データの文の詳細度との差、第2学習の場合は、生成された文の詳細度と教師データとして与える詳細度との差として定義することもできるが、このように誤差Lspを定義すると、時刻tにおける出力を得る時点で1つの単語への離散化を行うため、誤差を逆伝播することができない。そこで、誤差逆伝播法による学習を可能とするため、生成された文の詳細度の代わりに、その推定値を用いることが有効である。例えば、生成された文sの推定詳細度^Isとして、次式で定義されるものを用いることができる。
Figure 0007283718000005
ただし、時刻tにおけるデコーダの出力層のユニットjの値p(wt,j)は、ユニットjに対応する単語wt,jの生成確率、Iw_t,jは単語wt,jの生成確率pw_t,jに基づき定まる単語wt,jの情報量である。
そして、誤差Lspを、第1学習の場合、推定詳細度^Isと教師データの文の詳細度との差、第2学習の場合、推定詳細度^Isと教師データとして与える詳細度との差として定義する。
《実験》
ここでは、CSCGによる文生成の効果を確認する実験の結果について説明する。実験は、以下の2つを目的として行った。
(1)詳細度による制御可能性の検証
(2)受容可能性(acceptability)に関する主観評価による生成された文の品質の評価
まず、実験に用いたデータについて、説明する。楽器音や音声などの音響イベントを収録した(6秒以内の)音響信号から、説明文付き音源(教師あり学習データ)を392個、説明文のない音源(教師なし学習データ)を579個生成した。なお、説明文付き音源を生成する際、各音源に1~4個の説明文を付与することした。ここで、付与された説明文の総数は1113個である。また、これらの説明文は、被験者に各音源を聞いてもらいどのような音であるか説明する文を書いてもらうことにより、生成したものである。さらに、上記1113個の説明文に対して、部分的な削除や置換を行うことより、説明文を21726個に増加させ、21726個の説明文を用いて説明文データベースを構成した。
以下、実験結果について説明する。実験結果は、SCGとCSCGの比較という形で評価することとした。実験では、学習済みのSCGと、学習済みのCSCGとを用いて、文を生成した。
まず、目的(1)に関する実験結果について説明する。図5は、音源に対してSCGやCSCGによりどのような文が生成されたかを示す表である。例えば、指を鳴らした音源に対して、SCGにより“軽やかな音が一瞬だけ鳴る”という文(Generated caption)が生成され、詳細度を20としてCSCGにより“指が鳴らされる”という文が生成されたことを示す。また、図6は、各モデルの詳細度の平均と標準偏差を示す表である。これらの統計量は29個の音源をテストデータとして文を生成した結果から算出したものである。図6の表から、詳細度に関して以下のことがわかる。
(1)SCGは、詳細度の標準偏差はとても大きい。
(2)CSCGは、入力した詳細度cの値に応じた詳細度を持つ文を生成しており、標準偏差もSCGのそれと比較して小さい。ただし、入力した詳細度cが大きくなるにつれて標準偏差が大きくなる。これは、入力した詳細度cに近い詳細度を持ちつつ音に当てはまる説明文がないためばらつきが大きくなるものと考えられる。
CSCGは、生成した文の詳細度のばらつきを抑制し、詳細度に応じた文を生成できていることがわかる。
次に、目的(2)に関する実験結果について説明する。まず、SCGを用いて生成した文が主観的に受け入れられるどうかを4段階評価した。次に、SCGを用いて生成した文とCSCGを用いて生成した文とを比較評価した。
4段階評価では、29の音源をテストデータとして用い、すべてのテストデータに対して41名の被験者が回答する形を採用した。図7にその結果を示す。平均値は1.45、分散は1.28であった。このことから、SCGを用いて生成した文は平均的に”部分的に当てはまる”より高い評価を獲得していることがわかる。
また、比較評価では、c=20, 50, 80, 100の4通りの条件でCSCGを用いて生成した文とSCGを用いて生成した文とを比較評価し、4通りの比較評価のうち最もCSCGを高く評価した回答を選択・集計した。図8にその結果を示す。100の音源をテストデータとして、19名の被験者に回答してもらったものであり、CSCGは有意水準を1%として有意にSCGより高い評価を獲得した。なお、平均値は0.80、分散は1.07であった。
《詳細度のバリエーション》
詳細度は、生成される文の持つ性質(具体的には情報量)を制御するための補助的な入力である。生成される文の持つ性質を制御することができるものであれば、詳細度は、単一の数値(スカラー値)であっても、数値の組(ベクトル)であってもよい。以下、いくつか例を挙げる。
(例1)N個の単語の系列である単語N-gramの出現頻度に基づく方法
単語1個での出現頻度の代わりに、単語の系列の出現頻度を用いる方法である。この方法は、単語の順序を考慮することができるため、より適切に生成される文の持つ性質を制御できる可能性がある。単語の出現確率と同様、説明文データベースを用いて、単語N-gramの出現確率を計算することができる。また、説明文データベースの代わりに、その他利用可能なコーパスを用いてもよい。
(例2)単語の数に基づく方法
詳細度を文に含まれる単語の数とする方法である。なお、単語の数の代わりに、文字の数を用いてもよい。
(例3)ベクトルを用いる方法
例えば、これまでに説明した、単語の出現確率、単語N-gramの出現確率、単語の数を組とする3次元ベクトルを詳細度とすることができる。また、例えば、政治、経済、科学のように単語を分類する分野(トピック)を設け、分野ごとに次元を割り当て、各分野の単語の出現確率の組をベクトルとして詳細度を定義してもよい。これにより、各分野に特有の言い回しの反映を図ることが可能になると考えられる。
《応用例》
SCG/CSCGの学習やSCG/CSCGを用いた文の生成の枠組みは、図5に例示した音源のように比較的単純な音以外に、例えば音楽のようにより複雑な音や、音以外のメディアに対しても適用することができる。音以外のメディアには、例えば絵画、イラスト、クリップアートのような画像や、動画がある。また、工業デザインや、味覚であってもよい。
SCG/CSCG同様、これらのデータと当該データに対応する文を対応づけるモデルを学習し、当該モデルを用いて文を生成することも可能である。例えば、味覚の場合、味覚センサからの信号を入力として、ワインや農作物等についての記述/論評である文を生成することも可能になる。この場合、味覚センサ以外に嗅覚センサ、触覚センサ、カメラからの信号もあわせて入力とするようにしてもよい。
なお、非時系列データを扱う場合は、例えば、CNN(Convolutional Neural Network)のようなニューラルネットワークを用いて、エンコーダやデコーダを構成するようにすればよい。
<第1実施形態>
《データ生成モデル学習装置100》
データ生成モデル学習装置100は、学習データを用いて、学習対象となるデータ生成モデルを学習する。ここで、学習データには、音響信号と当該音響信号に対応する自然言語表現の組である第1学習データと自然言語表現に対する指標と当該指標に対応する自然言語表現の組である第2学習データがある。また、データ生成モデルは、音響信号と自然言語表現に対する指標(例えば、文の詳細度)に関する条件を入力とし、当該音響信号に対応する自然言語表現を生成し、出力する関数のことであり、音響信号から音響信号に対応する潜在変数を生成するエンコーダと、潜在変数と自然言語表現に対する指標に関する条件から音響信号に対応する自然言語表現を生成するデコーダとの組として構成される(図9参照)。自然言語表現に対する指標に関する条件とは、生成される自然言語表現に要求される指標のことであり、要求される指標は一つの数値で指定してもよいし、範囲をもって指定してもよい。なお、エンコーダ、デコーダには、時系列データを処理することができる任意のニューラルネットワークを用いることができる。また、自然言語表現の例として、<技術的背景>で説明した文の他に、主語と述語を伴わない2つ以上の単語からなる句や、擬音語(オノマトペ)がある。
以下、図10~図11を参照してデータ生成モデル学習装置100を説明する。図10は、データ生成モデル学習装置100の構成を示すブロック図である。図11は、データ生成モデル学習装置100の動作を示すフローチャートである。図10に示すようにデータ生成モデル学習装置100は、学習モード制御部110と、学習部120と、終了条件判定部130と、記録部190を含む。記録部190は、データ生成モデル学習装置100の処理に必要な情報を適宜記録する構成部である。記録部190は、例えば、学習データを学習開始前に記録しておく。
図11に従いデータ生成モデル学習装置100の動作について説明する。データ生成モデル学習装置100は、第1学習データと当該第1学習データの要素である自然言語表現に対する指標と第2学習データとを入力とし、データ生成モデルを出力する。なお、第1学習データの要素である自然言語表現に対する指標については、入力とする代わりに、学習部120において、第1学習データの要素である自然言語表現から求めるようにしてもよい。
S110において、学習モード制御部110は、第1学習データと、当該第1学習データの要素である自然言語表現に対する指標と、第2学習データとを入力とし、学習部120を制御するための制御信号を生成し、出力する。ここで、制御信号は、第1学習と第2学習のいずれかを実行するように学習モードを制御する信号である。制御信号は、例えば、第1学習と第2学習を交互に実行するように学習モードを制御する信号とすることができる。また、制御信号は、例えば、第1学習と第2学習を所定の方法で混在させながら両学習を実行するように学習モードを制御する信号とすることができる。この場合、第1学習の実行回数と第2学習の実行回数は、異なる値となってもよい。
S120において、学習部120は、第1学習データと、当該第1学習データの要素である自然言語表現に対する指標と、第2学習データと、S110において出力された制御信号とを入力とし、制御信号が指定する学習が第1学習である場合は、第1学習データと当該第1学習データの要素である自然言語表現に対する指標を用いて、音響信号から音響信号に対応する潜在変数を生成するエンコーダと、潜在変数と自然言語表現に対する指標に関する条件から音響信号に対応する自然言語表現を生成するデコーダとを学習し、制御信号が指定する学習が第2学習である場合は、第2学習データを用いてデコーダを学習し、エンコーダとデコーダの組であるデータ生成モデルを、終了条件判定部130が終了条件を判定するために必要な情報(例えば、学習を行った回数)とともに出力する。学習部120は、実行する学習が第1学習、第2学習のいずれであっても、1エポックを単位として学習を実行する。また、学習部120は、誤差関数LCSCGを用いて誤差逆伝播法によりデータ生成モデルを学習する。誤差関数LCSCGは、実行する学習が第1学習である場合、λを所定の定数として、次式により定義され、
Figure 0007283718000006
実行する学習が第2学習である場合、λ’をλ’<1を満たす定数として、次式により定義される。
Figure 0007283718000007
ただし、自然言語表現に関する誤差LSCGは、実行する学習が第1学習である場合、第1学習データの要素である音響信号に対するデータ生成モデルの出力である自然言語表現と当該第1学習データの要素である自然言語表現とから計算されるクロスエントロピー、実行する学習が第2学習である場合、第2学習データの要素である指標に対するデコーダの出力である自然言語表現と当該第2学習データの要素である自然言語表現とから計算されるクロスエントロピーとする。
なお、誤差関数LCSCGは、2つの誤差LSCGとLspを用いて定義されるものであればよい。
また、自然言語表現が文である場合、<技術的背景>で説明した通り、自然言語表現に対する指標として、文の詳細度を用いることができる。この場合、文の詳細度は、少なくとも所定の単語データベースを用いて定義される文に含まれる単語の出現確率や単語N-gramの出現確率、文に含まれる単語の数、文に含まれる文字の数のうち、少なくとも1つを用いて定義されるものである。例えば、文の詳細度は、Isをn個の単語の列[w1, w2, …, wn]である文sの詳細度として、次式により定義してもよい。
Figure 0007283718000008
(ただし、Iw_tは単語wtの出現確率pw_tに基づき定まる単語wtの情報量である。)
なお、詳細度Isは、情報量Iw_t(1≦t≦n)を用いて定義されるものであればよい。
また、単語データベースは、文に含まれる単語に対して当該単語の出現確率や、文に含まれる単語N-gramに対して当該単語N-gramの出現確率を定義できるものであれば、どのようなものであってもよい。単語データベースとして、例えば、<技術的背景>で説明した説明文データベースを用いることができる。
また、デコーダの出力である文sの推定詳細度^Isを、
Figure 0007283718000009
(ただし、時刻tにおけるデコーダの出力層のユニットjの値p(wt,j)は、ユニットjに対応する単語wt,jの生成確率、Iw_t,jは単語wt,jの生成確率pw_t,jに基づき定まる単語wt,jの情報量である)とし、文の詳細度に関する誤差Lspは、実行する学習が第1学習である場合、推定詳細度^Isと第1学習データの要素である文の詳細度との差、実行する学習が第2学習である場合、推定詳細度^Isと第2学習データの要素である詳細度との差とする。
なお、句に対しても、文と同様、詳細度を定義することができる。
S130において、終了条件判定部130は、S120において出力されたデータ生成モデルと終了条件を判定するために必要な情報とを入力とし、学習の終了に関する条件である終了条件が満たされている(例えば、学習を行った回数が所定の繰り返し回数に達している)か否かを判定し、終了条件が満たされている場合は、データ生成モデルを出力して、処理を終了する一方、終了条件が満たされていない場合は、S110の処理に戻る。
《データ生成モデル学習装置150》
データ生成モデル学習装置150は、学習データを用いて、学習対象となるデータ生成モデルを学習する。データ生成モデル学習装置150は、第1学習データを用いる第1学習のみを実行する点において、データ生成モデル学習装置100と異なる。
以下、図12~図13を参照してデータ生成モデル学習装置150を説明する。図12は、データ生成モデル学習装置150の構成を示すブロック図である。図13は、データ生成モデル学習装置150の動作を示すフローチャートである。図12に示すようにデータ生成モデル学習装置150は、学習部120と、終了条件判定部130と、記録部190を含む。記録部190は、データ生成モデル学習装置150の処理に必要な情報を適宜記録する構成部である。
図13に従いデータ生成モデル学習装置150の動作について説明する。データ生成モデル学習装置150は、第1学習データと当該第1学習データの要素である自然言語表現に対する指標とを入力とし、データ生成モデルを出力する。なお、第1学習データの要素である自然言語表現に対する指標については、入力とする代わりに、学習部120において、第1学習データの要素である自然言語表現から求めるようにしてもよい。
S120において、学習部120は、第1学習データと、当該第1学習データの要素である自然言語表現に対する指標とを入力とし、第1学習データと当該第1学習データの要素である自然言語表現に対する指標を用いてエンコーダとデコーダを学習し、エンコーダとデコーダの組であるデータ生成モデルを、終了条件判定部130が終了条件を判定するために必要な情報(例えば、学習を行った回数)とともに出力する。学習部120は、例えば、1エポックを単位として学習を実行する。また、学習部120は、誤差関数LCSCGを用いて誤差逆伝播法によりデータ生成モデルを学習する。誤差関数LSCGは、λを所定の定数として、次式により定義される。
Figure 0007283718000010
なお、2つの誤差LSCGとLspの定義は、データ生成モデル学習装置100のそれと同一である。また、誤差関数LCSCGは、2つの誤差LSCGとLspを用いて定義されるものであればよい。
S130において、終了条件判定部130は、S120において出力されたデータ生成モデルと終了条件を判定するために必要な情報とを入力とし、学習の終了に関する条件である終了条件が満たされている(例えば、学習を行った回数が所定の繰り返し回数に達している)か否かを判定し、終了条件が満たされている場合は、データ生成モデルを出力して、処理を終了する一方、終了条件が満たされていない場合は、S120の処理に戻る。
《データ生成装置200》
データ生成装置200は、データ生成モデル学習装置100またはデータ生成モデル学習装置150を用いて学習したデータ生成モデルを用いて、音響信号と自然言語表現に対する指標に関する条件から、音響信号に対応する自然言語表現を生成する。ここで、データ生成モデル学習装置100またはデータ生成モデル学習装置150を用いて学習したデータ生成モデルのことを学習済みデータ生成モデルともいう。また、学習済みデータ生成モデルを構成するエンコーダ、デコーダをそれぞれ学習済みエンコーダ、学習済みデコーダともいう。なお、データ生成モデル学習装置100、データ生成モデル学習装置150以外のデータ生成モデル学習装置を用いて学習したデータ生成モデルを用いてもよいのはもちろんである。
以下、図14~図15を参照してデータ生成装置200を説明する。図14は、データ生成装置200の構成を示すブロック図である。図15は、データ生成装置200の動作を示すフローチャートである。図14に示すようにデータ生成装置200は、潜在変数生成部210と、データ生成部220と、記録部290を含む。記録部290は、データ生成装置200の処理に必要な情報を適宜記録する構成部である。記録部290は、例えば、学習済みデータ生成モデル(つまり、学習済みエンコーダと学習済みデコーダ)を事前に記録しておく。
図15に従いデータ生成装置200の動作について説明する。データ生成装置200は、音響信号と自然言語表現に対する指標に関する条件を入力とし、自然言語表現を出力する。
S210において、潜在変数生成部210は、音響信号を入力とし、音響信号から、学習済みエンコーダを用いて、音響信号に対応する潜在変数を生成し、出力する。
S220において、データ生成部220は、S210において出力された潜在変数と自然言語表現に対する指標に関する条件を入力とし、潜在変数と自然言語表現に対する指標に関する条件から、学習済みデコーダを用いて、音響信号に対応する自然言語表現を生成し、出力する。
本発明の実施形態によれば、自然言語表現に対する指標を補助入力とし、音響信号から、当該音響信号に対応する自然言語表現を生成するデータ生成モデルを学習することが可能となる。また、本発明の実施形態によれば、音響信号から、自然言語表現に対する指標を制御して、当該音響信号に対応する自然言語表現を生成することが可能となる。
<第2実施形態>
以下、データ生成モデル学習装置100またはデータ生成モデル学習装置150を用いて学習したデータ生成モデルを構成するエンコーダ、デコーダをそれぞれ音響信号エンコーダ、自然言語表現デコーダという。音響信号エンコーダ、自然言語表現デコーダをそれぞれ学習済み音響信号エンコーダ、学習済み自然言語表現デコーダということもある。
ここでは、音響信号エンコーダを用いて構成される音響信号データベースを用いて、入力となる自然言語表現(以下、入力自然言語表現という)から、当該入力自然言語表現に対応する音響信号を検索する音響信号検索装置400について説明する。図16は、音響信号検索処理の概要を示す図である。クエリ(問合せ)を自然言語表現、エンコーダを自然言語表現エンコーダとしたものが音響信号検索装置400であり、クエリを音響信号、エンコーダを音響信号エンコーダとしたものが後述する音響信号検索装置500である。
最初に、音響信号検索装置400の構成に必要となる潜在変数生成モデルを学習する潜在変数生成モデル学習装置300について説明する。
《潜在変数生成モデル学習装置300》
潜在変数生成モデル学習装置300は、学習データを用いて、学習対象となる潜在変数生成モデルを学習する。ここで、学習データは、データ生成モデル学習装置100またはデータ生成モデル学習装置150を用いて学習したデータ生成モデルを用いて、音響信号から生成した、当該音響信号に対応する自然言語表現と当該音響信号に対応する潜在変数との組(以下、教師あり学習データという)である。また、潜在変数生成モデルは、自然言語表現から、自然言語表現に対応する潜在変数を生成する自然言語表現エンコーダのことである。なお、自然言語表現エンコーダには、時系列データを処理することができる任意のニューラルネットワークを用いることができる。
以下、図17~図18を参照して潜在変数生成モデル学習装置300を説明する。図17は、潜在変数生成モデル学習装置300の構成を示すブロック図である。図18は、潜在変数生成モデル学習装置300の動作を示すフローチャートである。図17に示すように潜在変数生成モデル学習装置300は、学習部320と、終了条件判定部330と、記録部390を含む。記録部390は、潜在変数生成モデル学習装置300の処理に必要な情報を適宜記録する構成部である。記録部390は、例えば、教師あり学習データを学習開始前に記録しておく。
図18に従い潜在変数生成モデル学習装置300の動作について説明する。潜在変数生成モデル学習装置300は、教師あり学習データを入力とし、潜在変数生成モデルを出力する。入力された教師あり学習データは、上述の通り、例えば、記録部390に記録しておく。
S320において、学習部320は、記録部390に記録した教師あり学習データを入力とし、当該教師あり学習データを用いた教師あり学習により、自然言語表現から当該自然言語表現に対応する潜在変数を生成する自然言語表現エンコーダである潜在変数生成モデルを学習し、潜在変数生成モデルを、終了条件判定部330が終了条件を判定するために必要な情報(例えば、学習を行った回数)とともに出力する。学習部320は、例えば、1エポックを単位として学習を実行する。また、学習部320は、所定の誤差関数Lを用いて誤差逆伝播法により自然言語表現エンコーダを潜在変数生成モデルとして学習する。
S330において、終了条件判定部330は、S320において出力された潜在変数生成モデルと終了条件を判定するために必要な情報とを入力とし、学習の終了に関する条件である終了条件が満たされている(例えば、学習を行った回数が所定の繰り返し回数に達している)か否かを判定し、終了条件が満たされている場合は、潜在変数生成モデル(つまり、自然言語表現エンコーダ)を出力して、処理を終了する一方、終了条件が満たされていない場合は、S320の処理に戻る。
《音響信号検索装置400》
音響信号検索装置400は、音響信号エンコーダを用いて音響信号から生成した、当該音響信号に対応する潜在変数と、当該音響信号とを含むレコードから構成される音響信号データベースを用いて、入力自然言語表現から、入力自然言語表現に対応する音響信号を検索する。ここで、潜在変数生成モデル学習装置300を用いて学習した自然言語表現エンコーダを学習済み自然言語表現エンコーダともいう。なお、潜在変数生成モデル学習装置300以外の潜在変数生成モデル学習装置を用いて学習した自然言語表現エンコーダを用いてもよいのはもちろんである。
以下、図19~図20を参照して音響信号検索装置400を説明する。図19は、音響信号検索装置400の構成を示すブロック図である。図20は、音響信号検索装置400の動作を示すフローチャートである。図19に示すように音響信号検索装置400は、潜在変数生成部410と、検索部430と、記録部490を含む。記録部490は、音響信号検索装置400の処理に必要な情報を適宜記録する構成部である。記録部490は、例えば、音響信号データベース、学習済み自然言語表現エンコーダを事前に記録しておく。
図20に従い音響信号検索装置400の動作について説明する。音響信号検索装置400は、入力自然言語表現を入力とし、入力自然言語表現に対応する音響信号を出力する。ここで、入力自然言語表現として、任意の指標の自然言語表現を用いることができる。
S410において、潜在変数生成部410は、入力自然言語表現を入力とし、入力自然言語表現から、学習済み自然言語表現エンコーダを用いて、当該入力自然言語表現に対応する潜在変数を生成し、出力する。
S430において、検索部430は、S410において出力された潜在変数を入力とし、音響信号データベースを用いて、潜在変数から、入力自然言語表現に対応する音響信号を検索結果として決定し、出力する。例えば、検索部430は、S410において出力された潜在変数との距離が最も小さい音響信号データベースに含まれる潜在変数と組になる音響信号を検索結果として決定することができる。より一般的に、Nを1以上の整数として、検索部430は、S410において出力された潜在変数との距離が小さいものからN個の音響信号データベースに含まれる潜在変数と組になる音響信号を検索結果として決定することができる。また、検索部430は、S410において出力された潜在変数との距離が所定の閾値以下または所定の閾値より小さい音響信号データベースに含まれる潜在変数と組になる音響信号を検索結果として決定することもできる。
以下、潜在変数の集合を潜在空間という。潜在変数はベクトルとして表現されるため、ベクトル空間である潜在空間で定義される任意の距離を潜在変数間の距離として用いることができる。つまり、検索部430は、潜在空間で定義される距離を用いて、検索結果を決定するといえる。
本発明の実施形態によれば、自然言語表現から自然言語表現に対応する潜在変数を生成する自然言語表現エンコーダを学習することが可能となる。また、本発明の実施形態によれば、テキストデータによりタグ付けすることなく、音響信号の特徴を記述した自然言語表現から、当該自然言語表現に対応する音響信号を検索することが可能となる。任意の指標の自然言語表現を入力自然言語表現とすることにより、潜在空間の座標を微調整する形の検索が可能となる。
<第3実施形態>
《音響信号検索装置500》
音響信号検索装置500は、音響信号データベースを用いて、入力となる音響信号(以下、入力音響信号という)から、入力音響信号に対応する音響信号を検索する。音響信号検索装置500は、潜在変数生成部410の代わりに、潜在変数生成部510を含む点において、音響信号検索装置400と異なる。
以下、図21~図22を参照して音響信号検索装置500を説明する。図21は、音響信号検索装置500の構成を示すブロック図である。図22は、音響信号検索装置500の動作を示すフローチャートである。図21に示すように音響信号検索装置500は、潜在変数生成部510と、検索部430と、記録部490を含む。記録部490は、音響信号検索装置500の処理に必要な情報を適宜記録する構成部である。記録部490は、例えば、音響信号データベース、学習済み音響信号エンコーダを事前に記録しておく。
図22に従い音響信号検索装置500の動作について説明する。音響信号検索装置500は、入力音響信号を入力とし、入力音響信号に対応する音響信号を出力する。ここで、入力音響信号として、例えば、擬音語の口まねとして得られる音響信号を用いることができる。
S510において、潜在変数生成部510は、入力音響信号を入力とし、入力音響信号から、学習済み音響信号エンコーダを用いて、当該入力音響信号に対応する潜在変数を生成し、出力する。
S430において、検索部430は、S510において出力された潜在変数を入力とし、音響信号データベースを用いて、潜在変数から、入力音響信号に対応する音響信号を検索結果として決定し、出力する。
本発明の実施形態によれば、テキストデータによりタグ付けすることなく、擬音語の口まねとして得られる音響信号のように音響信号の特徴をふまえた音響信号から、当該音響信号に対応する音響信号を検索することが可能となる。これにより、テキストデータとして表すことが難しいニュアンスを反映した検索が可能となる。
<第4実施形態>
《音響信号検索装置600》
音響信号検索装置600は、音響信号データベースを用いて、入力となる自然言語表現(以下、入力自然言語表現という)から、入力自然言語表現に対応する音響信号を検索する。音響信号検索装置600は、潜在変数生成部410の代わりに、第1潜在変数生成部610と選択音響信号決定部640と第2潜在変数生成部650とを含む点において、音響信号検索装置400と異なる。
以下、図23~図24を参照して音響信号検索装置600を説明する。図23は、音響信号検索装置600の構成を示すブロック図である。図24は、音響信号検索装置600の動作を示すフローチャートである。図23に示すように音響信号検索装置600は、第1潜在変数生成部610と、検索部430と、選択音響信号決定部640と、第2潜在変数生成部650と、記録部490を含む。記録部490は、音響信号検索装置600の処理に必要な情報を適宜記録する構成部である。記録部490は、例えば、音響信号データベース、学習済み自然言語表現エンコーダ、学習済み音響信号エンコーダを事前に記録しておく。
図24に従い音響信号検索装置600の動作について説明する。音響信号検索装置600は、入力自然言語表現を入力とし、ユーザの要求を満たす音響信号を出力する。ここで、入力自然言語表現として、任意の指標の自然言語表現を用いることができる。
S610において、第1潜在変数生成部610は、入力自然言語表現を入力とし、入力自然言語表現から、学習済み自然言語表現エンコーダを用いて、当該入力自然言語表現に対応する潜在変数を生成し、出力する。
S430において、検索部430は、S410またはS650において出力された潜在変数を入力とし、音響信号データベースを用いて、潜在変数から、入力自然言語表現に対応する音響信号またはS640において出力された選択音響信号に対応する音響信号を検索結果として決定し、出力する。ここで、検索部430は、検索結果として、2以上の音響信号を決定する。
S640において、選択音響信号決定部640は、S430において出力された検索結果を入力とし、検索結果の中にユーザの要求を満たす音響信号がある場合は、当該音響信号を出力し、処理を終了する一方、そうでない場合は、検索結果の1つを選択音響信号として決定し、出力する。検索結果の中にユーザの要求を満たす音響信号があるか否かは、例えば、ユーザに検索結果の音響信号を聴いてもらい、有無を決定すればよい。そして、要求を満たす音響信号がある場合は、その音響信号をユーザに選択してもらい、当該音響信号を出力し、処理を終了する一方、要求を満たす音響信号がない場合は、最も好ましい音響信号をユーザに選択してもらい、当該選択された音響信号を選択音響信号として決定し、出力するようにすればよい。
以下、図25~図26を参照して、このような音響信号の選択を実現する選択音響信号決定部640の例について説明する。図25は、選択音響信号決定部640の構成を示すブロック図である。図26は、選択音響信号決定部640の動作を示すフローチャートである。図25に示すように選択音響信号決定部640は、提示部641と、入力部643を含む。
図26に従い選択音響信号決定部640の動作について説明する。S641において、提示部641は、S430において出力された検索結果である2以上の音響信号をユーザに対して提示する。ユーザは、S641において提示された検索結果を確認する。S643において、入力部643は、ユーザからの入力を受け付け、当該入力に対応する音響信号を出力する。ユーザからの入力には、ユーザの要求を満たす音響信号があるか否かという情報がある。また、ユーザの要求を満たす音響信号がある場合におけるユーザからの入力には、検索結果のうちどの音響信号が該当するものであるかという情報や、要求を満たすK個(Kは所定の定数)の音響信号それぞれが当該要求を満たす程度を示す値(例えば、要求を満たす3つの音響信号それぞれが要求を満たす度合いは3:2:1である等の重み)の情報や、要求を満たすK個(Kは所定の定数)の音響信号に対する優先順位の情報などがある。また、ユーザの要求を満たす音響信号がない場合におけるユーザからの入力には、検索結果のうちどの音響信号が最も好ましい音響信号であるかという情報や、検索結果のうちどの音響信号が候補として除外したい音響信号であるかという情報などがある。
S650において、第2潜在変数生成部650は、S640において出力された選択音響信号を入力とし、選択音響信号から、学習済み音響信号エンコーダを用いて、当該選択音響信号に対応する潜在変数を生成、出力し、S430の処理に戻る。
本発明の実施形態によれば、テキストデータによりタグ付けすることなく、音響信号の特徴を記述した自然言語表現から、当該自然言語表現に対応する音響信号を検索することが可能となる。ユーザからのフィードバックを得ながら再検索することにより、より好ましい検索結果を得ることができる。
<第5実施形態>
以下、ドメインとはある種類のデータの集合であるとする。ドメインの例として、例えば、第1実施形態で用いた音響信号の集合である音響信号ドメイン、自然言語表現の集合である自然言語表現ドメインなどがある。また、ドメインのデータの例として、<技術的背景>で説明したように、味覚センサ、嗅覚センサ、触覚センサ、カメラなどを用いて得られる各種信号がある。これらの信号は人間の五感に関わる信号であり、以下、音響信号も含め、感覚情報に基づく信号ということにする。
《データ生成モデル学習装置1100》
データ生成モデル学習装置1100は、学習データを用いて、学習対象となるデータ生成モデルを学習する。ここで、学習データには、第1ドメインのデータと当該第1ドメインのデータに対応する第2ドメインのデータの組である第1学習データと第2ドメインのデータに対する指標と当該指標に対応する第2ドメインのデータの組である第2学習データがある。また、データ生成モデルとは、第1ドメインのデータと第2ドメインのデータに対する指標に関する条件を入力とし、当該第1ドメインのデータに対応する第2ドメインのデータを生成し、出力する関数のことであり、第1ドメインのデータから第1ドメインのデータに対応する潜在変数を生成するエンコーダと、潜在変数と第2ドメインのデータに対する指標に関する条件から第1ドメインのデータに対応する第2ドメインのデータを生成するデコーダとの組として構成される。第2ドメインのデータに対する指標に関する条件とは、生成される第2ドメインのデータに要求される指標のことであり、要求される指標は一つの数値で指定してもよいし、範囲をもって指定してもよい。なお、エンコーダ、デコーダには、第1ドメインのデータや第2ドメインのデータを処理することができる任意のニューラルネットワークを用いることができる。
以下、図27~図28を参照してデータ生成モデル学習装置1100を説明する。図27は、データ生成モデル学習装置1100の構成を示すブロック図である。図28は、データ生成モデル学習装置1100の動作を示すフローチャートである。図27に示すようにデータ生成モデル学習装置1100は、学習モード制御部1110と、学習部1120と、終了条件判定部1130と、記録部1190を含む。記録部1190は、データ生成モデル学習装置1100の処理に必要な情報を適宜記録する構成部である。記録部1190は、例えば、学習データを学習開始前に記録しておく。
図28に従いデータ生成モデル学習装置1100の動作について説明する。データ生成モデル学習装置1100は、第1学習データと当該第1学習データの要素である第2ドメインのデータに対する指標と第2学習データとを入力とし、データ生成モデルを出力する。なお、第1学習データの要素である第2ドメインのデータに対する指標については、入力とする代わりに、学習部1120において、第1学習データの要素である第2ドメインのデータから求めるようにしてもよい。
S1110において、学習モード制御部1110は、第1学習データと、当該第1学習データの要素である第2ドメインのデータに対する指標と、第2学習データとを入力とし、学習部1120を制御するための制御信号を生成し、出力する。ここで、制御信号は、第1学習と第2学習のいずれかを実行するように学習モードを制御する信号である。制御信号は、例えば、第1学習と第2学習を交互に実行するように学習モードを制御する信号とすることができる。また、制御信号は、例えば、第1学習と第2学習を所定の方法で混在させながら両学習を実行するように学習モードを制御する信号とすることができる。この場合、第1学習の実行回数と第2学習の実行回数は、異なる値となってもよい。
S1120において、学習部1120は、第1学習データと、当該第1学習データの要素である第2ドメインのデータに対する指標と、第2学習データと、S1110において出力された制御信号とを入力とし、制御信号が指定する学習が第1学習である場合は、第1学習データと当該第1学習データの要素である第2ドメインのデータに対する指標を用いて、第1ドメインのデータから前記第1ドメインのデータに対応する潜在変数を生成するエンコーダと、前記潜在変数と第2ドメインのデータに対する指標に関する条件から前記第1ドメインのデータに対応する第2ドメインのデータを生成するデコーダとを学習し、制御信号が指定する学習が第2学習である場合は、第2学習データを用いてデコーダを学習し、エンコーダとデコーダの組であるデータ生成モデルを、終了条件判定部1130が終了条件を判定するために必要な情報(例えば、学習を行った回数)とともに出力する。学習部320は、実行する学習が第1学習、第2学習のいずれであっても、1エポックを単位として学習を実行する。また、学習部1120は、所定の誤差関数Lを用いて誤差逆伝播法によりデータ生成モデルを学習する。誤差関数Lは、実行する学習が第1学習である場合、λを所定の定数として、次式により定義され、
Figure 0007283718000011
実行する学習が第2学習である場合、λ’をλ’<1を満たす定数として、次式により定義される。
Figure 0007283718000012
ただし、第2ドメインのデータに関する誤差L1は、実行する学習が第1学習である場合、第1学習データの要素である第1ドメインのデータに対するデータ生成モデルの出力である第2ドメインのデータと当該第1学習データの要素である第2ドメインのデータとから計算されるクロスエントロピー、実行する学習が第2学習である場合、第2学習データの要素である指標に対するデコーダの出力である第2ドメインのデータと当該第2学習データの要素である第2ドメインのデータとから計算されるクロスエントロピーとする。
なお、誤差関数Lは、2つの誤差L1とL2を用いて定義されるものであればよい。
また、第2学習データの要素である第2ドメインのデータは、第2学習データの要素である指標と近い(つまり、当該指標との差が所定の閾値より小さいあるいは以下である)指標を持つ第2ドメインのデータである。
また、デコーダの出力である第2ドメインのデータsの推定指標^Isを、
Figure 0007283718000013
(ただし、時刻tにおけるデコーダの出力層のユニットjの値p(wt,j)は、ユニットjに対応する第2ドメインのデータwt,jの生成確率、Iw_t,jは第2ドメインのデータwt,jの生成確率pw_t,jに基づき定まる第2ドメインのデータwt,jの情報量である)とし、第2ドメインのデータの指標に関する誤差L2は、実行する学習が第1学習である場合、推定指標^Isと第1学習データの要素である第2ドメインのデータの指標との差、実行する学習が第2学習である場合、推定指標^Isと第2学習データの要素である指標との差とする。
S1130において、終了条件判定部1130は、S1120において出力されたデータ生成モデルと終了条件を判定するために必要な情報とを入力とし、学習の終了に関する条件である終了条件が満たされている(例えば、学習を行った回数が所定の繰り返し回数に達している)か否かを判定し、終了条件が満たされている場合は、データ生成モデルを出力して、処理を終了する一方、終了条件が満たされていない場合は、S1110の処理に戻る。
《データ生成モデル学習装置1150》
データ生成モデル学習装置1150は、学習データを用いて、学習対象となるデータ生成モデルを学習する。データ生成モデル学習装置1150は、第1学習データを用いる第1学習のみを実行する点において、データ生成モデル学習装置1100と異なる。
以下、図29~図30を参照してデータ生成モデル学習装置1150を説明する。図29は、データ生成モデル学習装置1150の構成を示すブロック図である。図30は、データ生成モデル学習装置1150の動作を示すフローチャートである。図29に示すようにデータ生成モデル学習装置1150は、学習部1120と、終了条件判定部1130と、記録部1190を含む。記録部1190は、データ生成モデル学習装置1150の処理に必要な情報を適宜記録する構成部である。
図30に従いデータ生成モデル学習装置1150の動作について説明する。データ生成モデル学習装置1150は、第1学習データと当該第1学習データの要素である第2ドメインのデータに対する指標とを入力とし、データ生成モデルを出力する。なお、第1学習データの要素である第2ドメインのデータに対する指標については、入力とする代わりに、学習部1120において、第1学習データの要素である第2ドメインのデータから求めるようにしてもよい。
S1120において、学習部1120は、第1学習データと、当該第1学習データの要素である第2ドメインのデータに対する指標とを入力とし、第1学習データと当該第1学習データの要素である第2ドメインのデータに対する指標を用いて、エンコーダとデコーダを学習し、エンコーダとデコーダの組であるデータ生成モデルを、終了条件判定部1130が終了条件を判定するために必要な情報(例えば、学習を行った回数)とともに出力する。学習部1120は、例えば、1エポックを単位として学習を実行する。また、学習部1120は、誤差関数Lを用いて誤差逆伝播法によりデータ生成モデルを学習する。誤差関数Lは、λを所定の定数として、次式により定義される。
Figure 0007283718000014
なお、2つの誤差L1とL2の定義は、データ生成モデル学習装置1100のそれと同一である。また、誤差関数Lは、2つの誤差L1とL2を用いて定義されるものであればよい。
S1130において、終了条件判定部1130は、S1120において出力されたデータ生成モデルと終了条件を判定するために必要な情報とを入力とし、学習の終了に関する条件である終了条件が満たされている(例えば、学習を行った回数が所定の繰り返し回数に達している)か否かを判定し、終了条件が満たされている場合は、データ生成モデルを出力して、処理を終了する一方、終了条件が満たされていない場合は、S1120の処理に戻る。
《データ生成装置1200》
データ生成装置1200は、データ生成モデル学習装置1100またはデータ生成モデル学習装置1150を用いて学習したデータ生成モデルを用いて、第1ドメインのデータと第2ドメインのデータに対する指標に関する条件から、第1ドメインのデータに対応する第2ドメインのデータを生成する。ここで、データ生成モデル学習装置1100またはデータ生成モデル学習装置1150を用いて学習したデータ生成モデルのことを学習済みデータ生成モデルともいう。また、学習済みデータ生成モデルを構成するエンコーダ、デコーダをそれぞれ学習済みエンコーダ、学習済みデコーダともいう。なお、データ生成モデル学習装置1100、データ生成モデル学習装置1150以外のデータ生成モデル学習装置を用いて学習したデータ生成モデルを用いてもよいのはもちろんである。
以下、図31~図32を参照してデータ生成装置1200を説明する。図31は、データ生成装置1200の構成を示すブロック図である。図32は、データ生成装置1200の動作を示すフローチャートである。図31に示すようにデータ生成装置1200は、潜在変数生成部1210と、第2ドメインデータ生成部1220と、記録部1290を含む。記録部1290は、データ生成装置1200の処理に必要な情報を適宜記録する構成部である。記録部1290は、例えば、学習済みデータ生成モデル(つまり、学習済みエンコーダと学習済みデコーダ)を事前に記録しておく。
図32に従いデータ生成装置1200の動作について説明する。データ生成装置1200は、第1ドメインのデータと第2ドメインのデータに対する指標に関する条件を入力とし、第2ドメインのデータを出力する。
S1210において、潜在変数生成部1210は、第1ドメインのデータを入力とし、第1ドメインのデータから、学習済みエンコーダを用いて、第1ドメインのデータに対応する潜在変数を生成し、出力する。
S1220において、第2ドメインデータ生成部1220は、S1210において出力された潜在変数と第2ドメインのデータに対する指標に関する条件を入力とし、潜在変数と第2ドメインのデータに対する指標に関する条件から、学習済みデコーダを用いて、第1ドメインのデータに対応する第2ドメインのデータを生成し、出力する。
(具体例)
第1ドメインのデータを感覚情報に基づく信号、第2ドメインのデータを文または句として、以下、具体例について説明する。
(1)味覚
この場合、味覚センサによる信号から、例えば、味にまつわる産地の説明文が得られる。味にまつわる産地の説明文とは、例えば、“2015年甲州産のワイン”のような説明文である。
(2)嗅覚
この場合、嗅覚センサによる信号から、においの説明文が得られる。
(3)触覚
この場合、触覚センサや硬度センサによる信号から、例えば、硬さや風合いの説明文が得られる。
(4)視覚
この場合、カメラなどの画像センサによる信号から、例えば、動画のキャプションや画像の被写体の説明文が得られる。
本発明の実施形態によれば、第2ドメインのデータに対する指標を補助入力とし、第1ドメインのデータから、当該第1ドメインのデータに対応する第2ドメインのデータを生成するデータ生成モデルを学習することが可能となる。また、本発明の実施形態によれば、第1ドメインのデータから、所定の指標を制御して、当該第1ドメインのデータに対応する第2ドメインのデータを生成することが可能となる。
<第6実施形態>
以下、データ生成モデル学習装置1100またはデータ生成モデル学習装置1150を用いて学習したデータ生成モデルを構成するエンコーダ、デコーダをそれぞれ第1ドメインエンコーダ、第2ドメインデコーダという。第1ドメインエンコーダ、第2ドメインデコーダをそれぞれ学習済み第1ドメインエンコーダ、学習済み第2ドメインデコーダということもある。
ここでは、第1ドメインエンコーダを用いて構成される第1ドメインデータベースを用いて、入力となる第2ドメインのデータ(以下、入力第2ドメインデータという)から、当該入力第2ドメインデータに対応する第1ドメインのデータを検索するデータ検索装置1400について説明する。
最初に、データ検索装置1400の構成に必要となる潜在変数生成モデルを学習する潜在変数生成モデル学習装置1300について説明する。
《潜在変数生成モデル学習装置1300》
潜在変数生成モデル学習装置1300は、学習データを用いて、学習対象となる潜在変数生成モデルを学習する。ここで、学習データは、データ生成モデル学習装置1100またはデータ生成モデル学習装置1150を用いて学習したデータ生成モデルを用いて、第1ドメインのデータから生成した、当該データに対応する第2ドメインのデータと当該データに対応する潜在変数との組(以下、教師あり学習データという)である。また、潜在変数生成モデルは、第2ドメインのデータから、第2ドメインのデータに対応する潜在変数を生成する第2ドメインエンコーダのことである。なお、第2ドメインエンコーダには、任意のニューラルネットワークを用いることができる。
以下、図33~図34を参照して潜在変数生成モデル学習装置1300を説明する。図33は、潜在変数生成モデル学習装置1300の構成を示すブロック図である。図34は、潜在変数生成モデル学習装置1300の動作を示すフローチャートである。図33に示すように潜在変数生成モデル学習装置1300は、学習部1320と、終了条件判定部1330と、記録部1390を含む。記録部1390は、潜在変数生成モデル学習装置1300の処理に必要な情報を適宜記録する構成部である。記録部1390は、例えば、教師あり学習データを学習開始前に記録しておく。
図34に従い潜在変数生成モデル学習装置1300の動作について説明する。潜在変数生成モデル学習装置1300は、教師あり学習データを入力とし、潜在変数生成モデルを出力する。入力された教師あり学習データは、上述の通り、例えば、記録部1390に記録しておく。
S1320において、学習部1320は、記録部1390に記録した教師あり学習データを入力とし、当該教師あり学習データを用いた教師あり学習により、第2ドメインのデータから当該データに対応する潜在変数を生成する第2ドメインエンコーダである潜在変数生成モデルを学習し、潜在変数生成モデルを、終了条件判定部1330が終了条件を判定するために必要な情報(例えば、学習を行った回数)とともに出力する。学習部1320は、例えば、1エポックを単位として学習を実行する。また、学習部1320は、所定の誤差関数Lを用いて誤差逆伝播法により第2ドメインエンコーダを潜在変数生成モデルとして学習する。
S1330において、終了条件判定部1330は、S1320において出力された潜在変数生成モデルと終了条件を判定するために必要な情報とを入力とし、学習の終了に関する条件である終了条件が満たされている(例えば、学習を行った回数が所定の繰り返し回数に達している)か否かを判定し、終了条件が満たされている場合は、潜在変数生成モデル(つまり、第2ドメインエンコーダ)を出力して、処理を終了する一方、終了条件が満たされていない場合は、S1320の処理に戻る。
《データ検索装置1400》
データ検索装置1400は、第1ドメインエンコーダを用いて第1ドメインのデータから生成した、当該データに対応する潜在変数と、当該データとを含むレコードから構成される第1ドメインデータベースを用いて、入力第2ドメインデータから、入力第2ドメインデータに対応する第1ドメインのデータを検索する。ここで、潜在変数生成モデル学習装置1300を用いて学習した第2ドメインエンコーダを学習済み第2ドメインエンコーダともいう。なお、潜在変数生成モデル学習装置1300以外の潜在変数生成モデル学習装置を用いて学習した第2ドメインエンコーダを用いてもよいのはもちろんである。
以下、図35~図36を参照してデータ検索装置1400を説明する。図35は、データ検索装置1400の構成を示すブロック図である。図36は、データ検索装置1400の動作を示すフローチャートである。図35に示すようにデータ検索装置1400は、潜在変数生成部1410と、検索部1430と、記録部1490を含む。記録部1490は、データ検索装置1400の処理に必要な情報を適宜記録する構成部である。記録部1490は、例えば、第1ドメインデータベース、学習済み第2ドメインエンコーダを事前に記録しておく。
図36に従いデータ検索装置1400の動作について説明する。データ検索装置1400は、入力第2ドメインデータを入力とし、入力第2ドメインデータに対応する第1ドメインのデータを出力する。ここで、入力第2ドメインデータとして、任意の指標の第2ドメインのデータを用いることができる。
S1410において、潜在変数生成部1410は、入力第2ドメインデータを入力とし、入力第2ドメインデータから、学習済み第2ドメインエンコーダを用いて、当該入力第2ドメインデータに対応する潜在変数を生成し、出力する。
S1430において、検索部1430は、S1410において出力された潜在変数を入力とし、第1ドメインデータベースを用いて、潜在変数から、入力第2ドメインデータに対応する第1ドメインのデータを検索結果として決定し、出力する。例えば、検索部1430は、S1410において出力された潜在変数との距離が最も小さい第1ドメインデータベースに含まれる潜在変数と組になる第1ドメインのデータを検索結果として決定することができる。より一般的に、Nを1以上の整数として、検索部1430は、S1410において出力された潜在変数との距離が小さいものからN個の第1ドメインデータベースに含まれる潜在変数と組になる第1ドメインのデータを検索結果として決定することができる。また、検索部1430は、S1410において出力された潜在変数との距離が所定の閾値以下または所定の閾値より小さい第1ドメインデータベースに含まれる潜在変数と組になる第1ドメインのデータを検索結果として決定することもできる。
以下、潜在変数の集合を潜在空間という。潜在変数はベクトルとして表現されるため、ベクトル空間である潜在空間で定義される任意の距離を潜在変数間の距離として用いることができる。つまり、検索部1430は、潜在空間で定義される距離を用いて、検索結果を決定するといえる。
本発明の実施形態によれば、第2ドメインのデータから第2ドメインのデータに対応する潜在変数を生成する第2ドメインエンコーダを学習することが可能となる。また、本発明の実施形態によれば、潜在変数間の距離を用いて、第1ドメインのデータを検索することが可能となる。
<第7実施形態>
《データ検索装置1500》
データ検索装置1500は、第1ドメインデータベースを用いて、入力となる第1ドメインのデータ(以下、入力第1ドメインデータという)から、入力第1ドメインデータに対応する第1ドメインのデータを検索する。データ検索装置1500は、潜在変数生成部1410の代わりに、潜在変数生成部1510を含む点において、データ検索装置1400と異なる。
以下、図37~図38を参照してデータ検索装置1500を説明する。図37は、データ検索装置1500の構成を示すブロック図である。図38は、データ検索装置1500の動作を示すフローチャートである。図37に示すようにデータ検索装置1500は、潜在変数生成部1510と、検索部1430と、記録部1490を含む。記録部1490は、データ検索装置1500の処理に必要な情報を適宜記録する構成部である。記録部1490は、例えば、第1ドメインデータベース、学習済み第1ドメインエンコーダを事前に記録しておく。
図38に従いデータ検索装置1500の動作について説明する。データ検索装置1500は、入力第1ドメインデータを入力とし、入力第1ドメインデータに対応する第1ドメインのデータを出力する。
S1510において、潜在変数生成部1510は、入力第1ドメインデータを入力とし、入力第1ドメインデータから、学習済み第1ドメインエンコーダを用いて、当該入力第1ドメインデータに対応する潜在変数を生成し、出力する。
S1430において、検索部1430は、S1510において出力された潜在変数を入力とし、第1ドメインデータベースを用いて、潜在変数から、入力第1ドメインデータに対応する第1ドメインのデータを検索結果として決定し、出力する。
本発明の実施形態によれば、潜在変数間の距離を用いて、第1ドメインのデータを検索することが可能となる。
<第8実施形態>
《データ検索装置1600》
データ検索装置1600は、第1ドメインデータベースを用いて、入力となる第2ドメインのデータ(以下、入力第2ドメインデータという)から、入力第2ドメインデータに対応する第1ドメインのデータを検索する。データ検索装置1600は、潜在変数生成部1410の代わりに、第1潜在変数生成部1610と選択データ決定部1640と第2潜在変数生成部1650とを含む点において、データ検索装置1400と異なる。
以下、図39~図40を参照してデータ検索装置1600を説明する。図39は、データ検索装置1600の構成を示すブロック図である。図40は、データ検索装置1600の動作を示すフローチャートである。図39に示すようにデータ検索装置1600は、第1潜在変数生成部1610と、検索部1430と、選択データ決定部1640と、第2潜在変数生成部1650と、記録部1490を含む。記録部1490は、データ検索装置1600の処理に必要な情報を適宜記録する構成部である。記録部1490は、例えば、第1ドメインデータベース、学習済み第2ドメインエンコーダ、学習済み第1ドメインエンコーダを事前に記録しておく。
図40に従いデータ検索装置1600の動作について説明する。データ検索装置1600は、入力第2ドメインデータを入力とし、ユーザの要求を満たす第1ドメインのデータを出力する。ここで、入力第2ドメインデータとして、任意の指標の第2ドメインのデータを用いることができる。
S1610において、第1潜在変数生成部1610は、入力第2ドメインデータを入力とし、入力第2ドメインデータから、学習済み第2ドメインエンコーダを用いて、当該入力第2ドメインデータに対応する潜在変数を生成し、出力する。
S1430において、検索部1430は、S1410またはS1650において出力された潜在変数を入力とし、第1ドメインデータベースを用いて、潜在変数から、入力第2ドメインデータに対応する第1ドメインのデータまたはS1640において出力された選択データに対応する第1ドメインのデータを検索結果として決定し、出力する。ここで、検索部1430は、検索結果として、2以上の第1ドメインのデータを決定する。
S1640において、選択データ決定部1640は、S1430において出力された検索結果を入力とし、検索結果の中にユーザの要求を満たす第1ドメインのデータがある場合は、当該データを出力し、処理を終了する一方、そうでない場合は、検索結果の1つを選択データとして決定し、出力する。検索結果の中にユーザの要求を満たすデータがあるか否かは、例えば、ユーザに検索結果のデータを確認してもらい、有無を決定すればよい。そして、要求を満たすデータがある場合は、そのデータをユーザに選択してもらい、当該データを出力し、処理を終了する一方、要求を満たすデータがない場合は、最も好ましいデータをユーザに選択してもらい、当該選択されたデータを選択データとして決定し、出力するようにすればよい。
S1650において、第2潜在変数生成部1650は、S1640において出力された選択データを入力とし、選択データから、学習済み第1ドメインエンコーダを用いて、当該選択データに対応する潜在変数を生成、出力し、S1430の処理に戻る。
本発明の実施形態によれば、潜在変数間の距離を用いて、第1ドメインのデータを検索することが可能となる。
<補記>
本発明の装置は、例えば単一のハードウェアエンティティとして、キーボードなどが接続可能な入力部、液晶ディスプレイなどが接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタなどを備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、ハードウェアエンティティに、CD-ROMなどの記録媒体を読み書きできる装置(ドライブ)などを設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータなどがある。
ハードウェアエンティティの外部記憶装置には、上述の機能を実現するために必要となるプログラムおよびこのプログラムの処理において必要となるデータなどが記憶されている(外部記憶装置に限らず、例えばプログラムを読み出し専用記憶装置であるROMに記憶させておくこととしてもよい)。また、これらのプログラムの処理によって得られるデータなどは、RAMや外部記憶装置などに適宜に記憶される。
ハードウェアエンティティでは、外部記憶装置(あるいはROMなど)に記憶された各プログラムとこの各プログラムの処理に必要なデータが必要に応じてメモリに読み込まれて、適宜にCPUで解釈実行・処理される。その結果、CPUが所定の機能(上記、…部、…手段などと表した各構成部)を実現する。
本発明は上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。また、上記実施形態において説明した処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されるとしてもよい。
既述のように、上記実施形態において説明したハードウェアエンティティ(本発明の装置)における処理機能をコンピュータによって実現する場合、ハードウェアエンティティが有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記ハードウェアエンティティにおける処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD-RAM(Random Access Memory)、CD-ROM(Compact Disc Read Only Memory)、CD-R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto-Optical disc)等を、半導体メモリとしてEEP-ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、ハードウェアエンティティを構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
上述の本発明の実施形態の記載は、例証と記載の目的で提示されたものである。網羅的であるという意思はなく、開示された厳密な形式に発明を限定する意思もない。変形やバリエーションは上述の教示から可能である。実施形態は、本発明の原理の最も良い例証を提供するために、そして、この分野の当業者が、熟考された実際の使用に適するように本発明を色々な実施形態で、また、色々な変形を付加して利用できるようにするために、選ばれて表現されたものである。すべてのそのような変形やバリエーションは、公正に合法的に公平に与えられる幅にしたがって解釈された添付の請求項によって定められた本発明のスコープ内である。

Claims (16)

  1. 音響信号エンコーダを用いて音響信号から生成した、当該音響信号に対応する潜在変数と、当該音響信号とを含むレコードから構成される音響信号データベースを記録する記録部と、
    入力となる自然言語表現(以下、入力自然言語表現という)から、自然言語表現エンコーダを用いて、前記入力自然言語表現に対応する潜在変数を生成する潜在変数生成部と、
    前記音響信号データベースを用いて、前記入力自然言語表現に対応する潜在変数から、前記入力自然言語表現に対応する音響信号を検索結果として決定する検索部と、
    を含む音響信号検索装置であって、
    前記音響信号エンコーダを用いて音響信号から生成される潜在変数は、自然言語表現デコーダを用いて、当該潜在変数と自然言語表現に対する指標に関する条件から、当該音響信号に対応する自然言語表現を生成することができるものである
    音響信号検索装置
  2. 請求項1に記載の音響信号検索装置であって、
    前記入力自然言語表現は、擬音語以外の自然言語表現である
    ことを特徴とする音響信号検索装置。
  3. 音響信号エンコーダを用いて音響信号から生成した、当該音響信号に対応する潜在変数と、当該音響信号とを含むレコードから構成される音響信号データベースを記録する記録部と、
    入力となる音響信号(以下、入力音響信号という)から、前記音響信号エンコーダを用いて、前記入力音響信号に対応する潜在変数を生成する潜在変数生成部と、
    前記音響信号データベースを用いて、前記入力音響信号に対応する潜在変数から、前記入力音響信号に対応する音響信号を検索結果として決定する検索部と、
    を含む音響信号検索装置であって、
    前記音響信号エンコーダを用いて音響信号から生成される潜在変数は、自然言語表現デコーダを用いて、当該潜在変数と自然言語表現に対する指標に関する条件から、当該音響信号に対応する自然言語表現を生成することができるものである
    音響信号検索装置
  4. 音響信号エンコーダを用いて音響信号から生成した、当該音響信号に対応する潜在変数と、当該音響信号とを含むレコードから構成される音響信号データベースを記録する記録部と、
    入力となる自然言語表現(以下、入力自然言語表現という)から、自然言語表現エンコーダを用いて、前記入力自然言語表現に対応する潜在変数を生成する第1潜在変数生成部と、
    前記音響信号データベースを用いて、前記入力自然言語表現に対応する潜在変数または選択音響信号に対応する潜在変数から、前記入力自然言語表現に対応する音響信号または前記選択音響信号に対応する音響信号を検索結果として決定する検索部と、
    前記検索結果の中にユーザの要求を満たす音響信号がある場合は、当該音響信号を出力し、そうでない場合は、前記検索結果の1つを前記選択音響信号として決定する選択音響信号決定部と、
    を含む音響信号検索装置であって、
    前記音響信号エンコーダを用いて音響信号から生成される潜在変数は、自然言語表現デコーダを用いて、当該潜在変数と自然言語表現に対する指標に関する条件から、当該音響信号に対応する自然言語表現を生成することができるものである
    音響信号検索装置
  5. 請求項1ないしのいずれか1項に記載の音響信号検索装置であって、
    前記音響信号エンコーダは、データ生成モデル学習装置が、音響信号と当該音響信号に対応する自然言語表現の組である第1学習データと当該第1学習データの要素である自然言語表現に対する指標とを用いて、学習したデータ生成モデルを構成するエンコーダである
    ことを特徴とする音響信号検索装置。
  6. 請求項1ないしのいずれか1項に記載の音響信号検索装置であって、
    前記検索部は、潜在空間で定義される距離を用いて、前記検索結果を決定する
    ことを特徴とする音響信号検索装置。
  7. 音響信号検索装置が、入力となる自然言語表現(以下、入力自然言語表現という)から、自然言語表現エンコーダを用いて、前記入力自然言語表現に対応する潜在変数を生成する潜在変数生成ステップと、
    前記音響信号検索装置が、音響信号エンコーダを用いて音響信号から生成した、当該音響信号に対応する潜在変数と、当該音響信号とを含むレコードから構成される音響信号データベースを用いて、前記入力自然言語表現に対応する潜在変数から、前記入力自然言語表現に対応する音響信号を検索結果として決定する検索ステップと、
    を含む音響信号検索方法であって、
    前記音響信号エンコーダを用いて音響信号から生成される潜在変数は、自然言語表現デコーダを用いて、当該潜在変数と自然言語表現に対する指標に関する条件から、当該音響信号に対応する自然言語表現を生成することができるものである
    音響信号検索方法
  8. 音響信号検索装置が、入力となる音響信号(以下、入力音響信号という)から、音響信号エンコーダを用いて、前記入力音響信号に対応する潜在変数を生成する潜在変数生成ステップと、
    前記音響信号検索装置が、前記音響信号エンコーダを用いて音響信号から生成した、当該音響信号に対応する潜在変数と、当該音響信号とを含むレコードから構成される音響信号データベースを用いて、前記入力音響信号に対応する潜在変数から、前記入力音響信号に対応する音響信号を検索結果として決定する検索ステップと、
    を含む音響信号検索方法であって、
    前記音響信号エンコーダを用いて音響信号から生成される潜在変数は、自然言語表現デコーダを用いて、当該潜在変数と自然言語表現に対する指標に関する条件から、当該音響信号に対応する自然言語表現を生成することができるものである
    音響信号検索方法
  9. 音響信号検索装置が、入力となる自然言語表現(以下、入力自然言語表現という)から、自然言語表現エンコーダを用いて、前記入力自然言語表現に対応する潜在変数を生成する第1潜在変数生成ステップと、
    前記音響信号検索装置が、音響信号エンコーダを用いて音響信号から生成した、当該音響信号に対応する潜在変数と、当該音響信号とを含むレコードから構成される音響信号データベースを用いて、前記入力自然言語表現に対応する潜在変数または選択音響信号に対応する潜在変数から、前記入力自然言語表現に対応する音響信号または前記選択音響信号に対応する音響信号を検索結果として決定する検索ステップと、
    前記音響信号検索装置が、前記検索結果の中にユーザの要求を満たす音響信号がある場合は、当該音響信号を出力し、そうでない場合は、前記検索結果の1つを前記選択音響信号として決定する選択音響信号決定ステップと、
    を含む音響信号検索方法であって、
    前記音響信号エンコーダを用いて音響信号から生成される潜在変数は、自然言語表現デコーダを用いて、当該潜在変数と自然言語表現に対する指標に関する条件から、当該音響信号に対応する自然言語表現を生成することができるものである
    音響信号検索方法
  10. 第1ドメインエンコーダを用いて第1ドメインのデータから生成した、当該データに対応する潜在変数と、当該データとを含むレコードから構成される第1ドメインデータベースを記録する記録部と、
    入力となる第2ドメインのデータ(以下、入力第2ドメインデータという)から、第2ドメインエンコーダを用いて、前記入力第2ドメインデータに対応する潜在変数を生成する潜在変数生成部と、
    前記第1ドメインデータベースを用いて、前記入力第2ドメインデータに対応する潜在変数から、前記入力第2ドメインデータに対応する第1ドメインのデータを検索結果として決定する検索部と、
    を含むデータ検索装置であって、
    前記第1ドメインエンコーダを用いて第1ドメインのデータから生成される潜在変数は、第2ドメインデコーダを用いて、当該潜在変数と第2ドメインのデータに対する指標に関する条件から、当該第1ドメインのデータに対応する第2ドメインのデータを生成することができるものである
    データ検索装置
  11. 第1ドメインエンコーダを用いて第1ドメインのデータから生成した、当該データに対応する潜在変数と、当該データとを含むレコードから構成される第1ドメインデータベースを記録する記録部と、
    入力となる第1ドメインのデータ(以下、入力第1ドメインデータという)から、前記第1ドメインエンコーダを用いて、前記入力第1ドメインデータに対応する潜在変数を生成する潜在変数生成部と、
    前記第1ドメインデータベースを用いて、前記入力第1ドメインデータに対応する潜在変数から、前記入力第1ドメインデータに対応する第1ドメインのデータを検索結果として決定する検索部と、
    を含むデータ検索装置であって、
    前記第1ドメインエンコーダを用いて第1ドメインのデータから生成される潜在変数は、第2ドメインデコーダを用いて、当該潜在変数と第2ドメインのデータに対する指標に関する条件から、当該第1ドメインのデータに対応する第2ドメインのデータを生成することができるものである
    データ検索装置
  12. 第1ドメインエンコーダを用いて第1ドメインのデータから生成した、当該データに対応する潜在変数と、当該データとを含むレコードから構成される第1ドメインデータベースを記録する記録部と、
    入力となる第2ドメインのデータ(以下、入力第2ドメインデータという)から、第2ドメインエンコーダを用いて、前記入力第2ドメインデータに対応する潜在変数を生成する第1潜在変数生成部と、
    前記第1ドメインデータベースを用いて、前記入力第2ドメインデータに対応する潜在変数または選択データに対応する潜在変数から、前記入力第2ドメインデータに対応する第1ドメインのデータまたは前記選択データに対応する第1ドメインのデータを検索結果として決定する検索部と、
    前記検索結果の中にユーザの要求を満たす第1ドメインのデータがある場合は、当該データを出力し、そうでない場合は、前記検索結果の1つを前記選択データとして決定する選択データ決定部と、
    を含むデータ検索装置であって、
    前記第1ドメインエンコーダを用いて第1ドメインのデータから生成される潜在変数は、第2ドメインデコーダを用いて、当該潜在変数と第2ドメインのデータに対する指標に関する条件から、当該第1ドメインのデータに対応する第2ドメインのデータを生成することができるものである
    データ検索装置
  13. データ検索装置が、入力となる第2ドメインのデータ(以下、入力第2ドメインデータという)から、第2ドメインエンコーダを用いて、前記入力第2ドメインデータに対応する潜在変数を生成する潜在変数生成ステップと、
    前記データ検索装置が、第1ドメインエンコーダを用いて第1ドメインのデータから生成した、当該データに対応する潜在変数と、当該データとを含むレコードから構成される第1ドメインデータベースを用いて、前記入力第2ドメインデータに対応する潜在変数から、前記入力第2ドメインデータに対応する第1ドメインのデータを検索結果として決定する検索ステップと、
    を含むデータ検索方法であって、
    前記第1ドメインエンコーダを用いて第1ドメインのデータから生成される潜在変数は、第2ドメインデコーダを用いて、当該潜在変数と第2ドメインのデータに対する指標に関する条件から、当該第1ドメインのデータに対応する第2ドメインのデータを生成することができるものである
    データ検索方法
  14. データ検索装置が、入力となる第1ドメインのデータ(以下、入力第1ドメインデータという)から、第1ドメインエンコーダを用いて、前記入力第1ドメインデータに対応する潜在変数を生成する潜在変数生成ステップと、
    前記データ検索装置が、前記第1ドメインエンコーダを用いて第1ドメインのデータから生成した、当該データに対応する潜在変数と、当該データとを含むレコードから構成される第1ドメインデータベースを用いて、前記入力第1ドメインデータに対応する潜在変数から、前記入力第1ドメインデータに対応する第1ドメインのデータを検索結果として決定する検索ステップと、
    を含むデータ検索方法であって、
    前記第1ドメインエンコーダを用いて第1ドメインのデータから生成される潜在変数は、第2ドメインデコーダを用いて、当該潜在変数と第2ドメインのデータに対する指標に関する条件から、当該第1ドメインのデータに対応する第2ドメインのデータを生成することができるものである
    データ検索方法
  15. データ検索装置が、入力となる第2ドメインのデータ(以下、入力第2ドメインデータという)から、第2ドメインエンコーダを用いて、前記入力第2ドメインデータに対応する潜在変数を生成する第1潜在変数生成ステップと、
    前記データ検索装置が、第1ドメインエンコーダを用いて第1ドメインのデータから生成した、当該データに対応する潜在変数と、当該データとを含むレコードから構成される第1ドメインデータベースを用いて、前記入力第2ドメインデータに対応する潜在変数または選択データに対応する潜在変数から、前記入力第2ドメインデータに対応する第1ドメインのデータまたは前記選択データに対応する第1ドメインのデータを検索結果として決定する検索ステップと、
    前記データ検索装置が、前記検索結果の中にユーザの要求を満たす第1ドメインのデータがある場合は、当該データを出力し、そうでない場合は、前記検索結果の1つを前記選択データとして決定する選択データ決定ステップと、
    を含むデータ検索方法であって、
    前記第1ドメインエンコーダを用いて第1ドメインのデータから生成される潜在変数は、第2ドメインデコーダを用いて、当該潜在変数と第2ドメインのデータに対する指標に関する条件から、当該第1ドメインのデータに対応する第2ドメインのデータを生成することができるものである
    データ検索方法
  16. 請求項1ないしのいずれか1項に記載の音響信号検索装置、請求項10ないし12のいずれか1項に記載のデータ検索装置のいずれかとしてコンピュータを機能させるためのプログラム。
JP2021522679A 2019-05-24 2020-04-08 音響信号検索装置、音響信号検索方法、データ検索装置、データ検索方法、プログラム Active JP7283718B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019097310 2019-05-24
JP2019097310 2019-05-24
PCT/JP2020/015791 WO2020241070A1 (ja) 2019-05-24 2020-04-08 音響信号検索装置、音響信号検索方法、データ検索装置、データ検索方法、プログラム

Publications (3)

Publication Number Publication Date
JPWO2020241070A1 JPWO2020241070A1 (ja) 2020-12-03
JPWO2020241070A5 JPWO2020241070A5 (ja) 2022-02-14
JP7283718B2 true JP7283718B2 (ja) 2023-05-30

Family

ID=73552321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021522679A Active JP7283718B2 (ja) 2019-05-24 2020-04-08 音響信号検索装置、音響信号検索方法、データ検索装置、データ検索方法、プログラム

Country Status (3)

Country Link
US (1) US20220245191A1 (ja)
JP (1) JP7283718B2 (ja)
WO (1) WO2020241070A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11625543B2 (en) * 2020-05-31 2023-04-11 Salesforce.Com, Inc. Systems and methods for composed variational natural language generation
WO2023135776A1 (ja) * 2022-01-17 2023-07-20 日本電信電話株式会社 音推定モデル取得装置、音推定装置、音推定モデル取得方法、音推定方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2897701B2 (ja) 1995-11-20 1999-05-31 日本電気株式会社 効果音検索装置
JP2019003274A (ja) 2017-06-12 2019-01-10 日本電信電話株式会社 検知システム、検知方法及び検知プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0535788A (ja) * 1991-07-29 1993-02-12 Toshiba Corp 情報処理装置
JP5499362B2 (ja) * 2010-07-14 2014-05-21 日本電信電話株式会社 半教師信号認識検索装置、半教師信号認識検索方法及びプログラム
KR102608469B1 (ko) * 2017-12-22 2023-12-01 삼성전자주식회사 자연어 생성 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2897701B2 (ja) 1995-11-20 1999-05-31 日本電気株式会社 効果音検索装置
JP2019003274A (ja) 2017-06-12 2019-01-10 日本電信電話株式会社 検知システム、検知方法及び検知プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
井川 翔太 外,LSTMを用いた音響信号からの擬音語生成,電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会 ,2017年12月14日,Vol. 117 No.368,pp.17-20

Also Published As

Publication number Publication date
US20220245191A1 (en) 2022-08-04
JPWO2020241070A1 (ja) 2020-12-03
WO2020241070A1 (ja) 2020-12-03

Similar Documents

Publication Publication Date Title
CN109086408B (zh) 文本生成方法、装置、电子设备及计算机可读介质
Hill et al. The goldilocks principle: Reading children's books with explicit memory representations
KR100760301B1 (ko) 부분 검색어 추출을 통한 미디어 파일 검색 방법 및 장치
Ostendorf et al. Human language technology: Opportunities and challenges
Thiessen et al. Beyond word segmentation: A two-process account of statistical learning
JP7205839B2 (ja) データ生成モデル学習装置、潜在変数生成モデル学習装置、翻訳データ生成装置、データ生成モデル学習方法、潜在変数生成モデル学習方法、翻訳データ生成方法、プログラム
JP2007323475A (ja) 自然言語における多義解消装置及びコンピュータプログラム
CN101116073A (zh) 信息处理设备、信息处理方法及程序
JP7283718B2 (ja) 音響信号検索装置、音響信号検索方法、データ検索装置、データ検索方法、プログラム
King et al. Greater early disambiguating information for less-probable words: The lexicon is shaped by incremental processing
KR20210044697A (ko) Ai 기반 질의응답 시스템 및 방법
Victor et al. Application of extractive text summarization algorithms to speech-to-text media
Gupta et al. A novel approach to perform context‐based automatic spoken document retrieval of political speeches based on wavelet tree indexing
JP2023071785A (ja) 音響信号検索装置、音響信号検索方法、データ検索装置、データ検索方法、プログラム
JP2023071771A (ja) データ生成モデル学習装置、データ生成装置、データ生成モデル学習方法、データ生成方法、プログラム
KR102418260B1 (ko) 고객 상담 기록 분석 방법
Marian Orthographic and phonological neighborhood databases across multiple languages
Paaß et al. Pre-trained Language Models
Bao Analysis of music retrieval based on emotional tags environment
Roul et al. Abstractive text summarization using enhanced attention model
Tüselmann et al. A weighted combination of semantic and syntactic word image representations
Hernandez et al. Autoblog 2021: The Importance of Language Models for Spontaneous Lecture Speech
Liu Discovering topic trends for conference analytics
Švec et al. Asking Questions Framework for Oral History Archives
Sultana et al. BERT-PRF: An Efficient Approach for Intent Detection from Users Search Query

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211117

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A801

Effective date: 20211117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20211117

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20211117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230510

R150 Certificate of patent or registration of utility model

Ref document number: 7283718

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150