JPWO2018061839A1 - Transmission apparatus, transmission method and transmission program - Google Patents
Transmission apparatus, transmission method and transmission program Download PDFInfo
- Publication number
- JPWO2018061839A1 JPWO2018061839A1 JP2018542405A JP2018542405A JPWO2018061839A1 JP WO2018061839 A1 JPWO2018061839 A1 JP WO2018061839A1 JP 2018542405 A JP2018542405 A JP 2018542405A JP 2018542405 A JP2018542405 A JP 2018542405A JP WO2018061839 A1 JPWO2018061839 A1 JP WO2018061839A1
- Authority
- JP
- Japan
- Prior art keywords
- voice
- keyword
- speech
- unit
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000005540 biological transmission Effects 0.000 title claims abstract description 56
- 238000000034 method Methods 0.000 title claims description 9
- 230000008451 emotion Effects 0.000 claims abstract description 93
- 238000000605 extraction Methods 0.000 claims abstract description 53
- 239000000284 extract Substances 0.000 claims description 26
- 230000004044 response Effects 0.000 claims description 9
- 238000004891 communication Methods 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000036651 mood Effects 0.000 description 4
- 235000020965 cold beverage Nutrition 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000004378 air conditioning Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
ニーズに応じた情報を提供する。コンピュータに、音声を収集して当該音声を示す音声データを生成する音声収集部と、音声データから、音声に含まれるキーワードである音声キーワードを抽出する音声キーワード抽出部と、音声データから、音声の強さ、速度及び抑揚の少なくとも一つを含む、音声の特徴を抽出する音声特徴抽出部と、音声の特徴に基づいて、予め格納された感情キーワード群から、抽出された音声の特徴に対応する感情キーワードを選択する感情キーワード選択部と、抽出された音声キーワード及び選択された感情キーワードを送信する送信部と、を実現させるための送信プログラム。Provide information according to your needs. A voice collecting unit for collecting voice and generating voice data indicating the voice, a voice keyword extraction unit for extracting a voice keyword which is a keyword included in the voice from the voice data, a voice from the voice data A voice feature extraction unit for extracting voice features including at least one of strength, speed, and intonation, and voice features extracted from a group of emotion keywords stored in advance based on the features of the voice A transmission program for realizing an emotion keyword selection unit for selecting an emotion keyword, and a transmission unit for transmitting the extracted voice keyword and the selected emotion keyword.
Description
本発明は、送信装置、送信方法及び送信プログラムに関する。 The present invention relates to a transmission device, a transmission method, and a transmission program.
従来の情報提示装置として、特開2012−256183号公報(特許文献1)に記載されたものがある。上記従来の情報提示装置は、ユーザが現在有している欲求の強さと、ユーザが現在置かれている状況とを推定し、これらの組み合わせを記述したデータベースを照会することにより、ユーザが有している欲求とユーザが置かれている状況の双方を満たすことのできるアイテムを提示する。 As a conventional information presentation apparatus, there is one described in Japanese Patent Application Laid-Open No. 2012-256183 (Patent Document 1). The above-mentioned conventional information presentation apparatus estimates the strength of the desire that the user currently has and the situation in which the user is currently placed, and by querying the database describing these combinations, Present items that can meet both the needs of the user and the situation in which the user is placed.
しかしながら、上記従来の情報提示装置では、ユーザの欲求の強さとユーザが置かれている状況を推定しているに止まるため、必ずしもユーザのニーズに応じた情報を提示することができなかった。 However, in the above-mentioned conventional information presentation apparatus, since it only estimates the strength of the desire of the user and the situation in which the user is placed, it has not always been possible to present information according to the needs of the user.
本発明はこのような事情に鑑みてなされたものであり、ユーザのニーズにより応じた情報を提供することを目的とする。 The present invention has been made in view of such circumstances, and it is an object of the present invention to provide information according to the needs of the user.
本発明の一側面に係る送信プログラムは、コンピュータに、音声を収集して当該音声を示す音声データを生成する音声収集部と、音声データから、音声に含まれるキーワードである音声キーワードを抽出する音声キーワード抽出部と、音声データから、音声の強さ、速度及び抑揚の少なくとも一つを含む、音声の特徴を抽出する音声特徴抽出部と、音声の特徴に基づいて、予め格納された感情キーワード群から、抽出された音声の特徴に対応する感情キーワードを選択する感情キーワード選択部と、抽出された音声キーワード及び選択された感情キーワードを送信する送信部とを実現させる。 A transmission program according to an aspect of the present invention includes a voice collection unit that collects voice and generates voice data indicating the voice in a computer, and voice for extracting a voice keyword that is a keyword included in the voice from the voice data. A keyword extraction unit, a voice feature extraction unit for extracting voice features including at least one of voice strength, speed, and intonation from voice data, and emotion keyword groups stored in advance based on voice features Then, an emotion keyword selection unit for selecting an emotion keyword corresponding to the extracted voice feature and a transmission unit for transmitting the extracted speech keyword and the selected emotion keyword are realized.
本発明の他の側面に係る送信装置は、音声を収集して当該音声を示す音声データを生成する音声収集部と、音声データから、音声に含まれるキーワードである音声キーワードを抽出する音声キーワード抽出部と、音声データから、音声の強さ、速度及び抑揚の少なくとも一つを含む、音声の特徴を抽出する音声特徴抽出部と、音声の特徴に基づいて、予め格納された感情キーワード群から、抽出された音声の特徴に対応する感情キーワードを選択する感情キーワード選択部と、抽出された音声キーワード及び選択された感情キーワードを送信する送信部とを備える。 A transmitting apparatus according to another aspect of the present invention includes a voice collecting unit for collecting voice and generating voice data indicating the voice, and voice keyword extraction for extracting a voice keyword which is a keyword included in the voice from the voice data. A voice feature extraction unit that extracts voice features including at least one of voice strength, speed, and intonation from voice data, and emotion keyword groups stored in advance based on voice features, An emotion keyword selection unit that selects an emotion keyword corresponding to an extracted voice feature, and a transmission unit that transmits the extracted speech keyword and the selected emotion keyword.
本発明のさらに他の側面に係る送信方法は、音声を収集して当該音声を示す音声データを生成することと、音声データから、音声に含まれるキーワードである音声キーワードを抽出することと、音声データから、音声の強さ、速度及び抑揚の少なくとも一つを含む、音声の特徴を抽出することと、音声の特徴に基づいて、予め格納された感情キーワード群から、抽出された音声の特徴に対応する感情キーワードを選択することと、抽出された音声キーワード及び選択された感情キーワードを送信することとを含む。 According to still another aspect of the present invention, there is provided a transmission method comprising: collecting voice and generating voice data indicating the voice; extracting a voice keyword, which is a keyword included in the voice, from the voice data; Extracting voice features including at least one of voice strength, speed, and intonation from data, and based on voice features, to voice features extracted from a group of prestored emotion keywords It includes selecting the corresponding emotion keyword, and transmitting the extracted voice keyword and the selected emotion keyword.
本発明によれば、ユーザのニーズにより応じた情報を提供することが可能となる。 According to the present invention, it is possible to provide information according to the needs of the user.
以下、添付の図面を参照して本発明の一実施形態について説明する。図1は、本発明の一実施形態に係る送信装置110を含む検索システム100の構成を示す図である。検索システム100は、送信装置110と、検索装置120と、出力装置130とを備える。本実施形態に係る検索システム100は、送信装置110が収集した音声から抽出されたキーワードと、当該音声から抽出された感情や雰囲気に対応するキーワードに基づいて、所定の検索を行い、その検索結果を出力するシステムである。
Hereinafter, an embodiment of the present invention will be described with reference to the attached drawings. FIG. 1 is a diagram showing the configuration of a
送信装置110は、送信装置110が置かれている場所で収集した音声に基づいて、所定のキーワードを検索装置120に送信するコンピュータである。送信装置110は、施設や店舗に設置されたコンピュータであってもよいし、施設や店舗を訪問したユーザが所有するコンピュータ(スマートフォンやタブレット端末等)であってもよい。送信装置は、プロセッサ、メモリ及び通信インタフェースを備える。送信装置110は、例えば、携帯電話通信網やインターネットを経由して、検索装置120と通信を行うことができる。
The
検索装置120は、送信装置110から受信したキーワードに基づいて、出力装置130のユーザに対して情報提供を行うコンピュータ(サーバ)である。検索装置120は、プロセッサ、メモリ、データベース及び通信インタフェースを備える。検索装置120は、例えば、インターネットを経由して、送信装置110及び出力装置130と通信を行うことができる。
The
出力装置130は、検索装置120から提供されるデータ(表示データ)に基づいて、検索結果の出力を行うコンピュータである。出力装置130は、検索結果として、数値、文字、映像(画像)、音声等を、ディスプレイやスピーカ等に出力する。出力装置130は、例えば、スマートフォンやタブレット端末、パーソナルコンピュータ等である。出力装置130は、プロセッサ、メモリ及び通信インタフェースを備える。出力装置130は、例えば、携帯電話通信網やインターネットを経由して、検索装置120と通信を行うことができる。
The
なお、出力装置130は、検索結果に基づいて、所定の動作を出力してもよい。出力装置130は、例えば、検索結果に基づいて、所定の通信を行ったり、モータ、アクチュエータ、センサ等を制御したりしてもよい。
The
図2は、送信装置110が備える機能ブロックの一例を示す図である。送信装置110は、音声収集部200と、音声キーワード抽出部210と、辞書データベース220と、音声特徴抽出部230と、感情キーワード選択部240と、感情データベース250と、送信部260と、辞書データベース更新指示作成部270とを備える。
FIG. 2 is a diagram illustrating an example of functional blocks included in the
送信装置110のメモリには、送信プログラムが格納されており、送信装置110のハードウェア資源と送信プログラムとの協働により、送信装置110の各機能(音声収集部200、音声キーワード抽出部210、辞書データベース220、音声特徴抽出部230、感情キーワード選択部240、感情データベース250、送信部260、及び辞書データベース更新指示作成部270)が実現される。送信プログラムは、コンピュータ読み取り可能な記録媒体から送信装置110のメモリに読み込まれて、送信装置110のプロセッサにより実行される。
The transmission program is stored in the memory of the
音声収集部200は、送信装置110の周囲で発せられた音声を収集し、当該音声を示す音声データを生成する。具体的には、音声収集部200は、マイク等によって収集した音声を電気信号に変換し、当該電気信号が示す情報をデジタルデータに変換した音声データを生成する。また、音声収集部200は、生成した音声データを一時的に記憶する記憶部を有してもよい。当該記憶部は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、光ディスク、又はRAM(Random Access Memory)などの磁気的、電気的又は光学的に記憶可能な既存の記憶装置又は記憶媒体である。音声収集部200は、送信装置110の内蔵マイクでもよく、或いは外付けマイク(外付け型の有線式マイク又は無線式のマイク)でもよい。例えば、外付けマイクが接続されたタブレット端末は、送信装置110として機能する。送信装置110は、複数の音声収集部200を備えてもよい。送信装置110は、複数の音声収集部200の相対位置を検出してもよい。
The
音声キーワード抽出部210は、音声収集部200が生成した音声データから、当該音声に含まれるキーワード(以下「音声キーワード」とも呼ぶ。)を抽出する。具体的には、音声キーワード抽出部210は、まず、音声データを解析して、当該音声をテキストデータに変換する。そして、音声キーワード抽出部210は、当該テキストデータに含まれる各単語を、辞書データベース220に予め格納された単語と比較する。そして、音声キーワード抽出部210は、当該テキストデータに含まれる各単語が、辞書データベース220に予め格納された単語と一致した場合に、当該単語を音声キーワードとして抽出する。
The voice
音声特徴抽出部230は、音声収集部200が生成した音声データから、当該音声の特徴を抽出する。本実施形態において、音声特徴抽出部230は、当該音声の強さ、速度及び抑揚の少なくとも一つを抽出し、そして、当該強さ、速度若しくは抑揚、又は、これらの2つ以上の組み合わせを、当該音声の特徴として抽出する。
The voice
音声特徴抽出部230は、音声データが示す音声信号の振幅の大きさに基づいて、当該音声の強さを抽出する。音声特徴抽出部230は、例えば、所定の単位期間における音声の強度の平均を、当該音声の強さとして抽出する。また、音声特徴抽出部230は、所定の文字数、単語数又は文章数を含む音声の強度の平均を、当該音声の強さとして抽出してもよい。
The voice
また、音声特徴抽出部230は、音声に含まれる言葉の音数に基づいて、当該音声の速さを抽出する。音声特徴抽出部230は、例えば、所定の単位期間の含まれる音数を、当該音声の速さとして抽出する。また、音声特徴抽出部230は、所定の単位期間における当該音声の文字数、単語数又は文章数を、当該音声の速さとして抽出してもよい。
Further, the voice
また、音声特徴抽出部230は、音声の強さの変化に基づいて、当該音声の抑揚を抽出する。音声特徴抽出部230は、例えば、音声を複数の単位に分割し、各単位内における強さの変化、及び/又は、単位間における強さの変化を、当該音声の抑揚として抽出する。音声の単位は、例えば、音声に含まれる文章を構成する単語や節である。
Also, the voice
感情キーワード選択部240は、音声特徴抽出部230が抽出した音声の特徴に基づいて、当該特徴が示す話者の感情や場の雰囲気をキーワードに変換する。感情キーワード選択部240は、例えば、感情データベース250に予め格納された感情キーワード群から、音声特徴抽出部230が抽出した音声の特徴に対応する感情キーワードを選択する。また、感情データベース250は、感情や雰囲気に関連する多数のキーワードを、音声の特徴と対応づけて格納する。具体的には、感情データベース250は、当該音声の強さ、速度及び抑揚のそれぞれの値(又は値が取り得る所定の範囲)や、当該値又は範囲の組み合わせのパターンを、各キーワードと対応づけて格納する。そして、感情キーワード選択部240は、音声特徴抽出部230が抽出した音声の特徴、すなわち、当該音声の強さ、速度及び抑揚のそれぞれの値(又は値が取り得る所定の範囲)や、当該値又は範囲の組み合わせのパターンに基づいて、感情データベース250に格納された多数のキーワードの中から、所定のキーワードを選択する。なお、感情データベース250に格納されるキーワードは、図3に示すような、いわゆるラッセルの感情円環モデルに含まれるキーワードであってもよい。
The emotion
感情キーワード選択部240は、音声特徴抽出部230が抽出した音声の特徴の他に、収集された音声の発した話者の生体情報にさらに基づいて、感情キーワードを選択してもよい。感情キーワード選択部240は、例えば、話者の体温、心拍、脈拍、脳波、皮膚コンダクタンスレベル等の生体情報に基づいて、当該話者の感情を推定し、推定された感情に対応するキーワードを選択してもよい。話者の生体情報は、送信装置110に接続されたセンサから取得されてもよいし、また、例えばネットワークを通じて送信装置110の外部装置から取得されてもよい。
The emotion
音声特徴抽出部230は、音声データの波形から発言の肯定又は否定の度合いに関する指標を抽出してもよい。例えば、音声特徴抽出部230は、Empath(登録商標)を用いて、音声データの波形から発言の肯定又は否定の度合いに関する指標を抽出することができる。Empathは、音声データの波形の物理的な特徴を解析し、平常、怒り、喜び、悲しみ及び元気度の各項目について50段階で判定値を算出する。音声特徴抽出部230は、このように算出された結果に基づいて、発言の肯定又は否定の度合いに関する指標を抽出することができる。このように、音声データの波形から感情や気分に関する判定値を算出する技術は、音声気分解析技術と呼ばれる。音声気分解析技術を用いて判定される項目は、平常、怒り、喜び、悲しみ及び元気度に限られるものではなく、感情に関わるあらゆる項目を含み得る。感情データベース250は、発言の肯定又は否定の度合いに関する指標を、各感情キーワードと対応付けて格納してもよい。感情キーワード選択部240は、音声特徴抽出部230が抽出した、発言の肯定又は否定の度合いに関する指標に対応する感情キーワードを感情データベース250から選択してもよい。
The voice
送信部260は、音声キーワード抽出部210が抽出した音声キーワード、及び、感情キーワード選択部240が選択した感情キーワードを、検索装置120に送信する。送信部260は、例えば、音声収集部200が音声を収集してから所定の期間が経過したこと、音声特徴抽出部230が抽出した記音声の強さが所定の値を超えたこと、音声キーワード抽出部210が所定の単語を抽出したこと等に応答して、音声キーワード抽出部210が抽出した音声キーワード、及び、感情キーワード選択部240が選択した前記感情キーワードを、検索装置120に送信する。当該所定の単語は、例えば、「検索」等である。
The transmitting
送信部260は、音声キーワード及び感情キーワードの他に、環境情報又は生体情報を、検索装置120にさらに送信してもよい。環境情報は、例えば、位置、温度、湿度、照度、揺れ等といった、送信装置110が置かれている場所や空間に関する情報である。環境情報は、GPS、温度センサ、湿度センサ、照度センサ、加速度センサ、赤外線センサ等の測定装置によって取得される。送信部260は、環境情報や生体情報を、測定装置から直接的に取得してもよいし、ネットワーク等を通じて間接的に取得してもよい。
The transmitting
辞書データベース更新指示作成部270は、辞書データベース220を更新するための指示(辞書データベース更新指示)を作成する。辞書データベース更新指示は、所定の契機で作成される。ここで、所定の契機は、辞書データベース220のヒット率が予め定められた閾値を下回った時点でもよく、或いは、予め定められた一定間隔でもよい。ヒット率とは、辞書データベース220に登録されている全てのキーワードのうち、音声収集部200によって収集された音声に含まれているものと判定されたことのあるキーワードの割合を意味する。送信部260は、辞書データベース更新指示作成部270によって作成された辞書データベース更新指示を検索装置120に送信する。
The dictionary database update
図4は、検索装置120が備える機能ブロックの一例を示す図である。検索装置120は、受信部300と、検索実行部310と、データベース320と、送信部330と、キーワードデータベース340と、推測部350と、辞書データベース作成部360とを備える。検索装置120は、所定のキーワードに基づいてデータベース320に格納された情報を検索し、検索結果を出力装置130に送信する検索エンジンである。検索装置120は、送信装置110から送信される音声キーワードを受信し、これを蓄積することにより、蓄積された音声キーワードから話題を推測する処理を行ってもよい。音声キーワードが、例えば、「ハンドル」、「ブレーキ」、「タイヤ」などである場合、「車」に関する話題がなされているものと推測できる。推測された話題は、例えば、広告業者に提供される。また、検索装置120は、送信装置110からの辞書データベース更新指示に応答して、辞書データベース220を更新する処理をも行う。
FIG. 4 is a diagram illustrating an example of functional blocks included in the
検索装置120のメモリには、音声キーワード及び感情キーワードに基づく検索処理を検索装置120に実行させる検索プログラムが格納されており、検索装置120のハードウェア資源と検索プログラムとの協働により、検索装置120の各機能(受信部300、検索実行部310、データベース320、送信部330、キーワードデータベース340、推測部350、及びデータベース作成部360)が実現される。検索プログラムは、コンピュータ読み取り可能な記録媒体から検索装置120のメモリに読み込まれて、検索装置120のプロセッサにより実行される。
The memory of the
受信部300は、送信装置110が送信した音声キーワード及び感情キーワードを受信する。また、受信部300は、送信装置110が送信した音声キーワード及び感情キーワードの他に、環境情報や生体情報をさらに受信してもよい。受信部300は、送信装置110が送信した辞書データベース更新指示を受信する。
The receiving
検索実行部310は、受信部300が受信した音声キーワード及び感情キーワード並びに/又は環境情報及び/若しくは生体情報に基づいて、データベース320を検索する。本実施形態において、音声キーワード、感情キーワード、環境情報及び生体情報は、いずれもテキストデータであり、検索実行部310は、例えば、データベース320に格納された情報のうち、検索に使われたテキストデータのいずれをも含む情報を、検索結果として抽出する。当該情報は、例えば、ウェブサイトに含まれるテキストデータ等である。
The
送信部330は、検索実行部310が抽出した検索結果を、ネットワークを通じて出力装置130に送信する。送信部330は、例えば、検索実行部310が抽出したウェブサイトのURLや当該ウェブサイトに含まれるテキストデータや画像データ等を、検索結果として出力装置130に送信する。
The
キーワードデータベース340は、受信部300を通じて受信された音声キーワードを格納する。推測部350は、受信部300を通じて受信された辞書データベース更新指示に応答して、キーワードデータベース340に格納されている音声キーワードの関連語を推測する。音声キーワードの関連語とは、音声キーワードと頻繁に同時に使われる語句を意味し、このような語句は、「共起語」とも呼ばれている。共起語は、同意語を必ずしも意味するものではない。推測部350は、例えば、人工知能を応用した共起語検索ツールである。このような共起語検索ツールとして、例えば、グーグルやヤフーなどの検索結果の上位となるウェブページのコンテンツで形態素解析を行い、同一文書に頻出する語句を共起語として提示するものが知られている。形態素解析とは、文法的な情報の注記のない自然言語のテキストデータから、対象言語の文法や、辞書と呼ばれる単語の品詞などの情報に基づき、形態素(言語で意味を持つ最小単位)の列に分解し、それぞれの形態素の品詞などを判別する作業を意味する。
The
辞書データベース作成部360は、受信部300を通じて受信された辞書データベース更新指示に応答して、辞書データベース220を更新する。辞書データベース作成部360は、キーワードデータベース340に格納されている音声キーワードと、推測部350により推測された関連語とに基づいて、更新された辞書データベース220を作成する。更新された辞書データベース220は、音声収集部200によって収集された音声から抽出されたことのある音声キーワードとその関連語をキーワードとして登録している。更新前の辞書データベース220に登録されているキーワードのうち、音声収集部200によって収集された音声から抽出されたことのない音声キーワードは、更新後の辞書データベース220から削除される。このような更新処理を繰り返すことにより、辞書データベース220のヒット率を高めることができる。
The dictionary
送信部330は、更新された辞書データベース220を送信装置110に送信する。更新された辞書データベース220を受信した送信装置110は、更新前の辞書データベース220を更新後の辞書データベース220に差し替える。
The transmitting
図5は、出力装置130が備える機能ブロックの一例を示す図である。出力装置130は、検索結果受信部400と、検索結果出力部410とを備える。出力装置130において、検索結果受信部400は、検索結果送信部330が送信した検索結果を受信し、検索結果出力部410は、受信した検索結果を、数値、文字、映像(画像)、音声等として、ディスプレイやスピーカ等を通じて出力する。
FIG. 5 is a diagram illustrating an example of functional blocks included in the
出力装置130のメモリには、出力プログラムが格納されており、出力装置130のハードウェア資源と出力プログラムとの協働により、出力装置130の各機能(検索結果受信部400、及び検索結果出力部410)が実現される。出力プログラムは、コンピュータ読み取り可能な記録媒体から出力装置130のメモリに読み込まれて、出力装置130のプロセッサにより実行される。
An output program is stored in the memory of the
図6は、検索システム100における処理の一例を示すフローチャートである。
FIG. 6 is a flowchart showing an example of processing in the
まず、音声収集部200は、送信装置110の周囲で発せられた音声を収集し、当該音声を示す音声データを生成する(S600)。音声収集部200は、例えば、一人又は複数の話者から「今日は暑いですね。」という音声を収集した場合に、この音声データを生成する。次に、音声キーワード抽出部210が、音声データから、音声キーワードを抽出する(S601)。音声キーワード抽出部210は、例えば、「今日は暑いですね。」という音声データから、「暑い」と単語を音声キーワードとして抽出する。次に、音声特徴抽出部230が、音声収集部200が生成した音声データから、当該音声の特徴を抽出する(S602)。音声特徴抽出部230は、例えば、「今日は暑いですね。」という音声における、音声の強さ、速さ、抑揚を抽出する。
First, the
次に、感情キーワード選択部240が、音声特徴抽出部230が抽出した音声の特徴に基づいて、話者の感情や場の雰囲気を示す感情キーワードを選択する(S603)。感情キーワード選択部240は、例えば、「今日は暑いですね。」という音声における、当該音声の強さ、速さ、抑揚の値を組み合わせたパターンに対応する感情キーワードとして、感情データベース250に格納されていた「苛立ち」を選択する。次に、送信部260は、音声キーワード抽出部210が抽出した音声キーワード、及び、感情キーワード選択部240が選択した感情キーワードを、検索装置120に送信する(S604)。送信部260は、「暑い」及び「苛立ち」を、それぞれ音声キーワード及び感情キーワードとして、検索装置120に送信する。また、送信部260は、送信装置110が置かれている場所である「京都府長岡京市神足1丁目にある長岡京駅の外」を示す位置情報と、当該場所における気温である「36℃」を、環境情報として検索装置120に送信する。
Next, the emotion
次に、キーワード受信部300は、送信装置110が送信した音声キーワード、感情キーワード及び環境情報を受信する(S605)。キーワード受信部300は、例えば、「暑い」及び「苛立ち」を、それぞれ音声キーワード及び感情キーワードとして、また、「京都府長岡京市神足1丁目にある長岡京駅の外」を示す位置情報と気温「36℃」を環境情報として受信する。次に、検索実行部310は、キーワード受信部300が受信した音声キーワード及び感情キーワード並びに環境情報に基づいて、データベース320を検索する(S606)。検索実行部310は、例えば、これらのキーワード及び環境情報に基づいて、「今日は暑いですね。」という音声を発した話者が、「京都府長岡京市神足1丁目にある長岡京駅の外」において、気温「36℃」の中で、「暑い」という単語を「苛立ち」という感情とともに発していると判断する。そして、検索実行部310は、「『京都府長岡京市神足1丁目にある長岡京駅』の半径100mにおいて、冷たい飲み物を提供する店舗」を検索する。次に、検索結果送信部330が、検索実行部310が抽出した検索結果を、ネットワークを通じて出力装置130に送信する(S607)。検索結果送信部330は、例えば、「『京都府長岡京市神足1丁目にある長岡京駅』の半径100mにおいて、冷たい飲み物を提供する店舗」に該当する店舗のウェブサイトの一覧を、検索結果として出力装置130に送信する。
Next, the
次に、検索結果受信部400が、検索結果送信部330が送信した検索結果を受信する(S608)。そして、検索結果出力部410は、受信した検索結果を、ディスプレイやスピーカ等を通じて出力する(S609)。検索結果出力部410は、例えば、「『京都府長岡京市神足1丁目にある長岡京駅』の半径100mにおいて、冷たい飲み物を提供する店舗」に該当する店舗のウェブサイトの一覧を、出力装置130が備えるディスプレイに表示する。なお、本例において、例えば、位置情報が「京都府長岡京市神足1丁目にある長岡京駅の外」ではなく「京都府長岡京市東神足1丁目10番1号の建物」を示し、気温が「36℃」ではなく「28℃」を示す場合、検索実行部310は、「今日は暑いですね。」という音声を発した話者が、当該建物において、「暑い」という単語を気温「28℃」の中で「苛立ち」という感情とともに発していると判断してもよい。この場合、検索実行部310は、「当該建物において気温を制御できること」を検索し、空調を制御することを、検索結果として出力してもよい。この場合、検索結果出力部410は、例えば、当該空調の設定温度を「25℃」に変更することを出力する。
Next, the search
次に、図7を参照しながら、辞書データベース更新処理の流れについて説明する。
送信装置110は、所定の契機で辞書データベース更新指示を作成し(S700)、これを検索装置120に送信する(S701)。検索装置120は、辞書データベース更新指示を受信すると(S702)、キーワードデータベース340から音声キーワードを取得し(S703)、音声キーワードの関連語を推測する(S704)。次に、検索装置120は、音声キーワードとその関連語に基づいて、更新された辞書データベース220を作成し(S705)、これを送信装置110に送信する(S706)。送信装置110は、更新後の辞書データベース220を受信すると(S707)、更新前の辞書データベース220を更新後の辞書データベース220に差し替えることにより、辞書データベース220を更新する(S708)。Next, the flow of the dictionary database update process will be described with reference to FIG.
The
以上、本発明の例示的な実施形態について説明した。本実施形態によれば、音声を収集して当該音声を示す音声データを生成し、音声データから、音声に含まれるキーワードである音声キーワードを抽出し、音声データから、音声の強さ、速度及び抑揚の少なくとも一つを含む、音声の特徴を抽出し、音声の特徴に基づいて、予め格納された感情キーワード群から、抽出された音声の特徴に対応する感情キーワードを選択し、抽出された音声キーワード及び選択された感情キーワードを送信する。これにより、音声から抽出された単語と感情の双方に基づいて検索することができるので、当該音声を発した話者のニーズにより応じた情報を提供することができる。 The exemplary embodiments of the present invention have been described above. According to the present embodiment, the voice is collected to generate voice data indicating the voice, the voice keyword which is the keyword included in the voice is extracted from the voice data, and the voice strength, speed and A voice feature including at least one of intonation is extracted, and based on the voice feature, an emotion keyword corresponding to the extracted voice feature is selected from a pre-stored emotion keyword group, and the extracted voice is extracted. Send keywords and selected emotional keywords. As a result, the search can be performed based on both the word and emotion extracted from the voice, so that information according to the needs of the speaker who has made the voice can be provided.
また、本実施形態において、ラッセルの感情円環モデルに含まれるキーワードを、キーワード群として格納してもよい。これにより、話者の感情をより的確に抽出することができる。 Further, in the present embodiment, keywords included in Russell's emotion circular model may be stored as a keyword group. This makes it possible to more accurately extract the speaker's emotions.
また、本実施形態において、音声に含まれる単語が辞書データベースに格納された単語のいずれかと一致した場合に、当該単語を音声キーワードとして抽出してもよい。これにより、音声キーワードを抽出するアルゴリズムの負荷を低減させることができる。 Further, in the present embodiment, when a word included in the speech matches any of the words stored in the dictionary database, the word may be extracted as the speech keyword. This can reduce the load on the algorithm for extracting speech keywords.
また、本実施形態において、音声収集部が音声を収集してから所定の期間が経過したこと、音声特徴抽出部が抽出した音声の強さが所定の値を超えたこと、又は、音声キーワード抽出部が所定の単語を抽出したことに応答して、音声キーワード及び選択された感情キーワードを送信してもよい。これにより、検索の精度をさらに上げることができる。 Also, in the present embodiment, a predetermined period has elapsed since the voice collection unit collected voice, the strength of the voice extracted by the voice feature extraction unit exceeded a predetermined value, or voice keyword extraction The speech keyword and the selected emotion keyword may be transmitted in response to the section extracting a predetermined word. This can further increase the accuracy of the search.
また、本実施形態において、所定の検索による検索結果を出力してもよい。これにより、検索結果を話者に伝えたり、又は、話者が置かれた環境に反映させたりすることができる。 Further, in the present embodiment, a search result by a predetermined search may be output. Thereby, the search result can be transmitted to the speaker or reflected in the environment in which the speaker is placed.
辞書データベース220に登録されている音声キーワードに一致するものとして、音声収集部200が収集した音声から抽出された音声キーワードとその関連語とに基づいて辞書データベース220を更新することにより、辞書データベース220のヒット率を高めることができる。これにより、辞書データベース220を最適化することができる。辞書データベース220を最適化することにより、音声収集部200が収集する音声(例えば、顧客が実際に発話した音声)に基づいて、商品又はサービスが実際に流行しているか否かを適切に判断することができる。また、音声収集部200が収集する音声は、送信装置110が置かれている場所で実際に収集された音声であるため、インターネット上の評価ではなく、現実社会における評価を基礎として、商品又はサービスが実際に流行しているか否かを判断できる。また、辞書データベース220の更新を繰り返すことにより、不要なキーワードは、辞書データベース220から削除されるため、辞書データベース220の記憶容量は少なくてもよい。これにより、送信装置110の小型化及び低消費電力化が可能となる。
The
なお、以上説明した各実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更/改良され得るととともに、本発明にはその等価物も含まれる。即ち、各実施形態に当業者が適宜設計変更を加えたものも、本発明の特徴を備えている限り、本発明の範囲に包含される。例えば、各実施形態が備える各要素及びその配置、材料、条件、形状、サイズなどは、例示したものに限定されるわけではなく適宜変更することができる。また、各実施形態は例示であり、異なる実施形態で示した構成の部分的な置換又は組み合わせが可能であることは言うまでもなく、これらも本発明の特徴を含む限り本発明の範囲に包含される。 In addition, each embodiment described above is for making an understanding of this invention easy, and is not for limiting and interpreting this invention. The present invention can be modified / improved without departing from the gist thereof, and the present invention also includes the equivalents thereof. That is, those in which persons skilled in the art appropriately modify the design of each embodiment are also included in the scope of the present invention as long as they have the features of the present invention. For example, each element included in each embodiment and its arrangement, material, conditions, shape, size, and the like are not limited to those illustrated, and can be appropriately changed. Each embodiment is an exemplification, and it goes without saying that partial replacement or combination of the configurations shown in different embodiments is possible, and these are also included in the scope of the present invention as long as they include the features of the present invention. .
100…検索システム、110…送信装置、120…検索装置、130…出力装置、200…音声収集部、210…音声キーワード抽出部、220…辞書データベース、230…音声特徴抽出部、240…感情キーワード選択部、250…感情データベース、260…送信部、300…キーワード受信部、310…検索実行部、320…データベース、330…検索結果送信部、400…検索結果受信部、410…検索結果出力部
DESCRIPTION OF
Claims (11)
音声を収集して当該音声を示す音声データを生成する音声収集部と、
前記音声データから、前記音声に含まれるキーワードである音声キーワードを抽出する音声キーワード抽出部と、
前記音声データから、前記音声の強さ、速度及び抑揚の少なくとも一つを含む、前記音声の特徴を抽出する音声特徴抽出部と、
前記音声の特徴に基づいて、予め格納された感情キーワード群から、抽出された前記音声の特徴に対応する感情キーワードを選択する感情キーワード選択部と、
抽出された前記音声キーワード及び選択された前記感情キーワードを送信する送信部と、
を実現させるための送信プログラム。On the computer
A voice collecting unit that collects voice and generates voice data indicating the voice;
A speech keyword extraction unit that extracts speech keywords that are keywords included in the speech from the speech data;
A voice feature extraction unit for extracting features of the voice including at least one of strength, speed, and intonation of the voice from the voice data;
An emotion keyword selection unit for selecting an emotion keyword corresponding to the extracted voice feature from a previously stored emotion keyword group based on the voice feature;
A transmitter configured to transmit the extracted speech keyword and the selected emotion keyword;
Transmission program to realize.
前記コンピュータに、ラッセルの感情円環モデルに含まれるキーワードを、前記キーワード群として格納する感情データベースをさらに実現させる、
送信プログラム。The transmission program according to claim 1, wherein
Causing the computer to further realize an emotion database that stores keywords included in Russell's emotion ring model as the keyword group;
Send program.
前記コンピュータに、複数の単語が予め格納された辞書データベースをさらに実現させ、
前記音声キーワード抽出部は、前記音声に含まれる単語が前記辞書データベースに格納された単語のいずれかと一致した場合に、当該単語を前記音声キーワードとして抽出する、
送信プログラム。The transmission program according to claim 1 or 2, wherein
Causing the computer to further realize a dictionary database in which a plurality of words are stored in advance;
The speech keyword extraction unit extracts the word as the speech keyword when a word included in the speech matches any of the words stored in the dictionary database.
Send program.
送信部は、前記音声収集部が音声を収集してから所定の期間が経過したことに応答して、前記音声キーワード及び選択された前記感情キーワードを送信する、
送信プログラム。The transmission program according to any one of claims 1 to 3, wherein
The transmitting unit transmits the voice keyword and the selected emotion keyword in response to a lapse of a predetermined period after the voice collecting unit collects the voice.
Send program.
前記音声特徴抽出部は、前記音声の特徴として、少なくとも前記音声の強さを抽出し、
送信部は、前記音声特徴抽出部が抽出した前記音声の強さが所定の値を超えたことに応答して、前記音声キーワード及び選択された前記感情キーワードを送信する、
送信プログラム。The transmission program according to any one of claims 1 to 3, wherein
The voice feature extraction unit extracts at least the strength of the voice as the feature of the voice,
The transmitting unit transmits the voice keyword and the selected emotion keyword in response to the voice strength extracted by the voice feature extraction unit exceeding a predetermined value.
Send program.
送信部は、前記音声キーワード抽出部が所定の単語を抽出したことに応答して、前記音声キーワード及び選択された前記感情キーワードを送信する、
送信プログラム。The transmission program according to any one of claims 1 to 3, wherein
The transmitting unit transmits the speech keyword and the selected emotion keyword in response to the speech keyword extraction unit extracting a predetermined word.
Send program.
前記コンピュータに、前記所定の検索による検索結果を出力する出力部をさらに実現させる、
送信プログラム。The transmission program according to any one of claims 1 to 6, wherein
Causing the computer to further realize an output unit that outputs a search result by the predetermined search;
Send program.
前記音声データから、前記音声に含まれるキーワードである音声キーワードを抽出する音声キーワード抽出部と、
前記音声データから、前記音声の強さ、速度及び抑揚の少なくとも一つを含む、前記音声の特徴を抽出する音声特徴抽出部と、
前記音声の特徴に基づいて、予め格納された感情キーワード群から、抽出された前記音声の特徴に対応する感情キーワードを選択する感情キーワード選択部と、
抽出された前記音声キーワード及び選択された前記感情キーワードを送信する送信部と、
を備えた送信装置。A voice collecting unit that collects voice and generates voice data indicating the voice;
A speech keyword extraction unit that extracts speech keywords that are keywords included in the speech from the speech data;
A voice feature extraction unit for extracting features of the voice including at least one of strength, speed, and intonation of the voice from the voice data;
An emotion keyword selection unit for selecting an emotion keyword corresponding to the extracted voice feature from a previously stored emotion keyword group based on the voice feature;
A transmitter configured to transmit the extracted speech keyword and the selected emotion keyword;
Transmitter equipped with
前記音声データから、前記音声に含まれるキーワードである音声キーワードを抽出することと、
前記音声データから、前記音声の強さ、速度及び抑揚の少なくとも一つを含む、前記音声の特徴を抽出することと、
前記音声の特徴に基づいて、予め格納された感情キーワード群から、抽出された前記音声の特徴に対応する感情キーワードを選択することと、
抽出された前記音声キーワード及び選択された前記感情キーワードを送信することと
を含む送信方法。Collecting voice and generating voice data indicative of the voice;
Extracting an audio keyword which is a keyword included in the audio from the audio data;
Extracting features of the voice from the voice data, the voice characteristics including at least one of strength, speed, and intonation of the voice;
Selecting an emotion keyword corresponding to the feature of the voice extracted from a group of emotion keywords stored in advance based on the feature of the voice;
Transmitting the extracted speech keyword and the selected emotion keyword.
前記送信部は、前記送信装置の位置情報を送信する、送信装置。The transmitter according to claim 8, wherein
The transmission device transmits the position information of the transmission device.
前記音声キーワードを格納するキーワードデータベースと、
前記辞書データベースの更新指示を前記コンピュータから受信する受信部と、
前記受信部を通じて受信された前記更新指示に応答して、前記キーワードデータベースに格納されている音声キーワードの関連語を推測する推測部と、
前記キーワードデータベースに格納されている音声キーワードと、前記推測された関連語とに基づいて、更新後の辞書データベースを作成する辞書データベース作成部と、
前記更新後の辞書データベースを前記コンピュータに送信する送信部と、
を備える検索装置。A search apparatus for executing a search process based on the speech keyword and the emotion keyword according to claim 3, wherein
A keyword database storing the speech keywords;
A receiving unit that receives an instruction to update the dictionary database from the computer;
An estimation unit configured to estimate a related term of the speech keyword stored in the keyword database in response to the update instruction received through the reception unit;
A dictionary database creation unit for creating an updated dictionary database based on the speech keywords stored in the keyword database and the inferred related words;
A transmitter for transmitting the updated dictionary database to the computer;
A search device comprising
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016190878 | 2016-09-29 | ||
JP2016190878 | 2016-09-29 | ||
PCT/JP2017/033563 WO2018061839A1 (en) | 2016-09-29 | 2017-09-15 | Transmission device, transmission method, and transmission program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018061839A1 true JPWO2018061839A1 (en) | 2019-06-27 |
JP6781961B2 JP6781961B2 (en) | 2020-11-11 |
Family
ID=61759571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018542405A Active JP6781961B2 (en) | 2016-09-29 | 2017-09-15 | Transmission device, transmission method and transmission program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6781961B2 (en) |
WO (1) | WO2018061839A1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018207485A1 (en) * | 2017-05-11 | 2018-11-15 | 株式会社村田製作所 | Information processing system, information processing device, computer program, and method for updating dictionary database |
CN109087670B (en) * | 2018-08-30 | 2021-04-20 | 西安闻泰电子科技有限公司 | Emotion analysis method, system, server and storage medium |
CN111312245B (en) * | 2020-02-18 | 2023-08-08 | 腾讯科技(深圳)有限公司 | Voice response method, device and storage medium |
CN113808577A (en) * | 2021-09-18 | 2021-12-17 | 平安银行股份有限公司 | Intelligent extraction method and device of voice abstract, electronic equipment and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005275601A (en) * | 2004-03-23 | 2005-10-06 | Fujitsu Ltd | Information retrieval system with voice |
JP2009294790A (en) * | 2008-06-03 | 2009-12-17 | Denso Corp | System for providing information for vehicle |
JP2011028460A (en) * | 2009-07-24 | 2011-02-10 | J&K Car Electronics Corp | Information retrieval device, control method, and program |
JP2016122336A (en) * | 2014-12-25 | 2016-07-07 | クラリオン株式会社 | Intention estimation device and intention estimation system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4451037B2 (en) * | 2001-12-06 | 2010-04-14 | 株式会社ユニバーサルエンターテインメント | Information search system and information search method |
JP5610197B2 (en) * | 2010-05-25 | 2014-10-22 | ソニー株式会社 | SEARCH DEVICE, SEARCH METHOD, AND PROGRAM |
JP2014149571A (en) * | 2013-01-31 | 2014-08-21 | Nikon Corp | Content search device |
-
2017
- 2017-09-15 JP JP2018542405A patent/JP6781961B2/en active Active
- 2017-09-15 WO PCT/JP2017/033563 patent/WO2018061839A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005275601A (en) * | 2004-03-23 | 2005-10-06 | Fujitsu Ltd | Information retrieval system with voice |
JP2009294790A (en) * | 2008-06-03 | 2009-12-17 | Denso Corp | System for providing information for vehicle |
JP2011028460A (en) * | 2009-07-24 | 2011-02-10 | J&K Car Electronics Corp | Information retrieval device, control method, and program |
JP2016122336A (en) * | 2014-12-25 | 2016-07-07 | クラリオン株式会社 | Intention estimation device and intention estimation system |
Also Published As
Publication number | Publication date |
---|---|
WO2018061839A1 (en) | 2018-04-05 |
JP6781961B2 (en) | 2020-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11200506B2 (en) | Chatbot integrating derived user intent | |
CN108288467B (en) | Voice recognition method and device and voice recognition engine | |
US20150370780A1 (en) | Predictive conversion of language input | |
CN104598644B (en) | Favorite label mining method and device | |
JPWO2018061839A1 (en) | Transmission apparatus, transmission method and transmission program | |
US11881209B2 (en) | Electronic device and control method | |
JP6122792B2 (en) | Robot control apparatus, robot control method, and robot control program | |
KR102529262B1 (en) | Electronic device and controlling method thereof | |
KR101571240B1 (en) | Video Creating Apparatus and Method based on Text | |
KR20190083629A (en) | Method and apparatus for recognizing a voice | |
JP6927318B2 (en) | Information processing equipment, information processing methods, and programs | |
JP6745127B2 (en) | Information processing system, server, terminal device, information processing method, and program | |
JP6462936B1 (en) | Speech recognition system and speech recognition device | |
JP6804049B2 (en) | Information display program, data transmission program, data transmission device, data transmission method, information provision device and information provision method | |
JP6347938B2 (en) | Utterance key word extraction device, key word extraction system using the device, method and program thereof | |
KR102221963B1 (en) | Artificial intelligence device and method for providing image information | |
KR101191922B1 (en) | Instant Messenger Service Providing System and Method therefor, and Communication Terminal and Method | |
JP2018169745A (en) | Object authentication device and object authentication method | |
JP6347939B2 (en) | Utterance key word extraction device, key word extraction system using the device, method and program thereof | |
JP2020154378A (en) | Interaction device with himself or herself, chatbot, and robot | |
KR102642617B1 (en) | Voice synthesizer using artificial intelligence, operating method of voice synthesizer and computer readable recording medium | |
CN114038484A (en) | Voice data processing method and device, computer equipment and storage medium | |
JP6855021B2 (en) | Advertising system and advertising method | |
CN112823047A (en) | System and apparatus for controlling web applications | |
CN111971670A (en) | Generating responses in a conversation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200601 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200918 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201001 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6781961 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |