JP7405660B2 - 出力装置、出力方法及び出力プログラム - Google Patents
出力装置、出力方法及び出力プログラム Download PDFInfo
- Publication number
- JP7405660B2 JP7405660B2 JP2020050261A JP2020050261A JP7405660B2 JP 7405660 B2 JP7405660 B2 JP 7405660B2 JP 2020050261 A JP2020050261 A JP 2020050261A JP 2020050261 A JP2020050261 A JP 2020050261A JP 7405660 B2 JP7405660 B2 JP 7405660B2
- Authority
- JP
- Japan
- Prior art keywords
- predetermined
- information
- waveform information
- context
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 25
- 238000001514 detection method Methods 0.000 claims description 91
- 230000008569 process Effects 0.000 claims description 11
- 230000008451 emotion Effects 0.000 claims description 7
- 230000010365 information processing Effects 0.000 description 39
- 238000012545 processing Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 12
- 238000004458 analytical method Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000007796 conventional method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000000877 morphologic effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000003292 diminished effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000005316 response function Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/175—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
- G10K11/178—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
- G10K11/1781—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
- G10K11/17821—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions characterised by the analysis of the input signals only
- G10K11/17823—Reference signals, e.g. ambient acoustic environment
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/175—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
- G10K11/178—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
- G10K11/1787—General system configurations
- G10K11/17873—General system configurations using a reference signal without an error signal, e.g. pure feedforward
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2221/00—Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/21—Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/2111—Location-sensitive, e.g. geographical location, GPS
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/268—Morphological analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K2210/00—Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
- G10K2210/10—Applications
- G10K2210/105—Appliances, e.g. washing machines or dishwashers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K2210/00—Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
- G10K2210/30—Means
- G10K2210/301—Computational
- G10K2210/3023—Estimation of noise, e.g. on error signals
- G10K2210/30231—Sources, e.g. identifying noisy processes or components
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K2210/00—Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
- G10K2210/30—Means
- G10K2210/301—Computational
- G10K2210/3024—Expert systems, e.g. artificial intelligence
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K2210/00—Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
- G10K2210/30—Means
- G10K2210/301—Computational
- G10K2210/3033—Information contained in memory, e.g. stored signals or transfer functions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K2210/00—Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
- G10K2210/30—Means
- G10K2210/301—Computational
- G10K2210/3048—Pretraining, e.g. to identify transfer functions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Bioethics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Soundproofing, Sound Blocking, And Sound Damping (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
まず、図1を用いて、出力装置200が実行する出力処理の一例について説明する。図1は、実施形態に係る出力装置200が実行する出力処理の一例を示す図である。図1の例では、利用者U1が他の利用者U2及びU3に対して利用者U1を特定されうる個人情報を発話するものとする。この場合、出力装置200が個人情報を除く処理を実行する。また、図1の例では、利用者U1が利用者U2に対して発話した時間から、所定の時間経過した後に、利用者U1が利用者U3に対して発話するものとする。
上記実施形態では、実施形態に係る出力装置200が所定の検知装置によって検知された検知情報に基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測する予測処理について説明したが、出力装置200は、以下に示すような予測処理を行ってもよい。なお、ここでいうコンテキストは、例えば、利用者の属性、利用者の位置、利用者が発話した日時、利用者の感情等を示す状態、利用者がこれから行うであろう行動又は利用者が所定の地域に集まった場合の混雑の具合を示す混雑度等を含む。
図2に示すように、出力システム1は、情報処理装置100と、出力装置200とを含む。情報処理装置100及び出力装置200は、ネットワークNを介して、有線又は無線により通信可能に接続される。なお、図2に示す出力システム1には、複数台の情報処理装置100や、複数台の出力装置200が含まれてもよい。
以下、上記した情報処理装置100が有する機能構成の一例について説明する。図2は、実施形態に係る情報処理装置100の構成例を示す図である。図2に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、出力装置200との間で情報の送受信を行う。
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部120は、発言履歴データベース121を有する。
発言履歴データベース121は、利用者によって発話された発言に関する音声情報を記憶する。ここで、図3に、実施形態に係る発言履歴データベース121の一例を示す。図3に示した例では、発言履歴データベース121は、「発言履歴ID(Identifier)」、「対象発言」、「事前発言」といった項目を有する。
制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
学習部131は、各種情報を用いて、学習モデルを生成する。具体的には、学習部131は、発言履歴データベース121を参照して、事前発言から、所定のコンテキストを有する対象発言の発生を予測する予測モデルを生成する。例えば、学習部131は、機械学習等の従来技術を用いて、事前発言が示す音声の波形情報と、所定のコンテキストを有する対象発言が示す音声の波形情報とを学習することで、事前発言が示す音声の波形情報が入力された場合に、所定のコンテキストを有する対象発言が発話される確率を出力する予測モデルを生成する。
生成部132は、各種情報を生成する。具体的には、生成部132は、所定のコンテキストを有する対象発言を除去するために、所定のコンテキストを有する対象発言が示す音声の波形情報を打ち消す逆位相の波形情報を生成する。例えば、生成部132は、ノイズキャンセル等で用いられる従来技術によって、所定のコンテキストを有する対象発言「090-XXXX-XXXX」が示す音声の波形情報から逆位相の波形情報を生成する。
提供部133は、各種情報を提供する。具体的には、提供部133は、予測モデルと逆位相の音声とを出力装置200に提供する。例えば、提供部133は、事前発言が示す音声の波形情報が入力された場合に、所定のコンテキストを有する対象発言が発話される確率を出力する予測モデルと、所定のコンテキストを有する対象発言「090-XXXX-XXXX」が示す音声の逆位相の波形情報とを出力装置200に提供する。
以下、上記した出力装置200が有する機能構成の一例について説明する。図2は、実施形態に係る出力装置200の構成例を示す図である。図2に示すように、出力装置200は、通信部210と、記憶部220と、マイク230と、スピーカ231と、制御部240とを有する。
通信部210は、例えば、NIC等によって実現される。そして、通信部210は、ネットワークNと有線または無線で接続され、情報処理装置100との間で情報の送受信を行う。
記憶部220は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部220は、予測モデル221を有する。例えば、予測モデル221は、事前発言が示す音声の波形情報が入力された場合に、対象発言が発話される確率を出力する予測モデルである。
マイク230は、各種音及び音声を取得する。例えば、マイク230は、周囲の音を取得する。また、マイク230は、周囲に位置する利用者によって発話された音声を取得する。
スピーカ231は、各種音及び音声を出力する。例えば、スピーカ231は、任意の音及び音声を出力する。また、スピーカ231は、逆位相の音声を出力する。
制御部240は、コントローラであり、例えば、CPUやMPU等によって、出力装置200内部の記憶装置に記憶されている各種プログラム(出力プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部240は、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
取得部241は、各種情報を取得する。具体的には、取得部241は、利用者U1が利用者U2に対して発話を行った場合に、所定のコンテキストを有する対象発言に先駆けた事前発言を利用者U1から取得する。そして、取得部241は、利用者U1が利用者U2に対して発話を行った時間から、所定の時間が経過した場合に、利用者の発言を取得する。
予測部242は、各種情報を予測する。具体的には、予測部242は、所定の検知装置によって検知された検知情報に基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測する。
出力部243は、各種情報を出力する。具体的には、出力部243は、所定のコンテキストを有する波形情報が発生すると予測された場合に、所定のコンテキストを有する波形情報とは逆位相の波形情報を出力する。例えば、出力部243は、利用者U1によって所定のコンテキストを有する対象発言「090-XXXX-XXXX」が発話されると判定された場合に、所定のコンテキストを有する対象発言「090-XXXX-XXXX」が示す音声の逆位相の波形情報を利用者U1に対して出力する。これにより、出力部243は、利用者U1によって発話された音声のうち、所定のコンテキストを有する対象発言に相当する音声を選択的に除去することが可能となる。
次に、図4を用いて、実施形態に係る情報処理装置100が実行する情報処理の手順について説明する。図4は、実施形態に係る情報処理装置100が実行する情報処理の流れの一例を示すフローチャートである。
次に、図5を用いて、実施形態に係る出力装置200が実行する出力処理の手順について説明する。図5は、実施形態に係る出力装置200が実行する出力処理の流れの一例を示すフローチャートである。
上述した情報処理装置100及び出力装置200は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100及び出力装置200の他の実施形態について説明する。
上記実施形態では、利用者によって発話された発言が示す音声を例に挙げて説明してきたが、音声の代わりに、例えば、香り、光、電磁波、地震等の振動に対して上記実施形態で示した出力処理を適用してもよい。このように、上記実施形態は、周期的な変動を示す物理現象であるならば、如何なる物理現象に対しても適用されることが可能である。
上記実施形態では、利用者が特定されうる個人情報を発話し、個人情報に対応する発言を対象発言として例に挙げて説明してきたが、これに限定されない。例えば、他の利用者の個人情報又は侮辱したり、差別したりする内容に相当する発言に対して上記実施形態で示した出力処理を適用してもよい。また、利用者の口癖に対して上記実施形態で示した出力処理を適用してもよい。
上記実施形態では、出力装置200が所定のコンテキストを有する波形情報が発生すると予測された場合に、所定のコンテキストを有する波形情報とは逆位相の波形情報を出力する例を挙げて説明してきたが、これに限定されない。例えば、出力装置200は、逆位相の音声を出力する方向を限定してもよい。この場合、出力装置200は、逆位相の音声を、利用者が対象発言を発する方向に限定して出力してもよい。なお、逆位相の音声は、指向性を有していてもよい。
上記実施形態では、出力装置200がスマートスピーカとして例を挙げて説明したが、出力装置200は、音声再生機能を有するならば、如何なる情報処理装置であってもよい。具体的には、出力装置200は、ブラウザに表示されるウェブページやアプリケーション用のコンテンツ等のコンテンツにアクセスする利用者によって利用される端末装置であってもよい。
また、上述した実施形態に係る出力装置200は、例えば、図6に示すような構成のコンピュータ1000によって実現される。図6は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
上述してきたように、実施形態に係る出力装置200は、予測部242と、出力部243とを有する。予測部242は、所定の検知装置によって検知された検知情報に基づいて、所定のコンテキストを有する波形情報が発生するか否かを予測する。出力部243は、所定のコンテキストを有する波形情報が発生すると予測された場合に、所定のコンテキストを有する波形情報とは逆位相の波形情報を出力する。
1 出力システム
100 情報処理装置
110 通信部
120 記憶部
121 発言履歴データベース
130 制御部
131 学習部
132 生成部
133 提供部
200 出力装置
210 通信部
220 記憶部
221 予測モデル
230 マイク
231 スピーカ
240 制御部
241 取得部
242 予測部
243 出力部
Claims (12)
- 所定のコンテキストを有する対象発言を発話する前に行った事前発言が示す音声の波形情報が入力された場合に、当該対象発言の発生を予測することを学習した予測モデルを用いて、所定の検知装置によって検知された、当該所定の検知装置または検知された利用者に係る状態を含む検知情報に基づいて、所定のコンテキストを有する対象発言に係る音声の波形情報が発生するか否かを予測する予測部と、
当該所定のコンテキストを有する対象発言に係る音声の波形情報が発生すると予測された場合に、当該波形情報とは逆位相の波形情報を出力する出力部と
を備えることを特徴とする出力装置。 - 前記予測部は、前記所定のコンテキストを有する対象発言に係る音声の波形情報として、所定の波形を有する波形情報が発生するか否かを予測する
ことを特徴とする請求項1に記載の出力装置。 - 前記予測部は、
前記所定の検知装置によって検知情報が検知されたときの前記所定の検知装置が示す位置に基づいて、前記所定のコンテキストを有する対象発言に係る音声の波形情報が発生するか否かを予測し、
前記出力部は、
前記所定の検知装置によって検知情報が検知された位置が過去に前記所定のコンテキストを有する対象発言に係る音声の波形情報が検知された位置と類似する場合に、当該波形情報とは逆位相の波形情報を前記過去に所定のコンテキストを有する対象発言に係る音声の波形情報が検知された方向に出力する
ことを特徴とする請求項1又は2に記載の出力装置。 - 前記予測部は、
前記所定の検知装置によって検知情報が検知されたときの時間に関する時間情報に基づいて、前記所定のコンテキストを有する対象発言に係る音声の波形情報が発生するか否かを予測し、
前記出力部は、
前記所定の検知装置によって検知情報が検知された時間情報が過去に前記所定のコンテキストを有する対象発言に係る音声の波形情報が検知された時間情報と類似する場合に、当該波形情報とは逆位相の波形情報を出力する
ことを特徴とする請求項1~3のいずれか1つに記載の出力装置。 - 前記予測部は、
前記所定の検知装置によって過去に検知情報が検知されたときの天候に関する天候情報に基づいて、前記所定のコンテキストを有する対象発言に係る音声の波形情報が発生するか否かを予測し、
前記出力部は、
前記所定の検知装置によって検知情報が検知された天候情報が過去に前記所定のコンテキストを有する対象発言に係る音声の波形情報が検知された天候情報と類似する場合に、当該波形情報とは逆位相の波形情報を出力する
ことを特徴とする請求項1~4のいずれか1つに記載の出力装置。 - 前記予測部は、
前記検知情報に基づいて推定されるコンテキストに基づいて、前記所定のコンテキストを有する対象発言に係る音声の波形情報が発生するか否かを予測する
ことを特徴とする請求項1~5のいずれか1つに記載の出力装置。 - 前記予測部は、
前記コンテキストとして、過去に前記所定の検知装置によって利用者が前記所定のコンテキストを有する音声を発話した際に検知された当該利用者の状態と類似する状態が検知された場合に、当該所定のコンテキストを有する音声の波形情報が発生するかと予測する
ことを特徴とする請求項6に記載の出力装置。 - 前記予測部は、
前記コンテキストを有する音声を発話した際の利用者の感情に基づいて、前記所定のコンテキストを有する音声の波形情報が発生するか否かを予測する
ことを特徴とする請求項7に記載の出力装置。 - 前記予測部は、
過去に前記所定の検知装置によって検知された検知情報に基づいて、前記所定のコンテキストを有する対象発言に係る音声の波形情報が発生するか否かを予測する
ことを特徴とする請求項1~8のいずれか1つに記載の出力装置。 - 前記予測部は、
前記所定の検知装置によって検知された検知情報に基づく第1の波形情報と、前記過去に前記所定の検知装置によって検知された検知情報に基づく前記所定のコンテキストを有する対象発言に係る音声の第2の波形情報であって、当該第1の波形情報とは異なる他の第2の波形情報との類似性に基づいて、前記所定のコンテキストを有する対象発言に係る音声の波形情報が発生するか否かを予測する
ことを特徴とする請求項9に記載の出力装置。 - コンピュータが実行する出力方法であって、
所定のコンテキストを有する対象発言を発話する前に行った事前発言が示す音声の波形情報が入力された場合に、当該対象発言の発生を予測することを学習した予測モデルを用いて、所定の検知装置によって検知された、当該所定の検知装置または検知された利用者に係る状態を含む検知情報に基づいて、所定のコンテキストを有する対象発言に係る音声の波形情報が発生するか否かを予測する予測工程と、
当該所定のコンテキストを有する対象発言に係る音声の波形情報が発生すると予測された場合に、当該波形情報とは逆位相の波形情報を出力する出力工程と
を含むことを特徴とする出力方法。 - 所定のコンテキストを有する対象発言を発話する前に行った事前発言が示す音声の波形情報が入力された場合に、当該対象発言の発生を予測することを学習した予測モデルを用いて、所定の検知装置によって検知された、当該所定の検知装置または検知された利用者に係る状態を含む検知情報に基づいて、所定のコンテキストを有する対象発言に係る音声の波形情報が発生するか否かを予測する予測手順と、
当該所定のコンテキストを有する対象発言に係る音声の波形情報が発生すると予測された場合に、当該波形情報とは逆位相の波形情報を出力する出力手順と
をコンピュータに実行させるための出力プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020050261A JP7405660B2 (ja) | 2020-03-19 | 2020-03-19 | 出力装置、出力方法及び出力プログラム |
US17/198,125 US11763831B2 (en) | 2020-03-19 | 2021-03-10 | Output apparatus, output method and non-transitory computer-readable recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020050261A JP7405660B2 (ja) | 2020-03-19 | 2020-03-19 | 出力装置、出力方法及び出力プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021149697A JP2021149697A (ja) | 2021-09-27 |
JP7405660B2 true JP7405660B2 (ja) | 2023-12-26 |
Family
ID=77849275
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020050261A Active JP7405660B2 (ja) | 2020-03-19 | 2020-03-19 | 出力装置、出力方法及び出力プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11763831B2 (ja) |
JP (1) | JP7405660B2 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012119996A (ja) | 2010-12-01 | 2012-06-21 | Canon Inc | 撮像装置および情報処理システム |
JP2014206683A (ja) | 2013-04-15 | 2014-10-30 | 株式会社ニコン | 消音装置および消音方法 |
WO2016181670A1 (ja) | 2015-05-11 | 2016-11-17 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2017175584A (ja) | 2016-03-25 | 2017-09-28 | キヤノン株式会社 | 撮像装置及び音声記録装置 |
JP6392950B1 (ja) | 2017-08-03 | 2018-09-19 | ヤフー株式会社 | 検出装置、検出方法、および検出プログラム |
JP2019139089A (ja) | 2018-02-13 | 2019-08-22 | 株式会社フュートレック | 音声秘匿装置および音声秘匿プログラム |
Family Cites Families (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5135079A (en) * | 1990-02-28 | 1992-08-04 | Kabushiki Kaisha Toshiba | Noise prevention apparatus for a cable winch elevator |
US7088828B1 (en) * | 2000-04-13 | 2006-08-08 | Cisco Technology, Inc. | Methods and apparatus for providing privacy for a user of an audio electronic device |
DE60141403D1 (de) * | 2000-06-09 | 2010-04-08 | Japan Science & Tech Agency | Hörvorrichtung für einen Roboter |
JP4145302B2 (ja) * | 2003-04-14 | 2008-09-03 | 富士通株式会社 | 対話装置、対話方法及び対話プログラム |
EP1630713B1 (en) * | 2004-08-24 | 2020-05-20 | Sony Deutschland GmbH | Backscatter interrogator reception method and interrogator for a modulated backscatter system |
US7925504B2 (en) * | 2005-01-20 | 2011-04-12 | Nec Corporation | System, method, device, and program for removing one or more signals incoming from one or more directions |
US7647077B2 (en) * | 2005-05-31 | 2010-01-12 | Bitwave Pte Ltd | Method for echo control of a wireless headset |
JP4511436B2 (ja) * | 2005-08-15 | 2010-07-28 | ビーバ株式会社 | 反射板式消音管 |
FI20055590L (fi) * | 2005-11-03 | 2007-05-04 | Wearfone Oy | Menetelmä ja laite äänen muodostamiseksi langattomasti käyttäjän korvaan |
US20070223714A1 (en) * | 2006-01-18 | 2007-09-27 | Masao Nishikawa | Open-air noise cancellation system for large open area coverage applications |
US20120204887A1 (en) * | 2011-02-11 | 2012-08-16 | Connor Robert A | Adjustable Snore-Attenuating Pressure (ASAP) |
US20120226981A1 (en) * | 2011-03-02 | 2012-09-06 | Microsoft Corporation | Controlling electronic devices in a multimedia system through a natural user interface |
US9928824B2 (en) * | 2011-05-11 | 2018-03-27 | Silentium Ltd. | Apparatus, system and method of controlling noise within a noise-controlled volume |
GB2497343B (en) * | 2011-12-08 | 2014-11-26 | Skype | Processing audio signals |
JP5928048B2 (ja) * | 2012-03-22 | 2016-06-01 | ソニー株式会社 | 情報処理装置、情報処理方法、情報処理プログラムおよび端末装置 |
US9190057B2 (en) * | 2012-12-12 | 2015-11-17 | Amazon Technologies, Inc. | Speech model retrieval in distributed speech recognition systems |
WO2014097748A1 (ja) * | 2012-12-18 | 2014-06-26 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 特定の話者の音声を加工するための方法、並びに、その電子装置システム及び電子装置用プログラム |
CN103020047A (zh) * | 2012-12-31 | 2013-04-03 | 威盛电子股份有限公司 | 修正语音应答的方法及自然语言对话系统 |
KR20140089871A (ko) * | 2013-01-07 | 2014-07-16 | 삼성전자주식회사 | 대화형 서버, 그 제어 방법 및 대화형 시스템 |
JP6289121B2 (ja) * | 2014-01-23 | 2018-03-07 | キヤノン株式会社 | 音響信号処理装置、動画撮影装置およびそれらの制御方法 |
US20160118036A1 (en) * | 2014-10-23 | 2016-04-28 | Elwha Llc | Systems and methods for positioning a user of a hands-free intercommunication system |
JP6122816B2 (ja) * | 2014-08-07 | 2017-04-26 | シャープ株式会社 | 音声出力装置、ネットワークシステム、音声出力方法、および音声出力プログラム |
US9940929B2 (en) * | 2015-12-09 | 2018-04-10 | Lenovo (Singapore) Pte. Ltd. | Extending the period of voice recognition |
JP2017107078A (ja) | 2015-12-10 | 2017-06-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 音声対話方法、音声対話装置及び音声対話プログラム |
US10370098B1 (en) * | 2015-12-18 | 2019-08-06 | Amazon Technologies, Inc. | Adjustable propeller blade with sound flaps |
JPWO2017115545A1 (ja) * | 2015-12-28 | 2018-10-18 | ソニー株式会社 | コントローラ、入出力装置、及び通信システム |
JP6819672B2 (ja) * | 2016-03-31 | 2021-01-27 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP6219448B1 (ja) * | 2016-05-16 | 2017-10-25 | Cocoro Sb株式会社 | 顧客応対制御システム、顧客応対システム及びプログラム |
EP3466141B1 (en) * | 2016-05-23 | 2022-06-15 | InterDigital CE Patent Holdings | Method and devices for providing wireless coverage |
US10118692B1 (en) * | 2016-06-27 | 2018-11-06 | Amazon Technologies, Inc. | Drone noise reduction via simultaneous propeller modulation |
KR102502220B1 (ko) * | 2016-12-20 | 2023-02-22 | 삼성전자주식회사 | 전자 장치, 그의 사용자 발화 의도 판단 방법 및 비일시적 컴퓨터 판독가능 기록매체 |
JP7070544B2 (ja) * | 2017-03-13 | 2022-05-18 | ソニーグループ株式会社 | 学習装置、学習方法、音声合成装置、音声合成方法 |
US10878819B1 (en) * | 2017-04-25 | 2020-12-29 | United Services Automobile Association (Usaa) | System and method for enabling real-time captioning for the hearing impaired via augmented reality |
US10258295B2 (en) * | 2017-05-09 | 2019-04-16 | LifePod Solutions, Inc. | Voice controlled assistance for monitoring adverse events of a user and/or coordinating emergency actions such as caregiver communication |
US11315560B2 (en) * | 2017-07-14 | 2022-04-26 | Cognigy Gmbh | Method for conducting dialog between human and computer |
US10083006B1 (en) * | 2017-09-12 | 2018-09-25 | Google Llc | Intercom-style communication using multiple computing devices |
US11200027B2 (en) * | 2017-09-19 | 2021-12-14 | Google Llc | Virtual assistant configured to automatically customize groups of actions |
CN109637517B (zh) * | 2017-10-06 | 2023-05-26 | 松下电器(美国)知识产权公司 | 控制装置、控制系统以及控制方法 |
CN109625261B (zh) * | 2017-10-06 | 2023-09-22 | 松下电器(美国)知识产权公司 | 无人飞行器 |
KR101972545B1 (ko) * | 2018-02-12 | 2019-04-26 | 주식회사 럭스로보 | 음성 명령을 통한 위치 기반 음성 인식 시스템 |
US10755706B2 (en) * | 2018-03-26 | 2020-08-25 | Midea Group Co., Ltd. | Voice-based user interface with dynamically switchable endpoints |
JP7152906B2 (ja) * | 2018-09-03 | 2022-10-13 | 日立Astemo株式会社 | 操舵制御装置、操舵制御方法、及び操舵制御システム |
US20200092339A1 (en) * | 2018-09-17 | 2020-03-19 | International Business Machines Corporation | Providing device control instructions for increasing conference participant interest based on contextual data analysis |
CN111192568B (zh) * | 2018-11-15 | 2022-12-13 | 华为技术有限公司 | 一种语音合成方法及语音合成装置 |
WO2020105466A1 (ja) * | 2018-11-21 | 2020-05-28 | ソニー株式会社 | 情報処理装置、及び情報処理方法 |
US11875776B2 (en) * | 2018-11-22 | 2024-01-16 | Sony Group Corporation | Response generating apparatus, response generating method, and response generating program |
DK3681175T3 (da) * | 2019-01-09 | 2022-07-04 | Oticon As | Høreanordning med direkte lydkompensation |
WO2020161982A1 (ja) * | 2019-02-05 | 2020-08-13 | ソニー株式会社 | 音響装置 |
JP7452528B2 (ja) * | 2019-03-26 | 2024-03-19 | ソニーグループ株式会社 | 情報処理装置及び情報処理方法 |
JP6822693B2 (ja) * | 2019-03-27 | 2021-01-27 | 日本電気株式会社 | 音声出力装置、音声出力方法および音声出力プログラム |
US11026035B1 (en) * | 2019-04-19 | 2021-06-01 | Cirrus Logic, Inc. | Transducer electrical characteristic and state sensing using multiple voice coils |
JP7279494B2 (ja) * | 2019-04-23 | 2023-05-23 | コニカミノルタ株式会社 | 会議支援装置、および会議支援システム |
CN110301890B (zh) * | 2019-05-31 | 2021-09-07 | 华为技术有限公司 | 呼吸暂停监测的方法及装置 |
KR20190099380A (ko) * | 2019-08-07 | 2019-08-27 | 엘지전자 주식회사 | 사용자의 행동 패턴에 기반한 AI(Artificial Intelligence) 장치와 디바이스를 연계하는 방법 및 이를 위한 장치 |
US11942108B2 (en) * | 2019-10-04 | 2024-03-26 | Sony Group Corporation | Information processing apparatus and information processing method |
JP7268582B2 (ja) * | 2019-11-12 | 2023-05-08 | トヨタ自動車株式会社 | 乗物用消音装置及び乗物用消音方法 |
US10791219B1 (en) * | 2019-11-25 | 2020-09-29 | International Business Machines Corporation | Audio content control of idle call condition |
US11386890B1 (en) * | 2020-02-11 | 2022-07-12 | Amazon Technologies, Inc. | Natural language understanding |
US11335342B2 (en) * | 2020-02-21 | 2022-05-17 | International Business Machines Corporation | Voice assistance system |
-
2020
- 2020-03-19 JP JP2020050261A patent/JP7405660B2/ja active Active
-
2021
- 2021-03-10 US US17/198,125 patent/US11763831B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012119996A (ja) | 2010-12-01 | 2012-06-21 | Canon Inc | 撮像装置および情報処理システム |
JP2014206683A (ja) | 2013-04-15 | 2014-10-30 | 株式会社ニコン | 消音装置および消音方法 |
WO2016181670A1 (ja) | 2015-05-11 | 2016-11-17 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2017175584A (ja) | 2016-03-25 | 2017-09-28 | キヤノン株式会社 | 撮像装置及び音声記録装置 |
JP6392950B1 (ja) | 2017-08-03 | 2018-09-19 | ヤフー株式会社 | 検出装置、検出方法、および検出プログラム |
JP2019139089A (ja) | 2018-02-13 | 2019-08-22 | 株式会社フュートレック | 音声秘匿装置および音声秘匿プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20210358511A1 (en) | 2021-11-18 |
JP2021149697A (ja) | 2021-09-27 |
US11763831B2 (en) | 2023-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11282522B2 (en) | Artificial intelligence apparatus and method for recognizing speech of user | |
US11211047B2 (en) | Artificial intelligence device for learning deidentified speech signal and method therefor | |
US11574637B1 (en) | Spoken language understanding models | |
US20190180747A1 (en) | Voice recognition apparatus and operation method thereof | |
US10838954B1 (en) | Identifying user content | |
JP7230806B2 (ja) | 情報処理装置、及び情報処理方法 | |
CN111201567A (zh) | 用于与数字媒体内容交互的口语、面部和姿势通信设备和计算体系架构 | |
JP6597527B2 (ja) | 音声認識装置および音声認識方法 | |
JP7525575B2 (ja) | ビジュアルコンテンツからのインタラクティブなオーディオトラックの生成 | |
JP6846617B2 (ja) | 情報提供方法、サーバ、情報端末装置、システム及び音声対話システム | |
CN110413834B (zh) | 语音评论修饰方法、系统、介质和电子设备 | |
CN117529773A (zh) | 用户自主个性化文本转语音的声音生成 | |
US20200402498A1 (en) | Information processing apparatus, information processing method, and program | |
JP7405660B2 (ja) | 出力装置、出力方法及び出力プログラム | |
US11922538B2 (en) | Apparatus for generating emojis, vehicle, and method for generating emojis | |
JP7248615B2 (ja) | 出力装置、出力方法及び出力プログラム | |
US11227591B1 (en) | Controlled access to data | |
WO2021166504A1 (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
JP2022021349A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20240318971A1 (en) | Interactive Voice Navigation | |
KR102443914B1 (ko) | 사용자의 행동 추천 방법 및 장치 | |
US20240029730A1 (en) | Predictive deletion of user input | |
WO2021131737A1 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
WO2020166183A1 (ja) | 情報処理装置及び情報処理方法 | |
CN116013300A (zh) | 用于车载环境下的数据处理方法、装置及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210719 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220511 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220725 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230118 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230118 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230125 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230131 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20230310 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20230314 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20230314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230911 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20231026 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7405660 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |